La responsable del proyecto Brain Polyphony, Mara Dierssen (izq.), y su
equipo hacen una prueba del prototipo que han desarrollado / EFE
"Las emociones y sentimientos que genera los seres humanos ya se
pueden traducir en un sonido audible. No suena igual la alegría más
intensa que la pena más profunda. Lo saben bien los científicos del
Centro de Regulación Genómica (CRG) de Barcelona que han desarrollado un
sistema de comunicación pionero que convierte en tiempo real las ondas
eléctricas que se producen en el cerebro en toda una orquesta polifónica
según el tipo de emoción y la reacción que provoca en el cuerpo un
determinado sentimiento.
El dispositivo está pensado para "dar voz" a
las personas con algún tipo de discapacidad motora que les impide comunicarse con facilidad con su entorno.
Aunque ya existen sistemas de traducción de señales cerebrales,
este es el primer prototipo que convierte los impulsos eléctricos del
cerebro en sonido en tiempo real y no precisa de un control motor por
parte del paciente —el movimiento de la retina de los ojos, por ejemplo—
para ponerlo en marcha. El sistema, denominado Brain Polyphony, consta
de un casco y un software.
El proceso comienza colocando el
casco en la cabeza del individuo, que funciona como una interfaz que
conecta su cerebro con un software que traduce sus ondas
cerebrales en sonidos. "Este sistema explora la posibilidad de crear un
sistema de comunicación alternativa entre pacientes con parálisis cerebral. Así, sonificamos
ondas cerebrales para proveer de un medio de comunicación a las
personas que no pueden comunicarse", ha explicado esta mañana Mar
Dierssen, jefa de grupo en el CRG y responsable del proyecto.
A través del casco, que se llama Enobio y se conecta con el
organismo mediante electrodos, los científicos miden la actividad
cerebral y cardíaca del paciente. Los sensores calculan las emociones a
partir de los patrones cerebrales, cardíacos, musculares y de
acelerometría que se generan en el organismo ante un determinado
sentimiento.
El dispositivo recoge toda esta información y mide dos
parámetros emocionales: la valencia, que indica si el sentimiento es
agradable o no, y la arousal, que marca la intensidad de esa emoción. "A
partir de estos dos elementos somos capaces de mapear emociones concretas y darles un sonido", ha apuntado David Ibáñez, investigador
de la empresa de innovación Starlab, que ha participado en el proyecto
del CRG junto al equipo de investigación Barcelona Research Art &
Creation (BR::AC) de la Universidad de Barcelona. Toda la información
adquirida a través de la interfaz se traslada a un ordenador con un software que traduce, en tiempo real, las emociones recogidas en sonidos.
Según cada caso, los investigadores deciden si se ha de utilizar el
patrón cerebral, el cardíaco o el motor (o los tres a la vez); luego
realizan un cálculo basal (registran cuál es el estado neutro del
paciente) y, a partir de ahí, comienzan con el análisis de las
reacciones registradas a partir de estímulos visuales y auditivos en el
ordenador.
Aunque el dispositivo todavía se encuentra en fase piloto, los
científicos ya han probado el sistema con voluntarios sanos y dos
personas con parálisis cerebral y, según los investigadores, "los
resultados han sido satisfactorios". Durante el próximo año, el sistema
Brain Polyphony será desarrollado completamente y aplicado a 15
pacientes más para comprobar su rendimiento. " (
Jessica Mouzo Quintáns
, El País, Barcelona
8 JUL 2015)
No hay comentarios:
Publicar un comentario