Clicky

Comunicación manos libres sin decir una palabra

implante cerebral

Facebook está explorando el control del cerebro para dispositivos portátiles

Investigación del cerebro decodifica por primera vez al instante los pensamientos como palabras

Las máquinas que pueden conectarse a nuestros cerebros e interpretar sus señales eléctricas tienen todo tipo de potencial en todo tipo de áreas. Una demostración perfecta de esto es una asociación de investigación entre científicos de la Universidad de California en San Francisco, que desean ayudar a los pacientes discapacitados a hablar nuevamente, y Facebook, que busca tecnologías que permitan a la población en general escribir palabras con la mente.

Esta colaboración ha producido ahora un emocionante avance, demostrando tecnología que por primera vez decodifica las ondas cerebrales como palabras y frases en tiempo real.

Para las personas sanas (y para bien o para mal), no hay un gran salto entre los pensamientos que nos gustaría compartir y las palabras que salen de nuestras bocas. Pero es una historia muy diferente para las personas que han sufrido un derrame cerebral, una lesión de la médula espinal o una enfermedad cerebral que puede impedir su capacidad de hablar.

Una gran cantidad de investigación sobre las interfaces cerebro-máquina (IMC) se centra en devolverles la voz a estas personas, y los científicos lo han estado haciendo durante bastante tiempo. En 2006, por ejemplo, se informó sobre una "máquina mental de escribir", una IMC que demostraba cómo podían convertirse las señales cerebrales en entradas de control para un teclado, y desde entonces no ha habido escasez de prometedores avances.

Pero los investigadores de la Universidad de California en San Francisco (UCSF) han hecho un gran avance que, según ellos, representa el primero en el campo. Se basa en un avance que el equipo hizo a principios de año, donde desarrolló un implante cerebral que podría convertir las señales en un lenguaje sintetizado.

Sin embargo, un inconveniente era que los científicos necesitaban semanas o meses para llevar a cabo las traducciones. Ahora, el equipo dice que la tecnología es capaz de decodificar palabras y frases habladas en tiempo real.

En el nuevo estudio participaron tres sujetos voluntarios que tenían implantado un pequeño parche de electrodos en la superficie de sus cerebros. El equipo formuló una serie de nueve preguntas a los voluntarios, mientras usaba algoritmos de aprendizaje automático recientemente desarrollados para convertir su señal cerebral en los bloques de construcción del habla.

Al igual que con la investigación anterior, esto se centra en la actividad electromagnética asociada con el control previsto sobre la mandíbula, los labios y la lengua. Si bien los pacientes pueden experimentar parálisis facial como resultado de sus lesiones, las regiones cerebrales detrás de estos movimientos a menudo permanecen intactas, que es exactamente lo que los científicos están tratando de aprovechar.

Las preguntas formuladas a los participantes fueron simples como "Del 0 al 10, ¿qué tan cómodo se siente?" y "¿Cómo está tu habitación actualmente?" Luego se hicieron que los sujetos respondieran en voz alta con una de las 24 respuestas predefinidas. Con el tiempo, el algoritmo de aprendizaje automático pudo determinar correctamente qué respuesta estaban proporcionando, basándose únicamente en su actividad cerebral.

"El procesamiento en tiempo real de la actividad cerebral se ha utilizado para decodificar sonidos simples del habla, pero esta es la primera vez que este enfoque se ha utilizado para identificar palabras y frases habladas", dice el investigador postdoctoral de la UCSF y coautor del estudio, David Moses. "Es importante tener en cuenta que logramos esto usando un vocabulario muy limitado, pero en futuros estudios esperamos aumentar la flexibilidad y la precisión de lo que podemos traducir de la actividad cerebral".

decodificación de voz en tiempo real

Imagen: Esquema de decodificación de voz en tiempo real durante una tarea de pregunta (azul) y respuesta (rojo).

Ayudar a acelerar las cosas fue el hecho de que el algoritmo escuchó a ambos lados de la conversación, en lugar de simplemente el discurso del tema. Al escuchar la pregunta, fue capaz de reducir rápidamente las posibles respuestas como resultado del contexto adicional.

"La mayoría de los enfoques anteriores se han centrado en decodificar solo el discurso, pero aquí mostramos el valor de decodificar ambos lados de una conversación, tanto las preguntas que alguien escucha como lo que dicen en respuesta", dice el miembro del equipo y neurocientífico del habla Eddie Chang. "Esto refuerza nuestra intuición de que el habla no es algo que ocurre en el vacío y que cualquier intento de decodificar lo que los pacientes con impedimentos del habla están tratando de decir mejorará teniendo en cuenta el contexto completo en el que están tratando de comunicarse".

Desde el punto de vista de Facebook, si este tipo de tecnología se pudiera aplicar de manera no invasiva para la población en general, podría permitir a las personas, por ejemplo, enviar un mensaje de texto sin siquiera sacar su teléfono. Mientras nuestros cerebros se mueven rápidamente y generan una cantidad monumental de datos, los dedos que usamos para escribir las cosas operan mucho más lentamente.

El gigante de las redes sociales ha dicho que está trabajando en un sistema que nos permitiría escribir desde nuestros cerebros unas cinco veces más rápido de lo que son capaces nuestros humildes dedos, aspiraciones que se hacen eco de la aventura Neuralink de Elon Musk y otros investigadores en el campo.

Mark Chevillet de Facebook

Sin embargo, los investigadores de la UCSF siguen centrados en el potencial clínico de su tecnología y ahora continuarán trabajando para mejorar su eficiencia, precisión y variedad de aplicaciones. Otro uso sería permitir que las personas paralizadas controlen las extremidades protésicas y las computadoras a través de la señalización cerebral, que también es otra posibilidad que están explorando varios investigadores de todo el mundo.

La investigación del equipo fue publicada en la revista Nature Communications: Real-time decoding of question-and-answer speech dialogue using human cortical activity

Jesus_Caceres