Autor: ALEXIS IBARRA O.
Gracias a microimplantes y en tiempo real, por primera vez logran leer los pensamientos
Gracias a microimplantes y en tiempo real, por primera vez logran leer los pensamientos Un gran paso dio un equipo de investigadores de la U. de Stanford al lograr, por primera vez, “leer” en tiempo real el habla interna de una persona el monólogo que tiene lugar en su mente cuando piensa en hablar y traducirlo en palabras en una pantalla, con una precisión de hasta el 74%. “Es la primera vez que logramos comprender cómo es la actividad cerebral cuando solo se piensa en hablar”, dice Erin Kunz, investigadora de la U. de Stanford y autora principal del estudio publicado ayer por la revista Cell. Los investigadores registraron la actividad neuronal de cuatro personas con parálisis grave debido a esclerosis lateral amiotrófica (ELA) o un accidente cerebrovascular en el tronco encefálico. Para ello les implantaron un conjunto de microelectrodos en la corteza motora, una región del cerebro responsable del habla. Luego, les pidieron que intentaran hablar y, además, que imaginaran una serie de palabras. Así, hallaron que el intento de hablar y el habla interna activan regiones superpuestas del cerebro. “Descubrimos que el habla interna evocaba patrones de actividad claros y robustos en estas regiones cerebrales.
Estos patrones son una versión similar, pero más reducida, de los patrones de actividad evocados al intentar hablar”, dijo Frank Willet, codirector del Laboratorio de Prótesis Neuronales de la U. de Stanford y uno de los coautores del estudio. MAETETAGNIARB Y ROME Utilizando los datos del habla interna, el equipo entrenó modelos de inteligencia artificial para interpretar las palabras imaginadas.
Así se pudo decodificar frases imaginadas de un vocabulario de hasta 125.000 palabras con una precisión del 74%. Este avance abre nuevas perspectivas para que personas que no pueden hablar puedan comunicarse fácil y fluidamente mediante tecnologías de interfaz cerebro-computador, conocidas como BCI.
“El principal avance es que, por primera vez, se logran frases completas del habla interna lo que una persona se dice por dentro en tiempo real, sin que el usuario tenga que intentar mover los músculos del habla.
Además, el sistema funciona con un vocabulario amplio de hasta 125.000 palabras y solo puede activarse cuando la persona imagina una palabra clave para proteger su privacidad”, dice Matías Villarroel Vera, director (s) de la carrera de Tecnología Médica de la U. Andrés Bello sede Concepción y máster en Aplicaciones de la Inteligencia Artificial en la Sanidad.
Con contraseña El hecho de que se haya creado un sistema de contraseñas para activar la lectura del pensamiento es visto con buenos ojos por Pedro Maldonado, académico del Departamento de Neurociencia de la Facultad de Medicina de la U. de Chile e investigador principal del Centro Nacional de Inteligencia Artificial. El sistema solo se activaba cuando el paciente piensa en la palabra “chitty chitty bang bang”, una película de los años 60. Se usó está palabra ya que no es algo que se suela usar cotidianamente.
A pesar de que es complejo leer el pensamiento de las personas y se requiere equipamiento muy especializado, el hecho de que el sistema tenga contraseña “recoge las preocupaciones éticas sobre la privacidad de las personas, de manera que puedan decidir el momento en que sus pensamientos sean traducidos”, dice Maldonado. Los sistemas BCI han avanzado vertiginosamente en el último tiempo. “Al inicio codificaban intención de movimiento de brazos y piernas, lo que permitía que personas tetrapléjicas pudieran mover brazos robóticos o sus propios brazos al ser estimulados eléctricamente”, dice Maldonado.
“Estas interfaces avanzaron bastante, permitiendo que, en personas con dificultades de comunicación, se pudiera interpretar su actividad cerebral relacionada con la intención de mover la boca y usar la IA para codificar el habla”. Pero todos estos casos y otros en que se requiere el movimiento ocular para mover cursores resultan lentos y cansadores para el paciente. “Si solo hay que pensar en el habla en lugar de intentar hablar, es potencialmente más fácil y rápido para esas personas”, dijo Benyamin Meschede-Krasa, coautor principal e investigador en Stanford. “No es necesario mover los labios ni controlar la respiración, por lo que la comunicación puede volverse más fluida y natural. Además, como utiliza señales cerebrales muy parecidas a las del habla real, el sistema puede reconocer frases completas con un vocabulario amplio”, dice Villarroel. Por el momento, sus aplicaciones solo son clínicas, “ya que se requiere intervenir el cerebro”, dice Maldonado. Aunque cree que en el futuro las interfaces cerebro-máquina que no requieran cirugía podrían usarse para el ámbito laboral, como el manejo de maquinaria a distancia.
Esto nos da esperanza de que sistemas futuros puedan restaurar el habla, fluida, rápida y en forma cómoda en personas con parálisis, solamente usando el habla interna”.. ............................................................................. FRANK WILLET CODIRECTOR DEL LABORATORIO DE PRÓTESIS NEURONALES DE LAU. DE STANFORD.. A diferencia de otras experiencias, no es necesario que la persona intente mover los músculos relacionados con el habla, sino que interpreta directamente el monólogo mental.
Se logró una precisión del 74% en pacientes con parálisis grave: ‘‘Esto nos da esperanza de que sistemas futuros puedan restaurar el habla, fluida, rápida y en forma cómoda en personas con parálisis, solamente usando ‘el habla interna’”.. ............................................................................. FRANK WILLET CODIRECTOR DEL LABORATORIO DE PRÓTESIS NEURONALES DE LAU. DE STANFORD. En la foto, una paciente imposibilitada de hablar usa la neuroprótesis. Así, lo que piensa aparece en la pantalla, sin que sea cansador, como ocurría con métodos anteriores.