El pasado lunes se publicaron en Nature Neuroscience los resultados de una investigación de la Universidad de Texas Austin sobre un innovador «decodificador semántico» que utiliza inteligencia artificial para convertir escaneos de la actividad del habla del cerebro humano en texto parafraseado.
Aunque aún es relativamente impreciso en comparación con los textos originales, el desarrollo representa un gran paso adelante para el papel de la IA en la tecnología de asistencia, y sus creadores ya advierten que podría ser mal utilizado si no se regula adecuadamente.
El nuevo sistema integra un programa generativo similar al conocido GPT-4 de OpenAI junto con la tecnología existente capaz de interpretar imágenes de resonancia magnética funcional (fMRI), un dispositivo que monitorea cómo y donde la sangre fluye a áreas particulares del cerebro. Si bien las interfaces cerebro-computadora (BCI) anteriores se han mostrado prometedoras para lograr capacidades de traducción similares, la versión de UT Austin es, según se informa, la primera versión no invasiva que no requiere implantes físicos o cableado reales.
En el estudio, los investigadores pidieron a tres sujetos de prueba que cada uno pasara un total de 16 horas dentro de una máquina fMRI escuchando podcasts de audio. Mientras tanto, el equipo entrenó un modelo de IA para crear y analizar características semánticas mediante el análisis de comentarios de Reddit y textos autobiográficos. Al combinar los dos conjuntos de datos, la IA aprendió y combinó palabras y frases asociadas con escaneos de los cerebros de los sujetos para crear vínculos semánticos.
Después de este paso, se les pidió una vez más a los participantes que se colocaran en un escáner fMRI y escucharan un nuevo audio que no formaba parte de los datos originales. Posteriormente, el decodificador semántico tradujo el audio a texto a través de los escaneos de la actividad cerebral, e incluso podría producir resultados similares cuando los sujetos miraban videoclips silenciosos o imaginaban sus propias historias dentro de sus cabezas.
Si bien las transcripciones de la IA generalmente ofrecían respuestas fuera de lugar o redactadas de manera imprecisa, el resultado general aún parafraseaba con éxito los monólogos internos de los sujetos de prueba. A veces, incluso reflejaba con precisión las opciones de palabras de audio.
Aunque todavía se encuentra en sus primeras etapas, los investigadores esperan que en el futuro, las versiones mejoradas puedan proporcionar una nueva y poderosa herramienta de comunicación para las personas que han perdido la capacidad de hablar de manera audible, como las víctimas de accidentes cerebrovasculares o las que padecen ELA. En la actualidad, los escáneres fMRI son máquinas muy voluminosas e inmóviles restringidas a instalaciones médicas, pero el equipo espera investigar cómo podría funcionar un sistema similar utilizando una espectroscopia funcional de infrarrojo cercano (fNIRS).
La inteligencia artificial (IA) permite a los investigadores interpretar los pensamientos humanos, y esta tecnología está generando preocupaciones sobre la privacidad. El nuevo sistema puede traducir la actividad cerebral de una persona mientras escucha una historia en un flujo continuo de texto. Aunque inicialmente está diseñado para ayudar a las personas que no pueden hablar, como aquellas afectadas por derrames cerebrales, a comunicarse hay preocupaciones de que las mismas técnicas podrían usarse algún día para invadir nuestros pensamientos. Hay gente incluso que opina que estas técnicas representan una amenaza existencial a algo nunca antes preocupante: nuestra privacidad cerebral.
390