Un equipo de investigadores ha logrado un avance en el campo de la neurotecnología que sorprenderá a propios y extraños. Una mujer con parálisis severa ha conseguido comunicarse casi en tiempo real gracias a una interfaz cerebral controlada por inteligencia artificial (IA). Este desarrollo ha sido posible mediante la implantación de una serie de electrodos sobre la superficie del cerebro, los cuales captan la actividad neuronal relacionada con el habla. La información recogida es procesada por un sistema de IA que interpreta las señales y las convierte en texto o habla sintetizada.
¿Cómo funciona la interfaz de la IA y cuál es su base tecnológica?
El “experimento” se llevó a cabo por científicos de la Universidad de California en San Francisco (UCSF), y publicado recientemente en la revista Nature. La paciente, que no puede hablar desde que sufrió un derrame cerebral hace más de 15 años, ahora puede expresar sus ideas a través de una interfaz digital que traduce sus intentos de hablar en frases completas con un desfase de apenas unos segundos. Este sistema permite alcanzar velocidades de hasta 78 palabras por minuto, acercándose al ritmo normal del habla, que ronda las 120 palabras por minuto.
El dispositivo implantado consiste en una rejilla de electrodos colocada sobre la corteza motora del habla, que es la zona del cerebro responsable de planificar y ejecutar los movimientos musculares necesarios para hablar. A diferencia de los sistemas tradicionales basados en la mirada o en la escritura con un cursor, esta tecnología intenta leer directamente la intención de hablar del cerebro, incluso si los músculos implicados ya no responden
La IA juega un papel clave en el proceso, ya que entrena un modelo personalizado para cada paciente, capaz de identificar patrones neuronales específicos asociados a fonemas, palabras y frases. El modelo va ajustándose con el tiempo mediante sesiones de entrenamiento, durante las cuales el paciente intenta verbalizar frases que el sistema ya conoce. Con el tiempo, el software aprende a predecir con alta precisión lo que la persona intenta decir, generando texto o reproduciendo una voz sintética basada en un banco de voz creado previamente. En este caso tenían mensajes de voz de cuando la mujer podía hablar, usándolos en la Inteligencia Artificial.
¿Cuáles son las futuras aplicaciones de este hallazgo?
Aunque el proyecto todavía se encuentra en fase experimental, los resultados dejan claro que este tipo de tecnologías podrían convertirse en una solución viable para personas con ELA, tetraplejia o afasias graves, que hasta ahora dependían de métodos de comunicación muy limitados y lentos. Las pruebas realizadas han demostrado que el sistema puede mantenerse estable durante varios meses y continuar mejorando con el uso.
Los investigadores han querido dejar claro que todavía existen barreras, como la necesidad de intervención quirúrgica y el coste de personalización del sistema para cada paciente. Aún queda mucho por hacer, pero el avance es más que evidente. Si te interesan las noticias de ciencia, no dudes en entrar en nuestra sección de actualidad.