Neurocientíficos transforman en texto las señales eléctricas del cerebro

Un grupo de neurocientíficos convirtieron las señales cerebrales del habla en oraciones escritas en un proyecto de investigación que tiene como objetivo transformar la forma en que los pacientes con discapacidades graves se comunican en el futuro.

El avance es el primero en demostrar cómo la intención de decir palabras específicas puede extraerse de la actividad cerebral y convertirse en texto lo suficientemente rápido como para mantener el ritmo de una conversación natural.

- Publicidad-

En su forma actual, el software de lectura cerebral funciona solo para ciertas oraciones en las que ha sido entrenado, pero los científicos creen que es un trampolín hacia un sistema más poderoso que puede decodificar en tiempo real las palabras que una persona pretende decir.

Los médicos de la Universidad de California en San Francisco asumieron el desafío con la esperanza de crear un producto que permita a las personas paralizadas comunicarse de manera más fluida que el uso de dispositivos existentes que captan movimientos oculares y contracciones musculares para controlar un teclado virtual.

“Hasta la fecha no existe un sistema protésico del habla que permita a los usuarios tener interacciones en la rápida escala de tiempo de una conversación humana”, dijo Edward Chang, neurocirujano e investigador principal del estudio publicado en la revista Nature.

- Publicidad -

El trabajo, financiado por Facebook, fue posible gracias a tres pacientes con epilepsia que estaban a punto de someterse a neurocirugía por su condición. Antes de que sus operaciones siguieran adelante, los tres tenían un pequeño parche de pequeños electrodos colocados directamente en el cerebro durante al menos una semana para mapear el origen de sus ataques.

Durante su estadía en el hospital, los pacientes, todos los cuales podían hablar normalmente, aceptaron participar en la investigación de Chang. Utilizó los electrodos para registrar la actividad cerebral, mientras que a cada paciente se le hicieron nueve preguntas y se le pidió que leyera una lista de 24 respuestas potenciales.

- Publicidad -

Con las grabaciones en la mano, Chang y su equipo construyeron modelos de computadora que aprendieron a relacionar patrones particulares de actividad cerebral con las preguntas que escucharon los pacientes y las respuestas que dijeron. Una vez entrenado, el software podría identificar casi instantáneamente, y solo a partir de señales cerebrales, qué pregunta escuchó un paciente y qué respuesta dio, con una precisión del 76% y 61% respectivamente.

Con información de The Guardian