La tecnología, probada en pacientes con epilepsia a los que ya se les han implantado electrodos, está actualmente limitada a 30-50 frases.
La idea de comunicarse a través de uninterfaz cerebro-máquina es algo que pasó de ciencia ficción a prueba de concepto en menos de veinte años. Un nuevo estudio publicado en Nature Neuroscience muestra que alguien ha dado el siguiente pequeño paso al usar IA para interpretar la actividad cerebral y traducirla en oraciones. En la práctica: los gritos de una lectura de la mente.
"Aún no hemos llegado, pero creemos que esto podría ser la base de una prótesis del habla", dados José Makin de la Universidad de California, San Francisco.
El estudio
Cada uno de los cuatro participantes utilizados en el estudio tenía antecedentes de ataques epilépticos. Para ello ya tenía implantados electrodos en su cráneo para monitorear esta actividad. Los investigadores usaron esos mismos electrodos para monitorear la actividad cerebral mientras se leían en voz alta 50 oraciones predeterminadas, proporcionando datos para decodificar la red neuronal.
Las frases eran muy diferentes en contexto y construcción: desde "Tina Turner es una cantante pop", hasta "la mujer sostiene una escoba" y "un pajarito observa la confusión". En definitiva, inequívocamente fáciles de distinguir entre ellos.
La lectura de la actividad cerebral y el audio de las oraciones habladas se introdujeron en un algoritmo. El algoritmo ha aprendido a reconocer cómo se forman las partes del discurso.
Los resultados iniciales fueron muy inexactos y los errores de Marquis se sucedieron. Por ejemplo, al interpretar la actividad cerebral generada por la frase "llevaba trajes de lana abrigados y esponjosos" salió "el oasis era un espejismo".
La inteligencia artificial ayudó al sistema a aprender, hasta que hizo traducciones con muchos menos errores. Hoy en día, la actividad cerebral en respuesta a la frase "la escalera se usó para salvar al gato y al hombre" se interpreta como "qué escalera se usará para salvar al gato y al hombre". Casi idéntico.
Si intentas salirte de las 50 frases utilizadas, la decodificación empeora mucho
José Makin
¿Hacia la lectura de la mente?
La IA utilizada en el estudio está aprendiendo a decodificar palabras individuales, no solo oraciones completas, lo que hace que sea más probable que decodifique con precisión el habla en nuevas oraciones futuras.
El programa también ha aumentado su precisión al cambiar de un participante a otro. Esto también demuestra plasticidad en el aprendizaje de varias personas.
Si bien ser capaz de interpretar oraciones limitadas es un paso adelante, aún queda un largo camino por recorrer para dominar el idioma en su conjunto, admiten los autores.
Sin embargo, este es un resultado significativo. Una inteligencia artificial ya pudo interpretar bien el discurso después de menos de una hora.
Hemos alcanzado niveles de precisión que no se han logrado hasta ahora.
Tengo la idea de que leer la mente es solo cuestión de tiempo. Ya no es un "si": es un "cuándo".