La tecnología, probada en pacientes con epilepsia a los que ya se les han implantado electrodos, está actualmente limitada a 30-50 frases.
La idea de comunicarse a través de uninterfaz cerebro-máquina es algo que pasó de la ciencia ficción a la prueba de concepto en menos de veinte años. Un nuevo estudio publicado en Nature Neuroscience muestra que alguien dio el siguiente pequeño paso al utilizar IA para interpretar la actividad cerebral y traducirla en oraciones. En la práctica: los gritos de una lectura mental.
"Aún no hemos llegado allí, pero creemos que esto podría ser la base de una prótesis de habla", dados José Makin de la Universidad de California, San Francisco.
El estudio
Cada uno de los cuatro participantes utilizados en el estudio tenía antecedentes de ataques epilépticos. Para ello ya tenía implantados electrodos en su cráneo para monitorizar esta actividad. Los investigadores usaron esos mismos electrodos para monitorear la actividad cerebral mientras se leían en voz alta 50 oraciones predeterminadas, proporcionando datos para decodificar la red neuronal.
Las frases eran muy diferentes en contexto y construcción: desde “Tina Turner es una cantante pop”, hasta “la mujer sostiene una escoba” pasando por “un pajarito observa la confusión”. En definitiva, inequívocamente fáciles de distinguir entre ellos.
La lectura de la actividad cerebral y el audio de las oraciones habladas se introdujeron en un algoritmo. El algoritmo ha aprendido a reconocer cómo se forman las partes del habla.
Los resultados iniciales fueron muy inexactos y los errores de Marquis se sucedieron. Por ejemplo, interpretando la actividad cerebral que genera la frase “vestía trajes cálidos y de lana suave”, “el oasis fue un espejismo”.
La inteligencia artificial ayudó al sistema a aprender, hasta que hizo traducciones con muchos menos errores. Hoy en día, la actividad cerebral en respuesta a la frase "se utilizó la escalera para salvar al gato y al hombre" se interpreta como "qué escalera se utilizará para salvar al gato y al hombre". Casi idéntico.
Si intentas salirte de las 50 frases utilizadas, la decodificación empeora mucho
José Makin
¿Hacia la lectura de la mente?
La inteligencia artificial utilizada en el estudio está aprendiendo a decodificar palabras individuales, no solo oraciones completas, lo que hace que sea más probable decodificar con precisión el habla en nuevas oraciones futuras.
El programa también ha aumentado su precisión al cambiar de participante. Esto también demuestra plasticidad al aprender de varias personas.
Si bien ser capaz de interpretar oraciones limitadas es un paso adelante, aún queda un largo camino por recorrer para dominar el idioma en su conjunto, admiten los autores.
Sin embargo, este es un resultado significativo. Una inteligencia artificial pudo interpretar bien el discurso después de menos de una hora.
Hemos alcanzado niveles de precisión que no se han logrado hasta ahora.
Tengo la idea de que leer la mente es solo cuestión de tiempo. Ya no es un "si": es un "cuando".