Un equipo de investigación ha creado inteligencia artificial que dibuja lo que una persona está mirando en tiempo real simplemente leyendo y decodificando sus ondas cerebrales.
Lo más importante es que es una técnica no invasiva, capaz de recopilar y codificar toda la información sobre las ondas cerebrales con un auricular conectado a una electroencefalografía (EEG).
"Los investigadores pensaron que estudiar los procesos cerebrales usando EEG era como intentar adivinar la forma de una persona analizando el humo de su cigarrillo". dice el investigador Grigori Rashkov en un lanzamiento. “No esperábamos que contuviera suficiente información para reconstruir incluso parcialmente una imagen observada por una persona. Sin embargo, resultó ser completamente posible. "
Investigación
El equipo mixto formado por miembros del Instituto de Física y Tecnología de Moscú y la empresa rusa Neurobotics comenzaron su estudio colocando un casco especial con electrodos, capaz de registrar sus ondas cerebrales.
En la segunda fase, cada participante observó 20 minutos de fragmentos de video que duraron 10 segundos cada uno, divididos en 5 categorías. Después de las primeras sesiones, los investigadores ya se dieron cuenta de que podían determinar qué categoría de videos estaban viendo los voluntarios, simplemente mirando sus datos de EEG.
En la tercera fase, los científicos desarrollaron dos redes neuronales: uno entrenado para generar imágenes en tres de las categorías de video y el otro para transformar los datos de EEG en ruido comparable. En competencia, las dos redes GAN han producido imágenes sorprendentes.
“Con la tecnología actual, las interfaces neuronales invasivas como los que desarrolla Neuralink, la compañía de Elon Musk, enfrentan los desafíos de la cirugía compleja y el rápido deterioro debido a procesos naturales. Los implantes pueden oxidarse y fallar en unos meses ", dados Rashkov.
"Con este estudio nuestro objetivo es diseñar interfaces neuronales más rentables que no requieran implantes".