Marianne Reddan ha pasado los últimos 10 años escrutando rostros humanos para encontrar rastros de dos emociones distintas pero muy cercanas. Sorpresa y miedo. Y después de tanto tiempo apenas ha aprendido a distinguirlos.
Es por eso que Reddan, con un título postdoctoral de la Universidad de Stanford, ha entendido que algo va a cambiar. Entendió esto cuando supo que EmoNet, un sistema basado en el aprendizaje automático, aprendió a distinguir las dos emociones.
El sistema, llamado "EmoNet", no solo mira las expresiones faciales para dar sentido a las emociones. También observe el contexto general para determinar el sentimiento general, como lo haría una persona de carne y hueso.
Para llevar a cabo esta investigación (publicado en la revista Science Advances) y esta red neuronal "entrenada" con grandes cantidades de datos, los investigadores de la Universidad de Colorado Boulder y la Universidad de Duke tardaron un año en desarrollarse.
De los objetos a las emociones.
Reddan y sus colegas usaron AlexNet. Es un modelo de deep learning (creado con la dinámica de la corteza visual) que entrena a la computadora para reconocer objetos. Lo reprogramaron para revisar las emociones en lugar de los objetos.
Philip Kragel, investigador del Instituto de Ciencias Cognitivas de la Universidad de Colorado, proporcionó a la red neuronal 25000 imágenes y las organizó para dividirlas en 20 categorías de emociones.
La gran lista incluía emociones como la ansiedad o el aburrimiento, así como otras experiencias emocionales menos habituales, como la "complacencia estética" o el "dolor empático".
En la segunda fase, las emociones categorizadas se compararon con las humanas. 8 voluntarios conectados como una resonancia magnética funcional observaron 112 imágenes. Su actividad cerebral fue medida en paralelo por la red neuronal, para asociarla con las imágenes (y emociones) que ya posee.
Construir una red neuronal que reproduzca el cerebro humano es un desafío científico que ha durado años. Sin embargo, incluso las máquinas más avanzadas se adelantan a la gama de experiencias humanas. "Las emociones son una gran parte de nuestra vida diaria", dados Kragel. "Si las redes neuronales no los descifran correctamente, siempre tendrán un conocimiento limitado de cómo funciona el cerebro".
Kragel se sorprendió de lo bien que funciona EmoNet, pero eso no significa que el sistema ya sea perfecto. Las dos categorías mapeadas con mayor precisión son "deseo sexual" y "codicia / ansia", pero a veces no funciona bien con las emociones expresadas de forma dinámica. La sorpresa, por ejemplo, que rápidamente puede convertirse en alegría o enojo según la situación. EmoNet también tiene gran dificultad para encontrar diferencias y matices entre emociones como la adoración, la diversión y la alegría, debido a sus íntimas correlaciones.
¿Hay algún riesgo?
Hannah Davis, profesor de música generativa en la Universidad de Nueva York, cree que enseñar emociones a una computadora no es peligroso. "Sería peligroso", dice, "si empezáramos a distinguir las emociones con el mismo esquematismo y la misma escasez de matices".
¿Cómo culparla? Codificar una emoción a partir de una foto no significa comprenderla ni sentir empatía. Y ya hoy con las redes sociales podemos tener la percepción de que las personas han restringido sus emociones a la cantidad de emoticonos que pueden encontrar.
“¿El modelo es capaz de sentir emociones? Definitivamente no. Es solo leer en algunas categorías, ciertamente no en la complejidad de la experiencia humana. ¿Podría sentir emociones en el futuro? Esto no se puede descartar. Tal vez."