Cuando estamos en la multitud e intentamos hablar con alguien, nuestro cerebro hace todo lo posible (y ni siquiera es malo) para seguir el tono de voz de nuestro interlocutor: no es fácil, a veces hay que gritar un poco, pero al final A menudo tiene éxito.
El discurso cambia para millones de personas con problemas que los obligan a usar audífonos: por avanzados que sean, estos dispositivos no tienen la capacidad de enfocarse en un sonido específico y el ruido puede abrumarlo, lo que hace que una conversación lugares concurridos para personas con pérdida auditiva.
Para enfrentar el problema Un equipo de investigadores de la Universidad de Columbia ha desarrollado un nuevo dispositivo que identifica, selecciona y aísla solo la voz que desea escuchar. El estudio comenzó a partir de una evaluación inicial: las ondas cerebrales del oyente tienden a "sincronizarse" con las del hablante.
Por este motivo, los investigadores han desarrollado un modelo de IA capaz de codificar y separar muchas voces presentes en un entorno, de comparar el patrón vocal resultante con las ondas cerebrales del oyente y amplificar solo la que más coincida.
"El resultado es un algoritmo que puede separar las voces sin la necesidad de ningún entrenamiento". explica el doctor Nima Mesgarani, autor del estudio publicado por la revista Science Advances.
Si no lo tienes claro, échale un vistazo a la demostración de esta tecnología: su capacidad para aislar voces es impresionante.
Aquí hay una pequeña animación de la Universidad de Columbia que ilustra cómo funciona.
Aquí está el estudio: Decodificación de la atención auditiva independiente del hablante sin acceso a fuentes de voz limpias.