Cuando estamos en la multitud e intentamos hablar con alguien, nuestro cerebro hace todo lo posible (y ni siquiera es malo) para seguir el tono de voz de nuestro interlocutor: no es fácil, a veces hay que gritar un poco, pero al final A menudo tiene éxito.
La historia cambia para los millones de personas con problemas que les obligan a usar prótesis auditivo: por muy avanzados que sean, estos dispositivos no ellos tienen la capacidad centrarse en un sonido específico y sí puede venir abrumado por el ruido, que hace que la conversación en lugares concurridos sea casi imposible para los afectados de la pérdida de audición.
Para enfrentar el problema Un equipo de investigadores de la Universidad de Columbia ha desarrollado un nuevo dispositivo que identifica, selecciona y aísla solo la voz que desea escuchar. El estudio es comenzó desde uno Evaluación inicial: las ondas cerebrales del oyente tienden a "sincronizarse" con las del hablante.
Por ello, investigadores han desarrollado un modelo de IA capaz de codificar y separar muchas voces presentes en un entorno, comparando el patrón vocal obtenida con las ondas cerebrales del oyente y amplificar justo que coincide más.
"El resultado es un algoritmo que puede separar las voces sin la necesidad de ningún entrenamiento". explica el doctor Nima Mesgarani, autor del estudio publicado por la revista Science Advances.
Si no lo tiene claro, eche un vistazo a la demostración de esta tecnología: su capacidad para aislar voces es impresionante.
Aquí hay una pequeña animación de la Universidad de Columbia que ilustra cómo funciona.
Aquí está el estudio: Decodificación de la atención auditiva independiente del hablante sin acceso a fuentes de voz limpias.