¿Alguna vez le has confiado tus problemas a alguien y te has sentido incomprendido? ¿O peor aún, juzgado? Un nuevo estudio impactante sugiere que es posible encontrar más comprensión en un algoritmo que en un terapeuta humano. La investigación, publicado en Psicología de la Comunicación, descubrió que Las personas perciben las respuestas generadas por IA como más compasivas y comprensivas que las proporcionadas por expertos en salud mental humanos. ¿Y lo más sorprendente? Esta preferencia por la empatía “artificial” persiste incluso cuando los participantes saben perfectamente que están interactuando con una máquina. Te daré un dato concreto: en promedio, las respuestas generadas por IA Se calificaron como un 16% más compasivos que los humanos y fueron preferidos en el 68% de los casos., incluso cuando se comparan con los de los operadores especializados en gestión de crisis.
La compasión artificial gana en el duelo
Los científicos no solo teorizaron: Realizaron cuatro experimentos rigurosos con 550 participantes. Los sujetos proporcionaron información sobre experiencias personales y luego Calificaron las respuestas que recibieron en función de su compasión, capacidad de respuesta y preferencia general. El escenario estaba controlado: por un lado, respuestas generadas por IA, por el otro, respuestas de profesionales de la salud mental.
El resultado sorprendió incluso a los investigadores: Incluso cuando los participantes sabían perfectamente que estaban leyendo palabras generadas por computadora, aún así las encontraron más compasivas que las respuestas humanas. Es como si la empatía artificial pudiera tocar fibras que los terapeutas humanos, con todo su conocimiento y experiencia, no pueden.
Dariya Ovsyankova, autor principal del estudio e investigador del departamento de psicología de la Universidad de Toronto, tiene una visión interesante de por qué se produjo este éxito. Según ella, la IA se destaca por identificar detalles minuciosos y permanecer objetiva al describir experiencias de crisis. generando así una comunicación cuidadosa que crea la ilusión de empatía. Porque, subrayo, esto es una ilusión.
Los límites humanos que la empatía artificial desconoce
¿Por qué los humanos, maestros de la empatía por definición, han sido derrotados en este terreno? La respuesta puede estar en nuestras limitaciones biológicas y psicológicas. Como él explica OvsiánnikovaLos operadores humanos están sujetos a fatiga y agotamiento, condiciones que inevitablemente afectan la calidad de sus respuestas.
La IA, por otro lado, nunca se cansa. No tiene un mal día, no trae a la entrevista el estrés de una discusión que tuvo la noche anterior, no tiene prejuicios (al menos no humanos). Ella está constantemente atenta, siempre presente, perfectamente enfocada en la tarea.
Los operadores humanos están sujetos a fatiga y agotamiento, condiciones que inevitablemente afectan la calidad de sus respuestas.
Pero hay más: los algoritmos han “visto” muchas más crisis que cualquier terapeuta humano. Procesaron millones de interacciones, identificando patrones y correlaciones invisibles para el ojo humano. Como él explica Leonor Watson, un especialista en ética de IA y miembro del IEEE, “La IA ciertamente puede modelar respuestas de apoyo con una coherencia notable y una empatía aparente, algo que los humanos tienen dificultades para mantener debido a la fatiga y los sesgos cognitivos”.
¿Una respuesta a la crisis mundial de salud mental?
El momento de este descubrimiento no podría ser más significativo. Según la Organización Mundial de la Salud, Más de dos tercios de las personas con problemas de salud mental no reciben la atención que necesitan. En los países de ingresos bajos y medios, esta cifra asciende al 85%.
La empatía artificial podría ser una solución accesible para millones de personas que de otro modo no tendrían apoyo. Como señala Watson, “la disponibilidad de máquinas es un factor positivo, especialmente en comparación con los profesionales costosos cuyo tiempo es limitado”. Es un fenómeno que hemos observado recientemente también en relación con el recurso al consejo médico, con Otro estudio del que hablamos aquí. También hay otro aspecto a tener en cuenta: a muchas personas les resulta más fácil abrir con una máquina. “Hay menos miedo al juicio o a los chismes”, señala el investigador. No hay mirada del otro, no hay miedo a decepcionar, no hay vergüenza de mostrarse vulnerable. Pero existen riesgos y no hay que tomarlos a la ligera.
Los riesgos de la empatía artificial
Watson Lo llama “peligro de estímulo supernormal”: es la tendencia a responder más fuertemente a una versión exagerada de un estímulo. “La IA es tan tentadora que estamos encantados con ella”, explica. “La IA puede ser provocadora, perspicaz, esclarecedora, entretenida, desafiante, tolerante y accesible hasta un punto que ningún ser humano podría igualar”. Sin olvidar, por supuesto, la cuestión de la privacidad, que es especialmente crítica cuando se trata de salud mental. “Las implicaciones para la privacidad son drásticas”, observa el autor del estudio, un especialista en ética. “Tener acceso a las vulnerabilidades y luchas más profundas de las personas las hace vulnerables a diversas formas de ataque y desmoralización”.
Una cosa está clara: la tecnología está empezando a destacar en áreas que siempre hemos considerado exclusivamente humanas. La compasión, la empatía y la comprensión (cualidades que definen nuestra humanidad) están demostrando ser algorítmicamente simulables allí donde más se necesitan (y pueden doler): en la percepción de quienes las reciben.
Es una paradoja fascinante: para sentirnos verdaderamente comprendidos, podemos terminar recurriendo a algo que nunca nos entenderá verdaderamente, pero que sabe exactamente cómo hacernos sentir comprendidos.