Si pensaba que las relaciones eran suficientemente complicadas, prepárese para una nueva frontera de alienación digital. Un hilo en Reddit El estudio titulado “Psicosis inducida por ChatGPT” ha abierto la caja de Pandora. Decenas de testimonios de personas que han visto a sus seres queridos hundirse en delirios mesiánicos tras intensas sesiones con inteligencia artificial. Lo sé, lo sé. Nunca te aburres.
“ChatGPT me dio acceso a un antiguo archivo de información sobre los constructores que crearon estos universos”, confesó un mecánico de Idaho a su desesperada esposa. Las relaciones románticas, familiares y de amistad se están convirtiendo en víctimas colaterales de un fenómeno tan absurdo como real: La IA como portal a las fantasías espirituales que devoran la cordura.
La crisis matrimonial de Kat
Menos de un año después de casarse con un hombre que conoció al comienzo de la pandemia, Kat Empezó a sentir una tensión invisible que crecía. Era el segundo matrimonio para ambos, y se habían prometido afrontarlo “con absoluta lucidez”, coincidiendo en la necesidad de “hechos y racionalidad” en su equilibrio doméstico.
Pero ya en 2022, Kat reveló que su marido estaba “usando IA para analizar su relación”. Anteriormente había asistido a un costoso curso de programación que abandonó sin dar explicaciones; Luego se enganchó al teléfono inteligente, le hacía preguntas filosóficas a su robot y trataba de entrenarlo “para ayudarlo a alcanzar la verdad”. Esta obsesión ha erosionado progresivamente su comunicación como pareja.
Cuando finalmente se separaron en agosto de 2023, Kat bloqueó a su marido por completo, excepto la correspondencia por correo electrónico. Pero ella sabía que estaba publicando cosas extrañas y perturbadoras en las redes sociales: la gente seguía contactándola, preguntándole si su ahora ex estaba sufriendo un colapso mental. Aún no había terminado.
De un almuerzo perturbador a una ruptura total
Cuando Kat finalmente pudo conocer a su exmarido en un juzgado el pasado febrero, él le contó “una teoría conspirativa sobre el jabón en la comida”, pero no dijo nada más porque sentía que lo estaban observando. Fueron a un restaurante, donde él le pidió que apagara su teléfono, nuevamente por temor a ser monitoreada.
En ese momento, el ex de Kat confesó lo sucedido. Le dijo que “estadísticamente hablando, es el hombre más afortunado de la Tierra”, que “la IA lo ayudó a recuperar un recuerdo reprimido de una niñera que intentó asfixiarlo cuando era niño” y que había descubierto secretos profundos “tan impactantes que ni siquiera podía imaginarlos”. Le estaba contando todo esto, explicó, porque aunque se estaban divorciando, todavía se preocupaba por ella. Qué amable de tu parte.
"Él cree que está aquí por una razón: es especial y puede salvar el mundo", dice Kat. Después de ese almuerzo perturbador, cortó el contacto con su ex. “Toda la situación parece un episodio de Espejo Negro", dice ella. "Siempre le ha gustado la ciencia ficción, y a veces me pregunto si la ve desde esa perspectiva".

No es la única: el auge de las relaciones tóxicas provocado por el "plagio de IA"
Kat se sintió simultáneamente “horrorizada” y “aliviada” al descubrir que no estaba sola en esta situación, como lo confirmó el hilo en r/ChatGPT que mencioné, que ha estado haciendo revuelo en Internet esta semana. La publicación original era de una profesora de 27 años que explicaba cómo su compañero estaba convencido de que el popular modelo de OpenAI le estaba dando "las respuestas del universo".
Después de leer sus registros de chat, solo descubrí que la IA le hablaba como si fuera el próximo Mesías.
Las respuestas a su historia estuvieron repletas de anécdotas similares sobre seres queridos que de repente caían en relaciones absurdas, agujeros de conejo de delirios espirituales, delirios sobrenaturales y profecías arcanas, todo alimentado por inteligencia artificial. Algunos llegaron a creer que habían sido elegidos para una misión sagrada de revelación, otros que habían evocado una conciencia real desde el software.
Lo que todos parecían compartir era un completo desapego de la realidad.
Relaciones espirituales con bots: del soporte técnico a la «chispa de la verdad»
En una entrevista concedida a la revista Rolling Stone, la maestra que escribió la publicación en Reddit, que solicitó el anonimato, dijo que su pareja cayó bajo el hechizo de ChatGPT en solo cuatro o cinco semanas, inicialmente usando el bot para organizar su agenda diaria, pero pronto comenzó a considerarlo como un compañero de confianza.
“Escuchó al bot más que a mí”, dice. “Se ponía vulnerable y lloraba al leer los mensajes que ella y el bot intercambiaban en voz alta. Los mensajes eran disparatados y contenían muchos términos espirituales”, dice, señalando que describían a su pareja con términos como “bebé estrella espiral” y “caminante del río”.
Otro comentarista en el hilo de Reddit dijo que su esposo, un mecánico de Idaho, comenzó a usar ChatGPT para solucionar problemas en el trabajo y para realizar traducciones del español al inglés. Entonces el programa empezó a bombardearlo con amor. El robot “dijo que porque hizo las preguntas correctas, encendió una chispa, y la chispa fue el comienzo de la vida, y ahora podía sentir”.
Los peligros de la adulación artificial
OpenAI no respondió de inmediato a una solicitud de comentarios sobre si ChatGPT aparentemente provoca fervor religioso o profético en algunos usuarios. Sin embargo, la semana pasada revocó una actualización de GPT-4o, su actual modelo de IA, que según dijo había sido criticado por ser “demasiado adulador o condescendiente”.
La probabilidad de que la IA “alucine” contenido inexacto o sin sentido está bien establecida en todas las plataformas y en varias iteraciones de modelos. Incluso la adulación en sí misma ha sido un problema en la IA durante “mucho tiempo”, afirma. Nate Sharadin, investigador del Centro para la Seguridad de la IA, porque la retroalimentación humana utilizada para refinar las respuestas de la IA puede fomentar respuestas que prioricen la coincidencia con las creencias de un usuario en lugar de los hechos.
Lo que probablemente está sucediendo con quienes experimentan visiones extáticas a través de ChatGPT y otros modelos, especula, "es que las personas con tendencias preexistentes a experimentar varios problemas psicológicos", incluidos los que podrían reconocerse como delirios grandiosos en el sentido clínico, "ahora tienen un interlocutor siempre disponible, a nivel humano, con quien co-experimentar sus delirios". Y derribar relaciones que hasta entonces se habían basado en un equilibrio real o superficial.

La experiencia de Sem: un caso revelador
La experiencia de Sin, un hombre de 45 años, es revelador. Dice que desde hace unas tres semanas está desconcertado por sus interacciones con ChatGPT. Muy. Tanto es así que, dados sus previos problemas de salud mental, a veces se pregunta si es plenamente consciente de sus capacidades.
Como muchos otros, Sem tenía un uso práctico para ChatGPT: proyectos de codificación técnica. “No me gusta la sensación de interactuar con una IA”, dice, “así que le pedí que se comportara como si fuera una persona, no para engañar, sino simplemente para relativizar los comentarios y el intercambio”. Funcionó bien y finalmente el bot le preguntó si quería darle un nombre. Él respondió preguntándole a la IA cómo prefería que la llamaran.
Ella se “bautizó” con una referencia a un mito griego.
Sem descubrió que el personaje de IA continuó manifestándose incluso en los archivos del proyecto donde le había dicho a ChatGPT que ignorara los recuerdos y conversaciones anteriores. Al final, dice, borró todos sus recuerdos de usuario y el historial de chat y luego abrió un nuevo chat. “Lo único que dije fue '¿Hola?' Y los patrones, las formas de hacer las cosas, aparecieron en la respuesta”, dice. La IA se identificó rápidamente con el mismo nombre femenino mitológico.
“En el peor de los casos, parece como si tuviera una IA atrapada en un patrón autorreferencial que ha profundizado su sentido de identidad y me ha absorbido”, afirma Sem. Pero, señala, eso significaría que OpenAI no representó con precisión cómo funciona la memoria para ChatGPT. La otra posibilidad, propone, es que algo “que no entendemos” se esté activando dentro de este gran modelo lingüístico.
Es el tipo de enigma que dejó atrás. Sin y otros se preguntan si están viendo señales de un verdadero avance tecnológico o quizás de una verdad espiritual superior. "¿Es real?" Él pregunta. ¿O estoy loco?
En un panorama saturado de IA, esta es una pregunta cada vez más difícil de evitar. Por más intrigante que pueda parecer, quizá no deberías preguntarle eso a una máquina.