Imaginen la escena: el juez llama al testigo, las pantallas se iluminan y aparece el rostro de un hombre que murió hace cuatro años. Se pone su gorra de béisbol gris, se recorta la barba pelirroja y empieza a hablar con la voz que la familia recuerda a la perfección. "Hola, soy una versión de Chris creada por IA", dice a la sala atónita. Es el primer testimonio judicial de una persona fallecida gracias a la tecnología deepfake. Y está desatando un terremoto ético.
El caso que cambió la historia judicial
Cristóbal Pelkey Era un veterano del ejército estadounidense de 37 años, con tres misiones en Irak y Afganistán. Su vida se truncó el 21 de noviembre de 2021 en Arizona, durante lo que debería haber sido un incidente de tráfico trivial. Gabriel Horcasitas, de 54 años, le disparó tras una discusión en un semáforo. Christopher había salido del coche para aclarar la situación, pero nunca volvió a subir.
El mes pasado, durante la audiencia de sentencia de Horcasitas, sucedió algo extraño. mai visto prima en la historia de los tribunales. Stacey Wales, La hermana de Christopher, junto con su marido Tim Wales y a su amigo Scott Yentzer, presentó un vídeo que dejó a la sala sin palabras.
No se trataba de una simple película de memoria, sino de un avatar creado con inteligencia artificial que reproducía perfectamente la apariencia y la voz del hermano desaparecido.
La tecnología detrás del avatar
El avatar de Christopher fue creado usando Difusión estable, una de las plataformas de inteligencia artificial más avanzadas para la generación de imágenes. La familia cuenta con alimentó el sistema con cientos de fotos, vídeos y grabaciones de audio, incluyendo una entrevista que Christopher concedió meses antes de su muerte. El resultado fue un deepfake de calidad cinematográfica: cada expresión facial y cada inflexión vocal reproducían fielmente los rasgos del veterano.
“Recopilamos testimonios de todos los que lo conocieron”, dice Stacey Wales. “Desde su maestra de primaria hasta sus compañeros soldados en Afganistán. Queríamos asegurarnos de que lo que Christopher dijera reflejara fielmente su carácter”.
El “guión” fue escrito por su hermana, pero cada palabra fue diseñada para reflejar la personalidad de un hombre descrito como “el tipo que se quita la camisa y te la da si la necesitas”.
Las palabras que conmovieron a la corte
El avatar de Christopher se dirigió directamente a su asesino con palabras que conmocionaron a toda la sala: «En otra vida, quizás podríamos haber sido amigos. Creo en el perdón. En un Dios que perdona». El mensaje concluía con un saludo que conmovió a todos los presentes: «Me voy a pescar. Los quiero a todos. Nos vemos al otro lado».
El juez Todd Lang No ocultó su emoción: “Me encantó esa IA”Dijo durante la sentencia. «Aunque la familia estaba justificadamente enojada y pedía la pena máxima, permitió que Chris hablara con el corazón, tal como lo vieron. No lo oí pedir la pena máxima».
Posteriormente, Lang condenó a Horcasitas a 10 años y medio de prisión, la pena máxima por homicidio involuntario. Quizás, al final, ese video no satisfizo la sed de justicia de la familia. Pero el punto, como imaginarás, no es ese..
El debate ético que divide a los expertos
El testimonio judicial ha desatado una polémica que va mucho más allá del caso específico. Derek Vida, profesor de ética empresarial en Carnegie Mellon University y autor de “Ética para robots”, expresó fuertes perplejidades Respecto a este asunto:
No cuestiono las intenciones de esta familia, pero me temo que no todos usarán la IA correctamente. Si otras familias crean avatares, ¿serán siempre fieles a los deseos de la víctima?
El asunto toca uno de los puntos sensibles de la era digital: el consentimiento póstumo. ¿Cómo podemos estar seguros de que las palabras pronunciadas por el avatar reflejan realmente lo que Christopher habría dicho? Y, sobre todo, ¿quién tiene la autoridad para decidir lo que una persona fallecida puede o no decir?
Un precedente que hace reflexionar
cómo Te estaba escribiendo aquíEl uso de inteligencia artificial para recrear a los difuntos no es una novedad absoluta. Los "Thanabots" (bots conversacionales de los muertos) existen desde hace tiempo, generalmente con fines recreativos. Recientemente les hablé, por ejemplo, de los cursos de escritura impartidos "directamente", por así decirlo, por la gran escritora Agatha Christie. “resucitado” por la inteligencia artificial. Pero el caso Pelkey supone un salto cualitativo: por primera vez, un avatar digital ha influido directamente en una decisión judicial de un tribunal.
Y ahora es una tormenta. La Conferencia Judicial Estados Unidos ya ha anunciado que lanzará una consulta pública para regular el uso de pruebas generadas por inteligencia artificial en los procedimientos judiciales. Gary Marchant, profesor de derecho en Universidad Estatal de Arizona, advierte:
Existe una preocupación real entre fiscales y abogados por el creciente uso de deepfakes. Son fáciles de crear y cualquiera puede hacerlo con un teléfono.
Testigos de IA en los tribunales: El futuro de la justicia digital
El caso de Christopher Pelkey no es un incidente aislado. Representa el inicio de una nueva era en la que la tecnología redefine los límites entre la vida y la muerte, la memoria y la manipulación. Como demuestran varios estudiosLos deepfakes son considerados por los expertos como una de las principales amenazas que trae la inteligencia artificial, precisamente por su capacidad de erosionar la confianza en las evidencias audiovisuales.
Mientras la familia Wales cree haberle dado a Christopher la oportunidad de expresar su mensaje final, la comunidad científica y jurídica se pregunta sobre los riesgos de una tecnología que podría transformar los tribunales en teatros de emociones en lugar de lugares de justicia. La voz de Christopher, real o reconstruida, sin duda ha dejado huella. Pero también ha planteado preguntas que la sociedad deberá afrontar muy pronto: ¿hasta qué punto estamos dispuestos a dejar que la inteligencia artificial hable por nosotros? ¿Incluso después de la muerte?
La respuesta determinará no sólo el futuro de los tribunales, sino también la manera en que pensamos sobre la identidad humana en la era digital.