La inteligencia artificial (digan lo que digan) aún no ha engullido a la humanidad, ni ha tomado conciencia. Pero poco a poco va tomando el timón de nuestros días, y de nuestras reglas.
Los asistentes virtuales nos escuchan a escondidas en nuestros propios hogares. Los algoritmos deciden nuestro horizonte de información, el personal a contratar y en un momento también el criminal a condenar. ¿Los límites éticos de su uso? Cada vez más sutil y confuso. Peligrosamente confundido.

El caso del Proyecto Diciembre
Parece un episodio de Black Mirror, la serie maestra de Charlie Brooker que investiga los "fallos" de la tecnología y los escenarios distópicos que podrían generar. No cualquier episodio: uno en particular, emitido en 2013. Para los fanáticos de la serie, se llamó "Torna da me", "Ya vuelvo". Sin embargo, no es una ficción, es la realidad.
Hace pocos meses (Te lo dije aqui) un hombre de 33 años llamado Josué Barbeau usó un servicio llamado Proyecto Diciembre para crear un robot conversacional (un chatbot) que pudiera simular conversaciones con su difunta novia Jessica.
A través de este chatbot, Barbeau intercambió mensajes de texto amorosos con una "Jessica" artificial. En el momento del artículo, quizás con la complicidad del calor de agosto, no me cuestioné lo suficiente a nivel ético.
Hoy me pregunto, ya que aún no existe una norma que regule estos casos: ¿es éticamente permisible o reprobable desarrollar un 'deadbot', el robot conversacional de una persona fallecida?
Deadbot: Correcto o incorrecto
Primero demos un paso atrás. Proyecto diciembre Fue creado por Jason Rohrer, un desarrollador de videojuegos, utilizando GPT-3, un modelo de lenguaje para la generación de texto desarrollado por OpenAI. Y violar las pautas de Open AI, que prohíben explícitamente el uso de GPT-3 con fines sexuales, de amor, autolesiones o intimidación.
Para Rohrer, por otro lado, OpenAI es moralista y personas como Barbeau son "adultos y consentidores": Proyecto diciembre sigue funcionando pero sin utilizar GPT-3, en plena polémica con la empresa.
Volvamos al dilema: ¿correcto o incorrecto? ¿Se están comportando éticamente Barbeau y otros que pueden haber utilizado este servicio?
(Quizás) la voluntad de los que quedan no es suficiente...

Jessica era una persona real: ¿será suficiente la voluntad de su novio para crear un robot que la imite? Incluso cuando mueren, las personas no son meras cosas con las que otros pueden hacer lo que quieran.
Hay delitos específicos, como el denigración de un cadáver, que nos hacen comprender hasta qué punto la sociedad considera incorrecto profanar o no respetar la memoria de los muertos. Tenemos obligaciones morales hacia ellos, porque cuando alguien muere no todos dejan de existir. Quedan sentimientos, recuerdos, ejemplos, y es justo protegerlos.
Nuevamente: desarrollar un robot muerto que replique la personalidad de alguien requiere grandes cantidades de información personal. Incluyendo datos de redes sociales, que se ha demostrado que revelan rasgos altamente sensibles.
Si no es ético usar datos de los vivos sin su consentimiento, ¿por qué debería ser ético hacerlo con los muertos? Para ello también se habría necesitado el consentimiento de la persona “imitada”, es decir de Jessica. ¿Pero sería eso suficiente?
... ni la voluntad de los que mueren

Los límites del consentimiento son siempre un tema controvertido. Por poner un ejemplo: hace un tiempo el caso del "caníbal de Rotenburg" saltó a los titulares (por así decirlo) de las noticias. Un tipo condenado a cadena perpetua, os podéis imaginar por qué, a pesar de que su víctima accedió a ser devorada.
La condena estuvo motivada por el hecho de que no es ético consentir cosas que pueden ser dañinas para nosotros mismos, físicamente (vender órganos vitales) o abstractamente (enajenar derechos).
Si bien los muertos no pueden ser dañados u ofendidos de la misma manera que los vivos, eso no significa que sean invulnerables a las malas acciones, ni que estas acciones sean éticas.
Los muertos pueden sufrir daños en su honor, reputación o dignidad (por ejemplo, campañas de difamación póstuma) y la falta de respeto por los muertos también perjudica a sus familiares.
En resumen, ni siquiera el consentimiento de una persona para ser "comido" (metafóricamente) y "escupido" en forma de robot conversacional podría ser suficiente.
Entonces, ¿cómo irá?
Entendimos que ni la voluntad de quien quiere hablar con un difunto "reconstruido", ni la de quien quiere ser "imitado" después de la muerte pueden no ser suficientes. ¿Hay formas éticas de hacer tal cosa? Si es así, ¿quién sería responsable de los resultados de un robot muerto, especialmente en el caso de efectos dañinos?
Imagine que el robot muerto de Jessica "aprende" de forma independiente a comportarse de una manera que empequeñece la memoria del difunto o daña la salud mental de su novio.

Deadbot: ¿de quién es la culpa?
Para los expertos en inteligencia artificial, la responsabilidad recae en quienes intervienen en el diseño y desarrollo del sistema, y en segundo lugar entre todos los agentes que interactúan con ellos. En este caso los sujetos involucrados serían OpenAI, Jason Rohrer y Joshua Barbeau. El primero, OpenAI, ha prohibido explícitamente usar su sistema para estos fines: veo pocas fallas. El segundo, Jason Rohrer, diseñó el robot muerto, lo hizo en violación de las pautas de OpenAI y se benefició de ello. La mayor parte de la responsabilidad sería suya. El tercero, Joshua Barbeau, debe ser considerado corresponsable de cualquier desviación del robot muerto. En cualquier caso, no sería fácil establecer esto de vez en cuando.
En resumen: ¿sería ético el deadbot? Solo bajo ciertas condiciones
Si todos los sujetos involucrados (persona "imitada" por el deadbot, persona que desarrolla el deadbot y persona que interactúa con el deadbot) han dado su consentimiento explícito, han detallado (y restringido) los usos permitidos tanto como sea posible y asumen la responsabilidad de cualquier resultados negativos, se puede hacer.
Son tres condiciones severas, que hacen rígido el proceso de creación de estos sistemas, pero ofrecen serias garantías
Y confirman cuán importante es la ética en el campo del aprendizaje automático: necesitamos desarrollar reglas ahora, porque esta tecnología se impondrá de una manera condenadamente rápida, con el riesgo de alterar nuestros valores y nuestra sociedad.