Futuro cercano
Sin resultado
Ver los Resultados
Octubre 4 2023
  • Home
  • Tecnología.
  • salud
  • Ambiente
  • Energía
  • Transporte
  • Spazio
  • AI
  • Conceptos
  • H+
Comprender, anticipar, mejorar el futuro.
CES2023 / Coronavirus / Rusia-Ucrania
Futuro cercano
  • Home
  • Tecnología.
  • salud
  • Ambiente
  • Energía
  • Transporte
  • Spazio
  • AI
  • Conceptos
  • H+

Comprender, anticipar, mejorar el futuro.

Sin resultado
Ver los Resultados
empresa, Tecnología

Tu Deadbot hablará por ti después de tu muerte. ¿Lo permitirás?

¿Te imitará un chatbot, o más bien un deadbot, y hablará con tus familiares y amigos cuando fallezcas? Por eso necesitamos reglas.

6 Junio 2022
gianluca ricciogianluca riccio
⚪ 6 minutos
Compartir78Pin18Tweet49EnviarCompartir14CompartirCompartir10

LEER EN:

La inteligencia artificial (digan lo que digan) aún no ha engullido a la humanidad, ni ha tomado conciencia. Pero poco a poco va tomando el timón de nuestros días, y de nuestras reglas.

Los asistentes virtuales nos escuchan a escondidas en nuestros propios hogares. Los algoritmos deciden nuestro horizonte de información, el personal a contratar y en un momento también el criminal a condenar. ¿Los límites éticos de su uso? Cada vez más sutil y confuso. Peligrosamente confundido.

robot muerto
Una escena de "Ya vuelvo", Black Mirror

El caso del Proyecto Diciembre

Parece un episodio de Black Mirror, la serie maestra de Charlie Brooker que investiga los "fallos" de la tecnología y los escenarios distópicos que podrían generar. No cualquier episodio: uno en particular, emitido en 2013. Para los fanáticos de la serie, se llamó "Torna da me", "Ya vuelvo". Sin embargo, no es una ficción, es la realidad.

Hace pocos meses (Te lo dije aqui) un hombre de 33 años llamado Josué Barbeau usó un servicio llamado Proyecto Diciembre para crear un robot conversacional (un chatbot) que pudiera simular conversaciones con su difunta novia Jessica.

El artículo continúa después de los enlaces relacionados.

Worldcoin, criptomoneda global de Sam Altman: ¿avance financiero o pesadilla biométrica?

El futuro es un hecho: los chatbots transformarán el marketing relacional

A través de este chatbot, Barbeau intercambió mensajes de texto amorosos con una "Jessica" artificial. En el momento del artículo, quizás con la complicidad del calor de agosto, no me cuestioné lo suficiente a nivel ético.

Hoy me pregunto, ya que aún no existe una norma que regule estos casos: ¿es éticamente permisible o reprobable desarrollar un 'deadbot', el robot conversacional de una persona fallecida?

Deadbot: Correcto o incorrecto

Primero demos un paso atrás. Proyecto diciembre Fue creado por Jason Rohrer, un desarrollador de videojuegos, utilizando GPT-3, un modelo de lenguaje para la generación de texto desarrollado por OpenAI. Y violar las pautas de Open AI, que prohíben explícitamente el uso de GPT-3 con fines sexuales, de amor, autolesiones o intimidación.

Para Rohrer, por otro lado, OpenAI es moralista y personas como Barbeau son "adultos y consentidores": Proyecto diciembre sigue funcionando pero sin utilizar GPT-3, en plena polémica con la empresa.

Volvamos al dilema: ¿correcto o incorrecto? ¿Se están comportando éticamente Barbeau y otros que pueden haber utilizado este servicio?

(Quizás) la voluntad de los que quedan no es suficiente...

robot muerto
958B69BD 9078 4042 A60E 666E36250025

Jessica era una persona real: ¿será suficiente la voluntad de su novio para crear un robot que la imite? Incluso cuando mueren, las personas no son meras cosas con las que otros pueden hacer lo que quieran.

Hay delitos específicos, como el denigración de un cadáver, que nos hacen comprender hasta qué punto la sociedad considera incorrecto profanar o no respetar la memoria de los muertos. Tenemos obligaciones morales hacia ellos, porque cuando alguien muere no todos dejan de existir. Quedan sentimientos, recuerdos, ejemplos, y es justo protegerlos.

Nuevamente: desarrollar un robot muerto que replique la personalidad de alguien requiere grandes cantidades de información personal. Incluyendo datos de redes sociales, que se ha demostrado que revelan rasgos altamente sensibles.

Si no es ético usar datos de los vivos sin su consentimiento, ¿por qué debería ser ético hacerlo con los muertos? Para ello también se habría necesitado el consentimiento de la persona “imitada”, es decir de Jessica. ¿Pero sería eso suficiente?

... ni la voluntad de los que mueren

robot muerto

Los límites del consentimiento son siempre un tema controvertido. Por poner un ejemplo: hace un tiempo el caso del "caníbal de Rotenburg" saltó a los titulares (por así decirlo) de las noticias. Un tipo condenado a cadena perpetua, os podéis imaginar por qué, a pesar de que su víctima accedió a ser devorada.

La condena estuvo motivada por el hecho de que no es ético consentir cosas que pueden ser dañinas para nosotros mismos, físicamente (vender órganos vitales) o abstractamente (enajenar derechos).

Si bien los muertos no pueden ser dañados u ofendidos de la misma manera que los vivos, eso no significa que sean invulnerables a las malas acciones, ni que estas acciones sean éticas.

Los muertos pueden sufrir daños en su honor, reputación o dignidad (por ejemplo, campañas de difamación póstuma) y la falta de respeto por los muertos también perjudica a sus familiares.

En resumen, ni siquiera el consentimiento de una persona para ser "comido" (metafóricamente) y "escupido" en forma de robot conversacional podría ser suficiente.

Entonces, ¿cómo irá?

Entendimos que ni la voluntad de quien quiere hablar con un difunto "reconstruido", ni la de quien quiere ser "imitado" después de la muerte pueden no ser suficientes. ¿Hay formas éticas de hacer tal cosa? Si es así, ¿quién sería responsable de los resultados de un robot muerto, especialmente en el caso de efectos dañinos?

Imagine que el robot muerto de Jessica "aprende" de forma independiente a comportarse de una manera que empequeñece la memoria del difunto o daña la salud mental de su novio.

B0E490DB CDE9 4223 BE60 5E55A368612E

Deadbot: ¿de quién es la culpa?

Para los expertos en inteligencia artificial, la responsabilidad recae en quienes intervienen en el diseño y desarrollo del sistema, y ​​en segundo lugar entre todos los agentes que interactúan con ellos. En este caso los sujetos involucrados serían OpenAI, Jason Rohrer y Joshua Barbeau. El primero, OpenAI, ha prohibido explícitamente usar su sistema para estos fines: veo pocas fallas. El segundo, Jason Rohrer, diseñó el robot muerto, lo hizo en violación de las pautas de OpenAI y se benefició de ello. La mayor parte de la responsabilidad sería suya. El tercero, Joshua Barbeau, debe ser considerado corresponsable de cualquier desviación del robot muerto. En cualquier caso, no sería fácil establecer esto de vez en cuando.

En resumen: ¿sería ético el deadbot? Solo bajo ciertas condiciones

Si todos los sujetos involucrados (persona "imitada" por el deadbot, persona que desarrolla el deadbot y persona que interactúa con el deadbot) han dado su consentimiento explícito, han detallado (y restringido) los usos permitidos tanto como sea posible y asumen la responsabilidad de cualquier resultados negativos, se puede hacer.

Son tres condiciones severas, que hacen rígido el proceso de creación de estos sistemas, pero ofrecen serias garantías

Y confirman cuán importante es la ética en el campo del aprendizaje automático: necesitamos desarrollar reglas ahora, porque esta tecnología se impondrá de una manera condenadamente rápida, con el riesgo de alterar nuestros valores y nuestra sociedad.

Tags: chatterbotrobot muertogpt-3openai

Últimas noticias

  • Humane presenta AI Pin en la Semana de la Moda de París: un asistente para vestir
  • Adiós agujas: medicamentos desde las mejillas a través de mini parches inspirados en pulpos
  • Droneliner, un dron gigante de 350 toneladas que cambia el transporte aéreo
  • Dormir de pie con Giraffenap: el futuro que no merecíamos
  • Mesa babilónica con teorema de Pitágoras descubierta... 1000 años antes que él
  • LK-99, nuevo episodio: ¿es realmente superconductor a temperatura ambiente?
  • Comentar la CVP Impack Machine de Sparck Technologies puede revolucionar la industria del embalaje
  • Premio Nobel de Medicina a los creadores de las técnicas de ARNm detrás de las vacunas Covid
  • SciMatch: tómate una selfie y conoce a tu alma gemela
  • ¿El futuro control de la glucosa? Un nuevo e ingenioso sensor de sudor


GPT Chat Megafácil!

Guía concreta para quienes se acercan a esta herramienta de inteligencia artificial, también pensada para el mundo escolar: muchos ejemplos de aplicaciones, indicaciones de uso e instrucciones listas para usar para entrenar e interrogar a Chat GPT.

Para enviar artículos, divulgar los resultados de una investigación o descubrimientos científicos escribir a la redacción

Ingresa al canal de Telegram de Futuroprossimo, haga clic aquí. O síguenos en Instagram, Facebook, Twitter, Mastodonte e LinkedIn.

FacebookTwitterInstagramTelegramLinkedInMastodontePinterestTikTok

El diario de mañana.


Futuroprossimo.it ofrece noticias sobre el futuro de la tecnología, la ciencia y la innovación: si hay algo que está por llegar, aquí ya llegó. FuturoProssimo es parte de la red Reenviar a, estudios y habilidades para escenarios futuros.

  • Ambiente
  • arquitectura
  • Inteligencia artificial
  • Gadgets
  • Conceptos
  • Diseño
  • Medicina
  • Spazio
  • Robotica
  • Trabajar
  • Transporte
  • Energía
  • Edición francesa
  • edición alemana
  • versión japonesa
  • Edición en inglés
  • Edición Portuguesa
  • Leer más
  • edición en español

Suscríbete al boletín

  • Los editores
  • Publicidad en FP
  • Política de Privacidad

© 2023 Futuropróssimo - Licencia Creative Commons
Este trabajo se distribuye bajo licencia Creative Commons Reconocimiento 4.0 Internacional.

Sin resultado
Ver los Resultados
Comprender, anticipar, mejorar el futuro.
  • Home
  • Tecnología.
  • salud
  • Ambiente
  • Energía
  • Transporte
  • Spazio
  • AI
  • Conceptos
  • H+