¿Qué pasaría si existiera un “pequeño tú” digital, listo para reaccionar ante estímulos como tú o tomar exactamente las mismas decisiones que tú? Un nuevo estudio demuestra que crear una réplica virtual de tu personalidad es posible tras apenas 2 horas de entrevista con un modelo de inteligencia artificial. El futuro de la investigación social y psicológica nunca ha sido tan apasionante y lleno de potencial. Yo te diré cómo, o mi réplica virtual te lo dirá: ¿quién sabe?
Una personalidad 85% replicada
Imagínate sentarte y charlar con alguien.inteligencia artificial durante un par de horas. Una voz amable y curiosa te guía a través de una conversación que toca desde tu infancia, los recuerdos que te marcaron, tu carrera, hasta tus opiniones sobre la vida o sobre cuestiones políticas (por ejemplo, sobre la inmigración). Poco después, uno de los tuyos. réplica virtual está preparado, capaz de encarnar valores y preferencias con sorprendente fidelidad, o en todo caso conforme con las respuestas que usted ha dado.
Según una investigación realizada por un equipo de Stanford e Google DeepMind, Publicado en arXiv (en espera de revisión, te lo enlazo aqui), este escenario ya es una realidad. Dirigido por Parque Joon Sung, estudiante de doctorado en informática en Stanford, los investigadores Entrevistaron a 1.000 personas de diferentes edades, géneros, etnias, educación y orientaciones políticas. A partir de estas conversaciones, crearon un "agente de simulación" para cada persona, una especie de avatar digital.
Para comprobar qué tan bien estos agentes imitaban a los humanos, los participantes realizaron pruebas de personalidad, encuestas y juegos de lógica, dos veces, con dos semanas de diferencia. Luego se asignaron las mismas tareas a los agentes virtuales. ¿El resultado? Los humanos y su replicación. tienen una similitud del 85%.
Hacia un futuro de "mini-yo" digital.
"Si puedes tener un grupo de pequeños 'tú' caminando y tomando las decisiones que tú habrías tomado, creo que ese es el futuro", dice Joon. El objetivo de estos “agentes de simulación”, como se les llama en el estudio, es permitir investigaciones sociales, psicológicas y económicas con sujetos humanos que de otro modo serían imposibles o poco éticas. Si puedes crear modelos que se comporten como personas reales, puedes probarlos para estudiar fenómenos como la difusión de información errónea o la dinámica del tráfico.
Estos agentes son diferentes de los "basados en herramientas" con los que trabaja la gran tecnología, diseñados para realizar tareas y no para conversar. Sin embargo, la investigación sobre uno probablemente también fortalecerá al otro, señala. John Horton, profesor en MIT y experto en participantes simulados por IA.
Potencial y riesgos de la replicación digital
El estudio abre perspectivas fascinantes pero también plantea preguntas. si ya yo deepfake te permite hacerte pasar por otros sin consentimiento, ¿qué tan fácil será crear avatares que digan o autoricen cosas que nunca quisiste? Además, ¿los métodos utilizados para evaluar la fidelidad de las replicaciones, como las encuestas y las pruebas de personalidad, realmente capturan la singularidad de cada uno?
El camino para replicar realmente bien a una persona, admite Joon, va desde destilar nuestra individualidad en un lenguaje comprensible hasta la IA. Las entrevistas cualitativas han demostrado ser la herramienta más eficaz: en unas pocas horas, pueden surgir detalles únicos y significativos que las encuestas estándar difícilmente captarían.
Por supuesto, existen alternativas: empresas como pavos reales "clonan" usuarios al ingerir grandes cantidades de correos electrónicos y datos, pero el nuevo estudio sugiere un camino más simplificado. “Tal vez simplemente hable con una IA durante una hora hoy y otra hora mañana. Y utiliza ese material para construir tu gemelo digital”, plantea la hipótesis del CEO. Hassan Raza.
Singularidad en la era de los avatares digitales
Aquí me detengo, evitando la retórica habitual sobre el hecho de que somos únicos e irreproducibles, que ninguna IA será jamás verdaderamente sensible o empática. La cuestión es otra: como decía el filósofo Berkeley1, “ser es ser percibido”. Lo que importa no es si la IA realmente piensa o tiene personalidad, sino que alguien la confunda con nosotros.
En una era en la que avatares cada vez más sofisticados pueblan el mundo virtual –y quizás el real– el desafío no será demostrar que somos más únicos o auténticos. Quizás integre sabiamente nuestros innumerables matices en esos alter egos digitales. Sólo así, interactuando con ellos, los demás captarán lo mejor de nosotros. No es una tarea fácil, que requerirá equilibrio y claridad. Pero, en última instancia, ¿no es esto lo que también buscamos en nuestras relaciones "analógicas"?
- Si desea saber más sobre George Berkeley, en un bonito sitio al estilo de principios de la década de 2000, aquí tiene una fuente útil: https://www.filosofico.net/berkeley.htm ↩︎