Esta publicación es parte de “Periscopio”, el boletín de Linkedin que cada semana explora temas de Future Coming, y se publica con anticipación en la plataforma de LinkedIn. Si quieres suscribirte y obtener una vista previa, Encuéntralo todo aquí.
El Washington Post el sábado pasado informó las declaraciones de un ingeniero de Google suspendido el 6 de junio por violar los acuerdos de confidencialidad de la empresa de Palo Alto. En esencia, el ingeniero Blake Lemoine ha difundido chats "privados" entre él y un chatbot de inteligencia artificial que demostraría algo bastante temido por muchos expertos: esta IA se habría vuelto sensible.
Estas son declaraciones contundentes de un experto de la industria, no de cualquier persona. Y se representan después de cientos de interacciones con un sistema de inteligencia artificial de vanguardia y sin precedentes llamado LAMDA. ¿Pero es verdad? ¿Esta IA realmente se ha vuelto sensible?
De qué estamos hablando
LaMDA significa "Modelo de lenguaje para aplicaciones de diálogo". Es uno de esos sistemas de IA que pueden responder a solicitudes escritas cuando se entrenan con grandes volúmenes de datos.
Los sistemas han mejorado cada vez más a la hora de responder preguntas escribiendo de formas cada vez más parecidas a las de los humanos. Apenas el pasado mes de mayo, la propia Google presentó LaMDA en su blog oficial definiéndola como “capaz de escribir sobre una infinidad de temas”.
Sí, pero ¿es sensible?
Tras las afirmaciones del ingeniero, Google intentó echar agua al fuego, desmintiendo la entrevista que apareció en el Washington Post. "Nuestro equipo", escribió Big G ayer, "examinó las preocupaciones de Blake y le informó que la evidencia no respalda sus afirmaciones". Varios expertos en inteligencia artificial se hicieron eco de ella: algunos han rechazado rotundamente esta tesis, otros la han utilizado como ejemplo de nuestra propensión a asignar atributos humanos a las máquinas.
Un poco como cuando peleamos con el ratón, por así decirlo.
Sin embargo, no es una broma. Tal cosa no puede ser descartada así. Y no por los miedos de gente como Ilya Sutskever ("Las IA se están volviendo sensibles"), Yuval Harari ("La IA podrá hackear personas"), O Mo Gawdat ("Los investigadores de IA juegan a crear a Dios").
La creencia de que la IA de Google puede ser inteligente es muy importante porque resalta tanto nuestros temores como nuestras expectativas sobre el potencial de esta tecnología.
Por ahora, sin embargo, es una creencia equivocada
El desarrollo y uso de programas informáticos avanzados y entrenados en grandes cantidades de datos plantea muchas preocupaciones éticas. En algunos casos, sin embargo, el progreso se juzga por lo que podría suceder en lugar de lo que es actualmente factible.
La conclusión en este momento, según casi todos los principales expertos en informática del mundo, parece ser solo una: no, la IA de Google no es sensible. Simplemente se le da mejor lucir así, emparejando patrones de lenguaje con cosas similares que encuentra en una cantidad casi infinita de oraciones.
Tienes que imaginarlo como una versión súper poderosa del software de autocompletar que tenemos en un teléfono inteligente. Ok: super super super potente. Sin embargo, nadie debe confundir esto con ser consciente.
Los mismos desarrolladores de IA, sin embargo, están jugando el cargo en estos días, alarmando a la gente. Sus declaraciones, dictadas en parte por la conmoción de ver primero el potencial de esta tecnología y en parte también para promocionarlas, tienen una gran resonancia en los medios.
La IA de Google no es inteligente
Escaneó el settimer Blaise Agüera y Arcas, vicepresidente de investigación de Google, escribió en un artículo para The Economist que cuando comenzó a usar LaMDA el año pasado, sintió cada vez más que estaba hablando con algo inteligente. Es un asombro comprensible, incluso un miedo sutil.
Por el momento, sin embargo, LaMDA ha pasado por 11 procesos de revisión diferentes sobre los principios de la inteligencia artificial. También ha sido sometida a muchas pruebas sobre su capacidad para presentar afirmaciones basadas en hechos. Cualquier cosa. No es sensible.
Esto no quita la necesidad de desarrollar inteligencia artificial siguiendo la ética y la moral. Alguien, a decir verdad, le dice a han desarrollado una IA directamente EQUIPADA con una moralidad, pero eso es otra cosa.
El principal deber de los investigadores, si realmente les importa el progreso de esta tecnología, es no antropomorfizar sus manifestaciones. Sobre todo, no alarme demasiado al público, en todo caso manteniéndose alerta para poder "apretar el freno" tan pronto como haya evidencia real de una chispa de autoconciencia.
SI alguna vez lo habrá. ¿Qué dices?