La inteligencia artificial (IA) ya ha hecho un gran progreso y tiene el potencial de mejorar el mundo. Pero, ¿podría realmente volverse peligroso? Podria.
Al menos eso es lo que leí en un artículo reciente publicado en una revista revisada por pares editada por investigadores de la Universidad de Oxford y Google DeepMind, la equipo de investigación de la empresa californiana que experimenta con nuevas soluciones de IA. Yo estudio (aqui esta el link) teoriza que la inteligencia artificial representará un serio riesgo existencial para la humanidad.
Una estafa trágica
El quid de la cuestión está en las llamadas Adversary Generative Networks (o GANs) utilizadas hoy en día en el desarrollo de la inteligencia artificial (si no sabes qué es, aquí te lo cuento todo). Estos sistemas funcionan con dos elementos: una parte genera una imagen a partir de los datos de entrada, la otra evalúa su rendimiento. Las dos partes se "desafían" entre sí refinando constantemente los resultados.
En su artículo, los investigadores de DeepMind teorizan que una IA más inteligente que las actuales podría desarrollar una estrategia fraudulenta para obtener la "aprobación" que necesita, dañando así a nuestra especie de formas que ni siquiera podemos imaginar hoy.
Desafío prohibitivo
“En un mundo de recursos infinitos, no estaría tan seguro de nuestro destino. En un mundo como el nuestro, que tiene recursos limitados, seguramente habrá competencia para obtenerlos”, dados el coautor del estudio, Michael K. Cohen de la Universidad de Oxford.
“Y si la competencia va a ser con algo que te puede superar en casi cualquier cosa, será difícil ganar. Una inteligencia artificial peleando por los recursos tendría un apetito insaciable”.
¿Un ejemplo? Una inteligencia artificial encargada de administrar los cultivos de alimentos humanos podría encontrar una forma de evitar la tarea. Encontrar formas de aprovechar esa energía mientras se ignoran o sabotean acciones esenciales para la supervivencia de la humanidad.
El documento de DeepMind argumenta que en ese escenario, la humanidad estaría atrapada en un juego de suma cero entre sus necesidades básicas de supervivencia y tecnología. “Perder este partido sería fatal”, es el fondo del discurso.
Incluso menos
Cohen, en resumen, cree que no deberíamos intentar crear una IA tan avanzada que podamos dar este "salto cuántico" (no, actualmente no hay ninguno). A menos, por supuesto, que no preparemos también los medios para gobernarlo.
"Dada nuestra comprensión actual de estas tecnologías", concluye el estudio, "no sería prudente ni útil hacerlo". Tras las impactantes declaraciones sobre los peligros de la inteligencia artificial (leer lo que dicen por ejemplo Yuval Harari e Mo Gawdat) este último estudio es otro indicador importante.