En cualquier momento entre 2025 y 2028. Es la ventana de tiempo en la que Darío Amodei, CEO de Anthropic y “papá” de Claudio AI, predice que los modelos de IA podrían lograr la capacidad de replicarse y sobrevivir de forma autónoma. Una declaración impactante, que proviene de uno de los protagonistas de la carrera por crear la inteligencia artificial más poderosa y "responsable". En entrevista En el New York Times, Amodei compara el desarrollo de la IA con los niveles de bioseguridad de los laboratorios de virología, advirtiendo que sin un “ampliamiento responsable”, la tecnología pronto podría ganar autonomía y extrema capacidad de persuasión, con implicaciones alarmantes para la seguridad global.
La analogía con los niveles de bioseguridad
Para explicar su visión, Amodei utiliza una poderosa analogía: los niveles de bioseguridad (ASL) de los laboratorios de virología. Según el director ejecutivo de Anthropic, actualmente nos encontramos en el nivel 2 de ASL en desarrollo de IA. Pero el nivel 4 de ASL, que incluiría “autonomía” y “persuasión”, podría estar a la vuelta de la esquina.
ASL 4 se centrará más, en el lado del uso indebido, en permitir que los actores estatales aumenten drásticamente sus capacidades, lo cual es mucho más difícil que permitir eso a personas al azar. Sería preocupante que Corea del Norte, China o Rusia pudieran mejorar significativamente sus capacidades ofensivas en diversas áreas militares con IA, de una manera que les diera una ventaja geopolítica sustancial.
Darío Amodei
Y es precisamente del lado de la "autonomía" donde las predicciones de Amodei se vuelven aún más alarmantes.
Varias versiones de estos modelos están bastante cerca de poder replicarse y sobrevivir en la naturaleza.
Darío Amodei
Cuando el entrevistador pregunta al investigador italoamericano cuánto tiempo llevará alcanzar estos distintos niveles de amenaza, Amodei (que dice inclinarse a pensar "exponencialmente") afirma que el nivel de "replicarse y sobrevivir" podría alcanzarse "en cualquier lugar entre 2025 y 2028”. “Realmente estoy hablando del futuro cercano. No hablo de dentro de 50 años”, subraya el director general de Anthropic. “Dios concédeme la castidad, pero no ahora. Pero "ahora no" no significa cuando sea viejo y gris. Creo que podría ser algo a corto plazo".
Antrópico, palabras que tienen peso.
Las palabras de Amodei tienen un peso especial teniendo en cuenta su papel de liderazgo en el sector de la IA. en 2021, él y su hermana Daniela dejaron OpenAI debido a diferencias sobre la dirección de la empresa, después de ayudar a crear GPT-3 y ver la asociación con Microsoft. Poco después, los hermanos fundaron Anthropic junto con otros ex empleados de OpenAI, con el objetivo de continuar sus esfuerzos para “escalar responsablemente” la IA.
"Podría estar equivocado. Pero creo que podría ser algo a corto plazo". Palabras que, a pesar de su incertidumbre, suenan como una señal que no hay que subestimar.
En un contexto en el que las preocupaciones sobre la IA parecen crecer día a día, la perspectiva de Amodei (con su posición privilegiada dentro de la industria) añade más peso a la necesidad de una gobernanza responsable de esta tecnología disruptiva. La misión de Anthropic, “garantizar que la IA transformadora ayude a las personas y a la sociedad a prosperar”, parece más urgente que nunca ante escenarios como los conjurados por su director ejecutivo. Si los modelos de IA están realmente cerca de lograr la capacidad de replicarse y sobrevivir de forma autónoma, especialmente acelerando su "evolución" gracias aencarnación, es fundamental que su desarrollo esté guiado por principios éticos y de responsabilidad.
Ya sé lo que estás pensando
Estos son comentarios que recibo a menudo cuando informo sobre las declaraciones de los distintos "Capataz" de la inteligencia artificial. Altman, Musk y ahora también Amodei están trabajando duro en el desarrollo de algo que a veces les gusta definir como muy peligroso. ¿Por qué? Muchos de vosotros me escribís que esto es marketing: los "broncas", incluso los alarmistas, llaman la atención sobre la empresa y el producto. Como si dijera: "Oye, estamos manejando este tipo de virus letal, pero debes saber que lo haremos con mucho cuidado, porque nos preocupamos mucho".
Tal vez. Por supuesto, las predicciones de Amodei parecen alarmistas, exageradas. Pero en un campo en rápida evolución como el de la inteligencia artificial, donde los avances se suceden a un ritmo exponencial, es aconsejable prepararse incluso para los escenarios más extremos. Ya sea impedir el uso malicioso de la IA por parte de actores estatales (todos ellos, no sólo los nombrados por Amodeo, porque “el más limpio tiene problemas”) o garantizar que los modelos no escapen al control humano, el desafío es inmenso y requiere un esfuerzo conjunto de empresas, gobiernos y sociedad civil.
Las palabras de Amodei, a pesar de su naturaleza especulativa, deben servir como acicate para acelerar el debate y la acción sobre estas cuestiones cruciales. Un debate, por supuesto, en el que la 'pelota' no debe pertenecer sólo a los propios desarrolladores de IA, sino al conjunto de la sociedad civil. En realidad, empecemos primero: Cuanto antes empecemos, mejor.