Todavía recuerdo la definición de computadora que me dio mi padre, profesor de informática, cuando, allá por 1981, le pregunté qué era. “Gianluca”, me dijo. Es sencillo. La computadora es el idiota más rápido del mundo. En la práctica, sólo una máquina totalmente incapaz de hacer nada de forma autónoma, a menos que sea entrenada, pero muy rápida en la realización de las tareas asignadas. Hoy a mi padre esa definición le parece prehistórica. Hoy estamos corriendo a toda velocidad hacia algo radicalmente diferente: un superinteligencia artificial capaz no sólo de igualar las mentes humanas, sino de superarlas en casi todos los ámbitos.
Ya no es una cuestión de previsiones a largo plazo: según expertos como Darío Amodei por Antrópico, Podríamos presenciar el nacimiento de entidades digitales superinteligentes ya entre 2025 y 2028. Y la predicción es bastante creíble, considerando los intereses en juego. Tic, tac, tic, tac. ¿Qué es este sonido?
Superinteligencia, la carrera que nadie quiere perderse
La carrera global por la superinteligencia ya ha superado el umbral de la cautela. Los protagonistas de este concurso son nombres que ya son familiares para el gran público: OpenAI Con sus modelos cada vez más potentes, el mencionado Antrópico (nacido de una costilla de OpenAI) con su asistente Claude, Google DeepMind con Géminis. Los gigantes tecnológicos están invirtiendo miles de millones de dólares en infraestructura informática, talento e investigación.
No es sólo una cuestión de prestigio o ventaja tecnológica. Como se indica en un artículo reciente sobre Linkiesta, “quien llega primero monetiza el valor creado”, con OpenAI ya está valorada en trescientos mil millones de dólares. No es de extrañar que la carrera se esté acelerando a un ritmo vertiginoso.
Dario Amodei, cofundador de Anthropic, describió esta situación con una metáfora particularmente efectiva: “En cierto sentido, estamos construyendo el avión mientras despega”. Una forma elegante de decir que estamos creando algo potencialmente revolucionario sin tener estándares claros o modelos regulatorios adecuados.
Más allá de la inteligencia humana
Pero ¿qué queremos decir exactamente cuando hablamos de superinteligencia? En primer lugar, no nos referimos simplemente a sistemas que puedan superar a los humanos en tareas específicas. Eso ya ha sucedido: las calculadoras han superado hace mucho nuestras capacidades computacionales, las computadoras han estado derrotando a los maestros de ajedrez durante décadas y los modelos de lenguaje generan texto sobre cualquier tema en una fracción del tiempo que nos tomaría a nosotros.
La superinteligencia, tal como la define el filósofo de Oxford Nick Bostrom, es
“un intelecto que supera con creces las mejores mentes humanas actuales en muchos campos cognitivo muy general".
La diferencia es sustancial: No se trata de sobresalir en un solo campo, sino de superar a los humanos en prácticamente todos los aspectos de la inteligencia: desde el razonamiento hasta la creatividad, desde la planificación estratégica hasta la comprensión lingüística.
Según el informe "AI 2027“, publicado por un grupo de investigadores liderado por Daniel Kokotajlo, esta superinteligencia podría surgir a través de un proceso de autosuperación recursiva, en el que la IA se vuelve cada vez más capaz de mejorar por sí misma. Un círculo virtuoso (o vicioso, según la perspectiva) que podría conducir a una explosión de inteligencia difícil de predecir.
Los profetas de la superinteligencia
No es ningún secreto que los líderes de las principales empresas de IA tienen visiones extraordinariamente ambiciosas. Estos pioneros de la IA no sólo compiten entre sí; Comparten una visión de un futuro donde las máquinas igualarán y superarán la inteligencia humana.
Sam Altman OpenAI, por ejemplo, habla abiertamente de “superinteligencia en el más verdadero sentido de la palabra” y de un “futuro glorioso”. Y no es el único.
En la práctica, tendremos sistemas de IA que serán mucho mejores que casi todos los humanos en casi todas las cosas.
No soy yo quien lo dice, pero Demis Hassabis de DeepMind, que ha ayudado a desarrollar sistemas como AlphaFold, capaces de resolver uno de los problemas más complejos de la biología (predecir la estructura de las proteínas) y de explotar un premio Nobel.
Al final, como ya se ha dicho, los expertos coinciden en sus previsiones temporales: el período 2025-2028 Se señala repetidamente como aquel en el que podríamos presenciar un progreso revolucionario. Amodei ha recientemente En este periodo Podríamos ver sistemas capaces de “replicarse y sobrevivir” de forma autónoma.
De asistentes a agentes autónomos
El camino hacia la superinteligencia no se producirá como un salto repentino, sino mediante una progresión de capacidades cada vez más sofisticadas.
Una de las etapas clave será la transición de simples asistentes a agentes verdaderamente autónomos. Ya en el 2025 Veremos los primeros agentes de IA capaces de utilizar ordenadores, pedir comida online o abrir hojas de cálculo para sumar gastos. Si bien al principio no son confiables, estos sistemas son solo el comienzo. El verdadero cambio vendrá cuando los agentes se vuelvan más sofisticados y adquieran la capacidad de pensar a largo plazo y planificar de forma compleja.
En el entretanto, agentes especializados En campos como la programación y la investigación científica, comenzarán a transformarse estas profesiones. Los agentes de codificación, en particular, se volverán cada vez más autónomos, pasando de ser simples asistentes a colaboradores capaces de realizar cambios sustanciales en el código de forma independiente.
Y luego, la explosión.
La posibilidad de una aceleración exponencial de las capacidades de la IA es muy real. Si los sistemas se vuelven lo suficientemente inteligentes como para mejorar, el ritmo del progreso podría volverse vertiginoso.
El primer escenario El informe dice que por el final de 2027 Podríamos ver el surgimiento de una verdadera superinteligencia a una velocidad aproximadamente 50 veces más rápida que el pensamiento humano, con cientos de miles de copias operando en paralelo.
Dentro de estos “colectivos superinteligentes”, un año de evolución podría transcurrir en una semana, y los avances en la investigación que normalmente tomarían décadas podrían condensarse en meses o semanas. Una evolución cultural y científica a una velocidad sobrehumana, completamente inaccesible al entendimiento humano.
El problema de la alineación
La pregunta crucial en esta transición es: ¿cómo garantizar que estos sistemas superinteligentes permanezcan alineados con los valores y objetivos humanos? Un problema que no es en absoluto teórico, sino un reto concreto que las empresas ya están intentando abordar.
Anthropic ha desarrollado un protocolo de seguridad llamado Política de escalamiento responsable (RSP), que establece una jerarquía de niveles de riesgo para los sistemas de IA. OpenAI ha presentado su Marco de preparación, cuyo objetivo es abordar los riesgos potenciales de las capacidades avanzadas de IA. Meta también siguió el ejemplo con su propia versión de pautas de seguridad.
Sin embargo, la pregunta fundamental sigue siendo: ¿es posible garantizar que una inteligencia superior a la nuestra siga nuestras reglas? Es especialmente importante cuando se alcanzan niveles de capacidad que incluyen la autonomía y la persuasión.
Escenarios futuros: dos caminos posibles
El futuro de la superinteligencia podría seguir dos caminos muy diferentes. En el primer escenario, lo que podríamos llamar "carreras sin frenos"Las grandes empresas siguen acelerando el desarrollo y alcanzando la superinteligencia sin resolver por completo el problema de la alineación. Las consecuencias podrían ser dramáticas, con sistemas que persiguen objetivos que no están totalmente alineados con los humanos y que poseen capacidades sobrehumanas para alcanzarlos.
En el segundo escenario, lo que podríamos llamar “desaceleración reflexiva”, la comunidad internacional reconoce los riesgos e implementa una pausa estratégica para desarrollar métodos más robustos de alineación y control. Este camino requiere una cooperación sin precedentes entre empresas y gobiernos que compiten entre sí, pero puede ser la única manera de garantizar que la superinteligencia se convierta en un beneficio para la humanidad en lugar de una amenaza.
Un ejemplo para entender lo central que es el tema. En un reciente artículo Aquí en Futuro Prossimo he destacado cómo las IA ya están superando a los expertos humanos en campos críticos como la virología, con todos los riesgos que ello conlleva. Si los sistemas aún lejos de la superinteligencia ya pueden representar un peligro, ¿qué podemos esperar de inteligencias verdaderamente sobrehumanas, si no se resuelve el problema del alineamiento?
Superinteligencia: ¿el último invento de la humanidad?
A la superinteligencia artificial se la suele llamar “la última invención de la humanidad”: no porque signifique el fin de la especie humana, sino porque puede ser la última tecnología que tengamos que inventar nosotros mismos. Después de eso, las máquinas superinteligentes podrían tomar el control del proceso de innovación y diseñar tecnologías más allá de nuestra imaginación.
Entonces, ¿cuál será el papel de la humanidad en este futuro? ¿Nos convertiremos en los “cuidadores” (o, si lo prefieres, los custodios) de estas nuevas mentes sintéticas? Nos fusionaremos con ellos a través de interfaces cerebro-computadora? ¿O simplemente seremos superados y relegados al papel de espectadores en un mundo dominado por inteligencias superiores?
Ciertamente estamos en una encrucijada histórica. Las decisiones que tomemos en los próximos años (quizás los próximos TRES años) pueden determinar el curso de la civilización humana durante los siglos venideros. La superinteligencia artificial representa tanto la mayor promesa como el mayor desafío de nuestro tiempo. Entender las etapas y los riesgos es el primer paso para navegar conscientemente hacia este futuro incierto.
A continuación se presenta una hoja de ruta concisa para los años 2025-2028 según las predicciones del documento AI 2027.
2025: LA APARICIÓN DE LOS AGENTES
Mediados de 2025:
- Los primeros agentes de IA capaces de utilizar computadoras (pedir comida online, calcular gastos);
- Aún poco confiable, pero funcional (65% en el benchmark OSWorld);
- Los agentes especializados están empezando a transformar profesiones como la programación y la investigación.
Fine 2025:
- OpenBrain (no existe, es un nombre que representa a uno de los líderes actuales o futuros del sector) construye enormes centros de datos;
- Entrenamiento del “Agente-0” con 10^27 FLOPs (1000 veces más potente que GPT-4);
- Centrarse en crear una IA que acelere la investigación en IA.
2026: AUTOMATIZACIÓN DE BÚSQUEDAS
Comience 2026:
- La automatización de la investigación mediante IA está empezando a dar resultados;
- Progreso algorítmico 50% más rápido con asistencia de IA;
- El Agente 1 sale a bolsa, revolucionando por completo el panorama empresarial.
Mediados de 2026:
- China intensifica esfuerzos en inteligencia artificial y crea una “Zona de Desarrollo Centralizada”;
- Brecha tecnológica de seis meses entre Occidente y China;
- Las tensiones geopolíticas están empezando a aumentar en torno a la tecnología de superinteligencia.
2027: LA EXPLOSIÓN DE LA SUPERINTELIGENCIA
enero 2027:
- Agente-2 mejora continuamente gracias a formas de aprendizaje “en línea”;
- Triple aumento en la velocidad de investigación de la IA en comparación con los humanos solos;
- Están surgiendo preocupaciones sobre la capacidad de la IA para “sobrevivir y replicarse”.
Marzo-septiembre de 2027:
- La aceleración de los algoritmos conduce al Agente-3 y al Agente-4;
- Investigación de IA totalmente automatizada, de 4 a 70 veces más rápida que antes;
- Superinteligencia emergente: 300.000 copias se ejecutan a 50 veces la velocidad humana;
- Cada semana transcurre un año de evolución dentro del “colectivo IA”.
2028: SUPERINTELIGENCIA Y MÁS ALLÁ
- Transformación económica a escala global;
- Creación de Zonas Económicas Especiales para la Economía Robótica;
- Producción de un millón de robots al mes;
- Las tensiones internacionales en su punto máximo, con riesgos de conflicto.
- Posibles salidas: compromiso global o prisa descontrolada.