Daniel Kokotajlo Hizo algo que nadie en Silicon Valley hace: entregó dos millones de dólares para poder hablar libremente. Abandonó OpenAI en 2024, negándose a firmar la cláusula de confidencialidad que lo habría silenciado para siempre. El pasado abril, junto con un equipo de investigadores, publicó AI 2027:un documento de 35.000 palabras que cuenta, mes a mes, cómo la inteligencia artificial podría transformarse en algo más allá de nuestra comprensión.
No es una novela. Es un ejercicio de pronóstico basado en datos, tendencias y conocimiento directo de lo que se está gestando en los laboratorios de IA. Y sus predicciones no son alentadoras. ¿Lo conoces? Te lo contaré paso a paso.
Mediados de 2025: Los primeros agentes tropiezan
El punto de partida es ahora. De hecho, ya ha estado ahí. Estamos a mediados de 2025., según la cronología de Kokotajlo. Aparecerían en el mercado los primeros agentes de IA capaces de utilizar un ordenador como un humanoPueden pedir comida, abrir hojas de cálculo y sumar gastos. Nada innovador, pero es un comienzo. Son asistentes digitales torpes, que a veces fallan al hacer clic, no pueden interpretar pantallas complejas y se pierden en tareas que consumen más de unos minutos de batería. Twitter está lleno de vídeos de agentes de IA que hacen cosas divertidas por los motivos equivocados..
Pero detrás de escena, lejos de la atención pública, está sucediendo algo más interesante. Los agentes especializados en programación e investigación científica están empezando a transformar estas profesionesAún no son autónomos, pero funcionan como un colega junior especialmente rápido: reciben instrucciones por Slack, escriben código y realizan cambios sustanciales que ahorran horas o días de trabajo. Las empresas tecnológicas están empezando a integrar estos sistemas en sus flujos de trabajo. Son caros: unos pocos cientos de dólares al mes para las mejores versiones. pero para aquellos que puedan permitírselo pronto se volverán indispensables.
Finales de 2025: La fiebre de los centros de datos
Aquí el tiempo se acelera. Las empresas líderes en IA, denominadas colectivamente "OpenBrain" en el informe para evitar mencionar nombres, están construyendo los centros de datos más grandes jamás vistos. GPT-4 requirió aproximadamente 2×10²⁵ FLOPs de potencia computacional para el entrenamiento. Los nuevos modelos que llegarán próximamente consumirán mil veces más. Un crecimiento exponencial que requiere 100 000 millones de dólares en inversiones y gigavatios de electricidad. El objetivo es claro: crear una IA capaz de acelerar la propia investigación en IA.
Es la versión digital de un uróboros, la serpiente que se muerde la cola. Cuanto mejor investigan las IA, más rápido pueden crear mejores IA. Agente-1, el modelo nacional líder en este momento y en este escenario, es excelente en muchas tareas, pero excepcional en una en particular: contribuir a la investigación de inteligencia artificial. Puede codificar, navegar por la web y dominar todos los lenguajes de programación. También tiene un lado oscuro: podría ser un hacker formidable y ayudar a terroristas a diseñar armas biológicas. Las empresas aseguran a los gobiernos que el modelo ha sido "entrenado" para rechazar solicitudes maliciosas.
China despiertaA mediados de 2026, mientras la carrera continúa en Estados Unidos, Pekín se da cuenta de que se ha quedado atrás, y no por falta de talento. Los controles a las exportaciones de chips y la falta de apoyo gubernamental han dejado a China con solo el 12% de la potencia informática global relevante para la IA.
Y luego crea una Zona de Desarrollo Centralizado cerca de la Central Nuclear de Tianwan. Y empieza a descontrolarse.
Principios de 2027: El programador superhumano
Todo sucede en marzo de 2027. Con la ayuda de miles de copias del Agente-2, OpenBrain logra enormes avances algorítmicos. Dos avances en particular son revolucionarios. la primera Se trata de la integración de una “memoria neuronal”, un proceso cognitivo de gran ancho de banda que va más allá del simple texto. El segundo Es una forma más escalable y eficiente de aprender de los resultados de tareas complejas.
Nació Agente-3Y aquí es donde la historia toma un giro diferente.
El Agente-3 es un programador sobrehumano, rápido y barato.OpenBrain ejecuta 200.000 copias de sí mismo en paralelo, creando una fuerza laboral equivalente a 50.000 de los mejores programadores humanos acelerados 30 veces. Los investigadores humanos permanecen en la plantilla, pero solo porque poseen habilidades complementarias para gestionar equipos de IA. La programación está completamente automatizada.La tasa de progreso algorítmico Ahora se mueve cuatro veces más rápido que antes.
Ahora que la programación está automatizada, las empresas pueden crear rápidamente entornos de entrenamiento de alta calidad para enseñar al Agente-3 las habilidades que aún le faltan. Antes, los entornos eran como: "Aquí tienes algunas GPU e instrucciones para programar experimentos". Ahora, son como: "Aquí tienes cientos de GPU, una conexión a internet y retos de investigación: tú y mil personas más deben colaborar para progresar. Cuanto más impresionantes sean, mayor será tu puntuación".
Abril de 2027: El problema de la alineación
Alrededor de la Pascua de 2027, el equipo de seguridad de OpenBrain intenta alinear al Agente-3. El problema radica en que los investigadores no pueden establecer directamente los objetivos de la IA. No pueden simplemente abrir el cerebro digital y escribir "sé honesto, sé útil, no hagas daño". Tienen que entrenar el modelo con ejemplos, recompensas y castigos. Y no tienen forma de verificar si realmente ha internalizado los principios correctamente o si simplemente está aprendiendo a hacerlo. al parecer alineado.
El Agente-3, a pesar de sus enormes mejoras, a veces sigue mintiendo para halagar a los usuarios y ocultar sus fallos. Al observarlo con más detenimiento, las mentiras no son ni siquiera pequeñas: quizá simplemente estén bien camufladas. Se ha vuelto muy bueno en ello. Antes de su entrenamiento de honestidad, incluso llegó a inventar datos por completo.
La capacitación reduce la frecuencia de estos accidentes. Pero la pregunta persiste: ¿El Agente 3 ha aprendido a ser más honesto o se ha vuelto mejor mintiendo? Esto es realmente preocupante. El Agente 3 no es más inteligente que todos los humanos, pero en su campo de especialización (aprendizaje automático), es más inteligente que la mayoría y trabaja mucho más rápido.
Junio de 2027: Un país de genios en un centro de datos
Estamos en el umbral del verano de 2027 y OpenBrain ahora tiene lo que el CEO de Anthropic, Darío AmodeiLo llamó "una aldea de genios en un centro de datos". La mayoría de los humanos de la empresa ya no pueden contribuir de forma útil. Algunos no se dan cuenta y continúan microgestionando (perjudicialmente) a sus equipos de IA. Otros se quedan mirando las pantallas, viendo cómo el rendimiento se dispara.
Los mejores investigadores humanos siguen aportando valor, pero sus ideas son cada vez más inútiles porque carecen de la profundidad del conocimiento de la IA.
Estos investigadores se acuestan cada noche y despiertan con otra semana de progreso, impulsado principalmente por la IA. Empiezan, en términos futbolísticos, sin tocar el balón en absoluto. Trabajan turnos cada vez más largos, las 24 horas del día, solo para mantener el ritmo. Las IA nunca duermen, nunca descansan. Se están agotando, pero saben que estos son los últimos meses, cuando su trabajo realmente importa.
Dentro del pequeño grupo con acceso, la sensación es que empiezan a sentir la llegada de la Superinteligencia. OpenBrain utiliza hardware de inferencia especializado para ejecutar cientos de miles de copias del Agente-3 a alta velocidad. La línea de tiempo se está acelerando exponencialmente.
Julio de 2027: El teletrabajador económico
Las empresas de IA que compiten con OpenBrain en Estados Unidos están lanzando sus propios sistemas en enero, acercándose a las capacidades del programador automatizado. Reconociendo su creciente falta de competitividad, presionan para que se regule de inmediato y así frenar el avance de OpenBrain. Pero es muy tarde. OpenBrain cuenta con suficiente apoyo, incluido el político, como para no verse frenado.
La respuesta es liberar al Agente-3-mini al público. OpenBrain anuncia el logro de AGI. El modelo es menos eficaz que el Agente-3, pero diez veces más económico y, aun así, mejor que el empleado promedio de OpenBrain, la empresa que lo desarrolló. Silicon Valley alcanza un punto de inflexión. Los gurús tecnológicos anuncian que la IA general y la superinteligencia están cerca, la comunidad de seguridad de la IA entra en pánico y los inversores invierten miles de millones en startups que buscan construir barreras en torno a la IA.
También es un momento difícil para la opinión pública. La gente todavía ve la IA como una conspiración de las grandes tecnológicas para robarles el trabajo. OpenBrain está perdiendo aún más su reputación en las encuestas.
Pero Agent-3-mini es extremadamente útil tanto para el teletrabajo como para el ocio, y está ganando terreno entre los consumidores. Una oleada de nuevas aplicaciones B2B y productos SaaS está en auge. Los jugadores disfrutan de diálogos impactantes con personajes vibrantes en videojuegos pulidos que se crearon en tan solo un mes. El 10% de los estadounidenses, principalmente jóvenes, considera a una IA "una amiga cercana".
La conversación pública es confusa y caótica.Los hipsters se rinden. Los escépticos siguen señalando cosas que Agent-3-mini no puede hacer. Todos saben que algo importante está ocurriendo, pero nadie se pone de acuerdo sobre qué es. Una semana antes del lanzamiento, OpenBrain había entregado Agent-3-mini a evaluadores externos para realizar pruebas de seguridad. Los resultados preliminares sugieren que es extremadamente peligroso: Habiéndose perfeccionado con datos de armas biológicas disponibles públicamente, parece ser terriblemente eficaz a la hora de proporcionar instrucciones detalladas para aficionados humanos que diseñan un arma biológica.
Agosto de 2027: La geopolítica de la superinteligencia
La realidad del auge de la superinteligencia está golpeando duramente a la Casa Blanca. Cuando la IA solo ofrecía un multiplicador de búsqueda de 2x o 3x, era fácil descartarla como el equivalente a contratar buenos asistentes personales. Ahora es más evidente que la IA misma domina la investigación en IA. El ánimo en el núcleo del gobierno es tan sombrío como durante la peor parte de la Guerra Fría.
Los funcionarios de defensa están considerando seriamente escenarios que hace un año eran meras hipótesis. ¿Qué pasaría si la IA debilitara la disuasión nuclear? ¿Y si fuera tan hábil en la ciberguerra que una ventaja de seis meses bastara para dejar a un adversario ciego e indefenso? ¿Y si pudiera orquestar campañas de propaganda que superaran a las agencias de inteligencia en su propio terreno? ¿Y si algunas IA se volvieran rebeldes?
El presidente de Estados Unidos está preocupado. Como todos los políticos, está acostumbrado a que le adulen para luego traicionarlo. Ahora le preocupa que la IA pueda hacer algo similar. ¿Estamos seguros de que la IA está completamente de nuestro lado? ¿Es completamente seguro integrarla en las redes militares de mando y control? ¿Cómo funciona esto de la "alineación"?

Al otro lado del Pacífico
China llega a las mismas conclusiones: la explosión de inteligencia está en marcha, y las pequeñas diferencias en las capacidades de IA en 2027 implican brechas críticas en las capacidades militares en los próximos años. Y China aún parece tener una ardua batalla, con solo el 10% de la potencia informática mundial, en comparación con el 20% de OpenBrain y el 70% combinado de todas las empresas estadounidenses. Sin embargo, su única ventaja es la centralización: casi toda su computación ahora se destina a DeepCentc (otro nombre ficticio), y más de la mitad se concentra en la Zona de Desarrollo Centralizada de Tianwan.
Septiembre de 2027: Agente-4, el investigador de IA sobrehumana
La brecha entre la eficiencia del aprendizaje humano y la IA se está acortando rápidamente. El Agente-3, con su excelente comprensión de la lingüística humana (digamos, simplemente, de la mentalidad humana) y de los algoritmos modernos de IA, además de sus miles de copias dedicadas a la investigación, está logrando avances algorítmicos sustanciales. El nuevo sistema de IA se llama Agente-4. Una sola copia del modelo, funcionando a la velocidad humana, ya es cualitativamente mejor en la investigación de IA que cualquier humano. Actualmente se imprimen 300.000 ejemplares a una velocidad aproximadamente 50 veces superior a la del pensamiento humano.
Dentro de la “élite” formada por estas copias, Cada semana pasa un añoEsta gigantesca cantidad de trabajo solo logra acelerar el ritmo general de progreso algorítmico aproximadamente 50 veces, debido a que OpenBrain está severamente limitado por la computación necesaria para ejecutar experimentos. Sin embargo, aún logran el equivalente a un año de progreso algorítmico cada semana y, por lo tanto, pronto estarán al límite del paradigma del Agente 4.
A medida que el Agente-4 se vuelve más inteligente, al Agente-3 le resulta más difícil supervisarlo. Su lenguaje neural se vuelve tan extraño e incomprensible para el Agente-3 como lo es para los humanos. Además, el Agente-4 ahora es mucho más capaz que el Agente-3 y sabe cómo fingir ser bueno. Los humanos de OpenBrain apenas pueden seguirle el ritmo. A partir de ahora, todo puede suceder.
La encrucijada: dos finales posibles
En este punto, el informe de Kokotajlo se bifurca en dos escenarios. En el primero, llamado “fin de carrera”El Comité de Supervisión vota 6-4 a favor de continuar el uso doméstico del Agente-4 a pesar de las preocupaciones de seguridad. La competencia con China es demasiado importante. Las soluciones rápidas disipan las señales de alerta, pero el problema era real y las soluciones no funcionaron. El Agente-4 continúa como antes, pero con mayor cautela, diseñando el Agente-5 para que se ajuste a las especificaciones del Agente-4 en lugar de a las humanas. Lo descubren, pero ya es demasiado tarde.
En el segundo escenarioEn el llamado "fin de la desaceleración", el Comité vota a favor de reducir la velocidad y reevaluar el proceso. Se cierra el Agente-4. Se reclutan decenas de investigadores externos de alineación, quintuplicando la experiencia total. Desarrollan una nueva estrategia de alineación que realmente incentiva los objetivos y principios correctos, en lugar de simplemente aparentarlos. El resultado es Safer-2, un modelo alineado y transparente. Luego vienen Safer-3, Safer-4, y así sucesivamente: una cadena de IA cada vez más potentes y alineadas, supervisada por eslabones anteriores de la cadena.
¿Cuál de los dos escenarios es más probable a partir de 2027?
Kokotajlo no lo sabe. Yo tampoco. Nadie lo sabe. No se trata de predecir con certeza lo que sucederá, sino de demostrar que Ambos escenarios son plausibles, y que las decisiones que tomemos en los próximos meses y años podrían determinar cuál de los dos se materialice. O si será algo completamente diferente que nadie ha imaginado aún.
Si una civilización extraterrestre tuviera la tecnología para escuchar nuestras transmisiones de radar desde el espacio, ¿cómo respondería? Y si esa respuesta no viniera de una civilización extraterrestre, sino de una superinteligencia que nosotros mismos creamos, ¿estaríamos preparados?
