Si la aparición de la IA generativa te ha dejado consternado, debes saber que no, todavía no hemos visto nada. El genio ha salido de la lámpara y le resultará difícil volver a entrar. De lo contrario. La carrera es más salvaje que nunca y hay seis proyectos compitiendo para crear modelos de IA que superen los 2 billones de parámetros. Sí, lo leíste correctamente: billones.
Los titanes de la IA con 2 billones de parámetros
Los seis proyectos principales que compiten por el hito de 2 billones métricos son OpenAI, Antrópico, Google/mente profunda, Meta, un proyecto del gobierno británico y aún secreto. Y es una carrera "mortal": se necesitan recursos económicos para mantener el ritmo. Muchos. Entre 1 y 2 millones de dólares al año, para actualizar constantemente el hardware (cada vez más voraz de cálculos y energía), contratar cientos de especialistas y retener a los mejores miembros del equipo con salarios millonarios y opciones sobre acciones.
GPT-5: El Retorno del Rey
Después de tomar por sorpresa a medio mundo, disparó un misil a Google y habiendo recibido una gran cantidad de dinero de Microsoft, OpenAI ya tiene una posible oportunidad de KO en el tintero. El que podría asegurar la supremacía empresarial de Sam Altman. GPT-5 se completará a finales de 2023 y se lanzará a principios de 2024, con entre 2 y 5 billones de parámetros.
Somos incapaces, por el momento, de imaginar sus capacidades.
Claude-Next: Anthropic y su ambicioso proyecto
Antrópico, el equipo fundado por ex empleados de OpenAI, está trabajando en un modelo llamado Claude-Siguiente, que pretende ser 10 veces más potente que las IA actuales. Con $ 1 mil millones en fondos ya recaudados y $ 5 mil millones en camino, Anthropic espera alcanzar sus objetivos en los próximos 18 meses.
Su modelo insignia requerirá 10^25 FLOP, utilizando grupos de decenas de miles de GPU. Entre los financiadores de Anthropic se encuentra Google, que juega en múltiples mesas.
Géminis: Google busca la redención con Deepmind
Google y Deepmind están colaborando para desarrollar un competidor de GPT-4 llamado Gemini. El proyecto comenzó recientemente, después de que Bard mostrara di fallar en competir con ChatGPT. Gemini será un modelo de lenguaje grande con billones de parámetros, similar a GPT-4 o GPT-5, y utilizará decenas de miles de chips Google AI TPU para el entrenamiento. Aún no se sabe si será multimodal.
Deepmind también ha desarrollado el chatbot basado en la web Gorrión, optimizado para la seguridad y similar a ChatGPT. Los investigadores de DeepMind han descubierto que las citas de Sparrow son útiles y precisas el 78 % de las veces. Otro top model de DeepMind es Chinchilla, entrenado en 1,4 billones de parámetros.
Los parámetros de un futuro impensable
Si quiere hacerse una idea de lo que significan 2 billones de parámetros, sepa que la estimación de la cantidad total de datos de texto utilizables en el mundo está entre 4,6 billones y 17,2 billones de parámetros.
Todos los libros, artículos científicos, noticias, Wikipedia completa, código disponible públicamente y gran parte del resto de Internet, filtrados por calidad. Conocimiento humano digital.
A medida que lleguen modelos más grandes, surgirán nuevas capacidades. Durante los próximos 6 años, habrá mejoras en el poder de cómputo y algoritmos para escalar modelos mil veces, de hecho, mucho más.
El CEO de Nvidia predijo modelos de IA un millón de veces más potentes que ChatGPT dentro de 10 años.
¿Te imaginas lo que harán estas inteligencias artificiales con nosotros, lo que le harán al planeta? Piénsalo rápidamente. Estamos aquí ahora.