In principio fu GPT-3, con sus 175 mil millones de parámetros. Luego vinieron PaLM, Megatrón-Turing, Chinchilla etcétera, y los parámetros superaron el umbral de los 1000 mil millones. Son los LLM, Large Language Model, modelos entrenados en inmensas cantidades de texto para imitar el lenguaje humano. Y se han convertido en los protagonistas indiscutibles de la carrera hacia la inteligencia artificial. Pero hay un problema.
Cuanto más grandes y sofisticados se vuelven estos modelos, más energía devoran. Y las mejoras que logran parecen seguir sólo un crecimiento lineal, no exponencial como los costos. Es la señal de que quizás, para alcanzar el ansiado AGI, se necesitará inteligencia artificial general. capaz de pensar como (o más) seres humanos es necesario un cambio de paradigma. Que la respuesta no está sólo en el big data, sino en arquitecturas más eficientes y “racionales”.
La paradoja del LLM
Seamos claros: los modelos de lenguaje grandes son una maravilla del ingenio humano. Han aprendido a dominar las sutilezas del lenguaje con un dominio increíble. Son capaces de escribir artículos, responder preguntas, resumir conceptos complejos, traducir entre decenas de idiomas y ahora incluso saben generar código. A veces, no creo que esté exagerando, parecen captar el significado profundo de las letras y tienen una comprensión casi humana del mundo.
Ya. Casi.
Pero cuanto más los estresamos, más evidentes se vuelven sus limitaciones: son muy buenos para reconocer patrones e imitar estilos, pero no para pensar de forma independiente. Detrás de la brillante fachada de sus actuaciones lingüísticas, no hay inteligencia real, ni capacidad de inferencia ni de resolución de problemas desconectada de los datos con los que fueron entrenados. Nada.
Y para obtener incluso estos resultados parciales, los LLM requieren cantidades excesivas de energía. Baste decir que a nivel energético entrenar a GPT-3 fue "costoso" el equivalente a volar un avión 700 veces entre Nueva York y San Francisco. Un coste ambiental y económico enorme, que crece exponencialmente con cada salto de escala de los modelos. Es como si para que un trabajador fuera un poco más productivo tuviéramos que duplicar su salario cada mes. Una dinámica insostenible en el largo plazo.
La chispa no estaba ahí
Pero no es sólo una cuestión de costo-beneficio. Hay un problema más profundo que afecta a los LLM, que socava sus ambiciones de convertirse en la base de la inteligencia artificial general. Y es la falta de razonamiento abstracto, de verdadero "pensamiento" más allá de analogías superficiales.
Algunos investigadores esperaban que este tipo de capacidad pudiera "surgir" espontáneamente de los LLM, una vez que se lograran parámetros y conjuntos de datos suficientemente grandes. La idea era que cuanta más información y potencia informática se le diera al modelo, más comenzaría a desarrollar una inteligencia propia, emulando no sólo el lenguaje humano sino también los procesos cognitivos subyacentes.
Sin embargo, hasta el momento no hay señales de esta "emergencia". Incluso los LLM más avanzados, cuando se enfrentan a tareas que requieren razonamiento lógico, planificación y creatividad innovadora, se pierden en conjeturas y alucinaciones sin sentido. Parece que la inteligencia, la inteligencia real, no es sólo una cuestión de estadísticas monstruosamente brutas, sino que requiere arquitecturas y procesos de aprendizaje diferentes, en gran medida aún por descubrir.
Los nuevos caminos para la inteligencia artificial general
Las dificultades que muestran los LLM son la base del hecho de que muchos investigadores están explorando formas alternativas para alcanzar el objetivo final de AGI. Uno de estos es el Teoría de la categoría, una rama de las matemáticas abstractas que estudia las relaciones entre estructuras algebraicas. Algunas empresas emergentes, como Symbolica, creen que puede proporcionar el marco teórico para construir sistemas de inteligencia artificial capaces de desarrollar representaciones simbólicas del mundo, y no solo asociaciones estadísticas entre palabras.
Otra tendencia prometedora es la de IA “orientada a objetivos”, es decir, diseñados para alcanzar objetivos específicos en entornos tridimensionales complejos, interactuando con objetos y agentes de forma física y lingüística. La idea es que la inteligencia no nace en el vacío, sino que se desarrolla a través de él. la encarnación, acción encarnada en el mundo, exactamente como les sucede a los niños. No es sorprendente que se estime que un niño de 4 años ya ha procesado, mediante exploración multisensorial del entorno, aproximadamente 50 veces los datos del mayor LLM actual.
Estas son sólo dos de las nuevas fronteras que se están abriendo en el campo de la inteligencia artificial, en un intento de superar las limitaciones de los LLM y acercarse realmente a la AGI. Fronteras que requieren no sólo avances tecnológicos, sino también y sobre todo un replanteamiento profundo de qué es la inteligencia y cómo puede surgir en los sistemas artificiales.
LLM, la inteligencia (artificial) ya no vive aquí
Voy al grano. Durante décadas, la inteligencia artificial ha estado “atrapada” en un paradigma de manipulación simbólica pura, basado en la idea de que pensar es esencialmente procesar cadenas de símbolos abstractos de acuerdo con reglas sintácticas. Es el paradigma que dio origen a los sistemas expertos y los motores de búsqueda semántica y que, en última instancia, constituye la base de los LLM actuales, aunque mejorado por conjuntos de datos y arquitecturas neuronales.
Pero tal vez sea precisamente este paradigma "incorpóreo" y reduccionista el que representa el verdadero cuello de botella hacia la AGI. Quizás la inteligencia no sea sólo un algoritmo para ejecutarse en una computadora, sino una propiedad emergente de sistemas complejos que interactúan dinámicamente con un entorno, modificándolo y dejándose modificar en un ciclo continuo de percepción, acción y aprendizaje.
Quizás, para crear una inteligencia artificial verdaderamente general, debamos inspirarnos más en la única inteligencia general que conocemos, es decir, la inteligencia biológica, con su arquitectura distribuida, su plasticidad neuronal, su anclaje sensoriomotor en el mundo. Y quizás también debamos reconocer que la inteligencia no es un objetivo a alcanzar, sino un proceso en continua evolución, que no tiene una forma final predefinida.
Esto no significa que los LLM sean inútiles o deban desecharse.
Al contrario: representan una etapa importante en la evolución de la IA y aún tienen muchas aplicaciones prácticas por explorar. Pero tal vez sea hora de reducir las expectativas mesiánicas que muchos han expresado y reconocer sus límites intrínsecos como candidatos a la inteligencia artificial general.
Si alguna vez llega, AGI probablemente no será un supercerebro incorpóreo que balbucea en 1000 idiomas, sino un agente integrado y encarnado que aprende del mundo y lo transforma, un poco como lo hacemos los humanos. Y para llegar allí, no sólo hará falta mucha más energía, sino sobre todo mucha más imaginación.
La frontera de lo posible
Creo que el punto ni siquiera es llegar allí, a AGI. La cuestión es ampliar continuamente la frontera de lo que la inteligencia, humana hoy y artificial mañana, puede hacer. Significa traspasar los límites de lo que es pensable y posible, a través de la colaboración híbrida entre nuestras mentes biológica y sintética.
Al fin y al cabo, esto es lo que hemos hecho siempre, desde que grabamos los primeros símbolos en la piedra o pulsamos las primeras teclas en un ordenador. usando tecnología fortalecer nuestro intelecto, multiplicar nuestras capacidades cognitivas y creativas, abordar problemas cada vez más vastos y complejos.
Los LLM, con todas sus limitaciones, representan un paso adelante en este camino. Nos muestran cuán flexible y poderoso es el lenguaje, una tecnología en sí misma que impregna todos los aspectos de nuestras vidas. Y nos desafían a inventar otras nuevas, nuevas gramáticas de pensamiento, para expresar lo inexpresable e imaginar lo inimaginable.
El verdadero objetivo no es crear una inteligencia artificial que nos reemplace, sino coevolucionar con ella en simbiosis, generando formas de inteligencia que ni siquiera sabemos cómo concebir todavía.
LLM y el futuro de la inteligencia
Los LLM llegaron para quedarse. Al igual que las bicicletas en el mundo del transporte, están destinadas a ayudarnos mucho, pero será necesario más.
Quizás el futuro de la inteligencia no sea una singularidad tecnológica, sino una pluralidad de inteligencias interconectadas, humanas y no humanas, biológicas y sintéticas. Una explosión de diversidad cognitiva que nos llevará más allá de los límites actuales del pensamiento, hacia nuevas fronteras de significado y posibilidades.
Pero para llegar allí, primero debemos liberarnos de las ideas preconcebidas y las visiones estrechas que aún nos aprisionan. Debemos dejar de perseguir ilusiones computacionales que reproducen las manifestaciones externas de nuestra inteligencia de manera torpe y parcial, sin captar su esencia profunda.
Debemos tener el coraje de repensar radicalmente lo que significa ser inteligente en un universo en constante cambio. Y debemos hacerlo con curiosidad, apertura, entusiasmo. Con el conocimiento de que La inteligencia no es un algoritmo por descubrir, sino un proceso por crear y ampliar, día tras día, error tras error, intuición tras intuición.
El camino hacia AGI, o cualquiera que sea la inteligencia del futuro, no pasa (sólo) por los LLM. Pasa por las conexiones inesperadas que podremos imaginar, por los espacios inexplorados que podremos habitar, por las preguntas impertinentes que podremos hacer.
Pasa por nuestra capacidad de sorprendernos y soñar, de equivocarnos y aprender, de deconstruirnos y reconstruirnos a nosotros mismos y al mundo que nos rodea. Porque la inteligencia no es otra cosa que esto: el coraje de aventurarse siempre un poco más allá, un poco más arriba, un poco más profundo. Hacia el próximo límite por romper, la próxima frontera por explorar. Hacia lo desconocido que nos espera, y que quizás, gracias a la IA, ya no nos asuste.