El futuro, cantaba Enrico Ruggeri, es una hipótesis. Y en esta hipótesis también hay una inteligencia artificial capaz no sólo de vencer al hombre al ajedrez o al Go, sino también de escribir. novelas, componer sinfonías. Hacer descubrimientos científicos, incluso sentir emociones. Es el espejismo de la inteligencia artificial general, o AGI: sistemas con capacidades cognitivas generales similares y superiores a las de los humanos. Un objetivo que parece acercarse gracias a modelos lingüísticos avanzados como GPT-4 y ahora también ol. Pero todavía quedan muchas cuestiones teóricas y prácticas por resolver.
El sueño de AGI
Durante décadas, elinteligencia artificial general (AGI) es El Dorado, la tierra prometida de los investigadores en inteligencia artificial. La idea de crear una máquina capaz de igualar y superar las capacidades cognitivas humanas en todos los campos (desde razonamiento abstracto hasta la la creatividad, a partir de planificación hasta la generalización de habilidades) fascina y asusta al mismo tiempo.
De hecho, un sistema AGI podría resolver de forma autónoma problemas extremadamente complejos como cambio climático, los futuros pandemia, encontrando curas para enfermedades devastadoras como cáncer y L 'Alzheimer. Podría hacer avanzar la ciencia y la tecnología a un ritmo sin precedentes, revolucionando áreas como la exploración espacial, la energía limpia, el transporte y la educación.
Por otro lado, una inteligencia artificial supergeneral tendría un poder enorme y potencialmente incontrolable si no se alineara adecuadamente con los valores humanos. “Podrían pasar cosas terribles porque hagamos un mal uso de la IA o porque perdamos el control de ella”, advierte Yoshua Bengio, uno de los padres del aprendizaje profundo y pionero de la investigación AGI. Escenarios apocalípticos que se hacen eco de los imaginados por científicos del calibre de Stephen Hawking y emprendedores visionarios como Elon Musk.
AlphaGo y los límites de los sistemas de IA actuales
Hasta hace unos años, AGI parecía un espejismo lejano. Los avances en la IA “estrecha” fueron impresionantes, pero se limitaron a tareas específicas. Pensemos por ejemplo en AlphaGo, el sistema de IA desarrollado por Google DeepMind capaz de vencer a los campeones mundiales del juego de mesa Go. Un resultado histórico, que sin embargo no hace que AlphaGo sea inteligente en un sentido general: sólo sabe jugar al Go, no puede improvisar como escritor, compositor o científico.
Este es el límite de los sistemas de IA actuales, incluso los más avanzados: son “idiotas conocedores”, extremadamente bueno en un dominio limitado (ya sea jugar ajedrez, reconocer imágenes o generar texto) pero incapaz de transferir esas habilidades a diferentes dominios. Carecen de esa capacidad de generalizar e abstracto, que es la figura de la inteligencia humana.
La revolución de los modelos lingüísticos
La reciente revolución de modelos lingüísticos como el GPT-3 OpenAI, LaMDA por Google, DALL-E (también de OpenAI), Difusión estable de Estabilidad IA, por citar al más conocido, ha cambiado las cartas sobre la mesa. O más bien, nos mostró una representación más cercana de lo que pensábamos hasta hace poco de cómo sería una inteligencia artificial general.
La característica que hace que estos modelos sean tan prometedores es la suya. multifuncionalidad: a diferencia de los sistemas de IA "restringidos", son capaces de abordar tareas muy diferentes, desde escribir textos hasta generar imágenes, desde conversaciones hasta la resolución de problemas, con resultados a menudo impresionantes.
Una multifuncionalidad que en cierto modo recuerda a la de mente humana y ha hecho que algunos investigadores hablen de “inteligencia artificial general ya conseguida”. En particular, el reciente anuncio de ol, el último modelo de OpenAI, que (en algunos casos, pocos, para ser honesto) cuenta con capacidad de razonamiento de la aprendizaje mucho más humano que sus predecesores, ha reavivado el debate.
Los problemas a resolver hacia la inteligencia artificial general
Ven sottolinea François Chollet, científico informático y creador del marco Keras AI, los grandes modelos de lenguaje actuales todavía sufren de limitaciones importantes que los hacen "insuficientes para lograr AGI".
Uno de los principales problemas es la generalización: Aunque entrenados con enormes cantidades de datos (terabytes de texto e imágenes), estos sistemas luchan por aplicar lo que han aprendido a situaciones incluso ligeramente diferentes de aquellas en las que fueron entrenados. "Los modelos lingüísticos realmente no pueden adaptarse a la novedad porque no tienen la capacidad de recombinar sus conocimientos sobre la marcha para adaptarse a nuevos contextos", explica Chollet.
También relacionada con la generalización está la noción de “aprender de algunos ejemplos” (aprendizaje en pocas oportunidades), una de las características clave de la inteligencia humana. Hasta la fecha, los modelos de lenguaje requieren una enorme cantidad de datos y un costoso reentrenamiento para “aprender” nuevas tareas, mientras que los humanos A menudo podemos captar un concepto a partir de uno o muy pocos ejemplos.
Los caminos imposibles hacia la inteligencia artificial general
Como lo demuestran algunos experimentos, el “representaciones internas” que los modelos lingüísticos construyen de la realidad son a menudo superficiales e inconsistentes. Por ejemplo, un equipo de investigadores de La Universidad de Harvard entrenó un modelo en rutas de taxis en la ciudad de Nueva York, logrando que prediga el destino dado el punto de partida con gran precisión. Sin embargo, al observar los “mapas mentales” desarrollados por el sistema, los investigadores descubrieron que no tenían ningún significado, “con carreteras de orientación físicamente imposible y pasos elevados que pasan por encima de otras carreteras”.
Por último, todavía falta un mecanismo en los modelos actuales. realimentación como el presente en el cerebro humano, donde la información fluye bidireccionalmente entre las diferentes capas de neuronas, permitiéndole integrar percepción, razonamiento y acción. Si bien la información sensorial se eleva para construir representaciones abstractas del mundo, esas mismas representaciones pueden influir en la percepción y guiar la adquisición de nueva información relevante. Una dinámica que permite funciones claves como imaginación, planificación, formulación de hipótesis para comprobar. ¿Modelos actuales? No tienen nada como esto. ¿Una inteligencia artificial general (AGI) que podría surgir en algún lugar en un futuro próximo? Tal vez. Tal vez.
No por el momento. Algunas de estas funciones ahora sólo se pueden obtener de forma rudimentaria, "agregando externamente" módulos ad hoc llamados "verificadores" a los modelos que evalúan y corrigen el resultado. Pero es un enfoque poco escalable y alejado de la eficiencia de la mente humana.
Inteligencia artificial general, los próximos pasos hacia la meta
A pesar de estas limitaciones, el camino hacia una inteligencia artificial verdaderamente generalizada parece hoy más claro y viable. Desde un punto de vista teórico, parece que no hay obstáculos insuperables: “Los seres humanos y algunos animales son la prueba viviente de que es posible llegar allí”, subraya. melanie mitchell, profesor del Instituto Santa Fe y experto en AGI. El desafío es más de ingeniería e implementación que conceptual.
Los investigadores ya están trabajando en sistemas de IA de próxima generación que superen las limitaciones de los actuales e incorporen características clave de la inteligencia humana como:
- modelos del mundo más sofisticado, coherente y adaptable para apoyar el razonamiento, la planificación y la generalización de alto nivel. Representaciones similares a nuestras "simulaciones mentales" con las que imaginamos escenarios hipotéticos para tomar decisiones.
- Comentarios internos que permiten un flujo de información bidireccional y recursivo, en el que las representaciones abstractas pueden guiar la adquisición de más datos relevantes y la formulación de experimentos para validar hipótesis.
- Mayor eficiencia en el aprendizaje, desarrollar la capacidad de seleccionar activamente qué información "probar" para refinar los modelos, en lugar de depender de una masa indiscriminada de datos. Un poco como un niño que explora activamente su entorno en busca de estímulos interesantes.
- una forma de “metamemoria”, es decir, conciencia de lo que se sabe y lo que no se sabe, para guiar la exploración y la adquisición selectiva de nuevos conocimientos.
- Instalaciones separadas para memoria a corto y largo plazo almacenar, recordar y recombinar rápidamente conocimientos y experiencias anteriores, como ocurre en los sistemas de memoria biológica.
- Alguna forma de conocimiento y automodelo, para guiar comportamientos dirigidos a objetivos e interacciones efectivas con el entorno y con otros agentes, artificiales o humanos.
Se están logrando avances interesantes en muchos de estos puntos.
Yoshua Bengio, por ejemplo, está trabajando en nuevas arquitecturas de redes neuronales, que él llama “redes de flujo generativo”, capaz de aprender simultáneamente a construir modelos del mundo y los módulos para utilizarlos para razonar y planificar. Un enfoque que en cierto modo se asemeja al funcionamiento del cerebro humano.
Otros investigadores, como Jeff Hawkins de Numenta, están intentando implementar los principios de la memoria biológica en sistemas de IA, con estructuras separadas para la memoria a corto y largo plazo y procesos de consolidación y recuperación de información. La hipótesis es que puede ayudar con los desafíos de generalización y razonamiento abstracto.
Luego están aquellos, como el neurocientífico teórico Karl Friston de University College London, propone que una clave para abordar AGI es construir sistemas que no simplemente "ingieran" pasivamente datos de entrenamiento sino que decidan activamente cuánta y qué información muestrear para lograr sus objetivos. Un principio similar al “muestreo activo” en los seres vivos.
Los desafíos éticos y de seguridad de una AGI
Si construir inteligencia artificial general es teóricamente posible, esto no quiere decir que esté exento de riesgos o problemas críticos. Como se mencionó, una superinteligencia que esté fuera de control o no alineada con los valores humanos podría representar una amenaza existencial para nuestra especie. Por no hablar de los posibles impactos en la economía, el trabajo, las desigualdades, la privacidad, la manipulación de la información.
Por esta razón, a investigadores como Stuart Russell de la Universidad de Berkeley subrayan la importancia de desarrollar técnicas desde el principio “alineación de valores” (alineación de valores) para garantizar que los sistemas AGI tengan objetivos y comportamientos compatibles con la ética y el bienestar humano.
Enfoques prometedores en esta dirección son aquellos que apuntan a sacar comportamientos y valores éticos de la dinámica de aprendizaje del propio sistema, sin imponerlos desde el exterior. Una propuesta interesante es la de“Aprendizaje colaborativo por refuerzo inverso” (CIRL). Con CIRL, el agente de IA es recompensado por satisfacer las preferencias humanas, pero estas preferencias en sí mismas se infieren en parte del comportamiento del agente y se refinan con el tiempo.
Otros investigadores creen que es esencial que el desarrollo de AGI se produzca de forma gradual. Lo reformularé: “en capas”, con niveles crecientes de autonomía y habilidad, para que podamos probar y validar la seguridad del sistema en cada etapa. Un poco como lo que ocurre en el desarrollo del cerebro humano, que pasa por fases de creciente sofisticación desde las habilidades motoras y perceptivas básicas hasta el lenguaje y las capacidades cognitivas superiores.
Y luego está obviamente la cuestión de regulador e gobierno: ¿Quién y cómo debería controlar el desarrollo de tecnologías tan poderosas como AGI? ¿Sólo empresas y laboratorios privados o también gobiernos y organizaciones internacionales? Muchos se muestran escépticos sobre la capacidad de los marcos regulatorios e institucionales actuales para mantenerse al día y exigen una "gobernanza global" de la IA, pero los contornos de esta gobernanza futurista aún están por definirse.
Inteligencia artificial general, un futuro fascinante e incierto
Moviendo los hilos, ¿qué tan cerca estamos del objetivo de una inteligencia artificial general comparable o superior a la inteligencia humana? Es difícil decirlo con certeza, las estimaciones de los expertos varían. durante unos años a varias décadas. Lo cierto es que los avances de los últimos años han hecho de AGI un objetivo mucho más tangible y han dado una aceleración impresionante al campo.
El camino está lleno de obstáculos, pero la meta nunca pareció tan al alcance. Y si un día, ojalá no muy lejano, una inteligencia artificial sea capaz de hacernos preguntas, probar hipótesis, aprender de la experiencia e incluso sentir emociones… entonces sabremos que hemos llegado. Y que el mundo, para bien o para mal, nunca volverá a ser el mismo.