Puede que aún no nos hayamos puesto al día inteligencia artificial general (AGI), pero según un destacado experto en el campo teórico, podría llegar antes de lo que pensamos. Según el informático y experto Ben Goertzel, si bien es poco probable que se construya IA a nivel humano o sobrehumano antes de 2029 o 2030, existe la posibilidad de que suceda ya en 2027.
Una perspectiva tan fascinante como inquietante, que plantea profundas interrogantes sobre el futuro de la humanidad ante el auge de las máquinas inteligentes.
La incertidumbre de la inteligencia artificial general
Goertzel, fundador de SingularityNET, es muy consciente de las incógnitas que rodean el desarrollo de AGI. “Nadie ha creado todavía una inteligencia artificial general a nivel humano; nadie tiene una idea sólida de cuándo llegaremos allí”, dijo a la audiencia en la conferencia más reciente. en el que participó, en Panamá.
Sin embargo, a pesar de estas incertidumbres, Goertzel considera plausible la AGI a nivel humano. se puede lograr en 2027, y en cualquier caso a más tardar en 2032. Una predicción que, de hacerse realidad, tendría profundas implicaciones para nuestro futuro.
De AGI a la superinteligencia
El verdadero desafío, según Goertzel, comienza cuando se alcanza el AGI. "Mi opinión es que una vez que se llega a un AGI a nivel humano, se podría obtener un AGI radicalmente sobrehumano en unos pocos años, a menos que AGI amenace con frenar su desarrollo debido a su propio conservadurismo", añadió.
La idea es que una IA capaz de hacer introspección en su propia “mente” podría hacer ingeniería y ciencia a nivel humano o sobrehumano, creando inteligencias cada vez más avanzadas en un proceso de superación personal recursiva.
Se trata del concepto de “explosión de inteligencia”, muchas veces asociado a la singularidad tecnológica.
Las predicciones de los expertos
Goertzel no es el único, ni el primero en prever la llegada de la inteligencia artificial general en sus predicciones. Previsiones que, además, poco a poco van convergiendo. Geoffrey Hinton, conocido como el “padrino de la IA” y ex empleado de Google, dijo en mayo del año pasado que esperaba, “sin mucha certeza”, que la AGI estuviera entre 5 y 20 años a partir de ahora. Su predicción anterior era de 30 a 50 años.
Shane Legg, cofundador de Google Mente profunda, reiteró su predicción de hace más de una década de que existe un 50% de posibilidades de que los humanos inventen la AGI para 2028. Pablo Pallaghyfinalmente, se llega incluso a dar por segura la inteligencia artificial general para 2028, con posibilidades de que se consiga Incluso en 2026.
Unas previsiones que, aunque con la debida cautela, indican un creciente consenso entre los expertos sobre la proximidad de este objetivo.
Avances en los modelos lingüísticos
Hasta hace unos años, la AGI descrita por Goertzel y sus colegas parecía una quimera. Pero con los avances en modelos de lenguajes grandes (LLM) realizados por OpenAI desde que lanzó ChatGPT al final del 2022, esa posibilidad parece cada vez más cercana. Goertzel se apresura a señalar que los LLM por sí solos no conducirán a AGI, pero es innegable que representan un paso significativo en esa dirección. La capacidad de estos sistemas para comprender y generar lenguaje natural de una manera cada vez más sofisticada es un requisito previo fundamental para el surgimiento de la inteligencia a nivel humano.
Los límites y riesgos de la IA
Por supuesto, hay muchas reservas sobre lo que predica Goertzel. Incluso una IA sobrehumana, según los estándares humanos, no tendría una “mente” como la nuestra. Por otro lado, están los miedos existenciales vinculados al surgimiento de una inteligencia radicalmente superior a la nuestra, capaz de superarnos en todos los campos.
¿Cómo podemos garantizar que dicha entidad tenga una sentido moral ¿Alineados con los valores humanos y actuando por nuestro bien?
AGI, hacia un futuro incierto
A pesar de estas reservas, la teoría de Goertzel es fascinante y no puede desacreditarse por completo, especialmente a la luz de los rápidos avances de la IA en los últimos años. Ya sea que AGI llegue en 2027, 2030 o más allá, parece cada vez más probable que la humanidad, tarde o temprano, se enfrente a una inteligencia artificial de nivel humano o superior.
Frente a esta perspectiva, es esencial que pensemos profundamente en las implicaciones de la AGI y la superinteligencia. ¿Cuáles son los posibles beneficios y riesgos? ¿Cómo podemos dirigir el desarrollo de estas tecnologías hacia resultados positivos para la humanidad? ¿Y cómo cambiará nuestra propia concepción de lo que significa ser humano en un mundo donde ya no somos el pináculo de la inteligencia?
No hay respuestas fáciles a estas preguntas, pero es imperativo que comencemos a plantearlas y a buscar soluciones. La llegada de la AGI y la superinteligencia puede ser la prueba más grande que jamás haya enfrentado la humanidad. Esperemos que podamos superarlo todos juntos, como sociedad.