Yann LeCun Se marcha de Meta. Tras 12 años como científico jefe de IA, el ganador del Premio Turing y coinventor del aprendizaje profundo moderno deja la compañía de Mark Zuckerberg para fundar una startup. El motivo es filosófico: LeCun cree que los grandes modelos de lenguaje (LLM) como ChatGPT, Gemini y la propia Llama de Meta son un callejón sin salida en la carrera hacia la inteligencia artificial general..
Su nueva empresa se centrará en "modelos mundiales", sistemas que aprenden mediante el análisis de vídeos y datos espaciales en lugar de procesar texto. El gran avance radica en que Meta está invirtiendo 600 mil millones de dólares en LLM, y él lo considera una pérdida de tiempo. Y cuando lo dice alguien que inventó la mitad de las tecnologías que utilizan, quizá valga la pena escucharlo.
Cuando el padrino de la IA se convierte en disidente
La historia de Yann LeCun Es la de alguien que siempre ha tenido razón demasiado pronto. 80París: Ningún profesor quiere dirigir su tesis sobre aprendizaje automático porque “no es un tema serio”. 90AT&T Bell Labs: Desarrolla las redes neuronales convolucionales que impulsan el reconocimiento facial en miles de millones de teléfonos inteligentes en la actualidad. 2018: gana el Premio Turing junto con Geoffrey Hinton e Yoshua Bengio, los tres “padrinos del aprendizaje profundo”.
Hoy, en 2025, Yann LeCun dice que Todo el mundo comete errores.¿ChatGPT? «Menos inteligente que un gato». ¿GPT-5? «Jamás alcanzará el razonamiento humano». ¿La idea de escalar los LLM a la superinteligencia? «Tonterías», dijo. Algo parecido a cuando Galileo le dijo a la Iglesia que la Tierra giraba alrededor del Sol, solo que esta vez la Iglesia es Silicon Valley y acaba de invertir cientos de miles de millones en la idea de que la Tierra está inmóvil. Y, una vez más, no sabemos exactamente qué está pasando en torno a qué otras cosas.
Meta elige el producto, Yann LeCun elige la ciencia.
El divorcio se venía rumoreando desde hacía meses. Junio 2025Meta ha invertido 14,3 millones in Escala AI, contratando a su director ejecutivo de 28 años alejandro wang para dirigir la nueva división de “Laboratorios de Meta Superinteligencia”. Resultado práctico: Yann LeCun, de 65 años, con tres títulos universitarios y un Premio Turing. Ahora está, en efecto, bajo su mando: responde ante Wang..
cómo Según informa TechCrunchLa reorganización transformó el laboratorio FAIR (Investigación Fundamental en IA), fundado por Yann LeCun en 2013, de un centro de investigación a largo plazo a un centro de desarrollo de productos comerciales.
Eso no es todo: a partir de octubre de 2025, Meta ha recortado aproximadamente Posiciones 600 en la división de IA. Más de la mitad de los autores del artículo original sobre Llama abandonaron la empresa en los meses posteriores a su publicación.
El modelo Llama 4 no ha cumplido las expectativas internas y se está quedando atrás con respecto a OpenAI y Google. Por eso, la prisa de Zuckerberg por competir con ChatGPT ha transformado a FAIR de un laboratorio de investigación de primer nivel a una fábrica de productos.
LeCun nunca ha ocultado su escepticismo. “Antes de 'descubrir urgentemente cómo controlar sistemas de IA más inteligentes que nosotros', deberíamos tener al menos los inicios de una idea de cómo diseñar un sistema más inteligente que un gato doméstico”, escribió en X.
Según él, los chatbots predicen la siguiente palabra en una secuencia. No razonan, no planifican, no entienden la relación causa-efecto. Simplemente memorizan trayectorias. Un gato que salta sobre una mesa calcula trayectorias, gravedad y resistencia del aire. ChatGPT no. Entonces, ¿cuál es la siguiente trayectoria?
Modelos mundiales: IA que aprende observando
La startup de Yann LeCun se centrará en "modelos mundiales"arquitecturas que aprenden de la realidad física. La idea, descrito en su artículo de 2022 «Un camino hacia la inteligencia artificial autónoma» es sencillo: en lugar de alimentar a la IA con miles de millones de palabras, se le proporcionan vídeos y datos espaciales. Como un niño: mira, toca, comete errores y aprende. El sistema construye una representación interna del mundo físico, comprende la causa y el efecto y anticipa escenarios.
Google DeepMind está trabajando en SIMA 2.Un agente que razona en entornos virtuales 3D. World Labs, de Fei-Fei Li, ha recaudado 230 millones de dólares para proyectos similares. ¿La diferencia? LeCun tiene cuarenta años de experiencia haciendo realidad ideas aparentemente imposibles. Sus redes convolucionales de la década de 90 procesaban entre el 10 % y el 20 % de los cheques bancarios en Estados Unidos, cuando todos decían que las redes neuronales estaban obsoletas.
El profeta inaudito
Existe una sutil ironía en la situación. Yann LeCun sentó las bases tecnológicas de ChatGPT, Gemini, Claude y otros servicios similares. Transformer, la arquitectura de los LLM, utiliza componentes cuyo desarrollo contó con la colaboración de LeCun. Pero ahora dice: ¡Alto!, estás escalando lo que no debes. Es como si el inventor del motor de combustión interna dijera que los coches eléctricos son el futuro. Técnicamente, él construyó la industria; filosóficamente, quiere cambiarla.
El mercado no parece preocupado. Las acciones de Meta cayeron un 1,5% tras la noticia. Según DataconomyPero no se preocupen. Zuckerberg ya ha reunido un equipo de élite. Laboratorio TBD, con paquetes de 100 millones de dólares para atraer talento de OpenAI y Anthropic. La estrategia es clara: productos rápidos, competencia feroz, resultados trimestrales. La ciencia puede esperar.
La idea de Mark y otros es ganar dinero ahora impulsando sistemas que no alcanzarán la superinteligencia (pero hacer creer a la gente que sí lo harán es una importante herramienta de marketing para venderlos). Al fin y al cabo, ya están listos y tienen su utilidad. Con ese dinero, quizá puedan financiar el desarrollo de diferentes modelos que apunten al gran objetivo de la Inteligencia Artificial General (IAG). Quizá a través de Entrenamiento físico de robots. Puede que me equivoque, pero entiendo la lógica: claro, el beneficio prima sobre la investigación. ¿Pero eso te sorprende?
Sin embargo, LeCun piensa en décadas. «Estos sistemas podrían tardar diez años en madurar», dijo refiriéndose a los modelos del mundo. Diez años es una eternidad en Silicon Valley, donde la capacidad de atención promedio es de tres cuartas partes. Pero LeCun esperó cuarenta años para que las redes neuronales se popularizaran. Sabe esperar..
La apuesta del disidente
Según fuentes citadas por el Financial TimesLeCun ya está en conversaciones preliminares con inversores. La ronda de financiación inicial podría superar los 100 millones de dólares, una cifra récord para una startup en esta etapa. La razón es obvia: si eres Yann LeCun y dices: «Los LLM están equivocados, yo crearé la alternativa», el dinero llegará. La reputación importa. ¿Incluso cuando vas contracorriente? especialmente cuando vas contra la corriente.
La coincidencia es curiosa. Justo cuando LeCun se marcha, Meta anuncia inversiones de hasta 118 millones Para 2025, la empresa apuesta fuerte por la inteligencia artificial y los centros de datos, especialmente por Llama y la "superinteligencia". LeCun busca sistemas que aprendan como niños, no como loros que repiten estadísticas.
¿Quién tiene razón? Lo sabremos en diez años. O quizá en cuarenta, como ocurrió con las redes neuronales. No se desanimen; a veces la realidad va a contracorriente del marketing.
Queda una pregunta en el aire: si el hombre que inventó la mitad de la IA moderna dice que vamos por el camino equivocado, ¿por qué nadie está frenando el ritmo? La respuesta es sencilla. Detenerse es costoso. Repensar es costoso. Admitir que miles de millones en inversiones podrían destinarse a establecer un límite físico en lugar de una frontera es demasiado costoso. Es más fácil creer que LeCun se equivoca esta vez. Es más fácil seguir ascendiendo y esperar que GPT-7, o 8, o 9, sean diferentes, que la inteligencia surja tarde o temprano. Tal vez realmente suceda, y Muchos dicen que sucederá en 3 años..
O tal vez Yann LeCun tenga razón. Otra vez. Como en los años 80, cuando nadie creía en las redes neuronales. Como en los 90, cuando las redes convolucionales parecían demasiado complejas. Como en 2025, cuando afirmó que la inteligencia no proviene del texto, sino del mundo físico.
La historia le ha dado la razón demasiadas veces como para ignorarlo.
