Yann LeCun levantó mil millones de dólares para demostrar que ChatGPT y compañía están mal: qué es AMI Labs y por qué importa
El padrino del deep learning dejó Meta, fundó AMI Labs y consiguió el seed round más grande de Europa para construir 'world models' que entienden la realidad física, no solo texto.
Imagínate que eres uno de los tres weyes que ganaron el premio Turing (el Nobel de la computación) por inventar el deep learning. Llevas años trabajando en Meta, ves cómo todo mundo se vuelve loco con ChatGPT y los LLMs, y tú en cada conferencia, en cada tweet, repites lo mismo: “esto no es inteligencia real, es una ilusión estadística”. ¿Qué haces? Pues lo que hizo Yann LeCun: renuncias, te armas tu propia empresa y levantas mil millones de dólares para demostrar que tienes razón.
Eso es AMI Labs. Y la neta, esto puede cambiar todo.
¿Qué es AMI Labs y por qué levantó tanto dinero?
Advanced Machine Intelligence Labs, o AMI (que en francés significa “amigo”, porque LeCun es franco-americano y le gusta el detalle), se presentó oficialmente el 10 de marzo de 2026 con un seed round de $1,030 millones de dólares. Según reportó TechCrunch, es la ronda semilla más grande en la historia de Europa. La valuación pre-money quedó en $3,500 millones.
¿Quién puso la lana? Nada más y nada menos que Bezos Expeditions (el fondo de Jeff Bezos), Nvidia, Toyota, Samsung, Cathay Innovation, Greycroft, Hiro Capital, HV Capital y Temasek. De pilón, como inversionistas individuales están Tim Berners-Lee (el wey que inventó la web), Jim Breyer, Mark Cuban y Eric Schmidt. No es cualquier cosa.
La empresa tiene sede en París, con oficinas planeadas en Nueva York, Montreal y Singapur.
El argumento de LeCun: los LLMs están fundamentalmente limitados
Aquí viene lo interesante. LeCun no dice que ChatGPT, Claude o Gemini sean inútiles. Lo que dice es que predecir la siguiente palabra no es lo mismo que entender el mundo. Según The Next Web, LeCun lo puso así de claro: “Es una ilusión estadística. Impresionante, sí. Inteligente, no.”
Su punto es que un bebé de 18 meses entiende la gravedad porque la experimenta: ve cosas caer, las avienta, las agarra. No necesita leer un libro sobre física. En cambio, un LLM puede decirte que el agua hierve a 100°C porque lo leyó en Wikipedia, pero nunca ha visto una olla en la estufa.
Según LeCun: “No tenemos autos autónomos que puedan aprender a manejar en 20 horas de práctica, como un chavito de 17 años”. Y la neta tiene razón: llevamos años con Tesla, Waymo y compañía, y todavía no la arman al 100%.
JEPA: la arquitectura que quiere reemplazar a los LLMs
El corazón técnico de AMI Labs se llama JEPA: Joint Embedding Predictive Architecture. LeCun la propuso en un paper de 2022, y básicamente funciona así:
En vez de predecir el siguiente token (como hacen los LLMs) o el siguiente pixel (como hacen los modelos de video), JEPA aprende representaciones abstractas de cómo funciona el mundo. Piénsalo como la diferencia entre memorizar una foto de una pelota rodando vs. entender las leyes de la física que hacen que ruede.
De acuerdo con el análisis de Anthem Création, la cosa se ve más o menos así:
| LLM | World Model | |
|---|---|---|
| Datos de entrenamiento | Texto/tokens | Video/datos sensoriales |
| Objetivo | Predecir siguiente token | Predecir estado futuro del mundo |
| Fuerte en | Lenguaje, código | Física, planeación, robótica |
| Débil en | Alucinaciones, física intuitiva | Experimental, sin productos comerciales |
Meta ya había desarrollado versiones internas: I-JEPA para imágenes, V-JEPA 2 entrenado con más de un millón de horas de video de internet (y ya integrado en robots físicos), y VL-JEPA que combina visión y lenguaje. Ahora LeCun quiere llevar todo eso al siguiente nivel fuera de Meta.
El equipo: puro peso pesado
Esto no es un wey random con una idea y un pitch deck. El equipo de AMI viene casi todo de la división de IA de Meta:
- Yann LeCun: Chairman ejecutivo (premio Turing, profesor de NYU, ex-jefe de IA en Meta)
- Alexandre LeBrun: CEO (antes fundó Nabla, startup de IA médica)
- Michael Rabbat: VP de World Models (ex-director de investigación en Meta)
- Laurent Solly: COO (ex-VP de Meta para Europa)
- Pascale Fung: Chief Research & Innovation Officer (ex-directora senior de IA en Meta)
- Saining Xie: Chief Science Officer (venía de Google DeepMind)
Cuando ves ese lineup, entiendes por qué los inversionistas soltaron mil millones en una ronda semilla. Es como si el Dream Team del 92 dijera “vamos a armar nuestra propia liga”.
¿Para qué sirven los world models? Las aplicaciones reales
Aquí es donde la cosa se pone práctica. Según el análisis de Futurum Group, AMI Labs está apuntando a cuatro áreas principales:
Robótica industrial: Robots que pueden simular mentalmente cómo agarrar una caja nueva sin necesidad de reprogramarlos. V-JEPA 2 ya demostró que puede manejar objetos que nunca había visto.
Salud: Ya tienen partnership con Nabla (la startup de LeBrun) para ir más allá de documentación médica hacia soporte de decisiones clínicas: simular cómo un tratamiento se propaga en el cuerpo.
Vehículos autónomos: World models que generan simulaciones de casos extremos antes de soltar un carro en la calle real.
Wearables: Dispositivos que entienden el contexto físico del usuario.
Todas estas son áreas donde las alucinaciones cuestan caro. No es lo mismo que un chatbot te diga algo incorrecto sobre una receta de cocina a que un robot industrial agarre mal una pieza o un sistema médico recomiende el tratamiento equivocado.
La crítica honesta: ¿y si no funciona?
Sería deshonesto pintar esto como si fuera cosa segura. La neta hay varios peros importantes:
No hay productos todavía. LeBrun reconoció públicamente que los productos comerciales pueden tardar años. El primer año es pura investigación.
La competencia no se queda quieta. Google DeepMind, los propios laboratorios de superinteligencia de Meta, y Physical Intelligence están explorando tecnologías similares. Como dirían los argentinos, “si se duermen, los pasan por arriba”.
El “world model washing”. El propio LeBrun advirtió que en seis meses, todas las empresas van a decir que hacen “world models” para levantar inversión. Es el nuevo buzzword después de “AGI” y “agentes”.
La tensión investigación vs. dinero. Tienes una empresa que dice “nuestro primer año es solo R&D” pero con inversionistas que metieron mil millones de dólares. Esas expectativas eventualmente chocan.
¿Y esto qué tiene que ver conmigo en México?
A ver, directamente por ahora nada. AMI Labs no va a lanzar un producto que puedas descargar mañana. Pero el shift que propone LeCun podría cambiar cómo funciona toda la industria de IA en los próximos 3 a 5 años.
Si los world models despegan, estamos hablando de robots industriales más inteligentes (piensa en las plantas automotrices de Monterrey y Puebla), diagnósticos médicos más confiables, y autos autónomos que de verdad funcionen. El impacto para un país manufacturero como México podría ser enorme.
Además, el solo hecho de que alguien con el peso de LeCun esté apostando mil millones de dólares contra los LLMs debería hacernos pensar. No para dejar de usar ChatGPT o Claude mañana, sino para entender que estamos en el capítulo uno de la IA, no en el final.
La apuesta más cara contra ChatGPT
Al final, AMI Labs es la apuesta más cara que alguien ha hecho contra el paradigma dominante de la IA. LeCun básicamente está diciendo: “Todos ustedes están construyendo sobre arena. Yo voy a construir sobre roca, aunque me tarde más.”
¿Tiene razón? No lo sabremos en meses, probablemente ni en un par de años. Pero cuando un wey con premio Turing, respaldado por Nvidia, Bezos, Samsung y Toyota te dice que la IA actual no es suficiente, al menos vale la pena escuchar.
¿Tú qué piensas? ¿Los LLMs son suficientes o LeCun tiene un punto? ¿Ya te topaste con los límites de ChatGPT o Claude en algo del mundo real? Cuéntanos en los comentarios.
Comentarios
No te pierdas ningún post
Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.
También te puede interesar
gpt-oss: la guía práctica para devs en México que OpenAI no quiere que leas primero
OpenAI lanzó gpt-oss con licencia Apache 2.0: 120B parámetros, gratis para uso comercial y disponible en Hugging Face. Aquí cómo correrlo en tu GPU y cómo se compara con Llama 4 y Gemma 3.
DeepSeek V4: el monstruo chino de 1 trillón de parámetros que no necesita chips de Nvidia
China acaba de soltar la bomba: DeepSeek V4 llega con un trillón de parámetros, soporte multimodal, y corre enteramente en hardware chino. Aquí te explico por qué esto cambia todo.
El Pentágono apeló la sentencia que protegía a Anthropic: qué pasa con Claude en México si Trump gana este round
El DOJ fue al Noveno Circuito el 2 de abril para revertir la protección judicial de Anthropic. Si la apelación prospera, la empresa detrás de Claude quedaría como 'supply chain risk' confirmado. Esto es lo que eso significa para empresas mexicanas con API activa.