AMI. La nueva aventura de Yann LeCun es una apuesta contraria a los grandes modelos lingüísticos  

Inteligencia artificial

Cai Wei Chen. 22 de enero de 2026. MIT Tecnology Review

En una entrevista exclusiva, el pionero de la IA comparte sus planes para su nueva empresa con sede en París, AMI Labs.

Yann LeCun

Foto AP/Thibault Camus

Yann LeCun, galardonado con el Premio Turing y uno de los principales investigadores de IA, ha sido durante mucho tiempo una figura contraria en el mundo tecnológico. Cree que la actual obsesión de la industria con los grandes modelos lingüísticos es errónea y, en última instancia, no resolverá muchos problemas urgentes. 

En cambio, cree que deberíamos apostar por modelos mundiales: un tipo diferente de IA que refleje con precisión la dinámica del mundo real. También es un firme defensor de la IA de código abierto y critica el enfoque cerrado de laboratorios de vanguardia como OpenAI y Anthropic. 

Quizás no sorprenda, entonces, que haya dejado recientemente Meta, donde se desempeñaba como científico jefe de FAIR (Investigación Fundamental de IA), el influyente laboratorio de investigación de la compañía que él mismo fundó. Meta ha tenido dificultades para consolidar su modelo de IA de código abierto, Llama, y ​​ha experimentado cambios internos, incluyendo la controvertida adquisición de ScaleAI. 

LeCun se sentó con MIT Technology Review en una entrevista exclusiva en línea desde su apartamento de París para hablar sobre su nuevo emprendimiento, la vida después de Meta, el futuro de la inteligencia artificial y por qué cree que la industria está persiguiendo las ideas equivocadas. 

Las preguntas y respuestas a continuación han sido editadas para mayor claridad y brevedad.

Acabas de anunciar una nueva empresa, Advanced Machine Intelligence (AMI). Cuéntame sobre las grandes ideas que la sustentan.

Será una empresa global, pero con sede en París. Se pronuncia «ami», que significa «amigo» en francés. Estoy entusiasmado. Hay una gran concentración de talento en Europa, pero no siempre se le da el entorno adecuado para prosperar. Y sin duda, la industria y los gobiernos demandan una empresa de IA fronteriza creíble que no sea ni china ni estadounidense. Creo que eso nos beneficiará.

Una alternativa ambiciosa al binomio actual entre Estados Unidos y China. ¿Qué le motivó a seguir esa tercera vía?

Bueno, muchos países tienen problemas de soberanía y quieren cierto control sobre la IA. Lo que defiendo es que la IA se convierta en una plataforma, y la mayoría de las plataformas tienden a ser de código abierto. Desafortunadamente, esa no es la dirección que está tomando la industria estadounidense, ¿verdad? A medida que aumenta la competencia, sienten que deben mantener el secreto. Creo que es un error estratégico.

Anthropic siempre ha sido cerrado. Google era algo abierto. Y luego Meta, ya veremos. Tengo la sensación de que no va por buen camino por ahora.

Simultáneamente, China ha adoptado plenamente este enfoque abierto. Todas las principales plataformas de IA de código abierto son chinas, y como resultado, el mundo académico y las startups, fuera de EE. UU., han adoptado básicamente los modelos chinos. No hay nada de malo en ello; los modelos chinos son buenos. Los ingenieros y científicos chinos son excelentes. Pero, si en un futuro toda nuestra información se ve mediada por la asistencia de la IA, y la opción es entre modelos angloparlantes producidos por empresas propietarias, siempre cercanas a EE. UU., o modelos chinos que, aunque sean de código abierto, necesitan ser perfeccionados para responder a las preguntas sobre la Plaza de Tiananmén de 1989, no es un futuro muy agradable ni atractivo. 

Estos [modelos futuros] deberían ser optimizados por cualquier persona y producir una gran diversidad de asistencia de IA, con diferentes capacidades lingüísticas, sistemas de valores, sesgos políticos y centros de interés. Se necesita una gran diversidad de asistencia por la misma razón que se necesita una gran diversidad de prensa. 

Sin duda, es una propuesta convincente. ¿Cómo están aceptando esta idea los inversores hasta ahora?

Les gusta mucho. Muchos inversores de riesgo están muy a favor de esta idea del código abierto, porque saben que muchas pequeñas startups dependen en gran medida de modelos de código abierto. No tienen los medios para desarrollar su propio modelo, y es un tanto peligroso para ellos adoptar estratégicamente un modelo propietario.

Recientemente dejaste Meta. ¿Cuál es tu opinión sobre la empresa y el liderazgo de Mark Zuckerberg? Existe la percepción de que Meta ha desperdiciado su ventaja en IA.

Creo que FAIR [el laboratorio de LeCun en Meta] tuvo un gran éxito en la investigación. Donde Meta tuvo menos éxito fue en retomar esa investigación y aplicarla a la tecnología y los productos prácticos. Mark tomó algunas decisiones que consideró las mejores para la empresa. Puede que no estuviera de acuerdo con todas. Por ejemplo, el grupo de robótica de FAIR fue despedido, lo cual considero un error estratégico. Pero no soy el director de FAIR. La gente toma decisiones racionalmente, y no hay motivo para estar molesto.

Entonces, ¿no hay rencor? ¿Podría Meta ser un futuro cliente de AMI?

¡Meta podría ser nuestro primer cliente! Ya veremos. El trabajo que realizamos no compite directamente con nosotros. Nuestro enfoque en modelos del mundo físico es muy diferente de su enfoque en IA generativa y LLM. Large Language Models (Modelos de Lenguaje Grandes)

Trabajabas en IA mucho antes de que los LLM se convirtieran en una estrategia generalizada. Pero desde que ChatGPT surgió, los LLM se han convertido prácticamente en sinónimo de IA.

Sí, y vamos a cambiar eso. La cara pública de la IA, quizás, se base principalmente en LLM y chatbots de diversos tipos. Pero los más recientes no son LLM puros. Son LLM más muchas cosas, como sistemas de percepción y código que resuelve problemas específicos. Así que veremos a los LLM como una especie de orquestadores de sistemas.

Más allá de los LLM, existe una gran cantidad de IA tras bambalinas que gestiona gran parte de nuestra sociedad. Hay programas de asistencia al conductor en el coche, imágenes de resonancia magnética de respuesta rápida, algoritmos que impulsan las redes sociales; todo eso es IA. 

Ha argumentado abiertamente que los LLM tienen un alcance limitado. ¿Cree que están sobrevalorados hoy en día? ¿Podría resumir a nuestros lectores por qué cree que los LLM no son suficientes?

En cierto sentido, no se les ha dado demasiada importancia, ya que son extremadamente útiles para mucha gente, sobre todo si escriben textos, investigan o programan. Los LLM manipulan el lenguaje muy bien. Pero se ha tenido la ilusión de que es cuestión de tiempo hasta que podamos escalarlos hasta alcanzar la inteligencia humana, y eso es simplemente falso.

La verdadera dificultad reside en comprender el mundo real. Se trata de la paradoja de Moravec (un fenómeno observado por el informático Hans Moravec en 1988): lo que para nosotros es fácil, como la percepción y la navegación, es difícil para las computadoras, y viceversa. Los LLM se limitan al mundo discreto del texto. No pueden razonar ni planificar realmente, porque carecen de un modelo del mundo. No pueden predecir las consecuencias de sus acciones. Por eso no tenemos un robot doméstico tan ágil como un gato doméstico, ni un coche verdaderamente autónomo.

Tendremos sistemas de IA con inteligencia similar y a la humana, pero no se basarán en LLM, y no sucederá el próximo año ni dentro de dos. Tomará tiempo. Se requieren importantes avances conceptuales antes de que tengamos sistemas de IA con inteligencia a la humana. Y en eso he estado trabajando. Y esta empresa, AMI Labs, se centra en la próxima generación.

Y su solución son los modelos del mundo y la arquitectura JEPA (JEPA, o «arquitectura predictiva de integración conjunta», es un marco de aprendizaje que entrena modelos de IA para comprender el mundo, creado por LeCun mientras estaba en Meta). ¿Cuál es la presentación?

El mundo es impredecible. Si intentas construir un modelo generativo que prediga cada detalle del futuro, fracasarás. JEPA no es IA generativa. Es un sistema que aprende a representar videos con gran precisión. La clave está en aprender una representación abstracta del mundo y hacer predicciones en ese espacio abstracto, ignorando los detalles impredecibles. Eso es lo que hace JEPA. Aprende las reglas subyacentes del mundo a partir de la observación, como un bebé que aprende sobre la gravedad. Esta es la base del sentido común y la clave para construir sistemas verdaderamente inteligentes capaces de razonar y planificar en el mundo real. El trabajo más emocionante hasta la fecha en este campo proviene del ámbito académico, no de los grandes laboratorios industriales estancados en el mundo de los LLM.

La falta de datos no textuales ha sido un problema para que los sistemas de IA profundicen en su comprensión del mundo físico. JEPA se entrena con videos. ¿Qué otros tipos de datos utilizarán?

Nuestros sistemas se entrenarán con datos de video, audio y sensores de todo tipo, no solo texto. Trabajamos con diversas modalidades, desde la posición de un brazo robótico hasta datos lidar y audio. También participo en un proyecto que utiliza JEPA para modelar fenómenos físicos y clínicos complejos. 

¿Cuáles son algunas de las aplicaciones concretas y reales que imagina para los modelos mundiales?

Las aplicaciones son amplias. Piense en procesos industriales complejos con miles de sensores, como en un motor a reacción, una acería o una fábrica de productos químicos. Actualmente, no existe una técnica para construir un modelo completo e integral de estos sistemas. Un modelo global podría aprender esto de los datos de los sensores y predecir el comportamiento del sistema. O piense en unas gafas inteligentes que puedan observar lo que hace, identificar sus acciones y predecir qué hará a continuación para ayudarle. Esto es lo que finalmente hará que los sistemas agénticos sean fiables. Un sistema agéntico, que se supone que debe actuar en el mundo, no puede funcionar de forma fiable a menos que cuente con un modelo global que prediga las consecuencias de sus acciones. Sin él, el sistema inevitablemente cometerá errores. Esta es la clave para desbloquear todo, desde robots domésticos realmente útiles hasta la conducción autónoma de nivel 5.

Los robots humanoides están de moda últimamente, sobre todo los fabricados por empresas chinas. ¿Qué opinas?

Existen muchas maneras de sortear las limitaciones de los sistemas de aprendizaje, que requieren cantidades desmesuradas de datos de entrenamiento para cualquier tarea. Así que el secreto de que todas las empresas consigan robots para practicar kung fu o bailar es que todo está planificado con antelación. Pero, francamente, nadie, absolutamente nadie, sabe cómo hacer que esos robots sean lo suficientemente inteligentes como para ser útiles. Créeme. 

Se necesita una enorme cantidad de datos de entrenamiento de teleoperación para cada tarea, y cuando el entorno cambia ligeramente, no se generaliza bien. Esto nos indica que nos estamos perdiendo algo muy importante. La razón por la que un joven de 17 años puede aprender a conducir en 20 horas es porque ya sabe mucho sobre el comportamiento del mundo. Si queremos un robot doméstico de utilidad general, necesitamos que los sistemas tengan una buena comprensión del mundo físico. Esto no sucederá hasta que tengamos buenos modelos del mundo y planificación.

Existe una creciente percepción de que la investigación fundamental en IA en el ámbito académico se está volviendo más difícil debido a la enorme cantidad de recursos informáticos necesarios. ¿Cree que las innovaciones más importantes provendrán ahora de la industria?

No. Los LLM ahora se centran en el desarrollo tecnológico, no en la investigación. Es cierto que es muy difícil para los académicos desempeñar un papel importante en este campo debido a los requisitos de computación, acceso a datos y soporte de ingeniería. Pero ahora es un producto. No es algo que deba interesar al mundo académico. Es como el reconocimiento de voz a principios de la década de 2010: era un problema resuelto, y el progreso estaba en manos de la industria. 

En lo que la academia debería estar trabajando es en objetivos a largo plazo que vayan más allá de las capacidades de los sistemas actuales. Por eso les digo a las personas en las universidades: No trabajen en maestrías de derecho (LLM). No tiene sentido. No podrán competir con lo que está sucediendo en la industria. Trabajen en otra cosa. Inventen nuevas técnicas. Los avances no van a venir de ampliar las maestrías de derecho. El trabajo más emocionante en modelos mundiales proviene de la academia, no de los grandes laboratorios industriales. La idea de usar circuitos de atención en redes neuronales surgió de la Universidad de Montreal. Ese artículo de investigación inició toda la revolución. Ahora que las grandes empresas están cerrando, los avances se van a ralentizar. La academia necesita acceso a recursos informáticos, pero debería centrarse en la próxima gran novedad, no en refinar la anterior.

Desempeñas múltiples roles: profesor, investigador, educador, pensador público… Ahora has asumido uno nuevo. ¿Cómo será eso para ti?

Seré el presidente ejecutivo de la empresa, y Alex LeBrun [un excolega de Meta AI] será el director general. Serán LeCun y LeBrun (se pronuncia en francés).

Voy a mantener mi puesto en la Universidad de Nueva York. Imparto una clase al año y tengo estudiantes de doctorado y posdoctorados, así que seguiré en Nueva York. Pero viajo a París con bastante frecuencia por mi laboratorio. 

¿Eso significa que no serás muy práctico?

Bueno, hay dos maneras de involucrarse activamente. Una es gestionar a la gente día a día, y otra es involucrarse de verdad en proyectos de investigación, ¿verdad? 

Puedo gestionar, pero no me gusta. Esta no es mi misión en la vida. Se trata de impulsar el progreso científico y tecnológico al máximo, inspirar a otros a trabajar en cosas interesantes y luego contribuir a ellas. Ese ha sido mi rol en Meta durante los últimos siete años. Fundé FAIR y lo dirigí durante cuatro o cinco años. Odiaba ser director. No se me da bien la gestión profesional. Soy mucho más visionario y científico.

¿Qué hace que Alex LeBrun sea la opción adecuada?

Alex es un emprendedor en serie; ha creado tres empresas exitosas de IA. La primera la vendió a Microsoft; la segunda a Facebook, donde dirigió la división de ingeniería de FAIR en París. Después, se marchó para fundar Nabla, una empresa muy exitosa en el sector sanitario. Cuando le ofrecí la oportunidad de unirse a mí en este proyecto, aceptó casi de inmediato. Tiene la experiencia necesaria para construir la empresa, lo que me permite centrarme en la ciencia y la tecnología. 

Su sede está en París. ¿Dónde más planean tener oficinas?

Somos una empresa global. Habrá una oficina en Norteamérica.

¿Nueva York, con suerte?

Nueva York es genial. Ahí es donde estoy, ¿verdad? Y no es Silicon Valley. Silicon Valley es un poco monocultural.

¿Y qué hay de Asia? Supongo que Singapur también.

Probablemente sí. Te dejo adivinar. 

¿Y cómo estáis atrayendo el talento?

No tenemos ningún problema para reclutar. Hay mucha gente en la comunidad de investigación de IA que cree que el futuro de la IA está en los modelos globales. Estas personas, independientemente de su salario, estarán motivadas a trabajar con nosotros porque creen en el futuro tecnológico que estamos construyendo. Ya hemos reclutado a personas de empresas como OpenAI, Google DeepMind y xAI.

He oído que Saining Xie, un destacado investigador de la Universidad de Nueva York y Google DeepMind, podría unirse a ustedes como científico jefe. ¿Algún comentario?

Saining es un investigador brillante. Lo admiro mucho. Ya lo contraté dos veces. Lo contraté en FAIR y convencí a mis colegas de la Universidad de Nueva York de que lo contratáramos allí. Digamos que le tengo un gran respeto.

¿Cuándo estará listo para compartir más detalles sobre AMI Labs, como el respaldo financiero u otros miembros principales?

Pronto, quizás en febrero. Te aviso.

por Caiwei Chen

Historia relacionada 1

Cómo DeepSeek rompió el molde de la IA y por qué todos seguirán su ejemplo

Historia relacionada 2

Centros de datos de IA a gran escala: 10 tecnologías innovadoras para 2026

Comparte en tus perfiles

Facebook
Twitter
LinkedIn

Artículos Relacionados:

Actualizaciones clave en el sector del agua

Alejandro Maceira, 19 de enero de 2026. Smart water magazine. El sector hídrico ya no reacciona a las tendencias externas; se está convirtiendo en el sustrato sobre el que estas se expanden o se estancan. En conjunto, las noticias de esta semana muestran que la inteligencia artificial, la regulación y la asignación de capital convergen

Seguir leyendo »

Reflexiones sobre la recuperación de Venezuela 👇🏼

El plan de Trump para Venezuela. Los problemas de agencia Humberto García Larralde, 20 de enero de 2026. El Nacional Dos encuestas recientes en Venezuela –Meganálisis y Premise/The Economist—registran el apoyo contundente a la incursión militar de EE.UU. para llevarse a Nicolás Maduro y su esposa. Refleja el repudio acumulado contra quien fue cabeza visible

Seguir leyendo »