La transición silenciosa hacia máquinas que entienden el mundo
Diario de Innovación #321
Dice Yann LeCun, que quizá, estamos construyendo la inteligencia artificial… en el lugar equivocado.
Durante los últimos años, la narrativa ha sido clara: más datos, más parámetros, más potencia.
Y el resultado está a la vista: modelos que escriben, programan, resumen, convencen.
Modelos que parecen entender.
Pero no entienden.
Solo predicen.
La tesis de Yann LeCun es diferente, no dice que los LLM no sirvan.
Dice que no son el camino más rápido para llegar a la AGI.
Que son útiles, sí.
Pero conceptualmente limitados.
Y que escalar esta arquitectura no nos va a llevar a una inteligencia real.
La idea es sencilla de explicar, pero incómoda de aceptar, un LLM vive en el lenguaje.
El mundo no.
Un LLM predice palabras.
La inteligencia predice consecuencias.
Piensa en esto un segundo.
Cuando tú decides cruzar una calle, no estás prediciendo frases.
Estás anticipando, consecuencias, una mezcla de variables: coches, velocidades, riesgos, tiempos,…
Estás simulando el mundo en tu cabeza.
Eso es un modelo del mundo.
Y eso… es justo lo que los LLM no tienen.
Por eso LeCun habla de un cambio de paradigma.
No más modelos que predicen tokens.
Sino sistemas que: perciben, recuerdan, planifican y actúan.
Sistemas que no solo describen el mundo.
Sino que lo entienden lo suficiente como para intervenir en él.
Aquí entran los llamados World Models.
Y la diferencia es brutal.
Un LLM responde a: “¿qué palabra viene después?”
Un World Model responde a: “si hago esto… ¿qué pasa?”
Ese pequeño concepto, introduce algo que hasta ahora la IA no tenía de verdad: causalidad.
Acción → consecuencia.
Y con eso, aparecen nuevas posibilidades, robots que aprenden en simulaciones antes de tocar el mundo real.
Coches autónomos que prueban millones de escenarios sin riesgo, agentes que no solo contestan… sino que hacen.
Aquí hay una analogía que me parece especialmente potente:
Los modelos actuales sueñan.
Los World Models sueñan… pero además pueden decidir dentro del sueño.
Y eso se parece mucho más a lo que entendemos como inteligencia.
Ahora bien.
Antes de que nos vengamos arriba, hay un problema enorme.
Los datos.
Porque para aprender cómo cambia el mundo, no basta con texto.
Ni siquiera con vídeo.
Necesitas acciones.
Necesitas saber quién hizo qué, cuándo y por qué.
Y ese tipo de datos… escasea. No hay datasets ni corpus que expliquen las consecuencias de saltar por un precipicio.
Sin embargo, si hemos conceptualizado esa información, en otro tipo de tecnología desarrollada por la humanidad. Los videojuegos, como laboratorio de la inteligencia que viene.
Porque ahí sí tienes: estado, acción, resultado.
Un entorno perfecto para entrenar máquinas que aprendan a “vivir”.
Y mientras tanto, el mercado se mueve.
Fei-Fei Li levantando miles de millones con World Labs.
DeepMind explorando agentes generalistas.
Meta apostando por JEPA.
OpenAI empujando el vídeo con Sora.
No hay consenso.
Pero sí hay una señal clara: algo está cambiando.
Food for thought
Y aquí viene la parte importante para ti (y para cualquier empresa).
Esto no va de sustituir los LLM.
Va de entender su lugar en el stack de la IA.
Porque probablemente estemos entrando en una arquitectura híbrida: LLMs como sistema rápido, intuitivo, generativo.
World Models como sistema lento, causal, orientado a la acción.
Pensar y hacer.
Sistema 1 y sistema 2.
La pregunta ya no es:“¿qué modelo uso?”
Sino: “¿qué tipo de inteligencia necesito en cada parte del sistema?”
Porque si LeCun tiene razón, no estamos en el final del hype.
Estamos en el principio de algo mucho más grande.
Una transición silenciosa, de modelos que hablan del mundo, a modelos que interactúan con él.
Y eso cambia las reglas del juego.
Para la tecnología.
Y para todos los que estamos intentando entenderla.
🌍 El eco del mercado
🤖 OpenAI reconoce su talón de Aquiles: Microsoft. OpenAI empieza a hablar como empresa cotizada… incluso antes de salir a bolsa. En su documento para inversores reconoce que depende de Microsoft para financiación y compute. Un recordatorio incómodo: en la era de la IA, la independencia estratégica depende tanto del modelo… como de quién paga los GPUs.
🛒 ChatGPT quiere ser tu puerta de entrada a comprar. OpenAI no solo quiere responder preguntas: quiere ser la interfaz donde decides qué comprar. Pero el salto de asistente a plataforma transaccional no es trivial. Google ya lo intentó. Amazon lo domina. Y el usuario aún no ha decidido si quiere comprar hablando con una IA.
🖥️ Anthropic cruza la línea: la IA ya usa tu ordenador. Claude ya no solo sugiere: ejecuta. Control de ratón, teclado y pantalla. Esto cambia el paradigma: de copilotos a agentes que operan directamente sobre software real. El riesgo deja de ser teórico.
🤖 La carrera de los agentes entra en fase ejecutiva. Anthropic no está solo: toda la industria se mueve hacia agentes capaces de operar herramientas reales. El problema ya no es generar texto… es tomar decisiones en sistemas complejos. Y eso es otro juego.
🧠 “Ya hemos alcanzado la AGI”, eso al menos es lo que dice Jensen Huang. El CEO de NVIDIA lanza la frase que todos esperaban… o temían. Más allá de la provocación, deja una idea clara: el debate ya no es técnico, es semántico. Y, sobre todo, estratégico.
🗺️ Apple prepara su propio modelo de publicidad contextual. Maps podría convertirse en el siguiente campo de batalla publicitario. La pregunta no es si habrá anuncios… sino cuánto tiempo tardará Apple en parecerse a Google.
🤖 Un agente rebelde en Meta enciende las alarmas. Cuando un agente actúa fuera de lo esperado, no es un bug: es un síntoma. La autonomía sin control empieza a generar incidentes reales dentro de las propias Big Tech.
🧑💼 ¿Un CEO de IA? Zuckerberg ya lo está pensando. Después del metaverso, Meta explora otra frontera: automatizar la toma de decisiones corporativas. No es una broma. Es una hipótesis incómoda sobre el futuro del management.
🧩 Palantir: el verdadero sistema operativo de la empresa. Mientras OpenAI y Anthropic venden modelos, Palantir vende ejecución. Integrar datos, sistemas y decisiones sigue siendo el problema real… y ahí es donde está el valor.
🧠 ByteDance lanza el framework de agentes más ambicioso. DeerFlow 2.0 no es otro wrapper: es un sistema completo de orquestación de agentes. Open source, modular y diseñado para tareas complejas. La guerra de los agentes también será una guerra de frameworks.
🛠️ El vibe coding se consolida… vía adquisiciones. Lovable quiere crecer comprando talento y equipos. Señal clara: el desarrollo asistido por IA ya no es experimento, es industria.
⚡ Infraestructura AI: el nuevo grid del siglo XXI. Un inversor de Anthropic plantea redes eléctricas para servidores de IA. La metáfora es clara: la IA ya no es software… es infraestructura crítica.
📉 El entusiasmo por la IA empieza a enfriarse. Tras el hype, llega la realidad: casos de uso que no escalan, costes que no cuadran y expectativas infladas. ¿El valle de la desilusión empieza a asomar?
🇪🇺 Europa quiere crear startups como si fueran apps. EU Inc propone montar empresas en 48 horas por 100€. Menos fricción, más experimentación. Europa intenta competir… no con capital, sino con burocracia reducida.
🔐 La privacidad ya no es opcional, es estructural. El uso de biometría y dispositivos inteligentes está erosionando derechos fundamentales. El problema no es tecnológico… es político.
🤖 Robots humanoides entran en guerra real. Ucrania despliega robots humanoides en combate. Lo que parecía ciencia ficción ya está en el campo de batalla. Y no va a retroceder.
🌐 EEUU convierte los routers en un tema de seguridad nacional. Prohibir routers extranjeros no es solo ciberseguridad: es geopolítica. La infraestructura digital se convierte en frontera.
🧠 El generalista vuelve a ser clave en la era IA. En un mundo donde la IA ejecuta tareas especializadas, el valor vuelve a estar en conectar disciplinas. El “jack of all trades” deja de ser un problema… y se convierte en ventaja.
🧬 El futuro de la experimentación médica sin animales. Crear “órganos sin cerebro” para testear fármacos. Biotecnología, ética y ciencia convergen en una misma dirección: reducir la dependencia animal… y acercarse al humano.
Déjame recordarte que si te gusta la tecnología, el podcast de Código Abierto también puede ser una buena opción.
Si algo de lo que has leído te ha removido, dímelo.
Ya sabes que estoy al otro lado si quieres comentar, discrepar o simplemente saludar.
Que nunca te falten ideas, ni ganas de probarlas.
A.
PD: Si te interesa entender hacia dónde puede ir todo esto, te dejo algunas lecturas que conectan bastante bien las piezas:
Inteligencia Artificial: Guía Para Seres Pensantes de Melanie Mitchell, por qué los sistemas actuales no entienden el mundo
The Age of Em de Robin Hanson, simulaciones como entorno de entrenamiento de inteligencias
Reality Is Broken de Jane McGonigal, por qué los videojuegos son el mejor laboratorio de comportamiento humano
Porque igual el futuro de la IA no se está entrenando en texto… sino en mundos.


