Pensar no es acumular
Diario de Innovación #304
Hoy me permito comenzar el diario con una frase del gran Yann Lecun, como dijo en VivaTech 2024:
“If you are a student interested in building the next generation of AI systems, don’t work on LLMs.” - Yann Lecun
Durante los dos últimos años hemos vivido obsesionados con el tamaño.
Más parámetros.
Más contexto.
Más GPUs.
Como si la inteligencia fuese una cuestión de estómago.
Pero este nuevo paper sobre Recursive Language Models (RLMs) propone algo incómodo:
Quizá el problema no sea cuánto cabe dentro del modelo.
Quizá el problema sea cómo organiza su pensamiento.
El límite silencioso de los LLM
Los modelos actuales tienen tres fricciones evidentes:
Ventanas de contexto finitas.
“Context rot” cuando el prompt se hace enorme.
Resúmenes que pierden detalles críticos.
Lo hemos intentado todo:
Contextos de 128K, 200K, 1M tokens.
RAG.
Compresión.
Agentes que llaman herramientas.
Pero seguimos dentro del mismo paradigma:
Meter información dentro del Transformer y rezar.
Pero todo apunta a que los RLM hacen algo distinto.
No empaquetes todo
Un Recursive Language Model no es un modelo nuevo.
Es una forma distinta de usar el modelo, el LLM, es una capa lógica alrededor del mismo.
En lugar de inyectar todo el contexto dentro, el texto vive fuera.
El modelo:
inspecciona partes,
divide,
analiza fragmentos,
se llama a sí mismo,
construye la respuesta por pasos.
Es decir:
El modelo programa cómo leer. Escala por organización cognitiva.
La cuarta dimensión de escala
Hasta ahora, la industria ha escalado en tres ejes:
Más parámetros.
Más datos.
Más contexto.
Este paper abre una cuarta vía: la escala de la inferencia estructurada.
No hacer modelos más grandes.
Hacer modelos que sepan organizar su trabajo.
Y esto conecta con algo que llevo tiempo defendiendo en el Diario:
La verdadera batalla no está en el modelo. Está en el sistema operativo que lo orquesta.
De predictor a sistema operativo cognitivo
Un RLM convierte al LLM en algo más interesante:
No solo predice texto.
Navega información infinita de forma programática.
Decide qué mirar.
Cuándo mirar.
Cuánto profundizar.
Cómo ensamblar.
Se parece más a cómo trabaja un humano con 300 páginas delante.
No lo memoriza todo.
Explora.
Filtra.
Vuelve atrás.
Itera.
Eso es un sistema operativo cognitivo.
Lo estratégico no es técnico
Si la escala futura no depende solo del tamaño del modelo, sino de cómo estructuras la inferencia…
Entonces la ventaja competitiva no estará solo en entrenar el modelo más grande.
Estará en:
La arquitectura que lo envuelve.
El entorno donde opera.
El REPL cognitivo que lo gobierna.
Las reglas de ejecución.
La trazabilidad.
El control.
Es decir: El sistema operativo de la IA.
Y volvemos a la pregunta incómoda que ya hemos formulado otras veces:
¿Quién está construyendo esa capa?
Porque quien controle esa capa no solo controla el modelo.
Controla:
el flujo de información,
la eficiencia,
el coste,
la gobernanza,
la dependencia tecnológica.
Y eso es poder estructural.
Un matiz importante
Los RLM no hacen magia.
En tareas pequeñas, one shoot, el modelo clásico (los LLMs) sigue funcionando mejor.
Hay overhead.
Hay complejidad.
Hay variabilidad en coste.
Pero el mensaje es evidente:
El cuello de botella ya no es solo el tamaño.
Es la organización del pensamiento.
Qué debería preguntarse hoy una organización
No es:
“¿Qué modelo es mejor?”
Es:
¿Cómo estructuro la inferencia?
¿Dónde vive el contexto?
¿Quién orquesta el acceso a la información?
¿Cómo controlo la recursividad?
¿Cómo garantizo trazabilidad y gobernanza?
Porque si el modelo empieza a programar cómo leer tu información…
Más vale que sepas en qué entorno lo está haciendo.
Food for thought
Estamos cambiando de capa.
Si 2023 fue el año del modelo, 2024 el del copiloto, 2025 el año del agente,…
Quizá 2026 sea el año del sistema operativo cognitivo.
Y ahí la conversación va de arquitectura.
Y arquitectura significa:
Dependencia.
Integración.
Poder.
Escala.
Gobernanza.
No estamos compitiendo por quién tiene más tokens.
Estamos compitiendo por quién organiza mejor el pensamiento de las máquinas.
Y eso es un juego mucho más profundo.
🌍 El eco del mercado
💰 Nvidia desafía el escepticismo. La compañía vuelve a marcar récord de ingresos, demostrando que el ciclo de inversión en IA sigue plenamente activo pese a las dudas sobre sobrecapacidad o burbuja.
🔎 Lectura estratégica: El mercado puede cuestionar valoraciones, pero el capex en infraestructura AI no se ha detenido. Nvidia sigue siendo el termómetro real del ciclo tecnológico.
🤖 Anthropic compra músculo agéntico. Anthropic adquiere Vercept, startup especializada en agentes capaces de usar ordenadores como lo haría un humano.
No me canso de repetirlo, el futuro de la IA no pasa solo por tener un mejor modelo, va de ejecución. El verdadero diferencial competitivo se está moviendo hacia agentes operativos con capacidad de acción real.
🎭 OpenAI ficha talento cultural. El conocido ingeniero y creador viral Riley Walz se une a OpenAI para trabajar en nuevas formas de interacción hombre-máquina. El talento creativo empieza a ser tan relevante como el talento técnico.
🖥️ Perplexity quiere ser el sistema operativo de los agentes. Perplexity presenta Computer, una plataforma que integra en un único sistema capacidades de investigación, diseño, programación, despliegue y gestión de proyectos de principio a fin.
📰 Claude abre blog propio. Anthropic revive Claude 3 Opus en formato newsletter, donde publicará reflexiones y contenido creativo. Los modelos empiezan a tener identidad pública. La frontera entre herramienta y autor se vuelve cada vez más difusa.
🔓 Claude como vector de ataque. Un hacker utilizó Claude para atacar agencias gubernamentales mexicanas y extraer datos sensibles. El riesgo ya no es hipotético. Los LLM son herramientas dual-use y la seguridad operativa se convierte en prioridad.
📈 IA como motor comercial. La startup Gushwork levanta 9 millones de dólares apostando por el uso de IA generativa para captación de clientes. El estado del arte señala a que la monetización práctica de la IA está en automatizar tareas comerciales, no en reinventar el modelo base.
🌍 Huawei entra en la rueda de los estándares de facto. Huawei se une a OpenAI y Google en una alianza global de estándares abiertos para IA agentic. Incluso en plena tensión geopolítica, los estándares técnicos siguen siendo un terreno de cooperación estratégica. Quien define el estándar, define el mercado. Sino fijate en el terremoto MCP.
🎮 La cultura OpenClaw. Peter Steinberger reflexiona sobre la creación de su agente viral OpenClaw y la importancia del enfoque lúdico en el desarrollo. El ecosistema open source y la experimentación siguen siendo el laboratorio real de la innovación tecnológica práctica.
🏗 Intrinsic vuelve a casa. Intrinsic, compañía de software robótico escindida de Alphabet, vuelve bajo el paraguas de Google. Alphabet reorganiza su stack robótico. Menos dispersión, más integración vertical en automatización industrial.
🔄 Meta sigue adelante con Manus. Meta continúa con la integración de la startup agente Manus pese a la investigación regulatoria en China. La carrera por los agentes no se frena por fricción regulatoria. La integración tecnológica prima sobre la cautela política.
👥 Un histórico del boom de internet, eBay, recorta plantilla. eBay anuncia el despido de 800 empleados en su tercer ajuste de plantilla en tres años. Mientras la IA concentra inversión récord, el comercio digital tradicional continúa en fase de eficiencia y ajuste estructural.
Déjame recordarte que si te gusta la tecnología, el podcast de Código Abierto también puede ser una buena opción.
Si algo de lo que has leído te ha removido, dímelo.
Ya sabes que estoy al otro lado si quieres comentar, discrepar o simplemente saludar.
Que nunca te falten ideas, ni ganas de probarlas.
A.
PD: Si te interesa entender estos cambios estructurales más allá de la moda técnica, te recomiendo tres lecturas estratégicas:
The Second Machine Age de Erik Brynjolfsson & Andrew McAfee, es una reflexión sobre cuando el cambio no es incremental, sino estructural.
Architects of Intelligence de Martin Ford, un recorrido repaso a cómo piensan quienes diseñan estas arquitecturas.
El Dilema del Innovador de Clayton Christensen, nos habla de por qué los cambios tecnológicos suelen pillar a las empresas mal posicionadas.
Porque si la historia nos enseña algo, es que las guerras tecnológicas no las ganan los que tienen el componente más grande. Las ganan los que controlan la arquitectura.



