El músculo y la inteligencia
Diario de Innovación #322
Como dirían Mulder y Scully, la verdad está ahí fuera.
No en los titulares.
No en los benchmarks.
Ni en los papers, bueno en alguno sí.
Está ahí.
Silenciosa.
Persistente.
Difícil de ignorar.
Y es que el liderazgo en IA hoy no se compra con talento.
A pesar de los fichajes millonarios que hemos visto en los últimos años.
Se compra con compute.
Dos realidades que conviven (y chocan)
Durante los últimos años hemos contado una historia simplificada de la realidad. Más datos, más parámetros y más GPUs → Mejores modelos.
Y, en gran parte, es cierto.
Los datos lo confirman: en la frontera, entre el 80% y el 90% del rendimiento de los modelos se explica por el tamaño del dataset de entrenamiento.
No es magia.
Es escala.
Pero aquí es donde la historia empieza a romperse.
Porque, en paralelo, ha ocurrido otra cosa.
Hoy, modelos mucho más pequeños son capaces de alcanzar niveles de rendimiento que hace dos años requerían mayores órdenes de magnitud de compute.
En algunos casos hasta 50× menos compute o incluso miles de veces menos.
Todos conocemos la historia de DeepSeek.
Y eso cambia el enfoque de los laboratorios.
Introduce una tensión fundamental:
La frontera la empuja el músculo. Pero el mercado lo gana la eficiencia.
La ilusión de la frontera
Si miras la parte alta de las tablas de los benchmarks —los mejores modelos— la conclusión es clara:
Gana quien tiene más compute
Gana quien puede invertir más
Gana quien controla la infraestructura
Y eso explica muchas cosas:
La carrera por los data centers
Las inversiones multimillonarias
La geopolítica de los chips
Pero hay un problema.
La frontera no es el mercado.
La mayoría de los casos de uso reales no necesitan el mejor modelo del mundo.
Necesitan:
suficiente rendimiento
coste razonable
latencia aceptable
integración sencilla
El paper introduce una idea interesante. Existe algo así como un “secret sauce” en el desarrollo de LLMs.
Pero no es lo que muchos esperan.
No es lo que te hace ganar la carrera en la cima.
Es lo que te permite hacer la magia de la destilación:
Construir modelos más pequeños… que hagan casi lo mismo.
Ese es el verdadero diferencial.
La ingeniería pura.
No el que se ve en los benchmarks.
Sino el que se ve en los márgenes de la realidad.
Porque reducir el compute necesario para alcanzar un determinado nivel de capacidad:
baja el coste
amplía el acceso
acelera la adopción
Y, en última instancia: convierte una tecnología de laboratorio en una tecnología de mercado.
El error que estamos cometiendo
Aquí es donde conviene parar.
Y hacerse una pregunta incómoda.
¿Estamos confundiendo progreso con escala?
Durante años, hemos medido la tecnología con tres variables:
más rápido
más barato
más potente
Pero la IA introduce una nueva dimensión, el coste marginal de inteligencia
Porque, por primera vez, más inteligencia implica más consumo.
Y entonces la pregunta deja de ser:
¿Qué puede hacer la IA?
Y pasa a ser:
¿Compensa lo que cuesta hacerla funcionar?
Lo que el paper no termina de decir (pero sugiere)
El análisis es sólido.
Los datos son claros.
Pero hay varias grietas interesantes.
1. Confundir benchmarks con valor
Medir progreso con MMLU está bien.
Pero…
no mide impacto real
no mide utilidad
no mide adopción
Podemos estar optimizando:
→ lo que es fácil de medir
en lugar de
→ lo que realmente importa
2. Ignorar el cambio de paradigma
El análisis se centra en modelos “clásicos”.
Pero el mundo ya se está moviendo hacia:
agentes
razonamiento
sistemas híbridos
Y ahí, el scaling puro empieza a perder fuerza.
3. Subestimar el papel de los datos
El paper habla de compute y eficiencia.
Pero deja en segundo plano algo clave, la calidad de los datos
Y si algo estamos viendo: es que los datos —no el compute— pueden ser el verdadero cuello de botella.
4. Asumir que el scaling es infinito
La narrativa implícita es clara, más compute = más progreso
Pero esto ignora límites evidentes:
energía
coste
regulación
disponibilidad de chips
Y cuando ese crecimiento se frene…
¿qué queda?
El verdadero campo de batalla
Si conectas todos los puntos, aparece una imagen más interesante: no estamos en una única carrera.
Estamos al menos en dos en paralelo.
Carrera 1: la frontera
compute
escala
infraestructura
capital
Carrera 2: la eficiencia
optimización
arquitectura
datos
producto
Y lo más interesante de todo esto en que:
No necesariamente las ganan los mismos actores.
Entonces, ¿dónde deberías mirar?
Si estás construyendo, invirtiendo o decidiendo, quizá la pregunta no es:
¿Quién tiene el mejor modelo?
Sino:
¿Quién puede hacer lo suficiente… al menor coste posible?
Porque ahí es donde está el mercado, probablemente, ahí es donde se decidirá quién gana de verdad.
Food for thought
La historia de la IA no es solo una historia de inteligencia.
Es una historia de recursos.
De restricciones.
De decisiones.
Y, como tantas veces, lo que parece una ventaja hoy. Puede convertirse en una trampa mañana.
Porque sí, el liderazgo en IA hoy se compra con compute. El valor puede acabar construyéndose en otro sitio.
🌍 El eco del mercado
🌦️ ChatGPT se convierte en meteorólogo. OpenAI sigue expandiendo su producto hacia casos de uso cotidianos: ahora ChatGPT integra funciones para consultar el tiempo, desplazando a buscadores y apps especializadas. La IA deja de ser una herramienta puntual para convertirse en interfaz universal del día a día.
⚠️ Altman avisa: la IA será medicina… y también riesgo sistémico. Sam Altman anticipa un futuro donde la IA puede curar enfermedades, pero también generar amenazas que ningún actor podrá controlar por sí solo. El discurso cambia: de promesa tecnológica a infraestructura crítica con riesgos globales.
🤖 Claude empieza a tomar decisiones por ti. Anthropic introduce un “auto mode” en Claude Code que permite al modelo tomar decisiones con ciertos permisos. Es un paso claro hacia agentes autónomos: menos prompts, más ejecución.
🎬 La IA entra en la edición de vídeo… con dinero serio detrás. Mirage levanta 75 millones para seguir desarrollando modelos aplicados a edición de vídeo en su app Captions. El patrón es claro: modelos especializados + producto vertical = la nueva ola de startups de IA.
🎬 Y…OpenAI cierra Sora: la realidad se impone al hype. OpenAI habría decidido cerrar o frenar el despliegue de Sora en su formato actual, uno de sus proyectos más ambiciosos en generación de vídeo. Más allá del titular, el movimiento apunta a algo más interesante: no todo avance técnico encuentra encaje inmediato en producto. La frontera ahora no es solo lo que la IA puede hacer… sino lo que tiene sentido operar a escala.
🌍 La IA entra en el terreno de la infraestructura crítica. El debate ya no es técnico, es sistémico, lo llevamos comentando meses. La inteligencia artificial empieza a tratarse como una capa estructural de la sociedad, con implicaciones similares a la energía o las telecomunicaciones.
🦠 Malware en open source: el riesgo que nadie quería mirar. Un malware auto-propagado está infectando software open source y borrando sistemas en Irán. La cadena de suministro del software vuelve al centro del riesgo: lo que acelera la innovación también amplifica el ataque. ¿Ya nadie se acuerda de Stuxnet?
🔗 El open source como punto débil estructural. Este es un mal sistemico que hemos visto repetirse a lo largo de los últimos años, la adopción masiva de librerías abiertas ha creado un ecosistema potente… pero frágil. La velocidad de desarrollo choca con la seguridad, y las dependencias se convierten en vectores de ataque invisibles.
📉 X frena cambios tras la reacción de los creadores. El intento de modificar el reparto de ingresos en X provoca backlash inmediato y obliga a Musk a pausar la medida. La economía de creadores sigue siendo frágil… y altamente sensible a incentivos.
Déjame recordarte que si te gusta la tecnología, el podcast de Código Abierto también puede ser una buena opción.
Si algo de lo que has leído te ha removido, dímelo.
Ya sabes que estoy al otro lado si quieres comentar, discrepar o simplemente saludar.
Que nunca te falten ideas, ni ganas de probarlas.
A.
PD: Si quieres entender mejor qué hay detrás de los LLM y por qué funcionan tan bien (y también dónde fallan), estos son buenos puntos de partida:
You Look Like a Thing and I Love You de Janelle Shane
Artificial Intelligence: A Guide for Thinking Humans de Melanie Mitchell
Co-Inteligencia de Ethan Mollick
Porque cuanto mejor entiendes cómo “piensan”… más claro ves sus límites.


