La IA tiene un grifo
Diario de Innovación #340
Hay una parte de la inteligencia artificial de la que se habla poco.
No porque sea aburrida.
Sino porque estropea bastante la magia.
Hablo del coste.
Del compute.
De los límites.
Del momento exacto en el que una herramienta que parecía infinita te dice: “Hasta aquí.”
Y entonces recuerdas algo incómodo.
Que la nube no está en las nubes.
Está en centros de datos.
Con chips, con memora, con energía, con refrigeración, con cables,…
Y con alguien, en algún sitio, decidiendo quién recibe el modelo bueno, quién recibe el modelo rápido y quién recibe el mensaje de “has alcanzado tu límite”.
Esta semana en Código Abierto, Ignacio y yo hablamos precisamente de esto.
De Anthropic, de Claude, de Claude Code, de los límites diarios, de la retirada de ciertas capacidades en algunos planes.
Y, sobre todo, de una sensación que empieza a aparecer entre muchos usuarios: que algunas herramientas de IA ya no funcionan igual que hace unas semanas.
O no rinden igual.
O consumen mucho más.
O te dejan tirado antes.
O las tres cosas a la vez.
Y aquí empieza lo interesante.
Porque el problema no es solo técnico.
Es de confianza.
Durante los últimos dos años nos hemos acostumbrado a una idea peligrosa: que la inteligencia artificial era una especie de barra libre.
Preguntabas, respondía, subías documentos, analizaba, pedías código, generaba, pedías otra versión, la hacía, pedías que pensara más, pensaba,…
Y todo eso por una cuota mensual que, vista con distancia, probablemente era demasiado barata para lo que había detrás.
El problema llega cuando esa barra libre empieza a tener letra pequeña.
Cuando el proveedor cambia el plan.
Cuando el modelo “nuevo” puntúa mejor en benchmarks, pero a ti te resuelve peor el trabajo.
Cuando una herramienta sobre la que has empezado a construir tu flujo diario decide que ahora cuesta más, ofrece menos o cambia sus condiciones.
Y entonces aparece la pregunta incómoda: ¿Estamos construyendo sobre herramienta o sobre arenas movedizas?
Porque para un usuario particular puede ser molesto.
Pero para una empresa puede ser un problema serio.
Si tu equipo de desarrollo depende de Claude Code.
Si tu producto depende de una API externa.
Si tu propuesta de valor depende de un modelo que no controlas.
Si tus costes pueden multiplicarse de una semana para otra.
Entonces la conversación deja de ser sobre “qué IA es mejor”.
Y pasa a ser sobre arquitectura, dependencia y riesgo.
Igual que pasó con el cloud.
Primero todo el mundo se enamoró de un proveedor.
Luego llegó el miedo al lock-in.
Después vino el multicloud.
Y quizá ahora estemos entrando en la era del multimodelo.
OpenAI para unas cosas.
Anthropic para otras.
Google para otras.
Modelos abiertos para respaldo.
Modelos pequeños para tareas concretas.
Y modelos premium para cuando realmente hace falta sacar la artillería pesada.
Porque esa puede ser otra derivada.
Que no todos tengamos acceso a la misma inteligencia artificial.
Una IA para usuarios domésticos.
Una IA para empresas.
Una IA para gobiernos.
Una IA para defensa.
Una IA para quienes puedan pagar compute reservado.
Suena distópico.
Pero no sería tan nuevo.
Siempre ha existido una informática de consumo y una informática profesional.
Mainframes, servidores, workstations, ordenadores personales, cloud,…
Y ahora, quizá, modelos.
La diferencia es que esta vez no hablamos solo de máquinas más rápidas.
Hablamos de capacidades cognitivas distribuidas de forma desigual.
Y aquí Google merece una mención especial.
Porque mientras OpenAI y Anthropic parecen vivir en una carrera de titulares, Google sigue ahí.
Con sus TPUs.
Con su distribución.
Con Gmail, Meet, Docs, Android, Search y Workspace.
Puede parecer que va por detrás.
O puede que simplemente esté midiendo los tiempos.
Gotita a gotita.
Sin tanto ruido.
Pero con una ventaja brutal: ya está dentro de la vida diaria de millones de personas y empresas.
Y eso, en tecnología, muchas veces vale más que salir el primero en la foto.
La gran lección, para mí, es esta: la IA no se va a decidir solo por quién tenga el mejor modelo. Se va a decidir por quién pueda sostenerlo.
Por quién pueda servirlo.
Por quién pueda monetizarlo.
Por quién pueda integrarlo.
Y por quién consiga que sus usuarios confíen en que mañana seguirá funcionando.
Porque en software puedes perdonar muchas cosas.
Un bug.
Una caída.
Una mala actualización.
Pero cuando empiezas a usar una herramienta como parte de tu pensamiento, de tu trabajo o de tu negocio, la confianza se vuelve infraestructura.
Y esa infraestructura, ahora mismo, está en construcción.
🌍 El eco del mercado
📱 OpenAI apunta al hardware (y a Apple). Trabaja con Qualcomm y MediaTek en chips propios para móviles. Esto apunta a algo más grande: controlar el stack completo, no solo el modelo.
📱 La interfaz como nueva batalla de la IA. Skye levanta inversión para reinventar la pantalla de inicio del iPhone con IA. El verdadero movimiento está en matar las apps… y convertir la interfaz en agente.
🧠 IA que mejora IA. ASI-Evolve automatiza el ciclo completo de investigación en modelos. Esto apunta a una aceleración brutal: la IA empieza a iterarse a sí misma.
🧠 El creador de AlphaGo cuestiona el rumbo. David Silver apuesta por “superlearners” frente al enfoque actual. Más que modelos más grandes, esto va de cambiar la forma en que aprenden.
⚠️ Afinar RAG puede romperlo todo. Optimizar embeddings reduce precisión hasta un 40%. La lección: en IA, mejorar una métrica puede destruir el sistema.
🇪🇺 Europa busca soberanía tecnológica. Gobiernos quieren reducir dependencia de software estadounidense. Esto ya no va de eficiencia… va de control.
🇨🇳 GPUs chinas empiezan a despegar. Moore Threads entra en beneficios impulsada por demanda local. La autosuficiencia en chips ya no es aspiración… es realidad en marcha.
🤖 La IA física acelera. Robots, drones y coches autónomos se despliegan masivamente en China. El verdadero salto de la IA no está en el chat… está en el mundo físico.
⚠️ El rechazo a la IA crece. Movimiento social en EE.UU. contra el impacto de Big Tech. La tensión ya no es técnica… es política.
⚡ Energía: el cuello de botella. El coste de plantas de gas sube un 66% por demanda de data centers. Sin energía, no hay IA. Así de simple.
🚀 La alternativa, energía desde el espacio. Meta firma acuerdo para recibir energía solar orbital. Parece ciencia ficción… pero es infraestructura para la IA del futuro.
🧠 IA aplicada al conocimiento personal. NotebookLM evoluciona hacia sistema estructurado de aprendizaje. El verdadero valor no es almacenar… es pensar mejor.
🔐 La computación cuántica asoma. Un investigador rompe una clave criptográfica con hardware accesible. Señal débil de ruptura: la seguridad actual tiene fecha de caducidad.
🏭 La cadena de suministro se convierte en el nuevo campo de batalla de la automatización. Las cadenas de suministro están empujando la adopción de plataformas iPaaS automatizadas, donde la IA ya no optimiza procesos, sino que redefine cómo se integran sistemas en entornos cambiantes.
🧠 Google conecta tus datos para que la IA piense por ti. Gemini empieza a cruzar información entre Gmail, Search y YouTube para generar respuestas personalizadas con contexto completo del usuario. El verdadero movimiento está en el dato: pasamos de modelos inteligentes a sistemas que saben demasiado sobre ti.
🏥 Alibaba mete la IA en el diagnóstico médico real. El gigante chino presenta un modelo capaz de detectar cáncer colorrectal con mayor precisión que radiólogos en ciertos casos. Esto apunta a un cambio profundo: la IA deja de ser asistente y empieza a competir directamente con profesionales.
Déjame recordarte que si te gusta la tecnología, el podcast de Código Abierto también puede ser una buena opción.
Si algo de lo que has leído te ha removido, dímelo.
Ya sabes que estoy al otro lado si quieres comentar, discrepar o simplemente saludar.
Que nunca te falten ideas, ni ganas de probarlas.
A.
PD: Para CTOs: no es IA, es dependencia. Si estás tomando decisiones ahora mismo, no van solo de “qué modelo es mejor”. Van de en qué te estás apoyando.
Algunos libros que ayudan a pensar esto con más calma (y menos hype):
Cloudonomics de Joe Weinman, para entender de verdad qué estás comprando cuando “compras cloud”
Seven Powers de Hamilton Helmer, profundiza en qué hace que una ventaja sea sostenible… y qué no.
La Guerra de los Chips de Chris Miller, un recordatorio incómodo de que todo esto depende de algo físico y escaso.
El Problema de Arrancar en Frío de Andrew Chen, sobre lo difícil que es construir algo que dependa de otros.
Platform Scale de Sangeet Choudary, sobre cómo crecer… sin perder el control.
The Grid de Gretchen Bakke habla sobre lo frágil que es lo que damos por hecho.
The Platform Revolution de Parker y Van Alstyne, profundiza en el poder (y el riesgo) de las plataformas.
Matchmakers de Evans y Schmalensee, habla de cómo se construyen mercados donde no mandas tú,
Porque al final no va de elegir la mejor IA.
Va de construir algo que siga funcionando cuando cambie.


