La IA se está convirtiendo en una commodity...
... más rápido de lo que pensamos
Hace apenas dos años parecía que estábamos viendo el nacimiento de algo irrepetible.
Cada nuevo modelo de IA era una demostración de fuerza.
Todo parece auto-magico.
Y, durante un tiempo, el debate era sencillo: “¿Quién tiene la mejor IA?”
Pero creo que esa pregunta empieza a quedarse vieja.
Porque en tecnología, tener el mejor producto rara vez garantiza ganar.
Yahoo tuvo ventaja.
BlackBerry también.
Nokia parecía invencible.
Y, aun así, desaparecieron del centro de gravedad tecnológico.
La historia suele repetirse.
Primero llega la innovación.
Luego llega la distribución.
Después la integración.
Y finalmente, el poder.
Por eso el libro 7 Powers, de Hamilton Helmer, me parece especialmente útil para entender lo que está ocurriendo ahora mismo en mitad del hipe de la IA.
No porque hable de tecnología o modelos generativos, el libro es anterior a la llegada de ChatGPT.
Sino porque explica algo más importante.
Cómo se construyen ventajas que sobreviven incluso cuando la tecnología deja de ser diferencial.
Y eso es exactamente lo que empieza a pasar con la IA.
Quienes lleváis más tiempo leyéndome, pensareis que soy un cansino, pero creo que la verdadera batalla no está en el modelo.
Cada vez es más evidente que las capacidades técnicas se igualan rápido.
OpenAI lanza algo.
Google responde.
Anthropic mejora.
Meta lo convierte en código abierto ; )
Y el mercado entero converge.
La inteligencia artificial se mueve a una velocidad donde las ventajas puramente técnicas duran muy poco.
Por eso muchas de las empresas que parecen mejor posicionadas no son necesariamente las que tienen “la mejor IA”.
Son las que están construyendo capas defensivas alrededor de ella.
Infraestructura.
Distribución.
Datos.
Procesos.
Integraciones.
Marca.
Hábitos.
Ahí es donde los 7 Powers empiezan a encajar sorprendentemente bien.
NVIDIA y las economías de escala
Si tuviera que elegir una empresa que simboliza esta fase de la IA, probablemente sería NVIDIA.
Y no tanto por los chips.
Sino por la posición estructural que ha construido.
Entrenar modelos avanzados requiere una cantidad absurda de computación.
Eso implica centros de datos gigantescos, consumo energético masivo y acceso preferente a hardware.
Muy pocas compañías pueden permitirse operar a esa escala.
Aunque ellos no operan esa infraestructura, son los que han habilitado la misma gracias a sus potentisimas GPUs.
Aquí aparece la primera fuerza de Helmer, la economías de escala.
Cuanto más grande eres, más barato te sale operar. EN el caso de Nvidia, esto sería imposible sin su aliado principal, TSMC.
Y cuanto más barato te sale operar, más difícil es competir contigo.
NVIDIA no solo vende GPUs.
Ha construido un ecosistema completo alrededor de CUDA, herramientas de desarrollo y optimización para IA.
Eso genera una dinámica interesante, un verdadero flywheel.
Más empresas entrenan sobre NVIDIA → más estándar se vuelve → más difícil resulta salir del ecosistema.
Microsoft, Oracle, Google y AWS juegan una partida similar desde la nube.
La IA es cara.
Pero si repartes esos costes entre millones de clientes, la ventaja empieza a ampliarse sola.
OpenAI y el efecto de red
Durante mucho tiempo pensamos que ChatGPT era simplemente un producto de consumo.
Cada vez parece más claro que es otra cosa.
Una plataforma.
Cada interacción mejora el sistema.
Cada prompt revela intención humana.
Cada conversación genera datos.
Y eso produce un efecto de red muy potente: más usuarios → más aprendizaje → mejor producto → más usuarios.
Pero el punto importante no está solo en el consumidor final.
Está en los desarrolladores.
Miles de aplicaciones ya dependen de OpenAI.
Cuando una empresa construye sobre una API, empieza a aparecer dependencia técnica, económica y operativa.
Eso crea inercia.
Y la inercia en tecnología suele ser mucho más poderosa de lo que parece.
El problema de Google no es tecnológico
Hay una idea del libro que me parece especialmente relevante para entender la posición de Google.
Helmer la llama counter-positioning.
Ocurre cuando una empresa nueva puede hacer algo que el incumbente no puede copiar fácilmente sin dañarse a sí mismo.
Y eso describe bastante bien el dilema actual de Google.
La IA Generativa cambia el modelo de interacción con Internet.
Menos enlaces.
Menos clics.
Más respuestas directas.
Pero el negocio de Google depende precisamente de los clics.
No es que Google no pueda construir buenos modelos, los tienen.
Ellos liberaron el modelo de los Transformers, pieza esencial de las arquitecturas GPT.
¿Qué ventaja seguirá existiendo cuando la tecnología deje de ser especial?
Probablemente tiene el mejor talento, datos e infraestructura para hacerlo mejor que el resto de la industria.
El problema es otro.
La transición amenaza partes importantes de su modelo económico actual.
Y ahí aparecen las inercias.
Las dudas.
La dificultad de canibalizarte antes de que otro lo haga.
Kodak entendió la fotografía digital antes que muchos competidores. Pero entender una tendencia y poder ejecutarla son cosas diferentes.
Microsoft no está construyendo un modelo
Hay algo interesante en cómo Microsoft está desplegando IA.
No intenta que uses un chatbot aislado.
Intenta integrar IA dentro del trabajo cotidiano.
Excel.
Word.
Teams.
Outlook.
GitHub.
La estrategia parece clara, convertir la IA en una capa integrada dentro del sistema operativo empresarial.
Y eso conecta directamente con otra de las powers, los switching costs.
Cuando una tecnología se incrusta en procesos internos, automatizaciones y hábitos de trabajo, cambiar deja de ser trivial.
No cambias solo de proveedor.
Cambias todo alrededor flujos, integraciones y comportamiento organizacional. Por no hablar de la formación y capacitación de los empleados.
En el segmento enterprise, eso importa muchísimo más que pequeñas diferencias de calidad entre modelos.
La marca también importa en IA
En mercados tan nuevos, la confianza tiene mucho peso.
Y OpenAI consiguió algo difícil:
convertirse en el nombre cultural de la categoría.
Mucha gente no usa “IA generativa”.
Usa “ChatGPT”.
Eso es poder de marca.
Lo mismo empieza a pasar con NVIDIA en infraestructura.
O incluso con ElevenLabs en voz.
Cuando una categoría se vuelve compleja y confusa, las marcas funcionan como atajos mentales.
Reducen incertidumbre.
Y en tecnología, reducir incertidumbre suele acelerar adopción.
El verdadero recurso escaso no son los modelos
Hay una narrativa muy extendida que dice que el gran activo de la IA son los modelos fundacionales.
No estoy tan seguro.
Cada vez parece más probable que los recursos realmente escasos sean otros:
distribución
datos propietarios
capacidad computacional
talento
acceso a clientes
y velocidad organizacional.
Google tiene YouTube.
Meta tiene redes sociales.
xAI tiene datos en tiempo real de X.
Amazon tiene infraestructura.
Microsoft tiene distribución enterprise.
NVIDIA tiene hardware y ecosistema.
Cuando miras la industria desde esta perspectiva, entiendes algo importante.
La IA no depende ya tanto de los laboratorios de investigación. Hace tiempo que irrumpió en el mercado y ya se ha integrado en estrategias consolidadas durante décadas.
Quizá el verdadero moat sea el proceso
La última power de Helmer es probablemente la más infravalorada, process power.
La idea subyacente es sencilla, algunas empresas desarrollan formas de operar tan eficientes que terminan siendo difíciles de replicar.
Toyota es el ejemplo clásico.
Y sospecho que en IA veremos algo parecido.
Porque entrenar modelos dejará de ser suficiente.
La ventaja estará en:
iterar más rápido
desplegar mejor
evaluar continuamente
integrar feedback
optimizar costes
coordinar equipos
y convertir aprendizaje en ejecución.
En resumen, crear una máquina organizacional que mejora constantemente.
Y eso, históricamente, suele ser más difícil de copiar que la tecnología en sí.
También déjame recordarte que si te gusta la tecnología, el podcast de Código Abierto puede ser una muy buena opción.
Food for thought
Como ya hemos señalado, quizá la cuestión decisiva haya dejado de ser quién posee la mejor IA y pase a ser qué empresa conservará su posición dominante cuando los modelos sean abundantes y asequibles.
Porque ese momento llegará.
La inteligencia artificial terminará siendo ubicua.
Como Internet.
Como el cloud.
Como los smartphones.
Y cuando eso ocurra, las ventajas reales probablemente no estarán en el modelo.
Estarán en todo lo que lo rodea.
Y eso es todo por hoy. Si algo de lo que has leído te ha removido, dímelo.
Ya sabes que estoy al otro lado si quieres comentar, discrepar o simplemente saludar.
Que nunca te falten ideas, ni ganas de probarlas.
A.
PD: Si te interesa entender mejor por qué NVIDIA está en el centro de esta revolución, hay un libro muy recomendable: “El Método Nvidia” de Tae Kim. Explica cómo Jensen Huang construyó una empresa obsesionada con el largo plazo y por qué CUDA terminó siendo una de las mayores ventajas estratégicas de la historia reciente del software.
PD2: Para entender la mentalidad detrás de Microsoft y su transformación cultural antes de la IA, “Hit Refresh” de Satya Nadella sigue siendo probablemente la mejor lectura. Más que tecnología, es un libro sobre cómo reposicionar una empresa gigante antes de quedarse irrelevante.
PD3: Sobre Google hay dos libros que juntos cuentan casi toda la historia: “In The Plex” de Steven Levy (el ascenso de Google) y “Trillion Dollar Coach”, que ayuda a entender la cultura operativa y de liderazgo que convirtió a Google en una máquina de ejecución.
PD4: OpenAI todavía no tiene “la gran biografía definitiva”, pero hay dos piezas muy útiles: el libro “El Imperio de la AI” de Karen Hao y toda la cobertura de Helen Toner, Dwarkesh Patel o la biografía intelectual no oficial que se está construyendo alrededor de Sam Altman. En unos años probablemente veremos varios libros importantes sobre esta etapa.
PD5: Sobre Oracle hay una biografía clásica muy entretenida: “Softwar” de Matthew Symonds. Ayuda mucho a entender cómo Larry Ellison construyó una empresa basada en lock-in, ventas enterprise y switching costs muchísimo antes de que la IA pusiera eso de moda otra vez.


