Capacidad, coste y confianza, el peaje de la IA
Diario de Innovación #326
Hoy me quedo con una idea bastante clara: la conversación sobre IA está cambiando de “qué puede hacer” a algo mucho más incómodo —y mucho más relevante—: qué coste tiene, quién se beneficia, cuánto nos fiamos de ella… y cómo cambia las reglas del juego sin pedir permiso.
Y no es un mal cambio.
De hecho, probablemente es el más sano que hemos tenido en mucho tiempo.
Porque esta semana, en el último episodio de Código Abierto, Diego y yo nos metimos justo en ese terreno. Ya no hablamos solo de capacidades, sino de consecuencias: de la democratización del conocimiento, del auge del shadow AI dentro de las empresas, de la velocidad descontrolada a la que estamos construyendo… y de algo que empieza a asomar por debajo de todo esto: un cambio de modelo, no solo tecnológico, sino social y económico.
Porque cuando cualquiera puede acceder al conocimiento, lo que deja de ser diferencial no es saber… sino cómo decides, cómo aplicas y en qué contexto operas.
Y cuando las máquinas empiezan a ejecutar —no solo a sugerir—, aparecen nuevas preguntas:
¿Quién es responsable?
¿Dónde ponemos los límites?
¿Y qué pasa cuando la confianza ya no está entre personas, sino entre sistemas?
La sensación que nos quedó al cerrar el episodio es sencilla, pero potente:
esto ya no va de herramientas, va de infraestructuras invisibles que están redefiniendo cómo trabajamos, cómo competimos… y cómo nos organizamos como sociedad.
Y ahí es donde empieza lo interesante.
Microsoft quiere jugar a todo: modelo, voz, imagen y plataforma
Microsoft ha presentado tres nuevos modelos fundacionales desde su división MAI: uno de transcripción, otro de voz y otro de generación visual. La lectura rápida sería “otro lanzamiento más en la carrera de la IA”. La lectura útil es otra: las grandes tecnológicas ya no quieren depender de una sola capa del stack.
Durante un tiempo, parecía que el negocio consistía en invertir en OpenAI, integrar sus modelos y correr. Ahora ya no. Ahora Microsoft quiere tener partnership, sí, pero también producto propio, infraestructura propia y, sobre todo, capacidad de fijar precios y diferenciarse.
Lo interesante no es solo que saque modelos. Lo interesante es que los presente como más prácticos, más baratos y más integrables. La guerra de la IA se está moviendo desde el espectáculo hacia algo mucho menos glamuroso, pero bastante más importante: márgenes, control y distribución.
Silicon Valley está obsesionado con una idea: IA que ayuda a crear mejor IA
TechCrunch pone foco en una de esas ideas que parecen de ciencia ficción hasta que empiezan a colarse en los roadmaps reales: sistemas que automatizan parte de la propia investigación en IA.
No estamos hablando aún de máquinas diseñando por sí solas la siguiente generación completa de modelos. Pero sí de asistentes que aceleran trabajo de investigación, código, revisión de literatura, optimización de procesos y experimentación. Es decir: no una explosión repentina, sino una especie de turbo incremental.
Y aquí hay una tensión muy de 2026: por un lado, la industria lo vende como productividad. Por otro, mucha gente lo escucha como “la cinta transportadora se acaba de acelerar”. Creo que esta será una de las grandes historias del año: no tanto si llega una IA “mágica”, sino cuánto se acorta el ciclo de mejora cuando la IA empieza a participar en su propia cadena de desarrollo.
Se usa más la IA, pero se confía menos en ella
Una encuesta recogida por The Register resume muy bien el momento: más gente usa herramientas de IA, pero la confianza sigue siendo baja. La adopción sube; la tranquilidad, no.
Y tiene bastante sentido. Mucha gente ya utiliza IA para investigar, escribir, resumir o trabajar mejor. Pero eso no significa que la considere fiable, transparente o beneficiosa. De hecho, cada vez más personas temen su impacto en empleo, consumo energético y calidad de la información.
Es una señal importante para cualquiera que construya productos en este espacio: uso no equivale a entusiasmo. A veces significa simplemente que la herramienta ya está demasiado cerca del flujo de trabajo como para ignorarla. La lección no es “la gente ama la IA”. La lección es más incómoda: la gente la incorpora mientras sigue sospechando de ella.
El cuello de botella ya no es solo computacional: también es energético, legal y social
En The Atlantic insisten en varias de las cuestiones que llevamos hablando en este boletín y que van en la misma dirección: centros de datos con hambre energética, presión política para flexibilizar privacidad en nombre de la competitividad y más fricción con bots, scrapers y agentes autónomos.
Ese es, quizá, el mejor antídoto contra el hype: recordar que la IA no vive en el vacío. Vive conectada a redes eléctricas, marcos regulatorios, comunidades locales, costes de hardware y límites físicos bastante poco futuristas.
Cuanto más madura la industria, más evidente resulta que el debate no va solo de modelos. Va de permisos. De energía. De infraestructuras. De responsabilidad. Y de quién absorbe las externalidades mientras otros capturan el valor.
Déjame recordarte que si te gusta la tecnología, el podcast de Código Abierto también puede ser una buena opción.
Food for thought
Y es que estamos viendo cómo la IA está dejando de parecer una promesa abstracta y empieza a comportarse como una industria de verdad, con sus cadenas de suministro, sus costes políticos y sus contradicciones públicas.
Eso, paradójicamente, me parece una buena noticia.
Menos magia. Más realidad.
Y en tecnología, casi siempre se piensa mejor desde ahí.
Si algo de lo que has leído te ha removido, dímelo.
Ya sabes que estoy al otro lado si quieres comentar, discrepar o simplemente saludar.
Que nunca te falten ideas, ni ganas de probarlas.
A.


