La torre de Babel también tenía datos
Diario de Innovación #342
Hay un problema del que se habla poco.
No porque sea pequeño.
Sino porque no brilla.
No tiene demos espectaculares.
No genera vídeos virales.
No promete AGI para el martes.
Pero está debajo de casi todo.
Los datos.
Bueno, los datos rotos.
O, mejor dicho, los datos que no se entienden entre sí.
Hace unos días participé junto a mi compañero Fran en el T3chFest 2026 con una charla titulada: La historia de los datos rotos: la torre de Babel de la gestión del dato.
La idea de fondo es bastante simple, aunque sus implicaciones no lo sean tanto.
Hoy generamos más datos que nunca, almacenarlos es cada vez más barato y contamos con herramientas muy potentes para analizarlos. Sin embargo, muchas organizaciones siguen tomando decisiones con una visión parcial, como si observaran la realidad a través de una rendija. Disponen de métricas, informes o indicadores concretos, pero les cuesta reconstruir la historia completa que hay detrás de esos datos.
Esto ocurre en muchos ámbitos. En sanidad, por ejemplo, se puede tratar un síntoma concreto sin entender que es la consecuencia de otro problema que está reflejado en otro sistema o en otra prueba distinta. En educación, se evalúa a un alumno por sus notas sin incorporar el contexto que explica su situación. Y en movilidad, aunque existen múltiples fuentes de información, estas suelen permanecer aisladas, sin integrarse en una visión unificada.
El patrón es siempre el mismo: los datos existen, pero no están conectados ni alineados. No comparten un lenguaje común.
Durante años, la respuesta a este problema fue acumular más información, centralizarla, copiarla y transformarla una y otra vez. Esto ha llevado a muchas organizaciones a construir entornos complejos, con grandes volúmenes de datos que, en la práctica, son difíciles de entender y aprovechar. Mucho almacenamiento, pero poco conocimiento real.
Por eso es relevante avanzar hacia enfoques que permitan que los datos se puedan compartir, interpretar y utilizar de forma más abierta y flexible, sin depender completamente de sistemas cerrados ni tener que replicar constantemente la información. No se trata de una moda tecnológica, sino de facilitar que el dato pueda fluir y combinarse con mayor facilidad.
Eso sí, conviene mantener cierta perspectiva: no existe una solución única que sirva para todos los casos. Hay escenarios donde prima la velocidad y otros donde lo importante es la capacidad de análisis a gran escala. Elegir bien depende de entender el problema que se quiere resolver, no de adoptar una tecnología por principio.
En el fondo, la diferencia no está en tener más datos, sino en poder utilizarlos con sentido: integrarlos, darles contexto y convertirlos en decisiones informadas.
Y aquí es donde la inteligencia artificial vuelve a poner el foco en un problema previo que muchas organizaciones aún no han resuelto. Antes de hablar de modelos, agentes o automatización, hay una pregunta más básica: si los datos no están bien conectados, estructurados y entendidos, cualquier capa de inteligencia que construyas encima será limitada.
La IA no corrige el desorden; en muchos casos, lo amplifica.
Porque el contexto no aparece solo. Se diseña. Requiere decisiones, estándares, organización y, sobre todo, intención.
La metáfora es bastante clara: el problema no es la cantidad de piezas, sino la falta de un lenguaje común entre ellas. Y probablemente ahí esté una de las claves menos visibles —pero más importantes— de la transformación tecnológica en los próximos años.
🌍 El eco del mercado
🛡️ OpenAI enseña el modelo, pero no reparte las llaves. OpenAI prepara GPT-5.5 Cyber, un modelo de ciberseguridad que no estará disponible para el público general y que se limitará primero a un grupo de defensores críticos. La señal no está solo en el modelo, sino en el cambio de criterio: cuando una IA puede defender muy bien, también puede atacar muy bien.
🧨 La ciberseguridad ya tiene su carrera armamentística de modelos. Una evaluación del Instituto de Seguridad de la IA del Reino Unido sitúa a GPT-5.5 al nivel de Claude Mythos en capacidades ofensivas de ciberseguridad. El punto delicado es que ya no hablamos de asistencia puntual, sino de modelos capaces de ejecutar ataques corporativos de varios pasos.
🔐 ChatGPT empieza a protegerse como infraestructura crítica. OpenAI lanza nuevas protecciones avanzadas para cuentas de ChatGPT y Codex, incluyendo una colaboración con Yubico. No es una mejora menor: si los usuarios usan estas herramientas para código, datos sensibles o decisiones críticas, la cuenta pasa a ser parte de la superficie de ataque.
🧬 Musk admite lo que todos sospechaban: los modelos aprenden de sus rivales. Elon Musk reconoció bajo juramento que xAI utilizó modelos de OpenAI para mejorar Grok mediante destilación. La confesión llega en pleno juicio contra OpenAI y expone una de las zonas grises más incómodas del sector.
💰 Anthropic ya no se valora como startup, sino como infraestructura. Anthropic estaría preparando una ronda con una valoración potencial superior a los 900.000 millones de dólares. La cifra importa menos como número exacto que como síntoma: el mercado sigue apostando a que unos pocos laboratorio
⚡ El nuevo venture capital compra tierra, no solo software. Coatue estaría impulsando una iniciativa para comprar terrenos cerca de grandes fuentes de energía, posiblemente pensando en centros de datos para Anthropic. Es una señal muy potente: la IA está llevando al capital riesgo al mundo físico.
🏗️ Microsoft descubre que escalar IA también es pagar más por el hierro. Microsoft habría elevado su gasto previsto en IA por el encarecimiento del hardware, con una parte relevante del capex asociada a mayores costes de infraestructura. Es el reverso menos glamuroso de la carrera por los modelos: cada salto de capacidad exige una factura física.
☁️ AWS vuelve a recordar quién paga la fiesta de Amazon. AWS registró su mejor crecimiento en 15 trimestres, con un avance del 28% que vuelve a reforzar su papel como motor económico de Amazon. La nube, lejos de ser una capa madura y aburrida, vuelve al centro por la demanda de IA. La IA no desplaza a la nube; la hace más estratégica. Sin capacidad cloud, no hay industrialización real de modelos, agentes ni automatización empresarial.
🎯 Los data centers ya son objetivo de guerra. Amazon afronta meses de reparaciones tras ataques con drones a centros de datos, mientras AWS deja de facturar a clientes de cloud en Oriente Medio por el impacto de los daños. La nube vuelve a tocar tierra, literalmente.
☢️ China quiere alimentar la IA con reactores en miniatura. China ha comenzado a probar reactores nucleares móviles de 10 MW pensados para sostener grandes centros de datos durante años sin repostar. La imagen es casi perfecta para este ciclo: una “power bank” nuclear para la era de la IA.
La carrera por la inteligencia artificial se está convirtiendo en carrera energética. El ganador no será solo quien tenga mejores modelos, sino quien asegure energía barata, estable y escalable.
💧 El calor de los data centers quiere convertirse en agua potable. Una startup plantea un sistema de refrigeración basado en sales que captura el calor residual de los centros de datos para generar agua limpia y reducir consumo energético. Suena casi demasiado bonito, pero señala bien hacia dónde va el mercado.
🖥️ Apple también nota la fiebre de la IA local. Apple reconoce una demanda inesperada de Macs impulsada por la adopción de IA y anticipa restricciones de suministro en varios modelos. El mensaje de fondo es interesante: la IA no solo vive en grandes clusters; también empuja el hardware personal y profesional.
💳 Stripe prepara la cartera para que compren los agentes. Stripe introduce Link como una cartera digital que también pueden usar agentes autónomos de IA, con flujos de autorización para controlar pagos. Es una pieza pequeña, pero apunta a una infraestructura clave: agentes que no solo recomiendan, sino que ejecutan compras.
🤖 Los agentes empiezan a actuar sin que nadie les escriba un prompt. Writer lanza agentes empresariales activados por eventos, capaces de detectar señales en herramientas como Gmail, Gong o Google y actuar sin esperar una instrucción manual. Es un cambio sutil pero profundo: de conversar con la IA a dejar que vigile procesos.
Déjame recordarte que si te gusta la tecnología, el podcast de Código Abierto también puede ser una buena opción.
Si algo de lo que has leído te ha removido, dímelo.
Ya sabes que estoy al otro lado si quieres comentar, discrepar o simplemente saludar.
Que nunca te falten ideas, ni ganas de probarlas.
A.
PD: Si te interesa profundizar en esta idea de datos, contexto y decisiones, aquí van algunas lecturas que conectan bastante bien con todo esto:
Data Mesh de Zhamak Dehghani. Una propuesta para descentralizar la gestión del dato sin perder gobierno, poniendo el foco en el dominio y el contexto.
“The Data Warehouse Toolkit de Ralph Kimball. Un clásico para entender cómo estructurar datos con sentido de negocio, más allá de la tecnología.
Diseñando Aplicaciones Data-Intensive de Martin Kleppmann. Probablemente el libro más completo para entender cómo funcionan realmente los sistemas de datos a gran escala.
Storytelling con Datos de Cole Nussbaumer Knaflic. Porque no basta con tener datos: hay que saber interpretarlos y comunicarlos.
Competing on Analytics de Thomas H. Davenport. Una mirada estratégica a cómo las empresas convierten los datos en ventaja competitiva real.

