La IA agentica no sustituye al SaaS. Lo necesita.
Diario de Innovación #288
La narrativa actual dice que los agentes de IA van a comerse las aplicaciones tradicionales.
La realidad es justo la contraria: sin sistemas de registro sólidos, los agentes no generan valor real.
Los agentes no “entienden” el negocio por sí mismos.
Interpretan. Orquestan. Proponen.
Pero la verdad del negocio —datos fiables, consistentes, auditables y seguros— sigue viviendo en los sistemas core: ERP, CRM, HCM,...
El mayor error del hype actual es desplegar agentes sobre:
datos incompletos,
mal gobernados,
arquitecturas frágiles,
esperando que “se apañen” entre ellos.
La IA no corrige el desorden: lo amplifica, introduciendo riesgos operativos y decisiones equivocadas.
Aquí la separación de roles es clave:
Agentes de IA → juicio, flexibilidad, creatividad, experiencia de usuario, orquestación.
Sistemas de registro → precisión, coherencia, lógica de negocio, trazabilidad y auditoría.
Un agente puede analizar ingresos.
Pero el número oficial no puede salir de una estimación probabilística.
Además, cuantos más agentes operen 24/7, más control, auditoría y coordinación se necesitan, no menos.
La autonomía sin arquitectura es caos.
La IA agentica sí mejora la experiencia y reduce fricción, pero la integridad de los procesos no se negocia.
Por eso el verdadero diferenciador no es el agente en sí, sino:
una arquitectura de datos robusta,
una capa de orquestación bien diseñada,
una integración limpia con los sistemas core.
No es un juego de sustitución.
Es un reparto de papeles.
Los agentes orquestan el trabajo flexible.
Los sistemas de registro anclan la verdad.
La pregunta estratégica ya no es qué va a reemplazar la IA, sino:
¿están mis datos y mis sistemas preparados para que la IA funcione de verdad?
Quien invierta ahí capturará valor real.
El resto perseguirá demos.
🌍 El eco del mercado
⚠️ ChatGPT se cae y recuerda quién manda cuando todo es IA. Una caída parcial de ChatGPT afectó a miles de usuarios y volvió a poner sobre la mesa una realidad incómoda: cuando un modelo se convierte en infraestructura cognitiva, su disponibilidad deja de ser un detalle técnico. OpenAI reconoció errores elevados mientras Downdetector se llenaba de picos.
🚫 Claude dice no a la publicidad (y sí a una IA más limpia). Anthropic marca distancias con ChatGPT y deja claro que Claude no tendrá anuncios ni contenidos patrocinados. No es solo una decisión de negocio: es una apuesta por confianza, foco y una relación menos extractiva con el usuario.
🤖 Apple convierte Xcode en una plataforma de agentes. Con Xcode 26.3, Apple integra modelos de OpenAI y Anthropic directamente en su entorno de desarrollo. El mensaje es claro: el IDE deja de ser una herramienta pasiva y empieza a comportarse como un colaborador activo en el proceso de creación de software.
🔥 Intel se lanza a por la GPU (y a por el pastel de la IA). Intel confirma su entrada seria en el mercado de GPUs, unificando estrategia industrial y ambición comercial en plena fiebre por el cómputo acelerado. El movimiento se entiende mejor si se lee junto a la presión del mercado: chips, memoria y capacidad industrial están siendo rediseñados alrededor de la IA.
🎙️ ElevenLabs levanta 500 millones y dispara su valoración a 11.000 millones. La startup especializada en generación de voz por IA cierra una ronda de 500 millones liderada por Sequoia Capital, triplicando su valoración en apenas doce meses. Más allá del número, el mensaje es claro: el audio sintético se consolida como una capa estratégica del nuevo stack creativo y productivo de la IA.
🛰️ Starlink quiere subir la IA al espacio… y bajar la factura a la Tierra. SpaceX plantea llevar servidores de IA a la órbita baja: energía solar, menor latencia y una nueva frontera para el cloud. El problema es el de siempre: residuos espaciales, gobernanza inexistente y un coste ambiental que aún no estamos sabiendo medir.
📉 El algoritmo “open source” de X no convence a nadie. X publica el código de su algoritmo de recomendación, pero investigadores advierten: abrir repositorios no equivale a ofrecer transparencia real. Sin contexto, datos ni explicaciones, el gesto se queda más cerca del marketing que de la rendición de cuentas.
🎧 Del código formal al “vibe-coding”. Un artículo de Ars Technica refleja un cambio cultural silencioso: desarrolladores que usan LLMs de forma intuitiva, exploratoria y menos estructurada. Menos ingeniería clásica, más diálogo con la máquina. No es una moda: es un síntoma.
🔐 Más de 40.000 webs WordPress en riesgo por una sola pieza de software. Una vulnerabilidad grave en un plugin popular permite ataques por inyección SQL. El episodio vuelve a mostrar cómo el software más extendido suele ser también el más frágil, y cómo la seguridad sigue dependiendo de eslabones muy pequeños.
📦 La IA se está comiendo la memoria del mundo. Micron relega su marca de consumo Crucial para centrarse en suministrar RAM y SSDs al sector de la IA. No es un ajuste menor: es una señal de cómo el mercado está reordenando prioridades para alimentar modelos cada vez más grandes.
Déjame recordarte que si te gusta la tecnología, el podcast de Código Abierto también puede ser una buena opción.
Si algo de lo que has leído te ha removido, dímelo.
Ya sabes que estoy al otro lado si quieres comentar, discrepar o simplemente saludar.
Que nunca te falten ideas, ni ganas de probarlas.
A.
PD: Si este tema te interesa, aquí van algunos libros que ayudan a entender qué pasa cuando los sistemas fallan, los datos engañan y la tecnología amplifica errores:
How to Measure Anything: Una vacuna contra las decisiones “bien intencionadas” basadas en datos mal medidos. Ideal para entender por qué estimar sin rigor es una forma elegante de autoengañarse.
Weapons of Math Destruction: Cuando modelos opacos, datos pobres y sistemas mal gobernados escalan… los errores se vuelven sistémicos. Lectura clave para ver cómo la tecnología puede hacer daño sin mala intención.
El Cisne Negro: No va solo de eventos improbables, sino de sistemas frágiles que parecen sólidos hasta que fallan de forma catastrófica.
Accidentes Normales: Un clásico incómodo: en sistemas complejos, los fallos no son excepciones… son inevitables. Muy útil para pensar en IT, automatización y agentes operando a escala.
The Data Detective: Una guía práctica para detectar sesgos, malos datos y conclusiones precipitadas antes de que se conviertan en decisiones “oficiales”.
Caos: Para entender por qué pequeños errores iniciales —datos mal capturados, supuestos incorrectos— pueden desencadenar resultados imprevisibles en sistemas complejos.
Todos ellos apuntan a la misma idea de fondo: cuando automatizas sobre una base débil, no ganas eficiencia: ganas riesgo.


