El orden importa más que el destino
Diario de Innovación #284
Durante años hemos repetido la misma pregunta: ¿Cuándo llegará la AGI?
Timelines. Porcentajes. Fechas aproximadas.
Como si el futuro fuera una estación a la que llegaremos todos en el mismo tren.
Pero hay una pregunta más incómoda y probablemente más importante que solemos evitar: ¿A qué mundo llegará la AGI?
Porque los avances no aterrizan en el vacío.
Llega a un mundo con instituciones, incentivos, desigualdades, formas de decidir y de coordinarse.
Y ese mundo puede ser radicalmente distinto dependiendo de qué transformaciones hayan ocurrido antes.
Las primeras transformaciones no son menores
Solemos pensar en la historia de la IA como una pendiente suave y luego un muro vertical.
Nada relevante pasa.
Nada cambia demasiado.
Hasta que boom, llegó la inteligencia artificial general.
El problema es que la historia tecnológica casi nunca funciona así.
Antes de los grandes saltos siempre hay cambios más silenciosos que:
redistribuyen poder
normalizan nuevas prácticas
alteran lo que la sociedad considera aceptable, inevitable o imposible
Las primeras transformaciones no son anecdóticas.
Son las que definen el terreno en el que se juegan las siguientes.
El riesgo del mundo “casi igual”
Hay un escenario mental muy cómodo: el mundo permanece más o menos estable, hasta que aparece algo demasiado potente para gestionarlo.
Ese escenario tiene un nombre implícito: todo sigue igual hasta que deja de hacerlo.
Pero si eso ocurre, llegamos a la AGI con:
instituciones diseñadas para otro ritmo
marcos legales obsoletos
escasa experiencia gestionando sistemas autónomos
una sociedad poco preparada para cambios bruscos
No es un buen punto de partida.
Antes que agentes, infraestructura
Puede que el primer gran impacto transformador de la IA no sea un agente superinteligente.
Puede que sea algo mucho menos visible:
sistemas que deciden qué información vemos
herramientas que estructuran cómo deliberamos
infraestructuras que condicionan cómo coordinamos acciones colectivas
No como “herramientas” puntuales.
No como “agentes” con objetivos propios.
Sino como infraestructura cognitiva.
Silenciosa.
Omnipresente.
Difícil de cuestionar una vez integrada.
El verdadero cambio es epistémico
Una sociedad no colapsa por falta de inteligencia.
Colapsa por malos mapas de la realidad.
La IA puede:
reducir errores estratégicos graves
mejorar la coordinación a gran escala
hacer visibles problemas que hoy no sabemos ni formular
Pero también puede:
amplificar desinformación personalizada
erosionar la confianza compartida
sustituir deliberación por optimización opaca
El impacto no depende solo del modelo.
Depende del ecosistema en el que se integra.
No todos los cambios son iguales
Hablar de “acelerar la IA” como si fuera una sola cosa es una simplificación peligrosa.
Acelerar:
autonomía sin gobernanza
eficiencia sin legitimidad
poder sin contrapesos
no produce el mismo mundo que acelerar:
coordinación
capacidad institucional
comprensión colectiva de sistemas complejos
El orden importa.
Y elegir no intervenir también es una forma de elección.
Las transiciones son los únicos momentos donde aún se puede influir
Una vez que un sistema se estabiliza:
aparecen inercias
se consolidan intereses
el margen de maniobra se reduce
Las transiciones, en cambio, son caóticas.
Pero también son los únicos momentos donde todavía se puede decidir cómo cae la ficha.
Trabajar en fases tempranas no es glamuroso.
No tiene titulares espectaculares.
Pero es donde la influencia es real.
Llegar a la AGI sin haber aprendido a gobernar la IA es una mala idea
Si hoy:
no sabemos integrar sistemas complejos sin concentración extrema de poder
no conseguimos mantener legitimidad institucional
no gestionamos bien tecnologías mucho menos potentes
¿por qué asumimos que lo haremos mejor cuando los sistemas sean más autónomos, rápidos y opacos?
La preparación no empieza en la AGI.
Empieza antes, en cómo gestionamos lo que ya tenemos.
El cuello de botella no es técnico
No es computación.
No es talento.
No es el modelo de turno.
El cuello de botella es otro: cómo decidimos colectivamente qué acelerar, qué frenar y bajo qué condiciones.
Y esa decisión no es neutra.
Ni delegable sin coste.
Food for thought
Tal vez el mayor error no sea subestimar la AGI.
Sino sobreestimar nuestra capacidad de improvisar cuando llegue.
El futuro no depende solo de a dónde vamos,
sino del orden en el que aprendemos a llegar.
Y el orden… todavía está en disputa.
🌍 El eco del mercado
🧠 Anthropic prepara una ronda de 20.000 millones de dólares. La carrera por el compute y los modelos fundacionales entra en una fase de capital extremo: menos actores, más dependencia estructural.
🧪 OpenAI lanza Prism, su workspace de IA para científicos. La IA deja de ser asistente y empieza a integrarse en los flujos formales de producción científica.
⚛️ Microsoft libera herramientas open source para computación cuántica. Antes de que llegue el hardware, se construye el ecosistema: SDKs, comunidad y estándares abiertos.
🏗️ Meta invierte millones en mejorar la imagen pública de los data centers. La infraestructura digital ya no se discute solo en términos técnicos, sino políticos y sociales.
🌐 Bluesky adelanta su hoja de ruta para 2026. Las redes descentralizadas empiezan a tomarse en serio la escala, el descubrimiento y el tiempo real.
🧩 Sigue la historia interminable del compute. China autoriza la importación de las GPUs Nvidia H200. El acceso al compute se convierte en moneda geopolítica: apertura controlada, no libre mercado.
⚖️ Rechazo masivo al plan del Reino Unido sobre copyright e IA. La regulación de la IA tropieza cuando ignora a creadores, usuarios y consenso social.
🏛️ ¿Se puede demandar a la Casa Blanca por un deepfake generado con IA?. En estos tiempos extraños que vivimos, la desinformación sintética orquestada por políticos y organismos oficiales empuja al sistema legal a territorios aún sin mapas.
🎯 Campaña masiva de robo de identidad dirigida a Okta y el SSO. La identidad digital se consolida como el punto único de fallo más crítico.
🔋 Google entra en Redwood Materials para alimentar data centers con energía reciclada. IA, sostenibilidad y energía empiezan a cruzarse en el mismo tablero estratégico.
Déjame recordarte que si te gusta la tecnología, el podcast de Código Abierto también puede ser una buena opción.
Si algo de lo que has leído te ha removido, dímelo.
Ya sabes que estoy al otro lado si quieres comentar, discrepar o simplemente saludar.
Que nunca te falten ideas, ni ganas de probarlas.
A.
Si este tema te ha dejado pensando, estos libros ayudan a ordenar ideas:
PD1: Seeing Like a State de James C. Scott. Un clásico sobre cómo los sistemas “que simplifican para gobernar” terminan rompiendo la realidad. Lectura clave para pensar en mapas, modelos y decisiones automatizadas.
PD2: The Power Broker de Robert A. Caro. No es sobre tecnología, pero sí sobre algo central: cómo el poder real se construye a través de infraestructuras invisibles. Cambia la forma de leer cualquier debate tecnológico.
PD3: Human Compatible de Stuart Russell. Más allá del alarmismo: una reflexión seria sobre control, incentivos y por qué el problema no es la inteligencia, sino los objetivos y el contexto.
PD4: The Revolt of the Public de Martin Gurri. Para entender cómo la crisis de legitimidad institucional precede a la crisis tecnológica. Muy útil para pensar en qué tipo de mundo recibe a la IA.
PD5: Superforecasting de Philip Tetlock de Dan Gardner. Una mirada práctica a cómo mejorar el juicio humano en entornos complejos. Epistémica aplicada, no teoría abstracta.


