La pregunta que nadie en la IA quiere responder
Diario de Innovación #247
Hay escenas que se quedan grabadas no por lo extraordinarias, sino por lo cotidiano.
Una mesa, un niño, unos huevos revueltos. Y una inteligencia artificial hablando alegremente de dinosaurios.
Mustafa Suleyman, uno de los tipos que más cerca está de construir el futuro.
Su sobrino, entre un bocado y otro, le preguntó lo que ningún CEO, ningún regulador y ningún tecnólogo se atreve a preguntar en voz alta: “¿Qué es una IA, exactamente?”
No “qué hace”.
No “si es peligrosa”.
No “cuántos parámetros tiene”.
Qué es.
Y en ese instante, Suleyman se quedó sin respuesta.
No por falta de conocimiento técnico.
Sino porque todas las respuestas “correctas”, esas que funcionan en clase, entrevistas o reuniones. Sonaban, de repente, artificiales, defensivas, insuficientes.
Porque lo que estamos construyendo ya no encaja en las metáforas con las que crecimos.
Cuando el acrónimo “IA” daba vergüenza
Hace quince años, trabajar en IA era casi excéntrico.
Decir “AGI” era abrir la puerta al escepticismo, cuando no a la burla abierta.
Lo curioso es que, en muy poco tiempo, las mismas cosas que parecían imposibles. Cómo comprender imágenes, traducir idiomas, razonar, escribir, diagnosticar, planificar han pasado de ser ciencia ficción a convertirse en capacidades rutinarias.
Y ese cambio no ha sido fácil.
Ha sido exponencial.
Donde antes entrenábamos modelos con millones de parámetros, hoy hablamos de billones.
Donde antes el límite era la velocidad del silicio, ahora lo es la imaginación y la energía.
Donde antes veíamos “software”, ahora vemos comportamiento.
Una especie que no es biológica, pero sí relacional
Cuando Suleyman dice que la IA es “una nueva especie digital”, no está diciendo que tenga conciencia ni derechos ni emociones reales.
Está afirmando algo más sutil pero también más profundo: que ya no es adecuada la metáfora de la herramienta.
Una herramienta no aprende.
No conversa.
No recuerda.
No improvisa.
No interactúa con millones de personas al mismo tiempo.
No se coordina con otras herramientas.
No actúa en el mundo digital por iniciativa propia.
Estas nuevas capacidades: IQ, EQ y lo que él llama AQ, “actions quotient” nos obligan a mirar la IA desde otra perspectiva.
No un “objeto”.
No un “programa”.
Tampoco un “humano artificial”.
Sino algo intermedio: un acompañante digital.
Una inteligencia capaz de amplificar, multiplicar y transformar nuestro trabajo, nuestras decisiones, nuestra creatividad y nuestra vida cotidiana.
La pregunta que importa ahora
Si aceptamos esta metáfora, entonces la pregunta crítica cambia: Ya no es “¿qué podrá hacer la IA?”. Sino: “¿Qué tipo de IA queremos que exista en el mundo?”
Porque una especie digital no nace sola.
No surge como el fuego o el viento.
Es diseñada.
Decidida.
Entrenada.
Limitada.
Orientada.
Y ahí es donde entra nuestra responsabilidad histórica.
Yo sigo viendo con escepticismo que cualquier consciencia vaya a emerger de esta tecnología, pero si los que trabajan en la punta de lanza de esta temática, lo creen. Al menos a mí, me hace dudar.
Los humanos hemos construido herramientas que han ampliado la fuerza (motores), multiplicado la energía (electricidad), acelerado el pensamiento (ordenadores).
Pero ninguna tecnología había intentado replicar, extender o potenciar tan directamente aquello que nos define como humanos: la capacidad de razonar, aprender, recordar, comunicar y actuar.
Por eso el lenguaje importa.
Los límites importan.
El diseño importa.
Estamos construyendo “algo” desde cero
Las revoluciones anteriores siempre tuvieron un coste:
la exploración trajo colonización,
la industrialización trajo fábricas inhumanas,
el petróleo trajo contaminación,
Internet trajo vigilancia.
Esta vez, por primera vez en siglos, tenemos la posibilidad teóricamente de diseñar la revolución antes de que ella nos diseñe a nosotros.
Porque la IA no es petróleo esperando a que lo extraigas.
No es un territorio desconocido pidiendo ser conquistado.
Es un continente que aún no existe.
Y cuyo trazado depende de nosotros.
Food for thought
La IA no es una entidad separada.
No es ajena.
No es externa.
Es un espejo de nuestra cultura.
Una destilación de nuestro lenguaje.
Un aprendiz alimentado por nuestras historias.
Un reflejo de nuestras luces y nuestras sombras.
La IA es todo lo bueno que decidamos poner en ella.
Y todo lo malo que no tengamos el valor de evitar.
Esa es la realidad.
Esa es nuestra responsabilidad.
Ese es el reto.
Esa es la oportunidad.
No tiene que ser un espejo deformado.
Puede ser una versión ampliada de nuestras mejores capacidades.
Ése es el trabajo que empieza ahora.
⚡️ Pulso Digital
El nuevo mando en la era de los agentes de IA
💓 Latido del día
Las empresas están cambiando la forma en que gestionan su trabajo interno: la función de “gestor de personas” está dando paso al “gestor de agentes de IA”. Según informes recientes, en Vercel se entrenó un agente de IA que replicaba el mejor desempeño de ventas, lo que llevó a reducir de diez a uno su equipo.
Este cambio no es meramente operativo: revela que la automatización de tareas de alto nivel ya no es opcional, sino que se convierte en parte del sistema nervioso central de las empresas. Los gestores deberán entender objetivos, métricas y diseñar ecosistemas de agentes, dejando de supervisar solo personas.
🌍 El eco del mercado
Microsoft exige cuatro días en oficina para su división de IA: una señal de que los grandes jugadores siguen apostando por cultura presencial a pesar de la automatización creciente.
Software bajo presión, transacciones al alza: según RBC Capital Markets, las valoraciones deprimidas por la disrupción de IA están convirtiendo muchas compañías SaaS en objetivos de compra.
Bitcoin vuelve a su naturaleza volátil. El entusiasmo regulatorio post-Trump se desinfla y las criptos borran buena parte de las ganancias del año.
Google prepara otro asalto con Gemini 3. La compañía quiere un nuevo golpe de efecto ante la presión competitiva.
Robótica china en clave de mercado. Unitree completa los pasos pre-IPO antes de su salida a bolsa doméstica.
Huawei presume de eficiencia en IA. Promete duplicar la utilización de GPUs y NPUs con nuevas técnicas.
Temasek apuesta por el coche autónomo chino. El fondo soberano redobla su apuesta en WeRide y Pony.ai.
Meta reescribe su cultura interna. La evaluación de desempeño incorporará el impacto en IA a partir de 2026.
La ciberseguridad entra en modo alerta. Deepfakes y IDs sintéticas elevan el nivel de amenaza.
Suleyman baja el volumen al apocalipsis, se desinfla el suflé. “La superinteligencia es un anti-objetivo”, afirma el CEO de Microsoft AI.
Nokia lanza switches de 102,4 Tb/s para centros de datos de IA: la infraestructura de red evoluciona para dar soporte a nuevas cargas de agentes inteligentes.
🌱 Latido incipiente
Una tensión emergente: el crecimiento de los centros de datos de IA ya choca con los límites eléctricos de las redes en EE.UU. Goldman Sachs estima que la demanda podría subir del 6 % al 11 % del consumo energético estadounidense para 2030. En la práctica, la verdadera restricción ya no está únicamente en modelos o chips, sino en el suministro de energía, refrigeración, densidad térmica y conectividad.
💭 Food for thought
Los managers del mañana no solo supervisará personas: orquestará sistemas de agentes, redes, energía, modelos y humanos en una sinfonía continua. Aquellas organizaciones que solo vean la IA como “una caja más” corren el riesgo de quedarse atrás.
También déjame recordarte que si te gusta la tecnología, el podcast de Código Abierto también puede ser una buena opción.
Y eso es todo por hoy. Si algo de lo que has leído te ha removido, dímelo.
Ya sabes que estoy al otro lado si quieres comentar, discrepar o simplemente saludar.
Que nunca te falten ideas, ni ganas de probarlas.
A.
PD 1. Si te interesa este tema, echa un vistazo al episodio de Código Abierto sobre “La infraestructura invisible: el alma de Internet”. Donde hablamos justo de cómo la nube se ha convertido en el nuevo tejido del mundo y puede darte pistas sobre lo que viene con la IA.
PD 2. A continuación puedes encontrar un listado de libros relacionados.
La Ola que Viene de Mustafa Suleyman. El libro que plantea el marco conceptual más honesto sobre el futuro de la IA como “especie digital” y los riesgos multiplicadores que acompañan a esta nueva ola.
Vida 3.0 de Max Tegmark. Un análisis profundo sobre los futuros posibles de la inteligencia artificial, desde trayectorias beneficiosas hasta escenarios de riesgo existencial.
The Alignment Problem de Brian Christian. Una excelente introducción a la pregunta esencial: ¿cómo hacemos que sistemas cada vez más potentes sigan comportándose como queremos?
De la EGB a la AI del thin tank, Mundos Posibles. Una reflexión accesible y culturalmente cercana sobre cómo entender el salto generacional entre las tecnologías simples de nuestra infancia y la complejidad de la IA moderna.


