El nuevo oráculo está en Silicon Valley
Diario de Innovación #338
Hay algo inquietante en cómo estamos empezando a usar la inteligencia artificial.
Y no tiene que ver con la tecnología.
Tiene que ver con nosotros.
Durante siglos, los humanos hemos buscado respuestas en lugares extraños.
Uno de los más famosos fue el Oráculo de Delfos.
La gente viajaba miles de kilómetros para hacer una pregunta.
Y recibía una respuesta.
El problema nunca fue el oráculo.
El problema era cómo se interpretaban sus palabras.
Hoy hemos construido algo sorprendentemente parecido.
No está en Grecia.
Está en nuestros navegadores.
En nuestras apps.
En nuestras decisiones del día a día.
Se llama inteligencia artificial.
Leia precisamente sobre este tema, la semana pasada, en un artículo de Carissa Veliz en The Economist.
Porque si lo piensas bien, lo que estamos haciendo no es tan distinto.
Le hacemos preguntas importantes.
Esperamos respuestas útiles.
Y, cuando suenan convincentes las tratamos como si fueran verdad.
Y aquí es donde empieza el problema.
No porque la IA “se equivoque”.
Eso es de esperar.
El problema es más sutil.
Más humano.
Más peligroso.
La IA habla bien.
Demasiado bien.
Responde rápido.
Estructura ideas.
Suena segura.
Y eso activa algo muy profundo en nosotros, la confianza ciega.
Pero como los buenos magos, la iA nos esconde el truco.
No entiende lo que dice.
No tiene criterio.
No tiene intención.
No sabe si una respuesta es correcta o no.
Solo predice la siguiente palabra.
Y lo hace muy bien.
Ahí nace la ilusión.
La ilusión de autoridad.
Y cuando aparece esa ilusión, pasan cosas.
Dejamos de cuestionar.
Delegamos el pensamiento.
Aceptamos respuestas sin validar.
Tomamos decisiones sin hacer el último esfuerzo mental.
No es un problema técnico.
Es un problema cognitivo.
Porque el mayor riesgo de esta tecnología no es que falle.
Es que dejemos de pensar.
Porque una decisión equivocada, tomada por una persona que confía demasiado en una respuesta bien escrita, escala.
Se replica.
Se automatiza.
Y se vuelve invisible.
Aquí es donde la comparación con el oráculo deja de ser una metáfora bonita.
Y se convierte en una advertencia.
No estamos construyendo máquinas que piensan.
Estamos construyendo sistemas que suenan como si pensaran.
Y eso, si no se entiende bien, es peligrosísimo.
La pregunta importante no es: ¿es la IA inteligente?
La pregunta es otra: ¿seguimos siéndolo nosotros cuando la usamos?
Porque el futuro no va a estar definido por los mejores modelos.
Va a estar definido por las personas que sepan usarlos sin dejar de pensar.
Y eso no se entrena con más prompts.
Se entrena con criterio.
Con duda.
Con fricción.
Usar IA bien no es delegar.
Es contrastar.
No es aceptar.
Es cuestionar.
Y puede que esa sea la habilidad más infravalorada ahora mismo.
Antes buscábamos respuestas en templos.
Hoy las buscamos en modelos.
La diferencia es que ahora parecen más precisas.
Pero el riesgo sigue siendo el mismo.
Interpretar mal.
Confiar demasiado.
Y dejar de pensar justo cuando más importa.
Y eso es lo que de verdad debería preocuparnos.
🌍 El eco del mercado
🧠 La IA ahora también “ve” y razona. OpenAI lanza una nueva generación de modelos capaces de generar imágenes coherentes, mantener narrativa visual y razonar sobre ellas. Esto ya no va de generar imágenes bonitas, sino de integrar visión en el stack cognitivo de la IA.
🏢 La IA sale del cloud (y entra en tu datacenter). Google empieza a desplegar Gemini en entornos on-premise, incluso air-gapped. La promesa: IA potente sin depender de la nube pública. El verdadero movimiento está en la soberanía: quien controle dónde corre la IA, controla su adopción.
🤝 Europa busca su propia IA (y se une). Cohere compra Aleph Alpha para construir una alternativa no estadounidense en IA. El movimiento responde más a política que a producto. Esto apunta a una fragmentación del mercado: bloques tecnológicos compitiendo, no solo empresas.
🌍 La IA deja de ser global. La narrativa de una IA sin fronteras se rompe: regulaciones, datos y arquitectura fuerzan modelos locales y soberanos. Esto no va de tecnología, va de control. Y cada país quiere el suyo.
📉 La factura de la IA empieza a pasar factura. Meta recorta miles de empleos mientras incrementa el gasto en IA. El mensaje es claro: eficiencia humana por compute. La IA no está creando empleo (todavía), está redistribuyendo poder dentro de las empresas.
🎭 La IA necesita humanizarse. Las empresas de IA están descubriendo que no basta con anuncios: necesitan contacto físico, eventos y comunidad para generar confianza. Señal débil: la credibilidad de la IA se construye fuera del producto.
🧩 La marca de tu empresa, también será una IA. Adobe lanza un sistema que aprende continuamente el estilo de una marca y lo automatiza. Más que automatización, esto va de encapsular identidad empresarial en modelos.
🛠️ La realidad de la IA generativa: aún necesita humanos. Las webs generadas por IA funcionan… pero requieren revisión manual para ser útiles. El hype sigue por delante de la ejecución. Y eso crea fricción real en adopción.
🇨🇳 La IA también es diplomacia. EE.UU. y China intensifican relaciones mientras avanzan modelos como DeepSeek V4. Tecnología y política cada vez más entrelazadas. Esto no es competencia tecnológica: es negociación geopolítica con IA como moneda.
🧠 Open Source vs Big Tech (round 2). Kimi K2.6, modelo open source chino, supera a GPT y Claude en programación. El verdadero riesgo para Big Tech no es otro modelo cerrado. Es el open.
🕵️♂️ La guerra invisible de la IA. EE.UU. acusa a empresas chinas de robar y destilar modelos de IA a gran escala. Esto apunta a un nuevo tipo de conflicto: copiar modelos como estrategia nacional.
🚫 Chips como arma geopolítica. EE.UU. endurece las restricciones para impedir que China acceda a tecnología clave de semiconductores. El cuello de botella de la IA no son los modelos. Son los chips.
Déjame recordarte que si te gusta la tecnología, el podcast de Código Abierto también puede ser una buena opción.
Si algo de lo que has leído te ha removido, dímelo.
Ya sabes que estoy al otro lado si quieres comentar, discrepar o simplemente saludar.
Que nunca te falten ideas, ni ganas de probarlas.
A.
PD: Si el tema de hoy ha resonado contigo, te dejo algunas lecturas que ayudan a construir ese “músculo crítico” que vamos a necesitar más que nunca:
Pensar Rápido, Pensar Despacio. Una radiografía brutal de cómo pensamos… y de todas las trampas mentales en las que caemos sin darnos cuenta.
Superforecasting. Cómo pensar mejor en entornos de incertidumbre. Spoiler: no va de tener razón, va de pensar en probabilidades.
The Alignment Problem. Un viaje fascinante por los límites de la IA y por qué alinear máquinas… empieza por entender a los humanos.
Ruido. Sobre cómo incluso cuando creemos que decidimos bien… el ruido lo cambia todo.
You Are Not So Smart. Ligero, directo y muy necesario para recordarnos que somos menos racionales de lo que creemos.


