La decisión más importante que nadie está discutiendo
Diario de Innovación #307
Hay momentos en la historia en los que una tecnología deja de ser solo ingeniería.
Y pasa a ser una decisión civilizatoria.
El ejemplo más famoso ocurrió en el desierto de Nuevo México, en 1945.
Un grupo de físicos acababa de comprobar que el Proyecto Manhattan funcionaba. La bomba nuclear era real. Y en ese instante, muchos de ellos entendieron algo inquietante: el siguiente problema ya no era científico.
El problema era político.
Habían demostrado que algo era posible. Pero ninguno de los allí presentes sabía qué haría el mundo con su creación.
Algo parecido está empezando a ocurrir ahora con la inteligencia artificial.
Hace unas semanas, Jared Kaplan —científico jefe de Anthropic— ha planteado en una entrevista lo que quizá sea la pregunta más importante de toda la era de la IA:
¿Deberíamos permitir que las inteligencias artificiales empiecen a entrenar a la siguiente generación de inteligencias artificiales?
Es decir, que se mejoren a sí mismas.
El concepto tiene un nombre técnico: recursive self-improvement.
La idea es simple de explicar.
Imagina que construyes una IA tan inteligente como un investigador humano. Esa IA podría ayudar a diseñar otra más inteligente. Y esa otra, otra aún mejor.
Un proceso iterativo en el que la propia tecnología acelera su evolución.
Kaplan lo describe con bastante claridad:
Una IA que está al nivel humano podría diseñar otra mucho más inteligente.
Y esa, a su vez, la siguiente.
El resultado potencial es lo que muchos investigadores llaman una explosión de inteligencia.
Pero también es el punto en el que aparece la pregunta incómoda.
¿Qué ocurre cuando el proceso ya no depende de nosotros?
Kaplan lo dice sin rodeos: “permitir que la IA entrene a la siguiente generación de IA podría ser la decisión más arriesgada que tomemos nunca.”
Lo interesante es que este debate no está ocurriendo dentro de cien años. Está ocurriendo ahora. Kaplan cree que esta decisión podría llegar entre 2027 y 2030.
Y aquí aparece la paradoja más curiosa de toda esta historia.
Nadie quiere correr el riesgo.
Pero nadie quiere quedarse atrás.
Porque mientras se discuten los riesgos, hay una carrera global en marcha. Todos conocemos a los sospechosos habituales: OpenAI, Anthropic, DeepMind, xAI… o empresas chinas como DeepSeek.
Todas compiten por mantenerse en la frontera tecnológica.
Y en ese contexto, la prudencia tiene un problema.
Si tú decides no avanzar, alguien más lo hará.
Este tipo de dinámicas no son nuevas en la historia.
Ocurrió con las armas nucleares.
Ocurrió con la carrera espacial.
Y probablemente ocurrirá con la inteligencia artificial.
Pero hay algo que hace que este caso sea diferente.
El estado del arte actual de la IA, la mantiene como una herramienta. Un asistente. Un sistema que ejecuta tareas.
Lo que está empezando a discutirse ahora es otra cosa. IA que diseña nuevas IA. IA que optimiza su propio entrenamiento. IA que automatiza la investigación científica y tecnológica.
Es un salto cualitativo enorme. No estamos hablando solo de automatizar trabajo. Estamos hablando de automatizar el propio progreso tecnológico.
Lo curioso es que, a pesar de todo el ruido mediático sobre modelos cada vez más grandes, el verdadero cuello de botella quizá no sea técnico. Es institucional.
Mientras la capacidades de la tecnología avanzan exponencialmente. Las instituciones solo avanzan linealmente.
Kaplan reconoce algo muy revelador en la entrevista.
El ritmo de progreso es tan rápido que la sociedad apenas tiene tiempo para entender lo que está ocurriendo antes de que llegue la siguiente ola tecnológica.
Y eso nos deja en una situación bastante peculiar.
Por un lado, los investigadores ven venir escenarios muy potentes.
Por ejemplo, Kaplan cree que en apenas dos o tres años la IA podría realizar la mayor parte del trabajo intelectual de oficina. Redactar informes, programar software, analizar datos o preparar presentaciones.
Por otro lado, nuestras instituciones —educación, regulación, empresas— todavía están intentando entender qué hacer con ChatGPT en la vida real.
Hay un desfase evidente.
Y ese desfase es el que convierte este momento en algo tan extraño.
Porque la gran decisión de esta década no será cuántos modelos construimos.
Será si decidimos liberar procesos que evolucionen sin nosotros.
Kaplan lo plantea de forma bastante honesta. Tal vez todo esto sea exagerado. Tal vez los modelos se estanquen. Tal vez el progreso se ralentice.
Pero si eso no ocurre, entonces nos acercamos a un punto en el que la inteligencia artificial dejará de ser solo una herramienta poderosa. Y pasará a ser algo mucho más extraño.
Una tecnología capaz de acelerar su propia evolución. Quizá por eso la comparación con el Proyecto Manhattan no resulta tan exagerada.
En ambos casos, un grupo reducido de científicos abrió una puerta tecnológica que podía transformar el mundo.
La diferencia es que esta vez no estamos hablando de una nueva arma. Estamos hablando de algo más abstracto. Más difícil de visualizar. Pero potencialmente más profundo.
Una inteligencia capaz de diseñar inteligencias mejores que nosotros.
Y la pregunta que empieza a aparecer en el horizonte no es si podremos hacerlo.
La pregunta es si, llegado el momento, decidiremos hacerlo.
Y si lo hacemos, si sabremos gobernar lo que venga después.
Optimismo prudente.
Quizá esa sea la única postura razonable.
Porque la historia nos enseña algo curioso sobre el progreso tecnológico. Casi nunca ocurre exactamente como lo imaginamos. Pero casi siempre ocurre más rápido de lo que pensamos.
🌍 El eco del mercado
🪖 IA en la OTAN: OpenAI mira al sector militar y entra definitivamente en la arquitectura de defensa occidental. Si los modelos ya escriben código, analizan inteligencia y sintetizan información estratégica, el siguiente paso era inevitable: contratos clasificados. Las fronteras entre Big Tech y seguridad nacional siguen difuminándose.
👁️ La IA que programa también empieza a hablar. La interfaz del desarrollo está cambiando. Si los copilotos ya escriben código, el siguiente paso es interactuar con ellos como si fueran un compañero de equipo. Anthropic apuesta por la voz como interfaz natural para programar.
🏗️ Las empresas quieren IA… pero no están listas. La adopción tecnológica va por delante de la arquitectura empresarial. Las compañías demandan herramientas de IA, pero muchas carecen de infraestructura, gobierno del dato o procesos preparados para absorberla. La brecha ya no es técnica: es organizativa.
👁️ La IA deja de responder preguntas y empieza a ejecutar tareas. Google convierte Gemini en un agente móvil capaz de pedir comida, reservar servicios o interactuar con apps. El smartphone empieza a transformarse en una plataforma de agentes.
🧑💻 OpenAI quiere competir con GitHub. La guerra del desarrollo entra en una nueva fase. Si el código lo escriben cada vez más las máquinas, controlar la plataforma donde se crea, comparte y ejecuta ese código se vuelve estratégico. GitHub podría tener pronto un nuevo rival.
📊 Accenture compra Speedtest y Downdetector. Los datos sobre el estado de Internet también son un negocio. Las herramientas que miden la salud de la red pasan a manos de una gran consultora global. Controlar la visibilidad de la infraestructura digital es poder.
💾 Discos de 44TB: el almacenamiento sigue creciendo. La economía de la IA también depende del almacenamiento. Con modelos, datos y logs multiplicándose, la densidad de almacenamiento se vuelve crítica para los centros de datos del futuro.
📚 El dúo Gemini + NotebookLM potencia la investigación. Las herramientas de conocimiento empiezan a trabajar en equipo. Combinar chatbots con sistemas de notas estructuradas está creando nuevas formas de investigar, escribir y sintetizar información.
🇨🇳 China acelera la carrera de IA y robots humanoides. La política industrial china se orienta claramente hacia la IA y la robótica. Ejecutivos tecnológicos presionan para acelerar la adopción de agentes inteligentes y robots humanoides como nueva base industrial.
🎓 Jack Ma reflexiona sobre educación en la era de la IA. La revolución tecnológica también exige una revolución educativa. El fundador de Alibaba advierte de que el impacto de la IA será profundo, pero también abre oportunidades para nuevas generaciones capaces de adaptarse.
🔐 TikTok rechaza cifrar mensajes privados. La privacidad vuelve a enfrentarse con la seguridad. TikTok afirma que el cifrado extremo a extremo podría dificultar la moderación y aumentar riesgos para usuarios. El debate clásico reaparece en una nueva plataforma.
🛰️ Anduril apunta a una valoración de $ 60 Bn. La defensa tecnológica vive un nuevo boom inversor. La startup fundada por Palmer Luckey se consolida como uno de los grandes actores del complejo militar-industrial basado en software.
🛏️ Eight Sleep levanta 50 millones de dólares. El hardware conectado sigue captando capital. La empresa de colchones inteligentes apuesta por nuevos productos, expansión global y validación clínica de sus tecnologías de sueño.
🩺 ¿Deberías preguntarle a una IA por tu salud? La medicina conversacional está llegando… con riesgos. Cada vez más usuarios comparten datos médicos con chatbots, lo que abre nuevas oportunidades diagnósticas pero también dudas sobre privacidad y fiabilidad.
Déjame recordarte que si te gusta la tecnología, el podcast de Código Abierto también puede ser una buena opción.
Si algo de lo que has leído te ha removido, dímelo.
Ya sabes que estoy al otro lado si quieres comentar, discrepar o simplemente saludar.
Que nunca te falten ideas, ni ganas de probarlas.
A.
PD. Si te interesa la filosofía del progreso tecnológico, estos cuatro libros ayudan mucho a pensar sobre estas cuestiones:
• El Comienzo del Infinito — David Deutsch
• What Technology Wants — Kevin Kelly
• La Ola que Viene — Mustafa Suleyman
• Vida 3.0 — MaxTegmark
Cuatro formas distintas de abordar la misma pregunta: qué ocurre cuando las tecnologías empiezan a transformar las reglas del juego de la civilización.


