Cuando la inteligencia se vuelve abundante
Diario de Innovación #311
Hace poco escuché una entrevista a Demis Hassabis, CEO de Google DeepMind.
Ya he hablado de Demis, en mi humilde opinión, una de las mentes más preclaras en lo que al desarrollo de la IA se refiere.
Es uno de esos científicos que hablan con una mezcla curiosa de calma y ambición. Como si lo que estuvieran construyendo fuera gigantesco pero al mismo tiempo inevitable.
Durante la conversación, surgió la siguiente pregunta:
¿Se está frenando el progreso de la inteligencia artificial?
Hace un año esa duda estaba en todas partes.
Había quien decía que los modelos de lenguaje estaban tocando techo.
Hassabis respondió algo interesante.
Según él, el progreso nunca estuvo en duda.
Lo que ocurre es que mucha gente mira la inteligencia artificial como si fuera un producto.
Un chatbot.
Un asistente.
Una herramienta de programación.
Pero en realidad —dice— estamos construyendo algo mucho más profundo.
Estamos construyendo una nueva infraestructura científica.
Puede que en el cambio de enfoque, esté la respuesta para mantener la velocidad de crucero.
Es fácil olvidar que la historia de DeepMind empezó mucho antes de ChatGPT.
Mucho antes incluso de los modelos de lenguaje.
El proyecto original de Hassabis tenía una idea mucho más ambiciosa: construir sistemas capaces de entender el mundo.
¿Te suena?, ahora gran parte de la industria apunta por ahí.
Primero llegaron los experimentos con videojuegos.
Después AlphaGo.
Luego AlphaZero.
Y finalmente AlphaFold.
Cada uno de estos sistemas resolvía un tipo distinto de problema. Pero todos compartían la misma intuición: si consigues que una máquina aprenda los patrones profundos de un sistema, puede descubrir soluciones que los humanos no habíamos imaginado.
El caso más espectacular fue AlphaFold.
Durante décadas, uno de los grandes problemas de la biología era entender cómo se pliegan las proteínas.
La estructura tridimensional de una proteína determina su función.
Pero calcular esa forma a partir de la secuencia genética era extremadamente difícil.
Los científicos llevaban 50 años intentando resolverlo.
AlphaFold lo hizo en pocos meses.
Hoy existen más de 200 millones de estructuras proteicas predichas por IA disponibles para la comunidad científica.
Esto no es un producto. Es infraestructura para la ciencia.
Como lo fue el telescopio.
Como lo fue el microscopio.
El verdadero objetivo: modelos del mundo
Si escuchas a Hassabis hablar sobre el futuro de la IA, hay un concepto que aparece constantemente.
Los modelos del mundo.
Los modelos actuales —especialmente los LLM— son extraordinarios para trabajar con lenguaje.
Pero el lenguaje es solo una representación indirecta de la realidad.
El siguiente paso consiste en construir sistemas capaces de entender cómo funciona el mundo físico.
Causalidad.
Dinámica.
Relaciones espaciales.
Evolución temporal.
Por eso los investigadores están tan interesados en los modelos de vídeo.
A primera vista parece una simple evolución estética: pasar de generar imágenes a generar vídeo.
Pero en realidad es algo mucho más profundo.
Un modelo que puede predecir cómo evoluciona una escena en el tiempo empieza a construir una representación implícita de la física del mundo.
Empieza a entender cosas como: si sueltas un objeto, caerá. Si empujas una mesa, se moverá. Si mezclas dos líquidos, reaccionarán.
Ese tipo de conocimiento es trivial para los humanos.
Pero extremadamente difícil para las máquinas.
Esto se conoce como la paradoja de Moravec.
Las cosas que para nosotros son intuitivas —percibir, moverse, entender el entorno— son justamente las más difíciles de automatizar.
Y sin embargo, son las que permiten construir inteligencia general.
Los LLM no son el final
Hassabis también deja claro algo que a menudo se pierde en el entusiasmo actual.
Los modelos de lenguaje no son el destino final. Son una pieza del puzzle.
Los sistemas que probablemente conduzcan a la AGI serán arquitecturas híbridas.
Redes neuronales profundas para aprender patrones.
Sistemas simbólicos para representar conocimiento.
Y algoritmos de búsqueda —como Monte Carlo Tree Search— para explorar soluciones posibles.
Es una combinación que DeepMind ya ha usado en el pasado.
AlphaGo no era solo una red neuronal.
Era un sistema que combinaba aprendizaje profundo con búsqueda estratégica.
Ese tipo de arquitectura permite algo que los LLM todavía no hacen bien: planificación a largo plazo.
Resolver problemas complejos que requieren miles de pasos.
Algo muy parecido a lo que hacemos los humanos cuando diseñamos un experimento científico.
Cuando la inteligencia se vuelve abundante
Aquí es donde la conversación da un giro interesante.
Durante siglos, la inteligencia ha sido uno de los recursos más escasos del planeta.
Por eso construimos universidades.
Por eso financiamos laboratorios.
Por eso premiamos el talento científico.
Pero si la inteligencia artificial sigue avanzando al ritmo actual, podríamos entrar en un mundo donde la inteligencia sea abundante.
Y entonces el problema ya no será técnico.
Será humano.
¿Qué descubrimientos decidimos perseguir?
¿Qué riesgos estamos dispuestos a asumir?
¿Qué problemas queremos resolver primero?
Este tipo de preguntas ya aparecieron en el siglo XX.
Cuando los físicos desarrollaron la energía nuclear, muchos de ellos se dieron cuenta de que el desafío ya no era científico.
Era político.
Ahora podríamos estar entrando en un momento parecido.
Solo que esta vez la tecnología no afecta solo a la energía.
Afecta a todo el conocimiento humano.
La ciencia a velocidad AlphaZero
El ejemplo que más entusiasma a Hassabis es AlphaFold.
Pero para él, esto es solo el principio.
La visión a largo plazo es construir sistemas capaces de explorar el espacio de las leyes físicas y químicas de la misma manera que AlphaZero exploraba el ajedrez.
Imagina un sistema capaz de: descubrir nuevos superconductores, diseñar catalizadores para capturar CO₂ o crear materiales completamente nuevos.
No porque alguien los programe explícitamente.
Sino porque el sistema explora el espacio de soluciones posibles.
Eso convertiría a la inteligencia artificial en algo completamente distinto.
No sería solo una herramienta.
Sería un motor de descubrimiento científico.
Y entonces aparece la pregunta incómoda
Si la inteligencia se vuelve abundante, ¿qué pasa con el papel de los humanos?
Hassabis cree que seguiremos valorando el esfuerzo humano.
Algo parecido ocurrió con el ajedrez.
Cuando Deep Blue derrotó a Kasparov, mucha gente pensó que el ajedrez perdería interés.
Pero ocurrió lo contrario.
El ajedrez humano sigue siendo fascinante.
Porque admiramos la creatividad, la intuición y el talento.
Aunque sepamos que una máquina juega mejor.
Quizá ocurra algo parecido con muchas otras disciplinas.
Diseño.
Arte.
Ingeniería.
La IA ampliará las posibilidades.
Pero seguiremos admirando el talento humano.
Food for thought
Entonces, si la inteligencia artificial termina ayudándonos a resolver problemas científicos fundamentales. El siguiente desafío no será tecnológico. ¿Será filosófico?
Durante siglos hemos definido el progreso humano en términos de conocimiento y trabajo.
Pero si las máquinas empiezan a producir conocimiento a gran escala y el trabajo intelectual deja de ser escaso, entonces tendremos que redefinir muchas cosas.
El valor.
El propósito.
La creatividad.
Quizá por eso Hassabis dice que el mundo necesitará nuevos filósofos.
Porque cuando la inteligencia deja de ser el recurso escaso, las preguntas verdaderamente difíciles ya no son científicas.
Son humanas.
🌍 El eco del mercado
🔐 OpenAI quiere que la seguridad de la IA sea parte del desarrollo, no un parche posterior. La compañía ha presentado Codex Security, una herramienta diseñada para detectar vulnerabilidades complejas en código generado por inteligencia artificial. A medida que los modelos empiezan a escribir software en producción, la seguridad ya no puede depender solo de revisiones humanas: necesita automatizarse al mismo ritmo que la generación de código.
🧪 OpenAI compra Promptfoo para reforzar la seguridad de los agentes de IA. OpenAI ha anunciado la adquisición de Promptfoo, una plataforma que permite evaluar y detectar vulnerabilidades en sistemas de IA durante el desarrollo. La tecnología se integrará en OpenAI Frontier, la plataforma con la que la empresa quiere construir “compañeros de trabajo” basados en IA. La señal es clara: si los agentes van a ejecutar tareas reales, la seguridad de prompts, modelos y workflows se convertirá en una disciplina propia.
🧑💻 Anthropic quiere revisar el código que escriben las IA antes de que llegue a producción. La compañía ha lanzado una herramienta de revisión automática de código generado por IA orientada a empresas. A medida que el desarrollo asistido por modelos se vuelve masivo, empiezan a aparecer nuevas herramientas para auditar, corregir y gobernar ese código.
🤖 China quiere democratizar los agentes de IA… bajando el precio. Gigantes tecnológicos chinos están ofreciendo acceso barato a agentes OpenClaw, una arquitectura de agentes autónomos que está ganando popularidad en el ecosistema de IA. La estrategia es clara: si el software del futuro está hecho de agentes, el acceso barato a la infraestructura puede convertirse en ventaja estratégica.
⚡ Nvidia no quiere quedarse fuera de la carrera de los agentes. La compañía estaría desarrollando su propia plataforma inspirada en OpenClaw, orientada a crear sistemas de IA capaces de ejecutar tareas complejas. El movimiento refleja cómo los fabricantes de hardware quieren posicionarse también en la capa de software que coordinará a los agentes.
📉 ¿Y si la burbuja de la IA estalla? Algunos analistas empiezan a plantear ese escenario. Pero incluso si el hype se enfría, muchas empresas ya están encontrando valor real en automatización, análisis de datos y generación de software. La historia tecnológica sugiere que las burbujas pasan… pero la infraestructura que dejan suele quedarse.
⚛️ La computación cuántica empieza a acercarse a los mercados financieros. La startup francesa Pasqal planea salir a bolsa mediante un SPAC valorado en unos 2.000 millones de dólares. La operación refleja el creciente interés por la computación cuántica como infraestructura estratégica de la próxima década.
🌏 La IA también sirve para mirar al pasado. Investigadores han utilizado modelos de inteligencia artificial para reconstruir desastres naturales ocurridos en la China antigua, combinando datos históricos, geológicos y climáticos. Un ejemplo interesante de cómo la IA puede ayudar a reinterpretar registros históricos complejos.
📰 El periodismo se enfrenta a su próximo gran cambio. La expansión de la inteligencia artificial está obligando a medios y periodistas a replantearse su papel. Si las máquinas pueden generar contenido, el valor diferencial del periodismo podría desplazarse hacia verificación, análisis y credibilidad.
🎭 Los deepfakes empiezan a convertirse en una amenaza real. La proliferación de contenido manipulado mediante IA está generando preocupación entre expertos en seguridad digital. El problema no es solo técnico: también afecta a la confianza pública, la política y la información.
🎙️ Los agentes de voz empiezan a entrar en el mundo del M&A. La startup DiligenceSquared utiliza agentes de IA basados en voz para automatizar tareas de investigación en fusiones y adquisiciones. La promesa: reducir costes y acelerar procesos en un sector históricamente intensivo en analistas humanos.
📺 Apple retrasa su pantalla inteligente con IA. El lanzamiento del esperado smart display de Apple se ha retrasado. El dispositivo iba a combinar asistentes inteligentes con un hub doméstico, pero el desarrollo de las funciones de IA parece estar llevando más tiempo del previsto.
🤖 Robots que cambian de forma según la tarea. Investigadores están desarrollando robots modulares capaces de reconfigurarse automáticamente dependiendo del trabajo que tengan que realizar. Si esta tecnología madura, podría transformar la forma en que se diseñan sistemas robóticos.
Déjame recordarte que si te gusta la tecnología, el podcast de Código Abierto también puede ser una buena opción.
Si algo de lo que has leído te ha removido, dímelo.
Ya sabes que estoy al otro lado si quieres comentar, discrepar o simplemente saludar.
Que nunca te falten ideas, ni ganas de probarlas.
A.
PD. Si este tema —la relación entre inteligencia, tecnología y lo que significa ser humano— te interesa, aquí van algunos libros que merece la pena explorar:
Possible Minds de John Brockman (editor). Una colección brillante de ensayos de científicos, filósofos y tecnólogos sobre el futuro de la inteligencia artificial y las preguntas profundas que plantea para nuestra especie.
Technology and the Character of Contemporary Life de Albert Borgmann.
Un clásico de filosofía de la tecnología. Borgmann analiza cómo los dispositivos tecnológicos no solo cambian lo que hacemos, sino también cómo vivimos, qué valoramos y qué significa una vida plena.
The Glass Cage de Nicholas Carr. Una reflexión poderosa sobre la automatización. Carr plantea una pregunta incómoda: cuando las máquinas empiezan a hacerlo todo mejor que nosotros… ¿qué pasa con nuestras habilidades, nuestro criterio y nuestra identidad?
Juegos Finitos y Juegos Infinitos de James P. Carse. No trata directamente sobre tecnología, pero sí sobre algo esencial para entender el futuro: la diferencia entre vivir para ganar un juego… o para seguir jugando indefinidamente. Una idea sorprendentemente útil en la era de la inteligencia artificial.
The Human Use of Human Beings de Norbert Wiener. El fundador de la cibernética reflexionando en los años 50 sobre automatización, información y sociedad. Muchas de las preguntas que plantea siguen siendo inquietantemente actuales.
The Question Concerning Technology de Martin Heidegger. Un texto corto pero profundo. Heidegger argumenta que el verdadero peligro de la tecnología no es lo que hace, sino la forma en que cambia nuestra manera de ver el mundo.
Si tuviera que elegir uno especialmente provocador para esta época sería The Human Use of Human Beings. Porque fue escrito mucho antes de los ordenadores modernos y aun así parece estar describiendo el mundo que estamos empezando a construir.

