Hace unos días vi una entrevista a Sam Altman que aún me resuena en la cabeza.
Sí, una entrevista al CEO de OpenAI, se sentó con Chris Anderson en el escenario de TED para hablar sobre Sora, ChatGPT y lo que está por venir. Pero la conversación fue mucho más allá de la tecnología.
Fue una especie de confesión pública sobre el poder, los límites de la creatividad humana, y la necesidad urgente de reescribir nuestras reglas colectivas.
Hoy no quiero hablarte de modelos de lenguaje.
Quiero hablarte del contrato social.
Del que estamos rompiendo… y del que aún no hemos firmado.
🎨 Creatividad y apropiación
Altman mostraba con orgullo imágenes generadas por su nuevo modelo. Algunas en el estilo de artistas vivos. Otras en la voz de periodistas reales.
“Pero ellos no han dado su consentimiento”, le decía Chris.
Y ahí está el primer dilema: ¿estamos ante una herramienta que amplifica la creatividad… o que la reemplaza?
La diferencia emocional es abismal.
Lo que para unos es inspiración, para otros es robo.
Y la línea entre ambos se vuelve cada vez más difusa.
🤖 ¿Tecnología que libera… o que sustituye?
La pregunta incómoda:
¿Quién decide qué trabajo sigue siendo humano?
Altman ofrece dos opciones:
Puedes ver la IA como una amenaza… o como una extensión de tus capacidades.
Lo que no dice (pero se intuye) es que esa elección no está repartida de forma equitativa.
Hay quienes podrán subirse al tren.
Y otros a los que el tren pasará por encima.
🔓 El dilema open source
OpenAI (que ya no es “open” aunque si mantiene la “AI”) promete ahora abrir modelos potentes al mundo.
Una especie de “vuelta a los orígenes”.
Pero la paradoja es curiosa: lo que antes era precaución, ahora puede ser negocio.
Y cuando el código se libera, también se abren puertas a agentes que pueden actuar sin permiso, sin trazabilidad y sin supervisión.
La libertad tecnológica viene con un precio.
Y es más alto de lo que creo que somos capaces de imaginar.
🧠 Memoria, personalización, control
GPT-4o ahora recuerda. Aprende. Te conoce.
No es solo un chat. Es una extensión de ti mismo.
Su nuevo sistema de memoria permite crear una “relación” con el usuario.
Una que mejora con cada conversación.
Una que podría llegar a acompañarte toda la vida.
Suena útil.
También suena inquietante.
¿Dónde está el límite entre personalización… y vigilancia emocional?
🧬 IA para la ciencia… ¿o para el caos?
Lo que más entusiasma a Altman no es que puedas escribir poesía con GPT, sino que puedas descubrir nuevos fármacos, superconductores o leyes físicas con la ayuda de modelos.
Pero ese mismo poder puede volverse en contra.
Porque también pueden diseñar armas biológicas.
O explotar vulnerabilidades críticas.
La pregunta ya no es si la IA podrá hacerlo. La pregunta es quién podrá hacerlo primero… y con qué intención.
🧠 AGI: un umbral sin definición
Lo más sorprendente fue esto: OpenAI no tiene una definición clara de AGI (inteligencia artificial general).
El concepto fundacional de la empresa.
El “Santo Grial” de todo su viaje.
Y sin embargo, ni siquiera sus ingenieros se ponen de acuerdo en qué es.
Tal vez el problema es que esperamos un momento de ruptura, un Big Bang de inteligencia.
Pero lo que vendrá es una exponencial continua.
Un goteo incesante de capacidades que cambiarán la vida, poco a poco, hasta que un día ya no reconozcamos lo que era “normal”.
🛡️ Agentes con iniciativa propia
Uno de los momentos más tensos: hablar sobre los nuevos “agentes autónomos”.
Modelos que no solo responden, sino que actúan. Reservan una mesa en tu restaurante favorito. Hacen llamadas en tu nombre. Ejecutan órdenes.
Hoy parecen simples asistentes.
Mañana podrían reescribir la web por completo, replicarse, o manipular narrativas a escala.
Vamos, este manual es de libro, una copia de las peores pesadillas de Orwell en 1984. Pero en vez de con personas del partido, con máquinas, con robots en la sombra como diría mi amigo, Ignacio. ¿Quién será prole y quién será del partido en esta nueva distopía?
Y Altman lo reconoce: “Es el mayor desafío de seguridad que hemos enfrentado.”
¿Quién te dio la autoridad?
Una de las últimas preguntas que Chris Anderson lanza a Altman la escribió el propio GPT-4o:
“Dado que estás ayudando a crear tecnología que podría remodelar el destino de nuestra especie, ¿quién te otorgó la autoridad moral para hacerlo? ¿Y cómo respondes si te equivocas?”
Altman no evade.
Reconoce errores. Acepta contradicciones.
Se presenta como alguien con buenas intenciones y muchas dudas.
Pero la pregunta queda flotando en el aire.
No porque Altman sea malvado.
Sino porque el poder para transformar el mundo no puede recaer en la buena fe de una persona, ni en los valores de una empresa.
¿Y por qué es importante todo esto?
Pues porque en el trasfondo de esta conversación, se encuentra el nuevo contrato social.
Todo esto no va de prompts. Ni de modelos, ni agentes, ni de la última GPU de Nvidia.
Va de propósito.
De cómo reorganizamos prioridades, estructuras, instituciones.
De si vamos a rediseñar las reglas de juego para que la inteligencia artificial sirva a todos…
…o si vamos a dejar que el juego se defina por quien llegue primero.
Esta entrevista no es un aviso apocalíptico.
Es una invitación a la reflexión.
¿Estamos listos para un mundo donde nunca seremos más inteligentes que nuestras herramientas?
¿Estamos dispuestos a renunciar a parte del control para ganar nuevas formas de libertad?
¿O simplemente esperamos que alguien más —Sam Altman, la ONU, un algoritmo— lo decida por nosotros?
Que nunca te falten ideas, ni ganas de probarlas.
A.
Si quieres ver la entrevista entera la tienes en Youtube.