Cuando la escala deja de escalar
Diario de Innovación #258
Hay entrevistas que te abren una ventana a un nuevo tiempo.
La de Ilya Sutskever con Dwarkesh Patel de hace unos días pertenece a esa categoría.
No tanto por lo que dice, que también, sino por lo que implica: la sensación de que estamos cerrando una fase de la historia de la IA y abriendo otra totalmente distinta.
Durante años la industria se movió bajo una regla sencilla y brutal:
Más datos → más GPUs → modelos más grandes → más capacidad.
Ese mantra ha definido una década completa de progreso tecnológico.
Pero si Sutskever tiene razón, esa época se está acabando.
Hoy quiero contarte qué significa esto, qué viene después y por qué, paradójicamente, el futuro que describe es menos “modelo gigante” y más “inteligencia que aprende”.
Vamos por partes.
El fin de la era de la escala
Sutskever lo dice con una mezcla de alivio y advertencia:
“It is back to the age of research again, just with big computers.”
El mensaje de fondo es claro:
El texto útil en internet se ha exprimido casi por completo.
Escalar pre‐training ya no produce saltos cualitativos.
El Reinforcement Learning incrementa el compute sin ofrecer retornos equivalentes.
Los LLMs siguen mejorando, pero no al ritmo que justificaría multiplicar su tamaño por diez cada año.
El crecimiento lineal en potencia ha dejado de proporcionar crecimiento exponencial en capacidades. Y eso significa que la industria vuelve a un territorio que muchos intentaron evitar: la necesidad de inventar cosas nuevas.
Algoritmos nuevos.
Métodos nuevos.
Formas nuevas de aprender.
El mundo de 2025 no es el de 2020.
Parece que la próxima ola de la IA no la ganará quien tenga más GPUs, sino quien dé con la próxima idea elegante, como diría Ilya.
El verdadero cuello de botella: la generalización
La parte más profunda de la entrevista no tiene que ver con escalas, sino con por qué los modelos actuales fallan donde los humanos no fallan.
Los LLM pueden resolver un problema de olimpiada matemática en una respuesta y equivocarse en una lógica de primaria en la siguiente.
Pueden depurar una función complejísima, y luego reintroducir el mismo bug al arreglar otro.
Pueden sacar un 100 en un benchmark, y parecer distraídos en un caso real.
Según Sutskever, la explicación está en un déficit estructural: Los humanos tenemos priors. Las máquinas no.
Nosotros llegamos al mundo preconfigurados: visión, física intuitiva, señales emocionales, modelos sociales y un sistema interno de valor que nos enseña qué importa y qué no.
Los modelos empiezan desde ruido aleatorio.
Con millones de ejemplos, sí.
Pero sin ese “sentido interno” que permite unir las piezas.
Por eso podemos aprender rápido lo que a ellos les cuesta cientos de miles de muestras.
Por eso generalizamos mejor.
Por eso no repetimos los mismos fallos en contextos similares.
Cerrar este gap es, para Sutskever, el camino hacia la inteligencia real.
No es un problema de tamaño.
Es un problema de cómo aprender a aprender.
Si unes lo que dice Sutskever con lo que lleva años defendiendo Yann LeCun, aparece una idea incómoda pero inevitable: el futuro de la IA no va de hacer modelos más grandes, sino de modelos que entiendan el mundo de verdad.
LeCun lo repite como un mantra: los LLM son espectaculares, sí, pero viven en la superficie del texto; les falta un world model, una forma interna de anticipar, razonar y actuar.
Lo interesante es que dos personas que vienen de trayectorias diferentes están llegando al mismo punto: la inteligencia no nace de escalar correlaciones, sino de construir representaciones profundas de cómo funciona la realidad.
Qué es AGI según Ilya (y por qué redefine la conversación)
Uno de los momentos clave de la entrevista es cuando describe cómo imagina la AGI:
“A superintelligent fifteen-year-old that can learn any job extremely fast.”
No un oráculo omnisciente.
No un archivo de conocimiento infinito.
No una inteligencia sobrehumana preinstalada.
Sino un aprendiz perfecto.
Una mente que no lo sabe todo, pero que puede aprender cualquier cosa más rápido que nosotros.
Una inteligencia que se vuelve superinteligente a través de su despliegue, no antes.
Y aquí aparece la idea más potente de toda la conversación:
Si tienes un millón de estos aprendices distribuidos por el mundo, cada uno dominando una tarea distinta y compartiendo lo aprendido, la inteligencia colectiva resultante crece a una velocidad que hoy no sabemos imaginar.
Esto cambia por completo la discusión sobre “cuándo llegará AGI”.
Porque, en este marco, AGI no es un evento, es un punto de partida.
El verdadero salto ocurre después.
Safe Superintelligence Inc.: una compañía con un único producto
Sutskever lo repite varias veces: SSI no es OpenAI 2.0.
Es otra cosa.
Una empresa con una sola misión.
Un solo objetivo.
Un solo producto: Construir una superinteligencia segura.
Sin APIs.
Sin herramientas de productividad.
Sin integraciones comerciales.
Solo investigación.
Y lo más interesante no es el foco, sino su filosofía:
La superinteligencia será gradual, igual que la inteligencia humana.
El despliegue será parte del entrenamiento.
La seguridad no es una capa posterior, sino un problema de generalización:
Si un sistema entiende profundamente los valores humanos, no se saldrá del carril.
También propone algo que, en boca de otra persona, sonaría extravagante: Que varias AIs convivan, compitan y se equilibren entre sí.
La diversidad como mecanismo de estabilidad.
Un ecosistema, no un monopolio cognitivo.
El timeline: más corto de lo que mucha gente cree
Cuando Patel le pregunta cuándo llegaremos a sistemas que aprendan como humanos, Sutskever responde sin dudar: “Five to twenty years.”
No es un pronóstico grandilocuente.
Es el rango de un investigador que ha visto cómo aparecen los saltos reales.
Su hoja de ruta es simple:
Los enfoques actuales tocarán techo.
Surgirán bifurcaciones de investigación.
Alguien encontrará el método correcto.
Otros lo replicarán (porque así funciona la ciencia).
La adopción lo acelerará todo.
La economía se transformará en consecuencia.
Para bien o para mal, estamos viviendo justo en el cuello de esa curva.
Food for thought
La entrevista termina con una reflexión que resume la forma de pensar de Sutskever:
Las ideas que cambian el mundo suelen ser bellas.
Elegantes.
Sencillas.
Naturales.
Inspiradas en la forma en que aprende el cerebro.
Y, sobre todo, resistentes al paso del tiempo.
La escala puede comprarse.
El gusto, no.
Este Diario de Innovación no va sobre GPUs ni sobre arquitectura de transformers.
Va sobre algo más profundo.
La era de la fuerza bruta está terminando. La era de la inteligencia empieza ahora.
Volvemos a un mundo donde los algoritmos cuentan más que los racks.
Donde la teoría importa otra vez.
Donde el límite no lo pone el hardware, sino nuestra capacidad de descubrir nuevas formas de aprender.
Si algo deja clara la entrevista es que el futuro de la IA será menos mecánico y más biológico.
Menos industrial y más cognitivo.
Menos escalar y más entender.
Y eso significa que el próximo gran salto no vendrá de un modelo más grande…
…sino de una idea más profunda.
🌍 El eco del mercado
🏦 HSBC se alía con Mistral para “bancarizar” los LLM. El banco quiere desplegar IA generativa en procesos internos a gran escala, otro ejemplo de cómo los modelos europeos buscan nichos de especialización sectorial frente a los hyperscalers.
💻 Huawei y el “chip stacking”: cómo competir sin litografía puntera. China explora apilar chips de 14 nm y memoria avanzada para aproximarse a las GPU de Nvidia de 4 nm, un atajo técnico para esquivar restricciones y ganar autonomía tecnológica.💡 El 🤖 MIT avisa: el 11,7% de los empleos de EE. UU. podría automatizarse con la IA actual. No hablamos de ciencia ficción, sino de capacidades ya disponibles. El debate pasa de “si” a “cómo y cuándo” se gestionará la transición laboral.
🚪OCDE: aranceles + IA, cóctel de riesgo para el crecimiento global. El organismo advierte de una desaceleración del 3,2% al 2,9% entre 2025 y 2026, mientras la IA reconfigura productividad, comercio y desigualdad.
🇮🇳 India obliga a preinstalar una app gubernamental en los móviles. El argumento oficial es luchar contra el fraude; el efecto colateral es un Estado con acceso privilegiado a datos de red y dispositivos, un modelo de “seguridad” que roza la vigilancia masiva.
🇪🇺 Europa cierra un gran operador cripto usado para lavar 1.300 millones de euros. La operación conjunta contra Cryptomixer muestra que la regulación llega, tarde pero con fuerza, al lado oscuro de DeFi.
🛰️ Rusia se queda sin acceso a la ISS tras un accidente en la rampa de lanzamiento. El colapso de estructuras clave en el cosmódromo deja sus misiones dependientes de terceros y refuerza el peso de actores privados y alianzas alternativas en órbita baja.
💸 Amazon demuestra que la IA vende: Rufus duplica la tasa de conversión en Black Friday. Las sesiones con el chatbot generativo tuvieron un 100% más de probabilidad de compra que las tradicionales. Menos banners, más conversación.
📣 OpenAI prueba recomendaciones de apps que parecen anuncios… y se lleva un golpe reputacional. Cuando la frontera entre la sugerencia “útil” y la publicidad encubierta se difumina, la confianza en la plataforma se vuelve tan frágil como un banner mal colocado.
🇨🇳 China se inquieta por la fiebre de robots humanoides. Las autoridades hablan de “desaparecerlos” si es necesario, síntoma de que la carrera entre automatización industrial, empleo y control social entra en fase delicada.
📅 Las plataformas compiten por ser tu “año en datos”. Deezer, Amazon Music y otros lanzan sus equivalentes a Spotify Wrapped: no solo estadísticas, sino un relato identitario construido a partir de tus consumos digitales.
Lancé Pulso Digital hace un mes pensando en cómo mejorar el Diario de Innovación.
Me ayudaría mucho saber qué funciona mejor: ¿qué te gusta más de Pulso Digital o qué no? ¿O si simplemente prefieres solo el formato anterior?
Puedes responder a esta encuesta o contestar directamente a este email.
Toda ayuda es poca para seguir mejorando, gracias por estar al otro lado.
Si algo de lo que has leído te ha removido, dímelo.
Ya sabes que estoy al otro lado si quieres comentar, discrepar o simplemente saludar.
Que nunca te falten ideas, ni ganas de probarlas.
A.
PD1: Si quieres profundizar en la discusión sobre generalización y por qué los humanos aprendemos tan bien con tan pocos datos, una lectura imprescindible es The Brain That Changes Itself, de Norman Doidge.
PD2: Si te interesa ver cómo estas ideas ya están afectando el mercado, mira el análisis de Sequoia en ‘Generative AI’s Act o1: The Reasoning Era Begins’, donde explican por qué la era de escalar modelos sin límites está llegando a su fin y el capital se está moviendo hacia enfoques más eficientes y centrados en razonamiento.
PD3: Si estás pensando en un regalo bueno, bonito y barato para estas navidades de De la EGB a la AI del thin tank, Mundos Posibles. Una reflexión accesible y culturalmente cercana sobre cómo entender el salto generacional entre las tecnologías simples de nuestra infancia y la complejidad de la IA moderna.



