Durante tres años nos hemos acostumbrado a una idea cómoda: “escala un transformer lo suficiente y resolverá cualquier cosa”.
Pero, ¿y si no? ¿Y si la interacción con la IA —sobre todo cuando tiene que hacer cosas y no sólo conversar— necesita otra arquitectura?
En el último episodio de The Most Interesting Thing in AI, Nicholas Thompson entrevista a Ohad Elhelo (AUI).
La conversación retoma un debate clásico: redes neuronales vs. sistemas simbólicos.
La novedad no es el ring, no se trata de quién es mejor, es la aproximación híbrida.
El enfoque neuro-simbólico busca combinar la fluidez de los LLM con la fiabilidad, trazabilidad y control de las reglas lógicas.
No se trata de “matar” a los transformers, sino de complementarlos allí donde más flojean.
Si analizamos la IA conversacional, nos encontramos con dos mitades de la misma moneda:
Diálogo abierto (open-ended). Brainstorming, explicación, creatividad. Aquí los LLM brillan: la variación es valor.
Diálogo orientado a tareas. Reservar vuelos, tramitar devoluciones, aplicar políticas, emitir tickets. Aquí la clave no es “sonar plausible”, sino cumplir al 100 % una secuencia y unas reglas.
La tesis del episodio: los LLM resuelven muy bien lo primero; en lo segundo necesitan ayuda. Porque un porcentaje mínimo de error multiplicado por diez pasos mata la experiencia… y la confianza.
Ya hemos visto en el pasado propuestas como las de rabbit, que se asemejan un poco en lo que vamos a profundizar hoy.
Qué aporta el enfoque neuro-simbólico
“La Neuro-Symbolic Foundation Model combina redes neuronales (aprenden de datos) con sistemas simbólicos (razonan con reglas). Aprende y razona. Reconoce patrones y explica por qué decide algo.”
Neuronal: entiende lenguaje o imágenes y extrae rasgos.
Simbólico: mantiene un estado explícito (intenciones, parámetros, restricciones), aplica reglas y ejecuta acciones con garantías.
Resultado: decisiones auditables, reproducibles y explicables.
Ventajas prácticas:
Aprende con menos datos (usa conocimiento existente).
Explicabilidad en sectores críticos (salud, finanzas).
Fiabilidad en procesos multi-paso.
Dónde son buenos estos modelos:
El modelo neuro-simbólico no busca creatividad o generación desbordante.
Sacrifica flexibilidad por garantías.
Da lo que necesitas cuando el coste de equivocarse es alto.
Un ejemplo concreto: Apollo-1 (AUI)
Apollo-1 es un modelo fundacional neuro-simbólico para diálogo orientado a tareas.
El LLM entiende y contextualiza; el razonador simbólico decide la acción, mantiene el estado y ejecuta las reglas de negocio con garantías.
La promesa no es sólo “sonar bien”, sino comportarse bien.
Políticas que se cumplen siempre, no “la mayoría de las veces”.
En palabras de AUI: Transformers optimizan probabilidad creativa; Apollo-1 optimiza certeza de comportamiento.
Juntos cubren el espectro completo de la IA conversacional.
Rabbit: la versión comercial del razonamiento simbólico
Aunque el Rabbit R1 no es un modelo neuro-simbólico en sentido estricto, comparte su espíritu.
Su Large Action Model (LAM) no se limita a generar texto, sino que aprende a ejecutar acciones: abrir apps, reservar vuelos, reproducir música.
No combina lógica formal y redes neuronales como Apollo-1, pero introduce algo crucial —estructura, estado y propósito— en un mundo dominado por la predicción de palabras.
En ese sentido, Rabbit representa una evolución pragmática: la transición de los Large Language Models a los Large Action Models, de hablar con la IA… a hacer cosas con ella.
Por qué importa ahora y dónde aplica
Parece que estamos llegando a un punto de saturación en la capacidad de desarrollar los actuales modelos del lenguaje y la realidad es que no son capaces de resolver todos los casos de uso posibles.
Hemos de avanzar en la técnica para poder:
Madurez de los LLM para entender intención y contexto.
Dolor real en empresas: falta de consistencia, errores costosos, violaciones de política.
Arquitectura necesaria: mantener estado y flujos con fiabilidad no emerge de predecir tokens; exige componentes simbólicos.
Dónde puede aplicar una aproximación hibrida:
Retail y automoción: ventas guiadas, financiación, descuentos.
Banca y seguros: verificaciones y cumplimiento normativo.
Salud: intake y pre-triage con reglas claras y trazabilidad.
Operaciones: reservas, reclamaciones, logística multi-paso.
Qué significa para tu organización
Segmenta casos de conversación: Abierto = LLM; Tareas = neuro-simbólico.
Define políticas como código: Reglas explícitas, pre/post-condiciones y vías de escalado.
Normaliza tus APIs y contratos: Describe campos obligatorios y errores esperables.
Mide más allá de la “respuesta correcta”: Evalúa cumplimiento de política, varianza y éxito end-to-end.
Combina arquitecturas: LLM para discovery; neuro-simbólico para ejecución.
Food for thought
Si tienes que quedarte con una idea principal del correo de hoy, no es que los modelos de lenguaje (LLMs) sean de una forma u otra, ni que los modelos neurosimbólicos destaquen en algo concreto.
La idea con la que deberías quedarte es que todavía no está todo inventado.
Los transformers dieron a las máquinas una lengua poderosa; los neuro-simbólicos prometen darnos manos fiables.
La próxima ventaja competitiva no será tener un chatbot, sino orquestar ambas especies de IA donde cada una aporta más valor.
Que nunca te falten ideas, ni ganas de probarlas.
A.
Bonus track
Libros recomendados
Gary Marcus y Ernest Davis — Rebooting AI: Building Artificial Intelligence We Can Trust (2019).
Melanie Mitchell — Artificial Intelligence: A Guide for Thinking Humans (2019).
Pedro Domingos — The Master Algorithm (2015).
Judea Pearl — El Libro del Porqué (2018).
Nick Bostrom — Superinteligencia (2014).
Darrell M. West & John R. Allen — Turning Point: Policymaking in the Era of Artificial Intelligence (2020).
Papers técnicos
Lake, Ullman, Tenenbaum, Gershman — Building Machines That Learn and Think Like People (Behavioral and Brain Sciences, 2017).
Yann LeCun — A Path Towards Autonomous Machine Intelligence (2022).
d’Avila Garcez et al. — Neural-Symbolic Learning and Reasoning: Contributions and Challenges (AI Communications, 2019).
Escucha
The Most Interesting Thing in AI — Episodio “Apollo 1 and the Future of Neuro-Symbolic AI”, con Nicholas Thompson y Ohad Elhelo.
Aunque no somos, ni Nicholas Thompson ni Ohad Elhelo, Ignacio y yo estuvimos charlando sobre estos temas en el último episodio de Código Abierto.


