De la media al individuo
Diario de Innovación #242
Hace unas semanas te conté la historia de Julián Isla.
Un ingeniero de Microsoft que, cuando su hijo fue diagnosticado con una enfermedad rara, decidió que la tecnología debía poder hacerlo mejor.
No esperó a que alguien lo resolviera.
Lo construyó.
De ahí nació DX29, y más tarde DXGPT: una herramienta que usa modelos de lenguaje para acelerar diagnósticos complejos, transformando procesos que antes llevaban años en algo que hoy sucede en minutos.
Aquella edición se titulaba, con razón: “De años a minutos”.
Hoy, un grupo de investigadores ha puesto lenguaje científico a la intuición que guió a Julián: la medicina necesita dejar de tratar con medias y empezar a tratar con personas.
La falacia del paciente promedio
El paper del que te hablo se titula “An N-of-1 Artificial Intelligence Ecosystem for Precision Medicine”, y arranca con una advertencia: la inteligencia artificial médica actual ha heredado el mismo error que la medicina del siglo pasado.
Durante décadas se habló del “paciente promedio”: la dosis estándar, el rango de referencia, el caso típico.
Pero ningún paciente es promedio.
Y, sin embargo, la mayoría de los modelos de IA se entrenan precisamente para eso: minimizar el error medio.
El resultado es una paradoja. La IA funciona bien en los centros de la curva, ese pacientes promedio, pero falla justo donde más la necesitamos. En los márgenes, donde viven las enfermedades raras, las combinaciones inusuales, las variables genéticas que no aparecen en los datasets.
Los autores lo llaman la falacia del paciente medio.
Y es más que un problema técnico: es una fractura ética.
Optimizar para la mayoría significa, inevitablemente, abandonar a la minoría.
La solución: una inteligencia orquestada
El enfoque que proponen no es un modelo más grande, sino un ecosistema multiagente.
Un conjunto de inteligencias especializadas, una por órgano, población o modalidad, que cooperan, debaten y se coordinan para ofrecer algo radicalmente distinto: decisiones fiables a nivel individual.
Cada agente tiene un papel.
Uno detecta anomalías.
Otro estima incertidumbre.
Otro busca evidencia científica.
Y un coordinador central actúa como un director de orquesta que integra, pondera y decide cuándo abstenerse.
El sistema no pretende tener siempre razón.
Pretende saber cuándo puede equivocarse.
He aquí el punto de inflexión: ya no se trata de que la IA “acierte más”, sino de que sepa cuándo debe callar.
Del modelo monolítico al ecosistema N-of-1
El concepto N-of-1 viene de los ensayos clínicos individualizados.
Cada paciente es su propio estudio.
El paper traslada esa idea a la IA: cada diagnóstico es una simulación única, orquestada para un solo caso.
En lugar de un modelo que intenta abarcarlo todo, se crea una red de agentes que colaboran para un solo objetivo: entender a esa persona en particular.
Y lo interesante es que no solo mejora la precisión global, sino la fiabilidad en los extremos: justo en los casos raros, donde los sistemas tradicionales fallan.
En los experimentos, el rendimiento del sistema en cohortes minoritarias se duplicó frente al modelo estándar.
No por magia.
Por arquitectura.
Por diseño.
Porque el sistema no se limita a predecir: detecta, enruta y, si es necesario, defiere.
Lo llaman detect–route–defer.
Detectar lo atípico, enrutarlo al especialista correcto y, si la incertidumbre es alta, escalar al humano.
Una coreografía de inteligencia y humildad.
Medicina sin promedios
El texto tiene un tono casi filosófico cuando afirma:
“Averages do not treat patients. Clinicians do.”
(“Las medias no tratan pacientes. Los médicos sí.”)
Y esa frase resume toda la tesis.
El propósito de la IA no es reemplazar el juicio humano, sino refinarlo.
No añadir ruido, sino contexto.
No esconder la duda, sino mostrarla con transparencia.
Una buena IA médica no debería decir “según mis cálculos tiene X% de probabilidad de esto”, sino “aquí hay desacuerdo entre los agentes, estos son los datos que sustentan cada hipótesis, y este es el nivel de incertidumbre real”.
No es solo precisión.
Es responsabilidad.
Es devolverle al médico algo que las máquinas no pueden simular: criterio.
Si has visto House, esto es como los análisis diferencial que Gregory hacía con Foreman, Trece o Chase.
🧭 Food for thought
La próxima frontera de la inteligencia artificial no será cognitiva, será moral.
Construir modelos capaces de reconocer lo que no saben, de abstenerse cuando la duda pesa más que la confianza, de adaptarse a cada individuo sin diluirlo en la media.
Una IA que, como un buen médico, sepa escuchar antes de hablar.
También déjame recordarte que si te gusta la tecnología, el podcast de Código Abierto también puede ser una buena opción.
⚡️ Pulso Digital
Facturas, datos y modelos generativos marcan hoy el compás de la innovación.
💓 Latido del día
Durante años, el motor de facturación ha sido la parte aburrida del sistema: estable, lento, lleno de reglas duras y tablas infinitas. Nadie se hacía fotos con el ERP. Ahora, de repente, es uno de los lugares más interesantes donde meter IA.
Cuando conectas el billing con modelos de analítica predictiva, dejas de limitarte a “emitir facturas” para empezar a predecir ingresos, detectar fuga de clientes y ajustar precios casi en tiempo real. La máquina ya no solo calcula lo que debes cobrar; sugiere qué ofrecer, a quién y cuándo. Es como pasar de tener un contable a tener un pequeño equipo de data scientists escondido dentro del sistema de facturación.
Pero ese salto tiene trampa. Si conviertes el billing en una caja negra gobernada por modelos, cualquier error deja de ser un simple desfase de línea y puede convertirse en un problema regulatorio, de reputación o de confianza del cliente. El siguiente ciclo de innovación no será solo “poner IA en las facturas”, sino gobernar esa IA: explicar por qué un precio cambia, quién responde por una recomendación equivocada y cómo evitar que la obsesión por optimizar el ingreso destroce la relación a largo plazo con el cliente.
🌍 El eco del mercado
💡 De la tarifa plana al precio algorítmico. Las empresas que operan con suscripciones y consumo empiezan a mover silenciosamente sus catálogos hacia modelos dinámicos: descuentos que cambian según uso, riesgo o probabilidad de abandono. Lo interesante ya no es el precio en sí, sino la lógica que hay detrás… y quién la controla.
💡 Revenue Ops y Data se sientan en la misma mesa. Los equipos de datos dejan de ser “soporte técnico” y pasan a codirigir las decisiones de ingresos: qué clientes priorizar, qué segmentos bonificar, qué productos dejar de empujar aunque sean rentables a corto plazo. El motor de facturación se convierte en el lugar donde se ve si la estrategia de IA crea valor o solo ruido.
💡 Reguladores mirando debajo del capó. Cuando el precio está determinado por modelos, la pregunta obvia aparece: ¿hay discriminación, sesgos o prácticas abusivas escondidas en el algoritmo? Los reguladores empiezan a pedir explicaciones, logs y trazabilidad. No se trata solo de cumplir la norma, sino de demostrar que el “cerebro” que factura no se ha escapado del marco ético.
💡 La tentación de externalizar el cerebro. Empiezan a aparecer proveedores que venden “IA de facturación” como quien ofrece un módulo más de software. Es cómodo, rápido y escalable… pero también es ceder a un tercero una de las piezas más sensibles del negocio: cómo conviertes datos en dinero. La ventaja competitiva puede quedar empaquetada en un producto estándar.
🌱 Latido incipiente
En la periferia del ecosistema, algunas empresas están experimentando con algo más sutil: usar IA en el billing no para cobrar más, sino para cobrar mejor.
Por ejemplo, ajustando condiciones de pago de forma dinámica para aliviar tensiones de caja a clientes estratégicos, detectando riesgos antes de los impagos o proponiendo planes personalizados para que una relación complicada no termine en ruptura.
Es una señal pequeña, pero apunta a un giro interesante: la inteligencia en facturación como herramienta de confianza, no solo de extracción de valor.
💭 Pulso Final
Cuando el motor de facturación piensa por sí mismo, la pregunta ya no es solo cuánto vas a cobrar, sino qué tipo de relación quieres tener con quienes te pagan.
Y eso es todo por hoy. Si algo de lo que has leído te ha removido, dímelo.
Ya sabes que estoy al otro lado si quieres comentar, discrepar o simplemente saludar.
Que nunca te falten ideas, ni ganas de probarlas.
A.
Que nunca te falten ideas, ni ganas de probarlas.
A.
📚 PD: Para seguir pensando
“¿Qué nos hace humanos?” – Michael Gazzaniga
“Ser Mortal” – Atul Gawande
“Ruido” – Daniel Kahneman, Olivier Sibony y Cass Sunstein
“How to Be Perfect” – Michael Schur
“The Alignment Problem” – Brian Christian


