Hoy, una verdad incómoda: la IA hace virguerías en tareas muy concretas… pero le sigue faltando un entendimiento del mundo, de lo que pasa alrededor de nosotros.
Esto no debe ser un drama; es una brújula que nos dice dónde ir y dónde no.
Rodeados del hype, no paramos de pensar en cómo y cuándo las máquinas serán más inteligentes que nosotros. Yo lo tengo claro, deja de perseguir “AGI-mística” y busca soluciones concretas con alto retorno. El patrón ganador que se repite en sanidad, industria o back-office no es una receta mágica, es un sistema híbrido: datos decentes, modelos que aciertan “lo suficiente”, reglas que blindan lo no negociable y personas cerrando el bucle donde la máquina patina.
¿Riesgos? Los de siempre, pero escalados: sesgos en datos (que puedes medir y corregir), seguridad (que debes diseñar desde el inicio) y desajustes laborales (que se mitigan con re-skilling real, no con cursos de PowerPoint).
Estas son tres preguntas que todo aquel que se plantease usar IA debería hacerse:
¿Qué tarea concreta resuelve y cómo la medimos?
¿Qué datos lo sostienen y qué sesgos traen?
¿Dónde entra/sale el criterio humano y qué pasa cuando falla?
Si respondes bien, la IA deja de ser promesa y se convierte en proceso
Pero ¿quién soy yo para contarte estas cosas? Nadie: un simple “muggle”, en comparación con aquellos investigadores que están moldeando el futuro de la tecnología. Por eso, hoy he reunido ocho ideas clave que se desprenden de la lectura de «Architects of Intelligence» (Martin Ford, 2018).
Ford reúne 23 voces top de la IA y deja claro dos cosas:
Todavía hoy la IA es estrecha y específica (brilla en tareas acotadas, tropieza con el sentido común).
Su impacto será estructural en economía, trabajo, defensa y salud.
El camino más prometedor no es una sola el de la perfección técnica, ya sabes más vale hecho que perfecto, sino sistemas híbridos (deep learning + reglas + aprendizaje por refuerzo + auto-supervisión).
Las oportunidades son enormes para la humanidad (sanidad, ciencia, sesgo reducido) pero hemos de ser consciente de que conviven con riesgos serios (armas autónomas, manipulación, desplazamiento laboral).
Aquí las tienes:
IA ≠ AGI: Deep learning domina, pero carece de sentido común y transferencia amplia; no basta para una inteligencia general por sí solo.
Sistemas híbridos: Combinar redes neuronales con reglas, aprendizaje por refuerzo y aprendizaje no supervisado/auto-supervisado es la vía más realista.
Aprendizaje por refuerzo “dopaminérgico”: Recompensas bien definidas aceleran comportamientos útiles (juegos, control, optimización).
Limitaciones por datos y sesgos: Datos humanos sesgados ⇒ predicciones sesgadas; la IA también puede servir como espejo para detectar y corregir esos sesgos.
Aplicaciones de alto valor: Salud (diagnóstico por imagen/voz/biomarcadores), robótica asistencial, investigación (p. ej., descubrimiento científico y filtrado de papers).
Seguridad y ética: Armas autónomas son escalables y hackeables; urge gobernanza y “safety by design”.
Trabajo y redistribución: Automatización empuja a nuevas cualificaciones y re-skilling; se debate UBI o fórmulas condicionadas para estudiar/reciclarse.
Valor de lo humano: En un mundo automatizado sube la prima de lo híbrido humano (presencia, creatividad, conexión)—síntoma: conciertos más caros que música digital.
Como puedes ver, hay un amplio consenso sobre lo que podemos conseguir y sobre lo que aún está fuera de nuestro alcance:
Horizonte de la AGI: décadas vs. nunca; amplio desacuerdo.
Velocidad de adopción (p. ej., coches autónomos): avances técnicos ≠ despliegue masivo regulado y seguro.
Política social óptima: Renta básica universal vs. ayudas condicionadas a educación y transición laboral.
Donde podemos encontrar oportunidades reales (para equipos y líderes):
Empezar por problemas acotados con alto ROI y datos accesibles; evitar “moonshots” genéricos.
Auditar el sesgo y la calidad de los datos desde el día 0; medir impacto con KPIs de equidad.
Híbridos por diseño: combinar ML + reglas de negocio + feedback humano (HITL).
Seguridad primero: model cards, evals de robustez, red-teaming, y límites operativos claros.
Capacitación continua: presupuesto anual para re-skilling; itinerarios de prompt-to-product.
Hemos recorrido un largo camino desde 2018, cuando Ford se puso manos a la obra para destilar lo mejor de aquellas entrevistas con los referentes de la IA de aquel momento.
Pero como enuncia Amara en su famosa ley : “Tendemos a sobrestimar el efecto de una tecnología a corto plazo y subestimarlo a largo plazo”
Que nunca te falten ideas, ni ganas de probarlas.
A.
PD1: Aquí tienes el libro por si quieres profundizar en la visión de estos genios.
PD2: Aquí el listado de todos y cada uno de los que han hecho posible donde hemos llegado en esta última década:
Demis Hassabis (DeepMind)
Ray Kurzweil (Google)
Geoffrey Hinton (Univ. of Toronto and Google)
Rodney Brooks (Rethink Robotics)
Yann LeCun (Facebook)
Fei-Fei Li (Stanford and Google)
Yoshua Bengio (Univ. of Montreal)
Andrew Ng (AI Fund)
Daphne Koller (Stanford)
Stuart Russell (UC Berkeley)
Nick Bostrom (Univ. of Oxford)
Barbara Grosz (Harvard)
David Ferrucci (Elemental Cognition)
James Manyika (McKinsey)
Judea Pearl (UCLA)
Josh Tenenbaum (MIT)
Rana el Kaliouby (Affectiva)
Daniela Rus (MIT)
Jeff Dean (Google)
Cynthia Breazeal (MIT)
Oren Etzioni (Allen Institute for AI)
Gary Marcus (NYU)
And Bryan Johnson (Kernel).