La inteligencia artificial nos ayuda a predecir el futuro.
Pero cuando llega el momento de tomar la decisión, ¿quién tiene la última palabra?
¿La máquina, o el ser humano?
Este mismo escenario ya se ha planteado históricamente, y la ética ha intentado resolverlo de mejor o peor forma. Un muy buen ejemplo de este tipo de casuísticas es del conocido como “Dilema del Tranvía”.
Imagina que un tranvía sin frenos avanza por una vía en la que hay cinco personas atadas e incapaces de moverse. Tú estás junto a una palanca que, si la activas, desviará el tranvía hacia otra vía donde solo hay una persona atada.
Este dilema, aunque complicado, no deja de mostrarnos hasta qué punto hemos de delegar estas acciones en una IA: ¿Deberías accionar la palanca y sacrificar a una persona para salvar a cinco? ¿Qué crees que haría un sistema basado en IA?
Hoy seguiremos explorando y acumulando aprendizajes gracias a Ajay Agrawal, Joshua Gans y Avi Goldfarb, a través de su libro Power and Prediction: The Disruptive Economics of Artificial Intelligence.
Por ello, una de las preguntas más importantes de nuestro tiempo puede que sea: ¿cuál es el papel del juicio humano en la era de la IA?
Suscríbete para leer esta y otras muchas historias sobre innovación, tecnología y negocios.
La IA no decide, pero cambia quién lo hace. La IA como superpoder capaz de aumentar nuestras capacidades, probablemente nos de una falsa sensación de seguridad y control que muchas veces trasciende de nuestras capacidades reales.
Sigamos ese argumento, utilizando un ejemplo, cuando Amazon despidió a empleados de sus almacenes usando un algoritmo, muchos pensaron:
“Las máquinas están tomando decisiones sobre nuestras vidas.”
Pero la realidad es más compleja.
El algoritmo no “decidió” despedir a nadie. Solo siguió reglas predefinidas por humanos.
Aquí está la clave, de algo que hemos comentado en anteriores ocasiones, quien crea un sistema traslada sus sesgos al mismo. En el caso del algoritmo de Amazon, hemos de entender que:
Las máquinas no toman decisiones.
Las máquinas predicen.
Y esas predicciones cambian quién toma la decisión.
Piénsalo:
Antes, un gerente de almacén revisaba el desempeño de cada empleado y tomaba decisiones caso por caso.
Ahora, una IA analiza datos de productividad y señala qué trabajadores no cumplen con el estándar.
El juicio ya no está en el gerente del almacén, de su experiencia en tiempo real con sus trabajadores, sino que se traslada la responsabilidad de señalar con el dedo a los programadores que diseñaron el sistema.
El poder y la toma de decisión, realmente no desaparece. Sino que se mueve.
Y ese cambio trae grandes preguntas.
¿Hasta dónde puede llegar la predicción y las decisiones que los algoritmos pueden tomar?
Sabemos que la IA puede predecir con gran precisión.
Pero ¿dónde están sus límites?
Es el caso de la controversia alrededor de la conducción autónoma.
Los coches con IA pueden ver, analizar y responder más rápido que un humano. Pero hay algo que no pueden hacer: Ejercer juicios de valor.
Pueden predecir un accidente, pero ¿a quién deben proteger?
Pueden evaluar riesgos, pero ¿qué pasa cuando la ética entra en juego?
Aquí es donde los humanos seguimos siendo fundamentales.
Porque hay decisiones que no son solo de eficiencia, sino de valores.
Si te gusta lo que estas leyendo, no olvides que también tienes disponible el podcast de Innovation by Default 💡. Suscríbete aquí 👇
Y esa es la ética de la decisión automatizada, imagina un sistema de justicia basado en IA.
Si una máquina puede predecir quién tiene más probabilidades de reincidir en un crimen, ¿deberíamos dejar que recomiende sentencias?
En algunos lugares, esto ya está pasando.
Pero hay un problema mayor: y es que los datos que reflejan esa decisión, vienen con sesgos del pasado.
Si el sistema fue entrenado con decisiones humanas sesgadas, sus predicciones también lo serán.
Si dejamos que la IA influya en el juicio sin supervisión, podemos amplificar injusticias en lugar de corregirlas.
La pregunta no es si la IA puede tomar decisiones.
La pregunta es ¿quién controla los criterios con los que decide?
Y aquí, hemos de poner sobre la mesa otra cuestión, cuál es el futuro del juicio humano, en la era de la IA.
Entonces, si la IA no puede reemplazar el juicio humano, ¿cómo debemos usarla?
No como un reemplazo de las decisiones, sino como una herramienta que mejora nuestro juicio.
No como un sistema ciego, sino como un filtro que debe ser supervisado.
No como una fuente absoluta de verdad, sino como un complemento a la intuición y la experiencia humana.
Porque la verdadera transformación no es tecnológica, es casi filosófica.
Y tú que crees, ¿estamos listos para redefinir cómo tomamos decisiones en la era de la IA?
Gracias por acompañarme en un nuevo Diario de Innovación, ¡y te espero mañana en Innovation by Default 💡!