Seguro que a ti también te ha pasado: llegas a un restaurante, te entregan el menú y, sin pensarlo demasiado, eliges la hamburguesa con patatas fritas. No analizaste todas las opciones ni comparaste precios y calorías. Simplemente, sentiste que era la mejor elección.
Ahora, imagina que tienes que tomar una decisión mucho más importante: ¿deberías invertir en esa nueva startup? ¿Aceptar ese trabajo en otra ciudad?
Aquí, ya no puedes confiar solo en el instinto. Necesitas pensar de manera deliberada.
Piensa en una inteligencia artificial. Una IA avanzada que tiene dos modos de operación:
Modo 1: Rápido e intuitivo. Toma decisiones instantáneas basadas en patrones previos. No analiza todo desde cero, solo predice lo más probable.
Modo 2: Lento y analítico. Hace cálculos detallados, analiza probabilidades y busca la mejor solución con información más compleja.
¿Te suena familiar?
No estamos hablando de una IA cualquiera… estamos hablando de tu propio cerebro.
En su libro Pensar rápido, pensar despacio, Daniel Kahneman explica que nuestra mente opera con dos sistemas muy parecidos a los modelos de Machine Learning modernos.
Hoy veremos cómo nuestra mente funciona en gran medida como una IA, ¿o es más bien al contrario? Para profundizar sobre cómo pensamos y, sobre todo, en cómo nos equivocamos sin darnos cuenta recurriremos a los descubrimientos fascinantes del padre de la psicología conductual. Ambos cerebros, el biológico y el de silicio, tienen fallos sistémicos, sesgos y formas de mejorar nuestra toma de decisiones.
Así que acompáñame en el episodio de hoy para saber cómo funciona nuestra mente, sus atajos mentales, los sesgos que nos engañan y cómo mejorar nuestras decisiones.
Si buscas una banda sonora para acompañar esta newsletter, hoy te recomiendo Ballbreaker de AC/DC si te apetece rock puro y duro de la vieja escuela. Este disco de 1995 supuso el regreso de Phil Rudd. Un disco repleto de energía, riffs potentes, la voz inconfundible de Brian Johnson y esa sección rítmica incombustible que te pone a mover la cabeza de inmediato.
Suscríbete para leer esta y otras muchas historias sobre innovación, tecnología y negocios.
Una de las razones que llevó a Daniel Kahneman a ganar el premio Nobel, fue su teoría unificada del funcionamiento de nuestra mente. Esta teoría nos dice que nuestro cerebro opera con dos sistemas de pensamiento.
El sistema 1 es rápido, intuitivo, automático. Es el que nos permite reaccionar sin esfuerzo. Es la razón por la que podemos conducir un coche sin pensar en cada movimiento y mantener una conversación al mismo tiempo.
Mientras que el sistema 2 es más lento, analítico, lógico. Lo usamos cuando resolvemos problemas matemáticos, tomamos decisiones importantes o aprendemos algo nuevo.
Aquí hay una prueba sencilla, intenta responder a la siguiente pregunta lo más rápido que puedas: “Un bate y una pelota cuestan 1,10 dólares en total. El bate cuesta un dólar más que la pelota. ¿Cuánto cuesta la pelota?”
Si tu primer instinto fue responder 10 centavos, fuiste víctima del Sistema 1.
La respuesta correcta es 5 centavos… pero el problema nos engaña haciéndonos pensar que es más fácil de lo que realmente es.
El Sistema 1 siempre trata de tomar atajos, busca consumir la mínima cantidad de energía, pero a veces se equivoca. Y lo peor de todo, es que ni siquiera nos damos cuenta de ello.
Hagamos otro experimento. Piensa en la palabra “EAT” (comer en inglés).
Ahora, completa esta palabra: S O _ P.
Probablemente pensaste en SOUP (sopa).
Pero, ¿y si en lugar de “EAT”, te hubiera dicho la palabra “DUCHA”? Entonces, es probable que hubieras completado la palabra como SOAP (jabón).
Esto se llama priming, o activación previa.
Es como si nuestro cerebro estuviera en piloto automático, tomando decisiones sin que lo notemos. Y esto no solo afecta a cómo elegimos palabras… afecta a como tomamos y realizamos acciones en nuestro día a día.
En un estudio famoso, los participantes leyeron palabras relacionadas con la vejez: Florida, arrugas, bastón. Cuando terminaron la prueba, salieron caminando más despacio sin darse cuenta.
Lo que vemos, escuchamos y experimentamos moldea nuestro comportamiento, incluso cuando creemos que estamos actuando de manera racional.
Ahora intentamos ver nuestra mente como una IA
Cuando interactúas con cualquier servicio de IA Generativa conversacional, ya sea Perplexity, Chat GPT o Claude, hay dos procesos clave que ocurren detrás de bambalinas:
El que vemos de forma inmediata es la inferencia: La IA toma decisiones rápidas basadas en patrones previamente aprendidos. Pero para ello antes debe haber sucedido el proceso de entrenamiento: El modelo aprende, ajusta pesos y mejora su precisión a partir de grandes volúmenes de datos.
Ahora, si trasladamos esto a nuestra mente:
🧠 Sistema 1 (Inferencia rápida): Es como un modelo de IA ya entrenado. Usa heurísticas, patrones y experiencias pasadas para darnos respuestas en milisegundos.
🧠 Sistema 2 (Entrenamiento y ajuste): Es el proceso más lento, el que analiza información con lógica y cálculo detallado, ajustando nuestros modelos mentales a lo largo del tiempo. Aunque realmente, para pensar en como funciona nuestra mente, en este tipo de sistemas, quién mejor encajaría sería los modelos razonadores como los modelos o1 u o3 de OpenAI, DeepSeek R1,…
Por ejemplo, si ves la ecuación 2 + 2 = tu Sistema 1 responde 4 de inmediato. Pero si te pido que resuelvas 17 x 23, el Sistema 2 entra en acción porque requiere un esfuerzo consciente. Aunque los LLMs seguramente hayan visto tantas veces esta misma operación que pudieran darnos la sensación de capacidad de razonamiento.
El problema es que nuestro Sistema 1 a veces actúa como una IA realizando inferencia, pura y dura. Se basa en atajos, probabilidades, patrones sesgados y datos incompletos.
Veamos algunos errores comunes de este sistema.
El sesgo de inferencia: cuando la IA (y tu cerebro) se equivocan
Uno de los problemas más comunes en IA es el sobreajuste del modelo (overfitting): cuando la inteligencia artificial aprende demasiado de sus datos de entrenamiento y comienza a hacer predicciones erróneas en nuevos escenarios.
Nuestro cerebro hace lo mismo con sesgos cognitivos.
Por ejemplo, el efecto halo. Si un candidato a presidente tiene una voz fuerte y segura, asumimos que también es inteligente y competente.
Es lo mismo que si entrenaras una IA solo con imágenes de gatos blancos y luego le mostraras un gato negro… La IA podría fallar porque su modelo está sobreajustado a una característica irrelevante (el color).
Otro caso: la aversión a la pérdida.
Si tienes una inversión que está perdiendo valor, muchas veces decides no venderla, porque aceptar la pérdida duele más que la posibilidad de recuperar dinero.
Aquí, el Sistema 1 actúa como una IA con datos erróneos, sobrevalorando la pérdida inmediata y sin calcular el costo a largo plazo.
Por años, los economistas pensaban que tomábamos decisiones basándonos en la lógica. Pero Kahneman y su colega Amos Tversky demostraron que nuestras emociones nos controlan más de lo que admitimos.
Si te digo que un medicamento tiene un 99% de éxito, cómo de confiado para usarlo te sentirías. Pero si te digo que 1 de cada 100 personas muere por su uso, seguramente la sensación que te sacudirá será miedo.
Aunque los datos son los mismos, la forma en que se presentan cambia nuestra reacción.
Esto tiene implicaciones en la publicidad, las finanzas y hasta en la política.
Si te gusta lo que estas leyendo, no olvides que también tienes disponible el podcast de Innovation by Default 💡. Suscríbete aquí 👇
La biomímesis y la mente humana
La biomímesis es el proceso de imitar sistemas biológicos para crear tecnología eficiente. Alguna vez te has preguntado o buscado ejemplos de este concepto en la vida real. Ejemplos hay miles, las aletas de buceo, las alas de los aviones, las redes neuronales en el aprendizaje automático. Pero, ¿por qué imitamos la naturaleza a la hora de desarrollar mejores sistemas de aprendizaje automático?
Al igual que los diseñadores de aviones se inspiraron en las alas de los pájaros. En diferentes campos de la inteligencia artificial ocurre lo mismo, las redes neuronales artificiales se inspiran en las redes neuronales del cerebro humano.
Pero lo más sorprendente de todo es que cada uno de nosotros hemos estado usando “biomímesis mental” durante toda nuestra existencia como especie.
Nuestro cerebro aprendió a pensar rápido porque era una ventaja evolutiva. En la sabana, si veías un arbusto moverse, no tenías tiempo para analizar si era el viento o un depredador. Tu Sistema 1 asumía lo peor y actuaba rápido.
Hoy, seguimos usando este pensamiento rápido en situaciones donde no siempre es útil: en decisiones financieras, en juicios sobre personas o en estimaciones de riesgo.
Es como si estuviéramos ejecutando un software antiguo en un hardware mucho más moderno. Vamos como querer correr COBOL en un iPhone 16.
Entonces si somos conscientes de que nuestro cerebro no es perfecto. ¿Cómo lo podemos entrenar y mejorar?
Si una IA está cometiendo errores, alucina o responde cosas inadecuadas, la solución no es apagarla… es entrenarla mejor, lo que se conoce en el mundillo freak como fine-tuning o alineamiento.
Aquí algunas estrategias para mejorar nuestro Sistema 2 y tomar mejores decisiones:
Forza el uso del Sistema 2 en momentos clave: Cuando sientas que estás tomando una decisión basada en instinto, detente. Pregunta: “¿Estoy dejando que mi Sistema 1 decida por mí?”
Cambia la perspectiva de las pérdidas: Recuerda que una pérdida no siempre es un fracaso, y muchas veces cortar las pérdidas temprano es la mejor decisión.
Desafía tus creencias con datos reales: El Sistema 1 ama confirmar lo que ya crees (sesgo de confirmación). Así que busca información que contradiga tu punto de vista.
Usa simulaciones mentales: Las IA mejoran con datasets variados. En tu vida, imagina diferentes escenarios antes de actuar. Pregunta: “¿Qué haría si estuviera en el lugar de otra persona?”
Fomenta la diversidad de opiniones: Las IA sesgadas se crean con datos sesgados. Lo mismo ocurre con nuestra mente: si solo escuchamos a personas que piensan igual que nosotros, reforzamos nuestras propias fallas cognitivas.
Food for thought
Hoy hemos visto cómo nuestra mente funciona como una inteligencia artificial, con un Sistema 1 que toma decisiones rápidas y un Sistema 2 más analítico. O mejor dicho, hemos construido las redes neuronales tal y como opera nuestro cerebro.
Si no entrenamos bien nuestra mente, caemos en sesgos y errores. Pero con práctica, podemos mejorar nuestra toma de decisiones y evitar que nuestro cerebro actúe como una IA con malos datos.
Cajón desastre
📺 Un video
Si te interesa reflexionar sobre cómo el software y la tecnología pueden ir acumulando complejidad hasta el punto de volverse insostenibles, échale un vistazo a esta charla de Jonathan Blow (creador de Braid y The Witness).Durante la charla Jonathan plantea ejemplos históricos de cómo el conocimiento se ha perdido y cómo eso podría volver a suceder.
Blow cuenta cómo civilizaciones antiguas (la Antigüedad clásica, el Imperio Bizantino…) llegaron a logros técnicos increíbles y luego simplemente olvidamos cómo replicarlos. Trazando un paralelismo con el software, expone que hoy día estamos tan acostumbrados a programas llenos de bugs y a interminables capas de abstracción, que hemos normalizado la baja calidad y la poca fiabilidad.
La tesis principal es que “la tecnología no avanza de forma inevitable; es posible que retroceda si no cuidamos y simplificamos las bases”. Blow llama a reducir la complejidad excesiva y a recuperar (o retener) la habilidad de entender de forma más profunda cómo funcionan nuestras herramientas. Más allá de ser “un vídeo sobre programación”, ofrece una visión muy humana acerca de nuestra dependencia tecnológica y de cómo las grandes hazañas, si no hay un esfuerzo continuo de enseñanza y transmisión de conocimiento, podrían perderse.
🔧 Una herramienta
Si quieres añadir un toque casi mágico a tu proceso creativo con IA, Runway es una opción excelente para experimentar. Te permite generar y editar videos con herramientas muy intuitivas, como la rotoscopia automática o la creación de animaciones partiendo de una sola imagen estática. Por ejemplo, en el vídeo que te adjunto, verás cómo una simple foto cobra vida añadiéndole movimiento con apenas unos clics.
📢 Una newsletter
Si te interesa el ecosistema startup en Europa y la visión de alguien que ha pasado por mil batallas, te recomiendo muchísimo la newsletter de
, fundador de Tinybird. En su última publicación (inspirada en ese hilo de Twitter de ), comparte su punto de vista como emprendedor que ya ha vivido varios ciclos: desde montar y vender su primera empresa hasta pasar por CARTO como CTO y ahora liderar Tinybird.Lo interesante de este post reciente es cómo aterriza la famosa lista de “lo que falta en Europa” (más cultura proempresa, más capital, más referentes…) a su propia experiencia.
Javi explica, desde dentro, lo duro que puede ser levantar financiación y escalar empresas de producto tecnológico, y da consejos prácticos basados en todos esos años de sudor y, como él mismo dice, “sufrimiento”. Si quieres una dosis de realismo y buen humor sobre la vida startup en nuestro continente, su newsletter es un muy buen lugar para empezar.
📜 Un artículo
Si te interesa reflexionar sobre cómo la inteligencia artificial está cambiando la forma en que escribimos (y pensamos), no dejes de leer la última columna de Marc Murtra en La Vanguardia, titulada “¿Hasta pronto?”. En este texto, Murtra pone sobre la mesa la importancia de la escritura como herramienta para ordenar nuestro mundo interior y procesar emociones, a la vez que advierte sobre cómo la tecnología —en concreto la IA generativa— puede afectar la creatividad y la originalidad de lo que producimos.
El artículo es una invitación a recuperar el hábito de poner nuestras ideas en papel y a ser conscientes de los posibles riesgos: desde la pérdida de la escritura a mano hasta la homogeneización de textos en la era de la IA. Si eres de quienes piensan que escribir no solo se trata de “contar cosas”, sino también de comprendernos mejor, este texto te hará cuestionarte cómo equilibrar la ayuda tecnológica con la esencia más personal de la escritura. En resumen, una lectura breve pero intensa que combina divulgación, autoconocimiento y un toque de alerta sobre el futuro de nuestra relación con las palabras. ¡Échale un vistazo!
🎙️ Un podcast
Si quieres estar al día de los temas internacionales sin caer en complicaciones ni en discursos eternos, te recomiendo No es el fin del mundo, de El Orden Mundial. Lo llevan expertos que explican la geopolítica, las noticias y los conflictos globales de forma muy cercana y fácil de entender.
Cada episodio se centra en un tema concreto (desde tensiones en Oriente Medio hasta los entresijos de la Unión Europea), así que siempre te llevas una visión bastante completa de lo que está pasando en el mundo. Ideal para escuchar mientras vas en el coche o si te apetece un rato de aprendizaje entretenido. ¡Échale un oído y verás cómo te enganchas!
Y hablando de podcast, no pensarías que iba a dejar la oportunidad de recomendarte un nuevo episodio de Código Abierto, el podcast donde charlamos de tecnología cada semana (Mónica, Carlos, Diego, Ignacio y un servidor).
Gracias por acompañarme una semana más, ¡y te espero en la próxima edición Innovation by Default 💡!
Gracias por la mención!
Gracias a ti por el contenido que compartes, ¡me encanta!