¿Qué harías si te se apareciera un genio de una lámpara y te regalase una herramienta que te da súper poderes? Una herramienta increíblemente poderosa a tu entera disposición. Una inteligencia artificial capaz de analizar información, programar, escribir y resolver problemas complejos. Pero hay un detalle: su rendimiento depende totalmente de cómo le pidas las cosas.
En esta edición del Diario de Innovación exploraremos un tema clave en el mundo de la inteligencia artificial: la ingeniería de prompts.
Hoy hablaremos de qué es exactamente esta disciplina, qué hace a un buen ingeniero de prompts y cómo esta habilidad se está convirtiendo en una ventaja competitiva esencial en la era de la IA.
Además, analizaremos cómo está evolucionando este campo y si en el futuro seguiremos necesitando prompts o si la IA será capaz de entendernos sin esfuerzo.
Para ello, tomaremos como referencia una fascinante mesa redonda organizada por Anthropic, en la que expertos como Amanda Askell, Alex Albert, David Hershey y Zack Witten debatieron sobre la evolución de la ingeniería de prompts y su impacto en el futuro.
Suscríbete para leer esta y otras muchas historias sobre innovación, tecnología y negocios.
Así que empecemos por el principio, ¿qué es la ingeniería de Prompts?
Para entender la ingeniería de prompts, pensemos en esto: hablar con una IA es como dar instrucciones a un equipo de trabajo. Si eres vago en tus indicaciones, obtendrás resultados imprecisos. Pero si defines bien lo que necesitas, el resultado será mucho más efectivo.
Ahora bien, a diferencia de una conversación humana, donde un malentendido puede tener consecuencias duraderas, con una IA puedes reiniciar y probar diferentes enfoques sin consecuencias permanentes.
Según Alex Albert, la ingeniería de prompts no se trata solo de escribir un mensaje, sino de diseñar un sistema. Es decir, no solo le damos instrucciones a la IA, sino que debemos pensar en:
Cómo interactúa el prompt con los datos externos
Cómo afecta la latencia del sistema
Cómo se adapta a diferentes aplicaciones y contextos
David Hershey amplía esta idea y menciona que la ingeniería de prompts es una forma de programación, porque implica estructurar la información, decidir qué datos incluir y prever distintos escenarios para optimizar el desempeño del modelo.
Por su parte, Zack Witten compara este proceso con la ingeniería tradicional: se hacen hipótesis, se prueban y se ajustan variables hasta encontrar la mejor solución.
En esencia, la ingeniería de prompts es una mezcla entre comunicación, diseño de sistemas y experimentación, con el objetivo de obtener el mejor rendimiento posible de la IA.
Otra de las preguntas que surgen a lo largo del video es: ¿qué hace a un buen Ingeniero de Prompts?
Algunas personas creen que escribir buenos prompts es simplemente una cuestión de gramática o redacción. Pero en realidad, es un proceso mucho más profundo.
Amanda Askell menciona tres habilidades fundamentales:
Claridad en la comunicación. Explicar tareas de manera precisa, sin asumir que la IA entiende el contexto implícito.
Iteración constante. Analizar los resultados, ajustar el prompt y volver a probar hasta obtener la respuesta ideal.
Anticipación de errores. Pensar en posibles casos extremos, como datos vacíos o fuera de contexto, y preparar al modelo para manejarlos.
Un error común es asumir que la IA “preguntará” si algo no está claro. Pero las IA no hacen preguntas aclaratorias como lo haría un humano. Por eso, el ingeniero de prompts debe prever posibles malentendidos y diseñar instrucciones que minimicen errores.
Zack Witten agrega que un buen ingeniero de prompts no solo resuelve problemas individuales, sino que busca elevar el nivel general del prompting. Es decir, comparte conocimiento, desarrolla técnicas y ayuda a otros a mejorar su interacción con la IA.
Si te gusta lo que estas leyendo, no olvides que también tienes disponible el podcast de Innovation by Default 💡. Suscríbete aquí 👇
¿Qué técnicas y desafíos definen el estado del arte de la Ingeniería de Prompts?
Los expertos de Anthropic discuten varias técnicas clave, como el “chain of thought” (cadena de pensamiento), donde se le pide a la IA que explique su razonamiento paso a paso antes de dar una respuesta.
¿Por qué es útil?
Mejora la precisión en tareas complejas.
Permite identificar fallos en el razonamiento del modelo.
Ayuda a corregir errores iterativamente.
Sin embargo, Amanda advierte que no debemos pensar que la IA realmente “razona” como un humano. A veces, solo está ocupando un espacio computacional extra sin mejorar realmente la calidad de la respuesta.
Otra técnica interesante es el uso de ejemplos ilustrativos en lugar de literales. Es decir, en lugar de dar ejemplos idénticos a los datos reales, se usan ejemplos que ayuden a la IA a comprender el patrón sin encasillarla en un formato específico.
Pero aquí nos encontramos con un desafío clave: Muchos usuarios asumen que la IA entenderá el contexto de la tarea sin explicárselo claramente. Pero la clave está en explicitar cada detalle necesario para evitar malinterpretaciones.
Ante esta situación y contexto actual, el debate viró hacia cómo evolucionará la ingeniería de Prompts.
La ingeniería de prompts ha cambiado mucho en los últimos años. Antes, los modelos de IA requerían “trucos” para obtener buenos resultados.
Por ejemplo, en modelos antiguos, era necesario decirles explícitamente: “Piensa paso a paso antes de responder.”
Pero hoy, los modelos más avanzados (los modelos razonadores) ya lo hacen por defecto.
David Hershey explica que, a medida que los modelos se vuelven más sofisticados, la tendencia ha sido darles más contexto y confiar en su capacidad de razonamiento, en lugar de simplificar demasiado la tarea.
En pocas palabras, la ingeniería de prompts ha evolucionado de ser una técnica basada en trucos a una colaboración con modelos cada vez más inteligentes.
Y dónde estaremos de aquí a unos años, ¿cuál es el Futuro de la ingeniería de Prompts?
Aquí llega la gran pregunta: ¿seguiremos necesitando escribir prompts o las IA del futuro entenderán cualquier instrucción sin esfuerzo?
Amanda Askell plantea un escenario interesante: ¿Y si en el futuro en lugar de que nosotros escribamos prompts, la IA nos haga preguntas para entender mejor lo que queremos?
Por ejemplo, a día de hoy, para analizar tendencias en redes sociales, debemos escribir al LLM un prompt muy detallado. Pero en el futuro, podríamos simplemente decir: 💬 “Quiero analizar tendencias en redes sociales.”
Y en lugar de dar una respuesta inmediata, la IA podría preguntar: ¿Debo enfocarme en hashtags, palabras clave o menciones?” o ”¿Te interesa un análisis semanal o anual?”.
En otras palabras, la IA no solo respondería, sino que actuaría como un consultor, guiándonos en el proceso.
Por otro lado Zack Witten cree que la ingeniería de prompts evolucionará hacia una interacción más fluida, donde las herramientas ayudarán a los usuarios a estructurar sus ideas en lugar de requerirles escribir prompts perfectos.
La ingeniería de prompts es una habilidad en constante evolución. Y aunque la IA seguirá mejorando, las personas que sepan comunicarse con ella de manera efectiva siempre tendrán una ventaja.
Así que la próxima vez que interactúes con una IA, experimenta con diferentes prompts, analiza los resultados y ajusta tu estrategia.
Porque el futuro no pertenece a la IA. Pertenece a quienes sepan utilizarla mejor.
Si este episodio te resultó útil, compártelo con alguien que quiera entender mejor la inteligencia artificial.
Gracias por acompañarme en un nuevo Diario de Innovación, ¡y te espero mañana en Innovation by Default 💡!
PD: Esta misma semana, en Código Abierto, publicamos un episodio basado en esta misma temática. #33 - LLMs y personas. ¿Qué tan importante es hacer las preguntas correctas?
En lugar de escuchar a Amanda, Alex, David o Zack, tendrás la oportunidad de escuchar a Diego, Ignacio y a un servidor hablando sobre el rol, nuestras experiencias con el prompting y el gran melón que acaparó la conversación. ¿Deberíamos llamar a este rol “ingeniero de prompts”?