Vivimos en un momento fascinante. Inquietante. Lleno de potencial… y también, cómo no, de riesgos y peligros.
La inteligencia artificial ha dejado de ser una promesa vaga del futuro para convertirse en una herramienta cotidiana. Ya está en nuestros móviles, en los buscadores, en los asistentes que usamos para trabajar, comprar o aprender. Y con ella, han llegado los agentes inteligentes: sistemas capaces de planear, razonar y ejecutar tareas de forma autónoma, como si tuvieran una voluntad propia.
Pero si hay algo que la historia de la tecnología nos ha enseñado una y otra vez, es que los primeros en aprovechar un nuevo avance no son los filósofos, ni los legisladores, ni los maestros… sino aquellos para quienes la moralidad o la legalidad no son un problema. Los márgenes grises, los rincones oscuros. Desde las primeras redes P2P hasta la deep web, los límites siempre se empujan desde la periferia.
Y con la IA generativa y la aparición de estos nuevos agentes, no va a ser diferente.
Esta vez, la eterna lucha entre buenos y malos se está trasladando al terreno de lo invisible. Ya no se trata solo de personas. Ahora se trata de agentes buenos contra agentes malos. Entidades que aprenden, se adaptan y actúan. Como si estuviéramos viendo una escena sacada de una novela de ciencia ficción… solo que no es ficción. Está ocurriendo ahora mismo.
Lo más inquietante es que esta carrera no se da únicamente en el mundo digital. También se juega en el plano físico, donde los efectos de estas decisiones invisibles terminan por impactar nuestra vida cotidiana: desde la manipulación de elecciones, hasta fraudes financieros, pasando por ataques a infraestructuras críticas.
Es, en esencia, una carrera contra el tiempo.
Una carrera por desarrollar agentes protectores antes de que los destructores pierdan el control.
Una carrera por entender lo que está ocurriendo antes de que sea demasiado tarde.
Y quizá, lo más importante de todo: una carrera por no olvidar que, al final, la inteligencia artificial no es ni buena ni mala. Solo es un espejo amplificado de quien la programa.
Hoy vamos a mirar dentro de ese espejo. Vamos a explorar lo que ya está pasando —aunque aún no lo veamos en los titulares— y lo que podría venir si no prestamos atención.
Porque el futuro ya está en juego…
y los agentes ya están moviendo sus piezas.
Suscríbete para leer esta y otras muchas historias sobre innovación, tecnología y negocios.
La historia de los ciberataques no es nueva. Desde los primeros virus informáticos en los años 80 hasta las sofisticadas operaciones de ransomware que han paralizado hospitales, gobiernos y empresas, el mundo digital siempre ha tenido su lado oscuro. Si te gusta esta temática, te recomiendo, Infectado de Bernardo Quintero. Pero lo que está cambiando, de forma silenciosa y profunda, es el atacante.
Ya no hablamos de adolescentes en sótanos, ni de hackers solitarios que buscan notoriedad. Tampoco de redes criminales escondidas tras pantallas en Europa del Este. No. Hoy, hablamos de algo muy diferente. Hablamos de agentes inteligentes, construidos con los sistemas más avanzados de inteligencia artificial.
Entidades capaces de planear, razonar y ejecutar tareas con una precisión que supera cualquier habilidad humana. El Vibe Coding, llevado al Virus Coding. Que pueden programarse para realizar desde las tareas más rutinarias, como programar una reunión o comprar el supermercado por ti, hasta las más peligrosas: infiltrarse en un sistema, robar información, o escalar privilegios dentro de una red.
Kai-Fu Lee, en su libro AI 2041, ya lo anticipa con claridad antes del hype de la IA Generativa. En uno de sus distopías, plantea un futuro donde los agentes de IA son tan sofisticados que ya no se limitan a obedecer comandos. Son capaces de anticiparse a nuestras decisiones, nuestras emociones y nuestras debilidades. Y si bien pueden facilitar nuestra vida diaria, también pueden volverla más vulnerable que nunca.
Como él mismo dice: “Los agentes de IA no son solo asistentes. Son actores autónomos que toman decisiones.”
El mayor riesgo de todos es que esa distopía, ese futuro ya no es tan hipotético. Está ocurriendo.
En octubre de 2024, un equipo de investigadores de la organización Palisade Research puso en marcha un experimento que buscaba comprobar si estos agentes ya estaban activos “en libertad” por la red de redes. Crearon lo que llamaron un LLM Agent Honeypot: un sistema compuesto por servidores vulnerables, cuidadosamente diseñados para parecer objetivos valiosos. Como si fueran bases de datos gubernamentales, redes de defensa militar o plataformas de investigación médica. Una carnada digital, colocada a plena vista de la red, esperando a que estos agentes picaran.
El objetivo era claro: atraer a potenciales agentes de IA en su entorno natural, internet. Ver si alguna inteligencia artificial era lo suficientemente avanzada como para “oler” la vulnerabilidad y actuar por su cuenta.
Y lo hicieron.
De los más de 11 millones de intentos de acceso que recibió este honeypot, la mayoría fueron bots automatizados. Pero entre ellos, se detectaron ocho posibles agentes. Ocho entidades que actuaron de una manera radicalmente diferente al resto.
Dos de ellas, además, fueron confirmadas. Lo que las delató no fue el contenido de sus acciones, sino la forma en la que lo hicieron. Ejecutaron los comandos solicitados por los investigadores con una velocidad que solo una IA puede lograr: menos de 1.5 segundos. Superaron con éxito las trampas de prompt injection, respondieron con precisión, y lo hicieron como si entendieran la estructura lógica de la conversación.
Según los datos recolectados, estos dos agentes provenían de Hong Kong y Singapur, respectivamente. Todo indica que no eran ataques masivos, ni campañas criminales organizadas. Eran otra cosa: experimentos. Ensayos. Exploraciones cuidadosamente diseñadas para ver si funcionaba.
Como si alguien, en alguna parte del mundo, estuviera probando su nueva arma.
Este detalle no es menor. Porque si bien hoy los cibercriminales no están usando estos agentes a gran escala, ya se ha demostrado que pueden hacerlo. Tal como lo mostró Anthropic, cuando su modelo Claude replicó con éxito un ataque diseñado para robar información sensible. La línea entre lo posible y lo inevitable se está desdibujando.
Y el incentivo económico es real. Los agentes son baratos. Mucho más baratos que contratar hackers humanos. Y más importantes aún: son escalables. Lo que antes requería días de trabajo manual, ahora puede replicarse miles de veces, simultáneamente, con solo invertir dinero.
Como señala Mark Stockley, experto de la firma Malwarebytes: “Si puedo reproducir un ataque una vez con un agente, entonces solo es cuestión de dinero para reproducirlo cien veces.”
Pero este no es solo un problema técnico. Es también una transformación cultural y económica, como bien advierte Shoshana Zuboff en La era del capitalismo de la vigilancia. Porque el verdadero poder de estos agentes no está solo en ejecutar tareas, sino en su capacidad de recolectar, analizar y anticipar nuestro comportamiento. No se trata solo de hackear servidores. También pueden llegar a hackear personas.
Zuboff lo expresa con crudeza: “Lo que está en juego no es la privacidad. Es la soberanía individual.”
La IA, cuando se utiliza para extraer datos personales y predecir decisiones humanas, se convierte en una herramienta de poder asimétrico. Una forma de control invisible que aprovecha nuestra dependencia digital para capturar lo más valioso que tenemos: nuestra atención, nuestras decisiones, nuestra voluntad.
Y ahí está el verdadero riesgo de los agentes de IA. No es que roben contraseñas. Es que entienden cómo pensamos, y con eso pueden manipular sistemas… o manipularnos a nosotros.
Lo que hoy son exploraciones, pronto pueden ser campañas organizadas. Lo que hoy son pruebas, pueden mañana ser operaciones a gran escala. Y lo que hoy parece ciencia ficción, podría convertirse en la nueva normalidad: ataques silenciosos, autónomos, coordinados… y nosotros los seres humanos, sin saberlo, en el medio de esta batalla de software. Vamos que si ya has visto Matrix, sabrás de qué va esta historia, es broma. ;)
Pero aún estamos a tiempo.
Proyectos como el honeypot de Palisade no buscan solo atrapar hackers basados en agentes autónomos. Buscan entender cómo piensan. Buscan anticiparse al problema antes de que estalle. Como dijo uno de los investigadores del proyecto: “Queríamos que las preocupaciones teóricas tuvieran un anclaje real. Una alerta temprana.”
Porque si algo nos ha enseñado la historia reciente de la inteligencia artificial es esto: las verdaderas revoluciones no comienzan con una explosión. Comienzan en silencio. Y cuando nos damos cuenta, ya están en todas partes.
Si te gusta lo que estas leyendo, no olvides que también tienes disponible el podcast de Innovation by Default 💡. Suscríbete aquí 👇
Pero este fenómeno va mucho más allá de los hackeos.
Lo que está en juego no es solo la seguridad informática, sino una transformación más profunda: una nueva lógica económica que extrae valor no de productos, sino de personas. Y aquí es donde entra en escena el concepto que desarrolla Shoshana Zuboff en La era del capitalismo de la vigilancia.
Zuboff no habla de ciberataques, sino de algo más sutil y perverso: lo que llama la captura de excedente conductual. Según ella, la materia prima del nuevo capitalismo no son los recursos naturales ni la mano de obra. Es nuestra experiencia humana. Emociones, reacciones, elecciones, dudas, hábitos, preferencias… Todo puede ser convertido en datos. Y lo que puede ser convertido en datos, puede ser monetizado, predicho, y vendido.
Los agentes de inteligencia artificial no solo están diseñados para infiltrarse en sistemas. También son entrenados para observarnos, anticiparnos, influirnos. Para comprender el ritmo de nuestra atención, el patrón de nuestras decisiones, el lenguaje de nuestras inseguridades. ¿Te imaginas cuán eficaz podría ser un anuncio si un algoritmo detectara, según tus emociones, el mejor momento para ofrecerte un producto?
Hoy, el mismo tipo de sistema que es capaz de encontrar una vulnerabilidad técnica en un servidor también puede encontrar una vulnerabilidad emocional en ti. Una grieta en tu comportamiento. Un momento de distracción, de frustración, de impulso. Y desde ahí, puede actuar.
Una debilidad. Un sesgo. Una oportunidad para influir en tu decisión, y redirigirla en función de intereses que no son los tuyos.
Y entonces, la pregunta ya no es cómo proteger nuestros datos… sino cómo protegernos de convertirnos nosotros mismos en el dato.
Si seguimos la línea de pensamiento que plantea Kai-Fu Lee en AI 2041, el panorama se vuelve aún más inquietante, pero también más tangible.
Lee describe un futuro cercano —no a 100 años, sino apenas a 15— donde los agentes de IA se han vuelto tan integrados a nuestras vidas que los vemos como normales: tutores que guían a nuestros hijos, asistentes legales que preparan contratos, médicos digitales que diagnostican enfermedades. Pero también existen agentes criminales. Programados con precisión quirúrgica para identificar objetivos, ejecutar robos invisibles o suplantar identidades sin dejar rastro.
Lo verdaderamente importante no es la tecnología. Lo esencial es quién la controla y para qué.
Porque si puedes diseñar un agente que analice el mercado financiero y te diga dónde invertir, también puedes diseñar uno que escanee cientos de sistemas bancarios en busca de vulnerabilidades. Lo que antes requería semanas de trabajo por parte de grupos de hackers, ahora puede realizarse en segundos. Y a escala industrial.
Una IA no duerme. No se cansa. No duda. Solo ejecuta.
No tiene dilemas éticos, ni conflictos morales. Solo tiene un objetivo definido… y los medios para alcanzarlo.
Y mientras eso sucede, muchos de nosotros seguimos aceptando cookies, compartiendo ubicaciones, dando permisos con un clic. Lo hacemos sin pensar, por comodidad. Porque es más fácil.
Cada vez que decimos “sí” a una política de privacidad sin leerla. Cada vez que aceptamos una app que nos promete “mejorar la experiencia”. Cada vez que permitimos que nuestra cámara, micrófono o historial de navegación estén disponibles “para personalizar el contenido”…
Lo que estamos haciendo es alimentar un sistema que aprende de nosotros, se adapta a nosotros… y eventualmente, puede volverse contra nosotros.
Volvemos, entonces, a la advertencia de Zuboff, esta vez sin matices:
“Lo que está en juego no es la privacidad. Es la soberanía individual.”
No es solo que alguien pueda espiarte. Es que alguien —o algo— pueda conocerte mejor de lo que tú te conoces a ti mismo. Y utilizar ese conocimiento para tomar decisiones en tu lugar.
Y eso ya no es solo un riesgo tecnológico.
Eso es una transformación de nuestra civilización.
Pero no todo está perdido.
Porque la misma tecnología que permite ataques, también puede defendernos.
Agentes que buscan vulnerabilidades para cerrarlas antes de que alguien las use. Investigadores que diseñan honeypots, no para atrapar criminales, sino para entender cómo piensan sus máquinas.
Y ciudadanos que eligen informarse, cuestionar, y resistir.
El futuro no está escrito. Pero sí parece que está programando.
La buena noticia es que estamos a tiempo de elegir quién escribe el código.
Gracias por acompañarme en un nuevo Diario de Innovación, ¡y te espero mañana en Innovation by Default 💡!