En 2022, la irrupción de la IA generativa parecía una amenaza existencial para los artistas.
Durante meses, muchos artistas vivieron con el miedo de ser sustituidos por un algoritmo.
DALL·E 2, Midjourney, Stable Diffusion… imágenes asombrosas que llevaron a muchos a pensar que lo humano ya no era necesario.
Dos años después, el relato ha cambiado.
Los creadores ya no temen tanto a la IA —han aprendido a usarla como herramienta, no como amenaza.
Un grupo de comediantes profesionales, por ejemplo, participó en un experimento con Google DeepMind: usaron modelos de lenguaje para escribir rutinas de humor.
¿Resultado?
La IA era útil para crear un primer borrador rápido —un “vomit draft”—, pero sus chistes no eran ni originales ni verdaderamente graciosos.
Como dijo el investigador Tuhin Chakrabarty: “La creatividad consiste en desviarse de la norma; la IA sólo puede imitarla.”
Esa es la clave.
Los artistas están entendiendo que la IA no puede reemplazar su magia, pero sí liberarles del trabajo aburrido, estructurar ideas y acelerar la iteración.
Ahí está la clave: la IA puede acelerar, estructurar y ampliar, pero no puede inventar el asombro.
La chispa sigue siendo humana.
Mientras los artistas aprendían a convivir con la máquina, el péndulo social también se movía.
Este cambio no solo es un cambio cultural, es un cambio a nivel de contrato social, incluyendo sus consecuencias legales.
Los que hace dos años fueron ridiculizados por protestar contra el data scraping hoy cuentan con el apoyo del público.
Surgen defensas activas como Glaze o Nightshade, que “envenenan” las imágenes para impedir que los modelos las copien, y plataformas como Cara, que filtran el contenido generado por IA.
El poder comienza a reequilibrarse: de temer la IA, a domarla.
Pero esta historia ya no se escribe solo en estudios o galerías.
También en tribunales.
El mapa legal de la IA en 2025
El ecosistema creativo y empresarial está inmerso en un proceso de ajuste legal y ético sin precedentes.
Copyright e inteligencia artificial
Más de 45 demandas activas en EE. UU. —y cerca de 70 a nivel global— acusan a compañías como OpenAI, Meta, Google, Stability AI o Midjourney de entrenar sus modelos con obras protegidas sin consentimiento ni compensación.
Entre los demandantes hay desde escritores y artistas individuales hasta grandes medios como The New York Times o Disney.
El debate gira en torno a dos preguntas fundamentales:
¿Qué es “uso justo” en la era de la IA?
¿Quién posee realmente lo que crea un modelo?
Privacidad y biometría
Las demandas ya no se limitan al copyright.
Google ha pagado 1.375 mil millones de dólares en Texas por el mal uso de datos biométricos y de localización.
Amazon afronta litigios bajo la Biometric Information Privacy Act (BIPA) de Illinois por el uso no autorizado de reconocimiento facial.
El mensaje es claro: los datos personales son la nueva frontera regulatoria.
Discriminación y sesgos algorítmicos
Casos contra HireVue e Intuit denuncian sesgos en procesos automatizados de contratación y crédito.
En el sector asegurador, Cigna, Humana y UnitedHealth están bajo investigación por decisiones médicas automatizadas que podrían haber negado tratamientos injustamente.
La pregunta ya no es técnica: es moral.
Responsabilidad y seguridad
Los pleitos por accidentes con Tesla Autopilot están redefiniendo qué significa “producto seguro” en la era de los algoritmos.
El nuevo estándar apunta hacia una supervisión constante: máquinas que vigilan a máquinas.
Cumplimiento normativo global
En Europa, el AI Act ya está en vigor: regula el uso de IA según niveles de riesgo, exige transparencia y gobernanza responsable.
En EE. UU., la regulación avanza estado por estado (California, Colorado, Illinois), mientras el gobierno federal suaviza algunos requisitos para no frenar la innovación.
La diferencia es filosófica: precaución frente a velocidad.
Food for thought
Qué hacer si creas o trabajas con IA:
Usa la IA como acelerador, no como autor.
Bocetos, estructuras, variantes: sí. Pero la voz y la intención deben seguir siendo tuyas.
Traza tu huella de datos.
Documenta qué usas para entrenar, afinar o generar contenido. Y con qué base legal.
Establece controles de salida.
Revisa outputs, sesgos y posibles infracciones antes de publicar o comercializar.
Adopta la mentalidad de “auditoría continua”.
Auditorías internas, registros técnicos, políticas de transparencia.
Anticípate al cambio normativo.
La mejor defensa es la preparación.
El futuro del arte —y de cualquier disciplina creativa o técnica— no será humano o artificial. Será humano con IA.
Y mientras la tecnología sigue aprendiendo a imitar, los humanos seguimos aprendiendo a decidir qué queremos amplificar: nuestra creatividad o nuestro riesgo.
Que nunca te falten ideas, ni ganas de probarlas.
A.
PD — Lecturas para mentes creativas:
El Acto de Crear — Rick Rubin
The Artist in the Machine — Arthur I. Miller
Roba Como un Artista — Austin Kleon


