No eres un gadget ...
... pero podrías acabar siéndolo
Hay libros que no envejecen.
Solo cambian de contexto.
Y luego están los que, cuando los vuelves a leer años después, te das cuenta de que no eran una fotografía del presente… sino una advertencia del futuro.
Eso es lo que pasa con You Are Not a Gadget de Jaron Lanier.
Publicado en 2010, cuando Facebook aún era casi inocente y la palabra “IA generativa” no formaba parte de ninguna conversación seria, Lanier ya intuía algo incómodo: que la forma en la que diseñamos la tecnología no es neutral.
Moldea cómo pensamos.
Cómo creamos.
Y, sobre todo, quién captura el valor de lo que hacemos.
Hoy, en pleno boom de la inteligencia artificial, su tesis no solo sigue viva.
Se ha vuelto inevitable.
Lanier construyó su argumento alrededor de una idea sencilla pero profunda:
Internet estaba diseñado para glorificar lo colectivo… a costa de diluir al individuo.
En 2010, eso significaba Wikipedia, los blogs, los mashups, la cultura del “todo es remix”.
En 2026, significa algo mucho más radical.
Significa sistemas capaces de:
imitar estilos creativos con precisión quirúrgica
recombinar millones de obras sin atribución
producir contenido a escala industrial
y competir directamente con sus propios creadores
Ya no estamos hablando de compartir contenido.
Estamos hablando de automatizar la creatividad.
De la mente colectiva… a la mente estadística
Lanier criticaba la “mente colmena”: esa idea de que muchas personas contribuyendo pequeñas piezas podían generar algo superior a cualquier individuo.
Hoy hemos dado un paso más.
La IA generativa no es una mente colectiva.
Es una destilación estadística de millones de mentes individuales.
Pero con una diferencia clave:
En Wikipedia, puedes rastrear contribuciones.
En la IA, no sabes de dónde viene nada.
El resultado es una paradoja:
Cuanto más potente es el sistema, menos visible es el individuo.
Crear ya no es el cuello de botella
Aquí es donde la tesis original de Lanier necesita actualizarse, ese es el gran cambio que hemos vivido en estos quince años.
Porque hay algo que él no pudo anticipar del todo.
Estas herramientas no solo sustituyen.
También amplifican.
Hoy, una sola persona puede:
escribir como si fuera un equipo editorial
diseñar como si tuviera un estudio creativo
programar como si contara con un batallón de programadores
Esto conecta directamente con otra idea poderosa de Roba Como un Artista de Austin Kleon:
Nada es completamente original. Todo es una recombinación.
La diferencia es que antes esa recombinación era humana, lenta y limitada.
Ahora es automática, instantánea y escalable.
Y eso introduce una tensión brutal: Empoderamiento individual vs Commoditización de la creatividad
Nunca ha sido tan fácil crear.
El problema que nadie quiere resolver: quién cobra
En 2010, el problema era claro:
El contenido se copiaba gratis.
En 2026, el problema es más sofisticado:
El contenido se usa para entrenar sistemas que luego compiten contigo.
Es un cambio sutil, pero devastador.
Porque introduce una nueva forma de trabajo no remunerado:
escribir un artículo
publicar una imagen
compartir código
ya no solo genera valor directo.
También alimenta sistemas que extraen ese valor de forma diferida.
Lanier propuso en su momento ideas como micropagos o trazabilidad de contenido.
Durante años sonaron utópicas.
Hoy, con tecnologías como watermarking, linaje de datos, sistemas de atribución o infraestructuras tipo blockchain, empiezan a parecer inevitables.
Pero seguimos sin resolver lo esencial:
¿Cómo se reparte el valor en un sistema donde todos contribuyen… pero pocos capturan?
Cuando el modelo se convierte en estándar
Lanier hablaba del “lock-in” tecnológico usando el ejemplo del MIDI.
Sistemas diseñados con limitaciones iniciales que se vuelven imposibles de cambiar.
Hoy estamos viendo algo parecido, pero a otra escala.
Los grandes modelos de IA empiezan a comportarse como nuevos estándares de facto:
definen cómo interactuamos con la información
condicionan cómo se construyen productos
moldean expectativas de usuarios
Y aquí aparece una tensión interesante.
Por un lado:
modelos cerrados → riesgo de concentración
dependencia de pocos actores
Por otro:
ecosistemas abiertos como PyTorch
modelos abiertos tipo LLaMA
que han demostrado algo clave:
La apertura no degrada necesariamente la innovación. Puede acelerarla.
Esto matiza el pesimismo de Lanier.
Pero introduce un nuevo dilema:
si todo es abierto → ¿quién captura valor?
si todo es cerrado → ¿quién controla el sistema?
No hay solución trivial.
Cuando ya no sabes si hablas con un humano
Otra de sus preocupaciones era la anonimidad online.
Los trolls.
El comportamiento de masa.
La degradación del discurso.
Hoy eso se queda corto.
Porque el problema ya no es solo quién habla.
Es si hay alguien hablando.
Bots, deepfakes, contenido sintético…
La línea entre humano y máquina se difumina.
Y eso tiene consecuencias profundas:
erosión de la confianza
dificultad para validar información
manipulación a escala
Lanier temía la deshumanización de internet.
La IA añade una capa nueva, la posibilidad de un entorno donde lo humano es indistinguible.
La economía que se está formando
Si hay una predicción de Lanier que hoy resuena con más fuerza que nunca, es esta:
La tecnología tiende a concentrar valor en quienes la poseen.
Y la IA generativa acelera ese proceso.
Porque combina tres dinámicas:
Escala masiva
Costes marginales cercanos a cero
Efectos de red brutales
El resultado es una economía donde:
unos pocos controlan la infraestructura
muchos contribuyen con datos
y casi nadie entiende realmente cómo se distribuye el valor
Esto conecta con algo que vemos constantemente, las empresas que ganan no son necesariamente las que crean…
Son las que:
empaquetan
distribuyen
escalan
La creatividad ya no es la ventaja competitiva principal.
La captura de valor sí lo es.
La pregunta que importa ahora
Y aquí es donde la tesis actualizada de Lanier cobra todo su sentido.
El problema ya no es solo tecnológico.
Es sistémico.
No se trata de:
IA abierta vs cerrada
modelos grandes vs pequeños
más capacidad vs menos coste
La pregunta real es:
¿Cómo diseñamos sistemas donde la inteligencia artificial no sustituya silenciosamente a las personas, sino que las reconozca, compense y potencie?
Porque si no lo hacemos, el escenario es bastante claro:
creatividad abundante
valor concentrado
individuos invisibles
cultura plana
Una idea para quedarte este fin de semana
Hay una tentación muy humana cuando aparece una tecnología nueva, pensar que el progreso es inevitable.
Que todo lo que ocurre es parte de una evolución natural.
Lanier nunca compró esa idea.
Y probablemente hoy diría algo así:
La tecnología no es destino. Es diseño.
Cada decisión que tomamos ahora:
cómo entrenamos modelos
cómo distribuimos datos
cómo compensamos a los creadores
cómo diseñamos plataformas
define el tipo de sociedad que vamos a construir.
Y eso nos devuelve a una idea sencilla, pero potente:
No eres un gadget.
Pero podrías acabar siéndolo si no diseñamos bien el sistema.
También déjame recordarte que si te gusta la tecnología, el podcast de Código Abierto puede ser una muy buena opción.
Food for thought
La publicación de hoy nos deja una ironía es bonita.
Nunca hemos tenido herramientas tan potentes para amplificar lo humano.
Y, al mismo tiempo, nunca ha sido tan fácil diluirlo.
Entre esos dos polos se juega todo.
El futuro de la creatividad.
El futuro del trabajo.
Y, en gran medida, el futuro de cómo entendemos el valor.
Porque en un mundo donde cualquiera puede crear la verdadera pregunta ya no es quién puede hacerlo.
Es quién consigue que eso importe.
Y eso es todo por hoy. Si algo de lo que has leído te ha removido, dímelo.
Ya sabes que estoy al otro lado si quieres comentar, discrepar o simplemente saludar.
Que nunca te falten ideas, ni ganas de probarlas.
A.


