Mira, hay días que son una mierda. Días en los que todo parece ir a peor, en los que el mundo tecnológico, que tantas veces admiramos, muestra su lado más inquietante.
Y, sin embargo, también son esos los días en los que más necesitamos hacernos preguntas. Preguntas incómodas. Como esta: ¿qué significa realmente “privacidad”?
En 2020, Carnegie Mellon, una de las universidades más prestigiosas del mundo en investigación tecnológica, estrenó edificio. TCS Hall. 90.000 pies cuadrados de sensores, drones, jardines con lluvia automatizada y una idea que lo cambió todo: Mites.
Mites son unos sensores del tamaño de un interruptor que capturan hasta 12 tipos distintos de datos: sonido, movimiento, temperatura, humedad, vibraciones… Se instalaron en más de 300 puntos del edificio, incluyendo oficinas privadas. Todo esto sin pedir permiso explícito a sus ocupantes.
El objetivo: investigar cómo podrían ser los edificios del futuro. Inteligentes, eficientes, sostenibles. Y, según los investigadores, también respetuosos con la privacidad. “No graban vídeo”, decían. “No almacenan audio identificable”, aseguraban. Pero los sensores estaban ahí. Parpadeando en el techo de las oficinas. Sin interruptor. Sin información clara. Sin consentimiento.
David Widder, doctorando especializado en ética tecnológica, fue uno de los primeros en alzar la voz. Quitó los sensores de su oficina con un destornillador. Escribió un manifiesto. Alertó de lo que esto podía significar: si en una universidad de primer nivel se normaliza instalar sensores sin pedir permiso, ¿qué impedirá a las empresas hacer lo mismo en oficinas, tiendas o nuestras casas?
El debate acabó llegando a la sociedad civil.
En ese tiempo hubo acusaciones cruzadas, reuniones tensas, emails incendiarios y hasta amenazas de sanción por “manipular equipos de investigación”. Algunos profesores defendían el proyecto por su potencial para el diseño de entornos más inteligentes. Otros, como Widder, advertían del precedente que se estaba creando.
Y aquí es donde reside el verdadero dilema: no es sólo cuántos datos se recogen, sino quién decide que se recojan. No es cuánta tecnología usamos, sino bajo qué condiciones la aceptamos. No es si el sensor puede identificarse o no, sino si fue instalado sin que tuvieras voz.
Este caso es un espejo de un futuro que ya está aquí. Uno donde la promesa de eficiencia choca con el derecho a no ser observado. Uno donde las universidades son laboratorios no solo de código, sino de dilemas morales.
La buena tecnología no es la que puede hacerlo todo. Es la que elige no hacerlo todo sin preguntar antes.
Que nunca te falten ideas, ni ganas de probarlas.
A.
PD1: Si este tema te interesa, te recomiendo este artículo en MIT Technology Review: “Computer scientists designing the future can’t agree on what privacy means”. Brillante y perturbador a partes iguales.
PD2: Si quieres adentrarte en el debate desde la filosofía y la tecnología, el libro “Privacy is Power” de Carissa Véliz es una lectura imprescindible.
Gracias por acompañarme en un nuevo Diario de Innovación, ¡y te espero mañana en Innovation by Default 💡!