Sociedades en libertad vigilada

1 post / 0 new
Imagen de fiarme
Sociedades en libertad vigilada

Surveillance cameras people

Se suele decir que los algoritmos lo saben todo de ti. En realidad es mucho más profundo. An la era de las apps, si no sabes quién programa tus herramientas o cuál es su objetivo, es porque el programado eres tú

En la ciudad china de Xichang está la granja de cucarachas más grande del mundo. Hay 6.000 millones de cucarachas en ella que, si escaparan, provocarían un enorme desastre ecológico. Pero no lo hacen: la Inteligencia Artificial las mantiene dentro contentas y felices, controlando 80 variables de su vida para que lo único en lo que tengan que pensar las cucarachas sea en crecer y reproducirse. La máquina no sabe nada de cada una de ellas, ni le interesa. Solo predice su comportamiento y se anticipa a sus necesidades de alimento, temperatura o humedad antes de dirigirlas a su particular matadero y aprovechar sus supuestas propiedades medicinales.

Los ciudadanos de los países desarrollados solemos decir que las plataformas digitales lo saben todo de nosotros. En realidad, no es del todo así. La máquina no sabe nada de nosotros, ni le interesa. Nos conoce, pero no como nos conoce nuestra madre o nuestra mejor amiga. Nos conoce como la granja china conoce a sus cucarachas. Necesita información sobre nosotros, pero la quiere para predecir nuestras futuras necesidades y ser capaz de anticiparse a ellas.

El pasado mes de abril se filtró un vídeo de Alphabet -la matriz de Google- producido en 2016 por X, su incubadora de ideas. En el corto, de ocho minutos y firmado por dos cerebros con mucho peso en las decisiones de Alphabet, la compañía se veía a sí misma como un hito de la evolución humana. Rescató la teoría del Lamarquismo, ya desacreditada, que proponía que las experiencias vitales de los individuos también pasaban a sus descendientes. Alphabet imagina que gracias a ella esto pasará a ser posible y las ideas de Jean-Baptiste Lamarck (1744-1829) cobrarán un nuevo sentido: con el tiempo y a base acumular información sobre decisiones individuales de generaciones y generaciones de usuarios que nazcan, vivan, amen y mueran usando sus servicios (el buscador Google, el navegador Chrome, el correo electrónico Gmail, el sistema operativo para móviles Android...), Alphabet aprenderá a predecir y orientar el comportamiento humano hacia la mejor opción posible en cada situación. Gracias a su algoritmo, la experiencia acumulada de sus usuarios fallecidos se transmitirá a las nuevas generaciones, como creyó Lamarck.  

La máquina, en realidad, no sabe nada de nosotros, ni le interesa. Nos conoce, pero no como nuestra madre. Necesita información para predecir nuestras futuras necesidades

La matriz de Google aseguró que el vídeo era un simple “experimento mental”, pero no es extraño que se vea a sí misma siendo capaz de predecir absolutamente todo. Viene a ser lo mismo que cuando un joven político se imagina lo que podría hacer como alcalde, ministro o presidente. Las multinacionales digitales como Alphabet, Facebook o Amazon han vendido su capacidad de predecir como una aspiración de generar la máxima comodidad para sus usuarios, para lograr que todo esté a su gusto en sus plataformas. En realidad, no es del todo así. Nuestra comodidad no les interesa más que a la granja china la comodidad de sus cucarachas. Es solo la estrategia de marketing del capitalismo digital, una táctica para vender su producto real: su capacidad de predecir. Su eslogan es Piensa Diferente, pero ganan dinero haciéndote lo más previsible posible.

La aplicación más habitual de esa capacidad de predecir es la publicidad. Facebook es capaz de predecir cuándo eres más proclive a ponerte a dieta a partir de tus comentarios, tus fotos de comida, tus periodos habituales de vacaciones y la huella que dejaron personas que encajan en tu perfil al ponerse a dieta. Puede vaticinar en qué semana del año hay más posibilidades de que tomes esa decisión que va tomando forma en tu subconsciente. Su algoritmo es capaz de anticiparse a esa necesidad y bombardearte durante días con artículos sobre los beneficios de la comida sana, los errores que cometes en tu alimentación diaria o las comidas preferidas de aquellas personas con el físico que aspiras a tener. Finalmente, aparecerán los anuncios de dietas, productos milagro o gimnasios, sutilmente colocados. El proceso se combina con muchos otros a la vez, que pueden tener más o menos éxito a la hora de venderte productos y servicios, pero lucran igualmente a Facebook con el dinero de los anunciantes y hacen que su objetivo real sea muy difícil de percibir.

Esa es la forma más directa de hacer dinero con la tecnología de predicción. Pero también se vende a terceros. Para comprar tu propia máquina de predecir necesitas tener un cheque en blanco. ¿Quién puede estar tan interesado en gozar de esa capacidad de anticipación y tiene dinero para pagarla? Exacto: la industria de la seguridad y la militar. Alphabet ha rescindido recientemente un contrato con el Pentágono para desarrollar una Inteligencia Artificial capaz de identificar qué fragmentos de entre las millones de grabaciones de vigilancia de EEUU deben ser especialmente revisados por analistas humanos. La rebelión de los ingenieros de Google, el buque insignia al que Alphabet no puede permitirse desviar de su rumbo, dio al traste con el proyecto. Que nadie se lleve a engaño: Amazon ya se ha postulado para ocupar su puesto.

Cada vez más fuerzas policiales usan tecnología de predicción, pero las ONG denuncian que estos algoritmos "hacen posible la continuación de décadas de políticas discriminatorias y racistas bajo la aparente neutralidad de los datos objetivos"

La capacidad de predecir también se ha comprado para usarla en labores policiales. Para los Estados, la posibilidad de anticiparse a la próxima ola de indignación ciudadana es demasiado jugosa como para dejarla pasar. Varias policías alrededor del mundo ya usan tecnología de predicción para tratar de anticiparse a las emergencias y reforzar con más agentes los puntos calientes de las ciudades, antes de que se les llegue a necesitar. Esa es la teoría. En la práctica, se ha descubierto que el algoritmo es racista, clasista y profundamente discriminador. Los primeros estudios que analizaron el impacto de esta tecnología en las ciudades con un mayor índice de criminalidad de EEUU, como Los Ángeles, descubrieron que la máquina llena de policías los barrios más conflictivos, provocando que sus residentes sean los más interrogados y vigilados. Aunque sus vecinos no hayan cometido ningún delito en toda su vida, se sienten en permanente supervisión. Lo que para la Policía de Los Ángeles es una vigilancia predictiva “basada en la evidencia y en los datos”, para los autores de la investigación es un sistema que “patologiza” la pertenencia a determinados segmentos de población y “hace posible la continuación de décadas de políticas discriminatorias y racistas bajo la aparente neutralidad de los datos objetivos”.

Ya tropezamos otras veces con esta piedra. La consecuencia de asociar el desarrollo al progreso social la pagamos con la mayor crisis económica y social en 100 años. El discurso de autopromoción del capitalismo digital es potente: ¿quién no querría vivir en un mundo conectado, en la aldea global? ¿Tener un contacto directo con representantes e instituciones? ¿Favorecer una mayor transparencia y control de los poderes públicos y privados? El problema es que aceptamos tan rápido que debíamos aplicar la última tecnología a todos nuestros procesos vitales que olvidamos meditar cómo íbamos a hacerlo. No pensamos en los mecanismos que impedirían que fuéramos tan previsibles como cucarachas en una granja controlada mediante Inteligencia Artificial.

Programa o sé programado

Las tecnologías de predicción han comenzado ya a apoderarse de nuestros procesos democráticos. El presidente de EEUU es fruto de lo que el algoritmo predijo que atraía a un mayor número de usuarios: alguien que enfada, que da miedo, que acapara atención, que hace gracia, que sobreactúa. Pornografía política. “Si decidimos renunciar a la democracia y, en su lugar, recurrir a las plataformas digitales y medios sociales de gestión privada para informarnos sobre el proceso político, entonces se acabó. Llegará la democracia del algoritmo. Las redes sociales no son un buen lugar para ejercer la democracia. Funcionan como un reality de televisión. Esta es la razón por la que los estadounidenses eligieron a una estrella de televisión como su presidente. Creen que American Idol es democracia”.

"Tenemos que interrogar a nuestras apps sobre cómo afectan al mercado de trabajo, el medioambiente, la economía... ¿quién se está enriqueciendo, quién está perdiendo su trabajo, a quién se está empobreciendo? Si no sabes para qué está programada la aplicación, entonces no eres el usuario real"

Son palabras de Douglas Rushkoff, una de las mentes con mayor capacidad de abstracción que se han puesto a pensar cómo afectan la sociedad de la información, las agendas mediáticas y las nuevas tecnologías a los patrones de conducta de las personas. Rushkoff es un hacker formado en el ciberpunk de los 80 que se doctoró en Nuevos Medios, da clase en la Universidad de Nueva York y ha escrito una decena de libros. El primero se lo rechazaron 20 editores que no compraban su tesis de que las redes eran el futuro. El último, de 2016, ya abogaba por cortar cuanto antes con las multinacionales del capitalismo digital como Google y Facebook. Huir de ellas sin mirar atrás.

En 2010, antes del 15M, Ocuppy Wall Street y las llamadas revoluciones de las redes sociales, Rushkoff lanzó uno de los lemas que marcarían la lógica hacktivista: Programa o sé programado. No consiste en llamar a la sociedad civil a diseñar sus propios algoritmos de predicción, sino en ser capaz de ver qué objetivos se ocultan tras una impoluta interfaz gráfica. "Programa o sé programado no significa necesariamente que tenemos que entender cómo programar en javascript o C ++. Después de todo, la persona que usa esos lenguajes de programación sigue escribiendo para una arquitectura de chips subyacente y debe confiar en otros programadores. La programación no solo se refiere al código; también al plan de negocio. Me preocupa menos cómo influye javascript en Uber que cómo Uber nos influye a nosotros y a nuestro mundo”, explica en conversación con eldiario.es.

Desde Nueva York, Rushkoff deja un consejo para respirar en el océano tecnológico: “Tenemos que interrogar a nuestras apps sobre cómo afectan al mercado de trabajo, el medioambiente, la economía... ¿quién se está enriqueciendo, quién está perdiendo su trabajo, a quién se está empobreciendo y quién es el cliente? Si no sabes para qué está programada la aplicación, entonces no eres el usuario real”.

También, un recordatorio: “Los algoritmos no determinan nada excepto la forma en que las instituciones eligen interactuar con nosotros. Los algoritmos eligen dónde se ponen los anuncios de una corporación. A quién prestará su dinero un banco. Si un sistema penal ofrece libertad condicional o libertad definitiva a un convicto. Pero no determinan cómo interactuamos con el mundo o entre nosotros. Esa sigue siendo nuestra elección”.

Insertar una moneda para jugar otra partida

Si el principal mantra contra el capitalismo de la vigilancia se lanzó en 2010, ¿por qué no fuimos capaces de impedir que este penetrara tanto? ¿Qué ha ocurrido con las herramientas no basadas en la predicción de nuestro consumo? “Nos quedó un cementerio de proyectos muertos”, responde Renata Ávila, abogada experta en derechos digitales y codirectora junto al inventor de la web, Tim Berners-Lee, de la iniciativa Web We Want [La Web que Queremos].

“Fallamos en pensar a lo grande. Todo el bombo de los últimos diez años de experimentación con la tecnología cívica y la tecnología para el bienestar social lo que generó fue un cementerio de miniproyectos precarios que no llenaron las expectativas de los ciudadanos”, sostiene la guatemalteca. Señala que España, años después de parir el movimiento de los indignados, no dispone de una tecnología no privativa capaz de capturar el sentir de los ciudadanos de forma eficaz y comprobar, por ejemplo, qué opinan de un nuevo Gobierno sin que haya que convocarles a las urnas y paralizar el Estado durante meses hasta que se conozcan los resultados.

Las redes sociales no serán las herramientas de la nueva política. "Esas plataformas ya están capturadas. No son nuestras, están monetizadas, no podemos hacer nada con ellas"

En lo que coincide con Rushkoff es en que las redes sociales no eran las herramientas adecuadas para esa nueva política. Ni lo serán. “Esas plataformas ya están capturadas. No son nuestras, están monetizadas, no podemos hacer nada con ellas”, afirma Ávila. Se han hecho indispensables para la comunicación política, pero son sistemas que favorecen la confrontación de sus usuarios y la cultura del zasca. Esto es muy bueno para la publicidad, pero no para llegar a acuerdos. “Hay muchas herramientas digitales que favorecen la atomización de sociedades en grupos cada vez más pequeños, pero muy pocas que nos lleven al diálogo o a un punto de encuentro. A construir paz o procesos de diálogo. Todo el desarrollo de la interacción ciudadano-ciudadano, ciudadano-máquina, ciudadano-sistema, se ha volcado del lado del márketing y el consumo”.

“¿Por qué no pensar en grande como ciudadanos para hacer un sistema federado y descentralizado, desde lo local, capaz de cobijar precisamente esa iniciativa ciudadana? En tiempos de polarización el progreso no es es defender tu lado sino impulsar espacios de encuentro donde puedan convivir puntos medios”, defiende desde Kosovo, donde ha expuesto cómo pueden ayudar estas herramientas a reconciliar sociedades fragmentadas.

Dispositivos de deliberación electrónica de y para los ciudadanos. Un Uber de los conductores. Un Facebook donde sean los usuarios los dueños de sus datos personales. Un buscador más parecido a Wikipedia que a Google. Iphones hackeados en familia. Un Amazon de los libreros y los autores. En la era de las apps, si no sabes quién programa tus herramientas o cuál es su objetivo, es que el programado eres tú.

Sociedades en libertad vigilada