De la interfaz al régimen
En septiembre del año pasado agendé un encuentro con el ahora tan polémico Alexander Nix, ex CEO de Cambridge Analytica (CA), la empresa que, con sofisticadas herramientas de análisis de datos, busca influir en la conducta de millones de votantes en democracias alrededor del mundo. Me acerqué a él con sólo una búsqueda previa en Google, lo cual fue suficiente para despertar mi suspicacia. Con una inquietante sagacidad y bastante humor, Nix —Frank Underwood en un capítulo de Black Mirror— me relató el funcionamiento de CA mientras yo me preguntaba si la gente a nuestro alrededor encontraba tanto desequilibrio como yo al escucharlo. Alexander comenzó la plática con un “¿Qué quieres saber?” Esta pregunta fue una incómoda cortesía con una retadora multiplicidad de sentidos. Nix me veía con enorme confianza en sí mismo, como si supiera exactamente qué le iba a preguntar, lo que sin duda podría ser posible, considerando que tiene el poder de acceder a todas mis redes sociales y probablemente a cada uno de los dispositivos que he tocado con una sola llamada. Antes de comenzar me pregunté qué tan irónica sería la “puesta en abismo” si subía una foto con él a Facebook. Recientemente se reveló que CA contrató al doctor Aleksandr Kogan para recabar datos de Facebook a través de un ocioso quiz con el que no sólo cedías tu privacidad sino también la de tus contactos. Pero hay estrategias de negocio que ponen en la mesa una discusión muy delicada que va más allá de nuestra ignorancia de los narcóticos “Términos y condiciones” de los cuales Nix parece mofarse con picardía. En CA no sólo está inmiscuido Zuckerberg, también se conjuga una serie de personajes controvertidos, lo cual sugiere un excelente argumento policial, con todo y empresarios reptilianos, como Robert y Rebekah Mercer, multimillonarios de extrema derecha que han invertido en varias campañas conservadoras en todo el mundo: el Brexit, Ted Cruz y Donald Trump; Steve Bannon, ex jefe estratégico de Trump y cofundador de Breitbart News; Peter Thiel, fiel republicano, fundador de Palantir —empresa de Big Data que tiene innumerables contratos con gobiernos—, promotor de Leave E.U., cofundador de PayPal, inversionista importante de Facebook; Steve Tatham, jefe de operaciones psicológicas de las Fuerzas Británicas en Afganistán, miembro de AggregateIQ (empresa detrás de Vote Leave); Boris Johnson, secretario de Estado para Asuntos Exteriores y de la Mancomunidad de Theresa May, y Nigel Farage, líder del UK Independence Party. Para no aflojar la trama, también hay graves acusaciones contra oficinas de gobierno y organismos internacionales como la OTAN, el Pentágono y el Departamento de Estado de EUA. Nix no disimuló en absoluto que CA es una compañía dedicada a modificar el comportamiento de las audiencias durante procesos electorales. Para lograrlo se vale de tres metodologías: 1) ciencias del comportamiento, 2) análisis de datos y 3) publicidad personalizada. Para este ejecutivo sagaz, segmentar a un público con base en datos demográficos es una idea ridícula: “Más importante que la demografía es la psicografía, porque es la personalidad de cada individuo lo que lo motiva a ciertos comportamientos e influye en cómo vota”. Ahora, ¿de dónde proviene esta información psicográfica? En CA utilizan un modelo llamado OCEAN que mide cinco factores de personalidad. OCEAN es un acrónimo para: Openness (apertura mental), Conscientiousness (dedicación, responsabilidad), Extraversion (extroversión), Agreeableness (gentileza) y Neuroticism (neuroticismo). Con base en estos cinco aspectos, CA pudo medir alrededor de 5,000 datos de cada uno de los 230 millones de votantes estadounidenses durante la campaña presidencial de 2016: “Cuanto más se conozca la personalidad de la audiencia, mejor se podrá personalizar la publicidad que se requiere para impactarla. Por ejemplo, para alguien altamente neurótico y muy escrupuloso se necesita una publicidad muy racional; mientras que para alguien conservador y con conciencia comunitaria se requieren anuncios que lo trastoquen emocionalmente”. Pero ¿qué es lo que CA sabe de los votantes y cómo lo sabe? Dos palabras: Big Data. La Big Data es el conglomerado de información de cada ciudadano, sintetizada, analizada y micro-segmentada de manera que informe sobre la percepción de una audiencia acerca de determinados temas; estos datos son geográficos, demográficos, psicográficos (actitud) y de personalidad (comportamiento); es decir, sabe casi todo sobre ti: dónde vives, qué compras, a dónde viajas, qué rutas utilizas, qué programas ves, qué religión practicas, si estás a favor de las armas o del aborto, qué orientación política tienes y, aún más importante, si estás dispuesto a votar o si puedes ser persuadido para votar por determinado candidato. Esta información se obtiene por medio de cookies, tu información de televisión y cable, tu GPS, tus plataformas de streaming y, la joya de la corona: tus redes sociales. Para cada tipo de perfil se produce publicidad personalizada. De esta manera, cada votante recibe en su “propio” lenguaje y de acuerdo con sus intereses particulares, los elementos que él mismo proporcionó para ser convencido. Estos elementos no son forzosamente noticias reales sino, en ocasiones, fake news y propaganda sistemáticamente distribuida. Así, las agendas de campaña comienzan a regirse por data y las propuestas políticas se limitan en el panorama del ciudadano entre likes y retweets. Desde luego, con la retórica de Nix todo esto suena distinto: “Cada individuo ya no recibirá anuncios de productos que no tiene interés en comprar, sino simplemente recibirá de los que es un potencial comprador porque así lo ilustra su data; pero más allá de esto, no sólo el individuo recibirá la publicidad de productos y servicios que le interesan, sino que serán enunciados y enfocados hacia la manera en la que ve el mundo”.
Soy una optimista de la tecnología, pero algo que me hace titubear frente a ella es una explicación que Alexander mencionó —y que daba en múltiples entrevistas y ponencias como si fuera un consenso antediluviano—: algunas de las estrategias de manipulación que utiliza CA son conocidas como psy-ops (psychological operations), operaciones militares para transmitir información y modificar conductas en audiencias seleccionadas con el fin de influir en sus emociones y razonamientos, sobre todo en momentos de guerra o estados de excepción. Así es: una corporación privada financiada por multimillonarios conservadores despliega, detrás de millones de interfaces, tácticas militares con civiles. La interfaz funciona como máscara en más de un sentido. La palabra “personaje” viene del término del teatro griego para nombrar las máscaras (πρὀσωπον=prósopon, de donde proviene la palabra “persona”), que fungían como caja de resonancia para amplificar las voces de los actores en el espacio teatral. La relación de nuestro “yo virtual” con la “sociedad virtual” de la que somos nodo se da entre interfaces, entre máscaras. Éstas están siempre configurándose, viven en incesante intercambio con otras; cada “like” está determinado por un simulacro de tu personalidad y, al mismo tiempo, está definido por el algoritmo que las plataformas arrojan con base en tu historial de navegación y perfiles similares al tuyo. En torno a esto, se ha discutido mucho cómo la era de Google ha modificado nuestra manera de pensar, opinar y asir conocimiento; sin embargo, algo semejante ha ocurrido con todas las tecnologías de la historia; la oralidad moldea la intelectualidad tanto como la escritura o la tecnología digital. Lo importante está en entender que la idea de que “el algoritmo moldea al usuario y el usuario al algoritmo” de forma desarraigada es falsa. Quienes codifican y capitalizan no son inteligencias artificiales imparciales, son corporaciones con fines políticos, empresas que subastan contenidos para que tú leas determinada noticia, consumas cierta música o vincules conceptos específicos: la red no se edita sola, no es imparcial y el caso de CA ha sido ideal para hacérnoslo entender y cuestionarnos de nuevo la “neutralidad de la red”. La neutralidad de la red es un concepto básico del tráfico de datos digital. Actualmente, cualquier usuario de internet tiene acceso a exactamente la misma información en la red que otro, sin importar que cada uno utilice proveedores de internet (ISP) diferentes. Ningún ISP de internet puede realizar cargos extra a los usuarios por el dispositivo que utilice para acceder a sus servicios o por el contenido al que ingrese. De esta manera no se favorece a ningún ISP y la red es un espacio “libre” a explorar: en pocas palabras, hasta ahora, no importa qué buscador use Larry Page, si teclea en Google las mismas palabras que yo, su búsqueda arrojará los mismos resultados. Desde el año pasado, la Comisión Federal de Comunicaciones (FCC) en Estados Unidos comenzó a discutir la posibilidad de que las compañías de telecomunicaciones vulneren esta neutralidad y comiencen a realizar acuerdos entre empresas proveedoras de internet y plataformas, aplicaciones o empresas de contenido que regulen la posibilidad y la velocidad del acceso de los internautas a sus sitios. Si bien estas votaciones aún no han decidido acabar con la neutralidad de la red, la discusión sigue en la mesa. Terminar con la neutralidad de la red implicaría que los ISP puedan controlar el tráfico de datos, bloquear contenido, reducir la velocidad a ciertos sitios y dar tratamiento preferencial a su propio contenido en detrimento de sus competidores. Esto implicaría un enorme control por parte de las empresas de telecomunicaciones sobre el acceso a la información de los usuarios. Es importante pensar qué tan distinto es esto de las actividades que compañías como CA e instituciones gubernamentales hacen al desplegar contenidos específicos en públicos focalizados sin su conocimiento. Aunque siempre ha habido dispositivos sociales constrictivos, resulta necesario pensar cómo tecnologías como las redes sociales nos dejan revelar sólo los datos que son publicables o “compartibles” en determinada sociedad. Si bien las redes sociales ya han mostrado no sólo que no son el espacio de absoluta libertad que se pensaba en su origen, sino que más bien son una maquinaria de identificación que nos constriñe y nos subasta, sus plataformas funcionan como una especie de panóptico donde sabernos observados modifica nuestro comportamiento. En nuestros perfiles compartimos principalmente lo que sabemos aceptable en nuestra red; es por ello que la microsegmentación resulta tan eficiente para las campañas políticas: porque responde personalizadamente a cada microsociedad, a cada micro-network y sus estándares de lo aceptable. Antes de terminar mi plática con Alexander, le pregunté osadamente, pero sin esperanza de recibir una respuesta con la que simpatizara, qué pensaba, como ciudadano, sobre el peligro de la manipulación de conductas a través de psy-ops para dirigir votos electorales: “Sí, trabajamos en un área llamada psy-ops, operaciones psicológicas, que es comunicación de guerra. Realmente entrenamos y trabajamos para departamentos militares y departamentos de defensa en todo el mundo; también fuimos pioneros en muchas metodologías de ciencia conductual con fines comerciales y políticos. Pero realmente tu pregunta depende de cuál sea tu definición de ’peligroso’. Estamos hablando de comunicaciones. Si en el teatro militar la opción es enviar un ataque nuclear o enviar un mensaje usando palabras, creo que la mayoría de la gente estará de acuerdo que la segunda opción es mejor. Creo que se ha exagerado mucho sobre nuestra capacidad. Sí, la comunicación analizada y segmentada es poderosa, pero no es un arma y ciertamente no es una fuerza para el mal”. Sospecho enormemente del discurso de Nix en torno a “las armas y las letras”. Primero, porque si en algo tiene fe CA es en la capacidad del lenguaje. Segundo, porque su misma declaración afirma el poder de las palabras como arma de contraataque. No por nada, Nix tardó en hacer declaraciones frente a las inconsistencias que planteaba su caso; no por nada, una de las respuestas más significativas de Mark Zuckerberg durante su comparecencia frente a Kathy Castor de Florida fue: “No estoy de acuerdo con esa definición”. Desde siempre, las variables que configuran nuestra decisión electoral son innumerables y provienen de múltiples orígenes, y siempre ha habido estrategias de poder que buscan manipular la opinión pública; por lo que condenar a las redes sociales como los únicos medios de fortalecimiento de ciertos regímenes actuales o considerar a Nix un villano sin precedentes es ingenuo. Sin embargo, es necesario reflexionar sobre la amenaza de que nuestras máscaras virtuales faciliten un Estado autoritario de vigilancia, un régimen donde se utilizan de manera sistemática estrategias militares para la creación de publicidad electoral, y donde los ciudadanos habilitan plataformas de diseminación de propaganda auspiciada por grandes corporaciones sin el conocimiento de los electores. Es urgente preguntarnos: ¿qué nuevas reglas plantea la tecnología de la información para la democracia?