Fragmento
Cuando se lanzó Cambridge Analytica, en verano de 2014, el objetivo de Bannon era cambiar la política cambiando la cultura. Sus armas eran datos de Facebook, algoritmos y narraciones. Primero usamos grupos focales y observación cualitativa para descargar las percepciones de una población determinada y enterarnos de lo que preocupaba a la gente: los límites de los mandatos, el Estado profundo, “cerrar los grifos”, las armas y el concepto de muros para mantener fuera los inmigrantes. Todo eso se exploró en 2014, varios años antes de la campaña de Trump. Entonces dimos con las hipótesis para cambiar las opiniones. CA las probó con segmentos elegidos de paneles online o en experimentos para ver si se comportaban como el equipo esperaba, basándonos en los datos. También sacamos perfiles de Facebook, buscando pautas para poder construir un algoritmo de red neural que nos ayudase a hacer predicciones. Una minoría selecta de personas exhibe rasgos de narcisismo (extrema fijación en el yo), maquiavelismo (despiadado interés propio) y psicopatía (desapego emocional). En contraste con los cinco grandes rasgos encontrados más o menos en todo el mundo, como parte de una psicología normal (apertura, responsabilidad, extroversión, amabilidad y neurosis), los de la “tríada oscura” producen una mala adaptación; es decir, que aquellos que los exhiben son más propensos a conductas antisociales, incluidos actos criminales. Por los datos recogidos por CA, el equipo fue capaz de identificar a gente que exhibía rasgos de neurosis y de la tríada oscura, y a aquellos que eran más propensos a la rabia impulsiva o a los pensamientos conspirativos que los ciudadanos corrientes. Cambridge Analytica los convertiría en objetivos, introduciendo narrativas a través de grupos de Facebook, anuncios o artículos que la empresa sabía, por pruebas internas, que era probable que inflamaran a los pequeños segmentos de la población con tales características. CA quería provocar a la gente, hacer que se comprometieran. Cambridge Analytica logró todo esto gracias a un rasgo específico del algoritmo de Facebook en aquel tiempo. Cuando alguien sigue páginas de marcas genéricas como Walmart o alguna telecomedia de máxima audiencia, nada cambia demasiado en sus noticias. Pero si te gusta un grupo extremo, como los Proud Boys o el Incel Liberation Army, marcas al usuario como distinto de otros, de tal modo que un motor de recomendación priorizará esos temas para la personalización. Eso significa que el algoritmo de la web empezará a enviar al usuario historias y páginas similares… Todo ello para incrementar el compromiso. Para Facebook, aumentar el compromiso es la única medida que importa, pues más compromiso implica más tiempo de pantalla estando expuesto a los anuncios. Ése es el lado más oscuro del celebrado sistema de Silicon Valley de “comprometer al usuario”. Concentrándose tan intensamente en un compromiso mayor, las redes sociales tienden a parasitar los mecanismos adaptativos de nuestro cerebro. Y resulta que el contenido más atractivo de las redes sociales suele ser horrible o te enfurece. Según los psicólogos evolutivos, para poder sobrevivir en tiempos premodernos, los humanos desarrollaron una atención desproporcionada hacia las posibles amenazas. El motivo por el que instintivamente prestamos más atención a la sangre y a las vísceras de un cadáver podrido en el suelo que a maravillarnos ante la belleza del cielo allá arriba es que lo primero es lo que nos ayudó a sobrevivir. En otras palabras, evolucionamos prestando una atención más que intensa a las posibles amenazas. Hay un buen motivo por el que uno no pueda apartar los ojos de los vídeos truculentos: porque es un ser humano.
Las plataformas de las redes sociales también usan diseños que activan los “circuitos lúdicos” y los “programas variables de refuerzo” en nuestros cerebros. Son pautas de recompensa frecuente pero irregular que crean anticipación, pero donde la recompensa final es demasiado impredecible y fugaz para planear nada. Así se establece un ciclo de autorrefuerzo de incertidumbre, anticipación y retroalimentación. El azar con el que funciona una máquina tragaperras impide al jugador trazar estrategias o planear nada, por lo que la única forma de conseguir una recompensa es seguir jugando. Por otro lado, estas recompensas tienen que ser lo bastante frecuentes para engancharte de nuevo después de una racha de pérdidas y que sigas jugando. Un casino hace dinero con el número de veces que apuesta un jugador. En las redes sociales, una plataforma lo consigue según el número de clics del usuario. Por eso se va avanzando en la página de forma infinita… Hay poca diferencia entre un usuario que no para de darle a la rueda para ver más contenido y un jugador que baja la palanca de la máquina tragaperras una y otra vez. En el verano de 2014, Cambridge Analytica empezó a desarrollar falsas páginas en Facebook y otras plataformas que parecían foros reales, grupos y fuentes de noticias. Era una táctica extremadamente común que la firma madre de Cambridge Analytica, SCL, había usado a lo largo de sus operaciones de contrainsurgencia en otras partes del mundo. No está claro quién dio la orden final dentro de la empresa para montar esas operaciones de desinformación, pero, para muchos de la vieja guardia, que habían pasado años trabajando en diversos proyectos por todo el mundo, nada de todo esto parecía extraño. Sencillamente, estaban tratando a la población estadounidense del mismo modo que habían tratado a las poblaciones pakistaní o yemení, en proyectos para clientes de Estados Unidos o del Reino Unido. La empresa lo hizo localmente, creando páginas de derechas con nombres vagos como “Patriotas del condado de Smith” o “Amo mi país”. Debido a cómo funcionaba el algoritmo de Facebook, esas páginas aparecían en los contenidos de personas que ya habían marcado como “me gusta” contenidos similares. Cuando los usuarios se unían a los falsos grupos de CA, aparecían vídeos y artículos que los provocaban y los irritaban mucho más aún. En la página de los grupos, las conversaciones iban subiendo de tono y la gente se quejaba de lo terrible o lo injusto que era esto o lo otro. CA rompió las barreras sociales, cultivando relaciones entre grupos. Y, mientras tanto, iba probando y refinando los mensajes para alcanzar el compromiso máximo. CA ya tenía usuarios que 1) se identificaban como parte de un grupo extremista, 2) eran una audiencia cautiva y 3) podían ser manipulados con datos. Muchos informes de Cambridge Analytica daban la impresión de que todo el mundo estaba en el punto de mira. De hecho, no estaban controladas muchas personas, en absoluto. CA no necesitaba crear un universo objetivo enorme, porque la mayoría de las elecciones eran juegos de “suma cero”: si sacas más votos que el otro o la otra, ganas las elecciones. Cambridge Analytica necesitaba infectar sólo a una pequeña franja de la población, y luego ver cómo se extendía la narrativa.
En cuanto un grupo llegaba a un número de miembros determinado, CA creaba un evento físico. Los equipos CA elegían locales pequeños (una cafetería, un bar) para que la multitud pareciese mayor. Digamos que tienes a mil personas en un grupo, que es algo modesto en términos de Facebook. Aunque sólo aparezca una pequeña fracción, siguen siendo unas pocas docenas de personas. Un grupo de cuarenta parece una enorme multitud en el local de una cafetería. La gente aparecía y encontraba compañerismo en su ira y su paranoia. Naturalmente, eso les llevaba a sentirse como si formaran parte de un movimiento gigantesco y les permitía alimentar una u otra paranoia y temor a las conspiraciones. A veces, un miembro del personal de Cambridge Analytica actuaba como “cómplice”. Es una táctica que suelen utilizar los militares para agitar la ansiedad en los grupos objetivos. Pero la mayoría de las veces, todo aquello funcionaba sin la necesidad de una ayuda externa. A los invitados se les elegía por sus rasgos, de modo que Cambridge Analytica solía saber cómo interactuarían entre sí. Las reuniones tenían lugar en condados de todo Estados Unidos, empezando por los estados primarios republicanos más clásicos. La gente se marchaba entusiasmada con lo que veían como un “nosotros contra ellos”. Lo que empezó como una fantasía digital, sentados a solas en sus dormitorios, a última hora de la noche, haciendo clic en unos vínculos, se estaba convirtiendo en su nueva realidad. La narrativa estaba ahí, justo delante de ellos, hablándoles, en carne y hueso. El hecho de que “no” fuese real ya no importaba; bastaba con que “pareciese” real. Finalmente, Cambridge Analytica se convirtió en una versión digitalizada, escalada y automatizada de una táctica que Estados Unidos y sus aliados habían usado en otros países. Cuando empecé en SCL, la empresa trabajaba en programas contranarcóticos en un país sudamericano. La estrategia era identificar objetivos para, desde dentro, crear problemas en organizaciones que traficaban con narcóticos. Lo primero que hacía la empresa era ocuparse de lo más fácil, es decir, de la gente que, según razonaban los psicólogos, era más probable que se volviera errática o paranoica. Entonces podríamos trabajar sugiriéndoles ideas: “Los jefes te están robando” o “Te van a cargar con la culpa”. El objetivo era volverlos contra la organización. A veces, si una persona oye algo las veces suficientes, se lo cree. En cuanto esos individuos iniciales estuvieran lo suficientemente expuestos a esas nuevas narrativas, llegaría el momento de hacer que se reunieran los unos con los otros para formar un grupo que luego se pudiera organizar. Propagarían rumores, reforzarían sus paranoias entre sí. Y entonces llegaríamos a la siguiente capa: la gente cuya resistencia inicial respecto a los rumores había empezado a debilitarse. Así es como se desestabiliza gradualmente una organización desde el interior. CA quería hacer lo mismo en Estados Unidos, usando las redes sociales como punta de lanza. Una vez que un grupo basado en un condado empieza a organizarse, les presentas a un grupo similar en el condado de al lado. Luego lo vuelves a hacer. Al cabo de un tiempo, has creado un movimiento estatal de ciudadanos neuróticos y conspiranoicos. La alt-right.
Los test internos demostraban que el contenido publicitario digital y social puesto a prueba por CA resultaba efectivo a la hora de conseguir compromisos online. Ésos que se focalizaban online con anuncios con test tenían sus perfiles sociales cotejados con registros de voto, de modo que la empresa conocía sus nombres y sus identidades en el “mundo real”. Entonces la compañía empezó a usar números en las tasas de compromiso de estos anuncios para explorar el posible impacto sobre el número de votantes. Un memorándum interno subrayaba los resultados de un experimento que implicaba a unos votantes registrados que no habían votado en las dos elecciones anteriores. CA estimaba que, aunque sólo una cuarta parte de los electores infrecuentes que empezaban a hacer clic en ese nuevo contenido de CA finalmente fuesen a votar, podía aumentar el número de votantes para los republicanos en varios estados clave en alrededor de un uno por ciento, que suele ser el margen en el que se mueve la victoria en las elecciones que están muy reñidas. A Steve Bannon, aquello le encantaba. Sin embargo, quería que CA fuera más allá, y de un modo más siniestro. Teníamos que probar la maleabilidad de la psique estadounidense. Nos instaba a incluir lo que, de hecho, eran cuestiones sesgadas desde un punto de vista racial. Quería averiguar hasta qué punto podíamos mover a la gente. La empresa empezó a incluir preguntas sobre las personas negras. Por ejemplo, preguntaba si los negros serían capaces de tener éxito en Estados Unidos sin la ayuda de los blancos o si, por el contrario, estaban determinados genéticamente al fracaso. Bannon creía que el movimiento de los derechos civiles había limitado el “libre pensamiento” en Estados Unidos. Su intención era liberar a la gente revelando lo que veía como verdades prohibidas sobre la raza. Bannon sospechaba que había amplios sectores de estadounidenses que se sentían silenciados por la amenaza de que se les etiquetara como “racistas”. Los resultados de Cambridge Analytica confirmaron tal sospecha: Estados Unidos está lleno de racistas que permanecen en silencio por miedo al rechazo social. Pero Bannon no se centraba exclusivamente en su movimiento emergente de alt-right, sino que también tenía en mente a los demócratas. Aunque los “demócratas típicos” hablan mucho cuando se trata de apoyar a las minorías raciales, Bannon detectó un paternalismo subyacente que traicionaba su conciencia social. Creía que el partido estaba lleno de “liberales de limusina”, un término acuñado en la campaña a la alcaldía de Nueva York en 1969 y que recogieron al instante los populistas para denigrar a los demócratas llenos de buenas intenciones. Éstos eran los demócratas que apoyaban la desegregación, pero enviaban a sus propios hijos a escuelas privadas de mayoría blanca, o que bien aseguraban preocuparse por el centro de la ciudad, pero vivían en urbanizaciones protegidas. En un discurso Bannon dijo: “Los demos siempre tratan a los negros como niños. Los meten en viviendas subvencionadas…, les dan prestaciones sociales…, acciones afirmativas…, envían a chicos blancos a dar comida a África. Pero los demos siempre han tenido miedo de hacerse esta pregunta: ¿por qué toda esa gente necesita que la cuiden tanto?” Lo que quería decir era que los demócratas blancos mostraban sus prejuicios contra las minorías sin darse cuenta. Bannon planteaba que, aunque esos demócratas pensaran que les “gustaban” los afroamericanos, en realidad no “respetaban” a los afroamericanos. De hecho, muchas políticas demócratas procedían de un reconocimiento implícito de que “esa gente” no podía ayudarse a sí misma. El escritor de discursos Michael Gerson captó la idea a la perfección con una frase que acuñó para el entonces candidato presidencial George W. Bush, allá por 1999: “la intolerancia blanda de las bajas expectativas”. Según ese argumento, los demócratas eran de los que tendían la mano y toleraban la mala conducta y los peores resultados en las pruebas porque, en realidad, no creían que los estudiantes de las minorías pudieran hacerlo tan bien como sus pares no minoritarios. Bannon se aproximaba mucho más incisiva y agresivamente a esa misma idea: creía que los demócratas, sencillamente, estaban usando a las minorías estadounidenses para sus propios fines políticos. Estaba convencido de que el acuerdo social que surgió después del movimiento de los derechos civiles, donde los demócratas se beneficiaban de los votos de los afroamericanos a cambio de ayudas gubernamentales, no nacía de ninguna ilustración moral, sino, por el contrario, de un cálculo frío y astuto. Según su modo de pensar, los demócratas solo podían defender lo que veían como verdades inconvenientes de ese acuerdo social a través de la “corrección política”. Los demócratas sujetaban a los “racionalistas” a la vergüenza social cuando hablaban de esta “realidad de las razas”. El “realismo de raza” es el giro más reciente de unos tropos y unas teorías muy antiguas que dicen que determinados grupos étnicos son genéticamente superiores a otros. Los realistas de la raza creen, por ejemplo, que los negros estadounidenses puntúan muy bajo en las pruebas estandarizadas no porque las pruebas estén sesgadas ni por culpa de la larga historia de opresión y prejuicios que los negros deben superar, sino porque son intrínsecamente menos inteligentes que los estadounidenses blancos. Es una idea seudocientífica abrazada por los supremacistas blancos, que hunde sus raíces en el “racismo científico”. Tiene siglos de antigüedad y ha provocado, entre otros desastres de la historia de la humanidad, el esclavismo, el Apartheid y el Holocausto. La alt-right, dirigida por Bannon y Breitbart adoptó el realismo de raza como piedra angular de su filosofía.
Adelanto de Christopher Wylie, Mindf*ck, Ana Herrera (trad.), Roca Editorial, Barcelona, 2020. Se reproduce con autorización.
Imagen de portada: Collage de Alicia Sandoval, 2019. Cortesía de la artista