En el cuento corto de Fredric Brown, “The Answer”, el protagonista Dwar Ev consigue materializar una supercomputadora que, al conectar todas las calculadoras de los noventa y seis mil millones de planetas, encapsula el conocimiento total del universo en una sola máquina. Tras soldar los dos últimos cables, Dwar baja la palanca, activa la creación y le hace una primera pregunta: “¿Existe Dios?”. Sin dudarlo, la máquina responde: “Sí: ahora Dios existe”. Presa del terror y arrepentido de su creación, Dwar intenta arrojarse sobre el panel de control para apagar la máquina, pero un rayo caído del cielo lo incinera y fija la palanca para siempre en su sitio.
A finales de marzo se publicó en la página web del Future of Life Institute una carta firmada por empresarios, autores y expertos del sector, entre ellos Elon Musk, Yoshua Bengio, Steve Wozniak y Yuval Noah Harari, en la que se pedía la suspensión durante al menos seis meses de la investigación avanzada en el campo de la inteligencia artificial, con el fin de permitir que el entorno legislativo se adapte y pueda regular esta tecnología, dado que su desarrollo debe garantizar la transparencia y la rendición de cuentas. La carta no disimula mucho su verdadero propósito: generar expectación. “Mírennos, somos los Víctor Frankenstein del siglo XXI, el Dr. Fausto que vendió su alma al Nuevo Mefistófeles” es la paráfrasis de la carta.
No es casualidad que el lenguaje de la carta aluda a un conjunto de ideologías que se están asentando entre las altas esferas de Silicon Valley, expresadas en un acrónimo cada vez más popular: TESCREAL (Transhumanismo, Extropianismo, Singularitarismo, Cosmismo, Racionalismo, Altruismo Eficaz y Largoplacismo). Se trata de un término crítico acuñado por Timnit Gebru (exempleada de Google y autora del célebre artículo sobre los loros estocásticos); al cabo de tres años, los líderes del sector de la alta tecnología se han apropiado de la palabra, como es el caso del empresario Marc Andreessen, quien se autodenomina “TESCREALista” (además de “aceleracionista de la IA”, “supremacista de la GPU” y “activista ciberpunk”) en su biografía de Twitter.
Los términos del acrónimo hacen referencia a una serie de filosofías y corrientes que han surgido en torno al transhumanismo y sus declinaciones: el profundo entusiasmo hacia la tecnología como medio para superar los límites del ser humano (la enfermedad, el envejecimiento y la muerte); la carrera hacia el espacio; la materialización de una IA fuerte como uno de los propósitos de la humanidad; el empleo de las herramientas del desarrollo y el uso de la racionalidad para trascender la condición material y corporal, y así aspirar a la condición divina por medio de la tecnología. Alguien definió con acierto como animista a la manera en que la inteligencia artificial está siendo conceptualizada en estos círculos. En uno de sus tuits, el (quizá ex) CEO de OpenAI (la empresa creadora de ChatGPT) sugería que quienes no cuenten con acceso a servicios de salud usaran su producto como asistente de salud. Más allá del clasismo grosero que evidencia tal afirmación, está claro que la comunicación de estos gigantes está dirigida a entusiastas completamente desligados de la realidad. Y de poco sirve recriminar al usuario promedio que no entienda el buen uso de las tecnologías, si esos son los mensajes que le llegan desde las alturas.
En febrero de 2023 se presentó Bard, el chatbot de IA con el que Google socavó a ChatGPT de OpenAI. Pero a las pocas horas del evento de presentación, en un video promocional, el asistente virtual de la empresa ubicada en Mountain View dio una respuesta incorrecta al afirmar que el telescopio espacial James Webb tomaría las primeras fotos de la historia de un planeta situado fuera del sistema solar (exoplaneta), cuando los primeros exoplanetas fueron fotografiados por telescopios terrestres inclusive catorce años antes del lanzamiento del James Webb. El tropiezo no pasó desapercibido ni fue perdonado, en especial por el mundo financiero. El miércoles 8 de febrero, las acciones de Alphabet cerraron con una caída de casi 8 %, una pérdida de 100 000 millones de dólares respecto a su valor de mercado. Y dio la casualidad de que el error se refería a conocimientos específicos —y no a una falla en la composición del lenguaje—, algo para lo que fue entrenado. Los gigantes de Silicon Valley, en resumen, fueron víctimas de su propia publicidad.
Ya nos acostumbramos al poder del lenguaje en las finanzas, por ejemplo, con la declaración de ese CEO, pero pensar que este poder lingüístico también recae en las máquinas deja al menos una sensación de preocupación. Me viene a la mente la escena de Douglas Adams, en su Guía del viajero intergaláctico, cuando después de siete millones y medio de años una multitud de curiosos espera con ansia recibir de la supercomputadora Pensamiento Profundo la respuesta a la pregunta fundamental sobre la vida, el universo y todo lo demás. Christian Marazzi escribió en su The Place for Socks: “Cuando decimos que, con el posfordismo, la comunicación incide en la producción y que esta se convierte en un factor directamente productivo, estamos poniendo en duda al lenguaje que, por vocación, es la base de la comunicación. La coincidencia entre el acto de producir y el acto de comunicar en el nuevo paradigma de producción abre un abanico de problemas de análisis del lenguaje que son tan fascinantes como extremadamente complejos y abstrusos”.
Con el capitalismo avanzado de la inteligencia artificial asistimos a un giro lingüístico 2.0: el lenguaje adquiere un papel productivo aún más central. Se trata de un capitalismo mágico, donde el lenguaje y sus fórmulas dictadas por oráculos son capaces de actuar cada vez más sobre lo real. Una magia que se autoproclama abstracta e inmaterial, pero que sabemos que se encarna en procesos sociales y materiales, en los caprichos de Silicon Valley y en las altas finanzas. El reto es quitarle el encantamiento a la tecnología, liberándola de los imaginarios tescrealistas y construyendo otros más allá del antropocentrismo y las ambiciones extractivistas.
A principios de 1949, en los laboratorios del Barnwood House Mental Hospital, un manicomio privado situado en las afueras de Gloucester, se encontró un misterioso dispositivo negro y cuadrado compuesto por cuatro acumuladores, cada uno de ellos dotado de un imán capaz de oscilar entre distintas configuraciones. Como se informaba en un artículo de la revista Time de la época, según su creador, el psiquiatra William Ross Ashby, este dispositivo, llamado homeostato, era lo más parecido a la creación de un cerebro humano artificial jamás diseñado hasta el momento. Ashby, además de médico, fue pionero y divulgador de la cibernética, que más que una disciplina podría considerarse un conjunto de estudios experimentales interdisciplinarios a caballo entre la ingeniería, la biología y las ciencias sociales, cuyo origen puede rastrearse en una u otra dirección dependiendo de qué raíces del pensamiento sistémico se consideren. Lo cierto es que, durante la posguerra, el nombre de esta nueva ciencia fue introducido y popularizado por los trabajos de Norbert Wiener, que publicó en 1948 su libro Cybernetics or Control and Communication in the Animal and the Machine.
El matemático estadounidense tenía la intención, expresada en el título de la obra, de fundar una nueva ciencia capaz de abordar cuestiones de regulación de sistemas tanto naturales como artificiales para distinguir las similitudes y afinidades entre ellos e hibridando métodos de las ciencias sociales y biológicas con teorías de computación y control automático. Los mismos principios inspiraron a Ashby, que anotó sus pensamientos durante más de 44 años en una serie de diarios que produjeron veinticinco volúmenes, con un total de 7 189 páginas, ahora confiados a la Biblioteca Británica. Y fue justo para dar un ejemplo de máquina autorregulada que Ashby construyó el homeostato, cuyo estado podía alterarse mediante órdenes particulares que representaban el entorno exterior, y que en condiciones particulares era capaz de volver por sí mismo a un estado de equilibrio. Por difícil que resulte imaginarlo ahora, ese diseño estaba en absoluta consonancia con los objetivos de las nacientes ramas de la automatización, hasta el punto que el propio Turing, conocedor de la intención de Ashby, le escribió proponiéndole simular este mecanismo en la calculadora que estaba diseñando cerca de Londres.
Pero lo que nos interesa de la compleja máquina de Ashby en nuestra búsqueda de una clave de los primeros desarrollos en automatización es el planteamiento con el que se realizó el homeostato al querer simular un sistema vivo. El modelo propuesto por Ashby es lo que más tarde se denominó “teoría de la caja negra” o “método de la caja negra”, sobre el que sus propios creadores iniciaron un acalorado debate que aún hoy sigue abierto. El propio Ashby escribió en los años cincuenta que: “lo que se argumenta no es que las cajas negras se comporten en modo alguno como objetos reales, sino que los objetos reales son de hecho todos cajas negras, y que tratamos con cajas negras a lo largo de nuestras vidas”, sugiriendo así una ontología de la caja negra. El papel de la caja negra en la ciencia es un dilema que aparece, estallando, en el siglo XXI. Es el propio Latour, en Pandora’s Hope, un libro de 2001, quien habla de la caja negra como: “la forma en que el trabajo científico y técnico se hace invisible por su propio éxito. Cuando una máquina funciona eficazmente, uno solo se fija en la entrada y la salida, y no en la complejidad interna. Esto hace que, paradójicamente, cuanto más éxito tienen la ciencia y la tecnología, más opacas y oscuras se vuelven”.
No es casualidad que la preocupación por la ciencia opaca haya surgido en el campo de la inteligencia artificial, donde existe la necesidad de entender las razones de una elección automatizada y no otra, o los parámetros de clasificación de los que hace uso. Esto ha llevado a los investigadores a desarrollar, por ejemplo, la Inteligencia Artificial Explicable (XAI). Sin embargo, el problema de la caja negra no es simplemente una cuestión técnica, sino algo que afecta cada vez más a las esferas social, económica y cultural; es una preocupación que implica el estudio de los efectos de la IA en un sistema sociotécnico complejo. En sentido estricto, no es solo algo que afecte a la IA, la inteligencia computacional distribuida, la compuesta por una red de calculadoras, dispositivos IoT, cuerpos hiperconectados en movimiento y en constante producción. Está también el ecosistema financiero. La maquinaria financiera se ha convertido en un organismo sombrío, lleno de sutilezas metafísicas y caprichos teológicos, tan complejo que apenas lo entienden los chamanes del palacio, por estar tan ocupados peleando contra esos demonios algorítmicos de alta frecuencia que ellos mismos conjuraron hace eones, y de los que perdieron el control por completo. La ciencia es cada vez más opaca, no por falta de información o de inteligencia, sino por un incremento en su fragmentación que ha llevado a una ruptura microdisciplinaria, hacia una hiperespecialización incapaz de comunicarse con el resto del mundo. Podemos, entonces, hablar de sociedades caja negra, como sugiere Frank Pasquale, y tratar de ofrecer observaciones parciales sobre esos hiperobjetos que rigen nuestras vidas y se ubican en el límite de la comprensión; eso que Bridle, citando a Lovecraft, el maestro del horror, considera una nueva edad oscura.
Volviendo a Latour, y al texto que escribió junto con Steve Woolgar, Laboratory Life: “construir cajas negras, hacer objetos de conocimiento distintos de las circunstancias de su creación, es exactamente lo que ocupa a los científicos la mayor parte del tiempo. […] Una vez procesado un objeto de estudio en el laboratorio, es muy difícil volver a convertirlo en un objeto sociológico. El costo en la detección de factores sociales es un reflejo de la importancia de la actividad de la caja negra”. Abrir la caja negra, por tanto, no es solo tarea de expertos o técnicos del mismo modo que, volviendo a Bridle, aunque pueda ser útil no es necesario aprender programación para participar del debate sobre las nuevas tecnologías. Al contrario, lo que está surgiendo de las nuevas líneas de investigación, como el análisis de redes sociales o la sociología computacional, es que el entorno de la informática y las ciencias “duras” se ha enfrentado casi de golpe a cuestiones de método con las que no acostumbraba interactuar, a diferencia de sociólogos, psicólogos o humanistas. Por lo tanto, no solo es necesaria la interdisciplinariedad, sino también una crítica de los procesos de producción capaz de reconocer la dinámica del valor, el trabajo y el impacto en el medio ambiente de los sistemas abiertos. En este sentido, de esta inteligencia opaca distribuida, o al menos de una pequeña parte de esta megamáquina, también podemos intentar abrir algunas cajas negras con las herramientas de la “investigación colectiva de abajo arriba”, con encuestas en los ámbitos de producción digital y sociología desde la vida cotidiana. Into the Black Box es “un proyecto de investigación colectivo y transdisciplinario que adopta la logística como perspectiva privilegiada para investigar las mutaciones políticas, económicas y sociales actuales”. Busca situar a la logística como forma de inteligencia estratégica en la narrativa de la producción armonizada y autorregulada. Los artículos en línea del colectivo y los eventos organizados, principalmente en Bolonia, ofrecen claves interpretativas muy útiles para leer la sociedad de la caja negra ampliando la mirada “dentro y fuera de la pantalla”, ofreciendo una interesante visión de la praxis política y estratégica, así como del análisis. Proyectos como este, dentro y fuera de la academia, son cada vez más necesarios.
Este texto es un fragmento del artículo publicado por el Institute of Network Cultures. Fue reproducido gracias a una licencia Creative Commons.
Imagen de portada: Helio Santos, Movimiento 2, 2024. Paisaje sintético generado y animado en Machine Learning