En 2017 la bebida Long Island Ice Tea —conocida por su ordinaria y apenas bebible agua azucarada— cambió su nombre a Long Blockchain Corp (LBCC). Sus acciones se elevaron 400 % por encima de su precio previo al anuncio, pero la empresa no reveló ninguna integración específica con alguna cadena de bloques o blockchain,1 ni ha realizado alguna integración de este tipo desde entonces. Posteriormente, la compañía fue eliminada de Nasdaq, tras llegar a un acuerdo con la Comisión de Bolsa y Valores de Estados Unidos, por proporcionar información fraudulenta a los inversionistas. En la actualidad, la empresa cotiza de manera extrabursátil y su capitalización de mercado bajó de 138 a 36 millones de dólares.2
Lo más notable de esta historia tan increíblemente idiota es que no fue el punto más alto de la burbuja del blockchain, sino que fue el inicio del último fraude del tipo pump-and-dump3 del blockchain. Para los niveles que los estafadores de blockchain alcanzaron en 2022, LBCC fue una cosa de nada, apenas una estafa de 138 millones de dólares en agua azucarada. No tenían ningún NFT,4 ni lavaban dinero, ni realizaron una oferta inicial de criptomonedas. No tenían un comercial en el Superbowl. No les robaron miles de millones a inversionistas minoritarios mientras se autoproclamaban “altruistas efectivos”. No canalizaron cientos de millones a las campañas electorales mediante testaferros ni cometieron otras formas de fraude financiero electoral. Ni siquiera abrieron un restaurante de hamburguesas temático de criptomonedas en el que no podías comprar hamburguesas con criptomonedas.5 Eran amateurs. Fue un “chicle y pega” que solo tuvo éxito durante un instante.
En cambio, los superdepredadores de la burbuja de las criptomonedas lograron que sus chicles pegaran durante bastante tiempo y distorsionaron la realidad de una manera tan profunda como no se veía desde el caso de Pets.com. Se informa que se han esfumado billones de dólares en criptomonedas en el último año, pero estas pérdidas no se reflejan en ninguna parte de la economía real, porque el estallido de esta burbuja borró una “riqueza” que nunca existió.
Como todo esquema piramidal, las criptomonedas fueron una forma de despojar a la gente común de sus ahorros, convenciéndola de que “invertía” en una empresa enorme, sin embargo el único dinero real en ese sistema eran los ahorros para el retiro, ganados con sudor y esfuerzo, de la clase trabajadora, que los avispados infladores de la burbuja intercambiaron por monedas de mierda, insolventes y sin valor.
Ya dejamos de creer en esos miles de millones de dólares ilusorios. Sam Bankman-Fried, el fundador de la criptomoneda FTX, está bajo arresto domiciliario. No obstante, la gente que le facilitó el dinero de otros, y más aún los sagaces artistas de los esquemas piramidales que evadieron ser arrestados, andan buscando nuevas estafas para quitarle dinero a sus blancos. Pensemos en el banco de inversión multinacional Morgan Stanley, que durante 2021 y 2022 infló las criptomonedas al asegurar que representaban una gran oportunidad de crecimiento.6
Ahora, Morgan Stanley quiere que sepas que la IA es una oportunidad valuada en seis billones de dólares. No son los únicos. Los directores ejecutivos de Endeavor, Buzzfeed, Microsoft, Spotify, Youtube, Snap, Sports Illustrated y CAA están subidos en el mismo carro: el de inflar la burbuja de la IA a cada bendita hora que pasa, declarando que es el futuro.7 Google y Bing, por su parte, están enfrascados en una carrera armamentista para determinar cuál de sus motores de búsqueda consigue la más profunda y veloz mierdificación por medio de chatbot, y lo hacen reemplazando los enlaces a páginas web con párrafos floridos redactados por autómatas mentirosos y muy seguros de sí mismos.8
El blockchain fue una solución en busca de un problema, lo mismo que la IA. Sí, Buzzfeed podrá reducir su gasto en salarios al automatizar la creación de sus tests de personalidad y el “DJ de IA” de Spotify producirá listas de reproducción un poquito menos horribles (al menos mientras Spotify no inserte canciones porque alguien pagó para impulsarlas). Pero incluso si sumamos todo esto, lo duplicamos, lo elevamos al cuadrado y le agregamos un intervalo de confianza de mil millones de dólares, no obtendremos algo parecido a lo que los analistas de Bank Of America llamaron un “momento definitivo, como el internet en los noventa”. En primer lugar, porque la parte más emocionante “del internet de los noventa” fue que las barreras de acceso eran increíblemente bajas y no estaba dominado por grandes empresas; de hecho, las tenía muertas de miedo. En cambio, la burbuja de la IA crece inflada por corporaciones dominantes cuyo entusiasmo se reduce a pensar: “esto les permitirá a las empresas más grandes volverse muchísimo más grandes y el resto de ustedes puede irse a la mierda”. Vaya revolución.
La IA tiene todos los rasgos del clásico fraude bursátil conocido como pump-and-dump, empezando por la terminología. La IA no es “inteligente” ni es “artificial”. El “aprendizaje de las máquinas” no aprende. En uno de los episodios del pódcast Trashfuture, los locutores argumentaron a la perfección (además de con humor y vulgaridad) por qué ChatGPT es una versión sofisticada de la herramienta para autocompletar textos, y no nuestro futuro líder supremo robótico.9
Todos sabemos que la función de autocompletar tiene sus pros y sus contras. Como todas las herramientas de inferencia estadística, es profundamente conservadora: quiere que mañana hagamos lo mismo que hicimos ayer. Si la palabra que escribes después de “oye” suele ser “cariño”, la próxima vez que teclees “oye”, el autocorrector estará listo para insertar la palabra usual, aunque esta vez desees escribir: “Oye, ya deja de mandarme mensajes”.10 Y cuando intentas escribir algo que nunca antes has escrito, te sugiere que termines la oración con la mediana estadística de lo que todo el mundo escribiría a continuación. Por lo regular, esto genera oraciones insulsas, pero a veces los resultados pueden ser divertidísimos. En 2018 comencé a escribirle un mensaje a nuestra niñera: “Hola, ¿estás libre para venir?”, pero Android terminó la oración con un “venirte en mi cara” (¡algo que yo nunca escribiría!).11
El autocorrector moderno puede producir largos pasajes de texto en respuesta a palabras clave, pero es tan poco fiable como la función de autocompletar en los mensajes de texto de un Android del 2018, como descubrió Alexander Hanff cuando ChatGPT le informó que él estaba muerto e incluso generó un URL verosímil sobre un obituario inexistente en The Guardian.12
Pero los merolicos del pump-and-dump de la IA insisten en que se trata de características, no de defectos. Si la función de autocompletar dice cosas estúpidas y equivocadas con total seguridad es porque la IA se está volviendo más humana, y los humanos decimos cosas estúpidas y equivocadas con total seguridad. Como ejemplo está el timador multimillonario Sam Altman, presidente de OpenAI, una empresa cuyos productos no son de tecnología abierta y tampoco son artificiales ni inteligentes. Altman celebró el lanzamiento de ChatGPT con un tuit que decía “soy un loro estocástico y tú también”.13
Fue una puya sarcástica contra el famoso artículo sobre los “loros estocásticos”, un compendio de críticas mesuradas a la IA que causaron que Google despidiera a Timnit Gebru, una respetada investigadora del tema, por atreverse a señalar las nuevas ropas del emperador. Emily M. Bender, especialista en lingüística computacional y una de las críticas más informadas y encarnizadas del hype de la IA, es coautora del artículo de los loros estocásticos. Bender es famosa por sus reglas de oro, las cuales advierten a sus colegas científicos sobre el peligro de drogarse con su propia mercancía. La primera: por favor, no confundan el significado literal de una palabra con la definición precisa de un concepto. La segunda: cuidado con su propia credulidad.
Según Bender, hemos creado “máquinas que generan texto mecánicamente, pero seguimos imaginando que hay una mente detrás de ellas”. En contra de esta falacia, podríamos aceptar la sugerencia de un ex primer ministro italiano de reemplazar “IA” con “SALAMI” (siglas en inglés de Systematic Approaches to Learning Algorithms and Machine Inferences, es decir, Aproximaciones Sistemáticas para Algoritmos de Aprendizaje e Inferencias de Máquinas). Es mucho más sencillo mantenerse ecuánime cuando alguien te pregunta: “¿Es inteligente este SALAMI? ¿Puede escribir una novela este SALAMI? ¿Debe tener derechos humanos este SALAMI?”
La contribución más famosa de Bender es el “loro estocástico”, un constructo que “solo escupe palabras probabilísticamente”. Los compadres de la inteligencia artificial como Altman adoran al loro estocástico y están empecinados en convertir a los seres humanos en loros estocásticos, lo que les permitiría declarar que sus chatbots son nuestros pares. Es curioso que a la vez Altman y compañía les teman a sus creaciones. Parecen estarnos diciendo: “¡Hice algo tan poderoso que podría destruir a la humanidad! Por suerte, soy un sabio custodio de esta cosa, así que estamos en buenas manos. Pero, caramba, ¡sí que es poderosa!” Esta gente tiene mucha experiencia en el juego. Personas como Elon Musk —un inversionista de OpenAI que espera convencer a la Comisión Europea y a la Comisión Federal de Comercio de Estados Unidos, la FTC, de que puede despedir a todos los moderadores humanos de X (Twitter) y remplazarlos con chatbots sin violar la ley europea o el decreto de consentimiento de la FTC— nos siguen advirtiendo que la IA nos destruirá a menos que la controlemos.
Estas afirmaciones se repiten con ingenuidad, y no solo por parte de los promotores de la IA. Sus críticos también son proclives a participar en lo que Lee Vinsel llama criti-hype: criticar algo repitiendo las afirmaciones de sus adeptos sin verificar su veracidad.14 Hay mejores formas de responder a las advertencias que gritar: “¡Miren lo irresponsable que es este mago! ¡Hizo un monstruo de Frankenstein que nos matará a todos!” Podríamos, por ejemplo, señalar que, de todas las cosas en las que Elon Musk se equivoca, en donde más falla es en su interpretación del significado filosófico de la saga de Matrix.15
Incluso si les creemos a los fanáticos cuando proclaman estar aterrorizados por el “riesgo existencial” que supone la IA, podríamos encontrar mejores explicaciones si buscáramos la verdadera causa de su temor en otros fenómenos. Como señala Charlie Stross, las corporaciones son inteligencias artificiales lentas: entidades artificiales y autónomas que suelen hacer lo incorrecto aun cuando sus directores nominales intenten conducirlas hacia rumbos más positivos.16 Imaginen el horror de un niñote ultrarrico que en teoría dirige una empresa, pero no puede hacer que nadie lo obedezca: “todo el mundo cree que estoy a cargo, pero en realidad esta inteligencia artificial lenta está al mando; algunos días la hago de su títere y otros soy su gólem”.
Ted Chiang dio en el blanco en 2017 (el mismo año de lanzamiento de la Long Island Blockchain Company):
Hay un dicho, popularizado por Fredric Jameson, que dice que es más fácil imaginar el fin del mundo que imaginar el fin del capitalismo. No sorprende que los capitalistas de Silicon Valley no quieran pensar en el fin del capitalismo. Lo que es inesperado es la forma en que imaginan el fin del mundo: como un capitalismo sin control disfrazado de una IA superinteligente. De manera inconsciente han creado un diablo a su imagen y semejanza, un coco cuyos excesos son precisamente los suyos.17
Chiang continúa escribiendo algunas de las mejores críticas contra la IA. Su artículo en el New Yorker, “El ChatGPT es una JPEG borrosa de internet”, fue un clásico instantáneo: “Las alucinaciones [de la IA] son artefactos de compresión, pero, como las etiquetas incorrectas generadas por la fotocopiadora Xerox, son lo suficientemente verosímiles como para que haya que compararlas con los originales, es decir, usando internet o nuestro propio conocimiento del mundo”.18
La IA pareciera haber sido creada para inflar otra burbuja de puro bombo, ya que sus trucos de fiesta son sobresalientes: ensayos verosímiles, imágenes raras, suplantación de voz. Pero como escribe Matthew Salganik, un sociólogo de Princeton, hay una gran diferencia entre estar “de moda” y “de joda”.19 La revista Nature puede afirmar que “la IA conversacional es revolucionaria para la ciencia”, pero “hay una enorme brecha entre proporcionar instrucciones graciosas para saber cómo eliminar comida de los electrodomésticos y hacer investigación científica”.
Por supuesto, hay mucha preocupación (justificable) acerca de los generadores de imagen y voz, y sobre su impacto en los mercados laborales creativos, pero esa inquietud a menudo amplifica las afirmaciones de las empresas que desean inflar la maquinaria propagandística.
Una de las mejores respuestas críticas proviene del cineasta y escritor Kirby Ferguson, quien destaca en el análisis de los derechos de autor: ¿tenemos derecho a decidir quién puede estudiar las obras que producimos? Excepto en casos extremos, estos sistemas no almacenan copias de las imágenes que analizan ni tampoco las reproducen.20 En lo que respecta a los creadores, la interrogante que estos sistemas les plantean es económica, no creativa: ¿los usarán nuestros jefes para mermar nuestros sueldos? La respuesta es un rotundo sí. Los mercados valoran la automatización porque permite que los capitalistas les paguen menos a los trabajadores.
Hoy, a los actores de voz que hacen grabaciones para las empresas de videojuegos se les obliga a empezar cada sesión diciendo: “Mi nombre es ____ y por medio de la presente otorgo el permiso irrevocable de entrenar una IA con mi voz y usarla en cualquier modo que consideren adecuado”.21 No hay, por el momento, derechos de autor sobre las impresiones vocales. El “derecho” al que esos actores están renunciando —una condición innegociable si quieren trabajar para esos monopolios gigantes y poderosos— ni siquiera existe. Las corporaciones apuestan a que ese derecho se creará después, en nombre de los artistas, y a que podrán aprovechar que los actores ya firmaron la renuncia a tal derecho para despedirlos, aunque los artistas hayan luchado por conseguir dicho reconocimiento legal.
Hay otras formas de resistencia. Podríamos apoyar la postura de la oficina de derechos de autor de los EUA en cuanto a que las obras generadas por máquinas no son obras de autoría creativa humana y, por tanto, no se sujetan a los derechos de autor, de modo que si las corporaciones quisieran controlar sus productos, tendrían que contratar a humanos para elaborarlos.22 O podríamos crear derechos colectivos que les pertenezcan a todas y todos los artistas y que no puedan cederse a una corporación. Así funcionan los derechos para grabar las canciones de otros músicos; por eso Taylor Swift pudo regrabar los masters que los compadres de los malvados capitales privados vendieron sin su consentimiento.23
Sea lo que sea que hagamos como trabajadores creativos y como seres humanos con derecho a una vida decente, no hay que beber el té helado del blockchain. Eso significa que debemos ser técnicamente competentes, entender cómo funciona el loro estocástico y asegurarnos de que nuestra crítica no repita el copy publicitario del más reciente pump-and-dump.
Esta es una versión ligeramente editada del texto original, “The AI Hype Bubble is the New Crypto Hype Bubble”, Medium, 9 de marzo de 2023. Republicado con el permiso del autor.
Imagen de portada: Imagen generada con Imagine.art
-
“Una cadena de bloques, o blockchain, es una base de datos compartida que almacena información en bloques vinculados y encriptados. Se utilizan en los sistemas de criptomonedas para conservar un registro seguro y descentralizado de las transacciones, a la manera de un libro contable. Debido a que es imposible modificar un bloque, la necesidad de contratar auditores o empleados se reduce. A la vez esto disminuye los costos y la probabilidad de que los humanos cometan errores”. Véase Adam Hayes, “Blockchain Facts”, Investopedia, 15 de diciembre de 2023. Disponible aquí. ↩
-
Stephen O’Neal, “Textbook Case of Crypto Hype”, Cointelegraph, 12 de marzo de 2019. Disponible aquí. ↩
-
“Dump-and-pump es un tipo de fraude en el que un inversionista promueve una acción bursátil por medio de información falsa, engañosa o exagerada, para venderla una vez que su precio se eleve”. Véase “How Does a Pump-and-Dump Scam Work?”, Investopedia, 13 de enero de 2022. Disponible aquí. ↩
-
“Los Non-fungible tokens son activos ‘tokenizados’ en una cadena de bloques (blockchain). Los tokens son códigos encriptados de identificación creados con metadatos. Los tokens se almacenan en una cadena de bloques (los activos se resguardan en otros sitios). Los NFT pueden ser intercambiados entre sí, por dinero o por criptomonedas. Incluso podríamos dibujarle una cara sonriente a un plátano, tomarle una foto (ligada a un metadato) y ‘tokenizarla’ en una cadena de bloques. Quien posee las llaves privadas del token es dueño de los derechos asignados a él. Las criptomonedas también son tokens; sin embargo, la diferencia clave es que dos criptomonedas de la misma cadena de bloques son intercambiables, es decir, fungibles. Dos NFT de la misma cadena de bloques pueden verse idénticos pero no son intercambiables”, Véase Rakesh Sharma, “Non-Fungible Token (NFT): What It Means and How It Works”, Investopedia, 28 de enero de 2024. Disponible aquí. ↩
-
Tori Latham, “The Crypto-Themed Restaurant in LA That Stopped Accepting Cryptocurrency Is Back Online”, Robb Report, 24 de junio de 2022. Disponible aquí. ↩
-
Helen Partz, “Morgan Stanley Launches Cryptocurrency Research Team”, Cointelegraph, 15 de septiembre de 2021. Disponible aquí. ↩
-
Alex Weprin, “Want to Impress Wall Street? Just Add Some AI”, The Hollywood Reporter, 8 de marzo de 2023. Disponible aquí. ↩
-
C. Doctorow, “Pluralistic: Google’s Chatbot Panic”, Pluralistic, 16 de febrero de 2023. Disponible aquí. ↩
-
“Edict of Brainworms”, Trashfuture, marzo de 2023. Disponible aquí. ↩
-
C. Doctorow, “Our Neophobic, Conservative AI Overlords Want Everything to Stay the Same”, Blog - Los Angeles Review of Books, 1 de enero de 2020. Disponible aquí. ↩
-
Morgan Sung, “Android Predictive Text Keeps Suggesting ‘Sit on My Face,’ and Google is Fixing it”, Mashable, 29 de julio de 2018. Disponible aquí. ↩
-
Alexander Hanff, “Why ChatGPT Should Be Considered a Malevolent AI – and be Destroyed”, The Register, 2 de marzo de 2023. Disponible aquí. ↩
-
Karen Hao, “We Read the Paper that Forced Timnit Gebru out of Google. Here’s What it Says”, MIT Technology Review, 4 de diciembre de 2020. Disponible aquí. ↩
-
Lee Vinsel, “You’re Doing It Wrong: Notes on Criticism and Technology Hype”, Medium, 1 de febrero de 2021. Disponible aquí. ↩
-
“Lilly Wachowski Rounds on Ivanka Trump and Elon Musk over Matrix Tweets”, The Guardian, 18 de mayo de 2020. Disponible aquí. ↩
-
Charles Stross, “Dude, You Broke the Future!”, Media CCC, s. f. Disponible aquí. ↩
-
Ted Chiang, “Silicon Valley Is Turning Into Its Own Worst Fear”, Buzzfeed News, 18 de diciembre de 2017. Disponible aquí. ↩
-
T. Chiang, “ChatGPT Is a Blurry JPEG of the Web”, The New Yorker, 9 de febrero de 2023. Disponible aquí. ↩
-
Matthew Salganik, “Can ChatGPT—and its successors—Go from Cool to Tool?”, Freedom to Tinker, 8 de marzo de 2023. Disponible aquí. ↩
-
Cory Doctorow, “Copyright Won’t Solve Creators’ Generative AI Problem”, Pluralistic, 9 de febrero de 2023. Disponible aquí. ↩
-
Joseph Cox, “‘Disrespectful to the Craft’: Actors Say They’re Being Asked to Sign Away Their Voice to AI”, Vice, 7 de febrero de 2023. Disponible aquí. ↩
-
Adi Robertson, “The US Copyright Office Says an AI Can’t Copyright its Art”, The Verge, 21 de febrero de 2011. Disponible aquí. ↩
-
C. Doctorow, “United We Stand”, Medium, 26 de febrero de 2023. Disponible aquí. ↩