El ojo del amo: historia social de la inteligencia artificial Por Ben Tarnoff
Traducción Edgar Manjarín
Silicon Valley funciona a base de novedad. Se sustenta en la búsqueda de lo que Michael Lewis llamó una vez «la nueva cosa nueva». Internet, el smartphone, las redes sociales: lo nuevo no puede ser un modesto retoque en los bordes. Tiene que transformar la raza humana. Los incentivos económicos son claros: una empresa que populariza un invento rompedor de paradigmas puede ganar mucho dinero. Pero también hay algo más grande en juego. Si Silicon Valley no sigue aportando cosas nuevas, perderá su estatus privilegiado como lugar donde se fabrica el futuro.
En 2022 el sector tuvo un mal año. Tras una pandemia lucrativa -las cinco empresas tecnológicas más valiosas sumaron conjuntamente más de 2,6 billones de dólares a su capitalización bursátil en 2020 y casi la misma cantidad en 2021-, el sector sufrió una de las contracciones más bruscas de su historia. Amazon perdió casi la mitad de su valor, Meta cerca de dos tercios. El Nasdaq, de fuerte componente tecnológico, cayó un 33%, su peor resultado desde la crisis financiera de 2008.
En 2022 el sector tuvo un mal año. Tras una pandemia lucrativa -las cinco empresas tecnológicas más valiosas sumaron conjuntamente más de 2,6 billones de dólares a su capitalización bursátil en 2020 y casi la misma cantidad en 2021-, el sector sufrió una de las contracciones más bruscas de su historia. Amazon perdió casi la mitad de su valor, Meta cerca de dos tercios. El Nasdaq, de fuerte componente tecnológico, cayó un 33%, su peor resultado desde la crisis financiera de 2008.
Las razones eran bastante evidentes. Al comienzo de la pandemia de Covid-19, la Reserva Federal redujo los tipos de interés a cero y la gente se quedó en casa, donde pasó más tiempo y gastó más dinero en Internet. En 2022, ambas tendencias se habían invertido. La mayoría de los estadounidenses habían decidido dejar de preocuparse por el virus y reanudaban alegremente sus actividades desconectadas de internet. Mientras tanto, la Reserva Federal empezó a subir los tipos de interés en respuesta al aumento de la inflación.
Sería un error exagerar la gravedad de la «recesión tecnológica» que siguió. A pesar de los despidos masivos y la disminución de los ingresos, las grandes empresas seguían siendo más grandes y rentables que antes de la pandemia. Sin embargo, se había instalado un cierto malestar. La industria necesitaba un nuevo invento deslumbrante que pudiera atraer a miles de millones de consumidores y hacer saltar los mercados de capitales.
Uno de los candidatos fue la Web3, una propuesta para reconstruir Internet en torno al blockchain, la tecnología contable subyacente al Bitcoin y otras criptodivisas. Defendida sobre todo por los inversores de capital riesgo, que esperaban enriquecerse con una nueva generación de start-ups que desbancaran a las grandes empresas, la Web3 nunca demostró ser útil más que para especular, e incluso los especuladores acabaron hundidos cuando varios planes implosionaron bajo la presión de los altos tipos de interés. Otra posibilidad era el metaverso, el sueño de Mark Zuckerberg de una Internet inmersiva experimentada a través de un casco de realidad virtual. También tuvo problemas para demostrar cualquier ventaja práctica. Peor aún, era desagradable: un simulacro de un centro comercial postapocalíptico diseñado por David Lynch, en el que avatares con ojos de pez y sin piernas flotaban por mundos de dibujos animados escasamente poblados.
Entonces, el 30 de noviembre de 2022, OpenAI lanzó ChatGPT. Un potente sistema de IA combinado con una interfaz de conversación afable, que permitía a cualquiera hacer una pregunta y obtener una respuesta impresionantemente humanoide (aunque no siempre correcta). En enero de 2023, el chatbot había acumulado 100 millones de usuarios, convirtiéndose en la aplicación web de más rápido crecimiento de la historia. Era el típico caso del libro de cuentos de Silicon Valley: OpenAI, que en aquel momento solo tenía unos pocos cientos de empleados, pilló a todo el mundo por sorpresa y, prácticamente de la noche a la mañana, estableció la «IA generativa» -la categoría de software a la que pertenece ChatGPT- como el nuevo concepto maestro de toda la industria. Los gigantes tecnológicos se apresuraron a responder, desencadenando una estampida. Desde los motores de búsqueda hasta los clientes de correo electrónico empezaron a incorporar funcionalidades de IA generativa. En 2023, el Nasdaq subió un 55%, su mejor resultado desde 1999. Se encontró la nueva cosa nueva.
Es demasiado pronto para saber si la IA generativa resultará ser una mina de oro o una ráfaga de aire caliente. Las opiniones están divididas. A algunas empresas les ha ido fabulosamente bien: Nvidia, la estrella revelación del auge, está ganando enormes sumas, ya que sus chips son la infraestructura básica sobre la que se construye la IA generativa (aunque la pequeña empresa china DeepSeek creo una IA de código abierto con la misma o más capacidad que ChatGPT y con necesidades de procesamiento mucho menores, que le hizo perder bastante dinero a Nvidia). Las divisiones en la nube de Microsoft, Google y Amazon también han crecido considerablemente, lo que sus ejecutivos atribuyen al aumento de la demanda de servicios de IA.
Pero estos son, en la jerga de la prensa financiera, negocios de «picos y palas». Nadie duda de que se puede ganar dinero vendiendo a las empresas la parafernalia que necesitan para utilizar la IA generativa. La verdadera cuestión es si la IA generativa ayuda a esas empresas a ganar dinero por sí mismas. Los escépticos señalan que el alto coste de crear y ejecutar software de IA generativa es un obstáculo potencial. Esto anula la ventaja tradicional de la tecnología digital: sus bajos costes marginales. La creación de una tienda de libros en línea funcionó para Amazon porque era más barato que seguir el camino de tiendas físicas, como señaló Jim Covello, jefe de investigación sobre renta variable global de Goldman Sachs, en un informe de junio de 2024. La IA, por el contrario, no es barata, lo que significa que «las aplicaciones de IA deben resolver problemas extremadamente complejos e importantes para que las empresas obtengan un rendimiento adecuado de la inversión». Covello, por su parte, duda que lo consigan.
Pero las empresas, como las personas, no son totalmente racionales. Cuando una empresa decide adoptar una nueva tecnología, rara vez lo hace basándose únicamente en consideraciones económicas. «Esas decisiones suelen basarse en corazonadas, fe, ego, deleite y acuerdos», observa el historiador David Noble. Al analizar las fábricas estadounidenses después de la Segunda Guerra Mundial, Noble identificó una serie de razones para su cambio a la tecnología de «control numérico»: una «fascinación por la automatización», una devoción por la idea del progreso tecnológico, un deseo de asociarse con el prestigio de la vanguardia y un «miedo a quedarse atrás con respecto a la competencia», entre otras cuestiones1.
Sin embargo, Noble hace especial hincapié en una motivación que, al menos en parte, tiene su origen en la racionalidad económica: la disciplina laboral. Al mecanizar el proceso de producción, los directivos podían dominar en mayor medida a los trabajadores que lo integraban. El filósofo Matteo Pasquinelli adopta un punto de vista similar en su reciente libro The Eye of the Master («El ojo del amo: una historia social de la inteligencia artificial»). En la introducción, Pasquinelli, profesor de la Universidad Ca' Foscari de Venecia, explica que no ofrece una «historia lineal de los logros matemáticos». Más bien quiere ofrecer una «genealogía social» que trate la IA no solo como una búsqueda tecnológica, sino «como una visión del mundo». La pieza central de esta visión es la automatización -y dominación- del trabajo. En su opinión, la IA contemporánea se entiende mejor como el último de una larga serie de esfuerzos por aumentar el poder del jefe.
En «La riqueza de las naciones», Adam Smith sostuvo que la fabricación de alfileres podía hacerse más eficiente mediante la división del trabajo. En lugar de que un solo fabricante de alfileres lo hiciera todo, se podría dividir el trabajo en varias tareas distintas y distribuirlas para fabricar alfileres con mayor rapidez. Este es el principio canónico de la producción capitalista y el que la automatización personifica y aplica. Primero se mecaniza el trabajo y luego se delega en las máquinas.
Un importante divulgador de este principio fue Charles Babbage, figura central del libro de Pasquinelli. Originalmente matemático, Babbage se convirtió en lo que hoy llamaríamos un «líder del pensamiento» entre la burguesía británica del siglo XIX. Hoy es más conocido como uno de los inventores del ordenador. Su trabajo sobre la computación comenzó con la observación de que la división del trabajo podía «aplicarse con igual éxito a las operaciones mentales que a las mecánicas», como afirmó en un influyente tratado de 1832. Babbage creía que el mismo método de organización industrial que entonces remodelaba al obrero británico podía transportarse fuera de la fábrica y aplicarse a un tipo de trabajo muy distinto: el cálculo matemático.
Se inspiró en Gaspard de Prony, un matemático francés que ideó un sistema para simplificar la creación de tablas logarítmicas reduciendo la mayor parte del trabajo a una serie de sumas y restas sencillas. En el sistema de Prony, un puñado de expertos y administradores planificaban el trabajo y realizaban los cálculos más difíciles, mientras que un ejército de operarios se encargaba de la aritmética básica.
Si los pobres peones de la base de la pirámide eran básicamente autómatas, ¿por qué no automatizarlos? En la fábrica, la división del trabajo iba de la mano de la automatización. De hecho, según Babbage, fue precisamente la simplificación del proceso de trabajo lo que hizo posible la introducción de la maquinaria. «Cuando cada proceso se ha reducido al uso de alguna herramienta simple», escribió, «la unión de todas estas herramientas, accionadas por una sola fuerza móvil, constituye una máquina».
En 1819 empezó a diseñar lo que llamó el Motor Diferencial, que automatizaba la labor aritmética con tres cilindros giratorios y funcionaba con una máquina de vapor. La ambición de Babbage era enorme. Quería «establecer el negocio del cálculo a escala industrial», escribe Pasquinelli, aprovechando la misma fuente de energía que estaba revolucionando la industria británica. La producción masiva de tablas logarítmicas sin errores también sería un negocio rentable, porque esas tablas permitían a las formidables flotas mercantes y militares del Reino Unido determinar su posición en el mar. El gobierno británico, reconociendo el valor económico y geopolítico de la empresa de Babbage, proporcionó financiación.
La inversión fracasó. Babbage consiguió construir un pequeño prototipo, pero el diseño completo resultó demasiado complicado para llevarlo a la realidad. En 1842, el gobierno retiró su apoyo, momento en el que Babbage había empezado a soñar con una máquina aún menos construible: el Motor Analítico. Diseñado con la ayuda de la matemática Ada Lovelace, este extraordinario mecanismo habría sido el primer ordenador de propósito general, capaz de programarse para realizar cualquier cálculo. Así, entre el humo y el hollín de la Inglaterra victoriana, nació la idea del software.
La división del trabajo nunca fue solo una cuestión de eficacia, sino también de control. Al fragmentar la producción artesanal -imagínese a un zapatero fabricando un par de zapatos- en un conjunto de rutinas modulares, la división del trabajo eliminó la autonomía del artesano. Ahora la dirección reunía a los trabajadores bajo un mismo techo, lo que significaba que se les podía decir lo que tenían que hacer y vigilarles mientras lo hacían.
Pasquinelli cree que los motores de Babbage, originados como estaban en un «proyecto para mecanizar la división del trabajo mental», estaban impulsados por los mismos imperativos de gestión. Eran, escribe, «una puesta en práctica del ojo analítico del amo de la fábrica», una especie de representación mecánica del jefe vigilante y despótico. Pasquinelli llega a calificarlos de «primos» del famoso panóptico de Jeremy Bentham.
Pero es de suponer que estos imperativos permanecieron latentes, ya que los artilugios nunca funcionaron tal y como fueron diseñados. Babbage intentó utilizar engranajes mecánicos para representar los números decimales, lo que significaba que luchaba con el problema de cómo automatizar el «acarreo» -el proceso por el que una columna se pone a cero y la siguiente columna aumenta en uno- cuando un dígito llega a 10. Tendrían que llegar las simplificaciones del sistema binario, la invención de la electrónica y los numerosos avances financiados por los amplios presupuestos militares de la Segunda Guerra Mundial para que el cálculo automático fuera finalmente factible en la década de 1940.
Para entonces, el capitalismo se había convertido en un fenómeno más internacional, lo que complicaba aún más la gestión de los trabajadores. «Cuanto más se extendía la división del trabajo a un mundo globalizado«, escribe Pasquinelli, «más problemática se volvía su gestión», ya que «la ‘inteligencia' del amo de la fábrica ya no podía supervisar todo el proceso de producción de un solo vistazo». De ahí, sostiene, la necesidad de «infraestructuras de comunicación» que «pudieran cumplir esta función de supervisión y cuantificación».
El ordenador moderno, en las décadas siguientes a su llegada en los años 40, ayudó a satisfacer esta necesidad. Los ordenadores extendieron el «ojo del amo» a través del espacio, sostiene Pasquinelli, permitiendo a los capitalistas coordinar la cada vez más complicada logística de la producción industrial. Si Babbage había querido construir una prótesis con la que proyectar el poder de mando, como sugiere Pasquinelli, entonces el triunfo de la computación en el siglo XX como instrumento indispensable de la globalización capitalista debería entenderse como una realización del espíritu fundador de la tecnología.
Además, este espíritu parece haberse intensificado a medida que los ordenadores seguían evolucionando. «Desde finales del siglo XX», escribe Pasquinelli, «la gestión del trabajo ha convertido a toda la sociedad en una ‘fábrica digital' y ha adoptado la forma del software de los motores de búsqueda, los mapas en línea, las aplicaciones de mensajería, las redes sociales, la economía de plataformas, los servicios de movilidad y, en última instancia, los algoritmos de IA».
La IA, concluye, está acelerando esta transformación.
No hay duda de que los ordenadores se utilizan a menudo en beneficio de los empleadores, desde el software de planificación de horarios que reduce los costes laborales cargando a los trabajadores de comercios y restaurantes con horarios impredecibles hasta las diversas especies de «bossware» que permiten la vigilancia y supervisión remotas de empleados de oficina, conductores de Uber y camioneros de larga distancia. Pero sostener que esos usos son la razón de ser de la tecnología digital, como parece hacer Pasquinelli, es exagerar.
La disciplina laboral es uno de los usos que pueden darse a los ordenadores; hay muchos otros. Y no fue fundamental para el desarrollo de la tecnología: las principales innovaciones de la informática surgieron en respuesta a prerrogativas militares, no económicas. El deseo de descifrar la criptografía enemiga, calcular los ángulos correctos para apuntar la artillería y realizar los cálculos matemáticos necesarios para fabricar la bomba de hidrógeno fueron algunas de las motivaciones para construir ordenadores en la década de 1940. El gobierno estadounidense se encaprichó con la tecnología y gastó millones en investigación y adquisición en las décadas siguientes. Los ordenadores se convertirían en parte integrante de diversas actividades imperiales, desde el ensamblaje de misiles intercontinentales capaces de incinerar (con precisión) a millones de soviéticos hasta el almacenamiento y análisis de interceptaciones procedentes de estaciones de escucha de todo el mundo. Las empresas estadounidenses les siguieron, adaptando los artilugios creados por el estado de seguridad a diversos fines comerciales.
Aun así, si las afirmaciones de Pasquinelli no siempre convencen, hay mucho que aprender del material que presenta. En los últimos años, las editoriales han inundado a los lectores de libros sobre IA, tantos como para llenar una pequeña librería2. La mayoría tienen una calidad de cocción escasa. The Eye of the Master es, si a caso, un libro sobreelaborado: hay una enorme cantidad de pensamiento comprimido en sus páginas. El intelecto omnívoro de Pasquinelli a menudo hipnotiza. Sin embargo, a veces me he encontrado deseando que se detuviera un poco para fundamentar sus provocaciones con más evidencias.
El hecho de que Babbage se inspirara en la gestión industrial para diseñar sus protoordenadores es un dato histórico interesante. Pero su relevancia para desarrollos posteriores, o incluso su resonancia con ellos, solo puede determinarse examinando de cerca cómo los ordenadores transformaron realmente el trabajo en los siglos XX y XXI, cosa que Pasquinelli no hace. En lugar de ello, da un giro brusco a mitad del libro, pasando de la Gran Bretaña industrial del siglo XIX a los primeros investigadores de IA de la América de mediados del siglo XX, centrándose en particular en la escuela «conexionista» de este campo.
El conexionismo, como señala Pasquinelli, se apartó de manera significativa de la computación automática de Babbage. Para Babbage, el alma del ordenador era el algoritmo, un procedimiento paso a paso que tradicionalmente constituye el ingrediente principal de un programa informático. Cuando Alan Turing, John von Neumann y otros crearon el ordenador moderno en el siglo XX, lo que crearon fue un dispositivo para ejecutar algoritmos. El programador escribe un conjunto de reglas para transformar una entrada en una salida, y el ordenador obedece.
Este ethos también guió la «IA simbólica», la filosofía que llegó a dominar la primera generación de investigación en IA. Sus partidarios creían que programando un ordenador para que siguiera una serie de reglas podían convertir una máquina en una mente. Este método tenía sus límites. Formalizar una actividad como una secuencia lógica funciona bien si la actividad es relativamente sencilla. Sin embargo, a medida que se vuelve más compleja, las instrucciones codificadas son menos útiles. Podría darte un conjunto exacto de instrucciones para ir de mi casa a la tuya, pero no podría utilizar la misma técnica para decirte cómo conducir.
Un enfoque alternativo surgió de la cibernética, un movimiento intelectual de posguerra con intereses extremadamente eclécticos. Entre ellos estaba la aspiración a crear autómatas con la adaptabilidad de los seres vivos. «En lugar de imitar las reglas del razonamiento humano», escribe Pasquinelli, los cibernéticos «pretendían imitar las reglas por las que los organismos se organizan y adaptan al entorno». Estos esfuerzos condujeron a la invención de la red neuronal artificial, una arquitectura de procesamiento de datos vagamente modelada a partir del cerebro. Al utilizar estas redes para percibir patrones en los datos, los ordenadores pueden entrenarse en una tarea concreta. Una red neuronal aprende a hacer cosas no simplificando un proceso en un procedimiento, sino observando un proceso -una y otra y otra vez- y estableciendo relaciones estadísticas entre los numerosos ejemplos.
Uno de los progenitores del conexionismo fue Friedrich Hayek, el tema del capítulo más intrigante de Pasquinelli. Hayek es más conocido como uno de los principales teóricos del neoliberalismo, pero de joven se interesó por el cerebro mientras trabajaba en el laboratorio de Zúrich del famoso neuropatólogo Constantin von Monakow. Para Hayek, la mente era como un mercado: veía ambas como entidades autoorganizadas de las que surge un orden espontáneo a través de la interacción descentralizada de sus componentes. Estas ideas ayudarían a influir en el desarrollo de las redes neuronales artificiales, que de hecho funcionan de forma muy parecida a la mente de mercado del imaginario hayekiano. Cuando un psicólogo llamado Frank Rosenblatt puso en marcha la primera red neuronal con la ayuda de una subvención de la Marina de Estados Unidos en 1957, reconoció su deuda con Hayek.
Pero Hayek también divergía de los cibernéticos en aspectos importantes. La cibernética, como la definió el filósofo Norbert Wiener en su libro epónimo de 1948, consistía en el estudio científico del «control y la comunicación en el animal y la máquina». El término, acuñado por Wiener, derivaba de la antigua palabra griega para designar al timonel de un barco, que comparte la misma raíz que la palabra gobierno. Los cibernéticos querían crear sistemas tecnológicos que pudieran gobernarse a sí mismos, una perspectiva que atraía a un Pentágono que buscaba formas de obtener una ventaja militar en la guerra fría. La Marina estadounidense financió a Rosenblatt con la esperanza de que su red neuronal pudiera ayudar en «la automatización de la clasificación de objetivos», explica Pasquinelli, utilizando sus poderes de reconocimiento de patrones para detectar buques enemigos.
Para Hayek, en cambio, el conexionismo ofrecía una forma de pensar sobre un sistema que eludía el control. Tenía en mente un tipo especial de control: la planificación económica. En su opinión, la complejidad cerebral y la arquitectura distribuida del mercado significaban que el socialismo nunca podría funcionar. De ahí la necesidad de políticas neoliberales que, en palabras del historiador Quinn Slobodian, «recubrieran la economía incognoscible», protegiéndola de la ingerencia gubernamental3. Con todo, Hayek y los demás conexionistas estaban en el mismo equipo. Rosenblatt y sus colegas consiguieron financiación para sus investigaciones porque el gobierno estadounidense creía que sus ideas podían ayudar a derrotar a los ejércitos socialistas. Hayek estaba en el negocio de derrotar las ideas socialistas.
Al principio, el conexionismo no cumplió sus promesas. A principios de la década de 1970 había caído en desgracia en el mundo de la IA. Aun así, las redes neuronales siguieron desarrollándose silenciosamente durante las décadas siguientes, disfrutando de algunos avances en las décadas de 1980 y 1990. Luego, en la década de 2010, llegó el salto cuantitativo del conexionismo.
Entrenar una red neuronal, como señaló Rosenblatt en una ocasión, requiere «exponerla a una gran muestra de estímulos». El tamaño importa: dado que las redes neuronales aprenden estudiando datos, cuánto pueden aprender depende en parte de la cantidad de datos de que dispongan. Durante gran parte de la historia de la informática, los datos eran caros de almacenar y difíciles de transmitir. En la segunda década del siglo XXI, ambas barreras se habían disuelto. La caída en picado de los costes de almacenamiento, combinada con el nacimiento y crecimiento de la Web, significaba que una montaña de palabras, fotos y vídeos estaba al alcance de cualquiera con una conexión a Internet. Los investigadores utilizaron esta información para entrenar redes neuronales. La abundancia de datos de entrenamiento, junto con nuevas técnicas y un hardware más potente, propiciaron rápidos avances en campos como el procesamiento del lenguaje natural y la visión por ordenador. Hoy en día, la IA basada en redes neuronales es omnipresente y se utiliza en todo tipo de aplicaciones, desde Siri a los vehículos autónomos, pasando por los algoritmos que gestionan los contenidos de las redes sociales.
Las redes neuronales también son la base de sistemas de IA generativa como ChatGPT. Estos sistemas son especialmente grandes, es decir, están compuestos por muchas capas de redes neuronales, y su apetito de datos es inmenso. El motivo de que ChatGPT suene tan realista y parezca saber tantas cosas sobre el mundo es que el «gran modelo de lenguaje» que lleva dentro se ha entrenado con terabytes de texto extraído de Internet, incluidos millones de sitios web, artículos de Wikipedia y libros completos. A esto se refiere Pasquinelli cuando escribe que las redes neuronales de la IA contemporánea «no son un modelo del cerebro biológico, sino de la mente colectiva», un esfuerzo social al que han contribuido muchas personas.
No todo el mundo está contento con este hecho. La voracidad de la IA Generativa es responsable de lo que el presentador del podcast Michael Barbaro llama su «pecado original»: entre la información ingerida hay material protegido por derechos de autor. El New York Times ha demandado a OpenAI por infracción de derechos de autor; también lo ha hecho el Sindicato de Autores, junto a Jonathan Franzen, George Saunders y varios escritores más. Aunque OpenAI y los demás «creadores de modelos» importantes no revelan los detalles de sus datos de entrenamiento, OpenAI ha admitido que se incluyen obras protegidas por derechos de autor, pero sostiene que se trata de un uso legítimo. Mientras tanto, la demanda de datos de entrenamiento sigue creciendo, lo que obliga a las empresas tecnológicas a encontrar nuevas formas de obtenerlos. OpenAI, Meta y otras han llegado a acuerdos de licencia con editoriales como Reuters, Axel Springer y Associated Press, y están estudiando acuerdos similares con estudios de Hollywood.
Para Pasquinelli aquí podemos extraer una lección. La forma en que la IA contemporánea se apoya en nuestras contribuciones agregadas demuestra que la inteligencia es un «proceso social por constitución». Es comunitaria, emergente, difusa y, por tanto, encaja perfectamente con el paradigma conexionista. «No es ninguna sorpresa que la técnica de IA de más éxito, a saber, las redes neuronales artificiales, sea la que mejor puede reflejar, y por tanto mejor captar, la cooperación social», escribe.
Este argumento tiene un tinte marxista: la inteligencia reside en la creatividad de las masas. Pero también es un argumento que podría haber esgrimido el profundamente antimarxista Hayek. Al viejo austriaco le haría gracia saber que el «intelecto» del software más sofisticado de la historia procede de las actividades no planificadas de una multitud. Le habría hecho aún más gracia el hecho de que dicho software es, como su amado mercado, fundamentalmente incognoscible.
Lo más extraño del boom de la IA generativa es que nadie sabe realmente cómo opera esta tecnología. Sabemos cómo se entrenan los grandes modelos lingüísticos de ChatGPT y sus homólogos, aunque no siempre sepamos con qué datos: se les pide que predigan la siguiente cadena de caracteres de una secuencia. Pero cómo llegan exactamente a una predicción determinada es un misterio. Los cálculos que se realizan dentro del modelo son demasiado intrincados para que un ser humano pueda comprenderlos. No se puede abrir el capó y ver cómo se mueven los engranajes.
A falta de observación directa, queda un método más oblicuo: la interpretación. Ha surgido todo un campo técnico en torno a la «interpretabilidad» o «explicabilidad» de la IA, con el objetivo de descifrar cómo funcionan estos sistemas. Quienes lo practican, tanto en el mundo académico como en la industria, hablan en términos científicos, pero su empeño tiene algo de devoción, como la exégesis de los textos sagrados o de las entrañas de las ovejas recién sacrificadas.
Hay un límite en cuánto sentido se puede extraer. Los mortales deben satisfacerse con verdades parciales. Si los «monopolios de IA» actuales representan «el nuevo ‘ojo del amo'», como cree Pasquinelli, se trata de un ojo con un campo de visión limitado. Las fábricas de la época de Babbage eran zonas de visibilidad: al concentrar el trabajo y a los trabajadores, ponían el proceso laboral a la vista de todos. La IA contemporánea es todo lo contrario. Su carcasa es obstinadamente opaca. Ni siquiera el amo puede ver su interior.
Notas
- Forces of Production: A Social History of Industrial Automation (Knopf, 1984).
- Ver Sue Halpern, ‘The Coming Tech Autocracy', The New York Review, November 7, 2024.
- Globalists: The End of Empire and the Birth of Neoliberalism (Harvard University Press, 2018).
Fuente: The New York Review.
Por Ben Tarnoff
Traducción Edgar Manjarín
Silicon Valley funciona a base de novedad. Se sustenta en la búsqueda de lo que Michael Lewis llamó una vez «la nueva cosa nueva». Internet, el smartphone, las redes sociales: lo nuevo no puede ser un modesto retoque en los bordes. Tiene que transformar la raza humana. Los incentivos económicos son claros: una empresa que populariza un invento rompedor de paradigmas puede ganar mucho dinero. Pero también hay algo más grande en juego. Si Silicon Valley no sigue aportando cosas nuevas, perderá su estatus privilegiado como lugar donde se fabrica el futuro.
En 2022 el sector tuvo un mal año. Tras una pandemia lucrativa -las cinco empresas tecnológicas más valiosas sumaron conjuntamente más de 2,6 billones de dólares a su capitalización bursátil en 2020 y casi la misma cantidad en 2021-, el sector sufrió una de las contracciones más bruscas de su historia. Amazon perdió casi la mitad de su valor, Meta cerca de dos tercios. El Nasdaq, de fuerte componente tecnológico, cayó un 33%, su peor resultado desde la crisis financiera de 2008.
En 2022 el sector tuvo un mal año. Tras una pandemia lucrativa -las cinco empresas tecnológicas más valiosas sumaron conjuntamente más de 2,6 billones de dólares a su capitalización bursátil en 2020 y casi la misma cantidad en 2021-, el sector sufrió una de las contracciones más bruscas de su historia. Amazon perdió casi la mitad de su valor, Meta cerca de dos tercios. El Nasdaq, de fuerte componente tecnológico, cayó un 33%, su peor resultado desde la crisis financiera de 2008.
Las razones eran bastante evidentes. Al comienzo de la pandemia de Covid-19, la Reserva Federal redujo los tipos de interés a cero y la gente se quedó en casa, donde pasó más tiempo y gastó más dinero en Internet. En 2022, ambas tendencias se habían invertido. La mayoría de los estadounidenses habían decidido dejar de preocuparse por el virus y reanudaban alegremente sus actividades desconectadas de internet. Mientras tanto, la Reserva Federal empezó a subir los tipos de interés en respuesta al aumento de la inflación.
Sería un error exagerar la gravedad de la «recesión tecnológica» que siguió. A pesar de los despidos masivos y la disminución de los ingresos, las grandes empresas seguían siendo más grandes y rentables que antes de la pandemia. Sin embargo, se había instalado un cierto malestar. La industria necesitaba un nuevo invento deslumbrante que pudiera atraer a miles de millones de consumidores y hacer saltar los mercados de capitales.
Uno de los candidatos fue la Web3, una propuesta para reconstruir Internet en torno al blockchain, la tecnología contable subyacente al Bitcoin y otras criptodivisas. Defendida sobre todo por los inversores de capital riesgo, que esperaban enriquecerse con una nueva generación de start-ups que desbancaran a las grandes empresas, la Web3 nunca demostró ser útil más que para especular, e incluso los especuladores acabaron hundidos cuando varios planes implosionaron bajo la presión de los altos tipos de interés. Otra posibilidad era el metaverso, el sueño de Mark Zuckerberg de una Internet inmersiva experimentada a través de un casco de realidad virtual. También tuvo problemas para demostrar cualquier ventaja práctica. Peor aún, era desagradable: un simulacro de un centro comercial postapocalíptico diseñado por David Lynch, en el que avatares con ojos de pez y sin piernas flotaban por mundos de dibujos animados escasamente poblados.
Entonces, el 30 de noviembre de 2022, OpenAI lanzó ChatGPT. Un potente sistema de IA combinado con una interfaz de conversación afable, que permitía a cualquiera hacer una pregunta y obtener una respuesta impresionantemente humanoide (aunque no siempre correcta). En enero de 2023, el chatbot había acumulado 100 millones de usuarios, convirtiéndose en la aplicación web de más rápido crecimiento de la historia. Era el típico caso del libro de cuentos de Silicon Valley: OpenAI, que en aquel momento solo tenía unos pocos cientos de empleados, pilló a todo el mundo por sorpresa y, prácticamente de la noche a la mañana, estableció la «IA generativa» -la categoría de software a la que pertenece ChatGPT- como el nuevo concepto maestro de toda la industria. Los gigantes tecnológicos se apresuraron a responder, desencadenando una estampida. Desde los motores de búsqueda hasta los clientes de correo electrónico empezaron a incorporar funcionalidades de IA generativa. En 2023, el Nasdaq subió un 55%, su mejor resultado desde 1999. Se encontró la nueva cosa nueva.
Es demasiado pronto para saber si la IA generativa resultará ser una mina de oro o una ráfaga de aire caliente. Las opiniones están divididas. A algunas empresas les ha ido fabulosamente bien: Nvidia, la estrella revelación del auge, está ganando enormes sumas, ya que sus chips son la infraestructura básica sobre la que se construye la IA generativa (aunque la pequeña empresa china DeepSeek creo una IA de código abierto con la misma o más capacidad que ChatGPT y con necesidades de procesamiento mucho menores, que le hizo perder bastante dinero a Nvidia). Las divisiones en la nube de Microsoft, Google y Amazon también han crecido considerablemente, lo que sus ejecutivos atribuyen al aumento de la demanda de servicios de IA.
Pero estos son, en la jerga de la prensa financiera, negocios de «picos y palas». Nadie duda de que se puede ganar dinero vendiendo a las empresas la parafernalia que necesitan para utilizar la IA generativa. La verdadera cuestión es si la IA generativa ayuda a esas empresas a ganar dinero por sí mismas. Los escépticos señalan que el alto coste de crear y ejecutar software de IA generativa es un obstáculo potencial. Esto anula la ventaja tradicional de la tecnología digital: sus bajos costes marginales. La creación de una tienda de libros en línea funcionó para Amazon porque era más barato que seguir el camino de tiendas físicas, como señaló Jim Covello, jefe de investigación sobre renta variable global de Goldman Sachs, en un informe de junio de 2024. La IA, por el contrario, no es barata, lo que significa que «las aplicaciones de IA deben resolver problemas extremadamente complejos e importantes para que las empresas obtengan un rendimiento adecuado de la inversión». Covello, por su parte, duda que lo consigan.
Pero las empresas, como las personas, no son totalmente racionales. Cuando una empresa decide adoptar una nueva tecnología, rara vez lo hace basándose únicamente en consideraciones económicas. «Esas decisiones suelen basarse en corazonadas, fe, ego, deleite y acuerdos», observa el historiador David Noble. Al analizar las fábricas estadounidenses después de la Segunda Guerra Mundial, Noble identificó una serie de razones para su cambio a la tecnología de «control numérico»: una «fascinación por la automatización», una devoción por la idea del progreso tecnológico, un deseo de asociarse con el prestigio de la vanguardia y un «miedo a quedarse atrás con respecto a la competencia», entre otras cuestiones1.
Sin embargo, Noble hace especial hincapié en una motivación que, al menos en parte, tiene su origen en la racionalidad económica: la disciplina laboral. Al mecanizar el proceso de producción, los directivos podían dominar en mayor medida a los trabajadores que lo integraban. El filósofo Matteo Pasquinelli adopta un punto de vista similar en su reciente libro The Eye of the Master («El ojo del amo: una historia social de la inteligencia artificial»). En la introducción, Pasquinelli, profesor de la Universidad Ca' Foscari de Venecia, explica que no ofrece una «historia lineal de los logros matemáticos». Más bien quiere ofrecer una «genealogía social» que trate la IA no solo como una búsqueda tecnológica, sino «como una visión del mundo». La pieza central de esta visión es la automatización -y dominación- del trabajo. En su opinión, la IA contemporánea se entiende mejor como el último de una larga serie de esfuerzos por aumentar el poder del jefe.
En «La riqueza de las naciones», Adam Smith sostuvo que la fabricación de alfileres podía hacerse más eficiente mediante la división del trabajo. En lugar de que un solo fabricante de alfileres lo hiciera todo, se podría dividir el trabajo en varias tareas distintas y distribuirlas para fabricar alfileres con mayor rapidez. Este es el principio canónico de la producción capitalista y el que la automatización personifica y aplica. Primero se mecaniza el trabajo y luego se delega en las máquinas.
Un importante divulgador de este principio fue Charles Babbage, figura central del libro de Pasquinelli. Originalmente matemático, Babbage se convirtió en lo que hoy llamaríamos un «líder del pensamiento» entre la burguesía británica del siglo XIX. Hoy es más conocido como uno de los inventores del ordenador. Su trabajo sobre la computación comenzó con la observación de que la división del trabajo podía «aplicarse con igual éxito a las operaciones mentales que a las mecánicas», como afirmó en un influyente tratado de 1832. Babbage creía que el mismo método de organización industrial que entonces remodelaba al obrero británico podía transportarse fuera de la fábrica y aplicarse a un tipo de trabajo muy distinto: el cálculo matemático.
Se inspiró en Gaspard de Prony, un matemático francés que ideó un sistema para simplificar la creación de tablas logarítmicas reduciendo la mayor parte del trabajo a una serie de sumas y restas sencillas. En el sistema de Prony, un puñado de expertos y administradores planificaban el trabajo y realizaban los cálculos más difíciles, mientras que un ejército de operarios se encargaba de la aritmética básica.
Si los pobres peones de la base de la pirámide eran básicamente autómatas, ¿por qué no automatizarlos? En la fábrica, la división del trabajo iba de la mano de la automatización. De hecho, según Babbage, fue precisamente la simplificación del proceso de trabajo lo que hizo posible la introducción de la maquinaria. «Cuando cada proceso se ha reducido al uso de alguna herramienta simple», escribió, «la unión de todas estas herramientas, accionadas por una sola fuerza móvil, constituye una máquina».
En 1819 empezó a diseñar lo que llamó el Motor Diferencial, que automatizaba la labor aritmética con tres cilindros giratorios y funcionaba con una máquina de vapor. La ambición de Babbage era enorme. Quería «establecer el negocio del cálculo a escala industrial», escribe Pasquinelli, aprovechando la misma fuente de energía que estaba revolucionando la industria británica. La producción masiva de tablas logarítmicas sin errores también sería un negocio rentable, porque esas tablas permitían a las formidables flotas mercantes y militares del Reino Unido determinar su posición en el mar. El gobierno británico, reconociendo el valor económico y geopolítico de la empresa de Babbage, proporcionó financiación.
La inversión fracasó. Babbage consiguió construir un pequeño prototipo, pero el diseño completo resultó demasiado complicado para llevarlo a la realidad. En 1842, el gobierno retiró su apoyo, momento en el que Babbage había empezado a soñar con una máquina aún menos construible: el Motor Analítico. Diseñado con la ayuda de la matemática Ada Lovelace, este extraordinario mecanismo habría sido el primer ordenador de propósito general, capaz de programarse para realizar cualquier cálculo. Así, entre el humo y el hollín de la Inglaterra victoriana, nació la idea del software.
La división del trabajo nunca fue solo una cuestión de eficacia, sino también de control. Al fragmentar la producción artesanal -imagínese a un zapatero fabricando un par de zapatos- en un conjunto de rutinas modulares, la división del trabajo eliminó la autonomía del artesano. Ahora la dirección reunía a los trabajadores bajo un mismo techo, lo que significaba que se les podía decir lo que tenían que hacer y vigilarles mientras lo hacían.
Pasquinelli cree que los motores de Babbage, originados como estaban en un «proyecto para mecanizar la división del trabajo mental», estaban impulsados por los mismos imperativos de gestión. Eran, escribe, «una puesta en práctica del ojo analítico del amo de la fábrica», una especie de representación mecánica del jefe vigilante y despótico. Pasquinelli llega a calificarlos de «primos» del famoso panóptico de Jeremy Bentham.
Pero es de suponer que estos imperativos permanecieron latentes, ya que los artilugios nunca funcionaron tal y como fueron diseñados. Babbage intentó utilizar engranajes mecánicos para representar los números decimales, lo que significaba que luchaba con el problema de cómo automatizar el «acarreo» -el proceso por el que una columna se pone a cero y la siguiente columna aumenta en uno- cuando un dígito llega a 10. Tendrían que llegar las simplificaciones del sistema binario, la invención de la electrónica y los numerosos avances financiados por los amplios presupuestos militares de la Segunda Guerra Mundial para que el cálculo automático fuera finalmente factible en la década de 1940.
Para entonces, el capitalismo se había convertido en un fenómeno más internacional, lo que complicaba aún más la gestión de los trabajadores. «Cuanto más se extendía la división del trabajo a un mundo globalizado«, escribe Pasquinelli, «más problemática se volvía su gestión», ya que «la ‘inteligencia' del amo de la fábrica ya no podía supervisar todo el proceso de producción de un solo vistazo». De ahí, sostiene, la necesidad de «infraestructuras de comunicación» que «pudieran cumplir esta función de supervisión y cuantificación».
El ordenador moderno, en las décadas siguientes a su llegada en los años 40, ayudó a satisfacer esta necesidad. Los ordenadores extendieron el «ojo del amo» a través del espacio, sostiene Pasquinelli, permitiendo a los capitalistas coordinar la cada vez más complicada logística de la producción industrial. Si Babbage había querido construir una prótesis con la que proyectar el poder de mando, como sugiere Pasquinelli, entonces el triunfo de la computación en el siglo XX como instrumento indispensable de la globalización capitalista debería entenderse como una realización del espíritu fundador de la tecnología.
Además, este espíritu parece haberse intensificado a medida que los ordenadores seguían evolucionando. «Desde finales del siglo XX», escribe Pasquinelli, «la gestión del trabajo ha convertido a toda la sociedad en una ‘fábrica digital' y ha adoptado la forma del software de los motores de búsqueda, los mapas en línea, las aplicaciones de mensajería, las redes sociales, la economía de plataformas, los servicios de movilidad y, en última instancia, los algoritmos de IA».
La IA, concluye, está acelerando esta transformación.
No hay duda de que los ordenadores se utilizan a menudo en beneficio de los empleadores, desde el software de planificación de horarios que reduce los costes laborales cargando a los trabajadores de comercios y restaurantes con horarios impredecibles hasta las diversas especies de «bossware» que permiten la vigilancia y supervisión remotas de empleados de oficina, conductores de Uber y camioneros de larga distancia. Pero sostener que esos usos son la razón de ser de la tecnología digital, como parece hacer Pasquinelli, es exagerar.
La disciplina laboral es uno de los usos que pueden darse a los ordenadores; hay muchos otros. Y no fue fundamental para el desarrollo de la tecnología: las principales innovaciones de la informática surgieron en respuesta a prerrogativas militares, no económicas. El deseo de descifrar la criptografía enemiga, calcular los ángulos correctos para apuntar la artillería y realizar los cálculos matemáticos necesarios para fabricar la bomba de hidrógeno fueron algunas de las motivaciones para construir ordenadores en la década de 1940. El gobierno estadounidense se encaprichó con la tecnología y gastó millones en investigación y adquisición en las décadas siguientes. Los ordenadores se convertirían en parte integrante de diversas actividades imperiales, desde el ensamblaje de misiles intercontinentales capaces de incinerar (con precisión) a millones de soviéticos hasta el almacenamiento y análisis de interceptaciones procedentes de estaciones de escucha de todo el mundo. Las empresas estadounidenses les siguieron, adaptando los artilugios creados por el estado de seguridad a diversos fines comerciales.
Aun así, si las afirmaciones de Pasquinelli no siempre convencen, hay mucho que aprender del material que presenta. En los últimos años, las editoriales han inundado a los lectores de libros sobre IA, tantos como para llenar una pequeña librería2. La mayoría tienen una calidad de cocción escasa. The Eye of the Master es, si a caso, un libro sobreelaborado: hay una enorme cantidad de pensamiento comprimido en sus páginas. El intelecto omnívoro de Pasquinelli a menudo hipnotiza. Sin embargo, a veces me he encontrado deseando que se detuviera un poco para fundamentar sus provocaciones con más evidencias.
El hecho de que Babbage se inspirara en la gestión industrial para diseñar sus protoordenadores es un dato histórico interesante. Pero su relevancia para desarrollos posteriores, o incluso su resonancia con ellos, solo puede determinarse examinando de cerca cómo los ordenadores transformaron realmente el trabajo en los siglos XX y XXI, cosa que Pasquinelli no hace. En lugar de ello, da un giro brusco a mitad del libro, pasando de la Gran Bretaña industrial del siglo XIX a los primeros investigadores de IA de la América de mediados del siglo XX, centrándose en particular en la escuela «conexionista» de este campo.
El conexionismo, como señala Pasquinelli, se apartó de manera significativa de la computación automática de Babbage. Para Babbage, el alma del ordenador era el algoritmo, un procedimiento paso a paso que tradicionalmente constituye el ingrediente principal de un programa informático. Cuando Alan Turing, John von Neumann y otros crearon el ordenador moderno en el siglo XX, lo que crearon fue un dispositivo para ejecutar algoritmos. El programador escribe un conjunto de reglas para transformar una entrada en una salida, y el ordenador obedece.
Este ethos también guió la «IA simbólica», la filosofía que llegó a dominar la primera generación de investigación en IA. Sus partidarios creían que programando un ordenador para que siguiera una serie de reglas podían convertir una máquina en una mente. Este método tenía sus límites. Formalizar una actividad como una secuencia lógica funciona bien si la actividad es relativamente sencilla. Sin embargo, a medida que se vuelve más compleja, las instrucciones codificadas son menos útiles. Podría darte un conjunto exacto de instrucciones para ir de mi casa a la tuya, pero no podría utilizar la misma técnica para decirte cómo conducir.
Un enfoque alternativo surgió de la cibernética, un movimiento intelectual de posguerra con intereses extremadamente eclécticos. Entre ellos estaba la aspiración a crear autómatas con la adaptabilidad de los seres vivos. «En lugar de imitar las reglas del razonamiento humano», escribe Pasquinelli, los cibernéticos «pretendían imitar las reglas por las que los organismos se organizan y adaptan al entorno». Estos esfuerzos condujeron a la invención de la red neuronal artificial, una arquitectura de procesamiento de datos vagamente modelada a partir del cerebro. Al utilizar estas redes para percibir patrones en los datos, los ordenadores pueden entrenarse en una tarea concreta. Una red neuronal aprende a hacer cosas no simplificando un proceso en un procedimiento, sino observando un proceso -una y otra y otra vez- y estableciendo relaciones estadísticas entre los numerosos ejemplos.
Uno de los progenitores del conexionismo fue Friedrich Hayek, el tema del capítulo más intrigante de Pasquinelli. Hayek es más conocido como uno de los principales teóricos del neoliberalismo, pero de joven se interesó por el cerebro mientras trabajaba en el laboratorio de Zúrich del famoso neuropatólogo Constantin von Monakow. Para Hayek, la mente era como un mercado: veía ambas como entidades autoorganizadas de las que surge un orden espontáneo a través de la interacción descentralizada de sus componentes. Estas ideas ayudarían a influir en el desarrollo de las redes neuronales artificiales, que de hecho funcionan de forma muy parecida a la mente de mercado del imaginario hayekiano. Cuando un psicólogo llamado Frank Rosenblatt puso en marcha la primera red neuronal con la ayuda de una subvención de la Marina de Estados Unidos en 1957, reconoció su deuda con Hayek.
Pero Hayek también divergía de los cibernéticos en aspectos importantes. La cibernética, como la definió el filósofo Norbert Wiener en su libro epónimo de 1948, consistía en el estudio científico del «control y la comunicación en el animal y la máquina». El término, acuñado por Wiener, derivaba de la antigua palabra griega para designar al timonel de un barco, que comparte la misma raíz que la palabra gobierno. Los cibernéticos querían crear sistemas tecnológicos que pudieran gobernarse a sí mismos, una perspectiva que atraía a un Pentágono que buscaba formas de obtener una ventaja militar en la guerra fría. La Marina estadounidense financió a Rosenblatt con la esperanza de que su red neuronal pudiera ayudar en «la automatización de la clasificación de objetivos», explica Pasquinelli, utilizando sus poderes de reconocimiento de patrones para detectar buques enemigos.
Para Hayek, en cambio, el conexionismo ofrecía una forma de pensar sobre un sistema que eludía el control. Tenía en mente un tipo especial de control: la planificación económica. En su opinión, la complejidad cerebral y la arquitectura distribuida del mercado significaban que el socialismo nunca podría funcionar. De ahí la necesidad de políticas neoliberales que, en palabras del historiador Quinn Slobodian, «recubrieran la economía incognoscible», protegiéndola de la ingerencia gubernamental3. Con todo, Hayek y los demás conexionistas estaban en el mismo equipo. Rosenblatt y sus colegas consiguieron financiación para sus investigaciones porque el gobierno estadounidense creía que sus ideas podían ayudar a derrotar a los ejércitos socialistas. Hayek estaba en el negocio de derrotar las ideas socialistas.
Al principio, el conexionismo no cumplió sus promesas. A principios de la década de 1970 había caído en desgracia en el mundo de la IA. Aun así, las redes neuronales siguieron desarrollándose silenciosamente durante las décadas siguientes, disfrutando de algunos avances en las décadas de 1980 y 1990. Luego, en la década de 2010, llegó el salto cuantitativo del conexionismo.
Entrenar una red neuronal, como señaló Rosenblatt en una ocasión, requiere «exponerla a una gran muestra de estímulos». El tamaño importa: dado que las redes neuronales aprenden estudiando datos, cuánto pueden aprender depende en parte de la cantidad de datos de que dispongan. Durante gran parte de la historia de la informática, los datos eran caros de almacenar y difíciles de transmitir. En la segunda década del siglo XXI, ambas barreras se habían disuelto. La caída en picado de los costes de almacenamiento, combinada con el nacimiento y crecimiento de la Web, significaba que una montaña de palabras, fotos y vídeos estaba al alcance de cualquiera con una conexión a Internet. Los investigadores utilizaron esta información para entrenar redes neuronales. La abundancia de datos de entrenamiento, junto con nuevas técnicas y un hardware más potente, propiciaron rápidos avances en campos como el procesamiento del lenguaje natural y la visión por ordenador. Hoy en día, la IA basada en redes neuronales es omnipresente y se utiliza en todo tipo de aplicaciones, desde Siri a los vehículos autónomos, pasando por los algoritmos que gestionan los contenidos de las redes sociales.
Las redes neuronales también son la base de sistemas de IA generativa como ChatGPT. Estos sistemas son especialmente grandes, es decir, están compuestos por muchas capas de redes neuronales, y su apetito de datos es inmenso. El motivo de que ChatGPT suene tan realista y parezca saber tantas cosas sobre el mundo es que el «gran modelo de lenguaje» que lleva dentro se ha entrenado con terabytes de texto extraído de Internet, incluidos millones de sitios web, artículos de Wikipedia y libros completos. A esto se refiere Pasquinelli cuando escribe que las redes neuronales de la IA contemporánea «no son un modelo del cerebro biológico, sino de la mente colectiva», un esfuerzo social al que han contribuido muchas personas.
No todo el mundo está contento con este hecho. La voracidad de la IA Generativa es responsable de lo que el presentador del podcast Michael Barbaro llama su «pecado original»: entre la información ingerida hay material protegido por derechos de autor. El New York Times ha demandado a OpenAI por infracción de derechos de autor; también lo ha hecho el Sindicato de Autores, junto a Jonathan Franzen, George Saunders y varios escritores más. Aunque OpenAI y los demás «creadores de modelos» importantes no revelan los detalles de sus datos de entrenamiento, OpenAI ha admitido que se incluyen obras protegidas por derechos de autor, pero sostiene que se trata de un uso legítimo. Mientras tanto, la demanda de datos de entrenamiento sigue creciendo, lo que obliga a las empresas tecnológicas a encontrar nuevas formas de obtenerlos. OpenAI, Meta y otras han llegado a acuerdos de licencia con editoriales como Reuters, Axel Springer y Associated Press, y están estudiando acuerdos similares con estudios de Hollywood.
Para Pasquinelli aquí podemos extraer una lección. La forma en que la IA contemporánea se apoya en nuestras contribuciones agregadas demuestra que la inteligencia es un «proceso social por constitución». Es comunitaria, emergente, difusa y, por tanto, encaja perfectamente con el paradigma conexionista. «No es ninguna sorpresa que la técnica de IA de más éxito, a saber, las redes neuronales artificiales, sea la que mejor puede reflejar, y por tanto mejor captar, la cooperación social», escribe.
Este argumento tiene un tinte marxista: la inteligencia reside en la creatividad de las masas. Pero también es un argumento que podría haber esgrimido el profundamente antimarxista Hayek. Al viejo austriaco le haría gracia saber que el «intelecto» del software más sofisticado de la historia procede de las actividades no planificadas de una multitud. Le habría hecho aún más gracia el hecho de que dicho software es, como su amado mercado, fundamentalmente incognoscible.
Lo más extraño del boom de la IA generativa es que nadie sabe realmente cómo opera esta tecnología. Sabemos cómo se entrenan los grandes modelos lingüísticos de ChatGPT y sus homólogos, aunque no siempre sepamos con qué datos: se les pide que predigan la siguiente cadena de caracteres de una secuencia. Pero cómo llegan exactamente a una predicción determinada es un misterio. Los cálculos que se realizan dentro del modelo son demasiado intrincados para que un ser humano pueda comprenderlos. No se puede abrir el capó y ver cómo se mueven los engranajes.
A falta de observación directa, queda un método más oblicuo: la interpretación. Ha surgido todo un campo técnico en torno a la «interpretabilidad» o «explicabilidad» de la IA, con el objetivo de descifrar cómo funcionan estos sistemas. Quienes lo practican, tanto en el mundo académico como en la industria, hablan en términos científicos, pero su empeño tiene algo de devoción, como la exégesis de los textos sagrados o de las entrañas de las ovejas recién sacrificadas.
Hay un límite en cuánto sentido se puede extraer. Los mortales deben satisfacerse con verdades parciales. Si los «monopolios de IA» actuales representan «el nuevo ‘ojo del amo'», como cree Pasquinelli, se trata de un ojo con un campo de visión limitado. Las fábricas de la época de Babbage eran zonas de visibilidad: al concentrar el trabajo y a los trabajadores, ponían el proceso laboral a la vista de todos. La IA contemporánea es todo lo contrario. Su carcasa es obstinadamente opaca. Ni siquiera el amo puede ver su interior.
Notas
- Forces of Production: A Social History of Industrial Automation (Knopf, 1984).
- Ver Sue Halpern, ‘The Coming Tech Autocracy', The New York Review, November 7, 2024.
- Globalists: The End of Empire and the Birth of Neoliberalism (Harvard University Press, 2018).
Fuente: The New York Review.