Opinión

La mierdificación de Internet: ¿por qué hay tanta bazofia en la red?

Las máquinas no destruyeron nada, pero lo están llenando de ruido. Cada vez cuesta más encontrar señales humanas. ¿Hacia dónde vamos?

Por Valentin Muro

En Instagram se multiplican videos e imágenes con ese cierto nosequé que nos incomoda, en Twitter compiten humanos y máquinas para ver quién tira la mejor posta, en LinkedIn solo se escribe en formato de listas que debemos atender si verdaderamente queremos triunfar, en Spotify habitan artistas sin cara que interpretan sospechosamente la música perfecta para cada ocasión, en TikTok se intercala repetitividad con videos surrealistas cuya razón de ser se nos escapa. En Facebook, aquella olvidada tierra de nadie, todo lo anterior llega pero un par de semanas más tarde.

Este contenido "que circula únicamente con el propósito de circular" parece haber erosionado cualquier último atisbo de lo que hacía de la web una experiencia social habitada por personas. En su versión más extrema, esto es lo que sugiere la "teoría del Internet muerto", que afirma que en algún momento entre 2016 y 2017 la inteligencia artificial logró tomar control de Internet. La supuesta evidencia está en la proliferación de bots y contenido generado automáticamente que controla a la población y minimiza la actividad humana genuina, mediante un esfuerzo coordinado e intencional que se apoya en la curación algorítmica de las plataformas.

Si te gusta Receta para el desastre podés suscribirte gratis y recibirlo en tu casilla los jueves.

Ingresá tu email

Suscribite

El párrafo anterior está tan plagado de incongruencias que no tiene demasiado sentido detenerse a desmembrarlo. La idea viene dando vueltas al menos desde el 2021, pero parece cada vez calar un poquito más hondo. No hace falta creer en este maléfico plan de control global para reconocer esa sensación creciente y compartida de alienación, de que al transitar la web es más fácil toparse con una figura de cera que con una persona.

Detrás de todas estas porquerías parece no haber genuina intencionalidad humana, un primitivo deseo de conectar, de expresar, de manifestar deseos, temores, opiniones, sino una carrera hacia el fondo del pozo, optimizada según métricas de interacción que nada tienen que ver con la comunicación o la expresión auténtica. La teoría del Internet muerto es obviamente falsa, pero la sensación de que algo en la red ha muerto no lo es.

Cuando esta teoría fue articulada ni siquiera era posible anticipar en toda su magnitud la imparable catarata de porquerías que plagarían nuestras experiencias digitales a partir de la aparición de ChatGPT y demás plataformas de inteligencia artificial generativa, que, con una torpe descripción del texto, imagen o video que quisiéramos obtener, es capaz de ponerse a trabajar en ello y en segundos cumplir nuestros deseos. Esta facilidad, el bajo o nulo costo y la velocidad para producir "contenido" sintético abrió las compuertas a una inundación sin precedentes, una "mierdificación" de Internet, tal como elocuentemente la definió Cory Doctorow.

¿Por qué pagar por algo que puedo leer gratis? En Cenital entendemos al periodismo como un servicio público. Por eso nuestras notas siempre estarán accesibles para todos. Pero investigar es caro y la parte más ardua del trabajo periodístico no se ve. Por eso le pedimos a quienes puedan que se sumen a nuestro círculo de Mejores amigos y nos permitan seguir creciendo. Si te gusta lo que hacemos, sumate vos también.

Sumate

Generar textos basura o imágenes mediocres no es, claro está, la función principal ni la más interesante de estos modelos de lenguaje. Pero sí es cierto que, sin un minucioso esfuerzo por priorizar nuestro criterio -y sentido estético- en el uso que hagamos de estas herramientas, el resultado frecuentemente será bastante pobre, genérico o directamente una cagada.

No existe un término definitivo para llamarle a estas porquerías sintéticas, pero uno de los más útiles es "AI slop", que suele traducirse como "bazofia de IA", y alude a la lenta conversión de Internet en una cloaca.

Como lo supo resumir Jason Koebler, esta bazofia "es un ataque de fuerza bruta a los algoritmos que controlan la realidad". La estrategia de la fuerza bruta es un tipo de ataque informático que se emplea para adivinar una contraseña probando todas las combinaciones posibles. De igual modo, según Koebler, esta bazofia suele estar principalmente destinada a lograr interacciones, sin importar nada más, únicamente a través de miles de intentos automáticos para ver "qué pega", produciendo en masa textos, imágenes y videos sin valor real, buscando simplemente que el contenido pase por el filtro algorítmico y gane viralidad.

Las plataformas a menudo fomentan esta dinámica mediante herramientas automáticas y priorizando contenido hiperpersonalizado y artificial para maximizar la interacción y los beneficios publicitarios. Este fenómeno distorsiona nuestra experiencia de la web, favorece la cantidad sobre la calidad y promueve una cultura de manipulación algorítmica en la que cuesta distinguir entre lo genuino y lo carente de alma.

Estos videos de criaturas extrañas generadas artificialmente, recetas de cocina imposibles (si no directamente tóxicas), figuras históricas pronunciando frases anacrónicas o consejos de vida genéricos atribuidos a personajes inexistentes pintan nuestros paisajes digitales y acumulan cientos de millones de vistas, superando con creces el alcance de producciones humanas elaboradas con esfuerzo, creatividad y conocimiento real. O, al menos, con algún mínimo sentido.

La IA generativa no inventó el contenido basura, que precede a Internet, pero lo hizo irresistiblemente fácil. Y para quien todavía tenga la necia idea de hacer algo verdadero, de compartir algo con el mundo, la cancha está inclinada, casi a 90 grados. En un mundo dominado por máquinas, que beneficia lo que ellas producen mejor, hacer algo humano es tener todas las de perder.

Esta avalancha de caca digital no sólo satura nuestros sentidos y agota nuestra ya disminuida capacidad de atención, sino que también, y de manera más preocupante, degrada la confianza fundamental en lo que vemos y leemos. La línea entre lo real y lo sintético se desdibuja peligrosamente, volviéndose cada vez más porosa e indistinguible para quien no dedique una tarde a analizar una imagen píxel por píxel o a identificar inconsistencias semánticas o históricas en lo que lee.

Este problema no solo se extiende hacia nuestra dificultad para descubrir aquello que es falso, sino también hacia un sobredesarrollado escepticismo que nos hace asumir que incluso algunos textos escritos por humanos fueron hechos con IA o acusar a una empresa aeroespacial china que filmó el lanzamiento de prueba de sus cohetes de haber generado el video de forma sintética, simplemente porque el evento real se veía demasiado cinematográfico.

Durante un siglo nos acostumbramos a que la fotografía y el video fueran nuestros mayores aliados para establecer la verdad y la evidencia de los hechos, incluso cuando la creencia de que "la cámara no miente" era una ilusión, y ahora nos encontramos ante el apresurado abandono de su pretensión de objetividad y la garantía epistémica que nos otorgaban.

Nos vemos ante el desafío urgente de desarrollar y recalibrar nuestros "radares de autenticidad", mecanismos cognitivos de defensa que, cuesta admitir, siempre serán imperfectos y susceptibles a los engaños más sofisticados. La capacidad de generar textos, sonidos, imágenes y videos verosímiles se encuentra peligrosamente cerca del límite de nuestras posibilidades de detección instintivas e inmediatas. Incluso si siempre fue una sensata recomendación, hoy se vuelve obligada la necesidad de sospechar de todo hasta que su autenticidad pueda ser verificada. Como si nos faltaran motivos para transitar la vida en estado de paranoia y agotamiento mental.

Como señala Arryn Robbins, psicóloga cognitiva, las imágenes generadas con IA se aprovechan del modo en que funciona nuestra mente, por eso a menudo pasan desapercibidas a pesar de sus imperfecciones (manos con seis dedos, textos ilegibles, etc.). Nuestra capacidad para detectarlas se ve comprometida porque procesamos la información visual priorizando rapidez y comprensión general sobre el detalle, y porque la inatención selectiva y los sesgos cognitivos nos llevan a aceptar imágenes falsas si coinciden con nuestras expectativas.

Las imágenes manipuladas con edición tradicional (el viejo y querido Photoshop) difieren de las generadas con IA en un aspecto crucial: mientras que las primeras requieren un diseño intencional y un control detallado por parte de artistas, las segundas son generadas por algoritmos entrenados en enormes conjuntos de datos, a menudo con mínima supervisión humana directa en el proceso específico de generación. De esto derivan las imperfecciones o inconsistencias características de la bazofia: física poco realista, falta de coherencia entre elementos, detalles absurdos.

Nada de esto importa: algunos estudios muestran que las personas tienen dificultades para distinguir imágenes reales de las sintéticas, sin importar su origen. Incluso cuando se les pide explícitamente que las identifiquen, su precisión es apenas superior a la de haber tirado una moneda. En lo cotidiano, cuando probablemente no estamos examinando imágenes mientras alguien con guardapolvo blanco observa y anota en un cuaderno, nuestra capacidad para detectar contenido sintético puede ser incluso más débil.

Lo que Robbins no menciona es que no necesariamente todo el mundo se preocupa por identificar si una imagen es generada por IA. Una conclusión un poco más sombría es que quizá ya no importa. Todo lo que sirva para desconectar un rato el cerebro alcanza, incluso si es esta bazofia.

Si bien esto no supone mayor preocupación a los fines de suspender nuestras funciones cognitivas superiores -un meme a la vez- el asunto se vuelve preocupante cuando las imágenes generadas por IA influyen en la opinión pública. Tendemos a asumir que las imágenes son relevantes para el texto que las acompaña y, sumado a nuestro profundo sesgo de confirmación, fácilmente aceptamos como verdaderas aquellas que coinciden con nuestros prejuicios, incluso si no ofrecen evidencia real de lo que afirman. Hasta en casos en los que la historia es cierta, muchas veces las imágenes que se comparten para ilustrar son falsas, tanto para empujar esfuerzos de desinformación como por mero desinterés en la verdad o en pos de obtener jugosos clics.

Más allá de influir en nuestras creencias inmediatas, existe la posibilidad -vigente aunque no nueva- de que la publicidad se apoye en imágenes alteradas para manipular nuestros recuerdos. Así como la publicidad encubierta -como la colocación de productos en series o películas- influye en nuestras decisiones, la modificación de imágenes personales en redes sociales podría reescribir nuestros recuerdos y, con ellos, nuestras elecciones futuras. La memoria es maleable y las imágenes son fundamentales en su reconstrucción. Esto abre la puerta a insertar productos o ideas en nuestros recuerdos sin que lo advirtamos. Confiar nuestra información personal a plataformas digitales implica el riesgo de que aprovechen esta vulnerabilidad para moldear nuestro comportamiento. ¡Más paranoia!

Si nos preocupa nuestra soberanía cognitiva, podemos adoptar algunas estrategias prácticas a nivel individual: confiar en nuestra intuición inicial (si algo se siente raro, probablemente lo sea), buscar activamente pistas visuales delatoras (anomalías en manos, ojos, textos, sombras, reflejos, fondos inconsistentes), y aplicar el pensamiento crítico para evaluar la verosimilitud general de la imagen en su contexto. Además, Robbins sugiere verificar la fuente de la imagen siempre que sea posible y utilizar herramientas como la búsqueda inversa para intentar rastrear su origen y detectar si ha sido utilizada en otros contextos engañosos. En última instancia, aboga por un enfoque más consciente, lento y reflexivo al consumir contenido en Internet: "Desacelerar, mirar más de cerca y pensar críticamente". Una remera que diga.

Estas estrategias individuales pueden devolvernos cierta sensación de agencia, pero resultan insuficientes ante la escala y la sofisticación del problema. Esta responsabilidad no puede recaer únicamente en cada persona, cargándola con la tarea imposible de verificar cada pieza de información. Se necesitan respuestas e iniciativas más cerca de la raíz del problema. Quizá se podría empezar por quitarle prioridad a todo este moco digital que se pegotea por todos lados.

En Internet algo huele muy mal. Puede que en parte sea el hedor de toda esta bazofia, o quizá sea la avanzada descomposición de los memes que ya nadie recuerda. No me animaría a decir que Internet ha muerto-ni que haya sucumbido bajo las hordas de zombis de seis dedos-. El mero hecho de que lo notemos y paremos nuestras antenas ante lo que nos incomoda indica que aún tenemos algo de guerra que dar.

Nuestra necesidad de conectar no es negociable, y tal vez toda esta fabricación en serie de porquerías solo haga que lo artesanal recobre algo del lustre perdido. Hacemos arte porque es difícil, no solo porque se puede.

Fuente: Cenital