Así te afecta la teoría de la 'internet muerta'
Cada vez resultará más difícil encontrar contenidos creados por un ser humano, advierten los expertos
Te imaginas que todo lo que consultas en internet no ha sido generado por un humano? Pues este es el punto de partida de la ... teoría de la 'internet muerta' ('Dead Internet Theory'), una tesis que surgió en círculos acostumbrados a la paranoia, pero que últimamente ha vuelto al debate público con fuerza. Lo que sostienen quienes la defienden es que la mayor parte del contenido que encontramos al navegar por la red ha sido creado por 'bots' o sistemas automatizados, que no hay ninguna persona de carne y hueso detrás.
¿Tiene algún sentido pensar así o estamos ante un fenómeno de conspiranoicos? En opinión de Almudena Ruiz Iniesta, profesora del Máster en Inteligencia Artificial de la Universidad Internacional de La Rioja (UNIR), la emergencia de los grandes modelos de lenguaje (LLM) ha dado alas a esta hipótesis. «El uso masivo de inteligencias artificiales (IA) generativas –que imitan la comunicación humana– ha convertido esta teoría en plausible. Vivimos en un momento de gran proliferación de 'deepfakes'; contenidos generados por IA sin atribución, es decir, sin indicar que han sido creados por una IA; granjas de clics, spam automatizado y la opacidad de los algoritmos de recomendación. Por lo tanto, a día de hoy el debate ya no es si la teoría es real, si no en qué medida está ocurriendo».
Que Sam Altman, CEO de OpenAI (compañía responsable de ChatGPT) haya dado cierto crédito a la idea de una internet muerta ha espoleado la cuestión aún más, señala la docente. «Esto hace que ya no estemos hablando de una mera conspiración, sino que se vuelve un problema que involucra al ámbito ético y al político. La necesidad de regular y auditar la red de información es real, dado que grandes modelos como Gemini, Copilot o el propio GPT están integrados en buscadores, redes y asistentes, generando capas automáticas de contenido», detalla.
Entonces, ¿qué riesgos concretos podrían derivarse de un escenario en el que la producción automática ahogue la voz humana en la red? Ruiz entiende que el más preocupante es la desinformación: «No podemos estar seguros de qué es real y qué no. La manipulación informativa y la pérdida de diversidad cultural (debido a que los contenidos generados acaban siendo muy parecidos entre sí) impone una estética que reduce la variedad de perspectivas y voces. Luego están los sesgos amplificados: dado que los modelos de IA replican y escalan prejuicios de sus datos de entrenamiento, cualquier nueva información generada con esos datos ampliará tales sesgos. Finalmente, está el riesgo de la contaminación semántica. No podemos olvidar que los LLM, los encargados de dar respuestas en una IA generativa, generan datos con los que se entrenarán futuros modelos, lo que crea un círculo vicioso».
Las pistas del engaño
También cabe preguntarse si disponemos de herramientas o métricas para cuantificar cuánto contenido generado por IA está ya presente en internet. Los expertos coinciden en que, si bien no existen indicadores globales fiables, podemos recurrir tanto a detectores estadísticos y lingüísticos de eficacia limitada (como GPTZero, DetectGPT, OpenAI Text Classifier...), como a estudios de tráfico y 'web scraping' basados en el rastreo de patrones sintéticos (metadatos, cadencia de publicación, repetición de estructuras...).
Recursos quizás demasiado técnicos ante los que Ruiz, también investigadora del grupo Data Driven Science (DDS) de UNIR, propone comprobaciones algo más mundanas. «Existen algunas características que nos ayudan a identificar aquello producido por una IA. Por ejemplo, si nos encontramos con un texto con exceso de coherencia formal y sin matices emocionales; o el uso excesivo de algunas estructuras sintácticas, deberíamos sospechar. Igualmente en el caso de imágenes que muestren líneas perfectas y contengan errores anatómicos; o incoherencias en los reflejos y sombras. En cuanto a los vídeos y las voces, la entonación plana, la falta de sincronía entre el audio y los labios, y los movimientos repetitivos justifican nuestras dudas».
Ahora bien, ¿podemos hacer algo a nivel individual y colectivo para garantizar que la red siga siendo un espacio plural y fiable? Desde UNIR consideran «fundamental la educación y la alfabetización algorítmica; ser críticos ante la fuente y el propósito de cada mensaje. Y, por supuesto, contribuir con contenido auténtico. Las herramientas de IA son una gran ayuda, pero no podemos dejar que ganen espacio y voz frente a lo auténtico. A nivel colectivo, además, debemos impulsar la investigación y observatorios sobre la calidad de la información digital».
Marcas de agua
Esto no quita otro asunto:que las grandes plataformas tecnológicas también deben asumir su papel y ser más transparentes. «Lo primero que deberían hacer es esclarecer sus algoritmos, es decir, indicar de dónde proviene la información que ofrecen; dar una explicación sobre ella. Además de añadir atribuciones a contenido generado de manera automática: algún tipo de metadato, marca de agua...», considera Ruiz
Lo único seguro es que navegar por internet se convertirá cada vez más en un ejercicio de duda constante: recurrir a fuentes fiables como nuestro periódico de toda la vida (o voces expertas de cierta veteranía) seguirá siendo la mejor garantía de veracidad informativa.
¿Ya estás registrado/a? Inicia sesión