Meta, propietaria de Facebook, Instagram y Whatsapp, ha perfeccionado el arte de convertir la privacidad en una farsa burocrática. Su último movimiento, usar datos públicos ... de usuarios europeos para entrenar sistemas de inteligencia artificial bajo el paraguas del 'interés legítimo', es un ejercicio magistral de cinismo corporativo.
Publicidad
La empresa que acumuló 1.700 millones de euros en multas por violaciones al GDPR entre 2021 y 2024 ahora alega que nuestros memes, selfis y comentarios sobre recetas de tortilla son esenciales para comprender la diversidad cultural europea. Una justificación tan vaga como conveniente, considerando que sus modelos de IA ya muestran sesgos ideológicos documentados.
El mecanismo de oposición por correo electrónico, presentado como una concesión democrática, es en realidad una trampa de ilusión de control. Aunque técnicamente basta enviar un mensaje, el proceso no tiene efecto retroactivo. ¿Tus diez años de fotos en Instagram? Ya son combustible algorítmico. Y mientras tanto, el usuario medio navega entre la resignación y la ingenuidad, como Winston Smith buscando una grieta en la telepantalla de 1984.
Pero, aunque te opongas formalmente a que Meta utilice tus datos para entrenar sus modelos de inteligencia artificial, esa objeción solo protege el contenido asociado directamente a tu cuenta. Sin embargo, si otra persona comparte tu contenido (como fotos, publicaciones o comentarios) en su propio perfil o en grupos públicos, ese material sí podrá ser utilizado por la IA de Meta, siempre y cuando el usuario que lo comparte no se haya opuesto a su vez. Es decir, tu decisión individual no impide que tu información no siga alimentando los algoritmos de la compañía.
Publicidad
Meta no está sola en esta carrera por exprimir datos. X, ya bajo el mando de Elon Musk, activó por defecto en julio de 2024 una opción para usar publicaciones e interacciones en el entrenamiento de Grok, su IA. El proceso para desactivarlo, solo disponible en la versión web, implica navegar por cinco menús anidados.
Peor aún: en noviembre de 2024, X actualizó su política para vender datos a terceros que entrenen modelos de IA, incluyendo conversaciones privadas si no se desactiva manualmente la opción.
TikTok, por su parte, opera con una doble moral. Mientras lanza filtros de IA 'para proteger a los adolescentes', su matriz china, ByteDance, despliega Bytespider: un bot que obtiene datos de Internet 25 veces más rápido que GPTbot de OpenAI. Este sistema ignora el protocolo robots.txt, que indica qué páginas no indexar, ha extraído millones de textos, incluidos subtítulos de vídeos educativos de Harvard y MIT.
Publicidad
En el ámbito profesional, LinkedIn, propiedad de Microsoft, principal inversor de OpenAI, modificó en 2024 su política para usar contenidos publicados, preferencias de idioma y frecuencia de uso en el entrenamiento de IA. Aunque excluye a usuarios europeos por ahora, el mensaje es claro: hasta tu currículum puede terminar alimentando algoritmos. La opción para objetar requiere enviar un correo electrónico, un trámite que, según usuarios, recibe respuestas automáticas sin confirmación real.
La plataforma de vídeos ha sido un campo minado. Entre 2023 y 2024, empresas como Apple, Nvidia y Salesforce usaron 173 536 archivos de subtítulos de canales educativos (Khan Academy, MIT) y creadores como MrBeast para entrenar modelos sin consentimiento. Aunque YouTube prohibía esta práctica, su sistema de moderación automática no detectó el scraping masivo. En diciembre de 2024, introdujo una opción para que los creadores autoricen el uso de sus vídeos en IA, pero con una lista de empresas preaprobadas (Meta, OpenAI, Google) que sugiere acuerdos comerciales bajo la mesa.
Publicidad
Lo que comenzó con Meta se ha convertido en un estándar industrial. Slack, usado por 20 millones de trabajadores, admite usar mensajes corporativos para entrenar sus IA, alegando 'mejorar recomendaciones de emojis'. Incluso Ray-Ban, con sus gafas inteligentes de Meta, captura imágenes del entorno para alimentar modelos de visión artificial.
Este ecosistema crea una paradoja perversa: cuantas más plataformas usamos, más se retroalimentan los sistemas de vigilancia. Un tuit en X puede ser analizado por Grok, convertido en dato de entrenamiento para ChatGPT y luego replicado como contenido sintético en TikTok. Es el Gran Hermano distribuido: ya no hay un centro de control único, sino una red de nodos que normalizan la explotación de datos.
Publicidad
Meta ha construido un panóptico digital donde la vigilancia es tan omnipresente que ni siquiera la notamos. Como en 1984, la privacidad se esfuma bajo el mantra del 'interés colectivo', y el derecho a oponerse se convierte en un laberinto de formularios y correos no respondidos. La pregunta no es si podemos confiar en Meta, sino si, como sociedad, estamos dispuestos a normalizar que nuestro silencio sea el nuevo 'Te amo, Gran Hermano'.
Mientras tanto, otras plataformas siguen el juego, perfeccionando tácticas de extracción de datos que harían ruborizar a Orwell. La ironía final es que, en este teatro distópico, los usuarios somos a la vez actores y espectadores: publicamos selfis con filtros de IA que nos vigilan, twitteamos quejas que alimentan algoritmos y firmamos cláusulas de privacidad que ni leemos.
Regístrate de forma gratuita
¿Ya eres suscriptor? Inicia sesión