La organización austriaca sin fines de lucro en defensa de la privacidad noyb (siglas de none of your business) ha enviado una carta de cese y desistimiento a la sede de Meta en Irlanda, advirtiendo a la empresa sobre una posible demanda colectiva si continúa con sus planes de utilizar los datos de los usuarios para entrenar sus modelos de inteligencia artificial (IA) sin un consentimiento explícito.
Esta acción se produce semanas después de que la compañía anunciara su intención de emplear datos públicos compartidos por adultos en Facebook e Instagram dentro de la Unión Europea (UE), a partir del 27 de mayo de 2025. El proyecto ya había sido suspendido en junio de 2024 tras recibir observaciones de las autoridades irlandesas de protección de datos.
“En lugar de solicitar el consentimiento activo de los usuarios, Meta se apoya en un supuesto ‘interés legítimo’ para absorber todos los datos. Meta podría enfrentarse a enormes riesgos legales simplemente por utilizar un sistema de ‘exclusión’ en lugar de uno de ‘inclusión’ para el entrenamiento de IA», declaró noyb.
La organización añadió que Meta AI no cumple con el Reglamento General de Protección de Datos (RGPD) en la región, y que además de justificar su práctica con un supuesto «interés legítimo«, la compañía restringe la posibilidad de rechazar el uso de datos antes de que comience el proceso de entrenamiento.
Noyb también subrayó que incluso si solo el 10% de los usuarios de Meta dieran su consentimiento, eso generaría suficientes datos para que la empresa pudiera entrenar modelos que comprendan los idiomas hablados en la UE.
Cabe señalar que Meta ha argumentado anteriormente que necesita estos datos para reflejar la diversidad lingüística, geográfica y cultural del territorio europeo.
“Meta inicia una gran disputa solo para mantener un sistema de exclusión en lugar de uno de inclusión. En cambio, se apoyan en un supuesto ‘interés legítimo’ para tomar los datos y seguir adelante. Esto no es legal ni necesario”, afirmó Max Schrems, de noyb.
“Las afirmaciones absurdas de Meta, de que es indispensable recopilar datos personales de todos para entrenar su IA, son ridículas. Otras empresas de IA no recurren a datos de redes sociales… y aun así crean modelos mejores que los de Meta”.
Además, el grupo acusó a Meta de seguir adelante con sus planes mientras traslada la responsabilidad a los usuarios, y destacó que las autoridades nacionales de protección de datos han permanecido mayormente en silencio respecto a la legalidad del entrenamiento de IA sin consentimiento.
“Parece que Meta simplemente decidió avanzar, asumiendo un gran riesgo legal en la UE y pasando por encima de los derechos de los usuarios”, agregó noyb.
En una declaración enviada a Reuters, Meta rechazó los argumentos de noyb, afirmando que son incorrectos tanto en los hechos como en términos legales, y aseguró haber proporcionado a los usuarios de la UE una opción “clara” para oponerse al uso de sus datos con fines de entrenamiento de IA.
No es la primera vez que se cuestiona la estrategia de Meta de invocar el «interés legítimo» contemplado por el RGPD para recolectar datos sin consentimiento activo. En agosto de 2023, la empresa accedió a cambiar esa base legal por un modelo basado en el consentimiento para usar datos con fines de publicidad personalizada en la región.
Esta controversia surge mientras el Tribunal de Apelaciones de Bélgica ha declarado ilegal el Marco de Transparencia y Consentimiento utilizado por empresas como Google, Microsoft y Amazon para obtener consentimiento en el procesamiento de datos publicitarios, al considerar que viola varios principios del RGPD.