- Bruselas emite conclusiones preliminares: Meta y TikTok no cumplen la DSA en transparencia.
- Investigadores encuentran trabas para acceder a datos y los usuarios para denunciar contenidos ilegales.
- La Comisión habla de diseños de interfaz engañosos y procedimientos onerosos.
- Las plataformas pueden subsanar, pero se exponen a multas de hasta el 6% de su facturación global.
La Comisión Europea ha comunicado unas conclusiones preliminares según las cuales Meta (Facebook e Instagram) y TikTok no estarían cumpliendo con las obligaciones de transparencia que fija la Ley de Servicios Digitales (DSA). El examen, enmarcado en las competencias de Bruselas, pone el foco en cómo estas plataformas gestionan la apertura de sus sistemas al escrutinio público y la protección de los usuarios en España y el resto de la UE.
En particular, el Ejecutivo comunitario considera que ambas compañías han establecido trabas para el acceso de investigadores a sus datos públicos y que, en el caso de Meta, los mecanismos para señalar contenidos ilícitos serían complejos y potencialmente ineficaces. Si se confirmara la infracción tras el proceso de consultas, podrían imponerse multas de hasta el 6% de las ventas mundiales de cada empresa.
Lo que investiga Bruselas

La DSA exige a las grandes plataformas garantizar un acceso adecuado a datos públicos para investigadores acreditados, con el fin de evaluar riesgos sistémicos como la difusión de contenido ilegal o dañino. Según la Comisión, Facebook, Instagram y TikTok podrían haber impuesto procedimientos y herramientas onerosos que dificultan dichas solicitudes.
Bruselas subraya que abrir las plataformas al análisis académico es una obligación esencial de transparencia, ya que permite un control independiente sobre el impacto de estos servicios, incluido el potencial efecto en la salud mental de los usuarios y la exposición de menores a contenidos perjudiciales.
En el caso de Meta, el expediente preliminar apunta a que sus flujos de denuncia (“Notificación y Acción”) incorporan pasos innecesarios y diseños de interfaz engañosos que pueden confundir o disuadir, comprometiendo la eficacia para retirar material de abuso sexual infantil o contenido terrorista.
La Comisión remarca que estas son conclusiones preliminares que no prejuzgan el desenlace de la investigación. Las empresas tienen la posibilidad de aportar alegaciones y corregir las deficiencias detectadas antes de que se adopte una decisión final.
El trasfondo del expediente conecta con la prioridad comunitaria de proteger a los usuarios jóvenes: sin un acceso robusto a los datos, se complica medir si las plataformas generan exposición a contenidos nocivos y si las medidas de mitigación son realmente eficaces.
Claves del expediente: datos, denuncias y sanciones

- Acceso a datos públicos: la Comisión sostiene que las herramientas y procesos actuales obstaculizan la labor de los investigadores acreditados.
- Calidad del acceso: en algunos casos, la información sería parcial o poco fiable, lo que limita el análisis de riesgos sobre los usuarios, incluidos menores.
- Denuncia de contenidos ilegales: Meta no ofrecería un mecanismo suficientemente claro y accesible para reportar ilícitos graves.
- Posibles sanciones: si se confirman las infracciones, la DSA permite multas de hasta el 6% del volumen de negocio mundial.
Desde Bruselas recalcan que el objetivo no es penalizar por sistema, sino asegurar que las plataformas ajustan sus prácticas a la normativa. Por eso, antes de cualquier resolución, se abre una fase para que las compañías presenten medidas correctoras.
En el plano económico, la DSA prevé sanciones proporcionales que, en los casos más graves, podrían alcanzar el 6% de la facturación global. Se trata de un incentivo potente para acelerar cambios de cumplimiento en procesos y diseño de producto.
Meta ha manifestado su desacuerdo con la idea de incumplimiento y afirma haber introducido mejoras en las opciones de denuncia, el proceso de apelación y las herramientas de acceso a datos desde la entrada en vigor de la DSA, manteniendo un diálogo abierto con la Comisión.
TikTok, por su parte, asegura estar comprometida con la transparencia, aunque advierte de una tensión entre las obligaciones de la DSA y el RGPD en materia de salvaguardas de datos. La plataforma ha pedido a los reguladores claridad sobre cómo conciliar ambos marcos cuando entren en conflicto.
Además, TikTok sostiene que ha realizado inversiones sustanciales en intercambio de datos y que cerca de 1.000 equipos de investigación han accedido a información a través de sus herramientas específicas, datos que la compañía pone como ejemplo de sus avances.
La Comisión Europea también aporta cifras recientes sobre moderación en el caso de Meta: desde abril de 2024 se habrían adoptado más de 918 millones de decisiones que afectaron a usuarios en la UE, con unos 68 millones de recursos y una tasa de éxito cercana al 31% (aproximadamente 21 millones de contenidos restituidos), lo que muestra la relevancia de contar con cauces claros de reclamación.
Para los usuarios en España y en toda Europa, que investigadores acreditados puedan auditar el funcionamiento de los sistemas y que existan procedimientos de denuncia simples y eficaces es clave para reforzar la confianza, reducir la exposición a contenidos ilícitos y mejorar la rendición de cuentas de las plataformas.
La investigación comunitaria sitúa a Meta y TikTok bajo una lupa que prioriza la transparencia, el acceso a datos y la protección de los usuarios. Con las empresas llamadas a proponer correcciones y el escenario de sanciones relevantes en el horizonte, la pelota está ahora en el tejado de las plataformas para alinear sus procesos con la DSA y garantizar un escrutinio público efectivo.