lunes, 17 de noviembre de 2025

¿Por qué es tan difícil denunciar contenido ilegal en las redes sociales? Meta y TikTok obstaculizan a los usuarios durante ese proceso

La Comisión Europea acusa a Meta y TikTok de bloquear el acceso a datos públicos e impedir que los usuarios denuncien contenido ilegal, en un paso clave para aplicar la Ley de Servicios Digitales.

(Foto: Istock / Christian Pérez).

Algo serio está pasando en Bruselas. La Comisión Europea ha puesto sobre la mesa un conjunto de acusaciones preliminares contra dos de los actores digitales más poderosos del planeta: Meta -propietaria de Facebook e Instagram- y TikTok. Ambos estarían incumpliendo la Ley de Servicios Digitales (DSA), una normativa que redefine el marco legal para las grandes plataformas y que podría imponer sanciones de hasta el 6% de su facturación global.

Aunque todavía se trata de hallazgos preliminares, las conclusiones no podrían ser más inquietantes. Según un comunicado oficial, ni Meta ni TikTok estarían permitiendo a los investigadores un acceso adecuado a los datos públicos de sus plataformas. Un detalle que podría parecer técnico, pero que en realidad representa un obstáculo directo a la transparencia exigida por ley.

La razón de esta obligación es clara: sólo a través del análisis riguroso de estos datos se puede entender hasta qué punto los usuarios -especialmente menores de edad- están expuestos a contenidos nocivos, manipulaciones algorítmicas o dinámicas adictivas. Pero las plataformas, en lugar de facilitar esa tarea, han construido una arquitectura burocrática para frenar cualquier intento de escrutinio externo.

En el caso de Meta, las sospechas se agravan. La Comisión acusa directamente a Facebook e Instagram de dificultar que los usuarios denuncien contenidos ilegales. Las herramientas disponibles para ello no son accesibles ni intuitivas, como exige la DSA, sino todo lo contrario: llenas de pasos innecesarios y diseñadas, aparentemente, para desincentivar la denuncia.

(Foto: Istock / Christian Pérez).

Este tipo de prácticas, conocidas como "patrones oscuros", no son nuevas en el mundo digital. Se trata de estrategias de diseño que manipulan la conducta del usuario sin que este lo perciba claramente. En este caso, el objetivo parece haber sido obstaculizar la comunicación de contenidos tan graves como el abuso sexual infantil o la apología del terrorismo. Si se confirma, estaríamos ante una negligencia de proporciones éticas y legales sin precedentes.

Pero el problema no acaba ahí. Otra obligación de la DSA es permitir que los usuarios apelen decisiones de moderación: por ejemplo, cuando su contenido es eliminado o su cuenta es suspendida. Según Bruselas, Meta tampoco cumpliría aquí. Los sistemas de apelación no permiten incluir explicaciones ni evidencias, lo que deja a los usuarios en una situación de indefensión total. Reclamamos, pero nadie lee ni escucha.

Tanto Meta como TikTok tienen ahora la posibilidad de responder por escrito, revisar el expediente y tomar medidas correctivas. Si no lo hacen, se enfrentarán no sólo a una multa que puede alcanzar cifras históricas, sino también a un golpe reputacional difícil de reparar en un contexto donde la confianza en las plataformas está muy baja.

Y la presión no hará más que aumentar. Este 29 de octubre entró en vigor un nuevo reglamento que obligará a estas grandes plataformas a compartir no sólo datos públicos, sino también datos no públicos con investigadores autorizados. Esto marcará un antes y un después. Por primera vez, se podrá analizar con lupa el funcionamiento interno de algoritmos, sistemas de recomendación y dinámicas ocultas que hasta ahora escapaban al control público.

(Foto: Istock / Christian Pérez).

La DSA es, en muchos sentidos, el experimento regulador más ambicioso del mundo digital. Una apuesta de la Unión Europea por reequilibrar las relaciones de poder entre usuarios, plataformas y autoridades. Hasta ahora, las grandes tecnológicas han operado en una especie de zona gris, amparadas en su tamaño y en una normativa desactualizada. Eso está cambiando.

El mensaje que lanza la Comisión con esta investigación preliminar es claro: ya no vale esconderse tras la complejidad técnica, ni detrás de interfaces engañosas. La transparencia no es opcional. Y los derechos digitales de los ciudadanos ya no son, como suele decirse, "papel mojado".

Queda por ver si Meta y TikTok tomarán esta advertencia en serio o si optarán por el enfrentamiento legal. En cualquier caso, la batalla por una internet más justa y responsable ha empezado, y no parece que Bruselas vaya a dar un paso atrás.

(Fuente: Muy Interesante / Xataka / redacción propia)