Una investigación ha determinado que TikTok ha infringido las leyes de protección al consumidor en Estados Unidos. 14 fiscales han emitido demandas contra la empresa por ello. En una de esas demandas, la censura no estaba bien implementada y se ha podido acceder a la información de la investigación.

(Foto: Solen Feyissa)
El pasado martes 14 fiscales generales de 14 estados distintos en Estados Unidos demandaron a TikTok. El motivo, expusieron en la demanda, era que TikTok había violado las leyes de protección al consumidor y contribuido a una crisis en la salud mental de los jóvenes. 14 demandas, todas ellas con información oculta (las típicas líneas negras que tapan frases o párrafos en un documento oficial) relacionada con comunicaciones internas de los ejecutivos de TikTok, documentos y datos de la investigación.
Un documento defectuoso ha permitido ver el contenido censurado. El resumen es que TikTok es consciente de que su app genera adicción y de que las medidas ofrecidas por la plataforma no son efectivas.
Kentucky Public Radio (la radio pública del estado de Kentucky, EE.UU.) ha tenido acceso a la demanda del fiscal general de su estado, un documento de 119 páginas con la censura defectuosa. De esa forma, KPR y NPR (National Public Radio) han podido leer el contenido oculto y acceder a 30 páginas de información censurada. Posterior a la publicación del contenido, un juez estatal selló la demanda.
¿Qué dice la investigación?
Varias cosas y ninguna de ellas a favor de TikTok. NPR afirma haber revisado "todas las partes de la demanda que fueron censuradas, en las que se destaca a los ejecutivos de TikTok hablando con franqueza sobre una serie de peligros para los niños en la popular aplicación de vídeos". También se afirma que algunas medidas de prevención, como las herramientas de gestión de tiempo, no sólo no son efectivas, sino que miden su éxito en función de la buena prensa que TikTok genera con su publicación.
De acuerdo a los documentos revisados, 260 es la cantidad de vídeos que un usuario necesita ver para volverse "adicto a la plataforma". En palabras de las autoridades de Kentucky, "si bien esto puede parecer sustancial, los videos de TikTok pueden durar tan solo 8 segundos y se reproducen para los espectadores en rápida sucesión, de manera automática [...] Por lo tanto, en menos de 35 minutos, es probable que un usuario promedio se vuelva adicto a la plataforma".
TikTok, asegura NPR, afirmaba en una investigación que "el uso compulsivo se correlaciona con una serie de efectos negativos para la salud mental, como la pérdida de habilidades analíticas, la formación de la memoria, el pensamiento contextual, la profundidad conversacional, la empatía y el aumento de la ansiedad". Asimismo, TikTok era consciente de que "el uso compulsivo también interfiere con responsabilidades personales esenciales como dormir lo suficiente, las responsabilidades laborales y escolares y la conexión con los seres queridos".
TikTok dispone de algunas herramientas que permiten reducir o ajustar el tiempo que el usuario pasa dentro, pero en los documentos se desliza que la plataforma es consciente de su ineficacia. De hecho, se cita una investigación propia que determinó que el impacto ha sido de apenas 1,5 minutos. De 108,5 minutos diarios, el tiempo de uso pasó a 107 minutos con la implementación de estas herramientas.
Es más, los documentos afirman que TikTok medía el éxito de estas herramientas por cómo mejoraba "la confianza del público en la plataforma TikTok a través de la cobertura de los medios", pero no en función de cuánto se reducía el tiempo de uso. En la investigación también se citan las palabras de un ejecutivo que, en conversaciones con otro empleado, afirmaba que "nuestro objetivo no es reducir el tiempo invertido".

(Foto: Cottonbro Studio).
La investigación también sugiere que TikTok es consciente de cómo su app genera un "filtro de burbuja", hasta el punto de que el algoritmo sólo tarda 30 minutos en introducir al usuario en una. Eso es peligroso, sobre todo si hablamos de contenido lesivo. Contenido que, por cierto, puede encontrarse en la plataforma, y en abundancia.
En primer lugar, TikTok emplea una capa de IA para analizar y detectar vídeos que incumplen sus normas y, posteriormente, pasa a revisores humanos. La IA se usa para filtrar contenido de carácter pornográfico, violento o político. Los moderadores humanos sólo entran en juego si el vídeo tiene cierta cantidad de visualizaciones y el problema viene cuando algunos vídeos con temática delicada, como el suicidio y la autolesión, pasan el filtro de la IA.
Uno de los casos mencionados es un vídeo de autolesiones que se identificó y eliminó después de que alcanzase las 75.000 reproducciones. Además, NPR afirma que en los documento se recoge que aunque hay contenido que está prohibido por la plataforma, se puede encontrar. Simplemente no aparece en el "Para ti" o no se recomienda, pero existe. De hecho, TikTok reconoce tener un porcentaje de filtración que, en ciertos casos, como la normalización de los abusos a menores o la fetichización de los mismos, es muy preocupante.
Finalmente, la investigación sugiere que TikTok no hace demasiado por eliminar las cuentas de menores de 13 años, que no pueden tener una cuenta estándar. Aunque hay cuentas para usuarios jóvenes, NPR asegura que en los documentos internos se expone que a los moderadores se les pedía precaución antes de eliminar una cuenta sospechosa de ser de un menor de 13 años.
Los fiscales también sostienen que los "directos" pecan de falta de moderación, ya que permiten a los menores emitir en vivo y recibir dinero (en forma de regalos) por parte de los usuarios. En la demanda de Kentucky, afirma la radio pública local, se afirma que "la existencia de estas recompensas virtuales aumenta enormemente el riesgo de que depredadores adultos tengan como objetivo a usuarios adolescentes con fines de explotación sexual". Es un asunto que lleva tiempo sobre la mesa y no es la primera vez que se sugiere que este tipo de transmisiones promueven la explotación sexual de los menores.
(Fuente: Xataka)