Recientemente, en el Congreso de los Estados Unidos se realizó un debate sobre el uso de redes sociales y sus implicancias en la salud mental, sobre todo en niños y adolescentes. Un señalamiento a los directores ejecutivos que miran hacia un costado sobre los efectos de las plataformas. Qué pasa en Argentina con su regulación y qué dicen los expertos.
Mientras en la Cámara de Diputados de la Nación Argentina se debatía la Ley Ómnibus -cuyo espíritu es transformar la estructura normativa y económica de la Argentina para otorgarle la mayor libertad de acción posible a las empresas y corporaciones frente al control del Estado-, en el Congreso de Estados Unidos se desarrolló una sesión histórica convocada por la Comisión Judicial del Senado en la que se interrogó e increpó a directores ejecutivos de las redes sociales más populares del mundo como Meta, TikTok, Snap, Discord y X, entre otras grandes tecnológicas.
El debate estuvo relacionado con el impacto y el daño que estas plataformas generan en la salud, física y mental, de los menores y adolescentes producto de comportamientos habituales en línea como el acoso, el hostigamiento, la violencia digital, el frapping, el ciberbullying, el grooming, el sexting y la adicción.
Ocurre que estas prácticas han llevado al aumento exponencial de los casos de depresión, ansiedad y hasta trastornos de la conducta alimentaria, entre otros padecimientos, e incluso de suicidio en una etapa vital hipervulnerable.
¿Qué pasa con las redes sociales?
En EE.UU. no se trata sólo de una iniciativa impulsada por el Poder Legislativo, ya que durante los últimos tiempos fueron varios los gobiernos estatales y tribunales locales que implementaron regulaciones ante una preocupación que se ha convertido en un problema de salud pública a nivel mundial.
En octubre de 2023, Meta fue demandada por más de 40 estados norteamericanos que acusaron a la empresa de violar las leyes de protección al consumidor y usar funciones en Instagram y Facebook para "captar" la atención de adolescentes y niños y movilizarlos hacia sus plataformas "adictivas" y "dañinas". En una conferencia de prensa, varios fiscales generales caracterizaron la adicción a las redes sociales como un "problema nacional".
Hace unos días fue el propio alcalde de Nueva York, Eric Adams, quien culpabilizó a las redes sociales de ser responsables de una "crisis de salud mental" y las comparó con el peligro que significan la industria del tabaco y las armas. "Empresas como TikTok, YouTube, Facebook están alimentando una crisis de salud mental al diseñar sus plataformas con características adictivas y peligrosas", expresó Adams y agregó que "no podemos quedarnos mirando y dejar que las grandes tecnológicas moneticen la intimidad de nuestros hijos". En términos operativos, dispuso la elaboración, junto al Comisionado de Salud de la ciudad, de una serie de medidas ejecutivas a implementar en el corto plazo.
En septiembre de 2023 el propio presidente Joe Biden firmó una histórica e inédita orden ejecutiva con el objetivo de regular el uso de la inteligencia artificial y exigió a las empresas de innovación que se comprometan a garantizar nuevos estándares de seguridad, manejo, privacidad y protección de los usuarios.
En marzo de 2024 fue Utah el primer estado en promulgar una ley que condiciona el acceso de menores de edad a las redes sociales. "Los indicadores de depresión juvenil y otros temas de salud mental están en alza, y las compañías de redes sociales saben que sus productos son tóxicos", había expresado en un comunicado el gobernador Spencer J. Cox.
En California, por ejemplo, como reacción al aumento de los discursos de odio y sobre todo luego de la violenta toma del Capitolio, a nivel local se promulgó una ley que exige a las compañías a partir de enero de 2024 brindar informes detallados a la Fiscalía sobre las medidas que toman para moderar el debate en línea. El gobernador demócrata Gavin Newsom celebró la aprobación : "No nos quedaremos inmóviles mientras las redes sociales son utilizadas como armas para propagar odio y desinformación que amenaza a nuestras comunidades".
Además, anunciaron la puesta en marcha de iniciativas de ley para la protección de los jóvenes contra la adicción a las redes y de privacidad de datos de los niños, por las que las empresas tecnológicas estarán obligadas a implementar ciertas configuraciones en sus plataformas. Rápidamente, y ante la sorpresa de nadie, sobrevino la respuesta de Elon Mask, quien presentó una demanda argumentando que la ley viola la protección a la Primera Enmienda Constitucional y el derecho a la libre expresión.
Lo paradigmático de este posicionamiento político ante el avance indiscriminado de las empresas de Tech y plataformas es que no hay división ni grieta entre las dos grandes coaliciones partidarias. Tanto demócratas como republicanos de toda la nación coinciden en la necesidad de establecer límites precisos y un marco jurídico que obligue a estas empresas a rendir cuentas sobre sus actos, y los riesgos que implica el uso y abuso de redes para los jóvenes. El punto en común es que, ante las diferentes demandas presentadas en los últimos años y las exigencias sociales, las respuesta de las compañías resultan insuficientes y hasta irresponsables.
Las medidas implementadas fueron básicamente herramientas y políticas de protección, la sugerencia de límites de tiempo frente a la pantalla y la posibilidad de que los padres tengan más control sobre el contenido y las experiencias en línea de sus hijos e hijas. Sin embargo lo que se pone en cuestionamiento desde las diferentes esferas políticas y civiles es mucho más profundo y atañe al funcionamiento en la sombra de los algoritmos y la inmensa maquinaria dirigida a atraer la atención de los jóvenes.
Los especialistas y organizaciones de padres concuerdan en denunciar que una plataforma con casi tres décadas de existencia que no puede establecer y desarrollar actualizaciones de seguridad básicas en poco tiempo es una señal de que necesita una regulación externa y política.
Josh Golin, director ejecutivo de una ONG de seguridad infantil sin fines de lucro llamada Fairplay, es uno de los mayores impulsores de la necesidad de regular el marketing dirigido a los niños. Ha llegado a declarar que "si Meta se tomara realmente en serio la seguridad, se apartaría del camino de la regulación", y denunció que "han tenido más de una década para hacer que su plataforma sea más segura para los jóvenes, y han fracasado estrepitosamente".
El resonado caso Facebook
Esta temática está presente en la agenda pública sobre todo desde que la exempleada de Facebook y denunciante Frances Haugen dio a conocer documentos que acreditan que ya en 2021 un grupo de ejecutivos de alto rango habían advertido al propio Mark Zuckerberg de los peligros que generaba la red social a la integridad y salud de los niños y adolescentes, y cómo sus productos empeoraban los problemas de imagen corporal de algunas adolescentes. Entre las firmas aparecen quien era directora de operaciones, Sheryl Sandberg y el presidente de Asuntos Globales, Nick Clegg.
Los papeles, que fueron filtrados por exempleados y hoy constituyen pruebas, señalaban que "no vamos por buen camino", que la firma se enfrentaba a un "mayor riesgo regulatorio" por la escasa inversión en la seguridad de los usuarios, y recomendaban la contratación urgente de por lo menos 124 nuevos empleados para afrontar esta amenaza. Nada de esto ocurrió. Por el contrario, al tiempo de recibir esta notificación, por problemas financieros, Zuckerberg despidió a miles de trabajadores, entre ellos a los que se dedicaban al bienestar de los usuarios.
A partir de ese momento recibió una ola de litigios a nivel mundial. En 2023 fue Arturo Béjar, exdirector de ingeniería en Meta entre 2009 y 2015, y en el período de 2019 a 2022, quien denunció que Instagram no hacía lo suficiente para garantizar la protección a los adolescentes del acoso sexual.
En ese sentido presentó una investigación, que fue ignorada por los ejecutivos de la empresa, que señala que más del 25% de los jóvenes de entre 13 y 15 años habían denunciado haber sido acosados sexualmente sin consentimiento en la red. De hecho, el propio Béjar relató que fue consciente de esta situación luego de que su hija de 14 años empezará a recibir "insinuaciones sexuales no deseadas, misoginia y acoso" y frente a ello no había en la plataforma forma alguna de denunciarlo.
¿Qué pasa en Argentina? Políticas públicas y soberanía
Si bien esta discusión legislativa se está desarrollando ahora en Estados Unidos, el tema de establecer limites y regulaciones a las plataformas es un debate sin fronteras y contemporáneo, que también existe en Argentina y se ha profundizado durante los últimos años, con algunos matices y diferencias políticas.
En 2021 el exsecretario de Asuntos Estratégicos de la Presidencia, Gustavo Beliz, había presentado un paquete de iniciativas a analizar que incluía un programa para garantizar "un buen uso de las redes sociales" en el cual iban a trabajar 40 universidades de todo el país. La iniciativa se enmarcaba en la adhesión del país al Pacto por la Información y la Democracia, impulsado por Francia y Alemania, y la necesidad de hacer un Estudio nacional sobre el impacto de las redes sociales a nivel local.
Más que un proyecto de regulación, se trataba de uno con fines educativos y de soberanía informativa. Y en 2023, fue el propio exministro y excandidato presidencial Sergio Massa quien en campaña insistió en varias oportunidades sobre la necesidad de regular las redes y remitió al modelo australiano que plantea parámetros sin atacar el planteo de las libertades individuales.
Desde la oposición, ante cualquier planteo o medida en este sentido se opusieron inmediatamente al considerar que eran intentos gubernamentales de regular las opiniones y la libertad de expresión de los usuarios. Claramente, para avanzar hacia una medida regulacionista de la redes será necesario un acuerdo civil, social y político, algo que no parece tener asidero bajo el gobierno de Javier Milei, cuya postura es otorgarle libertad de acción plena y total a las empresas.
Opiniones calificadas
Lucia Fainboim es Licenciada en Comunicación Social (UBA), Maestranda en Educación (UNQUI) y directora de la consultora Bienestar Digital. Explica que lo que está sucediendo expone una necesidad y preocupación real por los efectos que están teniendo las plataformas ya que no están pensadas para niños y niñas: "A pesar de las restricciones por edad los menores están ahí y hay cada vez más evidencia del impacto en la salud mental, en el consumo de contenido inadecuado. Hoy registramos miles de chicos y chicas expuestos, por ejemplo, a material pornográfico cuando por edad no pueden procesar todavía lo que están viendo, y después desarrollan síntomas. Esta discusión es necesaria y que las personas a cargo de estas compañías expliquen y se hagan cargo".
Fainboim plantea dos ejes vertebrales vinculados a la necesidad de establecer regulaciones a nivel local: por un lado, lograr una mayor transparencia de los algoritmos, saber cómo funcionan en cuanto a recomendación de contenidos, las estrategias de persuasión y qué información personal manejan para lograrla. Y en segundo lugar la cuestión de la soberanía: "Estas compañías no están en Argentina, por eso estos juicios se hacen en Estados Unidos, y si bien acá hay algunas oficinas hay algo del tema de la soberanía que se pone en juego. Estas compañías no están físicamente acá y sin embargo impactan en nuestro territorio e inciden, desde tan lejos, en nuestra vida cotidiana".
A fines de 2023, Amnistía Internacional Argentina presentó un informe llamado "Domar el algoritmo: desafíos para la salud mental y privacidad en el uso de TikTok Argentina", que se centraba en analizar los riesgos de esta red social en la privacidad y datos personales, y los efectos en la salud mental. Dicha plataforma es la que más ha crecido en los últimos años en la población de entre 13 y 17 años, y los especialistas advierten por el peligro de un algoritmo particularmente invasivo y adictivo.
El estudio fue coordinado por Martín Becerra y Victoria Irisarri, doctores en Ciencias de la Información y en Antropología, y referentes en la temática. Justamente una de las conclusiones de la investigación es acerca de las estrategias que deben implementar los adolescentes y las familias para "salir del lado malo" de la plataforma y "domesticar" al algoritmo para evitar daños. Es decir, que en el uso reside una forma de poner límites, que depende de la conciencia que tengan los usuarios, las herramientas educativas y su voluntad individual.
En ese sentido, paralelamente a la discusión macro, la especialista en crianza digital hace foco en las herramientas que se deben trabajar de forma cercana con los chicos y chicas involucrando a toda la comunidad, las compañías, las familias, los docentes, para que los menores de 14 años no estén en las redes, pero también para seguir y acompañar a los que sí están y reducir al máximo los riesgos: "Es necesario generar más campañas de concientización, formación docente, que las familias cuenten con información de calidad. Para los mayores de 14, que sí pueden estar en las plataformas, hay que generar programas de alfabetización digital, que sepan cómo cuidarse, cuándo pedir ayuda, que tengan una mirada crítica y reflexiva. Esa información de calidad tiene que venir del Estado y los bloques de Estados. Porque de otra manera le terminamos pidiendo a la plataforma que nos cuiden. Son las políticas públicas y regulaciones las que deben guiar este uso y acompañar a la población".
(Fuente: Eldestapeweb.com)