jueves, 7 de mayo de 2026

Cuando el odio se disfraza de broma: así se normaliza entre adolescentes en las redes sociales

Un meme, una frase irónica, un vídeo que "sólo busca hacer gracia": muchas veces, el discurso de odio no entra en la vida de los adolescentes con la forma de un insulto evidente o de una amenaza directa. Circula envuelto en humor, y en contenidos virales que parecen inofensivos. Cuando un mensaje discriminatorio se presenta como una broma, cuesta más reconocerlo, resulta más fácil compartirlo y termina encontrando menos resistencia. 

(Foto: Shutterstock).

En un estudio reciente con adolescentes hemos analizado cómo perciben, interpretan y responden a estos mensajes en su vida digital cotidiana. 

En redes sociales, buena parte de la comunicación juvenil se mueve con rapidez y utiliza códigos compartidos que mezclan exageración e ironía. Dentro de ese marco, ciertos mensajes pueden pasar desapercibidos o parecer menos graves. Un contenido que ridiculiza a mujeres, personas migrantes, personas LGTBIQ+ o minorías religiosas puede difundirse como un simple chiste. Sin embargo, el formato no borra el efecto: el mensaje sigue transmitiendo desprecio, refuerza prejuicios y ayuda a que ciertas formas de exclusión parezcan normales.

(Foto: docta.ucm.es).

¿Cómo se normaliza un insulto?

La investigación muestra que esa normalización rara vez se produce de golpe. Suele avanzar a través de formas cotidianas y repetidas de exposición: el meme, la broma, la ironía o el comentario viral. Son formatos fáciles de compartir, rápidos de consumir y menos cuestionados socialmente que una agresión abierta. Precisamente por eso pueden resultar eficaces para banalizar el daño y reducir la percepción de gravedad. Esa fue una de las ideas que más se repitió en los grupos de discusión: el odio no siempre se reconoce cuando adopta una forma ligera o humorística.

Para entender cómo se produce esa normalización, conviene fijarse en tres elementos que se refuerzan entre sí: los algoritmos, la presión del grupo y la repetición. Cada uno cumple una función distinta, pero juntos crean un entorno en el que el discurso de odio puede circular con más facilidad y asentarse en la vida cotidiana de los adolescentes.

(Foto: docta.ucm.es).

Algoritmos: árbitros de la visibilidad

Los algoritmos son una parte central del problema porque organizan lo que vemos y determinan qué contenidos ganan visibilidad. Las plataformas suelen mostrar aquello que genera reacción, y los mensajes provocadores funcionan bien en esa lógica. No hace falta que una plataforma promueva un contenido de odio para que este se difunda. Basta con que premie la interacción

Si un vídeo ofensivo provoca comentarios, risas, enfado o reenvíos, tendrá más posibilidades de seguir apareciendo. Según la UNESCO, en la actual economía de la atención, los discursos de odio encuentran un terreno favorable porque generan respuestas rápidas y ofrecen una sensación de pertenencia.

Adolescentes y búsqueda de pertenencia

Ese mecanismo pesa especialmente en la adolescencia, una etapa en la que las redes forman parte de la construcción de la identidad y del reconocimiento entre iguales. Lo que aparece en el "feed" deja de percibirse como algo excepcional y empieza a integrarse al paisaje cotidiano. Por eso, cuando mensajes discriminatorios se mezclan con memes y bromas compartidas, su presencia constante puede hacer que dejen de parecer problemáticos y empiecen a asumirse como una forma habitual de hablar y relacionarse en internet.

A esa dinámica se suma la presión del grupo, que en esta etapa tiene un peso enorme. Compartir lo que todos comparten, reír con lo que todos ríen o repetir una frase que circula en el grupo puede ser una "manera de encajar". En los grupos analizados, esa lógica apareció con claridad: muchas veces no había una adhesión abierta al contenido, pero sí una aceptación práctica que facilitaba su circulación. El problema es que ese gesto contribuye a dar visibilidad y legitimidad al mensaje, aunque la presión del grupo no siempre se manifieste de forma abierta.

(Foto: docta.ucm.es).

Repetición y desgaste de la sensibilidad

La repetición completa ese proceso. Lo que se repite mucho acaba perdiendo capacidad de sorprender, y aquello que ya no sorprende se percibe como menos grave. Un mensaje aislado puede generar rechazo, pero un mensaje que aparece una y otra vez termina desgastando la sensibilidad. Y una mayor exposición a contenidos online de riesgo se relaciona con una mayor aceptación de la ciberagresión.

Avance del discurso de odio

Viendo cómo muchas formas de violencia en línea se trivializan entre adolescentes cuando aparecen envueltas en humor o en códigos compartidos en redes, podemos entender por qué el discurso de odio avanza sin presentarse de manera abierta. A veces no llega con amenazas, sino con memes, ironías y bromas que parecen ligeras, pero que repiten una misma idea: hay grupos que merecen ser ridiculizados o colocados en una posición inferior.

Pero las consecuencias de esta normalización son reales. UNICEF recuerda que las formas de violencia en línea, como el ciberacoso, pueden tener efectos psicológicos profundos y duraderos y generar ansiedad y depresión.

Educación mediática y digital

La respuesta no puede limitarse a prohibir o castigar. Hace falta educación mediática y digital para que los adolescentes entiendan por qué les aparece un contenido, qué emociones intenta activar y qué visión del mundo transmite. Si los algoritmos amplifican, el grupo valida y la repetición normaliza, la mejor defensa pasa por aprender a mirar con sentido crítico y a poner nombre a lo que ocurre.

(Fuente: The Conversation / docta.ucm.es / redacción propia)