lunes, 30 de marzo de 2026

Wikipedia prohibió el uso de la IA para redactar y editar contenido en la enciclopedia

No obstante, la nueva política sí permite su uso para las traducciones entre idiomas y para sugerencias de correcciones de texto, aunque no para generarlo.

Wikipedia aloja artículos en 339 idiomas y es la enciclopedia más visitada en la web (Foto: La Nación).

En un cambio de política reciente, Wikipedia prohibió el uso de la inteligencia artificial para redactar y editar el contenido de la enciclopedia. La justificación es que los grandes modelos de lenguaje (LLM, por sus siglas en inglés), como Chat GPT, Gemini, Claude o DeepSeek, infringen varias de las políticas principales del sitio web. Esas directrices refieren, por ejemplo, a la neutralidad de los contenidos, la verificabilidad y que el texto debe estar atribuido a fuentes fiables. En un mundo digital saturado de inteligencia artificial, Wikipedia elige la inteligencia humana por encima de todo.

En sus diversos idiomas, Wikipedia prohibió el uso de la IA para redactar y editar el contenido de la enciclopedia, a la vez que contempló dos escenarios donde su uso sí está permitido: para traducciones y para sugerencias y correcciones de texto, siempre y cuando los grandes modelos de lenguaje no introduzcan contenido propio. En el sitio web advierten: "Se recomienda precaución, ya que las LLM pueden ir más allá de lo solicitado y alterar el significado del texto de tal manera que no esté respaldado por las fuentes citadas".

Así, las comunidades de personas por detrás de Wikipedia deberán verificar que cualquier edición o artículo nuevo no esté generado con IA. De hecho, la enciclopedia más consultada del mundo advierte: "Algunos editores pueden tener estilos de escritura similares a los de los LLM. Se necesitan más pruebas que simples rasgos estilísticos o lingüísticos para justificar las sanciones, y lo mejor es considerar si el texto cumple con las políticas de contenido principales y si ha sido editado recientemente por el editor en cuestión".

Fernando Archuby, investigador del CONICET y coordinador del grupo WikiUNLP, cuenta que lo que más se nota cuando una IA crea un texto es que hay un exceso de verborragia. Por ejemplo, "citan enlaces inexistentes o brindan información falsa que quien conoce sobre el tema, puede detectarla". El científico define: "No hay que perder de vista que los modelos de lenguaje son modelos estadísticos que buscan información en la web y arman un texto con probabilidades. O sea, ponen la primera palabra y después buscan, mediante un modelo probabilístico, la siguiente palabra que mejor se ajusta al texto que están escribiendo".

Si lo que propone Wikipedia funciona, podría ser un gran paso en materia de regulación de la IA. "El principal problema es que los grandes modelos de lenguaje toman como fuente principal a Wikipedia. Entonces, si uno le ordena a la IA que escriba un artículo, esta va a tomar información de la enciclopedia y se va a generar una situación circular que no permite el aporte de nuevos conocimientos", subraya.

A su vez, varios estudios demostraron que las IAs sufren "alucinaciones", es decir, que citan artículos, libros y autores que son inexistentes, y presentan sesgos. O mejor dicho, los multiplican. Los grandes modelos de lenguaje tienen orientaciones en la información que dan según qué empresa los haya creado y qué fuentes usen. Así lo explica Archuby: "Si la información está en español y la toman de Wikipedia, está sesgada porque la gran mayoría de las personas que editan Wikipedia provienen de España. Entonces, hay una gran influencia de aquel país que es el más atípico en el habla hispana". Y agrega: "Es un reino, es rico y nunca fue colonia. Algo que difiere fuertemente de las realidades del resto de los países que hablan español en Latinoamérica".

De hecho, menos de 300 personas participan de forma continua en la creación de contenido en Wikipedia en español y casi el 30% es de España, mientras que el 13,4 es de México, el 11,7 de Argentina y, con 7 puntos cada una, Colombia, Perú y Chile. De esta manera, la IA arrastra los sesgos que ya contiene la plataforma que opera como fuente.

El cambio de política fue votado por las comunidades que hacen a Wikipedia y sigue el camino de lo que planteó el fundador Jimmy Wales en una entrevista con BBC Science Focus a fines del año pasado. Wales afirmó que la IA podría ser útil en algunos aspectos, pero que no se usaría para redactar artículos: "No diría que jamás, pero al menos no a corto plazo. Desde el punto de vista de Wikipedia, los modelos más recientes aún están lejos de ser lo suficientemente buenos".

(Fuente: Agencia de Noticias Científicas / redacción propia)