Wikipédia anglophone interdit l’édition assistée par modèles La Wikipédia anglophone bannit l’édition assistée par des LLM, tout en réservant deux exceptions et en questionnant les hallucinations IA. La édition assistée par modèles de langage est au cœur d’un nouveau choix éditorial sur Wikipédia.
La édition assistée par modèles de langage est au cœur d’un nouveau choix éditorial sur Wikipédia. La version anglophone a annoncé l’interdiction de l’IA générative pour la majorité des modifications, avec deux exceptions clairement encadrées. Ce pas en arrière pour certains contributeurs survient après des inquiétudes sur la fiabilité et les mécanismes de vérification.
Interdiction générale et vote dans la version anglophone
Selon les règles adoptées, l’utilisation des grands modèles de langage (LLM) pour générer ou réécrire le contenu d’articles est interdite sur l’édition anglophone. Le vote a été peu participatif (46 votants, 44 en faveur, 2 contre) mais a donné une majorité nette pour la règle.
Les deux exceptions prévues restent toutefois strictes et ciblées, avec des garde-fous forts et une dépendance à la vérification humaine.
Deux exceptions autorisées
La première autorise les éditeurs à obtenir des suggestions de corrections de fond pour leurs propres textes, à condition que la révision soit vérifiée par un humain et que le modèle ne crée pas de contenu de sa propre initiative.
La seconde porte sur la traduction de pages d’autres langues, assortie de règles spécifiques pour limiter les erreurs et les hallucinations, avec les mêmes exigences de vérification humaine et de fiabilité des sources.
- Suggestion de corrections de fond : le LLM peut proposer des ajustements pour ses propres textes, mais sans créer de contenu autonome.
- Traduction de pages : l’outil aide à traduire, sous condition de vérification et de respect des règles anti-hallucinations.
Hallucinations et défis de vérification
Les responsables du projet pointent l’existence fréquente d’hallucinations lors de l’utilisation des IA dans la traduction et la génération de contenu. Le texte souligne qu’une utilisation responsable doit s’appuyer sur des sources humaines et corriger les erreurs plutôt que de se reposer sur l’IA seule.
« Je crains tout de même que l’approche adoptée n’encourage le mensonge et rende difficile le respect des directives lorsqu’un texte de bonne qualité peut être publié malgré tout », déplore l’une des éditrices ayant voté pour l’interdiction.
D’autres estiment que la règle est trop radicale et qu’elle ne fait pas la distinction entre le « slop » généré par IA et un travail éditorial rigoureux mené avec l’aide d’un LLM. Le débat reste ouvert quant à savoir si une révision plus ciblée aurait été possible.
Contexte francophone et germanophone
La communauté francophone avait déjà publié une recommandation sur l’usage de l’IA générative, avec une ligne générale de prudence et des exceptions possibles. Pour la germanophone, une recommandation plus stricte a été adoptée, renforçant l’idée que Wikipédia privilégie un contenu rédigé par des humains.
Dans ces échanges, l’objectif commun demeure la fiabilité, la traçabilité des sources et la vérifiabilité du contenu publié.
Pour terminer
La discussion autour de l’IA dans Wikipédia illustre les tensions entre efficacité et fiabilité. Une question demeure: jusqu’où peut-on pousser l’outil sans compromettre la rigueur éditoriale et la responsabilité humaine ?