Grammarly et l’intelligence artificielle : des agents d’experts Grammarly a suspendu Expert Review après les controverses suscitées par l’utilisation de noms d’auteurs réels dans l’IA, soulevant des questions éthiques et juridiques. Grammarly, filiale de Superhuman, a provoqué un vif débat autour de l’intelligence artificielle avec sa fonctionnalité Expert Review.
Grammarly, filiale de Superhuman, a provoqué un vif débat autour de l’intelligence artificielle avec sa fonctionnalité Expert Review. Cet outil révisait des textes en s’appuyant sur des rendus « inspirés » des travaux d’auteurs réels, notamment des universitaires, journalistes et écrivains. Après la publication de noms francophones dans l’outil, la société a suspendu la fonctionnalité le 12 mars, avant que les polémiques ne gagnent en violence.
Ce que révélait Expert Review et pourquoi la suspension a suivi
Concrètement, l’outil pouvait générer des retours en citant des auteurs et en s’appuyant sur leurs travaux publics. Shishir Mehrotra, patron de Superhuman et de Grammarly, a expliqué à The Verge que la décision de lancer l’outil revenait à une poignée de responsables produit et d’ingénieurs, et qu’il s’agissait d’une « mauvaise fonctionnalité » — utile ni pour les utilisateurs ni pour les experts. Cette démonstration artificielle a alimenté un débat sur les limites et les risques liés à l’usage des noms et des contenus d’autrui.
« Nous ne devrions pas usurper votre identité, point. Nous ne l’avons pas fait », a déclaré Mehrotra lorsque la question du consentement et du crédit a été soulevée.
La question de la rémunération des personnes citées par l’outil a aussi été évoquée. Mehrotra a laissé planer l’idée d’un modèle où des agents d’IA représenteraient des experts, et où les revenus tirés de l’usage de leurs travaux seraient partagés — environ 70 % pour l’auteur et 30 % pour la plateforme. Cette proposition, présentée comme un modèle en cours d’élaboration, s’inscrit dans une logique déjà présente chez certains créateurs de contenu, mais elle ignore pour l’instant les volontés individuelles des chercheurs et écrivains cités.
Quel sens donner à une « itération » sur la pratique des IA
Selon les explications fournies, Grammarly ne cherchait pas simplement à améliorer la révision, mais à s’appuyer sur des références reconnues pour offrir un retour perçu comme plus pertinent. L’entreprise affirme que les noms cités « viennent directement des LLM populaires », ce qui suggère une forme d’itération sur la pratique consistant à interroger des systèmes comme Claude ou Gemini afin d’obtenir une révision enrichie. Dans ce cadre, l’outil soulève une question majeure : jusqu’où peut-on s’appuyer sur des travaux d’autrui sans consentement explicite et sans mécanismes clairs de crédit et de rémunération?
Contexte et limites : ce qu’on n’a pas encore éclairci
Des poursuites restent possibles. La journaliste Julia Angwin et d’autres personnes poursuivent Grammarly pour usage non consenti du nom et de l’identité de personnes, sans leur accord. En parallèle, les noms cités dans l’exemple — Valérie Masson-Delmotte, Annie Ernaux ou Florence Aubenas — ne sont pas valablement associés par Grammarly à des documents officiels; leur présence reflète plutôt une utilisation par les modèles linguistiques qui se basent sur des entrées publiques et accessibles. Le problème central demeure: quels droits appliquer lorsque l’IA réutilise des identités et des travaux sans consentement explicite, même si l’objectif est de crédibiliser une révision ?
Cette affaire illustre les zones grises entre avance technologique et responsabilité éthique. C’est impressionnant de voir l’IA proposer des retours pertinents, mais inquiétant de constater que les mécanismes de crédit et de rémunération restent encore à définir et à sécuriser pour les auteurs et créateurs cités.
Pour terminer
Au terme de cette épisode, une constante demeure: l’intelligence artificielle peut augmenter l’utilité des outils de rédaction, à condition que les questions de consentement, de crédit et de rémunération soient prises en compte de manière transparente. Le dossier n’est pas clos et invite à suivre les évolutions des cadres juridiques et commerciaux autour des usages des noms et des travaux d’autrui par les IA.