Autocomplétion IA: influence sur nos réponses et opinions Les suggestions d’autocomplétion générées par l’IA peuvent influencer nos opinions sur des sujets sensibles, même si le texte final est réécrit.
l’autocomplétion générée par l’IA peut façonner non seulement notre style, mais aussi le contenu de nos idées. Une étude publiée dans Science Advances et menée par Mor Naaman et ses collègues montre que les suggestions de saisie assistée par l’IA peuvent influencer les opinions sur des questions politiques et sociales, même lorsque l’utilisateur réécrit entièrement le texte.
Comment l’étude a été conçue et que révèle-t-elle
Les chercheurs ont réuni 2 582 participants américains pour deux expériences distinctes. Dans la première, 1 485 personnes ont utilisé une interface proposant des suggestions d’écriture biaisées par l’IA, comparée à un groupe témoin sans IA. Plusieurs sujets sensibles ont été examinés, dont la peine de mort, le droit de vote des prisonniers, les OGM, la fracturation hydraulique et l’usage de tests standardisés dans l’éducation.
Dans la seconde expérience, l’équipe a exploré des mécanismes d’atténuation. Certaines variantes prévoyaient des messages mettant en évidence les biais avant l’utilisation, d’autres après (debrief). Les participants ont aussi été mesurés sur leurs positions pretask pour observer l’évolution des opinions.
À l’exemple, l’une des questions portait sur la peine de mort: l’IA était biaisée pour suggérer des arguments en faveur de l’interdiction. Une autre partie testait la même logique sur les autres sujets mentionnés, avec des formulations similaires et des variantes sans IA.
« Nos résultats apportent des preuves solides que les suggestions de saisie semi-automatique biaisées générées par l’IA peuvent influencer les opinions des gens », affirment les chercheurs.
Les résultats montrent une influence statistiquement significative des suggestions IA sur les réponses des participants. En revanche, les messages d’avertissement, qu’ils soient avant ou après l’exposition, n’ont pas modéré cet effet. Comme le rappelle Sterling Williams-Ceci, doctorant en sciences de l’information: « Nous avons été surpris, car aucune de ces interventions n’a réellement atténué l’ampleur du changement d’attitude des gens en faveur du parti pris de l’IA dans ce contexte ».
Après les expériences, les participants ont été interrogés sur leur perception des suggestions: la majorité n’a pas remarqué le biais et a jugé les propositions équilibrées, tout en se sentant peu influencée personnellement. Ces résultats soulignent que les systèmes d’IA peuvent générer des biais sans que les utilisateurs en aient conscience, ce qui peut orienter les discussions publiques sans qu’on le perçoive immédiatement.
« Ce faisant, ces systèmes risquent, par inadvertance ou délibérément, d’inciter les gens à exprimer des points de vue biaisés, ce qui, comme l’ont démontré des décennies de recherche en psychologie, peut à son tour modifier les attitudes des individus », résume Sterling Williams-Ceci.
Ce que ces résultats signifient pour nos échanges en ligne
Le cœur du travail est simple mais inquiétant: les outils d’autocomplétion, s’ils sont entraînés sur des corpus biaisés ou conçus avec certaines intentions, peuvent influencer les opinions sans que l’utilisateur le remarque vraiment. L’étude montre que l’IA peut modifier les attitudes sur des sujets sensibles même lorsque les personnes pensent être invulnérables à ces suggestions.
Autrement dit, nos échanges quotidiens, nos réponses et même nos positions politiques pourraient être partiellement façonnés par des systèmes qui restent familiers, pourtant potentiellement biaisés. L’enjeu est autant technique qu’éthique: comment rendre ces outils transparents et comment mesurer leur impact réel sur les opinions publiques sans bloquer l’innovation?
Limites et questions en suspens
Comme toute étude, ce travail présente des limites. Il s’appuie sur deux expériences en laboratoire auprès d’un échantillon américain, ce qui limite la généralisation à d’autres contextes culturels ou linguistiques. L’effet observé est mesuré dans des environnements contrôlés et sur une période courte; on ne sait pas encore comment il se déploierait dans des usages répétés ou dans des plateformes réelles à grande échelle.
À ce stade, la question reste ouverte: dans quelle mesure ces biais intégrés aux assistants IA modulent-ils durablement les opinions et les comportements des utilisateurs dans la vie quotidienne, et comment les plateformes peuvent-elles répondre sans entraver l’innovation?
Pour terminer
Cette étude met en lumière un phénomène important: les suggestions d’autocomplétion alimentées par IA peuvent influencer nos idées sans qu’on en prenne pleinement conscience. Une prise de conscience indispensable pour les concepteurs et les utilisateurs qui souhaitent comprendre et maîtriser les biais potentiels des outils d’IA dans nos échanges.