Appuyez sur ÉCHAP pour fermer

Intelligence Artificielle
4 min de lecture 341 Vues

Intelligence artificielle et financement : DOGE coupe des subventions via ChatGPT

Partager :

Intelligence artificielle et financement : DOGE coupe des subventions via ChatGPT Une action en justice révèle comment une IA a influé sur des subventions en sciences humaines via des prompts ChatGPT. L'affaire expose une utilisation controversée de l’ intelligence artificielle dans les choix de financement en sciences sociales.

L'affaire expose une utilisation controversée de l’ intelligence artificielle dans les choix de financement en sciences sociales. D’après le New York Times et des documents déposés dans le cadre d’un procès, des décisions ont été prises par le DOGE, alors dirigé par Elon Musk, au nom de la National Endowment for the Humanities (NEH). Plus de 1 400 programmes, représentant environ 100 millions de dollars, ont été annulés après l’emploi de prompts simples adressés à ChatGPT.

Selon les éléments du dossier, les responsables auraient utilisé une requête destinée à évaluer l’impact des projets sur la diversité, l’équité et l’inclusion, et à obtenir une réponse factuelle en moins de 120 caractères en commençant par Oui ou Non. Cette méthode de tri aurait servi à déterminer quels financements annuler. Le New York Times précise que ces actions s’inscrivaient dans le cadre d'une jurisprudence contestée par plusieurs sociétés savantes américaines.

Un résumé des faits concrets

À l’initiative de l’administration Trump, le DOGE aurait pris en main la révision des financements, touchant la NEH et d’autres agences fédérales comme la National Science Foundation ou la National Oceanic and Atmospheric Administration. Le document de plainte indique que les employés n’avaient pas de formation spécifique en sciences humaines et sociales, mais utilisaient des prompts générés par ChatGPT pour identifier les subventions considérées comme problématiques sur le plan DEI.

Comment l’IA a guidé les suppressions

Plusieurs exemples figurent dans les documents publiés et dans les dépositions. Les projets jugés non conformes ou “inutiles” auraient été écartés après que l’IA ait classé ces travaux dans la catégorie DEI ou ait affirmé qu’ils risquaient d’amplifier des voix marginalisées.

  • Projet sur les archives des langues autochtones en Alaska — ChatGPT aurait estimé que ce travail pouvait promouvoir l’inclusion et la diversité des points de vue, ce qui a contribué à son annulation.
  • Documentaire sur W. E. B. Du Bois — ChatGPT a jugé que sa biographie et ses écrits contribuaient à des contextes historiques liés à DEI, entraînant le retrait du financement.
  • Documentaire sur des femmes juives réduites en esclavage pendant la Shoah — classé DEI par l’IA et écarté.
  • Massacre de Colfax — la déposition relève que le projet, centré sur une réalité raciale et moralement contesté, n’était pas jugé pour le bénéfice de l’humanité et a été stoppé.

Contexte et réactions

Selon la plainte, les deux agents du DOGE impliqués, Justin Fox et Nate Cavanaugh, auraient opéré sans formation en sciences humaines et sociales et auraient suivi une logique guidée par l’IA. Michael McDonald, l’un des responsables de l’agence, a validé la liste selon la volonté de l’administration de « faire table rase ». Joy Connolly, présidente de l’American Council of Learned Societies, a déclaré que l’action en justice illustre le mépris envers le principe fondamental qui justifie l’investissement public dans les sciences humaines et la nécessité d’une éducation à la pensée critique. Elle a ajouté que l’usage de ChatGPT pour identifier des subventions « inutiles » souligne l’importance d’un cadre pédagogique solide.

« Notre action en justice révèle le mépris de cette administration pour ce principe et pour l’investissement public dans la recherche pour le bien commun. L’utilisation par les employés du DOGE de ChatGPT pour identifier les subventions inutiles est peut-être la meilleure publicité pour la nécessité d’une éducation aux sciences humaines, qui développe les compétences en matière de pensée critique. »

Interrogés par le New York Times, ni Michael McDonald ni les autres plaignants ni le National Endowment for the Humanities n’ont répondu. L’affaire rappelle aussi un contexte plus large: en 2023, Bruno Bonnell, secrétaire général pour l’investissement en France, avait évoqué l’idée d’une IA destinée à présélectionner les projets de France 2030.

Pour terminer

Ce dossier met en évidence les risques et les limites d’un système qui peut influencer des décisions publiques par le seul biais d’un prompt. Il pose une question essentielle: comment encadrer l’usage de l’IA dans des domaines sensibles comme le financement de la recherche tout en préservant la transparence et la responsabilité humaine ?

Score SEO
72/100
Presse tech US fragilisée par les résumés IA de Google
Intelligence Artificielle

Presse tech US fragilisée par les résumés IA de Google

Les résumés IA de Google mettent à mal la presse tech américaine, entraînant une chute marquée du trafic et posant des questions sur la fiabilité des infos.