Appuyez sur ÉCHAP pour fermer

Intelligence Artificielle
3 min de lecture 249 Vues

ChatGPT Edu expose les métadonnées des projets universitaires

Partager :

ChatGPT Edu expose les métadonnées des projets universitaires ChatGPT Edu expose des métadonnées de projets universitaires à des milliers de collègues; l’article analyse les risques et les réponses d’OpenAI.

ChatGPT Edu, lancé en 2024 comme version dédiée aux universités, peut, par défaut, rendre visibles des métadonnées d’utilisation dans certains projets à des milliers de personnes sans que les enseignants-chercheurs le sachent. Le sujet, relayé par Fast Company et des chercheurs, met en lumière les enjeux de confidentialité autour des outils d’IA générative dans l’enseignement supérieur.

Ce que montre ChatGPT Edu en pratique

Selon des chercheurs, même si le code et les dépôts ne sont pas accessibles à des personnes non autorisées, des métadonnées peuvent être visibles au sein d’une même organisation. Luc Rocher, chercheur à l’université d’Oxford, explique qu’un grand nombre de projets sur lesquels des membres utilisent ChatGPT Edu peuvent être consultables par d’autres universités du même réseau, ce qui permet, par exemple, de déduire qu’un étudiant travaille sur une soumission scientifique.

« Tout le monde à l’université, ou du moins un grand nombre de personnes, peut voir de nombreux projets sur lesquels [des gens] ont travaillé avec ChatGPT Edu »,
note-t-il.

Rocher précise qu’en analysant ces métadonnées, il a pu déduire des éléments sensibles sur des travaux en cours et a porté le sujet à OpenAI puis à son université, sans obtenir de réponse satisfaisante à ses yeux.

Des retours des universités et des fournisseurs

OpenAI affirme que les utilisateurs disposent d’un contrôle total sur le partage de leurs environnements: les noms des dépôts ne deviennent visibles que si le propriétaire de l’espace de travail l’autorise, et le contenu des dépôts reste protégé. Cependant, selon Rocher, il s’agit probablement d’une mauvaise configuration par défaut et d’un manque d’information claire à ce sujet. L’étendue exacte des données exposées par défaut n’est pas connue publiquement.

Dans le paysage universitaire, des établissements comme Harvard et ESCP Business School ont souscrit à ChatGPT Edu, tandis que des initiatives publiques en France ont été évoquées (avec l’Amue expérimentant un service d’IA générative souveraine). OpenAI cite également le directeur des systèmes d’information de l’université d’État de l’Arizona pour souligner l’importance de la sécurité et de la protection de la vie privée des étudiants et des résultats de recherche.

Enjeux et limites

  • Configuration par défaut : une exposition potentielle des métadonnées au sein d’une même organisation, selon des chercheurs, faute d’information transparente.
  • Transparence et contrôle : OpenAI défend le contrôle utilisateur, mais les détails opérationnels manquent souvent dans les communicated notices.
  • Points encore obscurs : on ne sait pas exactement quelle quantité de données est accessible par défaut, ni comment corriger rapidement la configuration.

Pour terminer

Le sujet mérite une vigilance constante : les universités devront clarifier les paramètres par défaut et mettre en place des bonnes pratiques pour sécuriser l’utilisation des IA génératives sans entraver les travaux de recherche et l’enseignement.

Score SEO
74/100
Google déploie Gemini pour le DoD via GenAI.mil
Intelligence Artificielle

Google déploie Gemini pour le DoD via GenAI.mil

Google pousse Gemini vers GenAI.mil pour outiller le DoD en IA générative, dans un contexte marqué par des tensions juridiques autour d Anthropic.

Optimus Gen 3 en Chine : le pari audacieux de Tesla
Intelligence Artificielle

Optimus Gen 3 en Chine : le pari audacieux de Tesla

Tesla présente Optimus Gen 3 à Shanghai, promettant une production prochaine et une réorganisation des usines, dans un pari ambitieux mais risqué.