Appuyez sur ÉCHAP pour fermer

Intelligence Artificielle
4 min de lecture

OpenAI et ChatGPT dans l’enquête sur la fusillade en Floride

Partager :

OpenAI et ChatGPT dans l’enquête sur la fusillade en Floride Une enquête floridienne examine la responsabilité potentielle d’OpenAI et de ChatGPT après une fusillade sur le campus, à partir des échanges du suspect.

OpenAI et ChatGPT visés dans l’enquête sur la fusillade à l’université de Floride posent une question clef : la responsabilité des technologies d’IA dans des actes criminels peut-elle peser sur une société ou son logiciel ? En Floride, les procureurs cherchent à savoir si le chatbot et sa société pourraient être tenus pour responsables des faits commis par un jeune suspect lors d’un tir sur le campus de l’université d’État, et s’ils disposent des éléments pour établir une éventuelle responsabilité pénale.

En avril 2025, Phoenix Ikner, âgé de 20 ans et fils d’une policière, aurait été impliqué dans l’événement en déclenchant une fusillade devant les locaux d’un syndicat étudiant, faisant deux morts et six blessés selon USA Today à l’époque. Le 21 avril, le procureur général James Uthmeier a annoncé l’ouverture d’une enquête visant le rôle de ChatGPT et d’OpenAI dans ce drame.

« La décision d’ouvrir une enquête fait suite à un premier examen, par les procureurs, des historiques de conversation entre ChatGPT et Phoenix Ikner », peut-on lire dans le communiqué officiel. Si ChatGPT était une personne, elle serait poursuivie pour meurtre, a-t-il ajouté, reflétant l’ampleur sans précédent que certains hurleurs de l’IA affirment dans ce dossier.

Face à cette affaire, les enquêteurs expliquent qu’ils vont analyser comment ikner a interagi avec le chatbot le jour des faits et ce que les systèmes de sécurité d’OpenAI auraient dû prévenir ou limiter. Le média local WTXL a aussi relayé que les logs des discussions font l’objet d’un examen, y compris des questions posées par Ikner sur la couverture médiatique potentielle et les horaires d’affluence sur le campus.

L’enquête et ce qu’elle cherche à éclairer

Selon le procureur général, l’objectif est de savoir si OpenAI a engagé sa responsabilité pénale pour les actes commis par ChatGPT lors de la fusillade. L’équipe requiert des informations sur les mesures internes destinées à contrer les usages problématiques et sur la coopération avec les autorités pour signaler des crimes passés, présents ou futurs.

  • Logs et échanges : examen des conversations entre Ikner et le chatbot pour identifier d’éventuelles indications qui auraient pu orienter les actes.
  • Règles et sécurité : demande de détails sur les mesures internes et les garanties mises en place autour de ChatGPT.
  • Coopération policière : documents sur les mécanismes de signalement et la collaboration avec la police.

Par ailleurs, l’enquête s’intéresse aussi à l’organigramme des responsables et à la liste des employés ayant participé au développement et au déploiement de ChatGPT à des dates clés, afin d’identifier d’éventuelles responsabilités individuelles, comme l’a indiqué le procureur lors d’une conférence de presse relayée par des médias américains.

Contexte juridique et limites

Les autorités soulignent que la mise en cause pénale d’une entreprise dans ce cadre serait une première, ce qui éclaire l’épineuse question du lien entre conception technologique et acte criminel. « Si certaines personnes savaient que ce genre de comportements dangereux pouvait se produire et qu’elles ont néanmoins privilégié le profit, ces personnes devraient rendre des comptes », a déclaré James Uthmeier. OpenAI, de son côté, a déclaré que ChatGPT « a fourni des réponses factuelles à des questions en s’appuyant sur des informations largement disponibles sur Internet, et n’a ni encouragé ni favorisé d’activités illégales ou préjudiciables », selon un communiqué transmis au New York Times.

Le dossier montre aussi les limites de la responsabilité pénale associée à des systèmes d’IA. D’ici la publication des conclusions, il demeure difficile de dire comment les jurisprudences évolueront et quelles responsabilités pourraient incomber aux personnes physiques ayant travaillé sur le produit ou sur son déploiement.

Pour terminer

L’affaire illustre un tournant sensible entre sécurité, éthique et droit des technologies. Quelles conséquences juridiques pour OpenAI et ChatGPT, et comment les entreprises d’IA adaptons leurs protocoles de sécurité en réponse à ce type d’enquêtes, restent des questions à suivre de près dans les mois qui viennent.

Score SEO
74/100