Appuyez sur ÉCHAP pour fermer

Cybersécurité
4 min de lecture

Enquête Ofcom sur Telegram et contenus pédocriminels

Partager :

Enquête Ofcom sur Telegram et contenus pédocriminels L’Ofcom ouvre une enquête sur Telegram pour des contenus pédocriminels, tandis que Telegram affirme déployer des mesures de détection depuis 2018.

Le régulateur britannique des télécommunications, l’Ofcom, vient d’ouvrir une enquête Ofcom sur Telegram après des preuves montrant que des utilisateurs partagent des contenus pédocriminels sur la plateforme. Cette démarche s’appuie sur l’Online Safety Act 2023 et vise à vérifier que Telegram respecte les nouvelles obligations imposées aux services de messagerie en matière de contenus illicites.

Cadre et déroulement de l'enquête

Dans son communiqué, l’Ofcom précise s’appuyer sur la loi Online Safety Act 2023 pour évaluer la conformité de Telegram. Le régulateur a été prévenu par le Centre canadien de protection de l’enfance, une organisation caritative qui lutte contre le partage d’images d’abus sexuel sur Internet. « Nous avons décidé d’ouvrir une enquête afin de déterminer si Telegram a manqué, ou manque actuellement, à ses obligations en matière de contenus illicites », déclare l’Ofcom.

Telegram, de son côté, rejette catégoriquement les accusations et affirme avoir « virtuellement éliminé » la diffusion publique de ce type de contenus en utilisant des algorithmes de détection depuis 2018. Reuters rappelle que Telegram a récemment été condamné en Australie pour avoir tardé à répondre à des questions sur la mise en place de telles mesures.

« Nous sommes surpris par cette enquête et craignons qu’elle s’inscrive dans le cadre d’une offensive plus large contre les plateformes en ligne qui défendent la liberté d’expression et le droit à la vie privée », indique la plateforme.

L’association britannique Internet Watch Foundation rappelle aussi les inquiétudes autour d’un éventuel réseau d’acteurs malveillants opérant dans l’écosystème Telegram et souligne que les mesures actuelles ne suffisent pas à empêcher la diffusion d’images d’abus sexuels sur mineurs connues et détectées.

En parallèle, l’Ofcom a, en début d’année, lancé une enquête sur l’utilisation de technologies d’intelligence artificielle et de génération d’images (deepfakes) pour créer et partager des images sexualisées d’enfants, suite au scandale autour de Grok.

Ce que cela change pour Telegram et ses utilisateurs

Cette enquête illustre la pression croissante qui pèse sur les plateformes de messagerie pour renforcer le contrôle des contenus illicites sans nuire à la vie privée des utilisateurs.

  • Conformité et outils de détection : Telegram affirme déployer des algorithmes depuis 2018 pour bloquer ou supprimer des contenus sensibles, tout en continuant à négocier avec les régulateurs.
  • Risque de mesures renforcées : l’issue de l’enquête pourrait conduire à des obligations plus strictes, voire à des exigences de transparence accrues.
  • Confiance et pratiques de modération : les autorités veulent des résultats mesurables et durables pour freiner la diffusion d’images d’abus.

Contexte et limites de l’affaire

Le sujet ne se limite pas à la sécurité: il touche à la régulation de la vie privée et à la capacité des réseaux sociaux et des services de messagerie à gérer des contenus sensibles sans entraver l’expression des utilisateurs. L’issue dépendra des preuves accumulées, de la portée de la diffusion observée sur Telegram et des mécanismes de détection existants. Des questions subsistent quant à l’application de l’Online Safety Act 2023 à des plateformes décentralisées ou qui privilégient des communications privées.

Pour terminer

Reste à voir si Telegram sera jugé conforme et comment cette affaire influencera les pratiques de modération sur les messageries privées. Une chose est certaine : les régulateurs réclament des réponses concrètes et des résultats mesurables dans les mois qui viennent.

Score SEO
78/100