Les technologies d’intelligence artificielle sont appliquées par des enquêteurs capables d’identifier et d’arrêter les crimes sur Internet contre les enfants (ICAC), selon un fabricant d’outils d’IA pour les forces de l’ordre, les agences gouvernementales et les entreprises.

Voyager Labs, dans un blog publié mardi, a expliqué que de nombreux groupes de travail de l’ICAC utilisent des outils tels que les « recherches par sujet » pour trouver du matériel en ligne lié aux crimes contre les enfants.

Ces systèmes peuvent trouver des comptes échangeant du matériel d’abus sexuel d’enfants, identifier et localiser les délinquants utilisant ces comptes, identifier les victimes potentielles et compiler des données cruciales pour aider les forces de l’ordre à ouvrir un dossier contre les criminels, a noté Voyager.

Il a ajouté que ce processus est souvent remarquablement rapide, renvoyant parfois des résultats utilisables en quelques secondes.

Un autre outil utilisé par les enquêteurs cités par Voyager est le « lexique des requêtes thématiques ». C’est comme un dictionnaire de traduction ou un livre de codes. Les enquêteurs criminels peuvent apporter leur connaissance des communications criminelles – argot, terminologie et emojis – au lexique, que les logiciels d’IA peuvent utiliser pour trouver des références à des activités criminelles en ligne.

Le directeur des enquêtes nationales de Voyager, Jason Webb, qui a contribué au blog, a expliqué que le lexique agit comme une base de données partagée, permettant à différents types de spécialistes d’appliquer les connaissances des uns et des autres à leurs recherches.

Nous savons ou vous habitez

L’intelligence artificielle est également utile pour effectuer des analyses de réseau. S’il y a des pages où du matériel d’exploitation sexuelle d’enfants a été échangé, a noté Voyager, l’IA peut voir qui interagit avec ces pages pour effectuer une analyse de réseau, identifiant si plusieurs délinquants sont impliqués dans les réseaux de l’ICAC.

Il est courant que des gangs dirigent les activités de l’ICAC et la traite des êtres humains, de sorte que ces enquêtes ont le potentiel de découvrir des entreprises criminelles d’organisations complexes qui travaillent dans une gamme d’activités illégales, a-t-il expliqué.


Voyager a ajouté que certains systèmes peuvent révéler l’emplacement géographique de l’activité criminelle. Le partage des données géographiques peut être l’un des facteurs les plus importants dans la réduction de l’ICAC, a affirmé Voyager, car il permet aux agences qui disposent de cette nouvelle technologie de partager leurs recherches avec des départements plus petits qui peuvent ne pas avoir les mêmes ressources.

En plus d’identifier les activités criminelles, Voyager a noté que l’analyse du réseau peut être utilisée pour indiquer les victimes potentielles. Une fois que les forces de l’ordre et les familles sont alertées que des criminels ont tenté de contacter un enfant, a expliqué Voyager, des mesures immédiates peuvent être prises pour soustraire l’enfant à un danger potentiel.

Voyager affirme que dans de nombreux cas, tout ce type de recherche sur l’IA peut être accompli uniquement grâce à des renseignements de source ouverte, qui sont accessibles au public sans mandat ni autorisation spéciale. Cependant, dans le passé, l’entreprise s’est retrouvée dans l’eau chaude à propos de ses pratiques de collecte de données.

En janvier 2023, Meta a intenté une action en justice contre Voyager Labs devant un tribunal fédéral américain en Californie, alléguant que la société avait indûment extrait des données des plates-formes et profils Facebook et Instagram.

Meta affirme que Voyager a créé plus de 38 000 faux comptes et les a utilisés pour récupérer les « informations de profil visibles » de 600 000 utilisateurs de Facebook. Voyager aurait commercialisé ses outils de grattage à des entreprises intéressées à effectuer une surveillance sur les sites de médias sociaux sans être détectée, puis aurait vendu les informations au plus offrant.

Voyager soutient que le procès est sans fondement, révèle une incompréhension fondamentale du fonctionnement des produits logiciels en cause et, plus important encore, est préjudiciable à la sécurité publique américaine et mondiale.

Filtrer les photos nues

L’intelligence artificielle peut également identifier le matériel d’abus sexuel d’enfants grâce à des services tels que Photo DNA de Microsoft et l’API Hash Matching de Google. Ces services utilisent une bibliothèque de contenus connus d’abus sexuels sur des enfants pour identifier ce contenu lorsqu’il est diffusé ou stocké en ligne.

« Cependant, cela ne résout que le problème du contenu connu ou des correspondances floues, et bien que certaines entreprises construisent des modèles pour capturer de nouveaux contenus pédopornographiques, il existe des réglementations importantes quant à qui peut accéder à ces ensembles de données », a déclaré Joshua Buxbaum, co- fondateur et directeur de la croissance de WebPurify, un service de filtrage Web et de protection des enfants en ligne basé sur le cloud, à Irvine, en Californie.

« Comme pour tous les modèles d’IA, rien n’est en aucun cas parfait, et des humains sont nécessaires dans la boucle pour vérifier le contenu, ce qui n’est pas idéal du point de vue de la santé mentale », a-t-il déclaré à TechNewsWorld.


Il existe également des applications de contrôle parental autonomes, comme Canopy, qui peuvent filtrer les images entrantes et sortantes contenant de la nudité. « Il alerte les parents s’il semble que leurs enfants envoient des sextos », a déclaré le CMO de Canopy, Yaron Litwin.

« Cela peut empêcher ces images de tomber entre de mauvaises mains et donne aux parents une chance d’éduquer leurs enfants sur les dangers de ce qu’ils font avant qu’il ne soit trop tard », a-t-il déclaré à TechNewsWorld.

« Les plateformes sociales permettent aux prédateurs d’envoyer des photos tout en demandant des photos au mineur », a déclaré Chris Hauk, champion de la confidentialité des consommateurs chez Pixel Privacy, un éditeur de guides de sécurité et de confidentialité des consommateurs, à TechNewsWorld. « Cela permet aux prédateurs d’extorquer de l’argent ou d’autres types de photos tout en menaçant de dire aux parents si l’enfant ne se conforme pas. »

Litwan a ajouté que la « sextorsion » – utiliser des images nues d’enfants pour leur extorquer plus d’images ou d’argent – a augmenté de 322% d’une année sur l’autre en février.

« Certains cas de sextorsion ont conduit les victimes à se suicider », a-t-il déclaré.

L’éducation numérique est vitale pour la protection de l’enfance

Le matériel d’exploitation sexuelle d’enfants continue également d’être un problème dans les médias sociaux.

« Notre analyse montre que les suppressions de comptes de réseaux sociaux liées à la maltraitance et à la sécurité des enfants augmentent régulièrement sur la plupart des plates-formes », a déclaré Paul Bischoff, défenseur de la confidentialité chez Comparitech, un site Web de critiques, de conseils et d’informations sur les produits de sécurité grand public, à TechNewsWorld.

Il a cité un rapport publié par Comparitech qui a révélé qu’au cours des neuf premiers mois de 2022, les suppressions de contenu pour exploitation d’enfants ont presque égalé toutes les suppressions pour 2021. Des scénarios similaires pour Instagram, TikTok, Snapchat et Discord pourraient être trouvés.

« Il s’agit d’un problème très grave qui ne fait qu’empirer avec le temps », a déclaré Litwan. « Les parents d’aujourd’hui n’ont pas grandi dans le même monde numérique que leurs enfants et ne sont pas toujours conscients de l’éventail des menaces auxquelles leurs enfants sont confrontés au quotidien. »


Isabelle Vladoiu, fondatrice de l’US Institute of Diplomacy and Human Rights, un groupe de réflexion à but non lucratif à Washington, DC, a affirmé que la chose la plus importante qui puisse être faite pour assurer la sécurité des enfants en ligne est de les éduquer.

« En proposant des programmes complets d’alphabétisation numérique, tels que la formation à la citoyenneté numérique, la sensibilisation aux risques en ligne et l’apprentissage des enfants à reconnaître les drapeaux rouges, nous leur donnons les moyens de prendre des décisions éclairées et de se protéger de l’exploitation », a-t-elle déclaré à TechNewsWorld.

« Des exemples concrets ont montré que lorsque les enfants sont sensibilisés aux risques de traite et à la sécurité en ligne, ils deviennent plus aptes à s’opposer à la torture et à l’exploitation », a-t-elle poursuivi, « favorisant un environnement en ligne plus sûr pour tous ».

A lire également