La détection des matériaux générés par des algorithmes avancés d’IA devient de plus en plus difficile. Les matériaux deviennent de plus en plus parfaits et le nombre de méthodes permettant de les vérifier augmente. Mais les scientifiques viennent d’annoncer une nouvelle méthode très efficace !

Nous vivons à une époque de désinformation omniprésente. Le mettre en circulation et l’alimenter n’a jamais été aussi simple. Et si quelqu'un ne veut pas le croire sur parole, cela vaut la peine de le soutenir avec une image ou même une vidéo. Heureusement ou non, leur génération ne prend pas longtemps et est disponible du bout des doigts pour tout le monde. Vous n’avez plus besoin de connaissances secrètes, juste des bons outils. Il s’agit d’un gros problème autour duquel les discussions ne s’arrêtent pas. Prendre l’image de stars pour annoncer des services et des produits auxquels elles n’auraient jamais pensé est devenu un standard. Ainsi que les tentatives de créer une confusion politique.

À mesure que la qualité de ces matériaux s’améliore, leur reconnaissance devient un énorme défi. Des scientifiques de l’Université américaine de Hull se sont vantés d’une nouvelle méthode permettant de reconnaître les deepfakes. Surtout : cette fois, ce sera vraiment efficace.

Comment reconnaître une image manipulée ? Regarder les héros droit dans les yeux

Les représentants de l'université ont annoncé leur découverte lors de la réunion nationale d'astronomie de la Royal Astronomical Society à Hull. Ils montrent que toutes les images générées artificiellement à l’aide de l’intelligence artificielle peuvent être détectées en regardant de plus près… les yeux humains. Il est intéressant de noter que les scientifiques notent qu’il s’agit d’une méthode analogue à celle utilisée par les astronomes pour étudier les photos des galaxies. L'élément clé sur lequel se concentrer dans ce cas sont les reflets visibles dans les yeux du personnage, quant à la « réalité » de la photo sur laquelle nous doutons. Si cela a du sens, l’image est probablement celle d’une personne réelle. Sinon, il y a de fortes chances qu’il s’agisse d’un deepfake.

Les recherches menées par les scientifiques ont montré que cette technique fonctionne. Ils ont analysé les reflets de la lumière dans les yeux des deux modèles sur de vraies photos et des graphiques générés par l'IA. Plus tard, ils ont utilisé des méthodes utilisées en astronomie. De cette façon, ils pourraient quantifier les réflexions et, ce faisant, vérifier également la correspondance entre les yeux gauche et droit. Les fausses images montrent souvent un manque d’uniformité sur ce sujet. Pendant ce temps, sur les photographies, les reflets des deux yeux montrent généralement la même chose.

Pour mesurer la forme des galaxies, nous analysons si elles sont centralement compactes, si elles sont symétriques et à quel point elles sont lisses. Nous analysons la répartition de la lumière. Nous détectons les reflets de manière automatisée et vérifions leurs caractéristiques morphologiques à l'aide des indices CAS (Concentration, Asymétrie, Lisse) et Gini pour comparer la similarité entre les globes oculaires gauche et droit. Les résultats montrent que les deepfakes présentent certaines différences entre les deux, a déclaré le professeur Pimbblet.

Ce n'est pas encore parfait, mais un pas dans la bonne direction

La méthode développée par les scientifiques ne sera probablement pas encore efficace à 100 %. Malheureusement. Mais nous avons besoin de tous les outils qui nous permettront de le contrôler au moins un peu – et même s'ils ne sont pas parfaits, ils fonctionneront. Nous entendons régulièrement parler de nouveaux logiciels qui nous offrent la possibilité de créer de tels médias de manière toujours plus efficace. Cependant, on parle peu du revers de la médaille, c’est-à-dire des outils qui permettraient de les vérifier. Et à une époque où l'ancienne génération essaie encore de comprendre comment fonctionne Internet et est très sensible à de telles manipulations, et (ce qui est terrifiant) les jeunes qui tombent constamment dans le piège de toutes sortes d'arnaques, ils devraient être installés par défaut. sur tous les appareils. Et les principales plateformes devraient avoir des autocollants pour les contenus suspects comme « made with AI » qui sont récemment apparus sur Instagram.

Source

A lire également