Les personnes malveillantes modifient de plus en plus les images générées par l’intelligence artificielle pour véhiculer de faux messages. Pour lutter contre cela, OpenAI a développé un outil capable de détecter les modifications apportées aux images générées par son intelligence artificielle.

Nous parlons d'images créées par DALL-E 3. OpenAI a mis ces outils à la disposition du premier groupe de testeurs cette semaine. Les personnes intéressées à effectuer de tels tests devraient consulter ce site Web. Ils pourront alors évaluer l’efficacité de l’outil, vérifier ses performances dans le monde réel, mais aussi examiner les facteurs déterminant le contenu généré par l’intelligence artificielle.

OpenAI déclare que l'efficacité de l'outil dépend de la manière dont l'image a été modifiée. S'il s'agit de contrefaçons grossières, l'outil les détectera sans faute. C'est pire si la personne qui modifie l'image a de l'expérience dans ce type de manipulation. L’outil peut alors avoir du mal à détecter la fraude.

Les premiers tests ont montré que l'outil répond aux attentes. Ainsi, l'outil a pu confirmer dans 98 % des cas que les images qui lui sont présentées ont été créées par DALL-E 3. Le pourcentage d'images modifiées que l'outil a classées comme réelles était de 0,5 %. L’outil avait également du mal à déterminer si une image était originale ou modifiée lorsque le faussaire modifiait légèrement les nuances de couleurs. OpenAI espère résoudre ce type de problèmes en donnant aux testeurs externes un meilleur accès à l'outil.

L’avantage incontestable de l’outil est qu’il n’examine pas les filigranes. D'autres sociétés proposant des outils similaires utilisent des filigranes pour indiquer que l'image est générée par leur propre outil d'IA. Le problème est qu’ils peuvent être retirés assez facilement, ce qui les rend inutiles. Les images générées par l’IA sont particulièrement nuisibles en année électorale. Les partis hostiles peuvent facilement utiliser de telles images pour présenter des candidats politiques ou des questions politiques sous un jour négatif. Compte tenu des progrès constants des générateurs d’images IA, déterminer ce qui est réel et ce qui est faux devient de plus en plus difficile.

OpenAI a également annoncé avoir décidé de rejoindre la coalition C2PA (Coalition for Content Provenance and Authenticity). La norme de certification de contenu numérique qu'elle a développée a été acceptée par les fournisseurs de logiciels, les fabricants d'appareils photo et les plateformes en ligne.

A lire également