Comme toute technologie, l’IA sert à la fois des objectifs bons et mauvais. En témoignent les rapports selon lesquels un certain nombre de pays utilisent l’intelligence artificielle pour créer et diffuser de la désinformation, ce qui devient de plus en plus difficile à combattre.

L'outil d'IA le plus célèbre, ChatGPT, joue un rôle peu glorieux dans la diffusion de l'information. Les créateurs de fausses nouvelles utilisent les programmes ChatGPT pour générer des textes et des images, ainsi que pour générer des commentaires ou des réponses à leurs propres publications. La politique d'OpenAI interdit d'utiliser ses modèles pour tromper ou induire quiconque en erreur, mais les créateurs de fausses nouvelles ignorent ces avertissements.

OpenAI a publié un rapport traitant de ce problème. Il affirme que ses outils d'IA sont utilisés pour diffuser de la désinformation sur des questions telles que l'invasion de l'Ukraine par la Russie, le conflit à Gaza et les élections. Les plateformes de réseaux sociaux tentent de se défendre de diverses manières contre de telles pratiques, mais il s’agit d’une véritable lutte contre les moulins à vent. Une pression croissante s’exerce sur les sociétés d’intelligence artificielle en croissance rapide pour qu’elles contrecarrent efficacement de telles pratiques. Le fait est que les progrès rapides de la technologie de l’IA signifient qu’il est moins cher et plus facile que jamais pour les auteurs de désinformation de créer de faux messages réalistes et de manipuler les médias, puis de diffuser ce contenu de manière entièrement automatisée.

OpenAI a commencé à créer ses propres outils basés sur l'intelligence artificielle capables de détecter automatiquement divers types de désinformation. De tels outils peuvent, par exemple, vérifier si le bot ChatGPT n'est pas utilisé pour diffuser de la désinformation. Si l'outil détecte un tel cas, il refuse de générer le texte ou les images demandées. OpenAI a récemment révélé que ses outils étaient utilisés par plusieurs groupes bien connus associés à certains gouvernements spécialisés dans la diffusion de désinformation. Il cite comme exemple le groupe Bad Grammar soutenu par le Kremlin, affirmant qu'il a utilisé des modèles OpenAI pour déboguer du code permettant la construction de robots qui créent de courts commentaires politiques dans diverses langues contenant du contenu faux ou de propagande.

A lire également