Le fait que l’intelligence artificielle soit utilisée pour créer de faux contenus oblige les sociétés informatiques à contrecarrer de telles pratiques. C'est pourquoi Microsoft et OpenAI, ainsi que plusieurs autres sociétés, ont créé un fonds pour lutter contre de telles activités, en le dotant d'un montant initial de 2 millions de dollars.
Les messages deepfakes sont particulièrement dangereux. Ils sont souvent utilisés pour des combats politiques. Et c’est grave, car cette année, des élections de différents types auront lieu dans des dizaines de pays à travers le monde. C’est une tentation pour les opposants politiques d’utiliser des outils qui leur permettent de créer du contenu deepfake. De nouveaux outils de deepfake sont désormais largement disponibles et permettent à quiconque de créer de fausses vidéos, photos ou enregistrements audio calomniant les politiciens.
En gardant à l’esprit ces tentatives d’utilisation de l’IA à des fins contraires à l’éthique, de nombreuses entreprises technologiques, dont Microsoft et OpenAI, se sont engagées à contrer ces menaces et ont préparé des plans pour construire un cadre commun pour lutter contre les deepfakes, qui se propagent pour induire les électeurs en erreur. . Les entreprises luttent contre cette pratique de diverses manières. Par exemple, Google n'autorise pas son chatbot Gemini à répondre aux questions sur les élections, tandis que Meta limite au minimum les réponses liées aux élections générées par son chatbot IA.
