Premièrement, les grandes entreprises d’IA ont démontré à quel point elles peuvent utiliser de manière irresponsable et impitoyable les algorithmes d’apprentissage automatique pour générer des bénéfices financiers pour les membres du conseil d’administration et les actionnaires. Aujourd’hui, ces mêmes entreprises demandent à l’ensemble du monde technologique de croire qu’elles agiront de manière responsable lorsqu’elles finiront par créer des modèles d’IA vraiment dangereux.


Certaines des entreprises les plus importantes travaillant avec des algorithmes et des services d'IA ont signé un nouvel accord volontaire visant à promouvoir la sécurité de l'IA, en rendant leurs opérations plus transparentes et plus fiables. L'accord, introduit avant le récent sommet sur l'IA à Séoul, ne prévoit pas de contrôles exécutoires sur les services d'IA dangereux, mais semble être suffisamment satisfaisant pour satisfaire les gouvernements britannique et sud-coréen.

Accord sur l'IA

Le nouvel accord couvre des géants de la technologie et de l'IA tels que Microsoft, OpenAI, xAI (Elon Musk et son entreprise Grok), Google, Amazon, Meta et la société chinoise Zhipu AI. Tous les partis présenteront et publieront leurs projets de classification des risques liés à l’IA et sembleront prêts à s’abstenir de développer des modèles qui pourraient avoir de graves conséquences sur la société.

L'accord s'appuie sur des engagements antérieurs en matière de sécurité de l'IA, approuvés par des organisations internationales et 28 pays lors du Sommet sur la sécurité de l'IA organisé par le Royaume-Uni en novembre 2023. Ces engagements, connus sous le nom de Déclaration de Bletchley, appelaient à une coopération internationale dans la gestion des risques liés à l'IA et à la réglementation potentielle de l'IA. systèmes d’IA les plus puissants (Frontier AI).

Selon le Premier ministre britannique Rishi Sunak, les nouveaux engagements devraient rassurer le monde sur le fait que les grandes entreprises d'IA « garantiront la transparence et la responsabilité » dans leurs projets visant à créer des algorithmes d'IA sécurisés. Sunak a déclaré que l'accord pourrait servir de nouvelle norme mondiale pour la sécurité de l'IA, ouvrant la voie à la récolte des avantages de cette puissante « technologie transformatrice ».

Les entreprises d’IA devraient désormais établir des seuils au-delà desquels les systèmes Frontier AI peuvent présenter un risque à moins que des contre-mesures appropriées ne soient mises en œuvre, et décrire comment ces contre-mesures seront mises en œuvre. Les accords mettent l'accent sur la coopération et la transparence. Selon des responsables britanniques, la Déclaration de Bletchley, qui appelle à une coopération internationale dans la gestion des risques liés à l’IA, a donné de bons résultats jusqu’à présent et les nouveaux engagements continueront de porter leurs fruits.

Pour que l'IA ne devienne pas incontrôlable

Les entreprises chargées de protéger le monde contre les risques liés à l’IA sont les mêmes qui ont prouvé à maintes reprises qu’il ne fallait pas leur faire confiance. Par exemple, OpenAI, soutenu par Microsoft, a demandé à l’actrice Scarlett Johansson la permission d’utiliser sa voix pour son dernier robot ChatGPT, puis a quand même utilisé sa voix lorsqu’elle a refusé.

Les chercheurs ont également montré que les chatbots sont des machines extrêmement puissantes pour propager des logiciels malveillants, même sans les modèles « Frontier AI ».

A lire également