Certains initiés de la technologie veulent interrompre le développement continu des systèmes d’intelligence artificielle avant que les voies neurologiques de l’apprentissage automatique n’aillent à l’encontre des intentions d’utilisation de leurs créateurs humains. D’autres experts en informatique soutiennent que les faux pas sont inévitables et que le développement doit se poursuivre.

Plus de 1 000 techniciens et sommités de l’IA ont récemment signé une pétition demandant à l’industrie informatique de prendre un moratoire de six mois sur la formation de systèmes d’IA plus puissants que GPT-4. Les partisans veulent que les développeurs d’IA créent des normes de sécurité et atténuent les risques potentiels posés par les technologies d’IA les plus risquées.

L’Institut à but non lucratif Future of Life a organisé la pétition qui appelle à une cessation publique et vérifiable quasi immédiate par tous les développeurs clés. Sinon, les gouvernements devraient intervenir et instituer un moratoire. Depuis cette semaine, Future of Life Institute affirme avoir recueilli plus de 50 000 signatures qui passent par son processus de vérification.

La lettre n’est pas une tentative d’arrêter tout le développement de l’IA en général. Au contraire, ses partisans veulent que les développeurs se retirent d’une course dangereuse « vers des modèles de boîtes noires imprévisibles toujours plus grands avec des capacités émergentes ». Pendant cette période, les laboratoires d’IA et les experts indépendants devraient développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés de l’IA.

« La recherche et le développement de l’IA devraient être recentrés sur la fabrication des systèmes puissants et à la pointe de la technologie d’aujourd’hui plus précis, sûrs, interprétables, transparents, robustes, alignés, dignes de confiance et loyaux », indique la lettre.

Prise en charge non universelle

Il est peu probable que quiconque suspende quoi que ce soit, a suggéré John Bambenek, principal chasseur de menaces chez Netenrich, société SaaS d’analyse de la sécurité et des opérations. Pourtant, il constate une prise de conscience croissante que la prise en compte des implications éthiques des projets d’IA est loin derrière la vitesse de développement.

« Je pense qu’il est bon de réévaluer ce que nous faisons et les impacts profonds que cela aura, car nous avons déjà vu des échecs spectaculaires en ce qui concerne les déploiements irréfléchis d’IA/ML », a déclaré Bambenek à TechNewsWorld.

Tout ce que nous faisons pour arrêter les choses dans l’espace de l’IA n’est probablement que du bruit, a ajouté Andrew Barratt, vice-président de la société de services de conseil en cybersécurité Coalfire. Il est également impossible de le faire globalement de manière coordonnée.


« L’IA sera le catalyseur de la productivité des prochaines générations. Le danger sera de le voir remplacer les moteurs de recherche, puis d’être monétisé par des annonceurs qui placent « intelligemment » leurs produits dans les réponses. Ce qui est intéressant, c’est que le « pic » de la peur semble être déclenché depuis la récente attention accordée à ChatGPT », a déclaré Barratt à TechNewsWorld.

Plutôt que de faire une pause, Barratt recommande d’encourager les travailleurs du savoir du monde entier à examiner comment ils peuvent utiliser au mieux les divers outils d’IA qui deviennent de plus en plus conviviaux pour aider à assurer la productivité. Ceux qui ne le seront pas seront laissés pour compte.

Selon Dave Gerry, PDG de la société de cybersécurité participative Bugcrowd, la sécurité et la confidentialité devraient continuer d’être une préoccupation majeure pour toute entreprise technologique, qu’elle soit axée sur l’IA ou non. En ce qui concerne l’IA, il est essentiel de s’assurer que le modèle dispose des garanties, de la boucle de rétroaction et du mécanisme nécessaires pour mettre en évidence les problèmes de sécurité.

« Alors que les organisations adoptent rapidement l’IA pour tous les avantages de l’efficacité, de la productivité et de la démocratisation des données, il est important de s’assurer qu’au fur et à mesure que les problèmes sont identifiés, il existe un mécanisme de signalement pour les signaler, de la même manière qu’une vulnérabilité de sécurité serait identifiée. et rapporté », a déclaré Gerry à TechNewsWorld.

Souligner les préoccupations légitimes

Dans ce qui pourrait être une réponse de plus en plus typique au besoin de réglementer l’IA, l’expert en apprentissage automatique Anthony Figueroa, co-fondateur et CTO de la société de développement de logiciels axés sur les résultats Rootstrap, soutient la réglementation de l’intelligence artificielle mais doute qu’une pause dans son développement conduira à tout changement significatif.

Figueroa utilise le big data et l’apprentissage automatique pour aider les entreprises à créer des solutions innovantes pour monétiser leurs services. Mais il est sceptique quant au fait que les régulateurs agiront à la bonne vitesse et comprendront les implications de ce qu’ils devraient réglementer. Il voit le défi comme similaire à ceux posés par les médias sociaux il y a deux décennies.


« Je pense que la lettre qu’ils ont écrite est importante. Nous sommes à un tournant et nous devons commencer à réfléchir aux progrès que nous n’avions pas auparavant. Je ne pense tout simplement pas qu’il soit possible de suspendre quoi que ce soit pendant six mois, un an, deux ans ou une décennie », a déclaré Figueroa à TechNewsWorld.

Soudain, tout ce qui est alimenté par l’IA est la prochaine grande nouveauté universelle. Le succès littéral du jour au lendemain du produit ChatGPT d’OpenAI a soudainement incité le monde à s’asseoir et à remarquer l’immense puissance et le potentiel des technologies d’IA et de ML.

« Nous ne connaissons pas encore les implications de cette technologie. Quels sont les dangers de cela? Nous savons quelques choses qui peuvent mal tourner avec cette épée à double tranchant », a-t-il averti.

L’IA a-t-elle besoin d’une réglementation ?

TechNewsWorld a discuté avec Anthony Figueroa des problèmes liés à la nécessité pour les développeurs de contrôler l’apprentissage automatique et du besoin potentiel d’une réglementation gouvernementale de l’intelligence artificielle.

TechNewsWorld : Au sein de l’industrie informatique, quelles sont les directives et l’éthique pour rester sur la bonne voie en toute sécurité ?

Antoine Figueroa : Vous avez besoin de votre propre ensemble d’éthique personnelle dans votre tête. Mais même avec cela, vous pouvez avoir beaucoup de conséquences indésirables. Ce que nous faisons avec cette nouvelle technologie, ChatGPT, par exemple, expose l’IA à une grande quantité de données.

Ces données proviennent de sources publiques et privées et de différentes choses. Nous utilisons une technique appelée apprentissage en profondeur, qui repose sur l’étude du fonctionnement de notre cerveau.

Quel impact cela a-t-il sur l’utilisation de l’éthique et des lignes directrices ?

Figueroa : Parfois, nous ne comprenons même pas comment l’IA résout un problème d’une certaine manière. Nous ne comprenons pas le processus de réflexion au sein de l’écosystème de l’IA. Ajoutez à cela un concept appelé explicabilité. Vous devez être en mesure de déterminer comment une décision a été prise. Mais avec l’IA, ce n’est pas toujours explicable, et cela a des résultats différents.

En quoi ces facteurs sont-ils différents avec l’IA ?

Figueroa : L’IA explicable est un peu moins puissante parce que vous avez plus de restrictions, mais encore une fois, vous avez la question de l’éthique.

Par exemple, considérez les médecins traitant un cas de cancer. Ils ont plusieurs traitements disponibles. L’un des trois médicaments est totalement explicable et donnera au patient 60% de chances de guérison. Ensuite, ils ont un traitement inexplicable qui, basé sur des données historiques, aura une probabilité de guérison de 80 %, mais ils ne savent pas vraiment pourquoi.

Cette combinaison de médicaments, associée à l’ADN du patient et à d’autres facteurs, affecte le résultat. Que doit donc prendre le patient ? Vous savez, c’est une décision difficile.

Comment définissez-vous « l’intelligence » en termes de développement de l’IA ?

Figueroa : L’intelligence que nous pouvons définir comme la capacité à résoudre des problèmes. Les ordinateurs résolvent les problèmes d’une manière totalement différente des gens. Nous les résolvons en combinant conscience et intelligence, ce qui nous donne la capacité de ressentir les choses et de résoudre les problèmes ensemble.

L’IA va résoudre les problèmes en se concentrant sur les résultats. Un exemple typique est celui des voitures autonomes. Et si tous les résultats étaient mauvais ?


Une voiture autonome choisira le moins mauvais de tous les résultats possibles. Si l’IA doit choisir une manœuvre de navigation qui tuera le « passager-conducteur » ou tuera deux personnes sur la route qui a traversé avec un feu rouge, vous pouvez faire le cas dans les deux sens.

Vous pouvez raisonner que les piétons ont fait une erreur. Alors l’IA portera un jugement moral et dira tuons les piétons. Ou l’IA peut dire essayons de tuer le moins de personnes possible. Il n’y a pas de bonne réponse.

Qu’en est-il des problèmes de réglementation?

Figueroa : Je pense que l’IA doit être réglementée. Il est possible d’arrêter le développement ou l’innovation jusqu’à ce que nous ayons une évaluation claire de la réglementation. Nous n’allons pas avoir cela. Nous ne savons pas exactement ce que nous réglementons ni comment appliquer la réglementation. Nous devons donc créer une nouvelle façon de réglementer.

L’une des choses que les développeurs d’OpenAI font bien est de construire leur technologie à la vue de tous. Les développeurs pourraient travailler sur leur technologie pendant deux ans de plus et proposer une technologie beaucoup plus sophistiquée. Mais ils ont décidé d’exposer la percée actuelle au monde, afin que les gens puissent commencer à réfléchir à la réglementation et au type de réglementation qui peut s’y appliquer.

Comment démarrez-vous le processus d’évaluation ?

Figueroa : Tout commence par deux questions. Premièrement, qu’est-ce que la réglementation? C’est une directive faite et maintenue par une autorité. Ensuite, la deuxième question est de savoir qui est l’autorité – une entité ayant le pouvoir de donner des ordres, de prendre des décisions et de faire appliquer ces décisions ?

Liée à ces deux premières questions, il y en a une troisième : qui ou quels sont les candidats ? Nous pouvons avoir un gouvernement localisé dans un pays ou des entités nationales distinctes comme l’ONU qui pourraient être impuissantes dans ces situations.

Lorsqu’il existe une autoréglementation de l’industrie, vous pouvez faire valoir que c’est la meilleure voie à suivre. Mais vous aurez beaucoup de mauvais acteurs. Vous pourriez avoir des organisations professionnelles, mais ensuite vous entrez dans plus de bureaucratie. En attendant, l’IA évolue à une vitesse étonnante.

Quelle est selon vous la meilleure approche ?

Figueroa : Il doit s’agir d’une combinaison du gouvernement, de l’industrie, d’organisations professionnelles et peut-être d’ONG travaillant ensemble. Mais je ne suis pas très optimiste, et je ne pense pas qu’ils trouveront une solution assez bonne pour ce qui s’en vient.

Existe-t-il un moyen de traiter l’IA et le ML pour mettre en place des mesures de sécurité provisoires si l’entité outrepasse les directives ?

Figueroa : Vous pouvez toujours le faire. Mais l’un des défis est de ne pas pouvoir prédire tous les résultats potentiels de ces technologies.

À l’heure actuelle, nous avons tous les grands noms de l’industrie – OpenAI, Microsoft, Google – qui travaillent sur une technologie plus fondamentale. En outre, de nombreuses entreprises d’IA travaillent avec un autre niveau d’abstraction, en utilisant la technologie en cours de création. Mais ce sont les entités les plus anciennes.


Vous avez donc un cerveau génétique pour faire ce que vous voulez. Si vous avez l’éthique et les procédures appropriées, vous pouvez réduire les effets indésirables, augmenter la sécurité et réduire les préjugés. Mais vous ne pouvez pas éliminer cela du tout. Nous devons vivre avec cela et créer une certaine reddition de comptes et des règlements. Si un résultat indésirable se produit, nous devons savoir clairement à qui incombe la responsabilité. Je pense que c’est la clé.

Que faut-il faire maintenant pour tracer la voie d’une utilisation sûre de l’IA et du ML ?

Figueroa : Le premier est un sous-texte que nous ne savons pas tout et acceptons que des conséquences négatives vont se produire. À long terme, l’objectif est que les résultats positifs l’emportent largement sur les négatifs.

Considérez que la révolution de l’IA est imprévisible mais inévitable en ce moment. Vous pouvez faire valoir que des réglementations peuvent être mises en place, et il pourrait être bon de ralentir le rythme et de veiller à ce que nous soyons aussi sûrs que possible. Acceptez que nous allons subir des conséquences négatives avec l’espoir que les effets à long terme sont bien meilleurs et nous donneront une bien meilleure société.

A lire également