OpenAI CTO Mira Murati a alimenté la controverse sur la surveillance gouvernementale de l’intelligence artificielle dimanche lorsqu’elle a admis dans une interview avec le magazine Time que la technologie devait être réglementée.

« Il est important pour OpenAI et des entreprises comme la nôtre de porter cela dans la conscience publique d’une manière contrôlée et responsable », a déclaré Murati à Time. « Mais nous sommes un petit groupe de personnes, et nous avons besoin d’une tonne de plus d’informations dans ce système et de beaucoup plus d’informations qui vont au-delà des technologies – certainement des régulateurs et des gouvernements et de tous les autres. »

Lorsqu’on lui a demandé si l’implication du gouvernement à ce stade du développement de l’IA pourrait entraver l’innovation, elle a répondu : « Il n’est pas trop tôt. Il est très important que tout le monde commence à s’impliquer, étant donné l’impact que ces technologies vont avoir.

Étant donné que le marché incite aux abus, une certaine réglementation est probablement nécessaire, a convenu Greg Sterling, cofondateur de Near Media, un site Web d’actualités, de commentaires et d’analyse.

« Des mesures de dissuasion réfléchies contre les comportements contraires à l’éthique peuvent minimiser les abus potentiels de l’IA », a déclaré Sterling à TechNewsWorld, « mais la réglementation peut également être mal construite et ne rien arrêter. »

Il a reconnu qu’une réglementation trop précoce ou trop lourde pourrait nuire à l’innovation et limiter les avantages de l’IA.

« Les gouvernements devraient réunir des experts en IA et des leaders de l’industrie pour établir conjointement un cadre pour une éventuelle réglementation future. Il devrait également avoir une portée internationale », a déclaré Sterling.

Considérez les lois existantes

L’intelligence artificielle, comme de nombreuses technologies et outils, peut être utilisée à des fins très diverses, a expliqué Jennifer Huddleston, chargée de recherche sur les politiques technologiques au Cato Institute, un groupe de réflexion de Washington, DC.

Bon nombre de ces utilisations sont positives et les consommateurs rencontrent déjà des utilisations bénéfiques de l’IA, telles que la traduction en temps réel et une meilleure navigation dans le trafic, a-t-elle poursuivi. « Avant d’appeler à de nouvelles réglementations, les décideurs politiques devraient examiner comment les lois existantes sur des problèmes, tels que la discrimination, peuvent déjà répondre aux préoccupations », a déclaré Huddleston à TechNewsWorld.


L’intelligence artificielle devrait être réglementée, mais la manière dont elle est déjà réglementée doit également être prise en compte, a ajouté Mason Kortz, instructeur clinique à la Cyberlaw Clinic de la Harvard University Law School à Cambridge, Mass.

« Nous avons beaucoup de réglementations générales qui rendent les choses légales ou illégales, qu’elles soient faites par un humain ou une IA », a déclaré Kortz à TechNewsWorld.

« Nous devons examiner les façons dont les lois existantes suffisent déjà à réglementer l’IA, et quelles sont les façons dont elles ne le font pas et doivent faire quelque chose de nouveau et être créatifs », a-t-il déclaré.

Par exemple, il a noté qu’il n’y a pas de réglementation générale sur la responsabilité des véhicules autonomes. Cependant, si un véhicule autonome provoque un accident, il reste encore de nombreux domaines du droit sur lesquels s’appuyer, tels que le droit de la négligence et le droit de la responsabilité du fait des produits. Ce sont des moyens potentiels de réglementer cette utilisation de l’IA, a-t-il expliqué.

Toucher léger nécessaire

Kortz a cependant admis que de nombreuses règles existantes entrent en jeu après coup. « Donc, d’une certaine manière, ils sont une sorte de deuxième meilleur », a-t-il déclaré. « Mais il s’agit d’une mesure importante à mettre en place pendant que nous élaborons des réglementations. »

« Nous devrions essayer d’être proactifs dans la réglementation là où nous le pouvons », a-t-il ajouté. « Le recours par le biais du système judiciaire se produit après qu’un préjudice s’est produit. Ce serait mieux si le mal ne se produisait jamais.

Cependant, Mark N. Vena, président et analyste principal chez SmartTech Research à San Jose, en Californie, affirme qu’une réglementation stricte pourrait réprimer l’industrie naissante de l’IA.

« À ce stade précoce, je ne suis pas un grand fan de la réglementation gouvernementale de l’IA », a déclaré Vena à TechNewsWorld. « L’IA peut avoir de nombreux avantages, et l’intervention du gouvernement pourrait finir par les étouffer. »


Ce type d’effet étouffant sur Internet a été évité dans les années 1990, a-t-il soutenu, grâce à une réglementation «légère» comme l’article 230 de la Communications Decency Act, qui accordait aux plateformes en ligne l’immunité de responsabilité pour le contenu de tiers apparaissant sur leurs sites Web.

Kortz croit, cependant, que le gouvernement peut freiner raisonnablement quelque chose sans fermer une industrie.

« Les gens critiquent la FDA, qu’elle est sujette à la capture réglementaire, qu’elle est dirigée par des sociétés pharmaceutiques, mais nous sommes toujours dans un monde meilleur qu’avant la FDA où n’importe qui pouvait vendre n’importe quoi et mettre n’importe quoi sur une étiquette », a-t-il déclaré. .

« Existe-t-il une bonne solution qui capture uniquement les bons aspects de l’IA et arrête tous les mauvais ? Probablement pas », a poursuivi Vena, « mais une certaine structure vaut mieux que pas de structure. »

« Laisser la bonne et la mauvaise IA s’affronter ne sera bon pour personne », a-t-il ajouté. « Nous ne pouvons pas garantir que les bonnes IA gagneront ce combat, et les dommages collatéraux pourraient être assez importants. »

Régulation sans étranglement

Il y a certaines choses que les décideurs peuvent faire pour réglementer l’IA sans entraver l’innovation, a observé Daniel Castro, vice-président de l’Information Technology & Innovation Foundation, une organisation de recherche et de politique publique, à Washington, DC

« L’une consiste à se concentrer sur des cas d’utilisation spécifiques », a déclaré Castro à TechNewsWorld. « Par exemple, la réglementation des voitures autonomes devrait être différente de la réglementation de l’IA utilisée pour générer de la musique. »

« Une autre consiste à se concentrer sur les comportements », a-t-il poursuivi. « Par exemple, il est illégal de discriminer lors de l’embauche d’employés ou de la location d’appartements – que ce soit un humain ou un système d’IA qui prenne la décision ne devrait pas être pertinent. »

« Mais les décideurs doivent veiller à ne pas imposer injustement à l’IA une norme différente ou à mettre en place des réglementations qui n’ont pas de sens pour l’IA », a-t-il ajouté. « Par exemple, certaines des exigences de sécurité dans les véhicules d’aujourd’hui, comme les volants et les rétroviseurs, n’ont pas de sens pour les véhicules autonomes sans passagers ni conducteurs. »


Vena aimerait voir une approche « transparente » de la réglementation.

« Je préférerais une réglementation exigeant que les développeurs d’IA et les producteurs de contenu soient entièrement transparents sur les algorithmes qu’ils utilisent », a-t-il déclaré. « Ils pourraient être examinés par une entité tierce composée d’universitaires et de certaines entités commerciales. »

« Être transparent autour des algorithmes et des sources de contenu dont les outils d’IA sont dérivés devrait encourager l’équilibre et atténuer les abus », a-t-il affirmé.

Planifier les pires scénarios

Kortz a noté que de nombreuses personnes pensent que la technologie est neutre.

« Je ne pense pas que la technologie soit neutre », a-t-il déclaré. « Nous devons penser aux mauvais acteurs. Mais nous devons aussi penser aux mauvaises décisions des personnes qui créent ces choses et les diffusent dans le monde.

« J’encourage toute personne développant l’IA pour un cas d’utilisation particulier à réfléchir non seulement à son utilisation prévue, mais également à la pire utilisation possible de sa technologie », a-t-il conclu.

A lire également