Les dirigeants des grandes technologies exagèrent la menace existentielle que l’IA fait peser sur l’humanité afin de consolider leurs parts de marché grâce à la réglementation gouvernementale, a déclaré lundi une figure de proue de l’intelligence artificielle à une publication financière australienne.

« Il existe certainement de grandes entreprises technologiques qui préféreraient ne pas avoir à rivaliser avec l’open source, elles créent donc la peur de l’IA conduisant à l’extinction humaine », Andrew Ng, co-fondateur de Google Brain (maintenant DeepMind) et associé professeur à l’Université de Stanford, a déclaré à John Davidson, de l’Australian Financial Review.

« Cela a été une arme pour les lobbyistes pour plaider en faveur d’une législation qui serait très préjudiciable à la communauté open source », a-t-il ajouté.

Le PDG d’OpenAI, Sam Altman, s’est exprimé ouvertement sur la nécessité d’une réglementation gouvernementale de l’IA. En mai, Altman, avec Demis Hassabis, PDG de DeepMind, et Dario Amodei, PDG d’Anthropic, ont signé une déclaration du Center for AI Safety comparant les risques de l’IA pour l’humanité à ceux des guerres nucléaires et des pandémies.

« L’idée selon laquelle les systèmes d’IA deviendront incontrôlables et entraîneront l’extinction des humains est une intrigue convaincante dans les thrillers de science-fiction, mais dans le monde réel, la peur est plus une exagération qu’un scénario probable », a déclaré Aswin Prabhakar, analyste politique. pour le Center for Data Innovation, un groupe de réflexion étudiant l’intersection des données, de la technologie et des politiques publiques, à Washington, DC

Prabhakar a expliqué que le chemin vers la création de l’intelligence artificielle générale (AGI), une forme d’IA qui dépasse l’intellect humain dans tous les domaines, a encore un chemin long et incertain à parcourir.

« Même si AGI se réalisait, ce qui n’est en aucun cas certain, pour qu’elle constitue une menace existentielle, elle devrait devenir un voyou et se libérer du contrôle de ses créateurs humains, ce qui reste un scénario incroyablement spéculatif », a-t-il déclaré. TechNewsWorld.

Il a ajouté que le fait d’envisager une apocalypse induite par l’IA met injustement de côté les avantages immenses et concrets de la technologie. « Les gains de l’IA dans des domaines tels que les soins de santé, l’éducation et la productivité économique sont énormes et pourraient améliorer considérablement le niveau de vie mondial », a-t-il affirmé.

Poser des défis à l’IA open source

Ala Shaabana, co-fondateur de l’Opentensor Foundation, une organisation engagée dans le développement de technologies d’IA ouvertes et accessibles au public, a déclaré à propos des dirigeants des Big Tech AI : « Ils utilisent définitivement des tactiques alarmistes. Il y a bien d’autres choses qui devraient nous préoccuper davantage que le risque d’extinction de l’humanité. C’est un peu exagéré. Tout n’est que relations publiques.

« Créer une intelligence artificielle générale – une IA dotée d’une conscience capable de penser et d’agir par elle-même sans intervention humaine – est le Saint Graal de l’IA », a-t-il déclaré à TechNewsWorld. « Mais comment pouvons-nous développer quelque chose de conscient si nous ne comprenons pas nous-mêmes la conscience ?


La réglementation gouvernementale pourrait constituer une menace pour la communauté de l’IA open source, a noté Rob Enderle, président et analyste principal du groupe Enderle, une société de services-conseils basée à Bend, Oregon.

« Cela dépend de la manière dont les lois et réglementations sont rédigées », a-t-il déclaré à TechNewsWorld. « Mais les gouvernements font souvent plus de mal que de bien, en particulier dans des domaines encore mal compris. »

Prabhakar a ajouté que des règles gouvernementales trop larges sur l’IA pourraient poser des défis à la communauté open source.

« De telles réglementations, surtout si elles responsabilisent les développeurs de systèmes d’IA open source quant à la manière dont leurs outils sont utilisés, pourraient décourager les contributeurs », a-t-il déclaré. « Ils pourraient craindre des problèmes juridiques si leurs outils d’IA open source sont utilisés à mauvais escient, ce qui les rendrait moins susceptibles de partager librement leur travail. »

Étouffer l’Open Source avec la bureaucratie

Prabhakar a recommandé au gouvernement d’adopter une approche sur mesure en matière de surveillance de l’IA. « Reconnaître que les projets open source ont des incitations différentes de celles des projets commerciaux et créer des exceptions dans la réglementation pour les modèles open source pourrait être une solution », a-t-il expliqué.

« En ajustant les règles pour mieux les adapter à l’esprit open source, nous pouvons viser un scénario dans lequel la réglementation et l’innovation open source coexistent et prospèrent », a-t-il expliqué.

Shaabana a soutenu que le décret sur l’intelligence artificielle publié lundi par la Maison Blanche contenait des dispositions favorisant les grandes entreprises technologiques d’IA par rapport aux développeurs open source.

« Le décret est extrêmement manuel », a-t-il expliqué. « Si vous êtes une petite entreprise ou un petit chercheur, cela nécessite beaucoup de ressources. »

« Une exigence est que toute entreprise développant des modèles d’intelligence artificielle devra commencer à rendre compte de la formation de ce modèle et à le faire approuver par le gouvernement américain », a-t-il déclaré. « À moins que vous ne soyez un grand chercheur ou un Meta, OpenAI ou Google, vous n’allez pas surmonter ces formalités administratives. Ces entreprises auront leurs propres divisions pour s’en sortir.

La communauté open source ne sera pas la seule communauté qui pourrait être lésée par la réglementation gouvernementale de l’IA, a-t-il poursuivi.

« La communauté scientifique sera également affectée », a-t-il affirmé. « Au cours des deux dernières années, les chercheurs en changement climatique, en biologie, en astronomie et en linguistique ont utilisé l’IA open source pour mener leurs recherches. Si ces modèles open source n’étaient pas disponibles, cette recherche ne serait pas disponible actuellement.

Coûts cachés de la réglementation de l’IA

Même si les réglementations peuvent nuire aux petits acteurs de l’IA open source, elles peuvent profiter à l’establishment actuel de l’IA. « Une réglementation stricte sur l’IA crée d’importantes barrières à l’entrée, en particulier pour les entreprises émergentes qui ne disposent pas du capital ou de l’expertise nécessaire pour s’adapter aux nombreux mandats réglementaires », a expliqué Prabhakar.

« Les coûts initiaux associés au respect de réglementations strictes pourraient potentiellement étouffer l’émergence de startups innovantes, consolidant ainsi le marché autour d’acteurs bien établis », a-t-il poursuivi.

« Les grandes entreprises technologiques sont mieux placées pour se conformer et absorber les coûts associés à un cadre réglementaire rigoureux », a-t-il déclaré. « Contrairement à leurs homologues PME, elles disposent du capital, de l’expertise et de l’infrastructure nécessaires pour naviguer dans le labyrinthe réglementaire. Cette disparité crée un fossé autour des acteurs établis, les protégeant potentiellement du poids de la concurrence.


L’absence de fossé pour empêcher la concurrence de l’open source a fait l’objet d’une note attribuée à un chercheur de Google qui a fait sensation lors de sa fuite en ligne en mai. Dans ce document, le chercheur affirmait qu’« une troisième faction a tranquillement mangé notre déjeuner » : des modèles d’IA open source qui sont « plus rapides, plus personnalisables, plus privés et livre pour livre plus performants » que ceux de Google et d’OpenAI. .

Shaabana a salué le décret du président Biden pour son objectif d’intégrer l’IA dans le gouvernement, mais a ajouté : « Cela ressemble en grande partie à une tentative des grandes technologies de fermer la porte derrière elles. »

« Ils ont créé cette IA sophistiquée, et ils ne veulent vraiment aucune concurrence ou simplement une concurrence entre une poignée d’entreprises qui peuvent passer à travers le processus gouvernemental », a-t-il poursuivi.

« Ironiquement », a-t-il déclaré, « une grande partie des craintes du gouvernement concernant les préjugés, la transparence et l’anticoncurrence peuvent toutes être résolues grâce à l’IA open source et sans réglementation. »

« Que va-t-il se passer si nous laissons cela passer et si nous laissons ces entreprises tout contrôler ? Ils continueront à créer leur propre IA et à s’enrichir grâce à nos données », a-t-il prédit.

A lire également