De nombreux leaders technologiques s’accordent à dire que si l’IA pourrait être extrêmement bénéfique pour les humains, elle pourrait également être utilisée à mauvais escient ou, par négligence, causer des dommages irréversibles à l’humanité. Mais il serait insensé de demander aux gouvernements de résoudre ce problème sans conseils, étant donné que les politiciens ne comprennent souvent même pas la technologie qu’ils utilisent depuis des années, sans parler de quelque chose qui vient d’arriver sur le marché.
Par conséquent, lorsque les gouvernements agissent pour atténuer un problème, ils peuvent faire plus de mal que de bien. Par exemple, il était juste de pénaliser l’ancienne Shell Oil Company pour ses abus, mais le démantèlement de l’entreprise a déplacé le contrôle du pétrole des États-Unis vers des parties du monde qui ne sont pas si amicales avec les États-Unis. Un autre exemple a été de corriger la domination de RCA. de l’électronique grand public, qui a déplacé le marché des États-Unis vers le Japon.
Les États-Unis ont conservé leur leadership technologique par la peau de leurs dents, mais il ne fait aucun doute dans mon esprit que si le gouvernement agit sans conseils pour réglementer l’IA, il déplacerait simplement l’opportunité vers la Chine. C’est pourquoi le récent rapport de Microsoft intitulé « Governing AI: A Blueprint for the Future » est si important.
Le rapport de Microsoft définit le problème, décrit une voie raisonnable qui ne réduira pas la compétitivité des États-Unis et répond aux préoccupations concernant l’IA.
Parlons du plan de Microsoft pour la gouvernance de l’IA, et nous terminerons avec mon produit de la semaine, une nouvelle gamme de trackers qui peut aider à garder une trace des choses que nous avons souvent du mal à localiser.
Exemple d’EEOC
Il est insensé de demander une réglementation sans contexte. Lorsque les gouvernements réagissent tactiquement à quelque chose qu’ils connaissent peu, cela peut faire plus de mal que de bien. J’ai commencé par quelques exemples antitrust, mais peut-être que l’exemple le plus laid était la Commission pour l’égalité des chances en matière d’emploi (EEOC).
Le Congrès a créé l’EEOC en 1964 pour s’attaquer rapidement au problème très réel de la discrimination raciale dans l’emploi. Il y avait deux causes fondamentales à la discrimination au travail. La plus évidente était la discrimination raciale sur le lieu de travail, que l’EEOC pouvait traiter et a effectivement abordée. Mais un problème encore plus important existait en matière de discrimination dans l’éducation, que l’EEOC n’a pas abordé.
Lorsque les entreprises embauchaient sur qualification et utilisaient l’une des méthodologies que l’industrie avait développées à l’époque pour récompenser les employés avec des postes scientifiquement, des augmentations et des promotions basées sur l’éducation et la réussite, on vous a demandé d’interrompre ces programmes pour améliorer la diversité de votre entreprise qui trop souvent mettre les minorités inexpérimentées dans les emplois.
En plaçant des minorités inexpérimentées dans des emplois pour lesquels elles n’étaient pas bien formées, le système les mena à l’échec, ce qui ne fit que renforcer la conviction que les minorités étaient en quelque sorte inadéquates alors qu’en fait, pour commencer, elles n’avaient pas les mêmes chances en matière d’éducation et de mentorat. Cet état de fait n’était pas seulement vrai pour les personnes de couleur mais aussi pour les femmes, quelle que soit leur couleur.
Nous pouvons maintenant regarder en arrière et voir que l’EEOC n’a vraiment rien résolu, mais il a transformé les RH d’une organisation axée sur les soins et l’alimentation des employés en une organisation axée sur la conformité, ce qui signifiait trop souvent dissimuler les problèmes des employés plutôt que d’aborder les problèmes.
Brad Smith intensifie
Le président de Microsoft, Brad Smith, m’a impressionné en tant que l’un des rares leaders technologiques à penser en termes généraux. Au lieu de se concentrer presque exclusivement sur des réponses tactiques à des problèmes stratégiques, il pense stratégiquement.
Le plan de Microsoft en est un exemple, car alors que la plupart s’adressent au gouvernement en disant « vous devez faire quelque chose », ce qui pourrait entraîner d’autres problèmes à long terme, Smith a expliqué à quoi devrait ressembler une solution, et il étoffe avec élégance dans un plan en cinq points.
Il commence par une déclaration provocatrice, « Ne demandez pas ce que les ordinateurs peuvent faire, demandez ce qu’ils devraient faire », ce qui me rappelle un peu la célèbre phrase de John F. Kennedy, « Ne demandez pas ce que votre pays peut faire pour vous, Demandez ce que vous pouvez faire pour votre pays. » La déclaration de Smith provient d’un livre qu’il a co-écrit en 2019 et considéré comme l’une des questions déterminantes de cette génération.
Cette déclaration met en contexte l’importance et la nécessité de protéger les humains et nous fait réfléchir aux implications des nouvelles technologies pour s’assurer que les utilisations que nous en avons sont bénéfiques et non préjudiciables.
Smith poursuit en expliquant comment nous devrions utiliser la technologie pour améliorer la condition humaine en priorité, pas seulement pour réduire les coûts et augmenter les revenus. Comme IBM, qui a fait un effort similaire, Smith et Microsoft pensent que la technologie doit être utilisée pour rendre les gens meilleurs, pas pour les remplacer.
Il parle également, et c’est très rare de nos jours, de la nécessité d’anticiper où la technologie devra être à l’avenir afin que nous puissions anticiper les problèmes plutôt que de simplement y répondre constamment et tactiquement. Le besoin de transparence, de responsabilité et d’assurance que la technologie est utilisée légalement est essentiel à cet effort et bien défini.
Analyse de plan en 5 points
Le premier point de Smith est de mettre en œuvre et de s’appuyer sur des cadres de sécurité de l’IA dirigés par le gouvernement. Trop souvent, les gouvernements ne se rendent pas compte qu’ils disposent déjà de certains des outils nécessaires pour résoudre un problème et perdent beaucoup de temps à réinventer efficacement la roue.
Le National Institute of Standards and Technology (NIST) des États-Unis a réalisé un travail impressionnant sous la forme d’un cadre de gestion des risques liés à l’IA (AI RMF). C’est un bon cadre, bien qu’incomplet. Le premier point de Smith est d’utiliser et de s’appuyer sur cela.
Le deuxième point de Smith est d’exiger des freins de sécurité efficaces pour les systèmes d’IA qui contrôlent les infrastructures critiques. Si une IA qui contrôle une infrastructure critique déraille, elle pourrait causer des dommages massifs ou même la mort à une échelle significative.
Nous devons nous assurer que ces systèmes subissent des tests approfondis, bénéficient d’une surveillance humaine approfondie et sont testés par rapport à des scénarios de problèmes non seulement probables mais improbables pour nous assurer que l’IA n’interviendra pas et n’aggravera pas la situation.
Le gouvernement définirait les classes de systèmes qui auraient besoin de garde-corps, fournirait des directives sur la nature de ces mesures de protection et exigerait que les systèmes connexes répondent à certaines exigences de sécurité, comme être déployés uniquement dans des centres de données testés et autorisés pour une telle utilisation.
Le troisième point de Smith est de développer un large cadre juridique et réglementaire basé sur l’architecture technologique de l’IA. Les IA vont faire des erreurs. Les gens peuvent ne pas aimer les décisions prises par une IA même si elles ont raison, et les gens peuvent blâmer les IA pour des choses sur lesquelles l’IA n’avait aucun contrôle.
En bref, il y aura beaucoup de litiges à venir. Sans cadre juridique couvrant la responsabilité, les décisions sont susceptibles d’être variées et contradictoires, rendant tout recours difficile et très coûteux à atteindre.
D’où la nécessité d’un cadre juridique pour que les gens comprennent leurs responsabilités, leurs risques et leurs droits pour éviter de futurs problèmes et, en cas de problème, trouvent un remède valable plus rapidement. Cela seul pourrait réduire ce qui deviendra probablement une charge de litige massive puisque l’IA est à peu près dans le champ vert maintenant en ce qui concerne les précédents juridiques.
Le quatrième point de Smith est de promouvoir la transparence et de garantir l’accès des universitaires et des organisations à but non lucratif à l’IA. Cela a du sens; comment pouvez-vous faire confiance à quelque chose que vous ne comprenez pas entièrement ? Les gens ne font pas confiance à l’IA aujourd’hui, et sans transparence, ils ne lui feront pas confiance demain. En fait, je dirais que sans transparence, vous ne devriez pas faire confiance à l’IA car vous ne pouvez pas valider qu’elle fera ce que vous avez l’intention de faire.
De plus, nous avons besoin d’un accès académique à l’IA pour garantir que les gens comprennent comment utiliser correctement cette technologie lors de leur entrée sur le marché du travail et d’un accès à but non lucratif pour garantir que les organisations à but non lucratif, en particulier celles qui se concentrent sur l’amélioration de la condition humaine, aient un accès efficace à cette technologie pour leurs bonnes œuvres.
Le cinquième point de Smith est de poursuivre de nouveaux partenariats public-privé pour utiliser l’IA comme un outil efficace pour relever les inévitables défis sociétaux qui se présenteront. L’IA aura un impact massif sur la société, et s’assurer que cet impact est bénéfique et non préjudiciable nécessitera une concentration et une surveillance.
Il souligne que l’IA peut être une épée, mais qu’elle peut également être utilisée efficacement comme un bouclier potentiellement plus puissant que n’importe quelle épée existante sur la planète. Il doit être utilisé pour protéger partout la démocratie et les droits fondamentaux des citoyens.
Smith cite l’Ukraine comme un exemple où les secteurs public et privé se sont réunis efficacement pour créer une défense puissante. Il pense, comme moi, que nous devrions imiter l’exemple de l’Ukraine pour nous assurer que l’IA atteint son potentiel pour aider le monde à évoluer vers un avenir meilleur.
Conclusion : un avenir meilleur
Microsoft ne se contente pas d’aller voir le gouvernement et de lui demander d’agir pour résoudre un problème que les gouvernements ne comprennent pas encore pleinement.
Il propose un cadre pour ce que cette solution devrait, et franchement doit, ressembler pour garantir que nous atténuons les risques liés à l’utilisation de l’IA dès le départ et que, lorsqu’il y a des problèmes, il existe des outils et des remèdes préexistants disponibles pour les résoudre, dont le moindre n’est pas un interrupteur d’arrêt d’urgence qui permet de mettre fin avec élégance à un programme d’IA qui a déraillé.
Que vous soyez une entreprise ou un particulier, Microsoft fournit ici une excellente leçon sur la façon d’obtenir un leadership pour résoudre un problème, pas seulement le jeter au gouvernement et lui demander de le résoudre. Microsoft a décrit le problème et fourni une solution bien pensée afin que le correctif ne devienne pas un problème plus important qu’il ne l’était au départ.
Bien fait!
Traqueurs de cailloux
Comme la plupart des gens, ma femme et moi égarons souvent des choses, ce qui semble se produire le plus souvent lorsque nous nous précipitons pour sortir de la maison et poser quelque chose sans penser à l’endroit où nous l’avons placé.
De plus, nous avons trois chats, ce qui signifie que le vétérinaire nous rend régulièrement visite pour s’occuper d’eux. Plusieurs de nos chats ont découvert des endroits uniques et créatifs pour se cacher afin de ne pas se faire couper les griffes ou couper les tapis. Nous utilisons donc des trackers comme Tile et AirTags.
Mais le problème avec les AirTags, c’est qu’ils ne fonctionnent vraiment que si vous avez un iPhone, comme ma femme, ce qui signifie qu’elle peut suivre les choses, mais je ne peux pas parce que j’ai un téléphone Android. Avec Tiles, vous devez soit remplacer l’appareil lorsque la batterie est épuisée, soit remplacer la batterie, ce qui est pénible. Alors, trop souvent, la batterie est morte quand on a besoin de trouver quelque chose.
Pebblebee fonctionne comme ces autres appareils mais se démarque car il est rechargeable et fonctionnera avec l’application Pebblebee, qui fonctionne à la fois sur iOS et Android. Ou cela fonctionnera avec les applications natives de ces systèmes d’exploitation : Apple Find My et Google Find My Device. Malheureusement, il ne fera pas les deux en même temps, mais au moins vous aurez le choix.
Pebblebee Trackers : clip pour clés, sacs et plus encore ; Étiquette pour bagages, vestes, etc. ; et Carte pour portefeuilles et autres espaces étroits. (Crédit image : Pebblebee)
Lorsque vous essayez de localiser un dispositif de suivi, il émet un bip et s’allume, ce qui rend les choses plus faciles à trouver la nuit et moins comme un mauvais jeu de Marco Polo (j’aurais aimé que les détecteurs de fumée le fassent).
Parce que Pebblebee fonctionne à la fois avec Apple et Android et que vous pouvez recharger les batteries, il répond mieux à un besoin personnel que Tile ou AirTag d’Apple – et c’est mon produit de la semaine.
Les opinions exprimées dans cet article sont celles de l’auteur et ne reflètent pas nécessairement les vues d’ECT News Network.