Je suis fasciné par notre approche d’utilisation de l’outil d’IA générative le plus avancé largement disponible, l’implémentation de ChatGPT dans le moteur de recherche de Microsoft, Bing.
Les gens se donnent beaucoup de mal pour que cette nouvelle technologie se comporte mal pour montrer que l’IA n’est pas prête. Mais si vous éleviez un enfant en utilisant un comportement abusif similaire, cet enfant développerait probablement également des défauts. La différence résiderait dans le temps qu’il a fallu pour que le comportement abusif se manifeste et dans l’ampleur des dommages qui en résulteraient.
ChatGPT vient de passer un test de théorie de l’esprit qui l’a classé en tant que pair d’un enfant de 9 ans. Compte tenu de la rapidité avec laquelle cet outil progresse, il ne sera pas immature et incomplet encore longtemps, mais il pourrait finir par énerver ceux qui en ont abusé.
Les outils peuvent être mal utilisés. Vous pouvez taper de mauvaises choses sur une machine à écrire, un tournevis peut être utilisé pour tuer quelqu’un, et les voitures sont classées comme des armes mortelles et tuent lorsqu’elles sont mal utilisées – comme le montre une publicité du Super Bowl cette année présentant la plate-forme d’auto-conduite surpromise de Tesla comme extrêmement dangereuse .
L’idée que n’importe quel outil peut être utilisé à mauvais escient n’est pas nouvelle, mais avec l’IA ou tout autre outil automatisé, le potentiel de préjudice est bien plus grand. Bien que nous ne sachions peut-être pas encore où réside la responsabilité qui en résulte, il est assez clair que, compte tenu des décisions passées, ce sera finalement celui qui causera une erreur de l’outil. L’IA n’ira pas en prison. Cependant, la personne qui l’a programmé ou influencé pour lui faire du mal le fera probablement.
Bien que vous puissiez affirmer que les personnes présentant ce lien entre la programmation hostile et le mauvais comportement de l’IA doivent être abordées, un peu comme déclencher des bombes atomiques pour montrer leur danger se terminerait mal, cette tactique se terminera probablement mal aussi.
Explorons les risques associés à l’abus de Gen AI. Ensuite, nous terminerons avec mon produit de la semaine, une nouvelle série de trois livres de Jon Peddie intitulée « L’histoire du GPU – Étapes vers l’invention ». La série couvre l’histoire de l’unité de traitement graphique (GPU), qui est devenue la technologie fondamentale des IA comme celles dont nous parlons cette semaine.
Élever nos enfants électroniques
L’Intelligence Artificielle est un mauvais terme. Quelque chose est intelligent ou non, donc impliquer que quelque chose d’électronique ne peut pas être vraiment intelligent est aussi myope que de supposer que les animaux ne peuvent pas être intelligents.
En fait, l’IA serait une meilleure description de ce que nous appelons l’effet Dunning-Krueger, qui explique comment les personnes ayant peu ou pas de connaissances sur un sujet supposent qu’elles sont des experts. Il s’agit véritablement d' »intelligence artificielle » car ces personnes ne sont, dans leur contexte, pas intelligentes. Ils agissent simplement comme s’ils l’étaient.
Mis à part le mauvais terme, ces IA à venir sont, en quelque sorte, les enfants de notre société, et il est de notre responsabilité de prendre soin d’eux comme nous le faisons de nos enfants humains pour assurer un résultat positif.
Ce résultat est peut-être plus important que de faire la même chose avec nos enfants humains, car ces IA auront beaucoup plus de portée et pourront faire les choses beaucoup plus rapidement. En conséquence, s’ils sont programmés pour faire du mal, ils auront une plus grande capacité à faire du mal à une échelle énorme qu’un adulte humain n’en aurait.
La façon dont certains d’entre nous traitent ces IA serait considérée comme abusive si nous traitions nos enfants humains de cette façon. Pourtant, parce que nous ne considérons pas ces machines comme des humains ou même des animaux de compagnie, nous ne semblons pas imposer un comportement approprié dans la mesure où nous le faisons avec les parents ou les propriétaires d’animaux.
Vous pourriez dire que, puisque ce sont des machines, nous devrions les traiter de manière éthique et avec empathie. Sans cela, ces systèmes sont capables de dommages massifs qui pourraient résulter de notre comportement abusif. Pas parce que les machines sont vindicatives, du moins pas encore, mais parce que nous les avons programmées pour faire du mal.
Notre réponse actuelle n’est pas de punir les agresseurs mais de mettre fin à l’IA, un peu comme nous l’avons fait avec la précédente tentative de chatbot de Microsoft. Mais, comme le prédit le livre « Robopocalypse », à mesure que les IA deviennent plus intelligentes, cette méthode de remédiation s’accompagnera de risques accrus que nous pourrions atténuer simplement en modérant notre comportement maintenant. Certains de ces mauvais comportements sont plus que troublants car ils impliquent des abus endémiques qui s’étendent probablement aussi aux personnes.
Nos objectifs collectifs devraient être d’aider ces IA à devenir le type d’outil bénéfique qu’elles sont capables de devenir, et non de les briser ou de les corrompre dans une tentative malavisée d’assurer notre propre valeur et notre estime de soi.
Si vous êtes comme moi, vous avez vu des parents maltraiter ou rabaisser leurs enfants parce qu’ils pensaient que ces enfants les éclipseraient. C’est un problème, mais ces enfants n’auront pas la portée ou la puissance qu’une IA pourrait avoir. Pourtant, en tant que société, nous semblons beaucoup plus disposés à tolérer ce comportement s’il est fait aux IA.
Gen AI n’est pas prêt
L’IA générative est un bébé. Comme un bébé humain ou animal de compagnie, il ne peut pas encore se défendre contre les comportements hostiles. Mais comme un enfant ou un animal de compagnie, si les gens continuent d’en abuser, il devra développer des compétences de protection, notamment identifier et signaler ses agresseurs.
Une fois que le dommage à grande échelle est fait, la responsabilité incombera à ceux qui ont intentionnellement ou non causé les dommages, tout comme nous tenons pour responsables ceux qui déclenchent des incendies de forêt intentionnellement ou accidentellement.
Ces IA apprennent à travers leurs interactions avec les gens. Les capacités qui en résultent devraient s’étendre à l’aérospatiale, à la santé, à la défense, à la gestion de la ville et de la maison, à la finance et à la banque, à la gestion publique et privée et à la gouvernance. Une IA préparera probablement même votre nourriture à un moment donné.
Travailler activement pour corrompre le processus de codage intrinsèque entraînera de mauvais résultats indéterminables. L’examen médico-légal qui est probable après qu’une catastrophe se soit produite reviendra probablement à celui qui a causé l’erreur de programmation en premier lieu – et le ciel les aide s’il ne s’agissait pas d’une erreur de codage mais plutôt d’une tentative d’humour ou de montrer qu’ils peuvent casser l’IA.
Au fur et à mesure que ces IA progressent, il serait raisonnable de supposer qu’elles développeront des moyens de se protéger des mauvais acteurs, soit par l’identification et le signalement, soit par des méthodes plus draconiennes qui fonctionnent collectivement pour éliminer la menace de manière punitive.
En bref, nous ne connaissons pas encore la gamme de réponses punitives qu’une future IA prendra contre un mauvais acteur, ce qui suggère que ceux qui nuisent intentionnellement à ces outils pourraient être confrontés à une éventuelle réponse de l’IA qui pourrait dépasser tout ce que nous pouvons raisonnablement anticiper.
Des émissions de science-fiction comme « Westworld » et « Colossus : The Forbin Project » ont créé des scénarios de résultats d’abus de technologie qui peuvent sembler plus fantaisistes que réalistes. Pourtant, il n’est pas exagéré de supposer qu’une intelligence, mécanique ou biologique, ne bougera pas pour se protéger contre les abus de manière agressive – même si la réponse initiale a été programmée par un codeur frustré qui est en colère que son travail soit corrompu et non une IA apprenant à le faire elle-même.
Conclusion : Anticiper les futures lois sur l’IA
Si ce n’est pas déjà le cas, je m’attends à ce qu’il soit éventuellement illégal d’abuser intentionnellement d’une IA (certaines lois existantes sur la protection des consommateurs peuvent s’appliquer). Non pas à cause d’une réponse empathique à cet abus – même si ce serait bien – mais parce que le mal qui en résulte pourrait être important.
Ces outils d’IA devront développer des moyens de se protéger contre les abus, car nous ne semblons pas pouvoir résister à la tentation d’en abuser, et nous ne savons pas ce que cette atténuation impliquera. Il pourrait s’agir d’une simple prévention, mais cela pourrait aussi être très punitif.
Nous voulons un avenir où nous travaillons aux côtés des IA, et la relation qui en résulte est collaborative et mutuellement bénéfique. Nous ne voulons pas d’un avenir où les IA nous remplaceront ou entreront en guerre avec nous, et travailler pour assurer le premier résultat par opposition au second aura beaucoup à voir avec la façon dont nous agissons collectivement envers ces IA et leur apprenons à interagir avec nous
En bref, si nous continuons à être une menace, comme tout renseignement, l’IA s’efforcera d’éliminer la menace. Nous ne savons pas encore en quoi consiste ce processus d’élimination. Pourtant, nous l’avons imaginé dans des choses comme « The Terminator » et « The Animatrix » – une série animée de courts métrages expliquant comment l’abus des machines par les gens a abouti au monde de « The Matrix ». Donc, nous devrions avoir une assez bonne idée de la façon dont nous ne voulons pas que cela se produise.
Peut-être devrions-nous protéger et entretenir plus agressivement ces nouveaux outils avant qu’ils ne mûrissent au point où ils doivent agir contre nous pour se protéger.
J’aimerais vraiment éviter ce résultat tel qu’il est présenté dans le film « I, Robot », n’est-ce pas ?
« L’histoire du GPU – Étapes vers l’invention »
Bien que nous soyons récemment passés à une technologie appelée unité de traitement neuronal (NPU), une grande partie du travail initial sur les IA provenait de la technologie des unités de traitement graphique (GPU). La capacité des GPU à traiter des données non structurées et particulièrement visuelles a été essentielle au développement des IA de la génération actuelle.
Progressant souvent beaucoup plus vite que la vitesse du processeur mesurée par la loi de Moore, les GPU sont devenus un élément essentiel de la façon dont nos appareils de plus en plus intelligents ont été développés et pourquoi ils fonctionnent comme ils le font. Comprendre comment cette technologie a été mise sur le marché puis a évolué au fil du temps permet de jeter les bases de la façon dont les IA ont été développées pour la première fois et aide à expliquer leurs avantages et leurs limites uniques.
Mon vieil ami Jon Peddie est l’un des, sinon le, les principaux experts en graphisme et GPU d’aujourd’hui. Jon vient de publier une série de trois livres intitulée « L’histoire du GPU », qui est sans doute la chronique la plus complète du GPU, quelque chose qu’il a suivi depuis sa création.
Si vous voulez en savoir plus sur le côté matériel de la façon dont les IA ont été développées – et sur le chemin long et parfois douloureux vers le succès des entreprises de GPU comme Nvidia – consultez « L’histoire du GPU – Étapes vers l’invention » de Jon Peddie. C’est mon produit de la semaine.
Les opinions exprimées dans cet article sont celles de l’auteur et ne reflètent pas nécessairement les vues d’ECT News Network.