Vint Cerf, connu comme le père d’Internet, a soulevé quelques sourcils lundi lorsqu’il a exhorté les investisseurs à être prudents lorsqu’ils investissent dans des entreprises construites autour de chatbots conversationnels.

Les bots font encore trop d’erreurs, a affirmé Cerf, qui est vice-président de Google, qui a un chatbot IA appelé Bard en développement.

Lorsqu’il a demandé à ChatGPT, un bot développé par OpenAI, d’écrire une biographie de lui, il s’est trompé sur un tas de choses, a-t-il déclaré à un public lors du sommet TechSurge Deep Tech, organisé par la société de capital-risque Celesta et tenu au Computer History Museum. à Mountain View, Californie.

« C’est comme un shooter à salade. Il mélange [facts] ensemble parce qu’il ne sait pas mieux », a déclaré Cerf, selon Silicon Angle.

Il a conseillé aux investisseurs de ne pas soutenir une technologie parce qu’elle semble cool ou génère du « buzz ».

Cerf leur a également recommandé de prendre en compte les considérations éthiques lorsqu’ils investissent dans l’IA.

Il a déclaré : « Les ingénieurs comme moi devraient être responsables d’essayer de trouver un moyen d’apprivoiser certaines de ces technologies, afin qu’elles soient moins susceptibles de causer des problèmes », a rapporté Silicon Angle.

Surveillance humaine nécessaire

Comme le souligne Cerf, certains pièges existent pour les entreprises qui rongent leur frein pour entrer dans la course à l’IA.

Des informations inexactes et incorrectes, des préjugés et des résultats offensants sont tous des risques potentiels auxquels les entreprises sont confrontées lorsqu’elles utilisent l’IA, a noté Greg Sterling, cofondateur de Near Media, un site Web d’actualités, de commentaires et d’analyse.

« Les risques dépendent des cas d’utilisation », a déclaré Sterling à TechNewsWorld. « Les agences numériques qui s’appuient trop sur ChatGPT ou d’autres outils d’intelligence artificielle pour créer du contenu ou effectuer un travail complet pour les clients pourraient produire des résultats sous-optimaux ou préjudiciables au client d’une manière ou d’une autre. »

Cependant, il a affirmé que des freins et contrepoids et une surveillance humaine forte pourraient atténuer ces risques.


Les petites entreprises qui n’ont pas d’expertise dans la technologie doivent être prudentes avant de se lancer dans l’IA, a averti Mark N. Vena, président et analyste principal chez SmartTech Research à San Jose, en Californie.

« À tout le moins, toute entreprise qui intègre l’IA dans sa façon de faire des affaires doit en comprendre les implications », a déclaré Vena à TechNewsWorld.

« La confidentialité – en particulier au niveau des clients – est évidemment un énorme sujet de préoccupation », a-t-il poursuivi. « Les termes et conditions d’utilisation doivent être extrêmement explicites, ainsi que la responsabilité si la capacité d’IA produit du contenu ou prend des mesures qui ouvrent l’entreprise à une responsabilité potentielle. »

L’éthique doit être explorée

Bien que Cerf souhaite que les utilisateurs et les développeurs d’IA tiennent compte de l’éthique lors de la mise sur le marché de produits d’IA, cela pourrait être une tâche difficile.

« La plupart des entreprises utilisant l’IA se concentrent sur l’efficacité et les économies de temps ou de coûts », a observé Sterling. « Pour la plupart d’entre eux, l’éthique sera une préoccupation secondaire, voire une non-considération. »

Il y a des problèmes éthiques qui doivent être résolus avant que l’IA ne soit largement adoptée, a ajouté Vena. Il a cité le secteur de l’éducation à titre d’exemple.

« Est-il éthique pour un étudiant de soumettre un article entièrement extrait d’un outil d’IA ? » Il a demandé. « Même si le contenu n’est pas du plagiat au sens le plus strict, car il pourrait être » original « , je pense que la plupart des écoles – en particulier aux niveaux secondaire et collégial – repousseraient cela. »

« Je ne suis pas sûr que les médias d’information seraient ravis de l’utilisation de ChatGPT par les journalistes qui rapportent des événements en temps réel qui reposent souvent sur des jugements abstraits avec lesquels un outil d’IA pourrait avoir du mal », a-t-il déclaré.

« L’éthique doit jouer un rôle important », a-t-il poursuivi, « c’est pourquoi il doit y avoir un code de conduite de l’IA que les entreprises et même les médias devraient être obligés d’accepter, ainsi que d’intégrer ces conditions de conformité aux conditions et conditions lors de l’utilisation d’outils d’IA.

Conséquences inattendues

Il est important pour toute personne impliquée dans l’IA de s’assurer qu’elle fait ce qu’elle fait de manière responsable, a déclaré Ben Kobren, responsable des communications et des politiques publiques chez Neeva, un moteur de recherche basé sur l’IA basé à Washington, DC.

« Une grande partie des conséquences imprévues des technologies précédentes résultaient d’un modèle économique qui n’alignait pas les incitations commerciales sur l’utilisateur final », a déclaré Kobren à TechNewsWorld. « Les entreprises doivent choisir entre servir un annonceur ou l’utilisateur final. La grande majorité du temps, l’annonceur gagnerait. « 


« L’Internet gratuit a permis une innovation incroyable, mais cela a un coût », a-t-il poursuivi. « Ce coût était la vie privée d’un individu, le temps d’un individu, l’attention d’un individu. »

« La même chose va se produire avec l’IA », a-t-il déclaré. « L’IA sera-t-elle appliquée dans un modèle commercial qui s’aligne sur les utilisateurs ou sur les annonceurs ? »

Les appels à la prudence de Cerf semblent viser à ralentir l’entrée des produits d’IA sur le marché, mais cela semble peu probable.

« ChatGPT a fait avancer l’industrie beaucoup plus rapidement que quiconque ne l’avait prévu », a observé Kobren.

« La course est lancée et il n’y a pas de retour en arrière », a ajouté Sterling.

« Il y a des risques et des avantages à mettre rapidement ces produits sur le marché », a-t-il déclaré. « Mais la pression du marché et les incitations financières à agir maintenant l’emporteront sur la retenue éthique. Les plus grandes entreprises parlent d’« IA responsable », mais elles vont de l’avant malgré tout. »

Technologie transformationnelle

Dans ses remarques au sommet TechSurge, Cerf a également rappelé aux investisseurs que toutes les personnes qui utiliseront les technologies d’IA ne les utiliseront pas aux fins prévues. Ils « chercheront à faire ce qui est leur avantage et non le vôtre », aurait-il déclaré.

« Les gouvernements, les ONG et l’industrie doivent travailler ensemble pour formuler des règles et des normes, qui devraient être intégrées à ces produits pour prévenir les abus », a observé Sterling.

« Le défi et le problème sont que le marché et la dynamique concurrentielle évoluent plus rapidement et sont beaucoup plus puissants que les processus politiques et gouvernementaux », a-t-il poursuivi. «Mais la réglementation arrive. C’est juste une question de quand et à quoi ça ressemble.


Les décideurs politiques sont aux prises avec la responsabilité de l’IA depuis un certain temps maintenant, a commenté Hodan Omaar, analyste principal des politiques d’IA pour le Center for Data Innovation, un groupe de réflexion étudiant l’intersection des données, de la technologie et des politiques publiques, à Washington, DC

« Les développeurs devraient être responsables lorsqu’ils créent des systèmes d’IA », a déclaré Omaar à TechNewsWorld. « Ils devraient s’assurer que ces systèmes sont formés sur des ensembles de données représentatifs. »

Cependant, elle a ajouté que ce seront les opérateurs des systèmes d’IA qui prendront les décisions les plus importantes sur l’impact des systèmes d’IA sur la société.

« Il est clair que l’IA est là pour rester », a ajouté Kobren. « Cela va transformer de nombreuses facettes de nos vies, en particulier la façon dont nous accédons, consommons et interagissons avec les informations sur Internet. »

« C’est la technologie la plus transformatrice et la plus excitante que nous ayons vue depuis l’iPhone », a-t-il conclu.

A lire également