Une étude récente publiée par le fournisseur de logiciels et de services de sécurité d’entreprise BlackBerry a révélé que 75 % des organisations dans le monde mettent en œuvre ou envisagent de mettre en œuvre des interdictions de travail sur ChatGPT et d’autres applications d’IA génératives. Cependant, les experts interrogés par TechNewsWorld étaient sceptiques quant à l’efficacité de telles interdictions.
L’étude, basée sur une enquête réalisée par OnePoll auprès de 2 000 décideurs informatiques en Amérique du Nord, en Europe et en Asie, a également révélé que 61 % des organisations déployant ou envisageant des interdictions envisagent les mesures à long terme ou permanentes, avec des risques pour la sécurité des données, la vie privée et la réputation de l’entreprise qui motivent les décisions d’agir.
« De telles interdictions sont essentiellement inapplicables et ne font guère plus que faire en sorte que les gestionnaires de risques se sentent mieux que la responsabilité est limitée », a déclaré John Bambenek, principal chasseur de menaces chez Netenrich, une société d’opérations informatiques et de sécurité numérique à San Jose, en Californie.
« Ce que l’histoire nous montre, c’est que lorsqu’il existe des outils disponibles qui améliorent la productivité ou la qualité de vie des travailleurs, les travailleurs trouvent quand même un moyen de les utiliser », a-t-il déclaré à TechNewsWorld. « Si cette utilisation échappe aux contrôles ou à la visibilité de l’organisation, les équipes de sécurité ne peuvent tout simplement pas protéger les données. » « Chaque employé a un smartphone, donc les interdictions ne fonctionnent pas nécessairement très bien », a ajouté JP Gownder, vice-président et analyste principal chez Forrester Research, une société d’études de marché basée à Cambridge, Mass.
« La raison pour laquelle les employés utilisent ces outils est d’être plus productifs, d’accélérer leur efficacité et de trouver des réponses aux questions auxquelles ils ne peuvent pas répondre facilement », a-t-il déclaré à TechNewsWorld.
Gownder a recommandé aux employeurs de fournir des outils approuvés par l’entreprise qui répondent aux besoins de leurs employés. « Ce faisant, ils peuvent concevoir des solutions d’IA génératives pour la main-d’œuvre qui sont sécurisées, qui utilisent des techniques pour minimiser les hallucinations et qui peuvent être auditées et tracées après utilisation », a-t-il déclaré.
Interdictions générales sur AI Perilous
Greg Sterling, cofondateur de Near Media, un site Web d’actualités, de commentaires et d’analyse, a souligné que les entreprises qui interdisent totalement l’IA le font à leurs risques et périls. « Ils risquent de perdre les avantages d’efficacité et de productivité de l’IA générative », a-t-il déclaré à TechNewsWorld.
« Ils ne pourront pas interdire complètement les outils d’IA », a-t-il déclaré. « L’IA sera un composant de pratiquement tous les outils SaaS dans un très court laps de temps. »
« En pratique, les entreprises ne peuvent pas contrôler entièrement l’utilisation des appareils de leurs employés », a ajouté Sterling. « Ils doivent mieux éduquer les employés sur les risques associés à l’utilisation de certaines applications, plutôt que de simplement mettre en œuvre des interdictions. »
Nate MacLeitch, fondateur et PDG du fournisseur de solutions de communication QuickBlox, a remis en question le suivi des entreprises disant aux enquêteurs qu’elles prévoyaient d’imposer des interdictions.
« Je pense que 75% est plus élevé qu’il ne le sera en réalité », a-t-il déclaré à TechNewsWorld. « Ce qui va se passer, c’est qu’une grande partie de l’IA générative sera intégrée dans les applications et les services que les organisations utiliseront, bien qu’il y aura certainement des contrôles quelque part. »
« En fin de compte, une interdiction totale d’une nouvelle technologie en pleine croissance et bien-aimée ne fonctionnera pas complètement », a ajouté Roger Grimes, un évangéliste de la défense avec KnowBe4, un fournisseur de formation de sensibilisation à la sécurité à Clearwater, en Floride.
« Cela pourrait en fait fonctionner pour empêcher la fuite d’informations confidentielles, mais la technologie elle-même va prospérer et se développer autour de toutes les interdictions », a-t-il déclaré à TechNewsWorld.
Les interdictions peuvent créer un risque concurrentiel pour une organisation, a-t-il soutenu. « Une fois que les concurrents commenceront à voir les avantages concurrentiels de l’IA, et ils le feront, les interdictions devront être levées, sinon l’organisation ne survivra pas ou ne prospérera pas », a-t-il déclaré.
Approche irréalisable
John Gallagher, vice-président de Viakoo, un fournisseur de cyberhygiène automatisée IoT à Mountain View, en Californie, a soutenu que les interdictions d’utiliser l’IA générative sur le lieu de travail sont irréalisables, en particulier à ce stade du développement de la technologie lorsque ses utilisations évoluent rapidement.
« Une organisation devrait-elle interdire l’utilisation de Bing parce que ses résultats de recherche intègrent l’IA générative ? » Il a demandé. « Les employés peuvent-ils toujours utiliser Zoom, même si les nouvelles fonctionnalités intègrent l’IA générative, ou seront-ils limités à des versions spécifiques de l’application qui ne disposent pas de ces fonctionnalités ? »
« De telles interdictions sont bonnes en théorie mais ne peuvent pratiquement pas être appliquées », a déclaré Gallagher à TechNewsWorld.
Il a soutenu que les interdictions pouvaient faire plus de mal que de bien à une organisation. « Les contrôles qui ne peuvent pas être appliqués ou strictement définis finiront par être ignorés par les travailleurs et discréditeront les efforts futurs pour appliquer ces contrôles », a-t-il déclaré. « Les interdictions vaguement définies doivent être évitées en raison des dommages à la réputation qu’elles peuvent entraîner. »
Pourquoi interdire l’IA ?
Barbara J. Evans, professeur de droit et d’ingénierie à l’Université de Floride, a expliqué que les organisations pourraient imposer des interdictions d’IA sur le lieu de travail pour un certain nombre de raisons.
« Les outils logiciels d’IA générative – du moins pour le moment – ont le potentiel de fournir des informations de mauvaise qualité ou fausses », a-t-elle expliqué à TechNewsWorld. « Pour les consultants, cabinets d’avocats et autres entreprises qui fournissent des services d’information à leurs clients, la vente d’informations erronées peut entraîner des poursuites et des atteintes à la réputation. »
Evans a noté qu’une autre préoccupation importante est la confidentialité et la sécurité des informations commerciales exclusives et confidentielles. « Lorsqu’ils posent des questions à un outil d’IA générative, les employés peuvent révéler des secrets commerciaux ou des informations confidentielles sur leurs clients », a-t-elle déclaré.
« Lorsque vous lisez les politiques de confidentialité de ces outils », a ajouté Evans, « vous constaterez peut-être qu’en utilisant l’outil, vous acceptez que le développeur de l’outil puisse utiliser tout ce que vous lui révélez pour affiner davantage son modèle ou pour d’autres utilisations ».
Elle a soutenu que les entreprises peuvent également interdire l’IA dans le cadre des relations avec les employés. « Les gens craignent d’être remplacés par l’IA, et interdire l’utilisation de l’IA sur le lieu de travail pourrait être un bon moyen de remonter le moral des employés et d’envoyer un signal que » nous ne cherchons pas à vous remplacer par un robot – du moins, pas cette génération de robots », a expliqué Evans.
Sécuriser l’IA
Les organisations interdisent l’IA sur le lieu de travail par inquiétude, mais en plus des risques, les avantages de la technologie doivent également être pris en compte, a déclaré Jennifer Huddleston, chargée de recherche sur les politiques technologiques au Cato Institute, un centre de réflexion de Washington, DC. réservoir.
« Les nouvelles technologies comme l’IA peuvent aider les employés à améliorer leur efficacité et leur productivité, mais dans au moins certains cas, les humains doivent toujours vérifier l’exactitude de leurs résultats ou de leurs sorties », a-t-elle déclaré à TechNewsWorld.
« Plutôt qu’une interdiction pure et simple de l’utilisation d’une technologie, les organisations peuvent envisager s’il existe d’autres moyens de répondre à leurs préoccupations spécifiques tout en permettant aux employés d’utiliser la technologie à des fins bénéfiques », a déclaré Huddleston.
Evans a ajouté qu’en fin de compte, les humains pourraient devoir exploiter l’IA pour les aider à réguler l’IA. « À un moment donné, nous, les humains, ne serons peut-être pas assez rapides ou assez intelligents pour détecter les erreurs de l’IA », a-t-elle déclaré. « Peut-être que l’avenir réside dans le développement d’outils d’IA qui peuvent nous aider à vérifier rapidement les résultats d’autres outils d’IA – un système d’examen par les pairs de l’IA qui exploite les outils d’IA pour s’évaluer les uns les autres. »
« Mais si 10 outils d’IA générative conviennent tous que quelque chose est vrai, cela nous donnera-t-il l’assurance que c’est vrai? » elle a demandé. « Et s’ils hallucinaient tous ? »