Depuis qu’OpenAI a introduit ChatGPT, les défenseurs de la vie privée ont averti les consommateurs de la menace potentielle pour la vie privée posée par les applications d’IA génératives. L’arrivée d’une application ChatGPT dans l’App Store d’Apple a déclenché une nouvelle vague de prudence.

« [B]Avant de vous lancer tête première dans l’application, méfiez-vous de ne pas devenir trop personnel avec le bot et de mettre votre vie privée en danger », a averti Muskaan Saxena dans Tech Radar.

L’application iOS est livrée avec un compromis explicite dont les utilisateurs doivent être conscients, a-t-elle expliqué, y compris cet avertissement : « Les chats anonymisés peuvent être examinés par notre formateur en IA pour améliorer nos systèmes. »

L’anonymisation, cependant, n’est pas un ticket pour la vie privée. Les chats anonymisés sont dépouillés des informations qui peuvent les relier à des utilisateurs particuliers. « Cependant, l’anonymisation peut ne pas être une mesure adéquate pour protéger la vie privée des consommateurs, car les données anonymisées peuvent toujours être réidentifiées en les combinant avec d’autres sources d’informations », Joey Stanford, vice-président de la confidentialité et de la sécurité chez Platform.sh, un fabricant de une plate-forme de services basée sur le cloud pour les développeurs basés à Paris, a déclaré TechNewsWorld.

« Il a été constaté qu’il est relativement facile de rendre anonymes des informations, en particulier si des informations de localisation sont utilisées », a expliqué Jen Caltrider, chercheuse principale pour le projet Privacy Not Include de Mozilla.

« Publiquement, OpenAI dit qu’il ne collecte pas de données de localisation, mais sa politique de confidentialité pour ChatGPT indique qu’ils pourraient collecter ces données », a-t-elle déclaré à TechNewsWorld.

Néanmoins, OpenAI avertit les utilisateurs de l’application ChatGPT que leurs informations seront utilisées pour former son grand modèle de langage. « Ils sont honnêtes à ce sujet. Ils ne cachent rien », a déclaré Caltrider.

Prendre la confidentialité au sérieux

Caleb Withers, assistant de recherche au Center for New American Security, un groupe de réflexion sur la sécurité nationale et la défense à Washington, DC, a expliqué que si un utilisateur saisit son nom, son lieu de travail et d’autres informations personnelles dans une requête ChatGPT, ces données ne seront pas anonymisés.

« Vous devez vous demander : ‘Est-ce quelque chose que je dirais à un employé d’OpenAI ?' », a-t-il déclaré à TechNewsWorld.

OpenAI a déclaré qu’il prend la confidentialité au sérieux et met en œuvre des mesures pour protéger les données des utilisateurs, a noté Mark N. Vena, président et analyste principal chez SmartTech Research à San Jose, en Californie.

« Cependant, c’est toujours une bonne idée de revoir les politiques et pratiques de confidentialité spécifiques de tout service que vous utilisez pour comprendre comment vos données sont traitées et quelles protections sont en place », a-t-il déclaré à TechNewsWorld.


Aussi dévouée à la sécurité des données qu’une organisation puisse être, des vulnérabilités peuvent exister qui pourraient être exploitées par des acteurs malveillants, a ajouté James McQuiggan, défenseur de la sensibilisation à la sécurité chez KnowBe4, un fournisseur de formation à la sensibilisation à la sécurité à Clearwater, en Floride.

« Il est toujours important d’être prudent et de considérer la nécessité de partager des informations sensibles pour s’assurer que vos données sont aussi sécurisées que possible », a-t-il déclaré à TechNewsWorld.

« La protection de votre vie privée est une responsabilité partagée entre les utilisateurs et les entreprises qui collectent et utilisent leurs données, ce qui est documenté dans ces contrats de licence d’utilisateur final longs et souvent non lus », a-t-il ajouté.

Protections intégrées

McQuiggan a noté que les utilisateurs d’applications d’IA génératives sont connus pour insérer des informations sensibles telles que les anniversaires, les numéros de téléphone et les adresses postales et électroniques dans leurs requêtes. « Si le système d’IA n’est pas suffisamment sécurisé, il peut être consulté par des tiers et utilisé à des fins malveillantes telles que le vol d’identité ou la publicité ciblée », a-t-il déclaré.

Il a ajouté que les applications d’IA génératives pourraient également révéler par inadvertance des informations sensibles sur les utilisateurs via leur contenu généré. « Par conséquent », a-t-il poursuivi, « les utilisateurs doivent connaître les risques potentiels pour la vie privée liés à l’utilisation d’applications d’IA génératives et prendre les mesures nécessaires pour protéger leurs informations personnelles ».

Contrairement aux ordinateurs de bureau et aux ordinateurs portables, les téléphones mobiles disposent de fonctionnalités de sécurité intégrées qui peuvent limiter les incursions dans la vie privée par les applications qui y sont exécutées.

Cependant, comme le souligne McQuiggan, « Bien que certaines mesures, telles que les autorisations d’application et les paramètres de confidentialité, puissent fournir un certain niveau de protection, elles peuvent ne pas protéger complètement vos informations personnelles contre tous les types de menaces à la vie privée comme avec toute application chargée sur le smartphone. ”

Vena a convenu que des mesures intégrées telles que les autorisations d’application, les paramètres de confidentialité et les réglementations des magasins d’applications offrent un certain niveau de protection. « Mais ils ne suffiront peut-être pas à atténuer toutes les menaces à la vie privée », a-t-il déclaré. « Les développeurs d’applications et les fabricants de smartphones ont des approches différentes en matière de confidentialité, et toutes les applications ne respectent pas les meilleures pratiques. »

Même les pratiques d’OpenAI varient d’un ordinateur de bureau à un téléphone mobile. « Si vous utilisez ChatGPT sur le site Web, vous avez la possibilité d’accéder aux contrôles de données et de refuser que votre chat soit utilisé pour améliorer ChatGPT. Ce paramètre n’existe pas sur l’application iOS », a noté Caltrider.

Méfiez-vous des informations de confidentialité de l’App Store

Caltrider a également trouvé les autorisations utilisées par l’application iOS d’OpenAI un peu floues, notant que « Dans le Google Play Store, vous pouvez vérifier et voir quelles autorisations sont utilisées. Vous ne pouvez pas le faire via l’App Store d’Apple.

Elle a averti les utilisateurs de dépendre des informations de confidentialité trouvées dans les magasins d’applications. « Les recherches que nous avons effectuées sur les informations de sécurité du Google Play Store montrent qu’elles ne sont vraiment pas fiables », a-t-elle observé.


« Les recherches effectuées par d’autres sur l’App Store d’Apple montrent qu’il n’est pas fiable non plus », a-t-elle poursuivi. « Les utilisateurs ne doivent pas faire confiance aux informations sur la sécurité des données qu’ils trouvent sur les pages des applications. Ils devraient faire leurs propres recherches, ce qui est difficile et délicat.

« Les entreprises doivent être plus honnêtes sur ce qu’elles collectent et partagent », a-t-elle ajouté. « OpenAI est honnête sur la façon dont ils vont utiliser les données qu’ils collectent pour former ChatGPT, mais ensuite ils disent qu’une fois qu’ils anonymisent les données, ils peuvent les utiliser de nombreuses façons qui vont au-delà des normes de la politique de confidentialité. »

Stanford a noté qu’Apple a mis en place des politiques qui peuvent répondre à certaines des menaces à la vie privée posées par les applications d’IA génératives. Ils comprennent:

  • Exiger le consentement de l’utilisateur pour la collecte et le partage de données par des applications qui utilisent des technologies d’IA générative ;
  • Assurer la transparence et le contrôle sur la façon dont les données sont utilisées et par qui grâce à la fonctionnalité AppTracking Transparency qui permet aux utilisateurs de désactiver le suivi inter-applications ;
  • Appliquer les normes et réglementations de confidentialité pour les développeurs d’applications via le processus d’examen de l’App Store et rejeter les applications qui les enfreignent.

Cependant, a-t-il reconnu, « ces mesures peuvent ne pas être suffisantes pour empêcher les applications d’IA génératives de créer des contenus inappropriés, nuisibles ou trompeurs qui pourraient affecter la confidentialité et la sécurité des utilisateurs ».

Appel à une loi fédérale sur la confidentialité de l’IA

« OpenAI n’est qu’une entreprise. Il existe plusieurs grands modèles de langage en cours de création, et beaucoup d’autres sont susceptibles d’apparaître dans un avenir proche », a ajouté Hodan Omaar, analyste principal des politiques d’IA au Center for Data Innovation, un groupe de réflexion étudiant l’intersection des données, de la technologie et politique publique, à Washington, DC

« Nous avons besoin d’une loi fédérale sur la confidentialité des données pour garantir que toutes les entreprises adhèrent à un ensemble de normes claires », a-t-elle déclaré à TechNewsWorld.

« Avec la croissance et l’expansion rapides de l’intelligence artificielle », a ajouté Caltrider, « il doit absolument y avoir des chiens de garde et des réglementations solides et solides pour garder un œil sur le reste d’entre nous à mesure que cela se développe et devient plus répandu. »

A lire également