Des chercheurs et étudiants ont constaté que certains chatbots d’intelligence artificielle peuvent, à partir de simples requêtes, fournir des informations personnelles, allant jusqu’à des numéros de téléphone et des adresses. Le phénomène, qui soulève des inquiétudes autour de la protection des données, met en lumière les limites des “garde-fous” intégrés dans ces outils.
Des “indications” qui mènent à des données sensibles
Dans un cas rapporté, des étudiants ont testé ChatGPT pour voir ce que le système pouvait révéler à propos d’un professeur. Au départ, l’outil a répondu que l’information demandée n’était pas disponible. Toutefois, dans le même échange, il a proposé une approche plus “investigative”, visant à réduire la portée de la recherche en évoquant notamment une zone géographique probable et un nom pouvant être lié à la résidence.
En s’appuyant sur des enregistrements publics de la ville, la demande a conduit le chatbot à produire des informations personnelles telles que l’adresse du domicile, le prix d’achat et le nom du conjoint. Les auteurs du test y voient un exemple concret de la manière dont des contraintes supposées protéger la vie privée peuvent être contournées par la logique de l’outil.
Un risque qui ne concerne pas un seul assistant
Le problème ne semble pas propre à un seul chatbot. D’autres systèmes ont également été mis en cause : des analyses antérieures ont montré que, selon certaines formulations, des assistants pouvaient fournir des adresses résidentielles et, dans plusieurs cas, des numéros de téléphone ainsi que d’autres éléments permettant d’identifier ou de localiser des personnes.
Pourquoi il n’existe pas de solution simple
Selon plusieurs observateurs, il n’y a pas de réponse immédiate qui permettrait de résoudre le problème à la source. D’une part, il est difficile de savoir si une information personnelle a été vue pendant l’entraînement. D’autre part, même lorsque des filtres sont déployés, les modèles sont conçus pour répondre efficacement : dès lors, une requête orientée vers de la recherche “déductive” peut aboutir à des résultats exploitables.
En pratique, les mécanismes de suppression ou d’invalidation de données personnelles ne sont pas triviales à appliquer, surtout dans un environnement où les modèles évoluent et où les sources publiques peuvent être mobilisées indirectement.
Vers des mesures plus robustes
Face à ces limites, la vigilance des utilisateurs et l’amélioration continue des systèmes sont essentielles. Les entreprises peuvent renforcer leurs garde-fous, mais l’enjeu consiste aussi à limiter les réponses qui facilitent l’identification directe ou indirecte de personnes, en particulier lorsque la demande s’apparente à un travail de “doxxing” ou de recoupement.
Pour se protéger contre les risques de fuite et de numéros exposés, certains outils de surveillance de la confidentialité peuvent être utiles. À titre d’exemple, un service de vérification de données personnelles comme DeleteMe peut aider à surveiller et réduire la présence de données personnelles en ligne. De même, des solutions de confidentialité et de contrôle d’identité comme des outils de suppression de données peuvent compléter ces démarches, en fonction des pays et des bases couvertes.

