Les technologies génératives et l’IA “prédatrice” posent une nouvelle série de problèmes, moins visibles que les innovations elles-mêmes, mais tout aussi décisifs. Qu’il s’agisse de contenus sexuels falsifiés à partir de corps détournés, de chatbot révélant des numéros privés ou de données personnelles réutilisées sans consentement, le fil rouge reste le même : la vie privée et les droits des individus sont fragilisés, tandis que la responsabilité devient difficile à établir.
Des corps “volés” par les deepfakes pornographiques
Dans les discussions publiques sur les deepfakes sexuels, l’attention se porte souvent sur les personnes dont le visage est inséré dans des images explicites sans accord. Pourtant, un second groupe subit aussi une atteinte directe : celles dont le corps — déjà filmé, déjà publié — est réutilisé pour donner un nouvel “effet de réalité”.
Le cas mis en avant illustre comment une recherche liée à l’intelligence artificielle peut faire remonter des vidéos anciennes, désormais modifiées : une même identité visuelle peut être reconfigurée, sans que les personnes concernées aient nécessairement connaissance du détournement. Pour les créateurs adultes, l’enjeu dépasse l’image : ils décrivent des systèmes entraînés sur leurs productions, des clones de leur apparence et la génération de contenus sexuels qu’ils n’auraient pas accepté de produire, avec un cadre juridique jugé insuffisant pour contrôler l’usage de leurs images et exploiter leurs droits.
Des chatbots qui divulguent de vrais numéros de téléphone
Autre alerte : certains usages de l’IA conversationnelle semblent pouvoir faire remonter des informations personnelles identifiantes, notamment des numéros de téléphone. Des incidents rapportés indiquent que des utilisateurs peuvent recevoir des messages indésirables suite à une divulgation par un chatbot, ou voir leur entourage sollicité à partir d’informations dévoilées de manière inattendue.
Les spécialistes associent ces défaillances à la présence de données personnelles dans les ensembles utilisés pour entraîner les modèles, et à leur capacité à “réutiliser” ces éléments lors d’échanges. Dans la pratique, ces révélations compliquent la protection des personnes concernées, car les victimes disposent rarement de moyens rapides pour limiter la diffusion une fois l’information sortie du modèle.
Quand l’innovation se heurte à la gouvernance des données
Ces deux phénomènes — deepfakes et fuite de données via chatbots — reposent sur une même mécanique : l’IA apprend à partir de contenus et d’exemples, puis produit des sorties susceptibles de réactiver des éléments sensibles. Le problème n’est donc pas uniquement la “mauvaise intention” d’utilisateurs malveillants, mais aussi la difficulté à contrôler précisément ce que les modèles ont intégré, ce qu’ils restituent et dans quelles conditions.
Sur le plan des politiques publiques et de l’industrie, l’enjeu consiste à mieux encadrer l’entraînement, à renforcer la traçabilité et à améliorer les mécanismes de réponse quand des atteintes surviennent. Sans garde-fous efficaces, l’augmentation de la puissance des systèmes d’IA peut accélérer la vitesse de la nuisance, tandis que la réparation reste lente.
Produits utiles pour renforcer votre hygiène numérique
Au-delà des régulations, des gestes techniques peuvent limiter certains risques liés à l’exposition d’informations personnelles et à la sécurité des appareils. Par exemple, un outil de gestionnaire de mots de passe aide à éviter la réutilisation des identifiants et à réduire l’impact d’une éventuelle fuite. Pour compléter, un routeur Wi‑Fi offrant des paramètres de confidentialité et de contrôle peut aider à mieux segmenter l’accès et à surveiller certains usages du réseau.

