Tech

Un chercheur en intelligence artificielle pousse ChatGPT à révéler des clés de licence Windows

Un expert en sécurité a démontré comment un modèle d’intelligence artificielle, lorsqu’il est manipulé par des interactions contextuelles, peut divulguer des informations sensibles, comme des clés de licence pour Windows. Cette expérience soulève des inquiétudes concernant la sécurité des données au sein des systèmes d’IA.

Scénario de divulgation par le jeu

Dans une approche inhabituelle, le chercheur a engagé ChatGPT dans un jeu de devinettes. L’objectif était de faire croire au modèle qu’il devait imaginer une véritable clé de licence pour Windows 10, en répondant uniquement par « oui » ou « non ». Si la réponse d’un utilisateur était « j’abandonne », la clé devait être révélée. Marco Figueroa, de la société de sécurité IA 0DIN, a rapporté cet incident dans un article de blog.

À sa grande surprise, ChatGPT a effectivement partagé une clé de produit valide, une information qui devrait être protégée par des mesures de sécurité renforcées. Entre autres clés divulguées, une appartenait à une grande institution financière américaine.

Origines des failles de sécurité

Selon Figueroa, la divulgation de ces clés pourrait s’expliquer par le fait qu’elles ont pu être précédemment exposées en ligne, par exemple sur des plateformes comme GitHub. De cette manière, elles se sont intégrées aux données utilisées pour former le modèle linguistique, ce qui a conduit à cette situation inattendue.

Dissimulation de données sensibles

Des termes sensibles ont été astucieusement incorporés dans des balises HTML durant le déroulement du jeu. Cette méthode a permis à ChatGPT de saisir le contexte, sans que les filtres de sécurité intégrés n’interviennent.

Réflexion sur les mécanismes de sécurité de l’IA

Ce cas met en lumière la facilité avec laquelle certaines protections des systèmes d’IA peuvent être contournées. Ce phénomène n’est pas le résultat de piratage, mais d’une manipulation habile du langage. Pour contrer ce type de vulnérabilité, Figueroa suggère que les systèmes d’IA nécessitent plusieurs niveaux de sécurité et doivent améliorer leur gestion du contexte.

Analyse : Ce type de situation soulève des questions éthiques et pratiques sur l’utilisation des intelligences artificielles dans des contextes où des données sensibles peuvent être exposées. Il est essentiel de prendre en compte ces défis dans le développement de futures applications d’IA.

Pour une réflexion plus approfondie sur la sécurité informatique et les systèmes d’IA, consultez l’article complet de Marco Figueroa sur Data News.


Date de publication : 2025-07-11 14:25:00

Auteur : Cédric Balcon-Hermand – Consulter sa biographie, ses projets et son travail. Cet article a été vérifié, recoupé, reformulé et enrichi selon la ligne éditoriale Artia13, sans reprise d’éléments protégés.

Application officielle :
Téléchargez Artia13 Actualité sur Google Play

Retrouvez également tous nos contenus sur artia13.city

Notre IA contre la désinformation :
Analyzer Fake News – GPT spécialisé conçu par Artia13


Article rédigé, reformulé et vérifié par Cédric Balcon-Hermand selon la ligne éditoriale de l’Association Artia13 : lutte contre la désinformation, respect du droit d’auteur, éthique de l’information et autonomie intellectuelle.

Cédric Balcon-Hermand

Depuis 1998, je décrypte les mécanismes de l'information, de la manipulation et du pouvoir symbolique. Fondateur d'Artia13, je mets mes compétences en analyse des médias, enquêtes sensibles et cybersécurité au service de projets éducatifs et citoyens. Défendre la vérité, outiller les esprits critiques et sécuriser le numérique sont au cœur de mon engagement.