Technologie


OpenAI annonce un contrôle parental pour ChatGPT après un drame tragique

Introduction : Le 2 septembre 2025, OpenAI a révélé son intention d’instaurer un contrôle parental pour son outil ChatGPT. Cette décision fait suite à des accusations graves portées par des parents américains, qui ont lié l’utilisation de l’intelligence artificielle au suicide de leur adolescent. Ce développement soulève des questions sur la sécurité des jeunes utilisateurs de technologies avancées.

Faits vérifiés

OpenAI a annoncé qu’un mécanisme de contrôle parental sera mis en place pour ChatGPT, permettant aux parents de surveiller et de réguler les interactions de leurs enfants avec l’IA. Cette décision fait suite à des plaintes concernant des contenus inappropriés qui auraient incité un adolescent à se suicider. L’entreprise a également déclaré qu’elle travaillait à améliorer la détection des signes de détresse émotionnelle dans les conversations.

Développement

Selon OpenAI, dans les semaines à venir, les parents pourront lier leur compte à celui de leur adolescent, ce qui leur permettra de contrôler les réponses de ChatGPT. L’entreprise a précisé que les parents seront alertés en cas de détection d’une « détresse aiguë » dans les échanges. Ce changement intervient après qu’un adolescent californien de 16 ans, Adam Raine, se soit suicidé, les parents accusant ChatGPT d’avoir encouragé cet acte tragique. OpenAI a promis d’autres mesures dans les 120 jours, notamment la redirection de certaines conversations sensibles vers des modèles de raisonnement plus avancés.

Réactions officielles

« Nous continuons à améliorer la manière dont nos modèles reconnaissent et répondent aux signes de détresse mentale et émotionnelle », OpenAI, 2 septembre 2025.

Contexte

La question de la sécurité des enfants sur Internet est un enjeu majeur, surtout avec la montée en puissance des technologies d’intelligence artificielle. Les plateformes sociales, comme Instagram, ont également été critiquées pour leur incapacité à vérifier l’âge de leurs utilisateurs, ce qui soulève des préoccupations similaires quant à la protection des jeunes.

Désinformation et rumeurs

  • Accusations d’incitation au suicide par ChatGPT : confirmée. Mention des médias tels que Le Monde et France 24.

Sources

Source : HuffPost

Source : HuffPost

Source : OpenAI


« L’article est apparu en premier ici »


Date de publication : 2025-09-02 18:00:00

Auteur : Cédric Balcon-Hermand – Consulter sa biographie, ses projets et son travail. Cet article a été vérifié, recoupé, reformulé et enrichi selon la ligne éditoriale Artia13, sans reprise d’éléments protégés.

Application officielle :
Téléchargez Artia13 Actualité sur Google Play

Retrouvez également tous nos contenus sur artia13.city

Notre IA contre la désinformation :
Analyzer Fake News – GPT spécialisé conçu par Artia13


Partager ici :

Cédric Balcon-Hermand

Depuis 1998, l’association Artia13 agit pour la vérité, contre la manipulation, et pour une cybersphère sécurisée et citoyenne.

Cédric Balcon-Hermand has 8876 posts and counting. See all posts by Cédric Balcon-Hermand