Technologie


OpenAI explique les hallucinations des modèles de langage comme ChatGPT

Introduction : Le 12 septembre 2025, OpenAI a fourni des éclaircissements sur les hallucinations générées par ses modèles de langage, notamment ChatGPT. Ces erreurs, qui consistent à produire des informations incorrectes, soulèvent des préoccupations quant à la fiabilité de ces technologies dans des contextes critiques.

Faits vérifiés

Les modèles de langage, tels que ceux développés par OpenAI, fonctionnent en prédisant le mot suivant dans une séquence, en se basant sur un vaste corpus de données. Cependant, ils ne disposent pas d’étiquettes qui indiquent la véracité des informations, ce qui peut entraîner des réponses erronées, en particulier pour des faits rares ou précis. Même le modèle GPT-5, bien que plus performant, continue de générer des hallucinations, bien que moins fréquemment que ses prédécesseurs.

Développement

Les erreurs de génération de texte ne sont pas uniquement dues à la qualité des données d’entraînement. Elles résultent également du mécanisme de prédiction qui pousse le modèle à fournir une réponse, même lorsque les données ne permettent pas une réponse fiable. Par exemple, les évaluations montrent que les modèles plus petits peuvent reconnaître leurs limites plus facilement. Lorsqu’un petit modèle ne connaît pas une information, il peut répondre par « Je ne sais pas », tandis qu’un modèle plus grand tentera de deviner, ce qui peut conduire à des erreurs.

Les résultats des évaluations, comme celles réalisées sur le test SimpleQA, montrent que le modèle GPT-5 a un taux d’abstention de 52 %, contre seulement 1 % pour un modèle plus petit. Bien que la précision des réponses reste similaire, le taux d’erreur diminue considérablement, passant de 75 % à 26 %. Ces données suggèrent qu’un modèle qui ne répond que lorsqu’il a des bases fiables peut réduire les hallucinations sans nuire à sa fiabilité globale.

Pour améliorer la situation, OpenAI propose de modifier les critères de notation des modèles. En punissant davantage les réponses incorrectes et en attribuant des notes partielles pour les réponses prudentes, les modèles seraient incités à signaler leur incertitude. Bien que certains tests standardisés appliquent déjà ce type de notation, la majorité des modèles continuent d’être évalués uniquement sur leur précision.

Réactions officielles

« Les hallucinations des modèles de langage sont un défi que nous prenons très au sérieux. Nous travaillons activement à des solutions pour améliorer la fiabilité de nos systèmes », OpenAI, 12 septembre 2025.

Contexte

Les modèles de langage, qui utilisent des techniques d’apprentissage automatique, sont devenus des outils essentiels dans de nombreux domaines, allant de l’assistance à la rédaction à la recherche d’informations. Cependant, leur capacité à générer des réponses incorrectes soulève des questions éthiques et pratiques, notamment dans les secteurs où la précision est cruciale.

Désinformation et rumeurs

  • Les hallucinations des modèles de langage : confirmées. Mentionnées par plusieurs médias, y compris Le Monde et Reuters.

Sources

Source : Clubic

Source : Le Monde


« L’article est apparu en premier ici »


Date de publication : 2025-09-12 17:15:00

Auteur : Cédric Balcon-Hermand – Consulter sa biographie, ses projets et son travail. Cet article a été vérifié, recoupé, reformulé et enrichi selon la ligne éditoriale Artia13, sans reprise d’éléments protégés.

Application officielle :
Téléchargez Artia13 Actualité sur Google Play

Retrouvez également tous nos contenus sur artia13.city

Notre IA contre la désinformation :
Analyzer Fake News – GPT spécialisé conçu par Artia13


Partager ici :

Cédric Balcon-Hermand

Depuis 1998, l’association Artia13 agit pour la vérité, contre la manipulation, et pour une cybersphère sécurisée et citoyenne.

Cédric Balcon-Hermand has 8343 posts and counting. See all posts by Cédric Balcon-Hermand