OpenAI explique les hallucinations des modèles de langage comme ChatGPT
Introduction : Le 12 septembre 2025, OpenAI a fourni des éclaircissements sur les hallucinations générées par ses modèles de langage, notamment ChatGPT. Ces erreurs, qui consistent à produire des informations incorrectes, soulèvent des préoccupations quant à la fiabilité de ces technologies dans des contextes critiques.
Faits vérifiés
Les modèles de langage, tels que ceux développés par OpenAI, fonctionnent en prédisant le mot suivant dans une séquence, en se basant sur un vaste corpus de données. Cependant, ils ne disposent pas d’étiquettes qui indiquent la véracité des informations, ce qui peut entraîner des réponses erronées, en particulier pour des faits rares ou précis. Même le modèle GPT-5, bien que plus performant, continue de générer des hallucinations, bien que moins fréquemment que ses prédécesseurs.
Développement
Les erreurs de génération de texte ne sont pas uniquement dues à la qualité des données d’entraînement. Elles résultent également du mécanisme de prédiction qui pousse le modèle à fournir une réponse, même lorsque les données ne permettent pas une réponse fiable. Par exemple, les évaluations montrent que les modèles plus petits peuvent reconnaître leurs limites plus facilement. Lorsqu’un petit modèle ne connaît pas une information, il peut répondre par « Je ne sais pas », tandis qu’un modèle plus grand tentera de deviner, ce qui peut conduire à des erreurs.
Les résultats des évaluations, comme celles réalisées sur le test SimpleQA, montrent que le modèle GPT-5 a un taux d’abstention de 52 %, contre seulement 1 % pour un modèle plus petit. Bien que la précision des réponses reste similaire, le taux d’erreur diminue considérablement, passant de 75 % à 26 %. Ces données suggèrent qu’un modèle qui ne répond que lorsqu’il a des bases fiables peut réduire les hallucinations sans nuire à sa fiabilité globale.
Pour améliorer la situation, OpenAI propose de modifier les critères de notation des modèles. En punissant davantage les réponses incorrectes et en attribuant des notes partielles pour les réponses prudentes, les modèles seraient incités à signaler leur incertitude. Bien que certains tests standardisés appliquent déjà ce type de notation, la majorité des modèles continuent d’être évalués uniquement sur leur précision.
Réactions officielles
« Les hallucinations des modèles de langage sont un défi que nous prenons très au sérieux. Nous travaillons activement à des solutions pour améliorer la fiabilité de nos systèmes », OpenAI, 12 septembre 2025.
Contexte
Les modèles de langage, qui utilisent des techniques d’apprentissage automatique, sont devenus des outils essentiels dans de nombreux domaines, allant de l’assistance à la rédaction à la recherche d’informations. Cependant, leur capacité à générer des réponses incorrectes soulève des questions éthiques et pratiques, notamment dans les secteurs où la précision est cruciale.
Désinformation et rumeurs
- Les hallucinations des modèles de langage : confirmées. Mentionnées par plusieurs médias, y compris Le Monde et Reuters.
Sources
« L’article est apparu en premier ici »
Date de publication : 2025-09-12 17:15:00
Auteur : Cédric Balcon-Hermand – Consulter sa biographie, ses projets et son travail. Cet article a été vérifié, recoupé, reformulé et enrichi selon la ligne éditoriale Artia13, sans reprise d’éléments protégés.
Application officielle :
Téléchargez Artia13 Actualité sur Google Play
Retrouvez également tous nos contenus sur artia13.city
Notre IA contre la désinformation :
Analyzer Fake News – GPT spécialisé conçu par Artia13