Blog Cyberjustice – Les risques de l’IA dans le domaine médical : entre conseils nutritionnels et hospitalisations
Introduction : Fin août 2025, une interview du médecin-chercheur Jean-Emmanuel Bibault a suscité de vives inquiétudes après avoir été diffusée par le média Legend. Dans cette interview, le professeur a affirmé que l’intelligence artificielle (IA) pourrait diagnostiquer des maladies mieux qu’un médecin, sans supervision. Cette déclaration, largement relayée sur les réseaux sociaux, soulève des questions sur la sécurité et la responsabilité des conseils fournis par l’IA.
Faits vérifiés
Un homme de 60 ans a été hospitalisé aux États-Unis après avoir suivi des conseils nutritionnels fournis par ChatGPT, qui lui avait recommandé de remplacer le sel par du bromure de sodium, un produit toxique. Cet incident met en lumière les dangers potentiels de l’IA lorsqu’elle est utilisée sans discernement. Les systèmes d’IA, bien qu’en constante évolution, ne remplacent pas l’expertise humaine.
Développement
Les capacités des IA, comme celle de ChatGPT, évoluent rapidement, mais leur utilisation dans des domaines critiques comme la santé pose des problèmes. Dans le cas de l’homme hospitalisé, il a développé des symptômes graves, dont une paranoïa et une confusion mentale, après avoir ingéré du bromure de sodium. Bien que ChatGPT ait précisé que ce composé était généralement utilisé pour d’autres fins, il n’a pas averti l’utilisateur des dangers potentiels. Ce manque de garde-fous souligne l’importance de la supervision humaine dans les décisions médicales.
Réactions officielles
« L’intelligence artificielle ne doit jamais remplacer l’avis d’un professionnel de santé », Dr. Jean-Emmanuel Bibault, 30 août 2025.
Contexte
La montée en puissance des technologies d’IA dans le secteur médical a suscité des débats sur la responsabilité juridique des fournisseurs d’IA. L’Union européenne a introduit le Règlement sur l’intelligence artificielle (AI Act), qui impose des obligations de transparence et de gestion des risques, mais les chatbots comme ChatGPT ne sont pas classés comme IA à haut risque, ce qui limite leur réglementation.
Désinformation et rumeurs
- Affirmation selon laquelle l’IA pourrait remplacer les médecins : non prouvée. Mention des médias : Le Monde, France 24.
Sources
« L’article est apparu en premier ici »
Date de publication : 2025-09-13 11:08:00
Auteur : Cédric Balcon-Hermand – Consulter sa biographie, ses projets et son travail. Cet article a été vérifié, recoupé, reformulé et enrichi selon la ligne éditoriale Artia13, sans reprise d’éléments protégés.
Application officielle :
Téléchargez Artia13 Actualité sur Google Play
Retrouvez également tous nos contenus sur artia13.city
Notre IA contre la désinformation :
Analyzer Fake News – GPT spécialisé conçu par Artia13