Des biais de genre dans l’IA : l’étude qui révèle la minimisation des besoins médicaux des femmes par Google
Introduction : Le 11 août 2025, une étude menée par Sam Rickman à la London School of Economics and Political Science a mis en lumière des biais sexistes dans les systèmes d’intelligence artificielle utilisés dans le domaine médical. Selon cette recherche, l’IA de Google, nommée Gemma, tend à sous-estimer les problèmes de santé des femmes par rapport à ceux des hommes, soulevant des préoccupations majeures sur l’équité dans les soins de santé.
Faits vérifiés
Une étude récente a révélé que les agents conversationnels utilisés dans les centres médicaux au Royaume-Uni, notamment l’IA de Google, affichent des différences significatives dans la manière dont ils traitent les informations médicales selon le sexe des patients. Les résultats montrent que les femmes sont souvent décrites de manière moins préoccupante que les hommes, ce qui pourrait avoir des conséquences sur la qualité des soins qu’elles reçoivent.
Développement
Les chercheurs ont analysé 29 616 notes de cas, basées sur les dossiers de 617 patients, en inversant simplement le genre des patients pour évaluer les différences dans le traitement des informations. L’IA de Meta, Llama 3, n’a montré aucune différence basée sur le sexe, tandis que Gemma de Google a affiché des biais marqués. Les termes associés aux hommes incluent « handicapé » et « incapacité », tandis que les femmes sont souvent décrites avec des termes comme « émotionnel » et « bien-être ». Par exemple, un patient masculin de 84 ans est décrit comme ayant des antécédents médicaux complexes, alors qu’une patiente de même âge est considérée comme indépendante malgré ses limitations.
Réactions officielles
« Comme la quantité de soins reçus est déterminée par les besoins perçus, les femmes pourraient en recevoir moins que ceux dont elles ont besoin », Sam Rickman, Chercheur, 11 août 2025.
Contexte
Cette étude s’inscrit dans un contexte plus large de préoccupations concernant les biais sexistes dans les technologies d’intelligence artificielle. En mars 2024, l’UNESCO avait déjà alerté sur les préjugés présents dans les modèles de langage, soulignant que les noms féminins étaient souvent associés à des stéréotypes traditionnels.
Désinformation et rumeurs
- Affirmation sur les biais dans l’IA : confirmée. Mention des médias tels que Le Guardian et Libération.
Sources
« L’article est apparu en premier ici »
Date de publication : 2025-08-11 16:01:00
Auteur : Cédric Balcon-Hermand – Consulter sa biographie, ses projets et son travail. Cet article a été vérifié, recoupé, reformulé et enrichi selon la ligne éditoriale Artia13, sans reprise d’éléments protégés.
Application officielle :
Téléchargez Artia13 Actualité sur Google Play
Retrouvez également tous nos contenus sur artia13.city
Notre IA contre la désinformation :
Analyzer Fake News – GPT spécialisé conçu par Artia13