IA et santé : un miroir des inégalités de genre ?
L'IA creuse-t-elle les inégalités ? Découvrez l'impact réel sur les femmes, le leadership, et le terrain médical.

En 2025, l’intelligence artificielle reste aveugle aux biais qu’elle reproduit. Selon le baromètre européen EY – Women in AI, seules 25 % des femmes expertes en IA appliquée à la santé en France accèdent à des fonctions dirigeantes. Une donnée brute mais lourde de sens : et si l’IA, censée révolutionner la médecine, n’était qu’un nouvel écran de fumée pour de vieilles inégalités ?
Quand l’innovation cache la reconduction des biais
Alors que l’IA s’impose dans tous les maillons de la chaîne de soin – diagnostic, imagerie, triage des urgences, orientation des patients – la question de sa gouvernance devient cruciale. Qui conçoit ces algorithmes ? Qui en évalue la pertinence ? Qui décide de leur usage au chevet des patients ?
Le baromètre EY 2025, réalisé auprès de 3 000 professionnels européens du secteur IA, dresse un constat sans appel : en France, les femmes sont sous-représentées dans la structuration de l’IA appliquée à la santé. « Malgré les ambitions affichées, les chiffres stagnent. Le plafond de verre algorithmique est bien réel », note le rapport.
À titre de comparaison, le Royaume-Uni affiche 35 % de femmes dans les postes clés du secteur IA santé, tandis que l’Allemagne en compte 32 %. En France, ce chiffre plafonne à 25 %, et le taux chute encore lorsqu’il s’agit de startups deeptech dirigées par des femmes.
Pourquoi cela concerne directement les professionnels de santé
Pour les professionnels de terrain – médecins, ingénieurs biomédicaux, chercheurs – cette sous-représentation ne relève pas d’un enjeu symbolique, mais d’une faille concrète dans la conception des outils. Plusieurs études ont démontré que des IA entraînées sur des jeux de données biaisés – trop masculins, trop caucasiens – aboutissent à des diagnostics moins fiables pour les femmes, les personnes racisées ou les minorités.
Un exemple souvent cité est celui d’un algorithme d’analyse cardiaque entraîné majoritairement sur des ECG masculins. Résultat : les symptômes d’infarctus typiques chez les femmes ont été moins bien reconnus, augmentant les délais de traitement.
Autre cas révélateur : en cancérologie, les IA utilisées pour la détection précoce de mélanomes montrent des taux de détection plus faibles sur les peaux foncées, faute d’une diversité suffisante dans les bases d’apprentissage.
Professionnels de santé, soyez vigilants : un outil performant sur le papier peut générer des erreurs médicales s’il est mal conçu.
Citations clés : les femmes parlent
« En tant qu’ingénieure IA dans le secteur médical, je constate chaque jour le manque de diversité dans les comités décisionnels. Cela influe sur les priorités choisies et sur les angles morts technologiques », explique Élodie B., data scientist en santé à Paris, interrogée dans le cadre du baromètre EY.
Une autre citation extraite du rapport résume l’enjeu :
« Le secteur IA santé se construit aujourd’hui. Ne pas intégrer la pluralité des profils, c’est graver les inégalités dans le code. »
Comment ces biais se répercutent sur les usages
Ces biais algorithmiques ne sont pas théoriques. Ils influencent directement les pratiques de triage hospitalier, les prescriptions automatisées, les choix de priorisation en médecine de catastrophe, et même les parcours patients dans des plateformes de santé connectée.
Par exemple, des hôpitaux américains utilisant des IA pour prédire les réadmissions ont dû revoir leur copie : les patients noirs, bien que plus souvent réhospitalisés, étaient classés « faible risque » par l’algorithme – un effet dû à une variable indirecte, les dépenses de santé passées, inférieures en moyenne chez cette population, non pas à leur état de santé réel.
En France, l’intégration de l’IA dans les établissements de santé (via les appels à projets du programme Ségur Numérique ou les initiatives de l’Agence du Numérique en Santé) doit donc impérativement s’accompagner d’audits éthiques, d’expertises pluridisciplinaires et de diversité dans les équipes de conception.
Une fracture européenne… et une opportunité française ?
Le rapport EY souligne que la France, bien qu’en retard en matière de mixité, dispose d’atouts à valoriser. La qualité de ses formations en santé, la richesse de ses données hospitalières, et l’engagement de certaines institutions publiques (CNIL, Inserm, Inria) peuvent permettre une relance vertueuse si elle est bien orientée.
La loi sur la bioéthique de 2021, qui encadre désormais certains usages de l’IA médicale, offre un cadre à renforcer. Mais sans implication forte des actrices du secteur, ce cadre risque de rester un vœu pieux.
L’enjeu, in fine, n’est pas de créer des IA « pour les femmes », mais des IA codées par tous, pour tous. Cela implique une transformation des formations en science des données, des financements dédiés à l’entrepreneuriat féminin, et une véritable culture d’audit critique dans les CHU, les pôles de recherche et les startups medtech.