De plus en plus de médecins utilisent l’intelligence artificielle (IA) pour faire de l’aide au diagnostic, analyser des images, des radios, ou détecter plus facilement des signes de pathologie par exemple. L’espoir est notamment de limiter les erreurs humaines dues à la fatigue ou à l’inattention, que ne connaissent pas les machines. Mais attention, alerte une récente étude. Tout dépend de la base de données qui a servi à entraîner et programmer la machine. L’étude s’est penchée sur les biais liés au sexe des patients : si les images de sujets masculins sont surreprésentées, les femmes seront moins bien diagnostiquées ; et inversement. En revanche, les performances de l’IA sont excellentes lorsque les deux sexes sont représentés à égalité. Plus généralement, ces résultats suggèrent que les groupes minoritaires risquent de pâtir du développement de l’aide au diagnostic et de systèmes d’IA. Les chercheurs plaident donc pour la constitution de bases de données aussi diversifiées et équilibrées que possible, et plus généralement pour qu’une réflexion éthique et méthodologique accompagne davantage les développements de ces technologies.
Agostina Larrazabal et al., « Gender imbalance in medical imaging datasets produces biased classifiers for computer-aided diagnosis », Proceedings of the National Academy of Sciences, vol. CXVII, n° 23, 9 juin 2020.
Cette brève est parue dans Sciences Humaines (n° 329, octobre 2020). Rendez-vous en kiosque ou sur le site pour retrouver d’autres actus scientifiques.