
L’intégration et le déploiement de l’IA générative (GenAI) dans les entreprises et la société devraient connaître une forte augmentation au cours des 12 prochains mois, libérant des gains de productivité qui pourraient ajouter des milliards de dollars à l’économie mondiale. Pourtant, même si les organisations adoptent la promesse de cette technologie transformative, l’accent est de plus en plus mis sur les risques associés. Parmi ceux-ci, les biais dans les données d’entraînement. Le développement et les résultats de la GenAI sont de plus en plus reconnus comme une menace potentielle pour son utilisation juste, équitable et inclusive.
Dans ce livre blanc, nous définissons le biais dans la GenAI en relation avec la diversité, l’équité et l’inclusion comme des erreurs systématiques et non aléatoires dans les données, les algorithmes ou l’interprétation des résultats effectués par des modèles de machine learning qui conduisent à des résultats injustes, tels que privilégier un groupe arbitraire d’utilisateurs par rapport à d’autres1.
Non contrôlé, le biais dans la GenAI a le potentiel de perpétuer et même d’amplifier des résultats injustes pour des segments de la communauté, et de contribuer à l’injustice sociale.
Ce rapport exploite l’expertise de l’IMD, de Microsoft et d’EqualVoice pour articuler les risques associés aux biais dans la GenAI liés à la diversité, l’équité et l’inclusion. Il partage également certains des résultats d’une enquête exclusive menée par ses auteurs en 2024 auprès de cadres et de dirigeants d’entreprises. Les principales conclusions de notre enquête montrent que, bien que la plupart des dirigeants soient optimistes quant aux opportunités de la GenAI, une majorité s’inquiète des biais et ne croit pas que leurs organisations en fassent suffisamment pour traiter les risques.
Nous constatons que :
- 72 % sont préoccupés par les biais dans la GenAI ;
- Seulement 5 % se sentent très compétents pour repérer les données, le développement ou le déploiement biaisés dans la GenAI ;
- 71 % ne croient pas que leur organisation en fasse suffisamment pour atténuer les biais dans la GenAI à ce stade ;
- Seulement 9 % sont fortement d’accord pour dire que leurs cadres de gouvernance organisationnelle existants aident à atténuer les biais.
Ces conclusions soulignent l’impératif de prendre des mesures affirmatives et décisives pour traiter les biais dans la GenAI liés à la diversité, l’équité et l’inclusion. Dans ce rapport, nous proposons plusieurs recommandations concrètes pour les organisations : la nécessité d’une approche pan-organisationnelle des biais qui intègre pleinement les processus, la technologie et les personnes. Nous plaidons fortement pour l’intégration des cadres de diversité, d’équité et d’inclusion avec des pratiques d’IA responsables pour sensibiliser aux biais dans la GenAI et développer les compétences, les capacités et la responsabilité transversales pour y faire face.
Le rapport se termine par une série de questions critiques que nous invitons les dirigeants à considérer de toute urgence. Celles-ci incluent :
- Où se situe actuellement la responsabilité de l’IA éthique au sein de l’organisation ?
- Existe-t-il un ensemble clairement articulé de principes d’IA responsable alignés sur les valeurs et les processus organisationnels ?
- Comment les valeurs centrées sur l’humain sont-elles actuellement maintenues dans la formation, la conception et le déploiement de la GenAI ?
- Comment la sensibilisation, les capacités et la responsabilité organisationnelles autour des biais dans la GenAI continueront-elles à évoluer à l’avenir ?
Pour lire le papier blanc complet (en anglais) : https://issuu.com/docs/e6263932b63f7ff1b6779ad716196b68
- Tronnier, F., Löbner, S., Azanbayev, A., & Walter,
M. L. (2024). From Bias to Balance – A Systematic
Literature Review on Gender Bias in AI. PACIS 2024
Proceedings, p.3