Bomzai › Insights › Cas clients
Audit IA éthique et biais
Contexte
Banque de détail (5 000 employés). 8 modèles ML de scoring crédit en production. Régulateur (ACPR) et direction des risques exigent un audit des biais potentiels (genre, âge, origine géographique). Aucun framework d'IA éthique en place. Pression croissante sur l'IA Act européen.
Problème & Défi
- 8 modèles ML de scoring crédit non audités pour les biais : risque réglementaire IA Act - ACPR exige une documentation des biais potentiels : aucun framework en place - Suspicion de biais géographique sur 2 modèles - refus de crédit disproportionnés dans certaines zones - Aucune mesure d'équité (fairness metrics) déployée : impossible de prouver l'absence de discrimination - Direction des risques sans visibilité sur l'explicabilité des modèles : boîtes noires - Deadline IA Act : mise en conformité exigée pour les systèmes à haut risque (scoring crédit)
Solution & Livrables
- Audit IA éthique complet réalisé en 10 jours sur les 8 modèles de scoring crédit - Analyse de biais sur 6 dimensions (genre, âge, géographie, nationalité, situation familiale, CSP). 3 biais significatifs identifiés - Recommandations de débiaisage : techniques de rééchantillonnage et de régularisation proposées - Framework de fairness metrics livré et opéré. monitoring continu de l'équité post-déploiement - Explicabilité SHAP/LIME industrialisée - chaque décision de scoring traçable et explicable - Dossier de conformité IA Act préparé → documentation complète pour le régulateur ACPR