Bomzai › Insights › Cas clients

Audit IA éthique et biais

IA Banque 1 mois
Résultat mesuré
Conformité AI Act, 3 biais corrigés

Contexte

Banque de détail (5 000 employés). 8 modèles ML de scoring crédit en production. Régulateur (ACPR) et direction des risques exigent un audit des biais potentiels (genre, âge, origine géographique). Aucun framework d'IA éthique en place. Pression croissante sur l'IA Act européen.

Problème & Défi

- 8 modèles ML de scoring crédit non audités pour les biais : risque réglementaire IA Act - ACPR exige une documentation des biais potentiels : aucun framework en place - Suspicion de biais géographique sur 2 modèles - refus de crédit disproportionnés dans certaines zones - Aucune mesure d'équité (fairness metrics) déployée : impossible de prouver l'absence de discrimination - Direction des risques sans visibilité sur l'explicabilité des modèles : boîtes noires - Deadline IA Act : mise en conformité exigée pour les systèmes à haut risque (scoring crédit)

Solution & Livrables

- Audit IA éthique complet réalisé en 10 jours sur les 8 modèles de scoring crédit - Analyse de biais sur 6 dimensions (genre, âge, géographie, nationalité, situation familiale, CSP). 3 biais significatifs identifiés - Recommandations de débiaisage : techniques de rééchantillonnage et de régularisation proposées - Framework de fairness metrics livré et opéré. monitoring continu de l'équité post-déploiement - Explicabilité SHAP/LIME industrialisée - chaque décision de scoring traçable et explicable - Dossier de conformité IA Act préparé → documentation complète pour le régulateur ACPR

Technologies

SHAPFairlearnPython

Un cas similaire dans votre secteur ?

Nos experts peuvent approfondir ce thème lors d’un échange de 30 minutes.

Discuter avec un expert →