Éthique Phases : P5 Compétences : C4
Analyse de biais
Définition
L’analyse de biais est l’évaluation systématique des biais susceptibles d’affecter un système IA et de produire des résultats inéquitables ou inexacts pour certains groupes. Plusieurs types de biais coexistent : biais de sélection (les données d’entraînement ne représentent pas la population cible), biais de mesure (la collecte ou l’étiquetage est biaisé), biais sociétaux (les données reflètent des inégalités historiques), biais d’algorithme (la fonction objectif amplifie certains comportements), biais d’évaluation (le jeu de test ne couvre pas la diversité des cas réels).
Pour l’AIBS, l’analyse de biais constitue un volet structurant de la phase P5. Elle alimente la compétence obligatoire C4 (vérifier la faisabilité d’une solution basée sur l’IA), évaluée à l’examen partie 1. La maîtrise attendue est conceptuelle : connaître les types de biais, comprendre leurs origines, identifier les groupes potentiellement affectés et les conséquences métier, sans nécessairement maîtriser les techniques d’analyse.
Le rôle de l’AIBS est complémentaire de celui du data scientist. L’AIBS apporte la connaissance métier des groupes affectés et des conséquences, identifie les enjeux d’équité spécifiques au secteur, formule les exigences de transparence et de supervision. Le data scientist conduit les mesures techniques, applique les mécanismes d’atténuation et documente les biais résiduels.
Quand l’utiliser
À conduire en phase P5 lors de l’évaluation de faisabilité de la dimension éthique. Surveillance continue en phase P8 pour détecter d’éventuels biais émergents avec l’évolution des données.
Exemple visuel
Typologie des biais en IA
| Type de biais | Origine | Exemple | Atténuation |
|---|---|---|---|
| Biais de sélection | Données non représentatives | Recrutement entraîné sur CV historiques masculins | Rééquilibrage, sur-échantillonnage |
| Biais de mesure | Collecte ou étiquetage biaisé | Diagnostic médical sous-déclaré pour certaines populations | Audit méthodologique, double étiquetage |
| Biais sociétal | Inégalités historiques dans les données | Salaires reflètent inégalités historiques | Contraintes algorithmiques d’équité |
| Biais d’algorithme | Fonction objectif amplifiant des écarts | Ranking favorisant les contenus populaires | Régularisation, contraintes d’équité |
| Biais de confirmation | Boucles de rétroaction | Recommandations renforcent profil initial | Diversification forcée, exploration |
| Biais d’évaluation | Jeu de test non représentatif | Reconnaissance faciale testée sur photos studio | Évaluation par sous-population |
Exemple concret rempli
Exemple appliqué — Analyse de biais pour un projet RH
Une grande organisation publique (1 200 collaborateurs) projette l’utilisation d’un assistant IA pour le tri automatique des candidatures aux mobilités internes. L’analyse de biais est conduite par l’AIBS avec le data scientist, la responsable RH, le DPO et un représentant du personnel.
Phase 1 — Identification des risques de biais (atelier 3 heures) :
Biais de sélection probables : - Données historiques de mobilité reflètent les structures et pratiques passées - Sous-représentation historique des femmes dans certains métiers techniques - Sous-représentation des collaborateurs à temps partiel dans les évolutions - Biais géographique (siège vs filiales régionales)
Biais sociétaux pertinents : - Différences linguistiques (suisse-allemand vs allemand standard) potentiellement pénalisantes - Différences générationnelles dans la formulation des CV - Différences d’origine culturelle dans la mise en avant des expériences
Biais d’algorithme à anticiper : - Optimisation pour la performance passée pourrait amplifier les pratiques existantes - Boucle de rétroaction si le système apprend des décisions qu’il a contribué à prendre
Groupes potentiellement affectés : - Femmes dans les filières historiquement masculines - Collaborateurs à temps partiel - Collaborateurs des filiales régionales - Collaborateurs ayant des parcours atypiques (reconversion, congés parentaux longs)
Phase 2 — Mesures techniques par le data scientist (4 semaines) :
Sur l’historique des 5 dernières années (1 800 candidatures, 320 mobilités effectives) : - Test statistique de parité démographique sur l’évaluation : différence significative selon le genre (-12% de score moyen pour les femmes, p<0,01) - Test d’égalité des chances sur le rappel : différence significative selon la filiale (-18% pour les régions vs siège, p<0,001) - Disparate Impact ratio : 0,72 (en dessous du seuil 0,80 considéré comme problématique)
Phase 3 — Mécanismes d’atténuation retenus :
Niveau données : - Rééquilibrage de l’historique d’entraînement par sur-échantillonnage des candidatures sous-représentées - Anonymisation des informations directement discriminantes (genre, âge, photo, nom complet retiré pour le scoring initial) - Conservation de ces informations pour un audit a posteriori, non pour le scoring
Niveau modèle : - Contrainte algorithmique d’équité (parité démographique soft) intégrée à l’optimisation - Évaluation séparée par sous-population à chaque cycle d’entraînement - Seuils ajustables différenciés non retenus (controverse éthique)
Niveau processus : - Le scoring IA produit une orientation, pas une décision : la décision finale reste humaine - Audit annuel par un cabinet externe sur la distribution des décisions - Mécanisme de réclamation accessible pour les candidats - Reporting trimestriel au comité de direction sur les indicateurs d’équité
Phase 4 — Documentation et validation :
Note d’analyse de biais (8 pages) intégrée au rapport de faisabilité. Validation par le comité éthique interne et par un consultant externe en droit du travail. Adoption en comité de direction avec engagement formel sur la transparence et l’audit annuel.
Documentation des biais résiduels acceptés : limites des mécanismes d’atténuation reconnues, plan de surveillance défini, points de re-évaluation programmés.
Variantes
Frameworks formels d’audit de biais : IBM AI Fairness 360, Microsoft Fairlearn, Google What-If Tool, Aequitas. Niveau d’utilisation par l’AIBS : compréhension des outputs, pas mise en œuvre technique.
⚠ Piège classique
Délégation complète au data scientist sans vision métier des biais sociétaux. L’AIBS apporte la connaissance des groupes affectés et des conséquences métier ; le data scientist apporte les techniques d’analyse. La séparation des rôles est essentielle : sans contribution de l’AIBS, l’analyse risque d’être technique mais déconnectée des enjeux réels.
Clé de succès : Compréhension conceptuelle suffit pour l’AIBS — l’analyse technique est faite par le DS.
Boussole AIBS — Manuel méthodologique non officiel pour le brevet fédéral d’AI Business Specialist.
Sources : Profil de qualification AIBS v15.04.2025 · Annexe directives FAAIB v1.01 · Document modules FAAIB v2.0 · Règlement examen v3.0 (mars 2026)