BoussoleAIBS
Manuel du Brevet Fédéral

Outil méthodologique

Analyse de biais

Identification des biais potentiels dans données et modèles : sélection, mesure, confirmation, sociétaux.

Éthique Phases : P5 Compétences : C4

Analyse de biais

Définition

L’analyse de biais est l’évaluation systématique des biais susceptibles d’affecter un système IA et de produire des résultats inéquitables ou inexacts pour certains groupes. Plusieurs types de biais coexistent : biais de sélection (les données d’entraînement ne représentent pas la population cible), biais de mesure (la collecte ou l’étiquetage est biaisé), biais sociétaux (les données reflètent des inégalités historiques), biais d’algorithme (la fonction objectif amplifie certains comportements), biais d’évaluation (le jeu de test ne couvre pas la diversité des cas réels).

Pour l’AIBS, l’analyse de biais constitue un volet structurant de la phase P5. Elle alimente la compétence obligatoire C4 (vérifier la faisabilité d’une solution basée sur l’IA), évaluée à l’examen partie 1. La maîtrise attendue est conceptuelle : connaître les types de biais, comprendre leurs origines, identifier les groupes potentiellement affectés et les conséquences métier, sans nécessairement maîtriser les techniques d’analyse.

Le rôle de l’AIBS est complémentaire de celui du data scientist. L’AIBS apporte la connaissance métier des groupes affectés et des conséquences, identifie les enjeux d’équité spécifiques au secteur, formule les exigences de transparence et de supervision. Le data scientist conduit les mesures techniques, applique les mécanismes d’atténuation et documente les biais résiduels.

Quand l’utiliser

À conduire en phase P5 lors de l’évaluation de faisabilité de la dimension éthique. Surveillance continue en phase P8 pour détecter d’éventuels biais émergents avec l’évolution des données.

Exemple visuel

Typologie des biais en IA

Type de biaisOrigineExempleAtténuation
Biais de sélectionDonnées non représentativesRecrutement entraîné sur CV historiques masculinsRééquilibrage, sur-échantillonnage
Biais de mesureCollecte ou étiquetage biaiséDiagnostic médical sous-déclaré pour certaines populationsAudit méthodologique, double étiquetage
Biais sociétalInégalités historiques dans les donnéesSalaires reflètent inégalités historiquesContraintes algorithmiques d’équité
Biais d’algorithmeFonction objectif amplifiant des écartsRanking favorisant les contenus populairesRégularisation, contraintes d’équité
Biais de confirmationBoucles de rétroactionRecommandations renforcent profil initialDiversification forcée, exploration
Biais d’évaluationJeu de test non représentatifReconnaissance faciale testée sur photos studioÉvaluation par sous-population

Exemple concret rempli

Exemple appliqué — Analyse de biais pour un projet RH

Une grande organisation publique (1 200 collaborateurs) projette l’utilisation d’un assistant IA pour le tri automatique des candidatures aux mobilités internes. L’analyse de biais est conduite par l’AIBS avec le data scientist, la responsable RH, le DPO et un représentant du personnel.

Phase 1 — Identification des risques de biais (atelier 3 heures) :

Biais de sélection probables : - Données historiques de mobilité reflètent les structures et pratiques passées - Sous-représentation historique des femmes dans certains métiers techniques - Sous-représentation des collaborateurs à temps partiel dans les évolutions - Biais géographique (siège vs filiales régionales)

Biais sociétaux pertinents : - Différences linguistiques (suisse-allemand vs allemand standard) potentiellement pénalisantes - Différences générationnelles dans la formulation des CV - Différences d’origine culturelle dans la mise en avant des expériences

Biais d’algorithme à anticiper : - Optimisation pour la performance passée pourrait amplifier les pratiques existantes - Boucle de rétroaction si le système apprend des décisions qu’il a contribué à prendre

Groupes potentiellement affectés : - Femmes dans les filières historiquement masculines - Collaborateurs à temps partiel - Collaborateurs des filiales régionales - Collaborateurs ayant des parcours atypiques (reconversion, congés parentaux longs)

Phase 2 — Mesures techniques par le data scientist (4 semaines) :

Sur l’historique des 5 dernières années (1 800 candidatures, 320 mobilités effectives) : - Test statistique de parité démographique sur l’évaluation : différence significative selon le genre (-12% de score moyen pour les femmes, p<0,01) - Test d’égalité des chances sur le rappel : différence significative selon la filiale (-18% pour les régions vs siège, p<0,001) - Disparate Impact ratio : 0,72 (en dessous du seuil 0,80 considéré comme problématique)

Phase 3 — Mécanismes d’atténuation retenus :

Niveau données : - Rééquilibrage de l’historique d’entraînement par sur-échantillonnage des candidatures sous-représentées - Anonymisation des informations directement discriminantes (genre, âge, photo, nom complet retiré pour le scoring initial) - Conservation de ces informations pour un audit a posteriori, non pour le scoring

Niveau modèle : - Contrainte algorithmique d’équité (parité démographique soft) intégrée à l’optimisation - Évaluation séparée par sous-population à chaque cycle d’entraînement - Seuils ajustables différenciés non retenus (controverse éthique)

Niveau processus : - Le scoring IA produit une orientation, pas une décision : la décision finale reste humaine - Audit annuel par un cabinet externe sur la distribution des décisions - Mécanisme de réclamation accessible pour les candidats - Reporting trimestriel au comité de direction sur les indicateurs d’équité

Phase 4 — Documentation et validation :

Note d’analyse de biais (8 pages) intégrée au rapport de faisabilité. Validation par le comité éthique interne et par un consultant externe en droit du travail. Adoption en comité de direction avec engagement formel sur la transparence et l’audit annuel.

Documentation des biais résiduels acceptés : limites des mécanismes d’atténuation reconnues, plan de surveillance défini, points de re-évaluation programmés.

Variantes

Frameworks formels d’audit de biais : IBM AI Fairness 360, Microsoft Fairlearn, Google What-If Tool, Aequitas. Niveau d’utilisation par l’AIBS : compréhension des outputs, pas mise en œuvre technique.

⚠ Piège classique

Délégation complète au data scientist sans vision métier des biais sociétaux. L’AIBS apporte la connaissance des groupes affectés et des conséquences métier ; le data scientist apporte les techniques d’analyse. La séparation des rôles est essentielle : sans contribution de l’AIBS, l’analyse risque d’être technique mais déconnectée des enjeux réels.

Clé de succès : Compréhension conceptuelle suffit pour l’AIBS — l’analyse technique est faite par le DS.

Boussole AIBS — Manuel méthodologique non officiel pour le brevet fédéral d’AI Business Specialist.

Sources : Profil de qualification AIBS v15.04.2025 · Annexe directives FAAIB v1.01 · Document modules FAAIB v2.0 · Règlement examen v3.0 (mars 2026)