Run Phases : P8 Compétences : E2 · E4
Détection de drift (data/concept)
Définition
La détection de drift est la surveillance des évolutions affectant la pertinence d’un modèle IA en production. Deux types de drift coexistent. Le data drift désigne l’évolution de la distribution des données d’entrée par rapport au jeu d’entraînement (par exemple : profils de clients changeants, contexte économique évoluant). Le concept drift désigne l’évolution de la relation entre données d’entrée et variable cible (par exemple : la même configuration produit désormais un résultat différent).
Pour l’AIBS, la détection de drift constitue un volet structurant de la phase P8. Elle alimente la compétence E2 (assurer la qualité des solutions IA). La maîtrise attendue est conceptuelle : comprendre les types de drift, savoir interpréter les alertes, savoir distinguer drift attendu (saisonnalité) et drift inattendu (changement structurel). La mise en œuvre technique relève des spécialistes data science.
L’enjeu central est la distinction entre les drifts justifiant un retraining et ceux signalant un changement structurel justifiant une révision plus profonde du modèle. Le retraining automatique sans investigation peut masquer des évolutions importantes du contexte métier.
Quand l’utiliser
À mettre en place dès le passage en production (phase P8). Surveillance continue automatisée pour les solutions critiques, surveillance manuelle périodique pour les solutions à faible volume.
Exemple visuel
Types de drift et stratégies de détection
| Type de drift | Définition | Méthodes de détection | Réaction |
|---|---|---|---|
| Data drift (covariate) | Distribution des features change | Tests KS, distance KL, chi-deux par feature | Investigation, possibilité retraining |
| Label drift | Distribution de la cible change | Surveillance proportions classes | Révision du modèle |
| Concept drift | Relation X→Y change | Surveillance performance dans le temps | Retraining avec données récentes |
| Drift de sous-population | Drift sur un sous-groupe | Surveillance par sous-population | Investigation ciblée |
| Drift saisonnier | Variation cyclique attendue | Comparaison année sur année | Pas d’action si attendu |
Exemple concret rempli
Exemple appliqué — Détection de drift sur un modèle de scoring crédit
Une banque retail surveille en continu son modèle de scoring crédit (déployé en production depuis 18 mois) avec un système de détection de drift à plusieurs couches.
Couche 1 — Surveillance des features d’entrée (data drift)
Les 23 features du modèle sont surveillées individuellement par test de Kolmogorov-Smirnov hebdomadaire, comparant la distribution de la semaine écoulée à la distribution d’entraînement.
Sur 18 mois d’exploitation, 12 alertes de drift de features ont été remontées : - 4 alertes sur la feature « taux d’intérêt de référence » : évolution attendue suite aux changements de politique monétaire BNS. Pas d’action, drift catalogué comme attendu. - 3 alertes sur « ratio dette/revenus » : évolution structurelle des profils de demande post-Covid. Investigation conduisant à une mise à jour de la baseline de référence. - 2 alertes sur « profession » : apparition de nouvelles catégories non présentes à l’entraînement (créateurs de contenu, freelances numériques). Action : enrichissement de la mapping des professions. - 2 alertes sur « zone géographique » : élargissement du périmètre commercial. Action : retraining ciblé. - 1 alerte sur « historique de crédit » : qualité de la donnée dégradée par un changement de système amont. Action : correction du flux de données.
Couche 2 — Surveillance de la performance (concept drift)
Mesure mensuelle de la performance du modèle sur les nouvelles décisions, comparée à la performance d’entraînement.
Indicateurs surveillés : AUC sur le nouveau jeu de données, précision et rappel par seuil, calibration (correspondance entre score prédit et taux réel observé).
Sur 18 mois, l’AUC a évolué de 0,84 à 0,79. Le drift de performance est progressif et sans rupture marquée. Cause investiguée : évolution du contexte économique modifiant les profils de défaut. Action engagée : retraining trimestriel programmé avec les données les plus récentes.
Couche 3 — Surveillance par sous-population
Mesure trimestrielle de la performance par sous-groupes (genre, âge, région, profession, niveau de revenu).
Sur 18 mois, deux dérives par sous-population ont été identifiées : - Performance dégradée sur la sous-population des indépendants (rappel passé de 0,72 à 0,58). Investigation : évolution structurelle de cette population (digitalisation de l’économie). Action : retraining avec sur-pondération de cette sous-population. - Performance améliorée mais avec biais sur la sous-population des seniors (taux d’acceptation supérieur de 8% à la moyenne, sans justification dans les variables financières). Investigation : possible biais introduit par une feature corrélée à l’âge. Action : audit de biais conduit par le data scientist, recommandation d’écarter une feature spécifique.
Couche 4 — Surveillance qualitative
Mesure qualitative trimestrielle par échantillonnage : 50 dossiers par trimestre revus manuellement par un comité (chargé de crédit senior, AIBS, data scientist) pour valider la cohérence du score avec l’analyse experte.
Cette surveillance qualitative a permis d’identifier deux types de cas problématiques difficilement détectables par les statistiques : - Cas 1 : profils atypiques systématiquement sur-scorés (profils académiques avec revenus modestes mais patrimoine familial important). Action : enrichissement des features avec données patrimoniales sur ces profils. - Cas 2 : cas concentrés sur une zone géographique récemment intégrée. Action : campagne ciblée d’amélioration de la qualité des données pour cette zone.
Bilan global à 18 mois : - 2 retrainings complets effectués (à 6 mois et à 12 mois) - 3 ajustements ciblés (corrections de pipeline, mises à jour de mappings) - 1 audit de biais ayant conduit à une révision du modèle - 0 incident critique en production lié à du drift non détecté - Performance maintenue dans les seuils acceptables sur l’ensemble de la période
Le coût annuel de cette surveillance représente environ 18% du budget d’exploitation du modèle, mais a évité au moins deux incidents potentiellement graves (sur-acceptation sur des profils à risque suite à un drift non corrigé) qui auraient eu un coût direct plusieurs ordres de grandeur supérieur.
Variantes
Surveillance manuelle périodique pour solutions à faible volume. Surveillance continue automatisée pour solutions critiques. Approches statistiques classiques (KS, chi-deux) ou modernes (modèles de détection d’anomalies, autoencoders). Plateformes spécialisées (Evidently, Arize, Fiddler) pour les contextes industriels.
⚠ Piège classique
Réaction automatique de retraining sans investigation des causes. Un drift peut signaler un changement structurel justifiant une révision du modèle plutôt qu’un simple retraining sur les données récentes. L’AIBS doit comprendre la nature du drift pour proposer la réaction appropriée.
Clé de succès : Côté AIBS : comprendre conceptuellement, déléguer la mise en place au DS.
Boussole AIBS — Manuel méthodologique non officiel pour le brevet fédéral d’AI Business Specialist.
Sources : Profil de qualification AIBS v15.04.2025 · Annexe directives FAAIB v1.01 · Document modules FAAIB v2.0 · Règlement examen v3.0 (mars 2026)