BoussoleAIBS
Manuel du Brevet Fédéral

Phase P2

Examen ★

Priorisation & sélection

Trier les cas d'usage selon des critères explicites pour identifier le ou les plus prometteurs à approfondir. Préparer une recommandation argumentée.

P2 DCO B ★ obligatoire examen

Priorisation & sélection

La phase P2 est le moment où l’AIBS endosse pleinement son rôle d’éclaireur de la décision. Vous arrivez avec 12-15 cas d’usage cadrés en P1, et il faut en extraire les 1-3 que l’organisation va effectivement développer. C’est la compétence B3, **obligatoire à l’examen**, et c’est aussi la compétence où les étudiants se cassent le plus les dents — parce qu’elle exige de la rigueur méthodologique ET du sens politique.

La rigueur méthodologique d’abord : prioriser sans critères explicites est un acte arbitraire qui sera contesté à juste titre. La méthode B3 impose des critères, des poids, une évaluation traçable, une recommandation argumentée. C’est de la transparence : « voici comment j’ai conclu, vous pouvez vérifier ».

Le sens politique ensuite : la priorisation se fait dans un environnement où les parties prenantes ont des préférences (« mon » cas d’usage, celui de mon département). L’AIBS doit construire la priorisation **avec** ces parties prenantes, pas contre elles. Une priorisation techniquement parfaite mais imposée d’en haut sera sabotée. Une priorisation co-construite, même un peu moins parfaite, sera défendue par toute l’équipe.

L’erreur archétypale en P2 : un AIBS qui produit une « matrice impact × faisabilité » avec ses critères à lui, ses pondérations, et présente le résultat comme une vérité objective. C’est une erreur double : (1) la priorisation devient indéfendable parce que personne ne s’y reconnaît, (2) l’AIBS rate l’occasion de créer le consensus politique nécessaire à la suite du projet.

Méthode pas-à-pas

Voici le déroulé concret de la phase, étape par étape :

1. Définir les critères d’évaluation AVEC les parties prenantes

  • Atelier de 1-2h avec sponsor + responsables métier concernés
  • Question d’entrée : « qu’est-ce qui rend un projet IA prioritaire pour NOTRE organisation ? »
  • Brainstorm critères : impact business, faisabilité, urgence, risque, alignement stratégique, durabilité, etc.
  • Affiner : chaque critère doit être OBSERVABLE et MESURABLE (ou au moins évaluable sur une échelle)
  • Limiter : 4-6 critères max. Au-delà, la priorisation devient illisible et les pondérations diluent tout

2. Pondérer les critères

  • Tous les critères ne se valent pas. La pondération force l’organisation à clarifier ses arbitrages
  • Méthode 1 — pondération directe : chaque critère reçoit un poids (10, 20, 30, 40%) qui somme à 100%
  • Méthode 2 — comparaisons par paires : pour chaque paire de critères, lequel est plus important ?
  • Faire valider les pondérations par le sponsor AVANT de scorer les cas (sinon biais cognitif)
  • Documenter le RAISONNEMENT derrière chaque pondération

3. Scorer chaque cas d’usage

  • Échelle simple (1-5 ou 1-10) pour chaque critère
  • Scoring collégial : sponsor + AIBS + 1-2 experts métiers, en atelier
  • Ne PAS scorer seul : le scoring collégial révèle les désaccords (riches d’informations) et bâtit le consensus
  • Pour les critères techniques (faisabilité), faire intervenir un expert (Data Scientist, architecte)
  • Documenter l’argument derrière chaque score (« faisabilité 4 parce que les données sont disponibles dans le CRM »)

4. Calculer le score pondéré et classer

  • Score total = somme(score critère × poids critère) pour chaque cas
  • Trier par score décroissant
  • Identifier les seuils naturels (3-4 cas en haut nettement détachés, puis un peloton)
  • Vérifier la cohérence avec l’intuition : si le résultat surprend, comprendre pourquoi (souvent ça révèle un critère mal pesé)

5. Analyser de sensibilité

  • Tester la robustesse : si on change les pondérations de ±20%, le top 3 change-t-il ?
  • Tester l’élimination d’un critère : si on enlève le critère X, le classement reste-t-il cohérent ?
  • Si les résultats sont très sensibles aux poids, c’est un signal : (a) les critères sont mal choisis, ou (b) plusieurs cas sont équivalents et le classement est arbitraire — il faut alors faire intervenir d’autres considérations

6. Formuler la recommandation

  • Pas seulement « voici le classement ». Une recommandation argumentée comprend : la méthode utilisée, les résultats, l’analyse de sensibilité, les hypothèses, les risques, et UNE proposition claire (« on recommande de partir sur le cas #2 et #5, dans cet ordre »)
  • Justifier pourquoi le top 2-3 et pas tous les autres
  • Préciser les conditions d’engagement : ressources nécessaires, planning, jalons, sponsor
  • Format livrable : note 5-10 pages OU slidedeck 12-15 slides + matrice détaillée en annexe

7. Présenter et faire valider

  • Présentation au comité de décision (sponsor + autres décideurs concernés)
  • Format : 30-45 min, dont 15-20 min de présentation et 15-25 min de discussion
  • Préparer les objections probables : « pourquoi pas mon cas ? », « êtes-vous sûr des chiffres ? »
  • Recueillir la décision formelle : quel(s) cas, avec quelle priorité, à quelle échéance
  • Formaliser par écrit (compte-rendu signé ou mail validé)

Outils — mode d’emploi détaillé

Matrice impact × faisabilité

Mode d’emploi :

  • Tracer un graphique 2 axes : impact (Y) × faisabilité (X)
  • Définir des sous-critères pour CHAQUE axe (sinon le placement est subjectif). Ex pour impact : volume affecté, gain temps, gain qualité, alignement stratégique. Ex pour faisabilité : disponibilité données, maturité technologie, compétences internes, conformité
  • Positionner chaque cas comme un point (ou un cercle dont le diamètre = budget estimé)
  • Identifier 4 zones : (1) Top-droite = quick wins (à faire), (2) Top-gauche = projets stratégiques (planifier), (3) Bas-droite = opportunistes (si capacité), (4) Bas-gauche = à abandonner ou reformuler
  • Discuter en équipe les positionnements limites

Variantes : Matrice 2x2 simple (4 cases) ou matrice continue (placement précis sur 2 axes). Option 3D : ajouter axe Z = urgence ou risque.

⚠ Piège classique

Outil rapide mais limité quand on a 12+ cas. Au-delà, la matrice devient illisible — passer au scoring multicritère.

Scoring multicritère pondéré

Mode d’emploi :

  • Tableau Excel/Sheets : lignes = cas d’usage, colonnes = critères
  • Première colonne pondération en haut (ex : Impact 30%, Faisabilité 25%, Urgence 20%, Risque 15%, Strategic Fit 10%)
  • Score chaque cellule sur échelle 1-5
  • Colonne dernière = score pondéré = SUMPRODUCT(scores × poids)
  • Tri descendant
  • Mise en forme conditionnelle pour visualiser : vert au-dessus du seuil, jaune intermédiaire, rouge en dessous

Variantes : AHP (Analytic Hierarchy Process) pour pondérations rigoureuses. WSM (Weighted Sum Model) version simple. TOPSIS pour optimisation multicritère.

⚠ Piège classique

Pondérations choisies APRÈS avoir scoré (consciemment ou non). TOUJOURS pondérer avant de scorer pour éviter le biais de confirmation.

Effort × Value mapping

Mode d’emploi :

  • Variante simplifiée pour P2 rapide. Axe X = effort (temps + budget + ressources). Axe Y = valeur (gain métier + gain stratégique)
  • Positionner les cas en 4 catégories : Quick Wins (low effort, high value), Big Bets (high effort, high value), Fill-ins (low effort, low value), Money Pits (high effort, low value)
  • Décision typique : exécuter Quick Wins, planifier Big Bets, considérer Fill-ins si capacité, abandonner Money Pits

Variantes : Existe sous plusieurs noms : Eisenhower matrix, MoSCoW (Must/Should/Could/Won’t), RICE scoring (Reach × Impact × Confidence / Effort).

⚠ Piège classique

Sous-estimer l’effort pour les cas qu’on aime. Toujours faire valider par un expert technique avant de classer en Quick Win.

Atelier de priorisation collaboratif

Mode d’emploi :

  • Préparation : envoi 1 semaine avant des fiches cas d’usage aux participants
  • Composition : sponsor + 4-8 décideurs/experts (mix métier + IT + DPO)
  • Format 3h : (1) rappel des cas (30 min), (2) cadrage critères et pondérations (45 min), (3) scoring collégial (60 min), (4) discussion et arbitrages (30 min), (5) finalisation recommandation (15 min)
  • Animation : l’AIBS anime, ne décide pas. Pose les questions, force l’argumentation, capte les désaccords
  • Outils : Excel partagé en projection ou Mural pour visualiser le scoring en temps réel

Variantes : Version asynchrone : scoring individuel par chaque participant puis consolidation. Version courte 90 min pour PME avec peu de cas.

⚠ Piège classique

Le sponsor qui domine et que personne n’ose contredire. L’AIBS doit créer un espace de désaccord (anonymat partiel, tour de table forcé, technique du « avocat du diable »).

Note de recommandation 1-pager

Mode d’emploi :

  • Format 1 page A4, max 1500 mots
  • Structure SCQA : Situation (où on en est), Complication (le défi), Question (la décision à prendre), Answer (la recommandation)
  • Section 1 — Contexte (3-5 lignes)
  • Section 2 — Méthode (5-8 lignes : critères, pondérations, processus)
  • Section 3 — Résultats (tableau de classement top 5 avec scores)
  • Section 4 — Recommandation (3-5 lignes : « nous recommandons de partir sur les cas X et Y, dans cet ordre, pour les raisons suivantes… »)
  • Section 5 — Conditions et risques (3-5 lignes)
  • Section 6 — Prochaines étapes (3 lignes)

Variantes : Version executive (½ page) en complément. Version étendue (5 pages) avec annexe méthodologique pour audit/conformité.

⚠ Piège classique

Note trop longue qui dilue la recommandation. Si le décideur ne lit que la première phrase, qu’a-t-il appris ? La recommandation doit y être.

Cas type

Exemple — P2 dans la fiduciaire romande (suite de P1)

Le cas type prolonge l’exemple de la phase P1 : 12 cas d’usage ont été cadrés et il convient désormais d’en sélectionner 2 à 3 pour la suite des travaux.

L’atelier critères (1 heure avec 5 décideurs) est animé par l’AIBS. L’équipe converge sur 5 critères : - Impact financier (gain de temps × valorisation horaire) — pondération 30% - Faisabilité technique (données et technologies) — pondération 25% - Faisabilité organisationnelle (acceptation équipe et conduite du changement) — pondération 20% - Risque conformité (LPD, secret professionnel) — pondération 15% - Alignement stratégique (positionnement digital) — pondération 10%

Le scoring collégial (2 heures en atelier, équipe élargie à 8 personnes) attribue à chaque cas un score sur les 5 critères. L’AIBS capte les désaccords pour les documenter. Sur 12 cas, 4 reçoivent un score pondéré supérieur à 3,5/5 : 1. OCR avec classification automatique des factures fournisseurs (3,9) 2. Détection d’anomalies dans les écritures comptables (3,7) 3. Assistant rédaction GPT pour les courriers clients (3,6) 4. Pré-remplissage automatique des déclarations fiscales (3,5)

L’analyse de sensibilité teste deux scénarios alternatifs. Si la pondération du risque conformité passe à 20% (au lieu de 15%), le cas #3 (assistant GPT) descend à la 5ème place. Si la pondération de l’impact financier passe à 40%, le cas #4 (déclarations fiscales) remonte au 2ème. Ces sensibilités sont rapportées dans la note de recommandation.

La recommandation propose de partir sur le cas #1 (OCR factures) en premier projet, pour trois raisons : (a) score le plus élevé, (b) faisabilité robuste, (c) bon vecteur d’apprentissage organisationnel pour les futurs projets. Le cas #2 (détection anomalies) est recommandé en second sous condition de validation de la qualité des données comptables historiques.

La décision du comité valide le cas #1 immédiatement et place le cas #2 en réserve sous condition. Le cas #3 (assistant GPT) est reporté à 12 mois (incertitudes conformité). Le cas #4 est abandonné (un nouveau logiciel fiscal externe couvre le besoin).

L’élément clé identifié dans ce cas type tient à la rigueur du cadrage des critères en collégialité. Sans cette phase préalable, l’organisation serait probablement partie avec une matrice impact × faisabilité simple. Le cas #3 (assistant GPT, très visible et politiquement séduisant) aurait probablement été choisi comme premier projet, exposant l’organisation à des risques de conformité significatifs identifiés ultérieurement en phase P5.

Bonnes pratiques observées

Recommandations issues de la pratique professionnelle :

  • L’établissement des critères et des pondérations précède le scoring. Sans exception. Cette règle constitue le fondement d’une priorisation honnête.
  • Le scoring s’effectue en collectif, non en autonomie. Un scoring conduit en autonomie par l’AIBS est méthodologiquement fragile — en l’absence de validation collégiale.
  • Si l’ensemble des critères favorise systématiquement un cas particulier, le choix des critères est probablement biaisé. Une révision est nécessaire.
  • Le résultat de la priorisation peut surprendre. Une priorisation dont les résultats sont entièrement prévisibles n’apporte pas de valeur ajoutée.
  • Les arguments justifiant chaque score sont à documenter. Dans un horizon de 6 mois, la question « pourquoi le cas X a-t-il été écarté ? » se posera, et la réponse doit être traçable.
  • L’analyse de sensibilité distingue les démarches matures des démarches superficielles. Elle révèle la robustesse (ou la fragilité) de votre recommandation.
  • Une priorisation qui ne tranche pas (« tous les cas sont intéressants, on pourrait tous les faire ») constitue un échec. Le sponsor attend des choix, non des considérations générales.
  • Une préparation aux objections politiques est nécessaire. Le directeur du département dont le cas n’est pas retenu contestera fréquemment la décision. L’anticipation par des arguments factuels est recommandée.
  • Une priorisation de qualité propose également des cas à abandonner explicitement, et non uniquement à reporter. Les cas en suspens (« on verra plus tard ») perturbent les futurs cycles.
  • Le sponsor peut surcharger votre priorisation par décision politique (« c’est mon cas favori, on commence par là »). La décision est à accepter, tout en étant clairement documentée que ce n’était pas la recommandation issue de l’analyse.
  • Une priorisation reste valide environ 12 mois. Au-delà, l’évolution du contexte impose une révision.
  • Le critère « strategic fit » s’appuie nécessairement sur la stratégie ÉCRITE de l’organisation, pas sur l’opinion du sponsor du jour. À défaut, le critère perd sa valeur discriminante.

Erreurs fréquentes — et leur antidote

❌ Erreur : Critères flous (« intéressant », « pertinent », « important »)

✓ Antidote : Tout critère doit pouvoir être scoré 1-5 sans débat possible. Si « intéressant » est votre critère, précisez : intéressant POUR QUI, MESURÉ COMMENT.

❌ Erreur : Pondérations identiques pour tous les critères (25% / 25% / 25% / 25%)

✓ Antidote : Forcer les arbitrages : tous les critères ne se valent pas. La pondération identique est la fuite politique de celui qui n’ose pas trancher.

❌ Erreur : Scoring fait par l’AIBS seul, en mode caché, présenté comme un fait acquis

✓ Antidote : Toujours scoring collégial avec les parties prenantes. Le processus crée le consensus, le résultat seul ne suffit pas.

❌ Erreur : Recommandation ambiguë (« les cas X, Y et Z sont prioritaires »)

✓ Antidote : Recommandation tranchée : « commencer par X, suivi de Y dans 6 mois, abandonner Z ». Une recommandation = un ordre clair.

❌ Erreur : Pas d’analyse de sensibilité

✓ Antidote : Toujours tester ±20% sur 2-3 critères clés. Sans ça, on ne sait pas si le classement est robuste ou fragile.

❌ Erreur : Mélanger des cas de tailles très différentes (un mini-script + un projet à 500k€)

✓ Antidote : Si les cas ont des ordres de grandeur différents, prioriser par catégorie. Sinon les petits cas écrasent les grands ou inversement.

❌ Erreur : Oublier de prévoir l’après (« on a notre cas prioritaire, on fait quoi ? »)

✓ Antidote : La recommandation P2 inclut TOUJOURS la suite : qui pilote, quand on démarre, quels jalons P3-P6, quel budget.

❌ Erreur : Présenter les résultats sans contexte de méthode

✓ Antidote : Toujours expliquer COMMENT on a abouti, pas seulement le résultat. La crédibilité = transparence du processus.

FAQ — questions fréquentes

Comment choisir le bon nombre de critères ?

4 à 6 critères. Moins de 4 : trop simpliste. Plus de 6 : illisible et les pondérations diluent les différences.

Quand utiliser une matrice 2x2 plutôt qu’un scoring multicritère ?

Matrice 2x2 : si vous avez moins de 8 cas et que 2 critères suffisent (impact + faisabilité). Scoring multicritère : dès 8+ cas ou si la décision est politiquement sensible (l’analyse plus rigoureuse défend mieux).

Comment gérer un sponsor qui veut imposer son cas favori malgré la priorisation ?

Trois options : (1) accepter et documenter que c’est une décision politique hors méthode, (2) demander quel critère devrait être ajouté/repondéré pour faire remonter ce cas (transparent), (3) refuser si le cas pose des risques majeurs (conformité, faisabilité). Toujours documenter.

Faut-il chiffrer les bénéfices en P2 ou en P6 ?

Estimation grossière en P2 (ordre de grandeur, ±50%), chiffrage précis en P6 (business case). En P2, on tranche entre cas, donc une estimation comparable suffit.

Comment intégrer le risque dans la priorisation ?

Comme critère explicite (avec pondération) OU comme filtre (élimination des cas dont le risque dépasse un seuil). Les deux sont valables, l’important est de NE PAS l’oublier.

Que faire si plusieurs cas se retrouvent à scores identiques ?

C’est un signal : (a) il manque un critère discriminant, (b) les cas sont vraiment équivalents et le choix se joue sur des considérations annexes (séquencement, ressources disponibles, capacité d’apprentissage). Faire le choix de manière argumentée.

Combien de temps prend une P2 ?

2-4 semaines typiquement : 1 atelier critères, 1 atelier scoring, 1 semaine de rédaction note, 1 semaine de présentation et validation.

Pour aller plus loin

  • « Decisive » — Chip & Dan Heath (Livre) — Méthodes de décision multicritère, biais cognitifs
  • AHP (Analytic Hierarchy Process) — Saaty (Méthode) — Pondération rigoureuse pour décisions complexes
  • « RICE Scoring » — Intercom (Article) — Méthode simple et populaire en product management
  • « Prioritization Frameworks » — Reforge (Cours) — Comparaison méthodes de priorisation

Synthèse de la phase

Compétences AIBS mobilisées

  • B3★ — Comparer les possibilités d’utilisation de l’IA et les classer par ordre de priorité

Questions clés à se poser

  • Quels critères de priorisation (impact, faisabilité, urgence, alignement stratégique) ?
  • Comment chaque cas se positionne sur ces critères ?
  • Quelle est la recommandation finale et son argumentation ?
  • Quelles sont les hypothèses sous-jacentes à valider ?
  • Comment les parties prenantes ont-elles contribué à la priorisation ?

Outils mobilisables

  • Matrice impact × faisabilité
  • Scoring multicritère pondéré
  • Effort × value mapping
  • Atelier de priorisation collaboratif
  • Note de recommandation 1-pager

Spécialistes à solliciter

L’AIBS coordonne — il convient de mobiliser les expertises suivantes à cette phase :

  • Sponsor (validation des critères et de la recommandation)
  • Responsables métier (estimation impact)
  • IT/Data si estimation faisabilité technique

Livrable type

Matrice de priorisation + note de recommandation argumentée

Critères go / no-go pour passer à la phase suivante

  • Les critères sont explicites, mesurables et validés ?
  • L’évaluation est traçable cas par cas ?
  • La recommandation est validée par le sponsor ?

⚠ Piège classique

Critères flous ou subjectifs (« intéressant », « pertinent ») : la priorisation devient indéfendable. Toujours quantifier.

Boussole AIBS — Manuel méthodologique non officiel pour le brevet fédéral d’AI Business Specialist.

Sources : Profil de qualification AIBS v15.04.2025 · Annexe directives FAAIB v1.01 · Document modules FAAIB v2.0 · Règlement examen v3.0 (mars 2026)