BoussoleAIBS
Manuel du Brevet Fédéral

Partie 1 · 50%

Examen partie 1 — Identification & test d'une application d'IA

L'examen partie 1 (Identification et test d'une application d'IA) est oral, individuel, 50% de la note finale. Présentation 15 min + entretien 30 min. Évalue les DCO B et C uniquement.

L’examen comporte 3 parties

Vous êtes sur la partie 1 (50% — DCO B et C). Voir aussi : Partie 2 (25% — DCO D, études de cas écrites) · Partie 3 (25% — DCO E et F, Critical Incidents)

Compétences obligatoires

L’examen partie 1 exige obligatoirement les compétences B3, C3, C4 et C5.

La partie 1 de l’examen — intitulée « Identification et test d’une application d’IA » — constitue la première des deux parties de l’examen final du brevet fédéral d’AI Business Specialist. Elle s’appuie sur un travail préparatoire individuel : le candidat ou la candidate sélectionne un cas d’usage IA, conduit son cadrage et son évaluation jusqu’au stade de la décision, et présente l’ensemble devant un jury.

L’examen ne porte pas sur la qualité technique de la solution conçue, mais sur la rigueur de la démarche AIBS mise en œuvre pour la concevoir, l’évaluer et préparer la décision. Le jury évalue la maîtrise des compétences obligatoires (B3, C3, C4, C5), la cohérence de l’enchaînement entre identification, conception et validation, et la posture professionnelle d’orchestration que le candidat ou la candidate sait démontrer.

La préparation à l’examen se construit sur la durée du cursus et mobilise l’ensemble des modules. Le projet présenté est généralement initié dès les premiers modules et développé progressivement à travers les exercices pratiques. La qualité du choix initial du cas d’usage — ni trop ambitieux pour être traitable dans le cadre de l’examen, ni trop simple pour démontrer les compétences attendues — conditionne fortement la préparation. Un cas d’usage suffisamment riche pour mobiliser l’ensemble des compétences obligatoires, dans un contexte connu du candidat ou de la candidate, et avec un accès à des données ou à un terrain crédible, constitue le profil approprié.

Une particularité de l’examen tient à la posture attendue. Le candidat ou la candidate y démontre sa capacité à orchestrer une démarche structurée, à mobiliser les spécialistes appropriés et à intégrer leurs contributions dans une recommandation argumentée. La maîtrise technique approfondie des modèles d’IA, des architectures ou des outils n’est pas requise ; la capacité à dialoguer avec les spécialistes sur ces sujets et à structurer une décision éclairée l’est.

Préparation pas-à-pas

1. Sélectionner le cas d’usage à présenter

  • Choisir un cas d’usage permettant de mobiliser l’ensemble des compétences obligatoires (B3, C3, C4, C5)
  • Privilégier un contexte connu : organisation où le candidat ou la candidate exerce, secteur professionnel maîtrisé, accès à des interlocuteurs experts
  • Vérifier la disponibilité d’éléments concrets : données simulées ou anonymisées exploitables, parties prenantes mobilisables pour entretiens ou ateliers, documentation accessible
  • Éviter les cas d’usage trop ambitieux (plusieurs projets imbriqués) ou trop simples (automatisation triviale ne mobilisant pas la compréhension de l’IA)
  • Valider le choix avec un instructeur ou un mentor avant d’engager la préparation approfondie

2. Conduire la phase d’identification (DCO B)

  • Documenter les phases P1 (identification des opportunités) et P2 (priorisation et sélection)
  • Pour B1 et B2 : démontrer la qualité du recueil des opportunités, la diversité des sources mobilisées, la rigueur du cadrage en canvas
  • Pour B3 (compétence obligatoire) : produire une priorisation argumentée avec critères explicites, pondérations validées, scoring collégial, analyse de sensibilité, recommandation tranchée
  • Conserver la traçabilité du processus : ateliers menés, parties prenantes consultées, livrables intermédiaires

3. Conduire la phase de conception (DCO C, première partie)

  • Documenter les phases P3 (cadrage des besoins) et P4 (conception de la solution)
  • Pour C1 et C2 : produire un catalogue de besoins, une liste d’exigences priorisées en MoSCoW, une analyse de marché des solutions
  • Pour C3 (compétence obligatoire) : esquisser une solution autonome puis l’approfondir avec la mention des spécialistes mobilisés. Formaliser dans un canvas reconnu (ML Canvas ou AI Canvas)
  • Constituer la matrice RACI projet et les briefs d’experts utilisés
  • Documenter le raisonnement derrière les choix techniques sans nécessité d’une expertise technique approfondie

4. Conduire les phases d’évaluation (DCO C, seconde partie)

  • Documenter les phases P5 (vérification de faisabilité) et P6 (vérification utilité et rentabilité)
  • Pour C4 (compétence obligatoire) : conduire l’évaluation multi-dimensions (technique, données, organisationnelle, juridique, éthique), formuler les conditions et les risques résiduels, démontrer la compréhension conceptuelle des biais
  • Pour C5 (compétence obligatoire) : produire un business case structuré avec TCO, bénéfices, indicateurs de rentabilité, analyse de sensibilité
  • Pour C6 : élaborer la base de décision intégrée et formuler une recommandation tranchée

5. Préparer la présentation

  • Format imposé : 15 minutes de présentation suivies de 30 minutes d’entretien avec le jury
  • Structurer la présentation en cohérence avec le fil rouge AIBS : contexte, identification, conception, évaluation, recommandation
  • Préparer les supports : présentation visuelle structurée, livrables annexes consultables (canvas, RACI, business case, rapport de faisabilité)
  • S’entraîner sur le timing : 15 minutes contraignent à des choix d’exposition. Les détails techniques sont renvoyés à l’entretien
  • Anticiper les questions probables du jury : justifications des choix, alternatives écartées, conditions de transposition à d’autres contextes

6. Conduire la présentation devant le jury

  • Démontrer la posture d’AIBS dès l’introduction : positionnement comme orchestrateur, identification des spécialistes mobilisés
  • Couvrir l’ensemble des compétences obligatoires (B3, C3, C4, C5) avec une profondeur appropriée
  • Quantifier les éléments clés : volumes, coûts, KPIs, seuils, échéances
  • Tenir le timing : 15 minutes nettes pour la présentation, sans débordement
  • Gérer l’entretien avec rigueur : répondre précisément aux questions, accepter les remises en cause sans rigidité, étayer chaque réponse par des éléments concrets

Les 4 compétences obligatoires en détail

Chaque compétence obligatoire fait l’objet d’attentes spécifiques :

B3 — Évaluer et sélectionner les possibilités d’utilisation de l’IA

Attendus :

  • Démontrer une démarche de priorisation rigoureuse : critères explicites définis avec les parties prenantes, pondérations validées, scoring collégial, traçabilité
  • Présenter une analyse de sensibilité : tester la robustesse de la priorisation sur les variables clés
  • Formuler une recommandation tranchée : ne pas se limiter à un classement, mais proposer une décision argumentée
  • Justifier les cas d’usage écartés : la capacité à éliminer est aussi importante que celle de retenir
  • Tracer le processus : ateliers menés, parties prenantes mobilisées, version finale validée par le sponsor

Pièges identifiés :

  • Critères de priorisation flous ou trop nombreux (plus de 6 critères dilue la décision)
  • Pondérations identiques pour tous les critères, ce qui revient à fuir l’arbitrage
  • Scoring effectué seul, sans validation collégiale
  • Absence d’analyse de sensibilité

C3 — Développer des solutions basées sur l’IA

Attendus :

  • Démontrer la capacité à esquisser une solution autonome puis à l’approfondir avec des spécialistes
  • Formaliser la solution dans un canvas reconnu (ML Canvas ou AI Canvas) avec cohérence entre les blocs
  • Identifier explicitement les spécialistes mobilisés et leur contribution
  • Présenter la matrice RACI projet positionnant correctement les rôles (AIBS Accountable sur cadrage et validation, Consulted sur exécution technique)
  • Justifier les choix techniques sans entrer dans des détails d’implémentation hors périmètre AIBS

Pièges identifiés :

  • Glissement vers une expertise technique non requise (choix d’algorithmes spécifiques, architectures détaillées)
  • Canvas rempli sans cohérence interne entre blocs (valeur métier non mesurable par les KPIs identifiés)
  • Matrice RACI positionnant l’AIBS comme Responsible sur les activités d’exécution technique
  • Absence de mention des spécialistes mobilisés

C4 — Vérifier la faisabilité d’une solution basée sur l’IA

Attendus :

  • Conduire l’évaluation sur les cinq dimensions : technique, données, organisationnelle, juridique, éthique
  • Définir les critères d’évaluation et les seuils d’acceptabilité avant les mesures
  • Démontrer la compréhension conceptuelle des biais (types, origines, mécanismes d’atténuation)
  • Produire des résultats quantifiés : KPIs ML mesurés, scores ALCOA+, niveau de risque DPIA
  • Formuler les conditions et les risques résiduels de manière mesurable et traçable

Pièges identifiés :

  • Évaluation limitée à la dimension technique, oubliant les dimensions juridique et éthique
  • Critères définis a posteriori, ajustés aux résultats observés
  • Compréhension des biais réduite à des considérations techniques sans dimension métier
  • Conditions formulées de manière vague (« mobilisation suffisante », « efforts raisonnables »)

C5 — Vérifier l’utilité et la rentabilité d’une solution basée sur l’IA

Attendus :

  • Distinguer clairement les évaluations d’utilité et de rentabilité
  • Produire un TCO complet sur l’horizon retenu (coûts d’investissement, exploitation, conformité, cachés)
  • Quantifier les bénéfices avec hypothèses explicites et traçables
  • Calculer les indicateurs standards (ROI, payback, NPV) avec horizon précisé
  • Conduire une analyse de sensibilité avec scénarios pessimiste, central, optimiste

Pièges identifiés :

  • Confusion entre utilité (pertinence métier) et rentabilité (analyse économique)
  • TCO limité aux coûts d’investissement initiaux, oubliant les coûts récurrents
  • Bénéfices chiffrés sans hypothèses explicites
  • Analyse de sensibilité limitée à des variations cosmétiques (±5%)

Déroulement de l’examen

Format

15 minutes de présentation suivies de 30 minutes d’entretien

Structure de présentation recommandée

  • Introduction (1-2 min) : contexte de l’organisation, problématique métier, positionnement de la démarche AIBS
  • Identification (3-4 min) : cas d’usage retenu, processus de priorisation B3, justification du choix
  • Conception (3-4 min) : exigences principales (C1-C2), esquisse de solution C3, équipe et RACI
  • Évaluation (3-4 min) : faisabilité C4 sur les cinq dimensions, utilité et rentabilité C5
  • Recommandation (1-2 min) : décision proposée, conditions, prochaines étapes
  • Conclusion (30 sec) : posture d’AIBS démontrée et apprentissages tirés

Entretien avec le jury — types de questions

  • Questions de précision : justifications des choix, alternatives écartées
  • Questions de remise en cause : « pourquoi pas ce critère ? », « si l’hypothèse X évoluait ? »
  • Questions de transposition : « et dans un autre secteur ? », « si l’organisation était plus petite ? »
  • Questions techniques de cadrage : compréhension conceptuelle des biais, des architectures, des KPIs ML
  • Questions de posture : articulation avec les spécialistes, gestion des arbitrages, communication aux décideurs

Bonnes pratiques de présentation

Recommandations issues des retours d’expérience :

  • Choisir un cas d’usage suffisamment riche pour mobiliser les quatre compétences obligatoires, dans un contexte maîtrisé par le candidat ou la candidate.
  • Construire la documentation au fil du cursus plutôt qu’en fin de parcours. Un projet construit sur la durée présente une cohérence supérieure à un projet rétrofitté à l’examen.
  • Privilégier la quantification chaque fois que possible : volumes, coûts, KPIs, seuils, échéances. Une présentation chiffrée gagne en crédibilité.
  • Préparer les annexes consultables pendant l’entretien : canvas, RACI, business case, rapport de faisabilité. Le jury peut demander à voir ces livrables.
  • S’entraîner sur le timing avec un chronomètre. Quinze minutes nettes représentent une contrainte forte qui exige des choix d’exposition.
  • Anticiper les questions probables du jury et préparer des éléments de réponse étayés. Les jurys testent particulièrement la justification des choix et la robustesse face aux remises en cause.
  • Maintenir la posture d’AIBS tout au long de la présentation. Glisser vers une posture de chef de projet IT ou d’expert technique affaiblit la démonstration.
  • Mentionner explicitement les spécialistes mobilisés dans le projet. La capacité d’orchestration est démontrée par la qualité des contributions intégrées, non par leur masquage.
  • Documenter les décisions et les arbitrages. Les jurys apprécient les démarches tracées plutôt que les recommandations apparues sans cheminement explicite.
  • Accepter les remises en cause du jury sans rigidité. Une réponse argumentée acceptant la pertinence d’une remise en cause vaut mieux qu’une défense crispée d’un choix initial.

Erreurs fréquentes à l’examen — et leurs antidotes

❌ Erreur : Présentation déséquilibrée privilégiant l’identification au détriment de l’évaluation

✓ Antidote : Répartition équilibrée des 15 minutes, avec environ 4 minutes par bloc majeur (identification, conception, évaluation).

❌ Erreur : Glissement vers une posture d’expert technique sur la solution

✓ Antidote : Maintien de la posture d’orchestration AIBS : présenter le processus et les contributions intégrées, mentionner les spécialistes, ne pas s’aventurer dans les détails techniques

❌ Erreur : Absence de quantification dans la présentation

✓ Antidote : Inclusion systématique de chiffres dans les éléments clés : volumes affectés, coûts, KPIs, seuils. La quantification, même approximative, démontre la rigueur

❌ Erreur : Compétence obligatoire traitée superficiellement (typiquement C4 ou C5)

✓ Antidote : Vérification systématique de la couverture des quatre compétences obligatoires (B3, C3, C4, C5) avec un niveau de détail approprié pour chacune

❌ Erreur : Recommandation finale ambiguë renvoyant la décision au jury

✓ Antidote : Recommandation tranchée et argumentée : poursuivre, pivoter ou abandonner. Le jury évalue la capacité à conclure

❌ Erreur : Documentation insuffisante des arbitrages effectués

✓ Antidote : Annexes consultables présentant les choix effectués et les alternatives écartées, avec justifications

❌ Erreur : Sous-estimation de la dimension juridique et éthique en C4

✓ Antidote : Section explicite sur la conformité (LPD, AI Act le cas échéant) et l’éthique (biais, supervision humaine) dans l’évaluation de faisabilité

❌ Erreur : Confusion entre utilité (C5 - pertinence métier) et rentabilité (C5 - analyse économique)

✓ Antidote : Sections distinctes dans la présentation et dans le business case, avec conclusions séparées


Synthèse référentielle

Règles formelles

  • Au moins 2 compétences du DCO B doivent être incluses, dont obligatoirement B3
  • Au moins 4 compétences du DCO C doivent être incluses, dont obligatoirement C3, C4, C5
  • Le projet doit couvrir : identification des possibilités, développement d’approches de solution, vérification faisabilité+utilité, élaboration de bases de décision
  • Au moins 6 compétences au total sur 2 DCO différents (B et C)

Compétences obligatoires

  • B3
  • C3
  • C4
  • C5

Niveau attendu — clarifications officielles

  • L’AIBS ne développe pas techniquement — il oriente, valide, prépare la décision
  • Pas de PoC requis à l’examen — une conception élaborée + faisabilité/utilité suffit (interprétation B officielle)
  • Compréhension conceptuelle des biais et architectures suffisante (LLM, RAG, fine-tuning : savoir situer)
  • Évaluation métier suffisante pour D2/D3 si abordés — pas besoin de coder ou comprendre les pipelines

Pièges à éviter (synthèse)

  • Présenter un projet sans quantification (pas de KPIs, pas de seuils, pas de chiffres ROI)
  • Sous-représenter le rôle « chef d’orchestre » : l’AIBS est Accountable (A) sur la plupart des activités, pas seulement Responsible (R)
  • Négliger la conformité (LPD, hébergement Suisse) qui est attendue en filigrane partout
  • Confondre B (collection de cas) et C (un cas approfondi) — bien marquer le passage de l’un à l’autre
  • Oublier les bases de décision (C6) : le livrable final pour le sponsor doit exister

Boussole AIBS — Manuel méthodologique non officiel pour le brevet fédéral d’AI Business Specialist.

Sources : Profil de qualification AIBS v15.04.2025 · Annexe directives FAAIB v1.01 · Document modules FAAIB v2.0 · Règlement examen v3.0 (mars 2026)