P0 DCO A
Veille & cadrage stratégique
La phase P0 est celle que la plupart des étudiants AIBS sous-estiment, parce qu’elle ne « produit » rien de tangible — pas de prototype, pas de POC, pas de business case. Et pourtant, dans la vraie vie d’un AIBS, c’est la phase la plus déterminante pour le succès des projets qui suivront. Sauter P0 revient à construire une maison sur un terrain qu’on n’a pas inspecté.
Le rôle de l’AIBS au niveau stratégique est moins de **faire** la stratégie IA — c’est le rôle de la direction et du sponsor — que de **l’éclairer**. L’AIBS est l’interface qui traduit les évolutions technologiques de l’IA en termes de risques, opportunités et conditions-cadres compréhensibles pour des décideurs non-techniques. Il/elle prépare des bases factuelles à partir desquelles la direction peut décider en connaissance de cause.
Concrètement, en P0, on cherche à répondre à trois questions imbriquées : (1) **Que se passe-t-il dehors ?** — quelles tendances technologiques, quels concurrents, quelles évolutions réglementaires nous concernent. (2) **Que se passe-t-il chez nous ?** — quelle maturité IA interne, quelles données, quelles compétences, quelle culture. (3) **Quel cadre nous donnons-nous ?** — quelle gouvernance IA, quels principes éthiques, quelles règles de jeu pour les projets à venir.
Une phase P0 bien menée se termine par une note stratégique de 5-15 pages qui devient la **boussole** des projets suivants. Sans elle, chaque projet IA part dans sa direction, sans alignement, et l’organisation se retrouve avec un patchwork de pilotes orphelins.
Méthode pas-à-pas
Voici le déroulé concret de la phase, étape par étape :
1. Cadrer le mandat avec la direction (1-2 entretiens)
- Comprendre l’origine de la demande : qui pose la question IA et pourquoi maintenant ?
- Identifier le sponsor exécutif (sans sponsor identifié, P0 est une perte de temps)
- Délimiter le périmètre : entreprise entière, division, processus spécifique ?
- Convenir du livrable attendu : note stratégique, présentation COMEX, charte de gouvernance ?
- Établir l’échéance et les jalons intermédiaires
2. Mener l’analyse externe (1-3 semaines selon ampleur)
- Veille technologique structurée : sources fiables, grille de filtrage, synthèse hebdomadaire
- Analyse PESTEL appliquée à l’IA dans votre secteur
- Benchmarking : 3-5 concurrents directs ou cas inspirants à étudier
- Cartographie réglementaire : LPD/RGPD, AI Act européen, normes sectorielles applicables
- Identification des grandes ruptures à 2-5 ans (ne pas sur-pondérer le buzz récent)
3. Mener l’analyse interne (1-3 semaines, en parallèle)
- Audit de maturité IA : données (qualité, accessibilité, gouvernance), compétences, infrastructure, culture
- Cartographie des initiatives IA existantes (souvent invisibles : un.e collègue qui utilise déjà ChatGPT, un département qui a un outil de scoring)
- Entretiens avec 8-15 parties prenantes internes (direction, métiers, IT, RH, juridique)
- Identification des champions internes potentiels et des résistances probables
4. Croiser et synthétiser
- Identifier les intersections entre tendances externes et leviers internes (= opportunités)
- Identifier les écarts entre exigences externes et capacités internes (= chantiers prioritaires)
- Hiérarchiser : ce qu’il faut faire vite, ce qu’il faut préparer, ce qu’on peut différer
- Quantifier autant que possible (volumes de données, nombre de processus, budgets indicatifs)
5. Co-construire la gouvernance IA
- Atelier avec direction + DPO + IT pour poser les principes éthiques (transparence, équité, supervision humaine, etc.)
- Définir les règles de validation des projets IA (qui valide quoi, à quelles étapes)
- Préciser les rôles : sponsor, comité IA, AIBS, DPO, métier
- Documenter dans une charte concise (5-10 pages max) — les chartes de 50 pages ne sont jamais lues
6. Présenter et obtenir validation
- Note stratégique structurée : contexte, analyse, opportunités, risques, recommandations, prochaines étapes
- Présentation COMEX (15-30 min) avec slides de synthèse + note détaillée en annexe
- Recueillir feedback, ajuster, faire valider
- Diffuser la version finale aux parties prenantes pertinentes
Outils — mode d’emploi détaillé
Veille IA structurée
Mode d’emploi :
- Définir 5-8 sources de référence (Gartner, MIT Sloan Review, AI Index Stanford, médias sectoriels, blogs experts identifiés)
- Définir une grille de filtrage : critères de pertinence (lien avec votre secteur, votre taille, votre maturité), critères de qualité (source primaire, expertise auteur, recul)
- Mettre en place un rythme : revue hebdomadaire 30 min, synthèse mensuelle 1 page, bilan trimestriel pour COMEX
- Outils pratiques : Feedly + tag sectoriel, alertes Google Scholar, newsletters ciblées (The Batch, Import AI, MIT Tech Review)
Variantes : Pour PME : commencer par 3 sources et 1h/semaine. Pour grand compte : équipe dédiée veille avec process formalisé.
⚠ Piège classique
Confondre veille et collection. La veille produit des décisions ou des alertes — pas une bibliothèque infinie de bookmarks.
Analyse PESTEL appliquée à l’IA
Mode d’emploi :
- Politique : positions gouvernementales sur l’IA (stratégies nationales, financements publics, restrictions à l’export)
- Économique : coûts d’infrastructure IA, modèles économiques émergents, pressions concurrentielles
- Social : acceptabilité de l’IA dans votre secteur, attentes utilisateurs, inquiétudes sur l’emploi
- Technologique : maturité des modèles utiles à votre cas, vitesse d’évolution, dépendances aux fournisseurs
- Écologique : empreinte carbone des modèles, attentes ESG des clients/investisseurs
- Légal : LPD, RGPD, AI Act, droits d’auteur sur données d’entraînement, responsabilité produit
Variantes : Version express en 2h en atelier collectif. Version approfondie sur 2-3 semaines pour grandes organisations.
⚠ Piège classique
Rester dans la généralité (« le RGPD est important »). Toujours conclure par : « pour NOUS, dans NOTRE contexte, ça veut dire X ».
Audit de maturité IA
Mode d’emploi :
- Évaluer 6 dimensions sur une échelle 1-5 : (1) Stratégie & vision, (2) Données & infrastructure, (3) Compétences & culture, (4) Gouvernance & conformité, (5) Cas d’usage déjà déployés, (6) Capacité de mise à l’échelle
- Pour chaque dimension : 5-8 questions concrètes, scoring basé sur preuves (pas sur ressenti)
- Mener via interviews croisés (direction + IT + métier + DPO) pour éviter le biais d’auto-évaluation
- Représenter le résultat en radar 6 axes — visuellement parlant pour le COMEX
Variantes : Frameworks open : Gartner AI Maturity, MIT CISR, ou cadre interne. Tous valent — l’important est la cohérence.
⚠ Piège classique
Surestimer sa maturité par optimisme. Si tous vos scores sont à 4-5, vous vous mentez. La maturité IA en PME suisse moyenne tourne à 2-3.
Charte de gouvernance IA
Mode d’emploi :
- Section 1 — Principes éthiques (4-7 principes : transparence, équité, supervision humaine, sécurité, durabilité, conformité, valeur métier)
- Section 2 — Périmètre (quels projets relèvent de la charte : tout IA ? IA à risque seulement ? GenAI uniquement ?)
- Section 3 — Rôles & responsabilités (sponsor, comité IA, AIBS, DPO, métier, IT)
- Section 4 — Processus de validation (quelles étapes obligatoires, quels jalons, qui valide quoi)
- Section 5 — Conformité & risques (LPD, AI Act selon catégorie de risque, hébergement Suisse si requis)
- Section 6 — Vivacité (revue annuelle, mise à jour selon évolution réglementaire)
Variantes : Version courte (5 pages) pour PME, version longue (15-20 pages) pour grand compte avec annexes opérationnelles.
⚠ Piège classique
Charte écrite par l’AIBS seul, validée formellement, jamais relue. Une charte qui ne sert à rien aux décisions de projet est pire que pas de charte.
Cas type
Exemple — Phase P0 dans une compagnie d’assurance suisse de taille moyenne
Le contexte présenté est celui d’une compagnie d’assurance romande de 350 collaborateurs dont les concurrents annoncent des outils IA pour la déclaration de sinistre. La direction mandate l’AIBS pour proposer une stratégie IA dans un délai de 3 mois.
L’AIBS ne plonge pas dans les cas d’usage immédiatement. Le mandat est cadré avec la CEO : sponsor identifié (la CEO elle-même), périmètre arrêté (toute la compagnie), livrable convenu (note stratégique et présentation au comité de direction).
L’analyse externe (3 semaines) identifie via veille structurée que 4 concurrents directs ont annoncé des outils IA — dont 2 sur la souscription auto et 1 sur la détection de fraude. La FINMA a publié des recommandations sur l’IA en assurance. L’AI Act européen, bien que non directement applicable en Suisse, est en voie d’adoption de fait par les acteurs internationaux.
L’analyse interne (3 semaines en parallèle) révèle via 12 entretiens internes que (1) deux courtiers utilisent déjà ChatGPT pour rédiger des courriers, (2) le service sinistres dispose d’un projet OCR dormant depuis 18 mois, (3) la qualité des données client est moyenne (silos entre prospection et gestion), (4) une inquiétude RH significative existe chez les souscripteurs juniors.
La synthèse identifie 3 chantiers prioritaires (assistant rédaction, OCR sinistres, scoring fraude) et 2 chantiers structurants préalables (qualité données client, formation RH). Une charte IA de 8 pages est proposée avec 5 principes éthiques et un comité IA léger (5 personnes, rythme mensuel).
La présentation au COMEX (25 minutes) aboutit à la validation immédiate du chantier OCR sinistres comme premier projet pilote, et au lancement du chantier qualité données. La charte est adoptée en 2 itérations.
L’élément clé identifié dans ce cas type tient à la rigueur de l’analyse interne préalable. Sans phase P0, l’organisation aurait probablement lancé un projet « assistant IA pour les courtiers » par mimétisme concurrentiel, sans identifier que la qualité des données client constituait le verrou structurel, et sans cadre éthique pour répondre aux questions du DPO.
Bonnes pratiques observées
Recommandations issues de la pratique professionnelle :
- Une analyse externe conduite seule constitue un point de départ inadéquat. L’effet de mode IA conduit à courir après les tendances concurrentes au lieu de répondre à vos vraies opportunités.
- Le sponsor exécutif constitue une condition non négociable. Sans sponsor identifié, la phase P0 produit un document sans suite opérationnelle. En l’absence de sponsor identifiable, c’est que la demande IA n’est pas mûre — refusez ou attendez.
- Les projets fantômes appellent une vigilance particulière. Dans 80% des organisations, il existe déjà des usages IA non déclarés (ChatGPT, Copilot, outils SaaS avec IA embarquée). Les recenser fait souvent émerger les vrais sujets.
- L’analyse de maturité requiert une triangulation : l’interrogation exclusive de la direction produit un score optimiste ; l’interrogation exclusive de l’IT produit un score pessimiste ; l’interrogation exclusive des métiers produit un score décorrélé. Le croisement des trois sources est nécessaire.
- Les hypothèses sont à documenter sous-jacentes à chaque conclusion. Lorsque le contexte aura évolué dans 6 mois, la validité résiduelle pourra être évaluée.
- Une charte de gouvernance n’a de valeur que si elle est utilisée. Avant de l’écrire, identifiez 3 décisions concrètes à venir et testez : la charte permet-elle de les trancher ? À défaut, le document risque l’abstraction excessive.
- L’honnêteté sur les compétences manquantes est essentielle. Une stratégie IA qui suppose des Data Scientists qu’on n’a pas et qu’on ne recrutera pas est une stratégie morte.
- L’IA Act, même non applicable en Suisse, est un standard de fait pour les organisations qui exportent ou reçoivent des données européennes. Ignorer son existence est un risque.
- La présentation systématique d’une option « ne rien faire » comme scénario de comparaison. Force la direction à formaliser pourquoi l’IA, plutôt que d’accepter implicitement qu’il faut en faire.
- Le ROI stratégique de P0 ne se voit qu’après 6-12 mois — quand les projets P1-P8 réussissent grâce au cadre posé. Préparation explicite de la direction à cette latence.
- Si la direction souhaite écourter la phase P0 (« on a déjà identifié un cas d’usage, on commence par là »), il est préférable de proposer une P0 allégée en 2-3 semaines plutôt que de refuser. Mieux vaut un cadre minimal qu’aucun cadre.
Erreurs fréquentes — et leur antidote
❌ Erreur : Présenter une note stratégique de 50 pages que personne ne lira
✓ Antidote : Note de 5-15 pages MAXIMUM, structure SCQA (Situation, Complication, Question, Answer), exécutive summary 1 page en tête.
❌ Erreur : Faire P0 sans le sponsor (« je vais l’impressionner avec mon résultat »)
✓ Antidote : Cadrer le mandat AVEC le sponsor en P0.1, pas après. Le sponsor co-construit, ne valide pas en bout de course.
❌ Erreur : Confondre veille et stratégie (« voici ce que font les autres, donc on fait pareil »)
✓ Antidote : La veille alimente l’analyse, mais la stratégie répond à VOS opportunités, pas aux leurs. Le benchmarking inspire, ne dicte pas.
❌ Erreur : Ignorer la conformité jusqu’à la fin (« on verra avec le DPO quand on aura les cas d’usage »)
✓ Antidote : Le DPO est partie prenante de P0, pas de P3. Sa contribution au cadrage évite des projets infaisables découverts trop tard.
❌ Erreur : Charte IA copiée d’internet (« voilà notre charte, identique à 200 autres »)
✓ Antidote : Adapter au moins 30% des principes à votre contexte (secteur, taille, valeurs). Une charte générique n’engage personne.
❌ Erreur : Sous-estimer la dimension humaine et culturelle
✓ Antidote : Inclure systématiquement une dimension RH dans l’audit interne : peurs, compétences à développer, accompagnement nécessaire.
❌ Erreur : Présenter une stratégie IA sans articulation avec la stratégie d’entreprise existante
✓ Antidote : Toute recommandation IA doit pouvoir être rattachée à un objectif stratégique pré-existant. Sinon, c’est de l’IA pour faire de l’IA.
❌ Erreur : Promettre des bénéfices chiffrés en P0 (« on prévoit 30% de gains »)
✓ Antidote : P0 cadre, P6 chiffre. Les gains réels se mesurent au business case par cas d’usage, pas à la stratégie globale.
FAQ — questions fréquentes
Combien de temps prend une phase P0 ?
Selon l’ampleur : 4-8 semaines pour une PME, 3-6 mois pour un grand compte. La compression à 2 semaines est possible si l’analyse externe a déjà été faite par ailleurs (ex : cabinet de conseil).
Faut-il refaire P0 à chaque nouveau projet ?
Non. P0 est faite une fois et révisée annuellement (ou sur déclencheur : nouvelle réglementation, changement de stratégie, incident IA). Les projets P1-P8 héritent du cadre.
Et si la direction ne veut pas faire P0 ?
Trois options : (1) faire une P0 allégée en parallèle du premier projet, (2) refuser le projet en argumentant le risque, (3) accepter mais documenter la décision et ses risques pour ne pas en porter la responsabilité seul.
Comment l’AIBS peut-il aider à construire la gouvernance s’il/elle n’est pas DPO ni juriste ?
L’AIBS pose les questions, structure le débat, propose un cadre. Le contenu juridique est validé par DPO/juristes. Le rôle d’orchestrateur — pas d’expert.
Comment évaluer les compétences IA internes sans expertise technique ?
Via questionnaires structurés et entretiens. Vous évaluez la PRÉSENCE de compétences (avez-vous un Data Scientist, depuis combien de temps, quels projets passés), pas leur niveau technique précis.
L’AI Act s’applique-t-il en Suisse ?
Pas directement aujourd’hui. Mais (1) il s’applique aux acteurs suisses opérant dans l’UE, (2) il est probable que la Suisse adopte un cadre similaire à terme, (3) c’est devenu un standard de fait. À traiter comme un cadre pertinent même hors UE.
Comment intégrer la dimension durabilité/ESG dans P0 ?
Évaluer l’empreinte carbone des solutions envisagées (modèles GenAI = consommation significative), prévoir un critère de sobriété dans la priorisation, vérifier les exigences ESG de vos clients/investisseurs.
Pour aller plus loin
- Stanford AI Index Report (annuel) (Rapport) — Référence pour la veille macro IA
- AI Act européen — texte officiel (Réglementation) — Standard de fait, à connaître même hors UE
- FINMA — Recommandations IA dans la finance (Réglementation sectorielle suisse) — Pour les acteurs financiers
- OECD AI Principles (Cadre éthique) — Inspiration pour charte de gouvernance
- Loi fédérale sur la protection des données (nLPD) (Réglementation suisse) — Cadre primaire pour traitement de données
- « AI Maturity Model » — Gartner (Framework) — Pour structurer l’audit de maturité
Synthèse de la phase
Compétences AIBS mobilisées
- A1 — Observer et évaluer les innovations et les tendances dans l’environnement de l’IA
- A2 — Effectuer une analyse de l’environnement pour l’utilisation de l’IA
- A3 — Effectuer une analyse interne de l’entreprise pour l’utilisation de l’IA
- A4 — Élaborer et présenter des contributions stratégiques
- A5 — Concevoir une gouvernance pour l’utilisation de l’IA dans une organisation
Questions clés à se poser
- Quelles tendances IA sont pertinentes pour notre secteur ?
- Quelles forces externes (PESTEL) impactent notre stratégie IA ?
- Quelle maturité IA interne (données, compétences, culture) ?
- Quelle gouvernance IA déjà en place ou à concevoir ?
- Quels risques éthiques, juridiques (LPD, AI Act) à anticiper ?
Outils mobilisables
- Veille structurée (Gartner, sources sectorielles, IA index)
- Analyse PESTEL appliquée à l’IA
- Audit de maturité IA interne
- Stakeholder mapping stratégique
- Charte de gouvernance IA
Spécialistes à solliciter
L’AIBS coordonne — il convient de mobiliser les expertises suivantes à cette phase :
- Direction stratégique (sponsor)
- DPO / juriste pour LPD/RGPD/AI Act
- Responsable conformité
- Architecte d’entreprise
Livrable type
Note stratégique de cadrage IA + recommandations
Critères go / no-go pour passer à la phase suivante
- La direction a un sponsor identifié pour les sujets IA ?
- Le contexte externe et interne est documenté ?
- Les principes de gouvernance sont alignés ?
⚠ Piège classique
Sauter cette phase et plonger directement dans des cas d’usage sans cadre stratégique : risque de projets pilotes orphelins, sans alignement direction.
Boussole AIBS — Manuel méthodologique non officiel pour le brevet fédéral d’AI Business Specialist.
Sources : Profil de qualification AIBS v15.04.2025 · Annexe directives FAAIB v1.01 · Document modules FAAIB v2.0 · Règlement examen v3.0 (mars 2026)