Étude de cas : Comment un organisme de formation a transformé ses expérimentations IA en stratégie collective

Un organisme spécialisé dans la formation et le coaching faisait face à une situation devenue courante mais rarement adressée frontalement. Les expérimentations IA se multipliaient dans différents services sur le cœur de métier comme sur les tâches quotidiennes, mais sans ligne directrice commune. Plus préoccupant encore, des craintes s'exprimaient en interne : peur du remplacement par l'IA sur certains métiers jugés automatisables, inquiétude de voir des concurrents mieux armés technologiquement, angoisse face au temps qui sera libéré par les gains de productivité. Comment avancer sereinement quand l'incertitude paralyse l'organisation ?

Donner un espace à la peur pour mieux construire l'avenir

Narra a proposé une approche qui laissait une place à l'émotion. Plutôt que de nier ou minimiser les inquiétudes, la méthodologie design fiction leur donne un espace légitime d'expression. La préparation a débuté en petit comité avec la direction. Ensemble, ils ont identifié les protagonistes stratégiques à mettre en scène dans les fictions : consultants en assessment, formateurs, coachs, équipes administratives. Chaque fonction devait pouvoir se projeter dans les scénarios proposés et reconnaître ses propres dilemmes.

Les fictions ont été co-rédigées avec l'IA, puis soigneusement relues et ajustées par un comité éditorial. Cette phase préparatoire a permis d'anticiper les zones de tension et d'ancrer les débats dans le concret plutôt que dans l'abstraction anxiogène. Les participants ont reçu ces récits en amont de l'atelier avec une consigne simple : lire et se laisser questionner.

L'atelier d'une journée avec l'équipe dirigeante a ouvert un espace de dialogue intense. Après la présentation des principes du workshop et des règles d'engagement, chaque fiction a été débattue méthodiquement pendant cinq heures pleines. Les points d'adhésion, de rejet et les questions ont été documentés sans jugement. Le groupe, engagé et soucieux d'une utilisation raisonnée de l'IA, partageait un socle de valeurs commun mais aussi un fort degré d'autonomie dans leurs pratiques métiers. Cette diversité a rendu l'exercice de priorisation complexe, mais a révélé trois transformations profondes.

Trois bénéfices en cinq heures de débat

Sur le plan psychologique, l'atelier a libéré la parole. Les participants ont pu exprimer leurs craintes sans être jugés catastrophistes ou réfractaires au changement. Le groupe a pris conscience que leur expertise irremplaçable résidait précisément dans ce que l'IA ne maîtrise pas : l'intuition construite sur l'historique client, la détection des angles morts du langage, la capacité à débusquer les désalignements entre les mots utilisés et leur sens réel. Les fictions ont permis de transformer l'anxiété du remplacement en clarté sur la valeur différenciante du groupe.

Sur le plan technologique, les cinq heures de débat ont clarifié le chemin à parcourir. L'organisation a compris qu'avant de multiplier les cas d'usage dispersés, elle devait construire un socle solide et sécurisant. Les participants ont identifié trois prérequis fondamentaux qui sont ressortis comme priorité absolue : mettre en place une architecture IA confidentielle et souveraine pour expérimenter en toute sécurité, définir une charte d'utilisation avec des lignes rouges claires sur ce que l'organisation veut absolument préserver, et constituer un socle commun de connaissances en valorisant la richesse documentaire accumulée sur plusieurs décennies. Cette prise de conscience a été libératrice. Le groupe ne cherchait plus à rattraper frénétiquement la concurrence, mais à créer les conditions d'une innovation maîtrisée et alignée avec leurs valeurs.

Sur le plan produit, les scénarios narratifs ont révélé des transformations concrètes de l'expérience utilisateur. Les participants ont entrevu comment l'IA pourrait enrichir leurs métiers plutôt que les remplacer. Plus stratégiquement encore, les fictions ont fait émerger une opportunité de repositionnement : alors que le marché s'automatise, l'organisation pourrait renforcer son ancrage incarné et humain. La valeur du conseil de Narra réside aussi dans son caractère indépendant : la décision d’avancer sur un chantier IA est aussi pertinente que la décision de ne pas le faire quand cela n’apporte pas de valeur objective.

De l’expérimentation individuelle à l'expérimentation collective

L'atelier Narra n'a pas produit une liste de cas d'usage priorisés. Après cinq heures de débat, le consensus est apparu clairement : la priorité n'était pas d'accumuler des expérimentations dispersées, mais de créer le cadre permettant à chaque métier d'innover en toute confiance. Le plan d'action s'est structuré autour de la sécurisation du socle technologique, de la mise en place d’un RAG, de la définition collective des limites acceptables, et du partage régulier de bonnes pratiques entre collègues.

Cette approche par le design fiction a démontré qu'une stratégie IA efficace commence par l'humain. En donnant un espace aux peurs, en clarifiant les fondations technologiques nécessaires, et en projetant l'organisation dans des futurs tangibles, Narra a transformé l'anxiété en énergie constructive. 

Rencontrez-vous le même défi ? Contactez Narra pour découvrir comment la fiction stratégique peut transformer l'incertitude IA en plan d'action collectif.

Précédent
Précédent

Ce que trois workshops Narra m'ont appris sur la transformation IA en entreprise

Suivant
Suivant

Étude de cas : Comment un groupe média a construit sa stratégie IA en une journée