← Retour au blog
Méthode

Passer la main : comment structurer le transfert d'un système IA

Documentation, formation, tuning de prompts : ce qui fait qu'un système livré reste utilisé 6 mois après.

ThéoThéo · CTO Lucid-Lab
8 min de lecture

Six mois après la livraison, la moitié des projets IA sont en veille. Pas parce que le système ne fonctionne pas : parce que personne dans l'équipe ne sait vraiment comment le faire évoluer, le débugger ou simplement expliquer à un nouveau collègue comment ça marche. Le transfert est la phase que tout le monde bâcle, et c'est là que se joue l'essentiel.

Pourquoi les projets meurent après la livraison

Un système livré en production sans phase de transfert structurée, c'est une voiture livrée sans manuel, sans clés de rechange et sans garagiste identifié. Ça roule au début. Puis le premier pépin arrive : un prompt qui donne des résultats étranges, une API tierce qui change de format, un nouveau commercial qui ne comprend pas ce qu'il doit valider. Et progressivement, l'équipe contourne le système plutôt que de le corriger.

Ce n'est pas un problème de technologie. C'est un problème d'ownership.

On voit ça régulièrement sur des projets où la phase build a été soignée, les livrables techniques bien structurés, mais où personne n'a investi 2 à 3 semaines pour ancrer le système dans les réflexes de l'équipe. Le résultat : 4 mois plus tard, le système tourne, mais personne ne le touche. Il devient une boîte noire tolérée plutôt qu'un outil utilisé.

Les trois piliers du transfert

1. La documentation : pas pour les archives, pour l'usage

La documentation d'un système IA n'a rien à voir avec un cahier des charges. Elle répond à trois questions pratiques :

  • Qui fait quoi dans le flux ? Cartographie des responsabilités humaines et automatisées, avec les seuils de déclenchement explicitement notés
  • Que se passe-t-il quand ça déraille ? Les cas d'erreur connus, les logs à surveiller, les actions correctives immédiates
  • Comment le système prend ses décisions ? Pas le code, mais la logique métier : quels critères, quels seuils, quelle tolérance à l'erreur

Sur le projet Périscope, système de monitoring automatisé livré à une équipe ops de 6 personnes, on a produit trois niveaux de documentation distincts : une fiche d'une page pour le manager (seuils d'alerte, contacts escalade), un runbook opérationnel de 8 pages pour l'équipe (procédures, logs, actions), et un document technique pour le dev interne qui prend la main à terme. Chaque document a un public précis et une longueur proportionnelle à son usage réel.

Ce qui ne sert à rien : un PDF de 60 pages que personne ne lit et que personne ne maintient.

2. La formation : montrer, pas expliquer

La formation sur un système IA suit une logique différente d'une formation logiciel classique. Les utilisateurs n'ont pas besoin de comprendre le modèle : ils ont besoin de savoir comment interagir avec le système, quand lui faire confiance et quand pas.

Concrètement, une bonne session de formation couvre :

  • Le flux normal : montrer le parcours d'un cas standard de A à Z, en temps réel
  • Les cas limites : qu'est-ce qui va faire dysfonctionner le système, comment le détecter
  • Le feedback loop : comment remonter un problème, à qui, avec quelles infos

La durée dépend de la complexité du système, pas du niveau technique de l'équipe. Sur Universal, notre système de lead qualification automatisée, la formation des équipes commerciales tenait en deux sessions de 90 minutes : une pour comprendre ce que le système décide tout seul, une pour apprendre à corriger les cas ambigus. Pas de jargon IA. Beaucoup de cas concrets tirés de leurs propres données.

Un point souvent négligé : former le manager en premier. Si le responsable d'équipe ne comprend pas le système ou n'y croit pas, les collaborateurs s'y adapteront exactement à proportion de son engagement, c'est-à-dire peu.

3. Le tuning de prompts : la maintenance invisible

Pour les systèmes qui reposent sur des LLMs, le prompt engineering n'est pas une tâche de build : c'est une activité continue. Les modèles évoluent, les données changent, les besoins métier dérivent. Un prompt qui donnait 90% de résultats corrects en janvier peut tomber à 75% en mars sans que personne ne l'ait touché.

Le transfert doit inclure :

Ce qui est livréCe que l'équipe doit savoir faire
Prompts versionnés et commentésLire un prompt, comprendre son intention
Historique des itérationsSavoir quand modifier vs quand escalader
Exemples de bons et mauvais outputsÉvaluer qualitativement un résultat

Ce n'est pas demander à votre équipe de devenir prompt engineers. C'est leur donner les clés pour identifier quand quelque chose dérive et comment en parler à quelqu'un qui peut corriger.

Sur Turismo, notre système de scaling d'opérations pour un acteur du tourisme, on a documenté chaque prompt avec trois éléments : l'intention métier en langage clair, deux exemples d'outputs attendus, un exemple d'output problématique. Ça a permis à l'équipe de détecter un drift de qualité 3 semaines après la livraison et de nous le signaler avec les bons éléments pour corriger en moins d'une journée.

Les trois options de transfert : sans biais

Il n'y a pas une seule façon de structurer la passation. Voici les trois modèles qu'on propose, avec leurs vraies implications.

Option A : Full handover

L'équipe reprend l'intégralité du système. Elle dispose du code, de la documentation complète, des accès, et d'une formation approfondie. Lucid-Lab sort du périmètre opérationnel.

Adapté si : vous avez un dev interne capable de maintenir le stack technique, ou si vous avez fait le choix d'une architecture custom qui correspond exactement aux compétences de votre équipe.

Risque réel : si le dev interne change de poste ou si le système évolue dans une direction non anticipée, vous êtes seuls.

Option B : Retainer limité

Transfert complet de l'ownership opérationnel à votre équipe, mais avec un accès mensuel défini pour les évolutions majeures, les incidents non résolus en interne, ou les sessions de tuning trimestrielles.

Adapté si : votre équipe peut gérer le quotidien mais vous voulez un filet de sécurité pour les cas complexes ou les évolutions du système.

Ce que ça couvre typiquement : 2 à 4 jours par mois, budget entre 1 500 et 4 000 euros selon la complexité.

Option C : Co-pilotage continu

Lucid-Lab reste dans la boucle sur la maintenance et les évolutions, votre équipe gère l'usage quotidien. Utile quand le système est critique, évolue fréquemment, ou quand l'équipe interne n'a pas la capacité technique de prendre la main seule.

Adapté si : le système est au coeur d'un processus revenue-critical, ou si vous prévoyez des évolutions régulières dans les 12 premiers mois.

Risque réel : peut créer une dépendance si l'objectif long terme est l'internalisation. À anticiper dès le contrat.


OptionOwnershipPrésence Lucid-LabBudget mensuel estimé
Full handover100% client00
Retainer limitéClient + support2-4 jours/mois1 500 à 4 000 euros
Co-pilotagePartagéVariableÀ définir

Le choix entre ces trois options dépend principalement de deux facteurs : la criticité du système et la maturité technique de votre équipe. Pas de notre intérêt commercial.

Ce que la plupart des équipes sous-estiment

Le changement organisationnel lié à un système IA est plus difficile à gérer que le système lui-même. Les résistances ne viennent pas de gens de mauvaise volonté : elles viennent d'une méfiance légitime envers un outil qu'on ne comprend pas, ou d'une perception que le système est là pour remplacer plutôt qu'assister.

Quelques signaux qui indiquent que l'accompagnement au changement a été insuffisant :

  • L'équipe revalide manuellement 100% des décisions du système, même les plus simples
  • Les incidents sont signalés en interne comme "le système a merdé" sans précision exploitable
  • Personne ne sait qui est responsable si le système produit une erreur avec un impact client

Ces situations ne se règlent pas avec plus de documentation. Elles se règlent avec du temps passé à comprendre les réticences réelles, à ajuster les workflows et à montrer que le système produit effectivement de la valeur sur les cas concrets de l'équipe.

C'est la raison pour laquelle on intègre systématiquement une revue à J+30 dans nos projets, quelle que soit l'option de transfert choisie. Pas pour vendre la suite : pour vérifier que le système est vraiment utilisé et corriger ce qui ne l'est pas.

En résumé

Un système IA qui dure n'est pas celui qui a le meilleur code. C'est celui dont l'équipe comprend le fonctionnement, sait quoi faire quand ça déraille et a un interlocuteur identifié pour les cas complexes. La documentation, la formation et le tuning de prompts ne sont pas des livrables optionnels : ce sont les conditions de survie du projet au-delà de la mise en production.

Si vous êtes en train d'évaluer un projet d'automatisation ou d'IA, et que le prestataire ne mentionne pas cette phase avant de parler de code, c'est une question à poser explicitement. Ce que ça coûte réellement inclut cette phase, et si elle n'est pas dans le devis, elle sera dans vos coûts cachés six mois après.

On propose un premier cadrage gratuit pour identifier les risques de transfert sur un projet existant ou en cours : 45 minutes, pas de deck, juste les vraies questions.

Un article par mois, rien d'autre.

Cas concrets d'automatisation et d'IA en PME. Zéro spam.

À lire ensuite