[Article 2/2] Journal de bord d'un formateur IA : retours terrain

[Article 2/2] Journal de bord d'un formateur IA : retours terrain

Ce que Mike Brown, une étudiante et 3 ans de formation m'ont appris sur l'IA

Février 2026 : un avocat californien a battu 500 développeurs à un hackathon IA.

Zéro ligne de code. Juste des instructions précises.

Mike Brown prouve que la vraie compétence IA, c'est savoir expliquer ce qu'on veut.

En février, Anthropic et Cerebral Valley organisent un hackathon. 13 000 personnes candidatent. 500 sont retenues, majoritairement des développeurs, des ingénieurs, des gens qui codent pour vivre.

L’avocat californien spécialisé en dommages corporels se retrouve parmi eux. Il ne touche pas au code. Il apporte ce qu'il a : une connaissance profonde du droit californien de l'urbanisme et une frustration bien documentée face à un système de permis de construction où les rejets au premier dépôt sont la norme.

Il construit Crossbeam, un assistant IA conçu pour aider propriétaires et promoteurs à naviguer la bureaucratie des permis en Californie. Pas d'algorithme complexe. Des fichiers de référence juridique. Des instructions précises. Une expertise métier traduite en langage que l'IA peut mobiliser.

Et il remporte la première place.

Cette histoire ne dit pas "l'IA est pour tout le monde". Elle dit que la vraie compétence en IA, c'est la capacité à décrire ce qu'on veut, dans quel contexte, avec quelles règles, et selon quels critères. Et ça, les gens de terrain savent le faire. Quand on leur apprend à le structurer.

Et au regard de l’expérience de Mike sur ce hackathon, c’est ce que j’apporte en formation, sans prétendre être un expert IA.

Pour moi, il existe trois niveaux dans cette compétence. Chacun constitue un paradigme différent dans lequel il est possible d’évoluer.

Niveau 1 : le one-shot — la question dans le couloir

Tout le monde commence par là.

On ouvre ChatGPT ou Claude, on tape une demande, on attend. La réponse arrive. On la prend telle quelle.

C'est le one-shot : une question, une réponse, fin de l'échange.

Ce n'est pas une mauvaise façon de commencer. Il faut juste ne pas rester à cet étape.

Le one-shot, c'est comme demander conseil à un collègue en passant dans le couloir. Vous posez votre question en dix secondes. Il vous répond en trente. Utile. Mais si votre question manque de contexte, sa réponse manque de précision. Et si le problème est complexe, le couloir ne suffit pas.

"Le prompt n'est jamais parfaitement structuré sur le one shot." Je dis ça à chaque session pour que les participants comprennent que le problème vient rarement de l'outil.

Niveau 2 : le prompt structuré — le brief

C'est là que la compétence commence à se construire.

Un prompt structuré, c'est un brief, un document de travail. Qui parle → À qui → Pour quoi → Avec quelles contraintes → Dans quel format.

En session, quand je demande aux participants de réécrire leurs prompts avec des sections explicites — un rôle, un objectif, des données d'entrée, un format de sortie — les résultats changent du tout au tout. La demande est devenue lisible.

"Plus c'est simple, mieux c'est. Plus les instructions sont précises, mieux c'est."

À ce niveau, on découvre quelque chose : rédiger un bon prompt, c'est clarifier sa propre pensée avant de demander quoi que ce soit à l'IA. Les participants qui peinent à structurer leur prompt peinent d'abord à définir ce qu'ils veulent. L'IA révèle et peu même accentuer le flou. Elle ne le corrige pas.

Niveau 3 : la configuration d'assistant — la recette du chef pâtissier

C'est ici que le paradigme change vraiment.

On ne demande plus. On compose.

Créer un prompt complexe, c'est comme écrire une recette de restaurant étoilé : chaque étape est importante, l'ordre est sacré, le résultat final doit être parfait. Si un ingrédient manque, on ne démarre pas.

<system_role>  Le chef annonce sa spécialité avant de toucher ses fourneaux. "Tu es un directeur commercial senior, expert en rédaction de propositions B2B pour des TPE/PME."

<objectives>  Il définit son plat avant la mise en place. "L'objectif : une proposition de 3 pages max, orientée résultats, adaptée au contexte de [nom du prospect]."

<critical_requirements>  Il vérifie ses ingrédients. "Vérifie que tu as le profil de l'entreprise, le besoin exprimé, le budget estimé et notre grille tarifaire. S'il manque quelque chose, demande et ne commence pas."

<execution_workflow>  Il suit son plan de recette, sans déroger à l'ordre. Analyser le besoin → argumenter la valeur → structurer la proposition → calibrer le pricing. Mise en place, préparation, cuisson, dressage.

<output_structure>  La recette détaillée, au gramme près. Executive summary en 3 lignes. Valeur ajoutée chiffrée. Délai de mise en œuvre. Conditions commerciales. "200g de clarté, 6 preuves concrètes" : pas d'improvisation.

<content_guidelines>  Les techniques du chef s'appliquent. "Orienté bénéfices client. Pas de jargon. Chaque affirmation doit être vérifiable." Battre en neige ferme, pas à moitié.

<quality_verification>  Il goûte TOUT avant le service. "Avant de me soumettre la proposition, vérifie que chaque bénéfice est appuyé par un argument mesurable et que le ton correspond au profil du prospect."

<termination_conditions>  Le plat ne sort que parfait. "Si le budget estimé est sous notre seuil de rentabilité, signale-le avant de continuer et ne génère rien hors-cadre." Et rentable.

Ce n'est plus une question envoyée à la volée : c'est une partition. Ce qui sépare un assistant fiable d'un assistant aléatoire, c'est exactement ça : la précision de chaque couche d'instruction.

Manquer la vérification des prérequis, et l'assistant avance avec des données incomplètes sans vous prévenir. Manquer la condition de sortie, et il agit sans validation. Manquer le workflow, et il improvise l'ordre des étapes.

Un prompt d'assistant n'est pas un prompt long. C'est un prompt complet. La différence entre les deux se mesure à la fiabilité de ce qui sort.

(Pour moi, il existe un quatrième paradigme avec le vibe coding, qui relève d'une maîtrise technique propre au développement informatique)

Votre langue maternelle est votre meilleur outil

On me demande régulièrement en formation si l'IA "marche mieux en anglais".

La réponse courte : non.

Pour preuve, Anthropic publie les scores de performance de ses modèles par langue. Claude Sonnet 4.5 atteint 97,5 % des performances en français par rapport à l'anglais, sur des tests traduits par des traducteurs humains professionnels.

Et si on va plus loin : le français est l'une des langues les plus précises pour structurer une pensée. La richesse du vocabulaire, la logique grammaticale, la capacité à nuancer.

Mike Brown a gagné son hackathon en anglais. Vous pouvez construire le même niveau de précision en français. Le problème n'a jamais été la langue. Il a toujours été le manque de structure dans ce qu'on dit, quelle que soit la langue dans laquelle on le dit.

Ce que tout ça signifie pour nous

Ces trois niveaux ont un point commun : ils demandent tous d'observer ce qui sort, de structurer ce qu'on envoie, et de recommencer.

Le one-shot demande de la curiosité. Le prompt structuré demande de la rigueur. La configuration d'assistant demande de penser en processus, en règles métier, en critères mesurables.

Personne ne brûle ces étapes. Ni Mike Brown. Ni mes étudiants. Ni les professionnels que j'accompagne en entreprise.

La progression est réelle, et elle est accessible. Mais elle demande du temps, de la pratique, et d'accepter de ne pas tout maîtriser au bout de la première session. (et de ne pas succomber au FOMO sur l’IA, les agents, tout ça, tout ça)

La vraie question n'est pas "est-ce que je sais coder ?" Elle est "est-ce que je sais décrire ce que je veux, dans quel contexte, avec quelles règles, et selon quels critères ?"

Si vous savez répondre à ça, même en deux lignes aujourd'hui, vous avez déjà commencé sur la voie d'une nouvelle compétence.

📚 Sources

https://hadleylab.org/blogs/2026-03-22-the-lawyer-who-won/ > Histoire de Mike Brown, avocat californien ayant remporté le hackathon Anthropic face à 500 développeurs

https://www.youtube.com/watch?v=YCh5JEN1b-Q > How Lawyer Won Claude Code Hackathon — Michael Brown Interview

https://platform.claude.com/docs/en/build-with-claude/multilingual-support > Documentation Anthropic : score de performance du français à 97,5 % par rapport à l'anglais sur Claude Sonnet 4.5

Cours d'IA Gen + Prompt Eng. 2025-2026 — Ecoles et Organismes de formations privés > Verbatims et observations tirés des sessions de formation