Ma passion pour l’intelligence artificielle me pousse à partager les astuces qui transforment un simple échange avec une IA en une véritable collaboration.
Quand on parle de Claude, ce modèle d’Anthropic se distingue par sa capacité unique à comprendre des instructions complexes et à gérer des contextes massifs.
Finie l’époque des réponses génériques, avec Claude, vous obtenez précision et pertinence. Imaginez, vous disposez d’un esprit capable de suivre chaque nuance de vos pensées. C’est le monde du prompt engineering avec Claude.
Je vois souvent des utilisateurs se débattre, tentant de formuler des requêtes avec des résultats mitigés. Mais la vérité est simple : Claude est optimisé pour une structure claire. Voici l’essence même de ce que j’ai appris au fil des années :
- Utilisez des Balises XML : Elles balisent vos instructions, votre contexte et vos exemples. Claude les comprend.
- Offrez-lui du “Temps pour Réfléchir” : Demandez-lui de raisonner avant de répondre. Les erreurs s’évaporent.
- Mettez des Exemples (Few-Shot Prompting) : Montrez, ne décrivez pas. 3 à 5 exemples de qualité sont d’or.
- Pré-remplissez la Réponse : Guidez son début de réponse. Cela force le format.
- Définissez une Persona : Donnez-lui un rôle. Le ton et la profondeur deviennent parfaits.
Ces techniques ne sont pas de simples astuces, elles sont la clé pour déverrouiller le plein potentiel de Claude, et d’autres LLM également.
Je me souviens d’un projet chez Deep Learn où la précision était critique. L’application de ces méthodes a transformé notre interaction, passant de réponses aléatoires à des résultats fiables.
Les Techniques Essentielles pour Maîtriser Claude

Les Balises XML, les Signaux que Claude Attend
J’ai découvert que les balises XML sont incroyablement efficaces avec Claude. Ce n’est pas un hasard : il a été entraîné pour les interpréter comme des repères structurels. Ces balises aident Claude à distinguer vos consignes des données, éliminant ainsi le risque de confusion. Fini les malentendus entre ce que je demande et ce que je lui donne à traiter. C’est un peu comme lui donner une carte détaillée pour naviguer.
Pourquoi les balises XML sont-elles si précieuses ?
- Précision accrue : Elles créent des frontières nettes. Claude n’a pas à deviner.
- Moins d’hallucinations : Le fait d’isoler les données empêche Claude d’oublier les instructions ou de les mélanger avec le texte d’entrée. C’est crucial pour la fiabilité.
- Contrôle modulaire : Modifier une partie de votre prompt devient simple, même pour une structure complexe. Je ne réécris pas tout.
- Extraction facile : Les réponses encadrées, par exemple par des balises “, sont plus faciles à extraire de manière programmatique. Un vrai gain de temps pour l’intégration.
La structure des balises est flexible. Je peux créer n’importe quel nom de balise logique pour ma tâche. Des noms descriptifs et sémantiques comme “, “ ou “ fonctionnent parfaitement.
Voici un exemple de structure de prompt que j’utilise et qui donne d’excellents résultats :
<persona>
Vous êtes un éditeur technique expert.
</persona>
<context>
Ceci est pour un article de blog destiné aux développeurs seniors.
</context>
<instructions>
Résumez le texte suivant en 3 points.
Concentrez-vous sur les conseils de sécurité actionnables.
</instructions>
<text_to_process>
[Collez votre contenu ici]
</text_to_process>
Quelques bonnes pratiques que j’ai adoptées : toujours fermer vos balises (une balise ouvrante “ et une balise fermante “). Pour les structures plus complexes, j’imbrique les balises. Par exemple, avec plusieurs documents :
<documents>
<document index="1">Contenu A</document>
<document index="2">Contenu B</document>
</documents>
Je combine aussi cela avec le pré-remplissage. Terminer mon prompt par `Assistant: ` pousse Claude à démarrer son raisonnement immédiatement. Si mon texte contient du XML ou HTML, j’utilise “ ou j’échappe les caractères pour éviter toute confusion.
Accorder du “Temps pour Réfléchir” à Claude
La précision de Claude augmente quand je lui donne le temps de réfléchir. C’est une technique simple : j’exige qu’il traite son raisonnement interne avant de produire la réponse finale. Pour des tâches complexes – code, maths, analyse nuancée – cela réduit les hallucinations et les erreurs logiques.
Le Mode de Pensée Étendue (Extended Thinking)
Avec les dernières versions de Claude 3 Sonnet, la fonction “Extended Thinking” est le moyen le plus direct. Claude génère des “tokens” internes pour explorer de multiples angles, vérifiant sa logique. Je peux même définir un “budget de réflexion”, une limite de tokens (jusqu’à 128 000) pour contrôler l’effort qu’il déploie. Sur l’interface Claude.ai, il suffit d’activer un interrupteur.
Le Few-Shot Prompting : Montrez l’Exemple
Le Few-Shot Prompting est un de mes outils les plus fiables. Je montre à Claude exactement ce que je veux. Je lui fournis quelques exemples de paires entrée-sortie, et il a une “feuille de triche” pour reproduire le ton, la structure et la gestion des cas limites. C’est souvent plus efficace que de longues descriptions abstraites. Pour plus de détails, cette documentation est une ressource précieuse.
Pourquoi ça marche si bien ?
- Précision chirurgicale : Les exemples clarifient les exigences subtiles, comme un style d’écriture spécifique ou un format de données complexe, difficiles à exprimer avec des mots.
- Augmentation des performances : Sur certaines tâches, les performances de Claude ont fait un bond impressionnant, passant de 16 % (sans exemple) à 52 % avec seulement 3 exemples pertinents. Une sacrée différence !
- Cohérence : Il reproduit exactement mes conventions de nommage, ma ponctuation et mon style de code.
Mes meilleures pratiques pour Claude sont claires :
- Qualité plutôt que quantité : 3 à 5 exemples diversifiés et de haute qualité pour les tâches complexes. Pas 20 exemples similaires.
- Utilisez des balises XML : J’encadre mes exemples dans “ et “ pour qu’il les distingue des instructions principales.
- Adaptez le format : Les exemples doivent refléter exactement le format que Claude recevra pour la tâche finale.
- Échantillons variés : Incluez des exemples positifs (ce qu’il faut faire) et parfois des négatifs (ce qu’il faut éviter) pour définir les limites.
Voici une structure d’exemple que j’applique :
<instructions>
Convertissez le retour client suivant en un objet JSON avec les clés "sentiment" et "priority".
</instructions>
<examples>
<example>
<input>Le produit est arrivé en retard et cassé. Je veux un remboursement !</input>
<output>{"sentiment": "négatif", "priority": "élevée"}</output>
</example>
<example>
<input>Ça marche bien, mais la couleur est un peu différente de la photo.</input>
<output>{"sentiment": "neutre", "priority": "moyenne"}</output>
</example>
</examples>
<input>
[Votre texte réel à traiter ici]
</input>
Le tutoriel interactif d’Anthropic sur GitHub montre bien comment ces “exemples” transforment une réponse robotique en quelque chose de plus humain. Je vous le recommande chaudement.
Pré-remplir la Réponse : L’Art de Guider
Pré-remplir la réponse est une technique astucieuse. Je “mets des mots dans la bouche de Claude” en commençant sa réponse pour lui. Cela permet d’éviter les “bla-bla” conversationnels (comme “Bien sûr ! Voici votre JSON :”) et de forcer un format ou une persona dès le premier caractère. C’est un vrai coup de maître pour l’efficacité.
Pourquoi pré-remplir ?
- Imposer une structure : Je commence par `{` pour assurer un JSON valide, ou “ pour du XML.
- Éviter les préambules : Claude ne rajoute pas de texte introductif poli, essentiel pour les pipelines de données via API.
- Maintenir une persona : Commencer par “Écoutez attentivement, apprenti,” le force à garder son rôle.
- Orienter la pensée : Je peux pré-remplir avec “ pour m’assurer qu’il utilise son processus de raisonnement interne.
La mise en œuvre est simple. Dans la Console Claude ou via l’API, j’ajoute un message “Assistant” à la fin de l’historique de conversation, contenant le texte de départ. Claude poursuit la génération à partir de là.
Exemple 1 : Forcer un JSON
Utilisateur : “Extrayez les noms de ce texte en JSON.”
Assistant : `{`
Achèvement de Claude : `”names”: [“Alice”, “Bob”] … }`
Exemple 2 : Combiner avec XML
Utilisateur : “Rédigez un résumé entre balises.”
Assistant : “
Achèvement de Claude : `Cet article aborde…`
Attention, pour les modèles plus récents comme Claude 3 Sonnet et Claude 4.7 Opus, cette technique est remplacée par les “Structured Outputs”. Anthropic a créé une fonctionnalité native. Au lieu de forcer le premier caractère, je fournis un schéma JSON formel dans ma requête API. Le modèle est alors contraint de générer uniquement du JSON valide qui correspond à ce schéma. Une garantie de validité !
L’approche “Structured Output” : j’inclus un paramètre `output_config` (ou `output_format`) dans ma requête. Claude renvoie alors un message dont le contenu est un JSON garanti valide.
Exemple de schéma pour un gestionnaire de tâches :
{
"type": "object",
"properties": {
"tasks": {
"type": "array",
"items": {
"type": "object",
"properties": {
"title": { "type": "string" },
"due_date": { "type": "string", "format": "date" },
"priority": { "type": "string", "enum": ["high", "medium", "low"] }
},
"required": ["title", "priority"]
}
}
},
"required": ["tasks"]
}
Les différences clés avec le pré-remplissage ? La validité est garantie. Claude ne produit pas de token qui viole le schéma. Pas de préambule non plus. Et je peux utiliser des fonctions avancées du schéma JSON, comme les énumérations ou les `minItems`.
En Python, l’implémentation via l’API Anthropic est directe :
response = client.messages.create(
model="claude-3-7-sonnet-20250219", # Note: modèle Claude 3 Sonnet
max_tokens=1024,
output_config={
"format": "json_schema",
"schema": YOUR_SCHEMA_HERE
},
messages=[{"role": "user", "content": "Extract tasks from: [Text]"}]
)
Définir une Persona : Donner une Âme à Claude
Définir une persona est essentiel. Je donne à Claude un cadre mental pour son ton, son expertise et son niveau de détail. Sans cela, il se contente d’être un “assistant serviable” générique, souvent trop verbeux. C’est comme lui enfiler un costume d’expert.
Pourquoi ça fonctionne ? En lui assignant un rôle, je puise dans l’entraînement de Claude sur des types d’écriture spécifiques. Il priorise alors certaines informations : un “Développeur Senior” se concentrera sur la performance du code, un “Chef de Produit” sur l’impact utilisateur.
Je place ma persona au tout début du prompt, idéalement dans des balises “ ou “. Une persona forte inclut :
- Le titre de poste : Qui est Claude ?
- L’expertise : Que sait-il précisément ?
- Le ton : Comment doit-il parler (autoritaire, empathique, concis) ?
- L’objectif : Quelle est sa motivation première dans ce rôle ?
Quelques exemples :
Pour un feedback technique :
<persona>
Vous êtes un Ingénieur Sécurité Senior avec une mentalité "sécurité avant tout". Vous êtes sceptique face aux
entrées non validées et priorisez le Principe du Moindre Privilège. Votre ton est
direct, professionnel et se concentre sur l'identification des vulnérabilités potentielles.
</persona>
Pour de l’écriture créative :
<persona>
Vous êtes un chroniqueur tech spirituel et cynique pour un grand magazine. Vous utilisez des métaphores
incisives, évitez le jargon d'entreprise et privilégiez le divertissement de votre public tout en délivrant
des critiques acerbes.
</persona>
Mes pro-conseils : mentionner l’audience (“Expliquez ceci à un PDG” vs “Expliquez ceci à un enfant de 5 ans”) est aussi important que la persona elle-même. Et je combine toujours la persona avec des contraintes : la persona dit “comment être”, les instructions disent “quoi faire”.
Stratégies Avancées
Le Prompt Chaining : Diviser pour Mieux Régner
Le Prompt Chaining est un modèle de flux de travail que j’adore. Il s’agit de diviser une tâche complexe en plusieurs sous-tâches plus petites et ciblées. Je les lie ensemble, l’output d’une étape devenant l’input de la suivante. C’est bien plus fiable que de tout mettre dans un seul gros prompt, ce qui mène souvent à des résultats génériques ou incohérents.
Pourquoi enchaîner les prompts ?
- Précision et focus : Claude peut se concentrer à 100 % sur une petite tâche à la fois, réduisant les hallucinations.
- Débogage plus simple : Si le résultat final est erroné, je peux vérifier chaque “maillon” pour identifier précisément où la logique a échoué.
- Contrôle modulaire : J’utilise différents modèles pour différentes étapes. Par exemple, un modèle rapide comme Claude 3 Haiku pour l’extraction initiale, et un plus puissant comme Claude 3 Sonnet pour la synthèse créative finale.
Comment concevoir une chaîne de prompts ?
- Définir l’objectif : Quel est le résultat final désiré ?
- Découper : Je divise la tâche en étapes logiques et séquentielles.
- Créer des prompts ciblés : Une instruction claire pour chaque sous-tâche.
- Connecter les sorties : Je passe le résultat de l’étape 1 à l’entrée de l’étape 2.
Un exemple typique de workflow en 3 étapes :
Au lieu de demander à Claude : “Rédigez un e-mail marketing basé sur ce rapport de 20 pages”, j’utilise une chaîne :
- Étape 1 (Recherche) : “Extrayez les 3 principaux avantages du produit de ce rapport et listez-les sous forme de points.”
- Étape 2 (Rédaction) : “En utilisant ces 3 avantages [Insérer la sortie de l’étape 1], rédigez une ligne d’objet et une accroche d’e-mail percutantes.”
- Étape 3 (Polissage) : “Révisez ce brouillon d’e-mail [Insérer la sortie de l’étape 2] et réécrivez-le pour le rendre plus professionnel et sous 100 mots.”
Pour automatiser, j’utilise des outils comme LangChain ou CrewAI qui gèrent le passage des données entre les étapes. La Console Claude est aussi utile pour tester les prompts individuels.
Les Contraintes Positives : Dire ce qu’il Faut Faire
J’ai appris une chose essentielle : dire à Claude exactement ce qu’il doit faire est bien plus efficace que de lui dire ce qu’il ne doit pas faire. Ce simple changement sémantique, de “Ne soyez pas verbeux” à “Fournissez un résumé en une phrase”, améliore sa fiabilité. Cela réduit le “conflit interne” dans son processus de raisonnement.
Pourquoi les contraintes positives sont-elles meilleures ?
- Moins de charge cognitive : Les instructions négatives forcent Claude à identifier le jargon, puis à le supprimer. Les positives lui donnent un objectif direct dès le départ.
- Évite les erreurs “ironiques” : Dire “Ne pensez pas à un éléphant rose” peut paradoxalement le pousser à y penser. Le cadrage positif évite de déclencher involontairement le concept indésirable.
- Limites claires : Les règles affirmatives fournissent une “définition du travail accompli” concrète, facilitant l’auto-correction.
Comment transformer mes prompts ?
| Au lieu de (Négatif)… | Essayez (Positif)… |
|---|---|
| “Ne soyez pas verbeux.” | “Gardez votre réponse sous 50 mots.” |
| “Évitez le jargon technique.” | “Utilisez un langage simple adapté à un non-expert.” |
| “Ne vous répétez pas.” | “Fournissez des informations uniques dans chaque point.” |
| “N’incluez pas de préambule.” | “Commencez votre réponse directement par le premier élément.” |
| “Ne me donnez pas d’options ; choisissez-en une.” | “Indiquez exactement une recommandation finale.” |
Mes bonnes pratiques : j’utilise un langage orienté action (“Doit”, “Prioriser”, “Assurer”). Je spécifie des limites mesurables (“limitez à 3 paragraphes”, “exactement 2 phrases”). Et je fournis un cadre : “Lorsque vous choisissez une solution, priorisez la rentabilité par rapport à la rapidité”. Je les liste idéalement en une liste à puces claire, vers la fin du prompt, pour tirer parti de “l’effet de récence” de Claude.
Le Mode Extended Thinking : Une Pause Réfléchie
Le mode Extended Thinking est une capacité de raisonnement native de Claude 3 Sonnet. Il permet au modèle de “faire une pause et de réfléchir” avant de générer une réponse. Plutôt que de sauter au mot suivant le plus probable, Claude utilise un “bloc-notes” interne de tokens pour déconstruire les problèmes, planifier des stratégies et vérifier sa logique. Un véritable assistant intellectuel.
Comment cela fonctionne-t-il ? Claude génère des tokens de raisonnement internes, facturés au tarif de sortie standard. Il peut aussi me montrer son processus de pensée complet, en toute transparence. Je peux ajuster un “budget de réflexion” (de 1 024 à 128 000 tokens) pour contrôler l’effort.
Quand l’utiliser ?
- Code complexe : Refactoriser de grandes bases de code, identifier les conditions de concurrence, planifier des implémentations en plusieurs étapes.
- Logique/Mathématiques difficiles : Problèmes nécessitant des déductions en plusieurs étapes, comme les mathématiques compétitives ou les puzzles complexes.
- Workflows agentiques : Pour des objectifs ouverts où le modèle doit utiliser des outils ou naviguer des interfaces informatiques.
Pour l’activer sur Claude.ai, il suffit de sélectionner le modèle (Claude 3 Sonnet) et d’activer l’interrupteur “Extended thinking” dans le menu “Recherche et outils”. En code, j’inclus le mot “think” dans mon prompt (ex: “think about how to refactor this”). Avec l’API, j’ajoute l’objet `thinking` à ma requête :
{
"model": "claude-3-7-sonnet-20250219", # Note: modèle Claude 3 Sonnet
"thinking": { "type": "enabled", "budget_tokens": 4096 }
}
L’Énigme des Chevaliers, Scélérats et Espions
Pour vraiment comprendre la valeur d’Extended Thinking, je pense à un classique des puzzles logiques.
Imaginez : trois personnes, A, B et C. L’un est un Chevalier (dit toujours la vérité), l’un est un Scélérat (ment toujours), et l’un est un Espion (peut mentir ou dire la vérité).
Déclarations :
A dit : “C est un Scélérat.”
B dit : “A est un Chevalier.”
C dit : “Je suis l’Espion.”
En mode standard (sans réflexion), Claude devine. Il “saute” souvent à une conclusion plausible mais qui contient une faille logique. Par exemple, il pourrait répondre : “A est le Chevalier parce qu’il identifie correctement C, et B est l’Espion.” Le problème ? Il manque la vérification profonde. Si A est le Chevalier, alors B’s déclaration “A est un Chevalier” est vraie, ce qui signifie que B ne peut pas être le Scélérat. Et si B est l’Espion, que devient C ? Le mode standard rate souvent ces conflits secondaires.
Avec Extended Thinking, c’est une autre histoire. Claude utilise un “bloc-notes” interne. Il vérifie chaque permutation.
Son processus de pensée interne ressemblerait à ceci :
- Hypothèse 1 : Supposons que A est le Chevalier. Si A est le Chevalier, alors “C est un Scélérat” est vrai. Donc C est le Scélérat. Il reste B comme Espion. Si B est l’Espion, “A est un Chevalier” peut être vrai (les Espions peuvent dire la vérité). Et si C est le Scélérat, sa déclaration “Je suis l’Espion” serait un mensonge, ce qu’un Scélérat doit faire. Ceci fonctionne.
- Hypothèse 2 : Supposons que B est le Chevalier. Alors A doit être un Chevalier (selon la déclaration de B). Mais il n’y a qu’un seul Chevalier. Contradiction.
- Hypothèse 3 : Supposons que C est le Chevalier. Alors “Je suis l’Espion” doit être vrai. Mais un Chevalier ne peut pas être un Espion. Contradiction.
La réponse finale : “A est le Chevalier, B est l’Espion, et C est le Scélérat.”
Les différences sont frappantes : une précision totale par l’absence de contradiction, et une explication claire des raisons pour lesquelles les autres options sont impossibles. Oui, il faut attendre 10 à 30 secondes de plus pour la réponse, mais la fiabilité est significativement accrue pour les questions épineuses.
Des Outils Utiles
Je ne suis pas seul dans cette quête de perfection. Plusieurs outils m’aident :
- Générateur de Prompts : Disponible dans la Console Claude, il prend mon idée et génère un modèle de haute qualité selon les meilleures pratiques. Un gain de temps incroyable.
- Améliorateur de Prompts : Un outil automatisé qui analyse mes prompts existants et suggère des améliorations.
- Tutoriel GitHub d’Anthropic : Un guide interactif complet avec des exercices pour maîtriser ces techniques.
Le “Meilleur” Prompt pour Claude
Le “meilleur” prompt pour Claude n’est pas une formule magique mais une structure. C’est un modèle qui combine toutes les techniques que j’ai partagées. Ce n’est pas une simple phrase, mais une instruction en plusieurs parties qui donne à Claude des limites claires et un objectif spécifique.
Voici le modèle “gold-standard” pour un prompt Claude performant, celui que j’utilise régulièrement :
<persona>
Vous êtes un [Rôle, ex: Rédacteur Technique] expert avec 20 ans d'expérience dans [Domaine]. Votre style est [Ton, ex: percutant, académique ou direct].
</persona>
<context>
Je travaille sur [Nom du Projet]. L'audience cible est [Audience].
Informations de base : [Collez des liens pertinents ou un bref historique].
</context>
<task>
Votre objectif est de [Action Spécifique].
Veuillez respecter ces contraintes :
- [Contrainte 1 : ex: Moins de 300 mots]
- [Contrainte 2 : ex: Utilisez une liste à puces pour les points clés]
- [Contrainte 3 : ex: N'utilisez pas de mots à la mode d'entreprise]
</task>
<examples>
<example>
<input>[Exemple d'entrée]</input>
<output>[Exemple de sortie idéale]</output>
</example>
</examples>
<thinking>
Avant de fournir le résultat final, réfléchissez étape par étape à la meilleure façon d'atteindre les objectifs de l'utilisateur.
</thinking>
<input>
[Insérez ici le contenu réel que vous souhaitez que Claude traite]
</input>
Pourquoi ce modèle fonctionne-t-il si bien ?
- Balises XML : Elles séparent clairement mes “ordres” des “données”.
- Persona : Il définit le niveau professionnel de la réponse.
- Contraintes positives : Il donne à Claude une liste de “must-haves” plutôt que de “ne pas faire”.
- Bloc de pensée : Il force le modèle à planifier sa logique avant de rédiger la réponse finale.
Mon Pro-Conseil : Si vous utilisez un modèle comme Claude 3 Sonnet, le tag “ est souvent superflu. Activez simplement le “Extended Thinking” dans l’interface pour obtenir un résultat équivalent, sinon meilleur.
Exemples de Prompt Engineering pour Claude
L’ingénierie de prompt pour Claude, c’est avant tout une question de structure et de clarté. Voici des exemples concrets des techniques les plus efficaces en action.
1. Balises XML pour une Clarté Structurelle
Claude a été spécifiquement affiné pour reconnaître les balises XML comme des marqueurs structurels. Cela l’empêche de confondre mes directives avec les données qu’il doit traiter.
Exemple : Analyse multi-documents
<documents>
<document index="1">
<source>Rapport interne T1</source>
<content>[Coller le texte ici]</content>
</document>
<document index="2">
<source>Analyse de la concurrence</source>
<content>[Coller le texte ici]</content>
</document>
</documents>
<instructions>
Comparez les tendances de part de marché entre ces deux documents.
Rendez votre rapport final entre balises <analysis>.
</instructions>
2. Few-Shot Prompting (Exemples)
Fournir quelques exemples de haute qualité est le moyen le plus efficace d’orienter le ton ou le format de sortie de Claude. Je vise 2 à 5 “exemples” diversifiés pour montrer plutôt que de simplement dire.
Exemple : Classification de sentiment
<instructions>
Classez le sentiment du commentaire client suivant.
</instructions>
<examples>
<example>
<input>La livraison a pris une éternité, mais le produit est incroyable !</input>
<output>Sentiment : Mixte | Priorité : Basse</output>
</example>
<example>
<input>Il est arrivé cassé. Je veux un remboursement immédiat.</input>
<output>Sentiment : Négatif | Priorité : Haute</output>
</example>
</examples>
<input>
Ma commande manque un des trois articles que j'ai payés.
</input>
3. Prompt Chaining pour les Tâches Complexes
Au lieu d’un seul prompt massif, je divise les workflows complexes en une chaîne où la sortie d’une étape devient l’entrée de la suivante.
Workflow : Document en Newsletter
- Prompt 1 (Extraction) : “Identifiez les 3 nouvelles les plus importantes de ce communiqué de presse et listez-les sous forme de puces.”
- Prompt 2 (Rédaction) : “En utilisant les puces de l’étape précédente, rédigez un texte accrocheur de 100 mots pour une newsletter.”
- Prompt 3 (Polissage) : “Révisez le texte pour le ton. Assurez-vous qu’il est professionnel mais excitant. La version finale doit faire moins de 80 mots.”
4. Personas Définies et Contraintes Positives
Assigner une persona donne à Claude un cadre mental pour son expertise, tandis que les contraintes positives lui disent exactement ce qu’il doit prioriser.
Exemple : Relecteur technique
<persona>
Vous êtes un Architecte de Sécurité Senior. Vous priorisez la confidentialité des données et les accès minimaux
au-dessus de tout. Votre ton est direct et autoritaire.
</persona>
<task>
Passez en revue ce schéma de base de données proposé.
Concentrez-vous sur :
1. Les fuites potentielles d'informations personnelles.
2. Les points d'accès publics inutiles.
3. L'absence de chiffrement au repos.
</task>
5. Prompts de “Réflexion” Systématique
Encourager Claude à raisonner avant de répondre améliore drastiquement la précision des tâches logiques ou mathématiques.
Exemple : Problème de logique
<instructions>
Résolvez le problème de logique suivant.
Suivez ces étapes :
1. Mappez tous les faits connus entre balises <thinking>.
2. Testez chaque solution possible pour les contradictions.
3. Fournissez la réponse finale et vérifiée entre balises <answer>.
</instructions>
Les meilleurs modèles de prompts pour Claude utilisent des éléments structurels comme les balises XML, le jeu de rôle et la pensée étape par étape pour garantir une sortie de haute qualité. Anthropic a officiellement noté que Claude répond exceptionnellement bien aux sections claires et organisées.
Ces modèles exploitent les capacités de Claude en matière de raisonnement complexe et de formatage :
- Le Partenaire de Décision Maître : Pose des questions stratégiques et approfondies pour m’aider à clarifier ma propre prise de décision.
- Miroir de Voix et de Ton : Analyse mon texte fourni pour reproduire mon style d’écriture spécifique dans de nouveaux brouillons.
- L’Apprenti Pareto (Règle des 80/20) : Identifie les 20 % de concepts essentiels pour comprendre 80 % d’un nouveau sujet.
- Éditeur de Commentaires Brutaux : Offre un feedback direct et critique sur l’écriture, se concentrant sur les faiblesses plutôt que sur l’encouragement.
- Traducteur de Concepts Techniques : Explique des sujets complexes pour un public averti sans supposer d’expertise technique.
- L’Avocat “Anti-Failles” : Agit comme un critique pour renforcer les arguments en trouvant les failles avant qu’ils ne soient présentés.
- Ami “Connaisseur” de Newsletter : Génère du contenu ciblé en utilisant des balises XML pour définir le rôle, la tâche et le format.
- Le Planificateur de Jalons de Projet : Découpe les grands objectifs en petites étapes actionnables.
- Réfacteur de Code Sûr : Améliore la performance et la lisibilité du code tout en garantissant une fonctionnalité cohérente.
- Le Constructeur de Systèmes Répétables : Transforme les tâches récurrentes en cadres structurés et efficaces.
Vous êtes prêt à passer à la suite ? Alors consultez sans attendre le programme de notre formation en Prompt Engineering, et venez nous poser toutes vos questions chez Deep Learn Academy.