Chain of Thought
Technique de prompt engineering qui demande au modèle de raisonner étape par étape avant de répondre.
Définition complète
Chain of Thought (CoT) est une des techniques de prompting les plus puissantes découvertes. L'idée est simple : forcer le modèle à expliciter son raisonnement avant de donner la réponse finale. Au lieu de "Quelle est la réponse ?", on dit "Raisonne étape par étape, puis donne ta réponse."
Ce qui se passe sous le capot : le LLM prédit chaque token en fonction de tout ce qu'il a écrit avant. Quand il écrit son raisonnement intermédiaire, ce raisonnement devient du contexte sur lequel il s'appuie pour produire la réponse finale. Sans CoT, il essaie de "deviner" la réponse en un seul pas — souvent en se trompant sur les questions complexes.
L'effet est massif sur les tâches mathématiques, logiques et de raisonnement multi-étapes. Les benchmarks montrent +30% à +50% de précision pour les modèles de taille moyenne.
Variantes utiles : - Zero-shot CoT : ajouter simplement "Let's think step by step" au prompt - Few-shot CoT : montrer 2-3 exemples avec raisonnement explicité - Self-consistency CoT : générer plusieurs raisonnements en parallèle et garder la réponse majoritaire
Exemples concrets
- Mauvais prompt : "Marie a 12 pommes, donne 3 à Paul, achète 5 de plus. Combien lui en reste-t-il ?"
- Bon prompt : "Marie a 12 pommes, donne 3 à Paul, achète 5 de plus. Raisonne étape par étape avant de donner la réponse finale."
- En API : ajouter un system prompt "Tu raisonnes toujours étape par étape avant de conclure."
Approfondir
Tu veux maîtriser Chain of Thought en pratique ?
Le module "Prompt engineering — penser comme un LLM" couvre chain of thought en profondeur, avec démonstrations interactives et exercices.
Découvrir le module →Termes liés
Art et science de concevoir des instructions optimales pour les LLMs.
Technique de prompting consistant à donner 2 à 5 exemples au modèle pour l'orienter.
Capacité d'un LLM à réaliser une tâche sans aucun exemple dans le prompt.
Large Language Model — modèle de deep learning entraîné sur d'immenses corpus de texte.