Zero-shot
Capacité d'un LLM à réaliser une tâche sans aucun exemple dans le prompt.
Définition complète
Le zero-shot, c'est la capacité d'un LLM à effectuer une tâche en se basant uniquement sur la description de cette tâche, sans qu'on lui montre d'exemple préalable. C'est ce qui rend les LLMs modernes si remarquables : ils peuvent traduire, classifier, résumer, extraire des entités, sans avoir été spécifiquement entraînés pour ces tâches.
Exemple zero-shot : "Classifie ce texte comme positif, négatif ou neutre : 'Le service était correct, rien d'exceptionnel.'" Le modèle répond "neutre" sans avoir vu d'autres exemples de classification de sentiment au préalable.
Le zero-shot marche bien quand : - La tâche est claire et bien formulée - Le format de sortie est simple - Le modèle a été exposé à beaucoup de cas similaires pendant son entraînement
Le zero-shot échoue souvent quand : - Le format de sortie est complexe ou non standard (JSON spécifique, structure custom) - La tâche est subtile ou demande une certaine sensibilité métier - Tu as besoin d'une grande consistance entre appels
Dans ces cas, passer en **few-shot** (avec 2-5 exemples) résout 80% des problèmes. Et ne demande pas de fine-tuning, juste un meilleur prompt.
Progression naturelle des techniques : 1. Zero-shot (essai initial, simple) 2. Few-shot avec 2-3 exemples (souvent suffisant) 3. Chain of thought si la tâche demande du raisonnement 4. Fine-tuning seulement si tout ce qui précède ne marche pas et que tu as des milliers d'exemples
Approfondir
Tu veux maîtriser Zero-shot en pratique ?
Le module "Prompt engineering — penser comme un LLM" couvre zero-shot en profondeur, avec démonstrations interactives et exercices.
Découvrir le module →Termes liés
Technique de prompting consistant à donner 2 à 5 exemples au modèle pour l'orienter.
Art et science de concevoir des instructions optimales pour les LLMs.
Technique de prompt engineering qui demande au modèle de raisonner étape par étape avant de répondre.
Large Language Model — modèle de deep learning entraîné sur d'immenses corpus de texte.