Température
Paramètre contrôlant le caractère aléatoire des réponses d'un LLM.
Définition complète
La température est un paramètre numérique (entre 0 et 2 typiquement) qui contrôle à quel point les réponses du LLM sont "créatives" ou "déterministes".
Mathématiquement, à chaque prédiction, le modèle calcule une probabilité pour chaque token possible. La température modifie cette distribution : - **Température = 0** : le modèle prend toujours le token le plus probable. Réponses identiques pour le même input. Parfait pour les tâches factuelles, le code, la classification. - **Température = 0.7** (défaut) : un peu de randomness, varie légèrement entre appels. Bon compromis pour les conversations. - **Température = 1.0+** : beaucoup de variabilité. Bon pour la créativité (brainstorming, écriture créative). - **Température = 1.5+** : très imprévisible, parfois incohérent.
Quelques règles pratiques : - Pour de l'extraction d'entités, du JSON structuré, de la réponse factuelle : **température 0** - Pour de la conversation naturelle, du customer support : **0.5-0.7** - Pour de la génération créative (idées, posts marketing) : **0.7-1.0** - Pour des contextes où tu veux des réponses très variées : **1.0-1.3**
Ne pas confondre avec **top-p** (nucleus sampling) qui est une autre façon de contrôler la diversité : top-p = 0.9 signifie "ne prend que les tokens cumulant 90% de la probabilité totale". On utilise généralement température OU top-p, pas les deux ensemble.
Approfondir
Tu veux maîtriser Température en pratique ?
Le module "Prompt engineering — penser comme un LLM" couvre température en profondeur, avec démonstrations interactives et exercices.
Découvrir le module →