Aller au contenu principal
TGlossaire IA

Température

Paramètre contrôlant le caractère aléatoire des réponses d'un LLM.

Définition complète

La température est un paramètre numérique (entre 0 et 2 typiquement) qui contrôle à quel point les réponses du LLM sont "créatives" ou "déterministes".

Mathématiquement, à chaque prédiction, le modèle calcule une probabilité pour chaque token possible. La température modifie cette distribution : - **Température = 0** : le modèle prend toujours le token le plus probable. Réponses identiques pour le même input. Parfait pour les tâches factuelles, le code, la classification. - **Température = 0.7** (défaut) : un peu de randomness, varie légèrement entre appels. Bon compromis pour les conversations. - **Température = 1.0+** : beaucoup de variabilité. Bon pour la créativité (brainstorming, écriture créative). - **Température = 1.5+** : très imprévisible, parfois incohérent.

Quelques règles pratiques : - Pour de l'extraction d'entités, du JSON structuré, de la réponse factuelle : **température 0** - Pour de la conversation naturelle, du customer support : **0.5-0.7** - Pour de la génération créative (idées, posts marketing) : **0.7-1.0** - Pour des contextes où tu veux des réponses très variées : **1.0-1.3**

Ne pas confondre avec **top-p** (nucleus sampling) qui est une autre façon de contrôler la diversité : top-p = 0.9 signifie "ne prend que les tokens cumulant 90% de la probabilité totale". On utilise généralement température OU top-p, pas les deux ensemble.

Approfondir

Tu veux maîtriser Température en pratique ?

Le module "Prompt engineering — penser comme un LLM" couvre température en profondeur, avec démonstrations interactives et exercices.

Découvrir le module →

Termes liés