Function calling
Capacité d'un LLM à appeler des fonctions ou API externes de façon structurée.
Définition complète
Le function calling (aussi appelé "tool use") permet à un LLM de sortir du pur texte et d'agir sur le monde. Au lieu de répondre "Je ne peux pas accéder à internet", le modèle peut générer un JSON structuré qui dit "appelle la fonction `web_search` avec le paramètre `query: 'météo Paris demain'`". Ton code exécute la fonction, lui retourne le résultat, et le modèle continue avec cette info.
C'est la base technique de tous les agents IA modernes. OpenAI, Anthropic, Google et Mistral supportent tous le function calling de façon native.
Flux typique : 1. Tu déclares les fonctions disponibles (nom, description, paramètres) dans le prompt 2. Le modèle décide s'il a besoin d'appeler une fonction et laquelle 3. Le modèle génère un JSON avec les paramètres 4. Ton code exécute la fonction et retourne le résultat 5. Le modèle synthétise une réponse en français pour l'utilisateur
Exemple : un assistant météo aura accès à `get_weather(city: string, date: string)`. Quand l'utilisateur demande "Quel temps fera-t-il à Lyon vendredi ?", le modèle génère `{"function": "get_weather", "city": "Lyon", "date": "vendredi"}` au lieu d'inventer une prévision.
Les MCP servers d'Anthropic standardisent ce mécanisme à travers un protocole ouvert qui permet à Claude (et bientôt d'autres modèles) de découvrir et utiliser des outils tiers sans intégration custom.
Approfondir
Tu veux maîtriser Function calling en pratique ?
Le module "Skills & MCP Servers — connecter l'IA à tes outils" couvre function calling en profondeur, avec démonstrations interactives et exercices.
Découvrir le module →