Réseau de neurones
Architecture computationnelle inspirée du cerveau, composée de neurones artificiels en couches.
Définition complète
Un réseau de neurones artificiel est une architecture mathématique qui s'inspire (très loin) du cerveau biologique. Les "neurones" sont en fait des unités de calcul qui reçoivent des entrées, les multiplient par des poids, additionnent le tout, et passent le résultat à travers une fonction d'activation non-linéaire (ReLU, sigmoid, etc.).
Les neurones sont organisés en **couches** : - Une couche d'entrée qui reçoit les données brutes (pixels, tokens, etc.) - Une ou plusieurs couches cachées qui apprennent des représentations intermédiaires - Une couche de sortie qui produit le résultat (classe prédite, prochain token, etc.)
Le "deep learning" désigne les réseaux à beaucoup de couches (dizaines à milliers). Plus de couches = plus de capacité à apprendre des représentations abstraites, mais aussi plus de risque de sur-apprentissage si on n'a pas assez de données.
Les architectures clés à connaître : - **MLP (Multi-Layer Perceptron)** : la version la plus simple, juste des couches denses - **CNN (Convolutional Neural Network)** : domine la vision par ordinateur - **RNN/LSTM** : ancêtres pour le séquentiel (traduction, parole), aujourd'hui supplantés - **Transformers** : l'architecture qui a tout balayé depuis 2017, base de tous les LLMs
L'apprentissage se fait par descente de gradient : on ajuste les poids dans le sens qui réduit l'erreur de prédiction sur les exemples d'entraînement. Mathématiquement c'est juste de la dérivée et de la chaîne de règles, mais à l'échelle des millions de paramètres.
Approfondir
Tu veux maîtriser Réseau de neurones en pratique ?
Le module "L'IA démystifiée — le socle" couvre réseau de neurones en profondeur, avec démonstrations interactives et exercices.
Découvrir le module →Termes liés
Sous-catégorie du machine learning utilisant des réseaux de neurones à plusieurs couches.
Architecture de réseau de neurones qui a révolutionné le traitement du langage en 2017.
Valeurs numériques ajustées pendant l'entraînement — l'équivalent des "connaissances" stockées.
Approche de l'IA où le système apprend à partir d'exemples plutôt que de règles explicites.