Stochastic Gradient Descent (Descente de Gradient Stochastique)
Rôle et explication
Le SGD est un algorithme d’optimisation utilisé pour ajuster les paramètres des modèles d’apprentissage automatique. Il met à jour les paramètres du modèle en fonction d’un sous-ensemble aléatoire (minibatch) des données au lieu d’utiliser l’ensemble complet, ce qui rend l’entraînement plus rapide.