K-Nearest Neighbors (K plus Proches Voisins) Rôle et explication Le KNN est un algorithme de classification qui classe un point en fonction de la majorité des k points voisins les plus proches. C’est une méthode d’apprentissage supervisée simple mais efficace pour la classification et la reconnaissance de motifs.
Recurrent Neural Network (Réseau Neuronal Récurrent) Rôle et explication Le RNN est un type de réseau de neurones conçu pour traiter des séquences de données. Il possède des connexions récurrentes qui lui permettent de conserver une mémoire des informations précédentes, le rendant efficace pour des tâches comme la reconnaissance vocale
Convolutional Neural Network (Réseau Neuronal Convolutif) Rôle et explication Le CNN est un type de réseau de neurones spécialement conçu pour traiter des données structurées en grille, comme les images. Il utilise des filtres convolutifs pour extraire les caractéristiques et est largement utilisé dans la vision par ordinateur.
Long Short-Term Memory Rôle et explication LSTM est une variante des réseaux neuronaux récurrents (RNN) conçue pour mieux gérer les dépendances à long terme dans des séquences de données. Il est souvent utilisé pour des tâches comme la traduction automatique, la reconnaissance vocale et la prévision de séries temporelles.
Generalized Linear Model (Modèle Linéaire Généralisé) Rôle et explication Le GLM est une extension de la régression linéaire qui permet de modéliser des relations entre des variables indépendantes et des variables dépendantes qui ne suivent pas nécessairement une distribution normale. Il inclut des modèles tels que la régression logistique et
Random Forest Rôle et explication Le RF est un algorithme d’apprentissage supervisé qui construit une multitude d’arbres de décision lors de l’entraînement et sort la classe qui est la mode (classification) ou la moyenne (régression) des classes (ou valeurs) prédictives des arbres individuels.
Gradient Boosting Machine Rôle et explication Le GBM est une méthode d’apprentissage supervisé qui combine plusieurs modèles faibles (comme des arbres de décision) pour créer un modèle plus robuste. Il ajuste les modèles en minimisant l’erreur prédictive en ajoutant des arbres de manière itérative.
Density-Based Spatial Clustering of Applications with Noise Rôle et explication Le DBSCAN est un algorithme de clustering qui regroupe les points de données en fonction de leur densité dans l’espace. Il est efficace pour identifier des clusters de forme arbitraire et pour traiter les valeurs aberrantes (bruit).
K-Means Clustering Rôle et explication Le K-Means est un algorithme de partitionnement qui regroupe les points de données en K clusters en fonction de leur proximité à des centres de clusters définis. Il est largement utilisé pour le clustering dans les jeux de données non supervisés.
Expectation-Maximization Rôle et explication L’algorithme EM est utilisé pour trouver les estimations des paramètres maximisant la vraisemblance dans des modèles statistiques où les données contiennent des variables cachées ou manquantes. Il est utilisé pour des tâches comme la classification et le clustering.
Latent Dirichlet Allocation Rôle et explication LDA est une technique utilisée pour la modélisation thématique qui identifie des groupes de mots dans de grands ensembles de textes, représentant des sujets latents. Elle est largement utilisée dans l’analyse de texte et la fouille de données.
Analysis of Variance (Analyse de la Variance) Rôle et explication L’ANOVA est une méthode statistique utilisée pour comparer les moyennes de plusieurs groupes et déterminer s’il existe des différences statistiquement significatives entre eux. Elle est souvent utilisée dans les expériences où plusieurs groupes sont comparés.
Ordinary Least Squares (Moindres Carrés Ordinaires) Rôle et explication L’OLS est une méthode de régression qui cherche à minimiser la somme des carrés des écarts entre les valeurs observées et les valeurs prédites par le modèle. C’est la méthode la plus couramment utilisée pour ajuster une droite de régression dans
Root Mean Square (Racine Carrée de la Moyenne) Rôle et explication Le RMS est une mesure statistique qui représente la magnitude des variations dans un ensemble de données. Il est calculé en prenant la racine carrée de la moyenne des carrés des valeurs. Il est souvent utilisé pour analyser les
Maximum Likelihood Estimation (Estimation du Maximum de Vraisemblance) Rôle et explication La MLE est une méthode statistique utilisée pour estimer les paramètres d’un modèle à partir de données observées, en maximisant la vraisemblance que les données proviennent du modèle.
Laser Interferometer Gravitational-Wave Observatory Rôle et explication LIGO est un observatoire conçu pour détecter les ondes gravitationnelles, des ondulations dans l’espace-temps causées par des événements cataclysmiques comme la fusion de trous noirs. Il a permis la première détection d’ondes gravitationnelles en 2015.
Euclid (Mission de l’ESA pour étudier l’énergie noire) Rôle et explication Euclid est une mission spatiale de l’ESA conçue pour cartographier la géométrie de l’univers et étudier la matière noire et l’énergie noire. Ses observations aideront à comprendre pourquoi l’univers s’étend de plus en plus rapidement.
High Energy Stereoscopic System Rôle et explication HESS est un réseau de télescopes au sol utilisé pour détecter les rayons gamma d’origine cosmique. Il est essentiel pour l’étude des phénomènes astrophysiques violents, comme les sursauts gamma et les trous noirs actifs.
Coefficient de Détermination Rôle et explication Le R² est une statistique qui mesure la proportion de la variance dans la variable dépendante qui est expliquée par les variables indépendantes dans un modèle de régression. Un R² proche de 1 indique que le modèle explique bien les données, tandis qu’un R²
Interquartile Range (Intervalle Interquartile) Rôle et explication L’IQR est une mesure de dispersion qui représente la différence entre le troisième quartile (Q3) et le premier quartile (Q1) dans un ensemble de données. Il montre l’étendue de la dispersion au milieu des données, en excluant les valeurs extrêmes.