Régression linéaire simple
La régression linéaire permet de construire une équation montrant le lien entre deux variables. Dans ce modèle, nous avons une variable dépendante (Yi) que nous cherchons à expliquer à l'aide d'une variable explicative (Xi). Par exemple, on peut étudier comment le niveau d'éducation (X) influence le salaire (Y) d'un individu.
Le modèle mathématique s'écrit sous la forme Yi = α + βXi + Ui. Les paramètres α et β représentent respectivement l'ordonnée à l'origine et la pente de la droite. Le terme d'erreur Ui englobe tous les autres facteurs qui peuvent affecter la variable dépendante, mais qui ne sont pas inclus dans le modèle.
Pour évaluer la qualité de notre modèle, nous calculons des prédictions Ŷi(a,b) = a + bXi, où a et b sont les estimations de α et β. La différence entre la valeur observée Yi et la prédiction Ŷi s'appelle le résidu. Plus ces résidus sont petits, meilleur est notre modèle.
💡 Pense à la régression linéaire comme à une façon de tracer la "meilleure" ligne droite à travers un nuage de points. Cette ligne te permet de faire des prédictions sur des données que tu n'as pas encore observées !
La performance du modèle peut être évaluée par la Somme des Carrés Totaux (SCT) qui mesure la variabilité totale des observations, et la Somme des Carrés Expliquée (SCE) qui indique la partie de cette variabilité expliquée par le modèle.