En analyse de données à deux variables, la régression linéaire (par la méthode des moindres carrés) permet de modéliser la tendance d'un nuage de points par une droite d'équation $y = ax + b$. Cet outil trouve automatiquement la droite idéale qui minimise l'erreur.
Entrez vos couples de points (X et Y correspondant). Ajoutez autant de lignes que nécessaire.
La méthode consiste à trouver la droite qui minimise la somme des carrés des écarts (verticaux) entre les points réels du nuage et la droite théorique.
Formules utilisées pour la droite $y = ax + b$ :
$$a = \frac{Cov(X,Y)}{V(X)}$$
$$b = \bar{y} - a \bar{x}$$
Non. Si votre nuage de point forme une parabole en U, ou s'il est complètement dispersé de manière aléatoire, le calcul donnera bien une équation de droite... mais cette droite n'aura aucune valeur prédictive. Il faut d'abord observer le nuage de points pour vérifier que la tendance est bien globalement rectiligne.