18 avril 2021 8:33

Régression linéaire multiple (MLR)

Qu’est-ce que la régression linéaire multiple (MLR)?

La régression linéaire multiple (MLR), également connue simplement sous le nom de régression multiple, est une technique statistique qui utilise plusieurs variables explicatives pour prédire le résultat d’une variable de réponse. Le but de la régression linéaire multiple (MLR) est de modéliser la relation linéaire entre les variables explicatives (indépendantes) et la variable de réponse (dépendante).

En substance, la régression multiple est l’extension de moindres carrés ordinaires (OLS) régression car elle implique plus d’une variable explicative.

Points clés à retenir

  • La régression linéaire multiple (MLR), également connue simplement sous le nom de régression multiple, est une technique statistique qui utilise plusieurs variables explicatives pour prédire le résultat d’une variable de réponse.
  • La régression multiple est une extension de la régression linéaire (MCO) qui utilise une seule variable explicative.
  • MLR est largement utilisé en économétrie et en inférence financière.

Formule et calcul de la régression linéaire multiple

Ce que la régression linéaire multiple peut vous dire

La régression linéaire simple est une fonction qui permet à un analyste ou à un statisticien de faire des prédictions sur une variable en fonction des informations connues sur une autre variable. La régression linéaire ne peut être utilisée que si l’on a deux variables continues – une variable indépendante et une variable dépendante. La variable indépendante est le paramètre utilisé pour calculer la variable dépendante ou le résultat. Un modèle de régression multiple s’étend à plusieurs variables explicatives.

Le modèle de régression multiple repose sur les hypothèses suivantes:

  • Il existe une relation linéaire entre les variables dépendantes et les variables indépendantes
  • Les variables indépendantes ne sont pas trop fortement corrélées entre elles
  • y i les observations sont sélectionnées indépendamment et au hasard dans la population
  • Les résidus doivent être normalement distribués avec une moyenne de 0 et une variance σ

Le coefficient de détermination (R-carré) est une métrique statistique utilisée pour mesurer dans quelle mesure la variation du résultat peut être expliquée par la variation des variables indépendantes. R 2 augmente toujours à mesure que davantage de prédicteurs sont ajoutés au modèle MLR, même si les prédicteurs peuvent ne pas être liés à la variable de résultat.

R2 en lui-même ne peut donc pas être utilisé pour identifier les prédicteurs à inclure dans un modèle et ceux à exclure. R2 ne peut être compris qu’entre 0 et 1, où 0 indique que le résultat ne peut être prédit par aucune des variables indépendantes et 1 indique que le résultat peut être prédit sans erreur à partir des variables indépendantes.

Lors de l’interprétation des résultats de la régression multiple, les coefficients bêta sont valides tout en maintenant toutes les autres variables constantes («toutes choses égales par ailleurs»). La sortie d’une régression multiple peut être affichée horizontalement sous forme d’équation ou verticalement sous forme de tableau.

Exemple d’utilisation de la régression linéaire multiple

À titre d’exemple, un analyste peut vouloir savoir comment le mouvement du marché affecte le prix d’ExxonMobil (XOM). Dans ce cas, leur équation linéaire aura la valeur de l’indice S&P 500 comme variable indépendante, ou prédicteur, et le prix du XOM comme variable dépendante.

En réalité, plusieurs facteurs prédisent l’issue d’un événement. L’évolution des prix d’ExxonMobil, par exemple, ne dépend pas seulement de la performance de l’ensemble du marché. D’autres prédicteurs tels que le prix du pétrole, les taux d’intérêt et le mouvement des prix des contrats à terme sur le pétrole peuvent affecter le prix du XOM et les cours des actions d’autres sociétés pétrolières. Pour comprendre une relation dans laquelle plus de deux variables sont présentes, une régression linéaire multiple est utilisée.

La régression linéaire multiple (MLR) est utilisée pour déterminer une relation mathématique entre un certain nombre de variables aléatoires. En d’autres termes, MLR examine comment plusieurs variables indépendantes sont liées à une variable dépendante. Une fois que chacun des facteurs indépendants a été déterminé pour prédire la variable dépendante, les informations sur les variables multiples peuvent être utilisées pour créer une prédiction précise du niveau d’effet qu’elles ont sur la variable de résultat. Le modèle crée une relation sous la forme d’une ligne droite (linéaire) qui se rapproche le mieux de tous les points de données individuels.

En se référant à l’équation MLR ci-dessus, dans notre exemple:

  • y i = variable dépendante – le prix du XOM
  • x i1 = taux d’intérêt
  • x i2 = prix du pétrole
  • x i3 = valeur de l’indice S&P 500
  • x i4 = prix des contrats à terme sur le pétrole
  • B 0 = ordonnée à l’origine au temps zéro
  • B 1 = coefficient de régression qui mesure un changement d’unité dans la variable dépendante lorsque x i1 change – le changement du prix XOM lorsque les taux d’intérêt changent
  • B 2 = valeur du coefficient qui mesure un changement d’unité dans la variable dépendante lorsque x i2 change – le changement du prix XOM lorsque les prix du pétrole changent

Les estimations des moindres carrés, B 0, B 1, B 2 … B p, sont généralement calculées par un logiciel statistique. Autant de variables peuvent être incluses dans le modèle de régression dans lequel chaque variable indépendante est différenciée par un nombre – 1,2, 3, 4… p. Le modèle de régression multiple permet à un analyste de prédire un résultat basé sur des informations fournies sur plusieurs variables explicatives.

Pourtant, le modèle n’est pas toujours parfaitement précis car chaque point de données peut différer légèrement du résultat prévu par le modèle. La valeur résiduelle, E, qui est la différence entre le résultat réel et le résultat prévu, est incluse dans le modèle pour tenir compte de ces légères variations.

En supposant que nous exécutions notre modèle de régression des prix XOM via un logiciel de calcul de statistiques, qui renvoie cette sortie:

Un analyste interpréterait cette sortie comme signifiant que si d’autres variables sont maintenues constantes, le prix du XOM augmentera de 7,8% si le prix du pétrole sur les marchés augmente de 1%. Le modèle montre également que le prix du XOM diminuera de 1,5% suite à une hausse de 1% des taux d’intérêt. R 2 indique que 86,5% des variations du cours de l’action d’Exxon Mobil peuvent être expliquées par des variations du taux d’intérêt, du prix du pétrole, des contrats à terme sur le pétrole et de l’indice S&P 500.

La différence entre la régression linéaire et multiple

La régression des carrés linéaires ordinaires (MCO) compare la réponse d’une variable dépendante en cas de changement de certaines variables explicatives. Cependant, il est rare qu’une variable dépendante soit expliquée par une seule variable. Dans ce cas, un analyste utilise la régression multiple, qui tente d’expliquer une variable dépendante en utilisant plus d’une variable indépendante. Les régressions multiples peuvent être linéaires et non linéaires.

Les régressions multiples reposent sur l’hypothèse qu’il existe une relation linéaire entre les variables dépendantes et indépendantes. Il suppose également qu’il n’y a pas de corrélation majeure entre les variables indépendantes.

Questions fréquemment posées

Qu’est-ce qui rend une régression multiple «multiple»?

Une régression multiple considère l’effet de plus d’une variable explicative sur un résultat d’intérêt. Il évalue l’effet relatif de ces variables explicatives, ou indépendantes, sur la variable dépendante lorsque toutes les autres variables du modèle sont constantes.

Pourquoi utiliser une régression multiple sur une simple régression OLS?

Il est rare qu’une variable dépendante soit expliquée par une seule variable. Dans de tels cas, un analyste utilise la régression multiple, qui tente d’expliquer une variable dépendante en utilisant plus d’une variable indépendante. Le modèle suppose cependant qu’il n’y a pas de corrélations majeures entre les variables indépendantes.

Puis-je faire une régression multiple à la main?

Probablement pas. Les modèles de régression multiple sont complexes et le deviennent encore plus lorsqu’il y a plus de variables incluses dans le modèle ou lorsque la quantité de données à analyser augmente. Pour exécuter une régression multiple, vous devrez probablement utiliser un logiciel statistique spécialisé ou des fonctions au sein de programmes d’entreprise tels qu’Excel.

Qu’est-ce que cela signifie pour une régression multiple d’être «linéaire»?

Dans une régression linéaire multiple, le modèle calcule la ligne de meilleur ajustement qui minimise les variances de chacune des variables incluses en ce qui concerne la variable dépendante. Parce qu’il s’adapte à une ligne, c’est un modèle linéaire. Il existe également des modèles de régression non linéaire impliquant plusieurs variables, telles que la régression logistique, la régression quadratique et les modèles probit.

Comment les modèles de régression multiple sont-ils utilisés en finance?

Tout modèle économétrique qui examine plus d’une variable peut être une régression multiple. Les modèles factoriels, par exemple, comparent deux ou plusieurs facteurs pour analyser les relations entre les variables et les performances qui en résultent. Le Fama and French Three-Factor Mod est un tel modèle qui étend le modèle de tarification des actifs financiers (CAPM) en ajoutant des facteurs de risque de taille et de risque de valeur au facteur de risque de marché dans le CAPM (qui est lui-même un modèle de régression). En incluant ces deux facteurs supplémentaires, le modèle s’ajuste à cette tendance à la surperformance, ce qui en fait un meilleur outil d’évaluation des performances des managers.