ULaval:MED-2232/Analyse multivariée

De Wikimedica
Ce guide d’étude a été élaboré par les volontaires de Wikimedica dans le cadre du cours MED-2232 à l'Université Laval et est basé sur le travail des responsables du cours. Il est fourni comme aide à l'étude et ne constitue pas un document officiel du cours.

Analyse multivariée

Analyse univariée : régression linéaire

L’analyse univariée est utile lorsque sont en relation une variable dépendante et une variable indépendante. La régression linéaire est employée lorsque la variable dépendante est une variable quantitative continue. Cette méthode produit un coefficient qui caractérise le changement de la variable dépendante en fonction de la variable indépendante. La formule décrivant la régression linéaire est la suivante :

y = β0 + β1x1

Où :

β0 (ordonnée) = valeur de y lorsque x1 est égal à 0.

β1 = pente de la droite de régression

Utilité de l’analyse multivariée

L’analyse multivariée permet d’étudier les associations entre la variable dépendante et plusieurs variables indépendantes. Pour obtenir une mesure d’association ajustée, il faut calculer les mesures d’association brutes, c’est-à-dire les mesures d’association pour chacune des variables indépendantes afin d’évaluer si la valeur nulle est incluse dans l’intervalle de confiance. Si la valeur nulle n’est pas incluse dans l’intervalle de confiance, il faut calculer la mesure d’association ajustée. Par contre, si la valeur nulle est comprise dans l’intervalle de confiance, il faut soupçonner la présence d’un facteur de confusion venant fausser la mesure d’association brute.

Biais de confusion

Un biais de confusion est une erreur systématique causée par la présence d’un facteur influençant la variable dépendante et la variable indépendante sans toutefois faire partie de la chaîne causale entre ces deux variables.

Pour contrôler ce type de biais, il est possible de présenter les mesures d’association spécifiques pour chaque strate de la variable confondante ou encore de présenter une mesure d’association ajustée grâce à l’analyse multivarié. La première démarche est utile lorsqu’il n’y a qu’une seule variable confondante, ce qui est assez rare. Lorsqu’il y a plus d’une variable confondante, c’est l’analyse multivariée qui doit être privilégiée.

Modification de la mesure d’association

Il y a modification de la mesure d’association lorsque les mesures présentées varient en fonction des strates d’un facteur de confusion. Certains tests statistiques permettent de déterminer si une modification de la mesure d’association est présente. Cependant, on peut aussi estimer cette modification en observant les intervalles de confiance. Il y a une modification de la mesure d’association si les intervalles de confiance calculés pour chacune des strates ne se recoupent pas. Si les intervalles de confiance se recoupent, on ne peut conclure qu’il n’y a pas de modification de la mesure et un test statistique est nécessaire.

Méthodes d’analyse multivariée

Tout d’abord, il est important de se souvenir que l’analyse multivariée ne peut pallier à une étude menée à l’aide d’un mauvais protocole. En effet, l’analyse multivariée peut contrôler les biais de confusion, mais elle ne peut corriger les biais d’information ou de sélection. Elle ne peut pas non plus remplacer un manque de puissance statistique ou une trop petite taille d’échantillon.

Les méthodes d’analyse multivariées les plus fréquentes sont la régression linéaire multiple, la régression logistique et la régression à effet proportionnel. Le choix d’une méthode plutôt qu’une autre s’appuie sur le type de variable dépendante et la mesure d’intérêt.

Les méthodes d'analyse multivariée les plus utilisées[1]
Variable dépendante Mesure d'intérêt Méthode d'analyse multivariée
Quantitative continue Coefficient de régression (β) Régression linéaire multiple
Catégorielle (dichotomique) Rapport de cotes Régression logistique
Catégorielle Rapport d'incidence (RI) Régression à effet proportionnel

Régression linéaire multiple

La régression linéaire multiple permet d’obtenir un coefficient de régression linéaire pour chaque variable étudiée. La formule caractérisant cette méthode est :

y = β0 + β1x1 + β2x2 + … +βixi

Chaque coefficient β correspond à l’importance de l’association entre une variable indépendante et la variable dépendante.

Ce modèle statistique est accompagné d’un coefficient de détermination multiple (R2) qui correspond au carré du coefficient de corrélation. Le R2 indique la proportion de la variation de la variable dépendante qui est secondaire aux variables dépendantes incluses dans le modèle. Un R2 de 1 caractérise un modèle qui prédirait sans erreur la variable dépendante. Cela ne survient jamais dans la littérature scientifique puisqu’il est presque impossible que toutes les variables indépendantes influençant la variable dépendante soient incluses dans le modèle. Le R2 est utile en clinique pour établir si le modèle peut être utilisé pour prédire adéquatement le risque des variables analysées pour la santé d’un individu.

Régression logistique

La régression logistique est employée lorsque la mesure d’association est un rapport de cote et que la variable dépendante est catégorielle et dichotomique. On ne peut donc l’utiliser que lorsque la variable dépendante ne comporte que deux valeurs possibles.

La régression logistique correspond à :

β0 + β1 + β2 + … + βi

Les β obtenus par la régression logistique peuvent ensuite être convertis en rapport de cotes ajustés (RCa).

Régression à effet proportionnel (de Cox)

La régression à effet proportionnel est utile lorsque l’on veut calculer des rapports de taux d’incidence. Elle est donc particulièrement utile pour les études de cohorte où il faut tenir compte des résultats mesurés en personnes-temps. En effet, grâce à une transformation algébrique, les coefficients de régression (β) obtenus par ce modèle statistique peuvent être transformés en rapports de taux d’incidence ou de mortalité.

  1. Simpson, A., Beaucage, C. Bonnier Viger Y, Épidémiologie appliquée : une initiation à la lecture critique en sciences de la santé, Montréal, Canada, Chenelière Éducation,