Le forum du Master ESA économétrie et statistique appliquée - Université d'Orléans

Vous n'êtes pas identifié.

Annonce

Vous êtes sur le forum du master ESA !

Le site du master ESA - description de la formation, notes de cours, contacts... vient de déménager !!!

Venez visiter notre nouveau site : www.master-esa.fr

#1 05-05-2009 13:23:52

cyril
membre extérieur
Date d'inscription: 05-05-2009
Messages: 1

Problèmes avec la multicolinéarité

Bonjour, devant réaliser un travail en économétrie, on me demande si un problème de multicolinéarité peut être présent danns l'exemple à traiter ? Comment peut on le tester si c'est le cas ? Quel serait le résultat du test ?

Comment dois je m'y prendre ? Comment résoudre ce problème ??

Merci

Hors ligne

 

#2 07-05-2009 16:51:10

sspdiddy
Member
Date d'inscription: 29-04-2009
Messages: 146

Re: Problèmes avec la multicolinéarité

si tu maitrise les tests d'heteroscedasticités en methode de boostrap t es sauvé...oubien la methode de white en regressant les residus au carré en fonction des variables dont tu pense qu'elle cause problème..ensuite  tu fais du fisher sur les coeff(Econometrie Regis bourbonnais est votre ami)

Hors ligne

 

#3 12-05-2009 07:12:59

esa_gc
Moderator
Date d'inscription: 21-02-2007
Messages: 421

Re: Problèmes avec la multicolinéarité

Juste pour dire que je ne suis pas d'accord : la réponse confond u problème d'hétéroscédasticité avec un problème de multicolinéarité. Le second point est associé à une corrélation entre les explicatives, le premier a une structure particulière de la matrice de variance covariance des résidus.
Pour la multicolinéarité, le cas le plus simpe est celui de la corrélation parfaite entre deux explicatives : (X'X) n'est pas inversible et on ne peut calculer l'estimateur des OLS. Dans ce cas la plupart des logicials supprime purement et simplement une des deux explicatives, ce qui est raisonnable puisqu'alors l'inormation contenue par l'une est identique à celle contenue dans l'autre, et donc la présence simultannée des deux ne sert à rien. Lorsque la corrélation nest pas égale à un, le risque est celui d'un problème numérique : le déterminant est élevé, son inverse est proche de zéro et donc inv(X'X) peut être mal évaluée. L'autre trux, est que des éléments hors diagonale principale élevés dans (X'X) peu entraîner également des coefficients élevés hors-diagonale dans son inverse, et comme la matrice de var-cov des estimateurs OLS est s^2 inv(X'X), on se retrouve avec des corrélations fortes entre les estimateurs de beta. La conséquence est que les tests de student (test sur les coefficients individuels) ne sont pas fiables. En revanche les tests de fisher qui mettent en jeu des estimateurs corrélés entre eux sont pertinents. Par exemple, si x et z sont fortement corrélées, alors dans y =ax + bz +u, un test H0: a=0 ou H0: b=0 n'est pas raisonnable, en revanche un fisher sur H0:a=b=0 peut être mené. Assez souvent, on relève une contradiction entre les conclusions tirées des students et celles du fisher. Pour le test formel, il en existe, mais si vous ne les avez pas vu en cours, je ne peux pas les exposer ici. Une règle simple quelquefois énoncée est de dire que si la corrélation maximale entre deux explicatives est inférieure au R de la régresion, alors la multicolinéarité n'est pas un problème majeur. Si vous voulez allez plus loin, vous pouvez par exemple faire une régresion sur des composantes principales que vous aurez identifiées par une analyse des données simple au préalable (une difficulté étant alors l'interprétation des résultats). Bon courage.

Hors ligne

 

Pied de page des forums

Powered by PunBB
© Copyright 2002–2005 Rickard Andersson

[ Generated in 0.028 seconds, 6 queries executed ]