Vous n'êtes pas identifié.
Vous êtes sur le forum du master ESA !
Le site du master ESA - description de la formation, notes de cours, contacts... vient de déménager !!!
Venez visiter notre nouveau site : www.master-esa.fr
Toto, un assidu du forum d'éconoclaste s'est inscrit sur le forum du master ESA, mais n'a pas réussi à poster ici. Je copie/colle sa question (à laquelle je suis bien sûr bien incapable de répondre).
Je construis un modele en panel. J'aimerai :
1) savoir si l'autocorelation et l'heterocesdasticité des résidus pose un problème sur ce type de modèle. J'imagine que oui mais bon...
2) Comment tester ?
3) Si les tests sont positifs comment corriger (correction de white ou GLS ?)
Tout ça sous eviews si possible.
donc voila une petite question technique ...
Ghislain
Quelqu'un qui n'est pas en vacances pourra-t-il lui répondre, ici, ou là bas ?
Hors ligne
La réponse est donc bien oui comme vous le soupçonnez. Je vous rappelle d'abord les configurations de base : dans le modèle à effets fixes on fait l'hypothèse iid sur les résidus u(it). C'est ce qui explique que le modèle s'estime alors normalement avec les OLS (une fois les variables centrées sur leurs moyennes individuelles pour régler un problème de taille de matrice à inverser lorsque le nombre d'individus est élevé). Dans le modèle à effets aléatoires, sous les hypthèses standards (tous les résidus sont iid et ont leur propre variance, ils sont indépendants les uns des autres) on a homoscédasticité mais il y a des covariances non nulles dansles matrices de variance-covariances afférents à chaque individu. Du coup l'estimateur adapté devient l'estimateur GLS, et comme les variances sont généralement inconnues il faut aller vers les FGLS avec, dans le cas des données de panel des premiers choix non triviaux à faire pour la construction de ces estimateurs (le plus simple est sans doute ici de laisser le logiciel faire implicitement les choix en question en espérant que les options par défaut soient les bonnes).
C'est ici que votre histoire débute. naturellement si les résidus sont corrélés entre eux ou hétéroscédastique, alors les propriétés des estimateurs précdents se modifient. Si on continue quand même de supposer qu'ils sont indépendants des explicatives, on a toujours la convergence asymptotique qui fonctionne pour les coefficients. En revanche tout va mal pour l'estimateur de leur matrice de var-cov et il faut normalement corriger. la solution la plus simple, qui s'inspire de ce que l'on fait dans le modèle des MCO usuel, a été proposée par Kmenta. Supposez qu'on ait une autocorrélation d'ordre 1 des résidus, alors on effectue une transformation de type Cochrane-Orcutt, ou mieux, de Prais-Winsten. Il faut naturellement pour cela avoir un estimateur du coefficient d'autocorrélation rho dans u(it)=rho u(it-1)+e(it), où les e(it) sont iid. Le plus simple est d'estimer l'équation avec les OLS (rappel, les estimateur sont convergents), puis d'utiliser les résidus empiriques, uhat(it), dans la formulation habituelle : estimateur de rho = somme des produits (uhat(it),uhat(it-1))/ somme des carrés de uhat(it)). On peut même envisager d'estimer un rho par individu si le nombre de points dans la dimension temporelle est suffisant. Ensuite on dispose donc des variables transformées du type y(it)-rhohat*y(it-1). Ca peut paraître compliqué comme ça, mais en fait, c'est la correction classique que l'on discute souvent juste après l'exposé du test de durbin-watson. A ce moment on a corrigé l'autocorrélation et il faut s'inquiéter de l'hétéroscédasticité. Là encore Kmenta conseille d'employer une transformation bien connue qui est de diviser les nouvelles variables par un estimateur de l'écart-type des résidus (rappelez-vous, ce n'est encore rien d'autre que les gls). A partir des résidus OLS précédents, on peut aisément construire cet estimateur de la variance résiduelle pour chaque individus. Et donc le tour est joué...il ne reste plus qu'à itérer sur toutes ces transformations et espérer une convergence. Sous RATS tout cela se fait en quelques lignes de code...sous eview je ne sais pas. Peut être est-ce prévu ? Naturellement il existe aussi des estimateurs de type GMM.
Bien entendu, la question centrale est quand même de savoir si on doit se lancer dans ces ajustements où si on peut se contenter des estimations effets fixes ou effets aléatoires de base. Rappelez-vous aussi que l'autocorrélation est présente dans le modèle à effets aléatoire (au moins entre les résidus afférents à un même individu) comme dans la structure de Kmenta (où elle existe entre les divers résidus) : en clair s'il n'y a que de l'autocorrélation, il peut être préférable de se limiter au modèle à effets aléatoires, sauf si la dimension temporelle est élevée. Au moins, cela vaut la peine de présenter les deux ensembles de résultats pour juger de l'importance ou non de distinguer les deux type d'autocorrélation. Pour l'hétéroscédasticité, on peut mettre en place un test d'égalité de variance du style H0 var(u1)=var(u2)=...=var(uN). Comme on fait également l'hypothèse de résidus iid entre les individus, on peut aisément construire un test LRT du type Bartlett. Là encore ce n'est a priori pas très compliqué à programmer, mais sous eviews je ne peux pas vous aider.
Du coté des logiciels, si vous regardez ici : http://www.nyu.edu/its/pubs/connect/fal … rimer.html , vous trouvez une page de robert Yaffe ('a primer for panel data analysis') qui compare stata, limdep et sas, ou au moins qui rappelle les possibilités offertes par chacun là encore, ne connaissant pas eviews je ne peux pas vous aider de ce côté).
bon courage.
Hors ligne
merci beaucoup,
si j'ai compris :
1) je regarde l'autocorrelation si besoin je la corrige
2) je regarde l'homoscedasticité si besoin j'utilise les gls
3)je teste la normalité des résidus
4) je fais tout ça pour modèle à effet fixe et effet aléatoire je compare
je pense avoir à peu prés compris comment faire tout ça sous eview.
encore merci
Ghislain
Hors ligne
bien que ce n'est pas de rapport avec le sujet.
(en fait si avant de faire ce qui précède je voudrais tester les racines unitaires des variables)
Je n'arrive pas à poster de nouveau sujet sur le forum ... bien que je puisse faire des réponses, je n'aie pas "nouvelle discussion".
Mon nouveau problème : je teste les données de "Econometrie" de chez Bréal 2004 l'application 4 qui porte sur les panels (http://www.cerdi.org/ouvrages/econometr … i4data.xls)
J'essais de retrouver les résultats de test de racine unitaire pour la variable "parma" (pe dans le livre, parma dans le fichier), je le fais avec eviews et stata. Je n'arrive pas à retrouver les valeurs des tests ni pour le test Im, Pesaran et Shin (1997) ni Maddala et Wu (1999) ni avec eviews ni avec stata (ipshin). Par contre je retrouve les résultats de mco avec les deux logiciels (donc j'importe bien les données sous les deux)
dans le libre la valeur pour Im, P et S = 2,75
dans eviews================= 2,30
dans stata ================== - 3,19
dans le livre la valeur pour Maddala et W = 82,18
dans eviews=================== 6,24
dans stata==================== 5,58
Pourriez vous éclairer ma lanterne ou me donner un fichier de données de panel avec vos résultats pour que je puisse refaire les tests et voir si je trouve comme vous.
merci
Ghislain
Hors ligne
Salut tt le monde,
je travaille actuellement sur le modèle probit sur des données qui s'étalent sur une période de 2003 à 2007 pour 7000 banques. Bizarrement, d'aprés mes recherche, je n'ai trouvé que les données qui portent sur une seule année pour n observations. aucun doc ne traite le modèle probit sur plusieurs périodes.
Est cela veut dire que je me trompe en utilisant une période de plusieurs années pour le modèle probit?
Je serai trés reconnaissante si vous pouvez m'aider la dessus.
Si vous avez d'autres conseils pratiques sur le modèle probit, n'hésitez pas à me les signaler.
Merci bien
o.elgaied@dev-export.com
Hors ligne
Bonjour
si il existe différents documents sur les probit / logit en panel. Par exemple consultez le livre de Sevestre, "Econométrie des données de panel" collection Dunod. Il y a un chapitre sur ces modèles. Je crois qu'il y en a un aussi dans le livre de Thomas Alban "Econométrie des variables qualitatives", toujours chez Dunod.
Cordialement,
CH
Hors ligne
merci bien,
ca m'a rassuré!!! au moins je ne suis pas ds la fausse piste.
En fait, j'ai fait déja l'estimation sur eviews, et il me semble que les résultats sont loins d'étre logiques.
ci dessous les résultats:
Dependent Variable: DEFAULT_BANK
Method: ML - Binary Probit (Quadratic hill climbing)
Date: 09/07/08 Time: 10:57
Sample: 2003 2007
Included observations: 34718
Convergence achieved after 13 iterations
Covariance matrix computed using second derivatives
Coefficient Std. Error z-Statistic Prob.
C -2.641606 0.440191 -6.001050 0.0000
MBS 5.73E-09 4.61E-09 1.241936 0.2143
NET_ 0.061236 0.016859 3.632324 0.0003
ROE 0.000750 0.001761 0.425711 0.6703
PRIMARY -0.029609 0.021786 -1.359086 0.1741
HPI 0.001942 0.002027 0.957932 0.3381
McFadden R-squared 0.002941 Mean dependent var 0.012386
S.D. dependent var 0.110600 S.E. of regression 0.110650
Akaike info criterion 0.133345 Sum squared resid 424.9920
Schwarz criterion 0.134807 Log likelihood -2308.743
Hannan-Quinn criter. 0.133811 Restr. log likelihood -2315.554
LR statistic 13.62223 Avg. log likelihood -0.066500
Prob(LR statistic) 0.018196
Obs with Dep=0 34288 Total obs 34718
Obs with Dep=1 430
Afin de m'assurer que mon raisonnement est bon, Pouvez vous m'indiquer les points à commenter (comment identifier la significativité, ...)
Merci,
Hors ligne
Si je comprends bien, vous avez des données de panel et vous ajustez un probit, ou un logit, simple sur cette base. En conséquence j'ai bien peur que tous vos résultats ne soient pas interprétables. Voyez les références données précédemment par esa_ch, mais avant il vous faudra peut être allez voir, par exemple dans le Green, quelques rappels concernant l'estimation et l'inférence dans la technique du maximum de vraisemblance.
Hors ligne
merci bien,
Hors ligne
je suis d'accord avec esa_gc, ton estimateur (probit ou logit) ne mesure les changements qui se produisent aucours du temps (taille d'entreprise, chiffre d'affaire, indice boursier etc) et qui affectent ton endogène.
Le panel te permet de prendre en compte plusieurs types de variabilité que des estimations en coupe ne produisent pas. d'abord, la variabilité inter-individuelle (ici entre les banques) = effet between, puis intra-individuelles (à l'intérieur d'un group de banques) = effet within et enfin, les pbms d'hétérogénéité inobservables = effet aléatoire ou random effet estimator. Par exemple, des politiques de recrutement ciblées (diplômés de l'X, mines etc) qui peuvent influencer la part de marché de la banque. A titre d'illustration, la Soc Gén leader mondiale des marchés dérivés exotiques et qui ne recrutent que parmi les polytéchniciens.
Demande toi avant tout ce que tu cherches à expliquer?
Dernière modification par mak (10-09-2008 22:41:55)
Hors ligne