Vous n'êtes pas identifié.
Vous êtes sur le forum du master ESA !
Le site du master ESA - description de la formation, notes de cours, contacts... vient de déménager !!!
Venez visiter notre nouveau site : www.master-esa.fr
Bonjour tout le monde, c qu'hier que je me suis inscrite sur ce forum et je trouve que c trop intéressant. merci pour les gens qu'ils l'ont créer.
je suis entrain de préparer mon mémoire de master en finance et je trouve des prob en économétrie. je veux tester un modèle. jai pas bcp d'observation jai des données sur 5 ans ou meme moins pour dix sociétés. je veux faire une comparaison entre deux groupes de sociétés càd 5 pour chaque groupe. ce qui fait que j dois travailler avec les données de panel.
ma question est de savoir si l'échantillon est adéquat dont la mesure où pour qu'un test économétrique soit significatif il faut au moins 30 observations.
jai entendu parlé d'une méthode de semestrialisation ou trimastrialisation des données pour augmenter la taille de l'échantillon. je veux savoir si elle est valable pour des pourcentages.
je remercie toute personne qui m'aide.
merci bccccccccccccccccccp
Hors ligne
Malheureusement, je risque de vous décevoir.
Tout d'abord, on peut faire de l'économétrie et des tests avec moins de 30 observations : regardez par exemple les tables de student, elles sont tabulées pour des tailles d'échantillons bien plus faibles.
C'est vrai également que si vous voulez mettre en oeuvre des méthodes qui supposent que ces tailles (en T et en N si vous faites du panel) tendent vers l'infini, alors là vous êtes très mal avec votre base de 10 individus sur 5 années, d'autant plus qu'au-delà des aspects techniques, la question de la représentativité de cet échantillon doit aussi être une interrogation pertinente.
Ceci étant, 2 cas sont à considérer : soit ce que vous faites est un exercice de style dans lequel on vous demande de réaliser une estimation du type effets fixes ou/et effets aléatoires simplement pour que vous ayez vu des résultats de ce type d'estimation. Auquel cas, tout va bien : pour cet exercice avoir 50 ans sur 1000 individus ou avoir 5 ans d'observations sur 10 individus c'est pareil (pour le coup, vous pourriez presque faire tous les calculs à la main et donc comprendre parfaitement ces techniques). Soit, et là c'est plus inquiétant, vous voulez tirer des conclusions sérieuses à partir de vos résultats. Si c'est ça je ne vois pas d'issue au fait incontournable que vous n'avez que 5 entreprises dans chaque groupe.
Ne pouvez-vous pas vous limiter à une étude de type monographie décrivant les évolutions des variables ou ratios qui vous semblent importants en espérant repérer des évolutions contratées entre vos deux groupes ?
Hors ligne
merci pour la réponse. jai pas bien compris ce que vous dites par votre dernière proposition.
je vais vous laisser mon email pour me contacter . et merci bcp
sawsaw159@hotmail.com
Hors ligne
en fait dès le départ je trouve un prob dans l'échantillon. c vrai que je vais pas tirer de grandes choses de ce modèle puisque l'échantillon est déjà restreint. mais je sais aucune autre méthode pour mettre en pratique mon étude à part la modélisation.
Hors ligne
Bonjour à tous
je viens juste de m'inscrire sur ce forum que je trouve très interessant; j'ai un problème avec le test de racine unitaire ADFGLS . En effet, comme l’application du test ADF nécessite au préalable de choisir le nombre de retards P à introduire dans la régression de sorte à blanchir les résidus.( Je suis consciente de l’importance du choix de p dans la mesure où l’introduction d’un nombre insuffisant de retards peut affecter la qualité du test. C’est pour cette raison que j’essaye toujours de ne pas me baser sur une seule méthode pour choisir p, dans mes tests je retiens généralement les modèles qui minimisent les critères d’informations (Akaike et Schwarz), en cas de divergence, je retiens le retard correspondant à la dernière autocorrélation partielle significativement différente de zéro). Je vérifie ex post mon choix en testant l’absence de l’autocorrélation des résidus (test de Ljung- Box). Si mes résidus correspondent à un bruit blanc, je suppose donc que mon modèle est bien spécifié, si non, j’augmente le nombre de retards pour corriger l’autocorrélation des résidus.
J’ai essayé d’adopter la même stratégie pour le test ADF-GLS, mais je n’arrive pas à valider le nombre de retards à choisir pour le test à cause de l’autocorrélation des résidus, en effet, l’augmentation du nombre de retards dans ce cas ne me permet pas de blanchir les résidus. Et comme le test de Dickey-Fuller repose sur le fait que les résidus correspondent à un bruit blanc, je ne sais pas comment je dois procéder pour les blanchir. mais peut être que les résidus du ce test ne sont pas censés être bruit blanc?
MERCI POUR VOTRE AIDE.
Hors ligne
Rapidement : le choix de P est important pour assurer que le test est à peu près satisfaisant en termes de 'size' et de puissance. Plutôt que de maximiser les critères usuels AIC ou BIC, Ng et Perron (2001) ont proposé des versions modifiées de ces deux critères (ils conseillent plutôt la version MAIC) pour sélectionner l'ordre à appliquer au test d'Elliot, Rothenberg et Stock (1996)). Une amélioration récente est due à Perron et Qu (2007, Economics Letters) : ils conseillent d'appliquer les OLS plutôt que les GLS pour obtenir les données 'détrendées', l'une des raisons de l'amélioration, notamment en termes de puissance, serait précisément que le nombre de lags P sélectionné serait moins sensible à la distance du DGP par rapport à l'hypothèse nulle (plus le coef du niveau décalé s'écarte de l'unité et plus le nombre de lags retenu avec les GLS augmente ce qui affecterait la puissance). Leurs simulations soulignent aussi que le seuil de risque empirique reste proche du seuil nominal. Pour finir, vous utilisez ces critères modifiés avec ou sans l'amélioration de Perron et Qu et, comme tout le monde, vous ne regardez pas l'autocorrélation des erreurs pour choisir P.
Hors ligne