Thursday 9 November 2017

F Limer Test In Stata Forex


Ich versuche, eine F-Test auf die gemeinsame Bedeutung der festen Effekte (individual-spezifische Dummy-Variablen) auf einer Panel-Daten-OLS-Regression (in R), aber ich habe nicht einen Weg gefunden, dies für eine große Anzahl von festen Effekten zu erreichen . Idealerweise würde ich eine Funktion im plm-Paket verwenden, aber ich habe nichts gefunden, was speziell diesen Test macht. Dies ist etwas, was Stata automatisch bei der Verwendung der xtreg, fe Befehl. In Stata, die Ergebnisse wie folgt aussehen: Wieder versuche ich, die Stata-Ergebnis in R für eine große Anzahl von Dummy-Variablen, vielleicht durch Faktor spezifiziert (us. state) mit lm () oder Modell fe mit plm () zu reproduzieren. Hier ist ein reproduzierbares Beispiel: das entspricht dem folgenden innerhalb der Regression mit dem plm-Paket. Also, der Test wäre der Test, dass alle staatlichen Dummy-Variablen gemeinsam von Null verschieden sind (gemeinsam signifikant). Dies ist eine lineare Einschränkung für das unbeschränkte Modell (reg1 und reg1.fe oben). Dieser F-Test wird im folgenden Dokument besser erklärt (siehe Folien 5-7). Hier ist einer meiner schwachen Versuche, eine R-Matrix für den F-Test mit einer Nullhypothese zu erstellen: Rb q wobei b die Koeffizientenmatrix (beta hat) ist und q ein Vektor von Nullen ist. Das funktioniert nicht Und Im Im Hoffen gibt es einen stromlinienförmigen Ansatz für die Prüfung der gemeinsamen Bedeutung aller festen Effekt-Dummy-Variablen. Zuerst möchte ich darauf hinweisen, dass Ihre Frage verbessert werden könnte durch (1) Bereitstellung eines reproduzierbaren Beispiels, und (2) Beschreiben der genauen Prüfung, auf die Sie sich beziehen, wenn Sie sagen, F-Test. Ein Link zu den Stata docs vielleicht F ist die Verteilung, so kann es ein Gazillion Tests namens F-Test. Wenn Ihr wesentliches Interesse darin besteht, festzustellen, ob das Fixed-Effect-Modell die Daten wesentlich besser als OLS ohne feste Effekte passt, dann könnten Sie immer einen Likelihood-Ratio-Test verwenden. Im sicheres gibt es viele Implementierungen in R, aber das, das durch das lmtest Paket zur Verfügung gestellt wird, ist ziemlich bequem. Heres ein Beispiel mit einem Dataset mit dem plm-Paket verteilt (Sie scheinen, dass installiert haben, so sollte es einfach sein, zu versuchen). Ich denke, plm39s pFtest () - Funktion kann tun, was Sie wollen (siehe meine bearbeitete Antwort). Das Ergebnis ist nicht genau das gleiche wie Ihre Stata-Ausgabe, was wahrscheinlich darauf zurückzuführen ist, dass der erste Parameter der F-Verteilung unterschiedlich ist. Aber wenn ich beide Modelle einzeln mit lm (), Ich bekomme Freiheitsgrade von 543 und 498 (Unterschied von 45), so R scheint hier richtig. Sehen Sie, wenn Sie die gleichen Freiheitsgrade in Stata erhalten, wenn Sie die Pooling und innerhalb Modelle einzeln passen. Das Problem mit Closed-Source-Software wie Stata ist we39ll nie genau wissen, wie sie ihre F-Test zu berechnen. Ndash Vincent May 30 11 at 3:50 Ich glaube wirklich nicht, dass dieser Test überhaupt nützlich ist. Anstatt zu schätzen, was Sie einen festen Effekt nennen (ich nennen es No-Pooling-Modell), warum nicht ein hierarchisches Modell Das hierarchische Modell (oder partielle Pooling-Modell) können Ihre Schätzungen auf die commom Mittel für Staaten schrumpfen, aber ohne Auferlegung Sie gleich zu sein. Mehrvoer, wenn Sie einschätzen müssen, wieviel Zustände sich unterscheiden, müssen Sie nur die Varianz verwenden, die zwischen Zustand und intra-state geschätzt wird. Wenn die Varianz unter dem Zustand niedrig ist (nahe Null), als Sie arent gewinnen so viel mit einem hierarchischen Modell und die Abschnitte sind etwa gleich. Wenn die Varianz sehr groß ist (im Grenzfall, wenn ins Unendliche geht), fügt das hierarchische Modell wenig hinzu, und Sie könnten ein separates Modell für jeden Zustand ausführen. Mit dem Paket lme4 können Sie ein hierarchisches Modell in R abschätzen. Verwenden Sie Ihre Daten: Die geschätzte Standardabweichung des Intercept durch Zustände ist 4.39 und die Standardabweichung von Individuum ist 4.19. HINWEIS: Die IDRE Statistical Consulting Group wird die Migration der Website zum WordPress CMS im Februar zu erleichtern Wartung und Erstellung neuer Inhalte . Einige unserer älteren Seiten werden entfernt oder archiviert, so dass sie nicht länger erhalten bleiben. Wir werden versuchen, Redirects beizubehalten, damit die alten URLs weiterhin so gut funktionieren, wie wir können. Willkommen beim Institut für Digitale Forschung und Bildung Helfen Sie der Stat Consulting Group, indem Sie ein Geschenk geben Stata FAQ Wie kann ich das Likelihood-Verhältnis, Wald und Lagrange Multiplikator (Score) - Test in Stata durchführen Der Likelihood Ratio (lr) Und ein Lagrange-Multiplikator-Test (manchmal ein Punkttest genannt) werden häufig verwendet, um die Differenz zwischen verschachtelten Modellen zu bewerten. Ein Modell wird als verschachtelt in einem anderen betrachtet, wenn das erste Modell durch Einschränkung der Parameter der zweiten erzeugt werden kann. Am häufigsten ist die Einschränkung, dass der Parameter gleich Null ist. In einem Regressionsmodell wird die Beschränkung eines Parameters auf Null durch Entfernen der Prädiktorvariablen aus dem Modell erreicht. Zum Beispiel, in den Modellen unten, das Modell mit den Vorhersagevariablen weiblich. und lese . Wird innerhalb des Modells mit den Prädiktorvariablen female verschachtelt. lesen . Math Und Wissenschaft. Die lr-, Wald - und Lagran - ger-Multiplikator-Tests stellen die gleiche Grundfrage, dh, die Einschränkung dieser Parameter auf Null (dh das Verlassen dieser Prädiktorvariablen), signifikant die Passform des Modells herab. Um einen Likelihood-Ratio-Test durchzuführen, muss man beide einschätzen Der Modelle, die man vergleichen möchte. Der Vorteil der Wald - und Punkttests ist, dass sie sich dem lr-Test annähern, aber nur ein Modell schätzen lassen. Wenn die Rechenleistung viel begrenzter war und viele Modelle eine lange Zeit zum Laufen brachten, war dies ein ziemlich großer Vorteil. Heute, für die meisten der Modelle Forscher sind wahrscheinlich zu vergleichen wollen, ist dies kein Problem, und wir empfehlen in der Regel empfehlen die Durchführung der Wahrscheinlichkeit Ratio-Test in den meisten Situationen. Das ist nicht zu sagen, dass man niemals die Wald - oder Score-Tests verwenden sollte. Beispielsweise wird der Wald-Test häufig verwendet, um mehrere Freiheitsgrade-Tests an Sätzen von Dummy-Variablen durchzuführen, die verwendet werden, um kategorische Variablen in der Regression zu modellieren (weitere Informationen finden Sie in unserem Webbuch über Regression mit Stata, insbesondere Kapitel 3 - Regression mit kategorischen Prädiktoren). Ein weiteres Beispiel ist die in der strukturellen Gleichungsmodellierung verwendete Quotmodifizierungsindizes, sie sind Lagrange-Multiplikator-Tests. Wie oben erwähnt, erfordert der lr-Test, dass zwei Modelle laufen, von denen einer einen Satz von Parametern (Variablen) und ein zweites Modell mit allen Parametern von der ersten, plus einer oder mehreren anderen Variablen aufweist. Der Wald-Test untersucht ein Modell mit mehr Parametern und beurteilt, ob die Beschränkung dieser Parameter (im Allgemeinen auf Null durch Entfernen der zugehörigen Variablen aus dem Modell) die Passung des Modells ernsthaft beeinträchtigt. Im Gegensatz dazu prüft der Score-Test die Ergebnisse eines kleineren Modells und fragt, ob das Hinzufügen einer oder mehrerer weggelassener Variablen den Fit des Modells verbessern würde. In der Regel sollten die drei Tests zu der gleichen Schlussfolgerung kommen (weil die Wald-und Score-Test, zumindest in der Theorie, die Näherung der lr-Test). Als Beispiel werden wir für einen statistisch signifikanten Unterschied zwischen zwei Modellen unter Verwendung aller drei Tests testen. Der Datensatz für dieses Beispiel enthält demographische Daten sowie standardisierte Testergebnisse für 200 Gymnasiasten. Wir vergleichen zwei Modelle. Die abhängige Variable für beide Modelle ist hiwrite (um verschachtelt zu werden, müssen zwei Modelle dieselbe abhängige Variable teilen), die eine dichotome Variable ist, die anzeigt, dass der Schüler eine Schreibpunktzahl hatte, die über dem Mittelwert lag. Es gibt vier mögliche Vorhersagevariablen, weiblich. Eine Dummy-Variable, die anzeigt, dass der Schüler weiblich ist und die kontinuierlichen Variablen gelesen werden. Math Und Wissenschaft. Die die Studenten standardisierte Testergebnisse im Lesen, Mathematik und Wissenschaft beziehungsweise sind. Wir werden ein Modell testen, das nur die Prädiktorvariablen female und read enthält. Gegen ein Modell, das die Prädiktorvariablen female und read enthält. Sowie die zusätzlichen Vorhersagevariablen, Mathematik und Wissenschaft. Beispiel eines Wahrscheinlichkeitsverhältnistests. Wie oben diskutiert, beinhaltet der lr-Test die Schätzung von zwei Modellen und deren Vergleich. Das Fixieren eines oder mehrerer Parameter auf Null wird durch das Entfernen der Variablen, die mit diesem Parameter aus dem Modell assoziiert sind, fast immer dazu führen, dass das Modell weniger gut passt, so dass eine Änderung der Log-Likelihood nicht notwendigerweise bedeutet, dass das Modell mit mehr Variablen signifikant besser passt. Der lr-Test vergleicht die Log-Likelihoods der beiden Modelle und prüft, ob dieser Unterschied statistisch signifikant ist. Wenn die Differenz statistisch signifikant ist, dann wird das weniger restriktive Modell (das mit mehr Variablen) die Daten deutlich besser als das restriktivere Modell passen. Die lr-Teststatistik wird auf die folgende Weise berechnet: L (m) = L (m1) L (m2) 2 (ll (m2) - ll (m1)) wobei L (m) die Wahrscheinlichkeit des jeweiligen Modells bezeichnet, Und ll (m) das natürliche Protokoll der Modellwahrscheinlichkeit. Diese Statistik wird chi-quadratisch mit Freiheitsgraden verteilt, die gleich der Differenz der Anzahl von Freiheitsgraden zwischen den beiden Modellen sind (d. h. die Anzahl der dem Modell hinzugefügten Variablen). Um den Likelihood-Ratio-Test durchzuführen, müssen wir beide Modelle ausführen und ihre endgültigen Log-Likelihoods notieren. Wir führen die Modelle mit Stata und verwenden Befehle, um die Log-Likelihoods zu speichern. Wir könnten auch nur die Wahrscheinlichkeiten nach unten kopieren (d. H. Durch Abschreiben oder Schneiden und Einfügen), aber das Verwenden von Befehlen ist ein wenig einfacher und führt weniger zu Fehlern. Die erste Zeile der Syntax unten liest im Datensatz von unserer Website. Die zweite Zeile der Syntax läuft ein logistisches Regressionsmodell, voraussagen, hiwrite basiert auf Studenten Geschlecht (weiblich), und Lesen von Scores (lesen). Die dritte Zeile des Codes speichert den Wert der Log-Likelihood für das Modell, das vorübergehend als die zurückgegebene Schätzung e (ll) gespeichert wird (für weitere Informationstyp-Hilfe return im Befehlsfenster von Stata), im Skalar mit dem Namen m1. Unten ist die Ausgabe. Um den Likelihood-Ratio-Test durchzuführen, müssen wir die Log-Likelihood (-102.44) beibehalten, die Syntax für dieses Beispiel (oben) führt dazu, den Wert in einem Skalar zu speichern. Da es hier nicht unser Hauptanliegen ist, überspringen wir die Interpretation des restlichen logistischen Regressionsmodells. Beachten Sie, dass das Speichern der zurückgegebenen Schätzung keine Ausgabe erzeugt. Die erste Zeile der Syntax unten führt das zweite Modell, das heißt, das Modell mit allen vier Prädiktor-Variablen. Die zweite Zeile des Codes speichert den Wert der Log-Likelihood für das Modell (-84.4), das vorübergehend als die zurückgekehrte Schätzung (e (ll)) im Skalar mit dem Namen m2 gespeichert wird. Auch hier wird nicht viel über die Ausgabe gesagt, außer dass die Koeffizienten sowohl für Mathematik als auch für Wissenschaft statistisch signifikant sind. So wissen wir, dass, einzeln, sie sind statistisch signifikante Prädiktoren von hiwrite. Nun, da wir die Log-Wahrscheinlichkeiten von beiden Modellen haben, können wir einen Likelihood Ratio-Test durchführen. Die erste Zeile der Syntax unten berechnet die Wahrscheinlichkeits-Verhältnis-Test-Statistik. Die zweite Zeile der Syntax unten findet den p-Wert in Verbindung mit unserer Teststatistik mit zwei Freiheitsgraden. Unterhalb sehen wir, dass die Teststatistik 36,05 ist und dass der zugehörige p-Wert sehr niedrig ist (weniger als 0,0001). Die Ergebnisse zeigen, dass die Addition von Mathematik und Wissenschaft als Prädiktorvariablen (nicht nur einzeln) zu einer statistisch signifikanten Verbesserung der Modellanpassung führt. Beachten Sie, dass, wenn wir einen Likelihood Ratio-Test für das Hinzufügen einer einzigen Variablen auf das Modell durchgeführt, die Ergebnisse die gleichen wie die Signifikanz-Test für den Koeffizienten für die Variable in der obigen Tabelle. Verwenden von Statas-Post-Schätzbefehlen zum Berechnen eines Wahrscheinlichkeitsverhältnistests Wie Sie gesehen haben, ist es einfach genug, eine Wahrscheinlichkeitsverhältnistestrechnung zu berechnen. Sie können aber auch Stata verwenden, um die Schätzungen zu speichern und den Test für Sie durchzuführen. Diese Methode ist einfacher und wahrscheinlich weniger fehleranfällig. Die erste Zeile der Syntax führt ein logistisches Regressionsmodell durch, das hiwrite basierend auf den Schülerinnen und Schülern (weiblich) und dem Lesen von Scores (lesen) vorhersagt. Die zweite Zeile der Syntax fragt Stata, um die Schätzungen aus dem Modell, das wir gerade lief, zu speichern, und weist Stata an, dass wir die Schätzungen m1 aufrufen wollen. Es ist notwendig, den Schätzungen einen Namen zu geben, da Stata es Benutzern ermöglicht, die Schätzungen aus mehr als einer Analyse zu speichern, und wir werden mehr als einen Satz von Schätzungen speichern. Unten ist die Ausgabe. Da es hier nicht unser Hauptanliegen ist, überspringen wir die Interpretation des logistischen Regressionsmodells. Beachten Sie, dass das Speichern der Schätzungen keine Ausgabe erzeugt. Die erste Zeile der Syntax unter diesem Absatz läuft das zweite Modell, dh das Modell mit allen vier Prädiktorvariablen. Die zweite Zeile der Syntax speichert die Schätzungen aus diesem Modell und nennt sie m2. Unterhalb der Syntax ist die erzeugte Ausgabe. Auch hier wird nicht viel über die Ausgabe gesagt, außer dass die Koeffizienten sowohl für Mathematik als auch für Wissenschaft statistisch signifikant sind. So wissen wir, dass, einzeln, sie sind statistisch signifikante Prädiktoren von hiwrite. Die Tests unten können uns testen, ob das Hinzufügen dieser beiden Variablen, um das Modell deutlich verbessert die Passform des Modells, im Vergleich zu einem Modell, das nur weiblich und lesen enthält. Die erste Zeile der Syntax unten sagt Stata, dass wir einen lr-Test ausführen wollen und dass wir die Schätzungen, die wir als m1 gespeichert haben, mit denen vergleichen, die wir als m2 gespeichert haben. Die Ausgabe erinnert uns daran, dass dieser Test davon ausgeht, dass A in B verschachtelt ist, was es ist. Es gibt uns auch den Chi-Quadrat-Wert für den Test (36.05) sowie den p-Wert für einen Chi-Quadrat von 36.05 mit zwei Freiheitsgraden. Beachten Sie, dass die Freiheitsgrade für den lr-Test zusammen mit den beiden anderen Tests gleich der Anzahl der Parameter sind, die in unserem Fall beschränkt sind (dh aus dem Modell entfernt werden) Wenn wir den lr-Test von Hand oben berechnet. Die Kombination von Mathematik und Wissenschaft als Prädiktorvariablen (nicht nur einzeln) führt zu einer statistisch signifikanten Verbesserung des Modellsitzes. Wie festgestellt, wenn wir den Likelihood-Ratio-Test von Hand berechnet haben, wären die Ergebnisse dieselben wie der Signifikanztest für den Koeffizienten für die in der obigen Tabelle dargestellte Variable, wenn wir einen Likelihood-Verhältnis-Test zum Hinzufügen einer einzelnen Variablen zu dem Modell durchführten. Die gesamte Syntax für einen Likelihood-Ratio-Test, alles in einem Block, sieht so aus: Beispiel eines Wald-Tests Wie oben erwähnt, nähert sich der Wald-Test dem lr-Test an, hat aber den Vorteil, dass er nur ein Modell schätzen muss. Der Wald-Test arbeitet, indem er prüft, daß die interessierenden Parameter gleichzeitig gleich Null sind. Wenn dies der Fall ist, deutet dies ausdrücklich darauf hin, dass das Entfernen des Modells die Anpassung dieses Modells nicht wesentlich verringert, da ein Prädiktor, dessen Koeffizient relativ zu seinem Standardfehler sehr klein ist, im Allgemeinen nicht viel tut, um die abhängige Variable vorherzusagen. Der erste Schritt bei der Durchführung eines Wald-Tests besteht darin, das vollständige Modell (d. h. das Modell, das alle vier Prädiktorvariablen enthält) auszuführen. Die erste Zeile der Syntax unten macht dies (aber verwendet die leise Präfix, so dass die Ausgabe aus der Regression nicht angezeigt wird). Die zweite Zeile der Syntax unten weist Stata an, einen Wald-Test auszuführen, um zu testen, ob die Koeffizienten für die Variablen Mathematik und Wissenschaft gleichzeitig gleich Null sind. Die Ausgabe gibt zunächst die Nullhypothese. Darunter sehen wir den durch den Wald-Test erzeugten Chi-Quadrat-Wert sowie den mit einem Chi-Quadrat von 27,53 mit zwei Freiheitsgraden assoziierten p-Wert. Basierend auf dem p-Wert sind wir in der Lage, die Nullhypothese zurückzuweisen, was wiederum anzeigt, dass die Koeffizienten für Mathematik und Wissenschaft nicht gleichzeitig gleich Null sind, was bedeutet, dass die Einbeziehung dieser Variablen eine statistisch signifikante Verbesserung der Anpassung des Modells erzeugt. Beispiel für einen Partitur - oder Lagrange-Multiplikator-Test Bitte beachten Sie, dass das benutzerdefinierte Testomit in Stata nicht mehr verfügbar ist. Um den Score-Test durchzuführen, müssen Sie zwei Anwenderpakete für Stata herunterladen. Diese Pakete heißen enumopt und testomit. Wenn Ihr Computer online ist, können Sie findit enumopt im Befehlsfenster von Stata eingeben. (Für weitere Informationen oder Hilfe siehe unsere FAQ-Seite Wie verwende ich findit, um nach Programmen und zusätzlicher Hilfe zu suchen) Wenn die notwendigen Pakete installiert sind, zeigt die folgende Syntax, wie ein Score-Test ausgeführt wird. Die erste Zeile der Syntax führt das Modell mit nur weiblichen und lesen als Prädiktor-Variablen (Rückruf, dass der Score-Test verwendet ein Modell mit weniger Variablen und Tests für weggelassene Variablen). Die nächste Zeile verwendet den Befehl predict, um eine neue Variable namens test zu generieren, die die Kerbe für jeden Fall enthält. Ohne zu viel ins Detail zu gehen, basieren die Werte hier auf dem geschätzten Modell und dem Wert der Variablen im Modell für jeden Fall. Die dritte Zeile der Syntax verwendet den Befehl testomit, um zu untersuchen, ob die Variablen mathematisch und wissenschaftlich Variablen sind, die fälschlicherweise aus dem Modell weggelassen wurden. Die Option Score (Test) teilt Stata den Namen der Variablen mit den Scores mit, obwohl sie sich im Optionsbereich (d. H. Nach dem Komma) befindet. Bitte beachten Sie, dass das Benutzerprotokoll in Stata nicht mehr verfügbar ist. Der erste Teil der Ausgabe gibt die Art des Modells, gefolgt von einer Tabelle der Ergebnisse. Die Ergebnisse des Partitortests werden chi-quadratisch mit Freiheitsgraden verteilt, die gleich der Anzahl der dem Modell hinzugefügten Variablen sind. Die Tabelle hat drei Spalten, die erste gibt den Wert der Teststatistik, die zweite die Anzahl der Freiheitsgrade für den Test und die dritte den p-Wert, der einem Chi-Quadrat eines gegebenen Wertes mit einer gegebenen Zahl zugeordnet ist Von Freiheitsgraden. Die Variablen Mathematik und Wissenschaft erscheinen separat in ihren eigenen Zeilen, die ersten beiden Zeilen enthalten die Ergebnisse für einen Test, ob das Hinzufügen entweder (aber nicht beides) dieser Variablen zum Modell die Anpassung des Modells signifikant verbessern würde. Die untere Zeile, die als gleichzeitiger Test markiert ist, prüft, ob das Hinzufügen von beiden Variablen zu dem Modell die Anpassung des Modells signifikant verbessert. Die in der Tabelle dargestellten Ergebnisse stimmen mit den oben beschriebenen Wald - und lr-Tests überein. Sie stehen auch im Einklang mit der Regression Ausgabe oben, in denen die Koeffizienten für Mathematik und Wissenschaft waren statistisch signifikant. Der Befehl testomit verhält sich für verschiedene Schätzbefehle etwas anders. Im Folgenden finden Sie Beispiele für die Verwendung von testomit mit mehreren anderen Regressionsbefehlen. Die meisten Mehrfachgleichungsbefehle verwenden eine Syntax ähnlich der Syntax für mlogit. Zwei Ausnahmen sind ologit und oprobit. Und Regress. Die gesondert dargestellt sind. Bitte beachten Sie, dass das Benutzerprotokoll in Stata nicht mehr verfügbar ist. Für mlogit und viele andere Mehrfachgleichungsbefehle: Für ologit und oprobit: Ich versuche, einen F-Test auf die gemeinsame Bedeutung von festen Effekten (individual-spezifische Dummy-Variablen) auf einer Panel-Daten-OLS-Regression (in R) durchzuführen Ich havent einen Weg gefunden, um dies für eine große Anzahl von festen Effekten zu erreichen. Idealerweise würde ich eine Funktion im plm-Paket verwenden, aber ich habe nichts gefunden, was speziell diesen Test macht. Dies ist etwas, was Stata automatisch bei der Verwendung der xtreg, fe Befehl. In Stata, die Ergebnisse wie folgt aussehen: Wieder versuche ich, die Stata-Ergebnis in R für eine große Anzahl von Dummy-Variablen, vielleicht durch Faktor spezifiziert (us. state) mit lm () oder Modell fe mit plm () zu reproduzieren. Hier ist ein reproduzierbares Beispiel: das entspricht dem folgenden innerhalb der Regression mit dem plm-Paket. Also, der Test wäre der Test, dass alle staatlichen Dummy-Variablen gemeinsam von Null verschieden sind (gemeinsam signifikant). Dies ist eine lineare Einschränkung für das unbeschränkte Modell (reg1 und reg1.fe oben). Dieser F-Test wird im folgenden Dokument besser erklärt (siehe Folien 5-7). Hier ist einer meiner schwachen Versuche, eine R-Matrix für den F-Test mit einer Nullhypothese zu erstellen: Rb q wobei b die Koeffizientenmatrix (beta hat) ist und q ein Vektor von Nullen ist. Das funktioniert nicht Und Im Im Hoffen gibt es einen stromlinienförmigen Ansatz für die Prüfung der gemeinsamen Bedeutung aller festen Effekt-Dummy-Variablen. Zuerst möchte ich darauf hinweisen, dass Ihre Frage verbessert werden könnte durch (1) Bereitstellung eines reproduzierbaren Beispiels, und (2) Beschreiben der genauen Prüfung, auf die Sie sich beziehen, wenn Sie sagen, F-Test. Ein Link zu den Stata docs vielleicht F ist die Verteilung, so kann es ein Gazillion Tests namens F-Test. Wenn Ihr wesentliches Interesse darin besteht, festzustellen, ob das Fixed-Effect-Modell die Daten wesentlich besser als OLS ohne feste Effekte passt, dann könnten Sie immer einen Likelihood-Ratio-Test verwenden. Im sicheres gibt es viele Implementierungen in R, aber das, das durch das lmtest Paket zur Verfügung gestellt wird, ist ziemlich bequem. Heres ein Beispiel mit einem Dataset mit dem plm-Paket verteilt (Sie scheinen, dass installiert haben, so sollte es einfach sein, zu versuchen). Ich denke, plm39s pFtest () - Funktion kann tun, was Sie wollen (siehe meine bearbeitete Antwort). Das Ergebnis ist nicht genau das gleiche wie Ihre Stata-Ausgabe, was wahrscheinlich darauf zurückzuführen ist, dass der erste Parameter der F-Verteilung unterschiedlich ist. Aber wenn ich beide Modelle einzeln mit lm () führe, bekomme ich Freiheitsgrade von 543 und 498 (Unterschied von 45), also R scheint hier richtig zu sein. Sehen Sie, wenn Sie die gleichen Freiheitsgrade in Stata erhalten, wenn Sie die Pooling und innerhalb Modelle einzeln passen. Das Problem mit Closed-Source-Software wie Stata ist we39ll nie genau wissen, wie sie ihre F-Test zu berechnen. Ndash Vincent May 30 11 at 3:50 Ich glaube wirklich nicht, dass dieser Test überhaupt nützlich ist. Anstatt zu schätzen, was Sie einen festen Effekt nennen (ich nennen es No-Pooling-Modell), warum nicht ein hierarchisches Modell Das hierarchische Modell (oder partielle Pooling-Modell) können Ihre Schätzungen auf die commom Mittel für Staaten schrumpfen, aber ohne Auferlegung Sie gleich zu sein. Mehrvoer, wenn Sie einschätzen müssen, wieviel Zustände sich unterscheiden, müssen Sie nur die Varianz verwenden, die zwischen Zustand und intra-state geschätzt wird. Wenn die Varianz unter dem Zustand niedrig ist (nahe Null), als Sie arent gewinnen so viel mit einem hierarchischen Modell und die Abschnitte sind ungefähr gleich. Wenn die Varianz sehr groß ist (im Grenzfall, wenn ins Unendliche geht), fügt das hierarchische Modell wenig hinzu, und Sie könnten ein separates Modell für jeden Zustand ausführen. Mit dem Paket lme4 können Sie ein hierarchisches Modell in R abschätzen. Verwenden Sie Ihre Daten: Die geschätzte Standardabweichung des Intercept durch Zustände ist 4.39 und die Standardabweichung von Individuum ist 4.19. HINWEIS: Die IDRE Statistical Consulting Group wird die Migration der Website zum WordPress CMS im Februar zu erleichtern Wartung und Erstellung neuer Inhalte . Einige unserer älteren Seiten werden entfernt oder archiviert, so dass sie nicht länger erhalten bleiben. Wir werden versuchen, Redirects beizubehalten, damit die alten URLs weiterhin so gut funktionieren, wie wir können. Willkommen beim Institut für Digitale Forschung und Bildung Helfen Sie der Stat Consulting Group, indem Sie ein Geschenk geben Stata FAQ Wie kann ich das Likelihood-Verhältnis, Wald und Lagrange Multiplikator (Score) - Test in Stata durchführen Der Likelihood Ratio (lr) Und ein Lagrange-Multiplikator-Test (manchmal ein Punkttest genannt) werden häufig verwendet, um die Differenz zwischen verschachtelten Modellen zu bewerten. Ein Modell wird als verschachtelt in einem anderen betrachtet, wenn das erste Modell durch Einschränkung der Parameter der zweiten erzeugt werden kann. Am häufigsten ist die Einschränkung, dass der Parameter gleich Null ist. In einem Regressionsmodell wird die Beschränkung eines Parameters auf Null durch Entfernen der Prädiktorvariablen aus dem Modell erreicht. Zum Beispiel, in den Modellen unten, das Modell mit den Vorhersagevariablen weiblich. und lese . Wird innerhalb des Modells mit den Prädiktorvariablen female verschachtelt. lesen . Math Und Wissenschaft. Die lr-, Wald - und Lagran - ger-Multiplikator-Tests stellen die gleiche Grundfrage, dh, die Einschränkung dieser Parameter auf Null (dh das Verlassen dieser Prädiktorvariablen), signifikant die Passform des Modells herab. Um einen Likelihood-Ratio-Test durchzuführen, muss man beide einschätzen Der Modelle, die man vergleichen möchte. Der Vorteil der Wald - und Punkttests ist, dass sie sich dem lr-Test annähern, aber nur ein Modell schätzen lassen. Wenn die Rechenleistung viel begrenzter war und viele Modelle eine lange Zeit zum Laufen brachten, war dies ein ziemlich großer Vorteil. Heute, für die meisten der Modelle Forscher sind wahrscheinlich zu vergleichen wollen, ist dies kein Problem, und wir empfehlen in der Regel empfehlen die Durchführung der Wahrscheinlichkeit Ratio-Test in den meisten Situationen. Das ist nicht zu sagen, dass man niemals die Wald - oder Score-Tests verwenden sollte. Beispielsweise wird der Wald-Test häufig verwendet, um mehrere Freiheitsgrade-Tests an Sätzen von Dummy-Variablen durchzuführen, die verwendet werden, um kategorische Variablen in der Regression zu modellieren (weitere Informationen finden Sie in unserem Webbuch über Regression mit Stata, insbesondere Kapitel 3 - Regression mit kategorischen Prädiktoren). Ein weiteres Beispiel ist die in der strukturellen Gleichungsmodellierung verwendete Quotmodifizierungsindizes, sie sind Lagrange-Multiplikator-Tests. Wie oben erwähnt, erfordert der lr-Test, dass zwei Modelle laufen, von denen einer einen Satz von Parametern (Variablen) und ein zweites Modell mit allen Parametern von der ersten, plus einer oder mehreren anderen Variablen aufweist. Der Wald-Test untersucht ein Modell mit mehr Parametern und beurteilt, ob die Beschränkung dieser Parameter (im Allgemeinen auf Null durch Entfernen der zugehörigen Variablen aus dem Modell) die Passung des Modells ernsthaft beeinträchtigt. Im Gegensatz dazu prüft der Score-Test die Ergebnisse eines kleineren Modells und fragt, ob das Hinzufügen einer oder mehrerer weggelassener Variablen den Fit des Modells verbessern würde. In der Regel sollten die drei Tests zu der gleichen Schlussfolgerung kommen (weil die Wald-und Score-Test, zumindest in der Theorie, die Näherung der lr-Test). Als Beispiel werden wir für einen statistisch signifikanten Unterschied zwischen zwei Modellen unter Verwendung aller drei Tests testen. Der Datensatz für dieses Beispiel enthält demographische Daten sowie standardisierte Testergebnisse für 200 Gymnasiasten. Wir vergleichen zwei Modelle. Die abhängige Variable für beide Modelle ist hiwrite (um verschachtelt zu werden, müssen zwei Modelle dieselbe abhängige Variable teilen), die eine dichotome Variable ist, die anzeigt, dass der Schüler eine Schreibpunktzahl hatte, die über dem Mittelwert lag. Es gibt vier mögliche Vorhersagevariablen, weiblich. Eine Dummy-Variable, die anzeigt, dass der Schüler weiblich ist und die kontinuierlichen Variablen gelesen werden. Math Und Wissenschaft. Die die Studenten standardisierte Testergebnisse im Lesen, Mathematik und Wissenschaft beziehungsweise sind. Wir werden ein Modell testen, das nur die Prädiktorvariablen female und read enthält. Gegen ein Modell, das die Prädiktorvariablen female und read enthält. Sowie die zusätzlichen Vorhersagevariablen, Mathematik und Wissenschaft. Beispiel eines Wahrscheinlichkeitsverhältnistests. Wie oben diskutiert, beinhaltet der lr-Test die Schätzung von zwei Modellen und deren Vergleich. Das Fixieren eines oder mehrerer Parameter auf Null wird durch das Entfernen der Variablen, die mit diesem Parameter aus dem Modell assoziiert sind, fast immer dazu führen, dass das Modell weniger gut passt, so dass eine Änderung der Log-Likelihood nicht notwendigerweise bedeutet, dass das Modell mit mehr Variablen signifikant besser passt. Der lr-Test vergleicht die Log-Likelihoods der beiden Modelle und prüft, ob dieser Unterschied statistisch signifikant ist. Wenn die Differenz statistisch signifikant ist, dann wird das weniger restriktive Modell (das mit mehr Variablen) die Daten deutlich besser als das restriktivere Modell passen. Die lr-Teststatistik wird auf die folgende Weise berechnet: LR -2 ln (L (m1) L (m2)) 2 (ll (m2) - ll (m1)) Wenn L (m) die Wahrscheinlichkeit des jeweiligen Modells angibt, Und ll (m) das natürliche Protokoll der Modellwahrscheinlichkeit. Diese Statistik wird chi-quadratisch mit Freiheitsgraden verteilt, die gleich der Differenz der Anzahl von Freiheitsgraden zwischen den beiden Modellen sind (d. h. die Anzahl der dem Modell hinzugefügten Variablen). Um den Likelihood-Ratio-Test durchzuführen, müssen wir beide Modelle ausführen und ihre endgültigen Log-Likelihoods notieren. Wir führen die Modelle mit Stata und verwenden Befehle, um die Log-Likelihoods zu speichern. Wir könnten auch nur die Wahrscheinlichkeiten nach unten kopieren (d. H. Durch Abschreiben oder Schneiden und Einfügen), aber das Verwenden von Befehlen ist ein wenig einfacher und führt weniger zu Fehlern. Die erste Zeile der Syntax unten liest im Datensatz von unserer Website. Die zweite Zeile der Syntax läuft ein logistisches Regressionsmodell, voraussagen, hiwrite basiert auf Studenten Geschlecht (weiblich), und Lesen von Scores (lesen). Die dritte Zeile des Codes speichert den Wert der Log-Likelihood für das Modell, das vorübergehend als die zurückgegebene Schätzung e (ll) gespeichert wird (für weitere Informationstyp-Hilfe return im Befehlsfenster von Stata), im Skalar mit dem Namen m1. Unten ist die Ausgabe. Um den Likelihood-Ratio-Test durchzuführen, müssen wir die Log-Likelihood (-102.44) beibehalten, die Syntax für dieses Beispiel (oben) tut dies, indem wir den Wert in einem Skalar speichern. Da es hier nicht unser Hauptanliegen ist, überspringen wir die Interpretation des restlichen logistischen Regressionsmodells. Beachten Sie, dass das Speichern der zurückgegebenen Schätzung keine Ausgabe erzeugt. Die erste Zeile der Syntax unten führt das zweite Modell, das heißt, das Modell mit allen vier Prädiktor-Variablen. Die zweite Zeile des Codes speichert den Wert der Log-Likelihood für das Modell (-84.4), das vorübergehend als die zurückgekehrte Schätzung (e (ll)) im Skalar mit dem Namen m2 gespeichert wird. Auch hier wird nicht viel über die Ausgabe gesagt, außer dass die Koeffizienten sowohl für Mathematik als auch für Wissenschaft statistisch signifikant sind. So wissen wir, dass, einzeln, sie sind statistisch signifikante Prädiktoren von hiwrite. Nun, da wir die Log-Wahrscheinlichkeiten von beiden Modellen haben, können wir einen Likelihood Ratio-Test durchführen. Die erste Zeile der Syntax unten berechnet die Wahrscheinlichkeits-Verhältnis-Test-Statistik. Die zweite Zeile der Syntax unten findet den p-Wert in Verbindung mit unserer Teststatistik mit zwei Freiheitsgraden. Unterhalb sehen wir, dass die Teststatistik 36,05 ist und dass der zugehörige p-Wert sehr niedrig ist (weniger als 0,0001). Die Ergebnisse zeigen, dass die Addition von Mathematik und Wissenschaft als Prädiktorvariablen (nicht nur einzeln) zu einer statistisch signifikanten Verbesserung der Modellanpassung führt. Beachten Sie, dass, wenn wir einen Likelihood-Verhältnis-Test für das Hinzufügen einer einzigen Variablen auf das Modell durchgeführt, die Ergebnisse die gleichen wie der Signifikanztest für den Koeffizienten für die Variable in der obigen Tabelle. Verwenden von Statas-Post-Schätzbefehlen zum Berechnen eines Wahrscheinlichkeitsverhältnistests Wie Sie gesehen haben, ist es einfach genug, eine Wahrscheinlichkeitsverhältnistestrechnung zu berechnen. Sie können aber auch Stata verwenden, um die Schätzungen zu speichern und den Test für Sie durchzuführen. Diese Methode ist einfacher und wahrscheinlich weniger fehleranfällig. Die erste Zeile der Syntax führt ein logistisches Regressionsmodell durch, das hiwrite basierend auf den Schülerinnen und Schülern (weiblich) und dem Lesen von Scores (lesen) vorhersagt. Die zweite Zeile der Syntax fragt Stata, um die Schätzungen aus dem Modell zu speichern, das wir gerade liefen, und weist Stata an, dass wir die Schätzungen m1 aufrufen wollen. Es ist notwendig, den Schätzungen einen Namen zu geben, da Stata es Benutzern ermöglicht, die Schätzungen aus mehr als einer Analyse zu speichern, und wir werden mehr als einen Satz von Schätzungen speichern. Unten ist die Ausgabe. Da es hier nicht unser Hauptanliegen ist, überspringen wir die Interpretation des logistischen Regressionsmodells. Beachten Sie, dass das Speichern der Schätzungen keine Ausgabe erzeugt. Die erste Zeile der Syntax unter diesem Absatz läuft das zweite Modell, dh das Modell mit allen vier Prädiktorvariablen. Die zweite Zeile der Syntax speichert die Schätzungen aus diesem Modell und nennt sie m2. Unterhalb der Syntax ist die erzeugte Ausgabe. Again, we wont say much about the output except to note that the coefficients for both math and science are both statistically significant. So we know that, individually, they are statistically significant predictors of hiwrite . The tests below will allow us to test whether adding both of these variables to the model significantly improves the fit of the model, compared to a model that contains just female and read . The first line of syntax below tells Stata that we want to run an lr test, and that we want to compare the estimates we have saved as m1 to those we have saved as m2 . The output reminds us that this test assumes that A is nested in B, which it is. It also gives us the chi-squared value for the test (36.05) as well as the p-value for a chi-squared of 36.05 with two degrees of freedom. Note that the degrees of freedom for the lr test, along with the other two tests, is equal to the number of parameters that are constrained (i. e. removed from the model), in our case, 2. Note that the results are the same as when we calculated the lr test by hand above. Adding math and science as predictor variables together (not just individually) results in a statistically significant improvement in model fit. As noted when we calculated the likelihood ratio test by hand, if we performed a likelihood ratio test for adding a single variable to the model, the results would be the same as the significance test for the coefficient for that variable presented in the table above. The entire syntax for a likelihood ratio test, all in one block, looks like this: Example of a Wald test As was mentioned above, the Wald test approximates the lr test, but with the advantage that it only requires estimating one model. The Wald test works by testing that the parameters of interest are simultaneously equal to zero. If they are, this strongly suggests that removing them from the model will not substantially reduce the fit of that model, since a predictor whose coefficient is very small relative to its standard error is generally not doing much to help predict the dependent variable. The first step in performing a Wald test is to run the full model (i. e. the model containing all four predictor variables). The first line of syntax below does this (but uses the quietly prefix so that the output from the regression is not shown). The second line of syntax below instructs Stata to run a Wald test in order to test whether the coefficients for the variables math and science are simultaneously equal to zero. The output first gives the null hypothesis. Below that we see the chi-squared value generated by the Wald test, as well as the p-value associated with a chi-squared of 27.53 with two degrees of freedom. Based on the p-value, we are able to reject the null hypothesis, again indicating that the coefficients for math and science are not simultaneously equal to zero, meaning that including these variables create a statistically significant improvement in the fit of the model. Example of a score or Lagrange multiplier test Please note that the user-written testomit is no longer available in Stata. In order to perform the score test, you will need to download two user written packages for Stata. These packages are called enumopt and testomit . If your computer is online, you can type findit enumopt in the Stata command window. (For more information or help see our FAQ page How do I use findit to search for programs and additional help ) Assuming the necessary packages are installed, the syntax below shows how to run a score test. The first line of syntax runs the model with just female and read as predictor variables (recall that the score test uses a model with fewer variables and tests for omitted variables). The next line uses the command predict to generate a new variable called test that contains the score for each case. Without going into too much detail, the scores here are based on the model estimated and the value of the variables in the model for each case. The third line of syntax uses the testomit command to examine whether the variables math andor science are variables which were incorrectly omitted from the model. The option score(test) tells Stata the name of the variable containing the scores, although it is in the options section (i. e. after the comma), this is required. Please note that the user-written testomit is no longer available in Stata. The first part of the output gives the type of model run, followed by a table of results. The results of the score test are distributed chi-squared with degrees of freedom equal to the number of variables added to the model. The table has three columns, the first giving the value of the test statistic, the second the number of degrees of freedom for the test, and the third giving the p-value associated with a chi-squared of a given value with a given number of degrees of freedom. The variables math and science appear separately in their own rows, the first two rows contain the results for a test of whether adding either (but not both) of these variables to the model would significantly improve the fit of the model. The bottom row, labeled simultaneous test, tests whether adding both variables to the model will significantly improve the fit of the model. The results shown in the table are consistent with the Wald and lr tests we performed above. They are also consistent with the regression output above, in which the coefficients for math and science were statistically significant. The command testomit behaves somewhat differently for different estimation commands. Below are examples of how to use testomit with several other regression commands. Most multiple equation commands will use a syntax similar to the syntax for mlogit . Two exceptions are ologit and oprobit . and regress . which are shown separately. Please note that the user-written testomit is no longer available in Stata. For mlogit and many other multiple-equation commands: For ologit and oprobit :

No comments:

Post a Comment