Die Heckman-Korrektur ist eine beliebige Anzahl von verwandten statistischen Methoden von James Heckman an der University of Chicago in 1976 bis 1979, die der Forscher für Selektionsverzerrung zu korrigieren erlauben entwickelt. Selektionsbias Probleme sind endemisch in angewendet ökonometrische Probleme, die Heckman ursprünglichen Technik zu machen, und die anschließende Weiterbildungen sowohl von sich selbst und andere, unentbehrlich angewendet Ökonometrie. Heckman erhielt den Nobelpreis für Wirtschaftswissenschaften im Jahr 2000 für diese Leistung.
Verfahren
Statistische Analysen auf der Basis nicht-zufällig ausgewählten Proben können zu falschen Schlüssen und schlechte Politik zu führen. Die Heckman-Korrektur, ein zweistufiger statistischen Ansatz, bietet ein Mittel zur Korrektur für nicht-zufällig ausgewählten Proben.
Heckman diskutiert Bias von der Nutzung nicht-zufälligen ausgewählten Proben zu Verhaltensbeziehungen als Spezifikation Fehler abzuschätzen. Er schlägt eine zweistufige Schätzverfahren, um die Neigung zu korrigieren. Die Korrektur ist einfach zu implementieren und bietet eine solide Grundlage in der statistischen Theorie. Heckman-Korrektur beinhaltet eine Normalitätsannahme, stellt ein Test für die Probenselektionsbias und Formel für Bias korrigiert Modell.
Angenommen, ein Forscher möchte die Determinanten der Lohn Angebote schätzen, hat aber Zugang zu Lohn Beobachtungen nur für diejenigen, die arbeiten. Da Menschen, die arbeiten, sind nicht zufällig aus der Bevölkerung ausgewählt, die Schätzung der Determinanten der Lohn für die Teilpopulation, die sich möglicherweise Bias einführen zu arbeiten. Die Heckman-Korrektur erfolgt in zwei Stufen.
In der ersten Stufe formuliert der Forscher ein Modell auf Basis der ökonomischen Theorie, für die Wahrscheinlichkeit der Arbeits. Die kanonische Spezifikation für diese Beziehung ist ein Probit-Regression der Form
wobei D der Arbeits ist, Z ein Vektor von erklärenden Variablen, ist ein Vektor der unbekannten Parameter, und Φ die kumulative Verteilungsfunktion der Standardnormalverteilung. Schätzung des Modells zu Ergebnissen führt, die verwendet werden können, um diese Arbeits Wahrscheinlichkeit für jeden einzelnen vorherzusagen.
In der zweiten Stufe korrigiert die Forscher für Selbstselektion durch Einbau einer Transformation dieser vorhergesagten Einzelwahrscheinlichkeiten als zusätzliche erklärende Variable. Die Lohngleichung angegeben werden,
wo bezeichnet eine zugrunde liegende Lohnangebot, die nicht eingehalten wird, wenn der Antragsgegner nicht. Der bedingte Erwartungswert der Löhne angesichts der Person arbeitet dann
Unter der Annahme, dass die Fehlerterme sind gemeinsam normalen, haben wir
wo ρ ist die Korrelation zwischen unbeobachtet Determinanten der Neigung zu arbeiten und unbeobachtet Determinanten der Lohn bietet u, σ u ist die Standardabweichung und die inverse Mills-Verhältnis bei ausgewertet. Diese Gleichung zeigt Heckman Einsicht, daß die Stichprobenauswahl kann als eine Form von weggelassen-variables Vorspann betrachtet werden, als bedingte sowohl X und es ist, als wenn die Probe wird zufällig ausgewählt. Die Lohngleichung kann durch den Austausch mit Probit Schätzwerte aus der ersten Stufe, der Konstruktion des Begriffs, und wie es als zusätzliche erklärende Variable in der linearen Regression Schätzung der Lohngleichung abgeschätzt werden. Da kann die Koeffizienten nur null, wenn, so testet die Null, die der Koeffizient auf Null entspricht Tests für Probe Selektivität.
Heckman Errungenschaften haben eine große Anzahl von empirischen Anwendungen in der Wirtschaft als auch in anderen Sozialwissenschaften generiert. Die ursprüngliche Methode wurde später verallgemeinert, indem Heckman von anderen.
Nachteile
- Das zweistufige Schätzer oben diskutiert ist eine begrenzte Information Maximum-Likelihood-Schätzer. In asymptotische Theorie und in endlichen Stichproben, wie durch Monte-Carlo-Simulationen, die vollständige Information Schätzer zeigt eine bessere statistische Eigenschaften demonstriert. Ist die FIML Schätzer jedoch rechentechnisch schwer zu realisieren.
- Das von OLS Schätzung der zweiten Stufe erzeugten Kovarianzmatrix ist inkonsistent. Correct Standardfehler und andere Statistiken kann von einer asymptotischen Annäherung oder durch Resampling, wie beispielsweise durch eine Bootstrap erzeugt werden.
- Die kanonische Modell nimmt die Fehler gemeinsam normal. Wenn diese Annahme scheitert, ist die Schätzfunktion allgemein inkonsequent und kann irreführend Inferenz in kleinen Proben. Semiparametrisch und andere robuste Alternative kann in solchen Fällen verwendet werden.
- Das Modell erhält formelle Identifizierung der Normalitätsannahme, wenn die gleichen Kovariaten in der Auswahl-Gleichung und der Gleichung von Interesse erscheinen, aber Identifizierung wird dünn, es sei denn es gibt viele Beobachtungen in den Schwänzen, wo es erhebliche Nichtlinearität in der Inverse Mills Verhältnis. Im Allgemeinen wird ein Ausschluss Einschränkung erforderlich, um glaubhafte Schätzungen zu erzeugen: Es muss mindestens eine Variable, die mit einem Nicht-Null-Koeffizienten in der Auswahl Gleichung erscheint, aber nicht in der Gleichung von Interesse ist, im wesentlichen ein Instrument angezeigt werden. Wenn keine solche Variable verfügbar ist, kann es schwierig sein, für Probenahme Selektivität zu korrigieren.
Kommentare - 0