Das Lehrbuch fuhrt in die heute als klassisch anzusehenden Methoden der Okonometrie ein. Aufbauend auf dem unabdingbaren Fundament der Regressionsanalyse, enthalt es eine Darstellung der linearen dynamischen Systeme sowie der interdependenten Mehrgleichungsmodelle nebst den zugehorigen Schatz- und Testverfahren. Auch der Prognosegesichtspunkt findet Beachtung. Eine Einfuhrung in die Bayes-Theorie wird ebenfalls gegeben. Soweit sie fur die Okonometrie von Bedeutung sind, wird in der 4. Auflage eine starkere Betonung auf die Modelle mit fehlerbehafteten Daten gelegt. Auf neuere Entwicklungen in der Okonometrie wird hingewiesen, ebenso sind die Literaturangaben uberarbeitet. Dem praktisch arbeitenden Okonometriker gibt das Buch das Werkzeug fur seine Arbeit in die Hand und nennt die theoretischen Voraussetzungen fur das Funktionieren dieses Werzeugs.
0. Einleitung.- 0.1. Wesen und Aufgabe der Ökonometrie.- 0.2. Schätzprobleme.- 0.3. Erkenntnismöglichkeit der Ökonometrie.- 0.4. Praktische Ökonometrie.- 0.5. Literatur.- I. Das klassische Regressionsmodell.- 1. Das einfache lineare Regressionsmodell.- 1.1. Das Modell.- 1.1.1. Stochastisch gestörte Funktionen.- 1.1.2. Die exogene Variable.- 1.1.3. Die Störvariable.- 1.1.4. Die Regressionsfunktion.- 1.1.5. Exogene und endogene Variable.- 1.1.6. Das vollständige Modell.- 1.1.7. Bemerkungen zu den Modellannahmen.- 1.2. Die Methode der kleinsten Quadrate.- 1.2.1. Prinzip der kleinsten Quadrate (KQ).- 1.2.2. Normalgleichungen.- 1.2.3. Die Residuen.- 1.2.4. Korrelationskoeffizient und Bestimmtheitsmaß.- 1.2.5. Die Umkehrregression.- 1.2.6. Nichtlineare Regression.- 1.3. Maximum-Likelihood-Methode.- 1.3.1. Das Maximum-Likelihood-Prinzip.- 1.3.2. ML-Schätzungen.- 1.4. Schätzfehler.- 1.4.1. Zufallsfehler.- 1.4.2. Ein Simulationsmodell.- 1.4.3. Schätzvariablen.- 1.4.4. Erwartungstreue der geschätzten Regressionsparameter.- 1.4.5. Standardfehler der Parameterschätzungen.- 1.4.6. Kovarianz der Parameterschätzungen.- 1.4.7. Normalverteilung.- 1.4.8. Konsistenz.- 1.4.9. Residualvarianz.- 1.4.10.* Konfidenzintervall für ?.- 1.4.11. Konfidenzintervalle für die Regressionsparameter.- 1.4.12. Prüfung von Hypothesen über die Parameter.- 1.4.13.* Konfidenzellipse.- 1.4.14.* Effizienz.- 1.4.15.* Gauss-Markoff-Theorem.- 1.5. Prognosen.- 1.5.1. Prognose und Test.- 1.5.2. Prognosefehler.- 1.5.3. Prognose- und Toleranzintervall.- 1.5.4.* Test auf Strukturbruch in den Regressionsparametern.- 1.5.5.* Test auf Strukturbruch in der Störvarianz.- Aufgaben zu Kap. 1.- 2. Das multiple lineare Regressionsmodell.- 2.1. Das Modell.- 2.1.1. Darstellung ohne Matrizen.- 2.1.2. Matrizendarstellung.- 2.2. Die Methode der kleinsten Quadrate.- 2.2.1. Prinzip der kleinsten Quadrate.- 2.2.2. Normalgleichungen.- 2.2.3. Residualvarianz.- 2.3. Das absolute Glied.- 2.3.1. Normalgleichungen.- 2.3.2. Residualvarianz.- 2.3.3. Beispiel: 2 exogene Variablen.- 2.3.4. Homogene Regression.- 2.4. Allgemeine stochastische Eigenschaften der KQ-Schätzvariablen.- 2.4.1. Erwartungstreue der Regressionsparameterschätzungen.- 2.4.2. Kovarianzmatrix.- 2.4.3. Konfidenzintervalle.- 2.4.4. Beispiel: 2 exogene Variablen.- 2.4.5. Linearkombinationen von Regressionsparametern.- 2.4.6. Konsistenz der Regressionsparameterschätzungen.- 2.4.7.* Beste lineare Schätzung.- 2.4.8. Erwartungstreue der Residualvarianz.- 2.4.9.* Konsistenz der Residualvarianz.- 2.5. Stochastische Eigenschaften der KQ-Schätzvariablen unter der Normalverteilungshypothese.- 2.5.1. Normalverteilung der Parameterschätzungen.- 2.5.2. Maximum Likelihood.- 2.5.3.* ?2- und F-Verteilungen.- 2.5.4.* Konfidenzellipsoid und Signifikanztest.- 2.5.5.* Strukturbrüche.- 2.5.6. (0,1)-Variablen.- 2.5.7. Prognose.- Aufgaben zu Kap. 2.- 3. Kollinearität und Fehlspezifikation.- 3.1. Korrelationskoeffizienten.- 3.1.1. Multipler Korrelationskoeffizient.- 3.1.2.* Partielle Korrelationskoeffizienten.- 3.1.3.* Korrelations- und Regressionskoeffizienten.- 3.2. Kollinearität.- 3.2.1. Exakte lineare Abhängigkeiten.- 3.2.2. Stochastische lineare Abhängigkeiten.- 3.2.3. Beispiel: 2 exogene Variablen.- 3.2.4. Versuche zur Überwindung der Kollinearität.- 3.2.5. Externe Information.- 3.3. Fehlspezifikation.- 3.3.1. Ausschluß exogener Variablen.- 3.3.2.* Stufenweise Regression.- 3.3.3.* Aggregationsfehler.- Aufgaben zu Kap. 3.- 4. Systeme von Regressionsgleichungen.- 4.1. Keine a-priori-Restriktionen.- 4.1.1. Das Modell.- 4.1.2. Methode der kleinsten Quadrate.- 4.1.3. Maximum-Likelihood-Prinzip.- 4.1.4. Effizienz.- 4.1.5. Linearkombinationen aus Gleichungen.- 4.1.6. Prognosen.- 4.2. A-priori-Restriktionen.- 4.2.1. Restriktionen in einer Gleichung.- 4.2.2.* Nachfragesysteme.- Aufgaben zu Kap. 4.- II. Erweiterungen des Regressionsmodells.- 5. Autokorrelation und Heteroskedastizität.- 5.1. Die verallgemeinerte Methode der kleinsten Quadrate nach Aitken.- 5.1.1. Modellvoraussetzungen.- 5.1.2. Gewöhnliche Methode der kleinsten Quadrate.- 5.1.3. Verallgemeinerte Methode der kleinsten Quadrate.- 5.2. Autokorrelation.- 5.2.1. Das autoregressive Schema erster Ordnung.- 5.2.2. Verallgemeinerte KQ-Methode bei einfacher Autokorrelation.- 5.2.3. Variablentransformation bei einfacher Autokorrelation.- 5.2.4. Differenzen.- 5.2.5. Test auf Autokorrelation.- 5.2.6. Prognose bei Autokorrelation.- 5.3. Heteroskedastizität.- 5.3.1. Schätzverfahren.- 5.3.2. Test auf Heteroskedastizität.- Aufgaben zu Kap. 5.- 6. Verzögerte Variablen.- 6.1. Dynamische Modelle.- 6.1.1. Beispiele.- 6.1.2. Zeitpfad autoregressiv bestimmter Variablen.- 6.1.3. Stochastische Differenzengleichungen, Stationarität.- 6.1.4. Die Momentenmatrix.- 6.2. Schätzprobleme.- 6.2.1. Modellannahmen.- 6.2.2. KQ-Verzerrung bei kleinen Stichproben.- 6.2.3. Maximum Likelihood.- 6.2.4.* Asymptotische Eigenschaften.- 6.2.5. Autokorrelation.- Aufgaben zu Kap. 6.- 7. Fehler in den Variablen.- 7.1. Das Modell.- 7.1.1. Systematische Fehler.- 7.1.2. Zufällige Fehler.- 7.1.3. Interpretationen des Fehlermodells.- 7.2. Das Schätzproblem.- 7.2.1. Inkonsistente KQ-Schätzungen.- 7.2.2. Konsistente Schätzmethoden bei Kenntnis der Fehlervarianzen.- 7.2.3. Konsistente Schätzmethoden bei Kenntnis von Hilfsvariablen.- 7.2.4. Verfahren von Wald.- Aufgaben zu Kap. 7.- 8.* A-priori-Wahrscheinlichkeiten.- 8.1. A-priori-Restriktionen.- 8.1.1. Deterministische a-priori-Restriktionen.- 8.1.2. Stochastische a-priori-Restriktionen.- 8.2. Der Bayes-Schluß.- 8.2.1. Theorem von Bayes.- 8.2.2. Bayes-Schätzung einer linearen Regression.- 8.2.3. Bayes-Prognose.- Aufgaben zu Kap. 8.- III. Interdependente Systeme.- 9. Das vollständige ökonometrische Modell.- 9.1. Grundlagen.- 9.1.1. Einführende Bemerkungen.- 9.1.2. Exogene Variablen.- 9.1.3. Allgemeine Form eines interdependenten linearen Systems.- 9.1.4. Beispiele.- 9.1.5. Strukturgleichungen.- 9.1.6. A-priori-Restriktionen.- 9.1.7. Stochastische Modellannahmen.- 9.2. Struktur und reduzierte Form.- 9.2.1. Reduzierte Form.- 9.2.2. Kausalstruktur und Pfeilschema.- 9.2.3. Rekursive Systeme.- Aufgaben zu Kap. 9.- 10. Identifikation und Schätzproblem.- 10.1. Identifikation.- 10.1.1. Begriff.- 10.1.2. Äquivalenz und reduzierte Form.- 10.1.3. Beispiele.- 10.1.4. Kriterien.- 10.1.5.* Identifizierende Restriktionen für ?.- 10.2. Methode der kleinsten Quadrate.- 10.2.1. Gewöhnliche KQ-Methode.- 10.2.2. Indirekte KQ-Methode.- 10.2.3. Beispiele.- 10.2.4. Normalgleichungen.- 10.2.5. Methode der Hilfsvariablen.- Aufgaben zu Kap. 10.- 11. Schätzmethoden für interdependente Modelle.- 11.1. Schätzmethoden bei beschränkter Information.- 11.1.1. Zweistufige Methode der kleinsten Quadrate.- 11.1.2. Maximum Likelihood bei beschränkter Information (MLBI).- 11.1.3. Prinzip des minimalen Varianzquotienten.- 11.1.4.* k-Klasse und Doppel-k-Klasse.- 11.1.5.* MLBI als k-Klasse-Verfahren.- 11.2. Schätzmethoden bei voller Information.- 11.2.1. Maximum Likelihood.- 11.2.2.* Linearisierte ML-Methode.- 11.2.3.* Dreistufige Methode der kleinsten Quadrate.- 11.2.4.* Simultane KQ-Methode.- 11.3. Vergleich der Schätzmethoden.- 11.3.1.* Abweichungen vom Mittelwert und Bereinigung.- 11.3.2.* Übereinstimmung im Falle genauer Identifizierbarkeit.- 11.3.3. Beschränkte und volle Information.- 11.3.4. Eigenschaften bei kleinen Stichproben.- Aufgaben zu Kap.11.- Anhang A: Matrizenkalkül.- A 1. Definitionen.- A 2. Transponieren einer Matrix.- A3. Matrixverknüpfungen.- A4. Matrixalgebra.- A 5. Determinante.- A6. Matrixinversion.- A 7. Unterteilte Matrizen.- A B. Lineare Abhängigkeit.- A9. Rang.- A 10. Lineare Transformationen.- A 1 1. Eigenwerte.- A 12. Quadratische Formen.- A13. Spur.- A 14. Idempotente Matrix.- A15. Matrixdifferentiation.- Anhang B: Wahrscheinlichkeitsrechnung und Statistik.- B I. Zufallsvariablen.- B2. Momente.- B 3. Gemeinsame und bedingte Verteilung.- B4. Gemischte Momente.- B5. Empirische Momente.- B6. Bedingte Erwartungswerte.- B7. Normalverteilung.- B 10. Wahrscheinlichkeitslimes.- B11. Zentraler Grenzwertsatz.- B 12. Parameterschätzung.- B13. Maximum Likelihood.- Anhang C: Empirische Schätzbeispiele.- C 1. KQ-Schätzung der Konsumfunktion.- C2. Strukturbruch in der Konsumfunktion.- C3. Strukturbruch in der Investitionsfunktion I.- C4. Zweistufige KQ-Schätzung eines kleinen Modells.- Anhang D: Verteilte Verzögerungen.- Verteilte Verzögerungen.- Anhang E: Tabellen.- Verzeichnis der Abbildungen.- Autorenverzeichnis.
1997-2024 DolnySlask.com Agencja Internetowa