Über die Autoren 9
Widmung von Roberto 9
Danksagung von Roberto 10
Einleitung 21
Über dieses Buch 21
Törichte Annahmen über den Leser. . . 22
Symbole, die in diesem Buch verwendet werden 22
Über dieses Buch hinaus 23
Wie es weitergeht 24
Teil I Der Einstieg in die Ökonometrie 25
Kapitel 1 Ökonometrie: Wie Ökonomen an statistische Analysen herangehen 27
Ökonomische Beziehungen auswerten 27
Mittels ökonomischer Theorie Zusammenhänge beschreiben und Vorhersagen treffen 28
Sinnvolle Annahmen sind der Grundstein 28
Mit statistischen Methoden ökonomische Probleme angehen 29
Die Bedeutung des Datentyps, der Häufigkeit und der Aggregation erkennen 30
Tappen Sie nicht in die Data–Mining–Falle 31
Quantitative und qualitative Informationen einbeziehen 32
Mit ökonometrischer Software arbeiten: Eine Einführung in R 32
Sich mit R vertraut machen 33
Spalten zu einem Datensatz hinzufügen und entfernen 37
Schätzen, Testen und Vorhersagen 38
Kapitel 2 Der Dreh mit der Wahrscheinlichkeit 41
Zufallsvariablen und Wahrscheinlichkeitsverteilungen im Überblick 41
Alle Möglichkeiten betrachten: Verteilungsfunktion, Wahrscheinlichkeitsfunktion und Wahrscheinlichkeitsdichte 43
Eine für alle: Die Verteilungsfunktion 46
Die (kumulative) Verteilungsfunktion für diskrete Zufallsvariable 47
Zusammenhänge verstehen: Bi– und multivariate Verteilungen 49
Mit dem, was Sie wissen, die Zukunft vorhersagen: Bedingte Wahrscheinlichkeit 50
Zufallsvariablen mit Kennzahlen beschreiben 51
Mit dem Erwartungswert die Verteilung charakterisieren 52
Varianz und Standardabweichung messen 53
Beziehungen erfassen mit Kovarianz und Korrelation 55
Kapitel 3 Schlüsse ziehen und Hypothesen testen 61
Mit deskriptiver Statistik Ihre Daten kennenlernen 61
Schätzfunktionen verwenden 62
Schätzer vergleichen und beurteilen 66
Mit der Normal– und Standardnormalverteilung die Grundlage für Vorhersagen schaffen 68
Gewöhnliche Variablen erkennen: Normalverteilung 68
Eine einheitliche Skala für Variablen: Die Standardnormalverteilung (Z) 69
Schätzer besser verstehen: Stichprobenverteilungen 70
Simulation und zentraler Grenzwertsatz 71
Die Chi–Quadrat– ( 2), t– und F–Verteilungen entzaubern 73
Schlussfolgern und Hypothesen testen mithilfe von Wahrscheinlichkeitsverteilungen 77
Einen Hypothesentest durchführen 77
Die Konfidenzintervall–Methode 79
Die Signifikanztest–Methode 80
Teil II Ein klassisches lineares Regressionsmodell erstellen 83
Kapitel 4 Die Ziele der Regressionsanalyse verstehen 85
Ein Plädoyer für die Kausalität 85
Sich vertraut machen mit der Wahrheit 87
Das theoretische Modell spezifizieren 88
Ein Beispiel durchgehen 90
Daten für die Regressionsanalyse sammeln und organisieren 93
Eine Momentaufnahme machen: Querschnittsdaten 93
Aus der Vergangenheit die Gegenwart erklären: Zeitreihendaten 95
Die Dimensionen von Raum und Zeit vereinen: Panel– oder Längsschnittdaten 96
Mehrere unabhängige Momentaufnahmen verbinden: Gepoolte Querschnittsdaten 97
Kapitel 5 Über das Gewöhnliche hinausgehen: Die gewöhnliche Methode der kleinsten Quadrate 99
Die Methode der kleinsten Quadrate definieren und begründen 99
Schätzen der Regressionsfunktion und der Residuen 101
Regressionskoeffizienten schätzen 102
Die Formeln für optimale Koeffizienten finden 103
Berechnen der geschätzten Regressionskoeffizienten 105
Manuell berechnen 106
Mit dem Computer rechnen 108
Regressionskoeffizienten interpretieren 110
Was verraten Ihnen Regressionskoeffizienten? 110
Regressionskoeffizienten standardisieren 112
Die Anpassungsgüte messen 115
Zerlegen Sie die Varianz 115
Die Bestandteile der Varianz mit R2 messen 116
Die Anpassungsgüte bei der Multivariaten Regression korrigieren 117
Anpassungsgüte gegen Qualität abwägen 118
Kapitel 6 Die Annahmen der GKQ–Schätzung und das Gauss–Markow–Theorem 121
Die GKQ–Annahmen zusammenfassen 121
Linearität in den Parametern und additiver Fehler 122
Die unabhängigen Variablen sind keine Zufallsvariablen 123
Keine perfekte Kollinearität in den Variablen 123
Der Fehlerterm hat den Erwartungswert null und das Modell ist korrekt spezifiziert. 125
Der Fehlerterm hat eine konstante Varianz 126
Die Korrelation der Fehler ist null 127
Die Welt des klassischen linearen Regressionsmodells: Das Gauss–Markow–Theorem 129
Das Gauss–Markow–Theorem beweisen 129
Zusammenfassung des Gauss–Markow–Theorems 136
Kapitel 7 Die Normalverteilungsannahme und Inferenz mit der GKQ–Methode 139
Die Rolle der Normalverteilung verstehen 139
Der Fehlerterm und die Verteilung von GKQ– Schätzern 141
Wiedersehen mit der Standardnormalverteilung 143
Die Stichprobenvarianz des Fehlers: Chi–Quadrat–verteilt 143
GKQ–Koeffizienten und die t–Verteilung 147
Die Signifikanz einzelner Regressionskoeffizienten testen 148
Eine Methode auswählen 149
Signifikanzniveau und p–Werte festlegen 152
Die Varianz analysieren, um die Gesamt– oder gemeinsame Signifikanz zu bestimmen 152
Normalität, Varianz und die »F«–Verteilung 153
Die angezeigte »F«–Statistik für die GKQ–Schätzung 153
Steigungskoeffizienten und die Beziehung zwischen t und F 156
Gemeinsame Signifikanz von Variablenuntergruppen 157
Vorhersagefehler für GKQ–Prognosen berechnen 160
Mittelwertprognose und Vorhersagefehler 161
Varianz der Punktprognose 161
Nicht alle Prognosen sind gleich: Das Prognosekonfidenzintervall 164
Teil III Mit dem klassischen Regressionsmodell arbeiten 165
Kapitel 8 Funktionale Form, Spezifikation und strukturelle Stabilität 167
Sich alternativer Funktionen bedienen 167
Quadratische Funktion: Das Beste zum Finden von Minima und Maxima 168
Kubische Funktionen: Gut für Wendepunkte 168
Gebrochenrationale Funktionen: Den Wert der abhängigen Variable begrenzen 169
Nichtlinearen Modellen zu Linearität verhelfen 170
Beide Seiten bearbeiten, um elastisch zu bleiben: Das Log–Log–Modell 170
Investieren und Renditen berechnen: Das Log–lineare Modell 172
Abnehmende Veränderung der abhängigen Variable: Das linear–logarithmische Modell 174
Auf Fehlspezifikation überprüfen 176
Zu viele oder zu wenige: Unabhängige Variablen auswählen 177
Empfindlichkeit ist keine Tugend: Fehlspezifikation anhand der Stabilität der Ergebnisse untersuchen 179
Kapitel 9 Regression mit Dummy–Variablen 183
Zahlen bitte! Qualitative Information quantifizieren 183
Eine Dummy–Variable definieren, wenn es nur zwei mögliche Ausprägungen gibt 183
Mit Dummy–Variablen mehrere Ausprägungen darstellen 184
Mit einer Dummy–Variable durchschnittliche Differenzen erkennen 185
Spezifikation 185
Interpretation 186
Quantitative und qualitative Daten in einem Regressionsmodell kombinieren 189
Spezifikation 190
Interpretation 190
Quantitative und qualitative Variablen interagieren lassen 192
Spezifikation 192
Interpretation 193
Interaktion von zwei (oder mehr) qualitativen Eigenschaften 196
Spezifikation 196
Interpretation 196
Gruppen bilden und zusammenlegen: Auf Signifikanz testen 199
Ein alter Bekannter: Der F–Test auf gemeinsame Signifikanz 199
Und noch einmal der Chow–Test 202
Teil IV Verletzungen der Annahmen des klassischen Regressionsmodells 207
Kapitel 10 Multikollinearität 209
Die verschiedenen Arten von Multikollinearität unterscheiden 209
Perfekte Multikollinearität dingfest machen 210
Hohe Multikollinearität fassen 212
Faustregeln zum Identifizieren von Multikollinearität 214
Paarweise Korrelationskoeffizienten 215
Hilfsregression und der Varianzinflationsfaktor (VIF) 217
Wissen, wann und wie man Multikollinearitätsprobleme löst 220
Sich mehr Daten verschaffen 221
Ein neues Modell nehmen 222
Die Problemvariablen herausnehmen 223
Kapitel 11 Heteroskedastizität 227
Zwischen homoskedastischen und heteroskedastischen Störungen unterscheiden 227
Homoskedastischer versus heteroskedastischer Fehlerterm 227
Die Folgen von Heteroskedastizität 229
Mit einer Residuenanalyse Heteroskedastizität aufspüren 229
Residuen grafisch untersuchen 230
Sich mit dem White–Test vertraut machen 235
Den Goldfeld–Quandt–Test verwenden 237
Den Park–Test durchführen 241
Anzeichen für Heteroskedastizität? Hier geht s zur Apotheke! 243
Gewichtete kleinste Quadrate (WLS) 244
Robuste Standardfehler 248
Kapitel 12 Autokorrelation 253
Autokorrelationsmuster untersuchen 253
Positive versus negative Autokorrelation 254
Fehlspezifikation und Autokorrelation 256
Die Auswirkung autoregressiver Fehler veranschaulichen 256
Residuen analysieren, um auf Autokorrelation zu testen 259
Den optischen Weg einschlagen: Grafische Inspektion Ihrer Residuen 259
Mit der Normalverteilung Sequenzen von Residuen identifizieren: Der Runs–Test 259
Autokorrelation eines AR(1)–Prozesses aufspüren: Der Durbin–Watson–Test 264
Autokorrelation eines AR(p) Prozesses aufspüren: Der Breusch–Godfrey–Test 266
Schädliche Autokorrelation beheben 268
FGLS 268
Autokorrelationsrobuste Standardfehler 272
Teil V Diskrete und beschränkte abhängige Variablen 275
Kapitel 13 Qualitative abhängige Variablen 277
Mit dem linearen Wahrscheinlichkeitsmodell (LWM) diskrete Ergebnisse modellieren 277
Ein LWM mit der GKQ–Methode schätzen 278
Ihre Ergebnisse interpretieren 281
Wermutstropfen: Die drei wichtigsten LWM–Probleme 284
Nicht normalverteilte Fehler 284
Heteroskedastizität 285
Unbeschränkte vorhergesagte Wahrscheinlichkeiten 286
Geeignete nichtlineare Funktionen spezifizieren: Probit– und Logit–Modell 287
Mit der Verteilungsfunktion der Standardnormalverteilung arbeiten: Das Probit–Modell 288
Die Logistische Verteilung verwenden: Das Logit–Modell 289
Mit der Maximum–Likelihood–(ML–)Schätzung arbeiten 290
Die Likelihood–Funktion erzeugen 291
Die Log–Transformation und ML–Schätzwerte 292
Probit– und Logit–Schätzwerte interpretieren 293
Probit–Koeffizienten 297
Logit–Koeffizienten 298
Kapitel 14 Modelle für beschränkte abhängige Variablen 301
Das Wesentliche beschränkter abhängiger Variablen 301
Zensierte abhängige Variablen 302
Verkürzte abhängige Variable 303
Die Regressionsanalyse für beschränkte abhängige Variable modifizieren 304
Tobin s Tobit 304
Verkürzte Regression 308
Mehr unabhängige als abhängige Beobachtungen: Das Heckman Selektionsmodell 311
Teil VI Das ökonometrische Basismodell erweitern 317
Kapitel 15 Statische und dynamische Modelle 319
Gleichzeitige und verzögerte Variablen in der Regressionsanalyse verwenden 319
Fragestellungen mit dynamischen Modellen untersuchen 320
Dynamische Modelle auf Autokorrelation testen und korrigieren 323
Trends mit der GKQ–Methode berücksichtigen 324
Scheinkorrelation und Zeitreihen 327
Den Trend aus Zeitreihendaten entfernen 328
Die GKQ–Methode zur Saisonbereinigung verwenden 331
Saisonbedingte Auswirkungen schätzen 332
Zeitreihendaten saisonbereinigen 334
Kapitel 16 In die gepoolte Querschnittsanalyse einsteigen 337
Ein dynamisches Zeitelement hinzufügen 337
Achsenabschnitte und/oder Steigungen untersuchen, die sich im Laufe der Zeit verändern 338
Zeit–Dummy–Variablen einbeziehen 339
Durch Experimente Politikeffekte mit gepoolten Querschnitten schätzen 341
Zufallszuweisung: Ein echtes Experiment 341
Mit vorher festgelegten Subjektgruppen arbeiten: Ein natürliches (oder Quasi–)Experiment 342
Kapitel 17 Ökonometrie mit Paneldaten 347
Die Eindeutigkeit jeder individuellen Einheit schätzen 347
Die erste Differenzen Transformation (FD) 350
Regression mit Dummy–Variablen (DV) 350
Der Fixe–Effekte–Schätzer (FE) 351
Die Effizienz der Schätzung mit stochastischen Effekten steigern 354
Der zusammengesetzte Fehler und Annahmen beim Modell mit stochastischen Effekten 355
Der Stochastische–Effekte–Schätzer (RE–Schätzer) 355
Mit dem Hausman–Test Effizienz gegen Konsistenz testen 359
Teil VII Der Top–Ten–Teil 361
Kapitel 18 Zehn Bestandteile eines guten ökonometrischen Forschungsprojektes 363
Ihr Thema vorstellen und die grundlegende Frage stellen 363
Die Relevanz und Bedeutung Ihres Themas besprechen 364
Die vorhandene Literatur würdigen 364
Den konzeptionellen oder theoretischen Rahmen beschreiben 365
Ihr ökonometrisches Modell erklären 366
Die Schätzmethoden erörtern 366
Ihre Daten detailliert beschreiben 367
Tabellen und Graphen erstellen, um Ihre Ergebnisse abzubilden 368
Die dargestellten Ergebnisse interpretieren 368
Fassen Sie das Gelernte zusammen 369
Kapitel 19 Zehn häufige Fehler in der angewandten Ökonometrie 371
Ihren gesunden Menschenverstand und Ihre Kenntnis in Wirtschaftstheorie nicht anwenden 371
Die falschen Fragen zuerst stellen 372
Die Arbeit und Beiträge anderer ignorieren 372
Sich nicht mit den Daten vertraut machen 372
Es zu kompliziert machen 373
Unflexibel gegenüber Komplikationen der realen Welt sein 374
Bei seltsamen Ergebnissen einfach wegsehen 375
Sich zu sehr mit Gütekriterien und statistischer Signifikanz beschäftigen 375
Ökonomische Signifikanz vergessen 376
Annehmen, Ihre Ergebnisse seien robust 376
Anhang: Statistische Tabellen 377
Die Standardnormalverteilung 377
Die t–Verteilung 379
Die Chi–Quadrat–Verteilung 380
F–Verteilung 381
Durbin–Watson d–Statistik 381
Stichwortverzeichnis 383
Roberto Pedace ist Professor am Scripps College in Kalifornien und unterrichtet dort unter anderem Ökonometrie, Statistik sowie Mikroökonomie.
Karl–Kuno Kunze ist Professor für Wirtschaftsmathematik und –statistik und leitet das R Institute (www.r–institute.com), das Beratung, Schulungen und Zertifizierungen im Bereich Datenanalyse mit dem Softwarepaket R anbietet.
Theorien verstehen und Techniken anwenden
Was haben die Gehälter von Spitzensportlern und der Mindestlohn gemeinsam? Richtig, man kann sie mit Ökonometrie erforschen. Im Buch steht, wie es geht. Und nicht nur dafür, sondern für viele weitere Gebiete lohnt es sich, der zunächst etwas trocken und sperrig anmutenden Materie eine Chance zu geben. Lernen Sie von den Autoren, wie Sie spannende Fragen formulieren, passende Variablen festlegen, treffsichere Modelle entwerfen und Ihre Aussagen auf Herz und Nieren prüfen. Werden Sie sicher im Umgang mit Hypothesentests, Regressionsmodellen, Logit– & Probit–Modellen und allen weiteren gängigen Methoden der Ökonometrie. So begleitet Ökonometrie für Dummies Sie Schritt für Schritt und mit vielen Beispielen samt R Output durch dieses spannende Thema.
1997-2025 DolnySlask.com Agencja Internetowa