ISBN-13: 9783790815191 / Niemiecki / Miękka / 2002 / 584 str.
ISBN-13: 9783790815191 / Niemiecki / Miękka / 2002 / 584 str.
Dieses Buch gibt einen vollstandigen Uberblick uber Lineare Modelle und verwandte Gebiete, z.B. die Matrixtheorie. Das Buch umfasst Theorie und Anwendungen. Zahlreiche Beispiele sowie Datensatze, Tests und Grafiken (Tests auf Strukturbruche/Parameterkonstanz) auf einer Website dienen der Anwendungsorientierung. Ein eigenes, relativ umfangreiches Kapitel zur Matrixtheorie stellt die notwendigen methodischen Hilfsmittel fur die Beweise der Satze im Text bereit und vermittelt eine Auswahl klassischer und moderner algebraischer Resultate. Das Buch ist vor allem als begleitendes Lehrmaterial fur Studenten, fur die Forschung auf dem Gebiet der Linearen Modelle sowie fur Dozenten und Studenten hoherer Semester der Wirtschaftswissenschaften angelegt."
1. Einleitung.- 2. Beziehungen zwischen zwei Variablen.- 2.1 Einleitung–Beispiele.- 2.2 Darstellung der Verteilung zweidimensionaler Merkmale.- 2.2.1 Kontingenztafeln bei diskreten Merkmalen.- 2.2.2 Grafische Darstellung bei diskreten Merkmalen.- 2.2.3 Maßzahlen zur Beschreibung der Verteilung beistetigen und gemischt stetig-diskreten Merkmalen.- 2.2.4 Grafische Darstellung der Verteilung stetigerbzw. gemischt stetig-diskreter Merkmale.- 2.3 Maßzahlen für den Zusammenhang zweier nominaler Merkmale.- 2.3.1 Pearsons x2-Statistik.- 2.3.2 Der Odds-Ratio.- 2.4 Rangkorrelationskoeffizient von Spearman.- 2.5 Zusammenhang zwischen zwei stetigen Merkmalen.- 3. Deskriptive univariate lineare Regression.- 3.1 Einleitung.- 3.2 Plots und Hypothesen.- 3.3 Prinzip der kleinsten Quadrate.- 3.3.1 Bestimmung der Schätzungen.- 3.3.2 Herleitung der Kleinste-Quadrate-Schätzungen.- 3.3.3 Eigenschaften der Regressionsgeraden.- 3.4 Güte der Anpassung.- 3.4.1 Varianzanalyse.- 3.4.2 Korrelation.- 3.5 Residualanalyse.- 3.6 Lineare Transformation der Originaldaten.- 3.7 Multiple lineare Regression und nichtlineare Regression.- 3.8 Polynomiale Regression.- 3.9 Lineare Regression mit kategorialen Regressoren.- 3.10 Spezielle nichtlineare Modelle.- 3.10.1 Wachstumskurven.- 3.10.2 Zeit als Regressor.- 3.11 Zeitreihen.- 3.11.1 Einleitung.- 3.11.2 Kurvendiagramme.- 3.11.3 Zerlegung von Zeitreihen.- 3.11.4 Fehlende Werte, äquidistante Zeitpunkte.- 3.11.5 Gleitende Durchschnitte.- 3.11.6 Saisonale Komponente, konstante Saisonfigur.- 3.11.7 Modell für den linearen Trend.- 4. Das klassische multiple lineare Regressionsmodell.- 4.1 Deskriptive multiple lineare Regression.- 4.2 Prinzip der kleinsten Quadrate.- 4.3 Geometrische Eigenschaften der Kleinste–Quadrat–Schätzung.- 4.4 Beste lineare erwartungstreue Schätzung.- 4.4.1 Lineare Schätzer.- 4.4.2 Mean–Square–Error.- 4.4.3 Beste lineare erwartungstreue Schätzung.- 4.4.4 Schätzung von v2.- 4.5 Multikollinearität.- 4.5.1 Extreme Multikollinearität und Schätzbarkeit.- 4.5.2 Schwache Multikollinearität.- 4.5.3 Identifikation und Quantifizierung vonMultikollinearität.- 4.6 Ökonometrische Gleichungen vom Regressionstyp.- 4.6.1 Stochastische Regressoren.- 4.6.2 Instrumental–Variablen Schätzer (IVS).- 4.6.3 Scheinbar unverbundene Regressionen.- 4.7 Klassische Normalregression.- 4.8 Prüfen von linearen Hypothesen.- 4.9 Varianzanalyse und Güte der Anpassung.- 4.9.1 Univariate Regression.- 4.9.2 Univariate Regression mit einer Dummyvariablen.- 4.9.3 Multiple Regression.- 4.9.4 Ein komplexes Beispiel.- 4.9.5 Grafische Darstellung.- 4.10 Tests auf Parameterkonstanz.- 4.10.1 Der Prognosetest von Chow.- 4.10.2 Der Test von Hansen.- 4.10.3 Tests mit rekursiver Schätzung.- 4.10.4 Tests mit Prognosefehlern.- 4.10.5 CUSUM und CUSUMSQ–Tests.- 4.10.6 Tests auf Strukturwechsel.- 4.11 Die kanonische Form.- 4.12 Methoden zur Überwindung von Multikollinearität.- 4.12.1 Hauptkomponenten–Regression.- 4.12.2 Ridge–Schätzung.- 4.12.3 Shrinkage–Schätzer.- 4.13 Minimax–Schätzung.- 4.13.1 Ungleichungsrestriktionen.- 4.13.2 Das Minimaxprinzip.- 5. Modelle der Varianzanalyse.- 5.1 Varianzanalyse als spezielles lineares Modell.- 5.2 Einfaktorielle Varianzanalyse.- 5.2.1 Darstellung als restriktives Modell.- 5.2.2 Zerlegung der Fehlerquadratsumme.- 5.2.3 Schätzung von a2 durch MO Resiaual.- 5.3 Vergleich von einzelnen Mittelwerten.- 5.3.1 Lineare Kontraste.- 5.3.2 Kontraste in den totalen (summierten)Responsewerten im balanzierten Fall.- 5.4 Multiple Vergleiche.- 5.4.1 Einleitung.- 5.4.2 Experimentweise Vergleiche.- 5.4.3 Vergleichsbezogene Prozeduren.- 5.5 Rangvarianzanalyse im vollständig randomisiertenVersuchsplan.- 5.5.1 Kruskal–Wallis–Test.- 5.5.2 Multiple Vergleiche.- 5.6 Zwei– und Mehrfaktorielle Varianzanalyse.- 5.7 Zweifaktorielle Experimente mit Wechselwirkung (Modell mitfesten Effekten).- 5.8 Zweifaktorielles Experiment in Effektkodierung.- 5.9 2k–faktorielles Experiment.- 5.9.1 Spezialfall: 22–Experiment.- 5.9.2 Das 23–Experiment.- 6. Exakte und stochastische lineare Restriktionen.- 6.1 Verwendung von Zusatzinformation.- 6.2 Die restriktive KQ–Schätzung.- 6.3 Schrittweise Einbeziehung von exakten linearen Restriktionen.- 6.4 Verzerrte lineare Restriktionen und MSE–Vergleich mit derKQS.- 6.5 MSE–Matrix–Vergleiche zwischen zwei verzerrten Schätzern.- 6.6 MSE–Matrix–Vergleich zwischen zwei linearen verzerrtenSchätzern.- 6.7 MSE–Vergleich zweier (verzerrter) restriktiver Schätzer.- 6.8 Stochastische lineare Restriktionen.- 6.8.1 Mixed Schätzer.- 6.8.2 Annahmen zur Kovarianzmatrix V.- 6.8.3 Verzerrte stochastische Restriktionen.- 6.9 Abgeschwächte lineare Restriktionen.- 6.9.1 Schwache r–Erwartungstreue.- 6.9.2 Optimale schwach r–erwartungstreue Schätzer.- 6.9.3 Optimale Ersetzung von ß.- 6.9.4 RLSE als Ersatz für den mixed Schätzer.- 7. Das verallgemeinerte lineare Regressionsmodell.- 7.1 Einleitung.- 7.2 Optimale lineare Schätzungen von,Q.- 7.3 Aitken–Schätzung.- 7.4 Fehlspezifikation der Kovarianzmatrix.- 7.5 Heteroskedastie und Autoregression.- 8. Vorhersage von y im verallgemeinerten Regressionsmodell.- 8.1 Das Vorhersagemodell.- 8.2 Optimale inhomogene Vorhersage.- 8.3 Optimale homogene Vorhersagen.- 8.4 MSE–Matrix–Vergleiche zwischen optimalen und klassischenVorhersagen.- 8.4.1 Vergleich klassische – optimale Vorhersage nach dery*–Superiorität.- 8.4.2 Vergleich klassische – optimale Vorhersage nach der X*ß–Superiorität.- 8.5 Vorhersagebereiche.- 9. Sensitivitätsanalyse.- 9.1 Die Prediction–Matrix.- 9.2 Einfluss einer Beobachtung auf die Parameterschätzung.- 9.2.1 Transformation der Residuen.- 9.2.2 Algebraische Konsequenzen aus dem Wegfall einer Beobachtung.- 9.2.3 Test auf Ausreißer.- 9.3 Grafische Methoden zum Prüfen von Modellannahmen.- 9.4 Maße auf der Basis des Konfidenzellipsoids.- 10. Modelle für kategoriale Responsevariablen.- 10.1 Generalisierte lineare Modelle.- 10.1.1 Erweiterung des Regressionsmodells.- 10.1.2 Die Struktur des Generalisierten Linearen Modells.- 10.1.3 Scorefunktion und Informationsmatrix.- 10.1.4 Maximum–Likelihood Schätzung.- 10.1.5 Testen von Hypothesen und Güte der Anpassung.- 10.1.6 Overdispersion.- 10.1.7 Quasi–Loglikelihood.- 10.2 Kontingenztafeln.- 10.2.1 Überblick.- 10.2.2 Vergleich von Anteilen.- 10.2.3 Stichproben in zweidimensionalen Kontingenztafeln.- 10.2.4 Likelihoodfunktion und Maximum–LikelihoodSchätzungen.- 10.2.5 Testen auf Güte der Anpassung.- 10.3 GLM für Binären Response.- 10.3.1 Logitmodelle und Logistische Regression.- 10.3.2 Testen des Modells.- 10.3.3 Verteilungsfunktion als Linkfunktion.- 10.4 Logitmodelle für kategoriale Daten.- 10.5 Güte der Anpassung–Likelihood–Quotienten Test.- 10.6 Loglineare Modelle für Kategoriale Variablen.- 10.6.1 Zweidimensionale Kontingenztafeln.- 10.6.2 Dreidimensionale Kontingenztafeln.- 10.7 Der Spezialfall binärer Responsevariablen.- 10.8 Kodierung kategorialer Kovariablen.- 10.8.1 Dummy– und Effektkodierung.- 10.8.2 Kodierung von Responsemodellen.- 10.8.3 Kodierung in Modellen mit Hazardrate.- 10.9 Erweiterungen für abhängige binäre Variablen.- 10.9.1 Überblick.- 10.9.2 Modellansätze für korrelierten Response.- 10.9.3 Quasi–Likelihood–Ansatz bei korreliertem Response binären.- 10.9.4 Die GEE–Methode von Liang und Zeger.- 10.9.5 Eigenschaften der GEE Schätzung ßG.- 10.9.6 Effizienz von GEE– und IEE–Verfahren.- 10.9.7 Die Wahl der Quasi–Korrelationsmatrix Ri (a).- 10.9.8 Bivariate korrelierte binäre Responsevariablen.- 10.9.9 Die GEE–Methode.- 10.9.10 Die IEE–Methode.- 10.9.11 Ein Beispiel aus der Zahnmedizin.- 10.9.12 Voller Likelihood–Ansatz für marginale Modelle.- 11. Regression bei unvollständigen Daten.- 11.1 Statistische Methoden bei fehlenden Daten.- 11.1.1 Nutzung der kompletten Fälle (complete case analysis).- 11.1.2 Verwendung aller verfügbaren Daten (available caseanalysis).- 11.1.3 Imputation für fehlende Daten.- 11.1.4 Verfahren auf der Basis von Modellen.- 11.2 Missing–Data–Mechanismen.- 11.2.1 Indikatormatrix der fehlenden Werte.- 11.2.2 Missing Completely at Random.- 11.2.3 Missing at Random.- 11.2.4 Nichtignorierbarer Nonresponse.- 11.3 Fehlend–Muster.- 11.4 Fehlende Daten im Response.- 11.4.1 KQ–Schätzung bei vollständigem Datensatz.- 11.4.2 KQ–Schätzung nach Auffüllen fehlender Werte.- 11.4.3 Bartlett’s Kovarianzanalyse.- 11.5 Fehlende Werte in der X–Matrix.- 11.5.1 Fehlende Werte und Effizienzverlust.- 11.6 Standardverfahren bei unvollständiger X–Matrix.- 11.6.1 Complete case Analyse (CC).- 11.6.2 Available case Analyse.- 11.6.3 Maximum–Likelihood Methoden.- 11.7 Imputationsmethoden für unvollständige X–Matrizen.- 11.7.1 Zero–order Regression (ZOR).- 11.7.2 First–order Regression (FOR).- 11.7.3 Korrelationsmethoden für stochastisches X.- 11.7.4 Maximum–Likelihood–Schätzungen der fehlendenWerte.- 11.7.5 Gewichtete mixed Schätzung.- 11.8 Annahmen über den Fehlend–Mechanismus.- 11.9 Regressionsdiagnostik zur Identifizierung von Nicht–MCAR Prozessen.- 11.9.2 Vergleich der Varianz–Kovarianz–Matrizen..- 11.9.3 Diagnostische Maße aus der Sensitivitätsanalyse.- 11.9.4 Verteilung der Maße und Testprozedur.- 11.10 Behandlung von nichtignorierbarem Nichtresponse.- 11.10.1 Gemeinsame Verteilung von (Y, X) mit fehlenden Werten nur in Y.- 11.10.2 Bedingte Verteilung von Y gegeben X mit fehlenden Werten nur in Y.- 11.10.3 Bedingte Verteilung von Y gegeben X mit fehlenden Werten nur in X.- 11.11 Weitere Literatur.- A. Matrixalgebra.- A.1 Einführung.- A.2 Spur einer Matrix.- A.3 Determinanten.- A.4 Inverse.- A.5 Orthogonale Matrizen.- A.6 Rang einer Matrix.- A.7 Spalten-und Nullraum.- A.8 Eigenwerte und Eigenvektoren.- A.9 Zerlegung von Matrizen (Produktdarstellungen).- A.10 Definite Matrizen und quadratische Formen.- A.11 Idempotente Matrizen.- A.12 Verallgemeinerte Inverse.- A.13 Projektoren.- A.14 Funktionen normalverteilter Variablen.- A.15 Differentiation von skalaren Funktionen von Matrizen.- A.16 Stochastische Konvergenz.- B. Tabellenanhang.- B.1 Verteilungsfunktion ?(z) der StandardnormalverteilungN(0,1).- B.2 Dichtefunktion ø(z) der N(0,1)-Verteilung.
Helge Toutenburg studierte (1961-1966) und promovierte (1969) in Berlin, habilitierte in Dortmund (1989). Er ist seit 1991 Professor für Statistik an der Ludwig-Maximilians-Universität München.
1997-2024 DolnySlask.com Agencja Internetowa