Regressionsanalyse mit SPSS, 2nd Edition

Book description

Das Buch bringt dem Anwender von SPSS die verschiedenen Regressionsverfahren anhand vieler Beispiele nahe. Dabei wird auf häufige Fehler genauso eingegangen wie auf detaillierte Beschreibungen und Informationen zu SPSS-Ausgaben und -Syntax. Die Neuauflage enthält nicht nur Anpassungen an die neueste Programmversion (IBM SPSS Statistics V21), sondern wurde auch um weitere Regressionsansätze erweitert.

Table of contents

  1. Titel
  2. Impressum
  3. Vorwort zur zweiten Auflage
  4. Vorwort
  5. Inhaltsverzeichnis
  6. 1 Korrelation
    1. 1.1 Einführung
    2. 1.2 Erste Voraussetzung: Das Skalenniveau
    3. 1.3 Weitere Voraussetzungen: Linearität,Homoskedastizität und Kontinuität
    4. 1.4 Exkurs: Grafische Tests auf Linearität
      1. 1.4.1 Prozedur GRAPH, Scatterplot Option
      2. 1.4.2 SPSS Prozedur CURVEFIT
    5. 1.5 Statistik und Interpretationdes Korrelationskoeffizienten
      1. 1.5.1 Statistik des Korrelationskoeffizienten
      2. 1.5.2 Interpretation des Korrelationskoeffizienten
    6. 1.6 Berechnung mit SPSS (Beispiel)
    7. 1.7 Fallstricke: Linearität, Scheinkorrelation undAlphafehler-Kumulation
      1. 1.7.1 Scheinkorrelation und partielle Korrelation
      2. 1.7.2 Das Problem der Alphafehler-Kumulierung
    8. 1.8 Spezielle Anwendungen
      1. 1.8.1 Vergleich von Korrelationskoeffizienten
      2. 1.8.2 Vergleich von Korrelationen auf Gleichheit
      3. 1.8.3 Kanonische Korrelation
    9. 1.9 Voraussetzungen für die Berechnungdes Pearson-Korrelationskoeffizienten
  7. 2 Lineare und nichtlineare Regression
    1. 2.1 Lineare Regression: Zusammenhang mit Kausalrichtung
      1. 2.1.1 Bivariate lineare Regression: Einführung in die Regressionsanalyse mit REGRESSION
      2. 2.1.2 Beispiel und Syntax für eine bivariate lineare Regression – Durchgang 1: Überprüfung der Linearität und Identifikation von Ausreißern anhand von Hebelwerten und Residuen
      3. 2.1.3 Output und Erläuterungen
      4. 2.1.4 Durchgang 2: Der Effekt des Ausschlusses vonAusreißern – Ausgewählter Output
      5. 2.1.5 Exkurs: Grafik mit eingezeichneter Regressionsgerade (GGRAPH)
    2. 2.2 Nichtlineare einfache Regression
      1. 2.2.1 Eine lineare Funktion wird mittels einer linearen Regressionsanalyse untersucht
      2. 2.2.2 Eine nichtlineare Funktion wird mittels einer linearen Regressionsanalyse untersucht
      3. 2.2.3 Eine nichtlineare Funktion wird linearisiert und mittels einer linearen Regression untersucht
      4. 2.2.4 Eine nichtlineare Funktion wird mittels einer nichtlinearen Regression untersucht: Nichtlineare Regression
      5. 2.2.5 Etwas Anspruchsvolleres: Eine nichtlineare Regression mit zwei Prädiktoren
      6. 2.2.6 Die Prozeduren NLR und CNLR für die nichtlineare Regression
      7. 2.2.7 Annahmen der nichtlinearen Regression
      8. 2.2.8 Übersicht: Modelle für die nichtlineare Regression
    3. 2.3 Multiple lineare Regression: Multikollinearität und andere Fallstricke
      1. 2.3.1 Besonderheiten der Multiplen Regression
      2. 2.3.2 Ein erstes Beispiel: Die Interpretation der speziellen Statistiken der multiplen Regression
      3. 2.3.3 Zweites Beispiel: Identifizieren und Beheben von Multikollinearität
    4. 2.4 Voraussetzungen für die Berechnung einer linearen Regression
  8. 3 Logistische und ordinaleRegression
    1. 3.1 Einführung: Kausalmodell und Messniveau der abhängigen Variable
    2. 3.2 Binäre logistische Regression
      1. 3.2.1 Das Verfahren und Vergleich zu anderen Verfahren
      2. 3.2.2 Beispiel, Maus und Syntax: Schrittweise Methode BSTEP)
      3. 3.2.3 Output und Interpretation
      4. 3.2.4 Beispiel und Syntax: Direkte Methode ENTER
      5. 3.2.5 Output und Interpretation
      6. 3.2.6 Exkurs: Theorietest vs. Diagnostik bei der logistischen Regression: Modellgüte (goodness of fit) vs. Prädikative Effizienz (predictive efficiency)
      7. 3.2.7 Voraussetzungen für eine binäre logistische Regression
    3. 3.3 Ordinale Regression
      1. 3.3.1 Das Verfahren und Vergleich mit anderen Verfahren
      2. 3.3.2 Beispiel 1, Maus und Syntax: Intervallskalierte Prädiktoren WITH-Option)
      3. 3.3.3 Output und Interpretation
      4. 3.3.4 Beispiel 2 und Syntax: Kategoriale Prädiktoren (BY-Option)
      5. 3.3.5 Output und Interpretation
      6. 3.3.6 Voraussetzungen für eine ordinale Regression
    4. 3.4 Multinomiale logistische Regression
      1. 3.4.1 Beispiel, Maus und Syntax: Haupteffekt-Modell (dichotome AV)
      2. 3.4.2 Output und Interpretation
      3. 3.4.3 Exkurs: Schrittweise Berechnung eines Modells mit einer dichotomen AV: Vergleich der NOMREG- und LOGISTIC REGRESSION-Ausgaben
      4. 3.4.4 Spezialfall: Gematchte Fall-Kontrollstudie (1:1) mit metrischen Prädiktoren – Beispiel, Syntax, Output und Interpretation
      5. 3.4.5 Exkurs: LOGISTIC REGRESSION vs. NOMREG (Unterschiede)
      6. 3.4.6 Voraussetzungen für eine multinomiale logistische Regression
    5. 3.5 Vergleich der vorgestellten Regressionsansätze
  9. 4 Survivalanalysen
    1. 4.1 Einführung in die Überlebenszeitanalyse
    2. 4.2 Das Grundprinzip der Survivalanalyse
      1. 4.2.1 Die Überlebensfunktion S(t)
      2. 4.2.2 Die Bestimmung der Überlebensfunktion S(t)
      3. 4.2.3 Weitere Funktionen
    3. 4.3 Zensierte Daten
      1. 4.3.1 Unerwartete Ereignisse oder nicht eintretende Zielereignisse
      2. 4.3.2 Drei Gründe, zensierte Daten anders als nichtzensierte Daten zu behandeln
      3. 4.3.3 Umgehen mit ausfallenden Daten bzw. Zensierungen (drei Ansätze)
    4. 4.4 Verfahren zur Schätzung der Überlebenszeit S(t)
      1. 4.4.1 Versicherungsmathematische Methode bzw. Sterbetafel Methode
      2. 4.4.2 Schätzung von S(t) mit der Kaplan-Meier-Methode
      3. 4.4.3 Beispiele ohne und mit Zensierungen (Ansatz: Kaplan-Meier)
    5. 4.5 Tests für den Vergleich mehrerer Gruppen
    6. 4.6 Überlebenszeitanalyse mit SPSS
      1. 4.6.1 Beispiel: Kaplan-Meier-Verfahren ohne Faktor
      2. 4.6.2 Beispiel: Kaplan-Meier-Verfahren mit Faktor
      3. 4.6.3 Vergleiche mittels mit Faktor- und Schichtvariablen Kaplan-Meier)
      4. 4.6.4 Konfidenzintervalle für Kaplan-Meier Analysen
      5. 4.6.5 Beispiel einer Sterbetafel-Berechnung ohne Faktor
      6. 4.6.6 Beispiel einer Sterbetafel-Berechnung mit Faktor
      7. 4.6.7 Erste Voraussetzungen für die Berechnung einer Survivalanalyse
    7. 4.7 Regression nach Cox
      1. 4.7.1 Einführung und Hintergrund des Cox-Modells
      2. 4.7.2 Cox-Regression mit einer metrischen Kovariaten
      3. 4.7.3 Cox-Regression mit einer dichotomen Kovariaten (k=2)
      4. 4.7.4 Cox-Regression mit einer kategorialen Kovariaten (k>2)
      5. 4.7.5 Cox-Regressionen für Interaktionen
      6. 4.7.6 Überprüfung der Voraussetzungen einer Cox-Regression
      7. 4.7.7 Cox-Regression mit zeitabhängigen, metrischenKovariaten
      8. 4.7.8 Spezielle Voraussetzungen der Cox-Regression
      9. 4.7.9 Anhang: Kontraste
  10. 5 Weitere Anwendungsbeispiele der Regressionsanalyse
    1. 5.1 Partial-Regression
      1. 5.1.1 Berechnung mit der Prozedur PLS Python Extension)
      2. 5.1.2 Berechnung mit der Prozedur REGRESSION
    2. 5.2 Individuelle Wachstumskurven (individual growth modeling)
      1. 5.2.1 Ansatz 1: Modell zufälliger Intercepts
      2. 5.2.2 Ansatz 2: Modell zufälliger Steigungen
      3. 5.2.3 Ansatz 3: Modell zufälliger Intercepts und zufälliger Steigungen
    3. 5.3 Ridge-Regression (SPSS Makro)
      1. 5.3.1 Visualisierung von Multikollinearität mittels Ridge-Trace
      2. 5.3.2 Berechnung einer Ridge-Regression
      3. 5.3.3 Das SPSS Makro „Ridge-Regression“
  11. 6 Weitere Ansätze und Modelle (Ausblick)
    1. 6.1 Weitere Regressionsansätze über SPSS Menüs
    2. 6.2 Weitere Regressionsvarianten über Syntax
  12. 7 Anhang: Formeln
  13. 8 Literatur
  14. 9 Ihre Meinung zu diesem Buch
  15. 10 Autor
  16. Syntaxverzeichnis
  17. Sachverzeichnis

Product information

  • Title: Regressionsanalyse mit SPSS, 2nd Edition
  • Author(s): Christian FG Schendera
  • Release date: August 2014
  • Publisher(s): De Gruyter Oldenbourg
  • ISBN: 9783110377217