Regressionsanalyse einfach erklärt mit Beispielen
Regression – einfach und multipel
Die Regressionsanalyse ist das mächtigste Standard-Verfahren der quantitativen Forschung. Sie sagt nicht nur, dass zwei Variablen zusammenhängen (wie die Korrelation), sondern wie genau – und sie kann den Einfluss mehrerer unabhängiger Variablen gleichzeitig prüfen. Wir zeigen dir die einfache und die multiple lineare Regression mit SPSS und R.
Einfache vs. multiple Regression
- Einfache Regression: Eine unabhängige Variable (UV) sagt eine abhängige Variable (AV) voraus. Beispiel: Plattform-Nutzung sagt Lernerfolg voraus.
- Multiple Regression: Mehrere UVs sagen die AV voraus. Beispiel: Plattform-Nutzung + Vorwissen + Geschlecht sagen Lernerfolg voraus.
Voraussetzungen
- Linearer Zusammenhang zwischen UV und AV.
- Normalverteilung der Residuen.
- Homoskedastizität (gleichmäßige Streuung der Residuen).
- Keine Multikollinearität (UVs nicht zu stark untereinander korreliert).
- Unabhängigkeit der Beobachtungen.
SPSS: Multiple Regression
- Analysieren → Regression → Linear.
- Abhängige Variable in oberes Feld, unabhängige Variablen in unteres Feld.
- Methode „Einschluss" (alle UVs gleichzeitig) oder „Schrittweise" (UVs werden nach Beitrag aufgenommen).
- Bei Statistiken: Schätzer, Konfidenzintervalle, Modellanpassung, Kollinearitätsdiagnose ankreuzen.
- Bei Diagrammen: Histogramm und P-P-Plot der Residuen für Voraussetzungsprüfung.
- OK klicken.
R: Multiple Regression
modell <- lm(Lernerfolg ~ PlattformNutzung + Vorwissen + Geschlecht, data = daten)
summary(modell)
# Voraussetzungen prüfen
plot(modell)
library(car); vif(modell) # Multikollinearität
Bericht in der Arbeit
„Eine multiple lineare Regression wurde berechnet, um den Einfluss von Plattform-Nutzung, Vorwissen und Geschlecht auf die Selbsteinschätzung des Lernerfolgs zu prüfen. Das Modell erklärte 18 % der Varianz, R² = 0.18, F(3, 236) = 17.3, p < 0.001. Plattform-Nutzung war ein signifikanter positiver Prädiktor (β = 0.34, p < 0.001), Vorwissen ebenfalls (β = 0.21, p = 0.002). Geschlecht hatte keinen signifikanten Einfluss (β = 0.04, p = 0.51)."
Beta-Werte interpretieren
Standardisierte Regressionskoeffizienten (β) zeigen die Stärke des Einflusses einer UV auf die AV bei konstant gehaltenen anderen UVs. Werte zwischen -1 und +1, ähnlich interpretiert wie Korrelationen:
- |β| < 0.10: kein nennenswerter Einfluss.
- |β| = 0.10–0.30: kleiner bis mittlerer Einfluss.
- |β| > 0.30: starker Einfluss.
R² und korrigiertes R²
R² ist der Anteil der Varianz der AV, der durch die UVs erklärt wird. Bei mehreren UVs steigt R² automatisch – das korrigierte R² berücksichtigt die Anzahl der UVs und ist konservativer. In Berichten oft das korrigierte R² verwenden.
Häufige Fehler
- Voraussetzungen nicht geprüft (Multikollinearität, Residuen).
- R² als „erklärte Varianz" überinterpretiert.
- Schrittweise Regression unkritisch verwendet – führt zu instabilen Modellen.
- Beta-Werte ohne Kontext – „großer Effekt" ist relativ.
Mehr typische Stolperfallen findest du in unserem Beitrag zu häufigen Fehlern in Bachelorarbeit und Masterarbeit. Im Lektorat wird die Berichtsweise von Regressionsergebnissen geprüft.