Hallo,
in SPSS möchte ich gerne eine Regression zwischen einer abhängigen und einer unabhängigen Variable erstellen, wobei ich noch für verschiedene Variablen kontrollieren möchte. Dazu habe ich verschiedene Fragen.
-Muss ich alle Variablen gleichzeitig ins Modell aufnehmen? Wie kann ich dann mit Bestimmheit sagen, dass meine unabhängige Variable das Ergebnis ausmacht unter Kontrolle der anderen und nicht andersherum?
-Je mehr Variablen desto größer ist ja die Chance, dass die Regression signifikant wird. Gibt es eine Richtlinie, dass ich weiß, wann ich zuviele Variablen kontrollieren will, sodass mein Ergebnis nichts mehr aussagt (sind drei schon zu viel?)
- Wenn ich bei den Ergebnistabellen unter r schaue. Zeigt mir dann das Ergbenis auch an in welche Richtung die Vorhersage geht. Das heißt, kann man bei einem negativen r sagen, dass eine negative Korrelation besteht? (Kommt dann dasselbe Ergebnis heraus, wenn man eine Korrelation macht?)
Ich würde mich sehr über Antworten, Teilantworten etc freuen. Vielen Dank für eure Hilfe!
kontrollieren von Variablen bei einer Regression
-
- Beiträge: 1
- Registriert: 27.05.2010, 08:16
-
- Beiträge: 165
- Registriert: 05.07.2009, 21:10
Zu deinen Fragen:
- nein, du musst nicht alle Variablen gleichzeitig ins Modell aufnehmen. Es gibt es ja die Möglichkeit verschiedene Regressionsschritte bzw. Regressionsmethoden festzulegen. Eine Kausalität von Zusammenhängen versucht man normalerweise mit Pfadmodellen zu zeigen - eine Regression dient dazu zu zeigen, wie gut man die Varianz einer (abhängigen) Variable durch mehrere unabhängige Variablen erklären kann.
- die Anzahl von Variablen, die man in einer Regression verwenden sollte, hängt von der Stichprobengröße ab, die vorliegt. Tabachnick & Fidell (2001) schreiben dazu :
N>=50+8m, wenn man R² testen will und
N>=104+m wenn man individuelle Prädiktoren auf Signifikanz testen will (wobei m für die Anzahl der unabhängigen Variablen steht)
- um die Richtung des Zusammenhangs zu sehen, kannst du entweder die Beta-Koeffizienten oder die Partialkorrelation (unter Partial in der Koeffiziententabelle) anschauen. Letztere entspricht einer Korrelation zwischen abhängiger und der entsprechenden unabhängigen Variable unter Kontrolle der anderen unabhängigen Variablen
- nein, du musst nicht alle Variablen gleichzeitig ins Modell aufnehmen. Es gibt es ja die Möglichkeit verschiedene Regressionsschritte bzw. Regressionsmethoden festzulegen. Eine Kausalität von Zusammenhängen versucht man normalerweise mit Pfadmodellen zu zeigen - eine Regression dient dazu zu zeigen, wie gut man die Varianz einer (abhängigen) Variable durch mehrere unabhängige Variablen erklären kann.
- die Anzahl von Variablen, die man in einer Regression verwenden sollte, hängt von der Stichprobengröße ab, die vorliegt. Tabachnick & Fidell (2001) schreiben dazu :
N>=50+8m, wenn man R² testen will und
N>=104+m wenn man individuelle Prädiktoren auf Signifikanz testen will (wobei m für die Anzahl der unabhängigen Variablen steht)
- um die Richtung des Zusammenhangs zu sehen, kannst du entweder die Beta-Koeffizienten oder die Partialkorrelation (unter Partial in der Koeffiziententabelle) anschauen. Letztere entspricht einer Korrelation zwischen abhängiger und der entsprechenden unabhängigen Variable unter Kontrolle der anderen unabhängigen Variablen