Regression - positive Korrelation aber negatives Beta

Fragen und Diskussionen rund um die Statistik und deren Anwendung.
Antworten
nippie
Beiträge: 2
Registriert: 02.03.2011, 13:00

Regression - positive Korrelation aber negatives Beta

Beitrag von nippie »

Hallo Forenuser,

ich habe ein Problem bei einer Auswertung, dass meinen (nicht allzu hohen) Horizont übersteigt und hoffe, dass mir das jemand erklären kann.
Ich untersuche im Rahmen einer Masterarbeit die Nutzung von Cloud Computing mit Hilfe des sog. "Technology Acceptance Model". Das Modell kann Aussagen darüber treffen ob und warum Personen eine Technology nutzen

Eine Übersicht über das Modell findet ihr hier:
http://www.vvenkatesh.com/Research/IT%20Images/TAM2.gif

Dort gibt es wie ihr sehen könnt die Variable Perceived Usefulness (wahrgenommener Nutzen). Diese Variable wird durch die Variablen Social Norm (SN), Image (I), Job Relevance (JR), Output Quality (OQ), Result Demonstrability (RD) und Perceived Ease of Use (PEU) beeinflusst bzw. erklärt. Dem Modell zu Folge ist der Einfluss jeder Einzelvariablen auf die Perceived Usefulness positiv.

Nun zu meinem Problem:

Wie zu erwarten war korrelieren die einzelnen Variablen positiv mit der Perceived Usefulness:

SN: ,568
I: ,521
JR: ,679
OQ: ,896
RD: ,562
PEU: ,401

Alle Korrelationen sind auf dem Niveau 0,01 signifikant.

Um das Modell nun zu prüfen habe ich eine multiple Regressionsanalyse gemacht und komme dabei zu folgendem Ergebnis:

http://img850.imageshack.us/i/bildschir ... 0302u.png/


Wie ihr seht sind die Koeffizienten und das Beta bei SN, RD & PEU negativ, trotz positiver Einzelkorrelation. Auch sind die Signifikanzen unter aller Sau. Nur Output Quality gibt ein zufriedenstellendes Ergebnis. Wie kann so etwas sein? Ich kann mir das nicht erklären :(
Fafnyr
Beiträge: 2
Registriert: 02.03.2011, 10:27

Beitrag von Fafnyr »

Ich glaube, sowas resultiert aus Multikollinearität deiner Variablen, d.h. wenn deine Variablen untereinander korrelieren.
nippie
Beiträge: 2
Registriert: 02.03.2011, 13:00

Beitrag von nippie »

Über dieses Problem habe ich gerade etwas gelesen, als du gepostet hast. Das trifft in meinem Fall zumindest teilweise leider zu :-(
Silversurfer
Beiträge: 165
Registriert: 05.07.2009, 21:10

Beitrag von Silversurfer »

Hallo,

hier sind ein paar mögliche Ursachen dafür, dass sich die Ergebnisse der Korrelation von denen der Regression unterscheiden:

- es sind zwei unterschiedliche Rechenverfahren. Keine Ahnung welche Korrelation du berechnet hast, falls es aber eine bivariate Korrelation war (in der nur der Zusammenhang zwischen zwei Variablen betrachtet wird), ist es klar, dass die Ergebnisse eines multivariaten Verfahrens wie einer linearen Regression (in der der Einfluss anderer Variablen auf den Zusammenhang dieser beiden Variablen kontrolliert wird) anders ausfallen

- Multikollinearität: Varianzinflationsfaktor und Toleranz zusätzlich betrachten und kritische Schwellenwerte berücksichtigen (größter VIF < 10; Toleranz > 0.1)

- verzerrte Ergebnisse aufgrund einer zu kleinen Stichprobe. Es gibt unterschiedliche Richtlinien der Stichprobengröße für Regressionen. Möchtest du aber die Relevanz einzelner Prädiktoren berücksichtigen, müssten zumindest 100 bis 110 in deiner Stichprobe sein. Die Freiheitsgrade in deiner Rechnung deuten aber auf weniger hin. Allerdings führen zu kleine Stichproben gewöhnlich eher zu Ergebnissen, die besser erscheinen als sie tatsächlich sind. Das Modell überschätzt den tatsächlichen Zusammenhang

Es gibt noch weitere Voraussetzungen, die bei einer linearen Regression überprüft werden sollten (z.B. keine Autokorrelation der Residuen, lineare Beziehung zwischen Prädiktoren und abhängiger Variable). Aber ich denke, der Unterschied zwischen bivariater Korrelation und multipler linearer Regression ist auch so deutlich geworden.
drfg2008
Beiträge: 2391
Registriert: 06.02.2011, 19:58

re

Beitrag von drfg2008 »

Hallo nippie,

du hast ja mit [1] ein kunterbuntes, fröhliches Lineares Strukturgleichungsmodell aufgebaut, wie man sie aus den Marketing-Milieus kennt. Viele Anglizismen und wenig geistige Tiefe. Dein Regressionsmodell prüft jedenfalls nicht das lineare S-G-M des dargestellten Modells. Das geht nur über Programme wie AMOS -ehemals LISREL- oder dergleichen. Außerdem fehlen in den Darstellungen die Kovarianzen. Einzelne Zusammenhänge (hier als Pfeil dargestellt) sind nicht klar und greifen irgendwie ineinander (Pfeil auf Pfeil). Andere werden als kausale Zusammenhänge dargestellt, was in einem LISREL aber als Kovarianz dargestellt werden müsste. Außerdem sind im Reg.Modell fast alle UVs nicht sig., nur Output Quality. Und ob Social Norm, Result ... und Perceived ... negative Vorzeichen haben, ist völlig wurscht. Denn sie sind nahe Null und nicht sig. Und das rührt wahrscheinlich daher, dass immer wieder das Gleiche getestet wird, alles kovariiert eben. Und in der Regression wird nur eine dieser stark kovariierenden Variablen sig. Damit hast du eigentlich das Modell widerlegt, oder wenigstens als vielfach redundant "geoutet". Es besteht demnach ein ganz simpler Zusammenhang: Je höher die "Output Quality", desto höher die "korrigierte Perceived Usefulness". Was immer das auch ist.

Und ob das Modell überhaupt eine Nutzung vorhersagen kann, würde ich bezweifeln. Denn dafür bräuchtest du ein probabilistisches Modell von der Sorte etwa einer Diskriminanzanalyse (Zuordung zu Gruppen: User/Nicht-User) mit Wahrscheinlichkeiten (0<p<1).


Das Modell kann also keine Aussagen darüber treffen
ob und warum Personen eine Technology nutzen
Best Regards


[1]

http://www.vvenkatesh.com/Research/IT%20Images/TAM2.gif

http://img850.imageshack.us/i/bildschir ... 0302u.png/
drfg2008
Anzeige:Statistik und SPSS: Die besten Bücher
Als Buch oder E-Book - Jetzt bestellen
spss datenanalyse
SPSS - Moderne Datenanalyse - Jetzt bestellen!
statistik datenanalyse
Statistik - Der Weg zur Datenanalyse - Jetzt bestellen!
Antworten