Reliabilitätsanalyse

Fragen und Diskussionen rund um die Arbeit mit SPSS. Für allgemeine Statistik-Themen, die nicht mit SPSS zusammenhängen, bitte das Statistik-Forum nutzen.
Antworten
Espeeses
Beiträge: 6
Registriert: 12.05.2008, 23:34

Reliabilitätsanalyse

Beitrag von Espeeses »

Salü,

ich glaub die meisten Leute, die hier schreiben, kennen eher das Problem mangelnder Reliabilität, so nach dem Motto: ich hab 7 Indikatoren und einer will nicht so recht einpassen, ich will ihn aber drinhaben, wie kann ich dass trotz Alpha-Wert unter .8 begründen oder im weniger drastischen Falle: trotz schlechter Trennschärfewerte usw. ...

Bei mir ist es andersrum.

Ich habe zu einem bestimmten Aspekt 7 Indikatoren erfragt, über Faktoranalyse ergeben diese ein sehr gutes Modell (außer 2 davon, die ergeben nur ein Gutes). Und genau hier kommt das Problem: diese zwei hätte ich gern draßen.

Mache ich anschließend eine Reliabilitätsanalyse, ist das Alpha irgendwo bei .843 (die Trennschärfewerte für 5 Items sehr gut, für besagte 2 gut).
Iteriere ich nun die Reliabilitätsanalyse ohne diese Items erhalte ich ein Alpha von .851. Das ist natürlich minimal besser, aber jetzt nicht soviel besser, dass man eine wirklich gute Begründung hätte, die 2 Items rauszuschmeißen.
Inhaltlich kann man den Rausschmiss einigermaßen gut begründen, die statistischen Zahlen sprechen eben leider etwas dagegen.

Hatte jemand von euch schon mal so eine Situation und wenn ja, wie wurde das Problem gelöst?

Liebe Grüße

Espeeses
KarinJ
Beiträge: 939
Registriert: 13.05.2008, 10:52

Beitrag von KarinJ »

hallo,

ich kenne keine regel, die sagt, was ein substanzieller zugewinn an reliabiltität wäre, so dass man damit den verbleib oder den ausschluss von items aus einer skala begründen könnte.

daher würde ich einfach sagen: die skala hat ohne die items ein besseres alpha und daher werden sie eliminiert. dies würde ich als unterstützung der inhaltlichen begründung des ausschlusses verwenden. und als weiteres argument würde ich ökonomie anführen: man will ja meistens mit eher weniger items messen und zeit,... sparen.

ausserdem hängen die anzahl der items und das alpha zusammen: je mehr items, desto höher alpha. irgendwo im bortz oder bortz und döring steht, dass schon bei 10 items aufgrund der anzahl die homogenität der items gemessen mit alpha deutlich überschätzt wird im vergleich zur durchschnittlichen korrelation aller items. vielleicht wäre das auch noch ein unterstützendes argument, d.h. dass der unterschied in der homogenität zwischen 7 und 5 items größer ist als die betragsmässige differenz .von .843 zu .851.
Noonen
Beiträge: 818
Registriert: 26.09.2006, 14:52

Beitrag von Noonen »

ich würde die items auch rausnehmen. wenn du inhaltlich argumentieren kannst, dann reicht das!

g.
patrick
Espeeses
Beiträge: 6
Registriert: 12.05.2008, 23:34

Beitrag von Espeeses »

Danke für die Antworten....

Letztlich werde ich es mit meinem Prof. klären müssen, aber ich bin superdankbar für Antworten, die meine Argumentation (ihm gegenüber) stützen könnten....


Lieber Gruß

Espeeses
Anzeige:Statistik und SPSS: Die besten Bücher
Als Buch oder E-Book - Jetzt bestellen
spss datenanalyse
SPSS - Moderne Datenanalyse - Jetzt bestellen!
statistik datenanalyse
Statistik - Der Weg zur Datenanalyse - Jetzt bestellen!
Antworten