Salü,
ich glaub die meisten Leute, die hier schreiben, kennen eher das Problem mangelnder Reliabilität, so nach dem Motto: ich hab 7 Indikatoren und einer will nicht so recht einpassen, ich will ihn aber drinhaben, wie kann ich dass trotz Alpha-Wert unter .8 begründen oder im weniger drastischen Falle: trotz schlechter Trennschärfewerte usw. ...
Bei mir ist es andersrum.
Ich habe zu einem bestimmten Aspekt 7 Indikatoren erfragt, über Faktoranalyse ergeben diese ein sehr gutes Modell (außer 2 davon, die ergeben nur ein Gutes). Und genau hier kommt das Problem: diese zwei hätte ich gern draßen.
Mache ich anschließend eine Reliabilitätsanalyse, ist das Alpha irgendwo bei .843 (die Trennschärfewerte für 5 Items sehr gut, für besagte 2 gut).
Iteriere ich nun die Reliabilitätsanalyse ohne diese Items erhalte ich ein Alpha von .851. Das ist natürlich minimal besser, aber jetzt nicht soviel besser, dass man eine wirklich gute Begründung hätte, die 2 Items rauszuschmeißen.
Inhaltlich kann man den Rausschmiss einigermaßen gut begründen, die statistischen Zahlen sprechen eben leider etwas dagegen.
Hatte jemand von euch schon mal so eine Situation und wenn ja, wie wurde das Problem gelöst?
Liebe Grüße
Espeeses
Reliabilitätsanalyse
-
- Beiträge: 939
- Registriert: 13.05.2008, 10:52
hallo,
ich kenne keine regel, die sagt, was ein substanzieller zugewinn an reliabiltität wäre, so dass man damit den verbleib oder den ausschluss von items aus einer skala begründen könnte.
daher würde ich einfach sagen: die skala hat ohne die items ein besseres alpha und daher werden sie eliminiert. dies würde ich als unterstützung der inhaltlichen begründung des ausschlusses verwenden. und als weiteres argument würde ich ökonomie anführen: man will ja meistens mit eher weniger items messen und zeit,... sparen.
ausserdem hängen die anzahl der items und das alpha zusammen: je mehr items, desto höher alpha. irgendwo im bortz oder bortz und döring steht, dass schon bei 10 items aufgrund der anzahl die homogenität der items gemessen mit alpha deutlich überschätzt wird im vergleich zur durchschnittlichen korrelation aller items. vielleicht wäre das auch noch ein unterstützendes argument, d.h. dass der unterschied in der homogenität zwischen 7 und 5 items größer ist als die betragsmässige differenz .von .843 zu .851.
ich kenne keine regel, die sagt, was ein substanzieller zugewinn an reliabiltität wäre, so dass man damit den verbleib oder den ausschluss von items aus einer skala begründen könnte.
daher würde ich einfach sagen: die skala hat ohne die items ein besseres alpha und daher werden sie eliminiert. dies würde ich als unterstützung der inhaltlichen begründung des ausschlusses verwenden. und als weiteres argument würde ich ökonomie anführen: man will ja meistens mit eher weniger items messen und zeit,... sparen.
ausserdem hängen die anzahl der items und das alpha zusammen: je mehr items, desto höher alpha. irgendwo im bortz oder bortz und döring steht, dass schon bei 10 items aufgrund der anzahl die homogenität der items gemessen mit alpha deutlich überschätzt wird im vergleich zur durchschnittlichen korrelation aller items. vielleicht wäre das auch noch ein unterstützendes argument, d.h. dass der unterschied in der homogenität zwischen 7 und 5 items größer ist als die betragsmässige differenz .von .843 zu .851.