Rechenverfahren bei der Verletzung eines Gütekriteriums

Fragen und Diskussionen rund um die Statistik und deren Anwendung.
Antworten
lars96
Beiträge: 8
Registriert: 30.12.2021, 22:48

Rechenverfahren bei der Verletzung eines Gütekriteriums

Beitrag von lars96 »

Hallo zusammen!

Ich schreibe aktuell an meiner Bachelorarbeit und bin dabei auf ein Problem gestoßen.
Bei meinem Versuchsdesign handelt es sich um ein mixed-Design, ich habe sowohl between- als auch within-subjects, da ich eine Experimental- und eine Kontrollgruppe habe, sowie eine Pre- und eine Post-Messung.
Die Entwicklung meines Fragebogens war eher explorativ und bei der Auswertung meiner Daten hat die Faktorenanalyse ergeben, dass meine Items nicht besonders gut differenzieren auf die gewünschten Faktoren.

Zusätzlich wollte ich eine mixed ANOVA rechnen, weil das wie ich es verstanden habe, am meisten Sinn machen würde bei meinem Versuchsdesign. Dabei hat sich gezeigt, dass keine Normalverteilung herrscht, womit eine Voraussetzung für die mixed ANOVA verletzt wäre.

Kann mir jemand sagen, welche weiteren statistischen Verfahren für mich in Frage kommen würden?
Ich habe bereits von Bootstrapping gehört, ist das eine Option?
Und welche anderen Möglichkeiten hätte ich nun weiterzurechnen um zu überprüfen ob ich eine meiner Hypothesen bestätigen kann?
dutchie
Beiträge: 2767
Registriert: 01.02.2018, 10:45

Re: Rechenverfahren bei der Verletzung eines Gütekriteriums

Beitrag von dutchie »

hallo lars,

also ich würde erstmal so rechnen als ob nichts wäre
und alle Vorrausetzungen erfüllt wären, das ist auch
ein Frage der darstellung, und ein Frage davon, ob das überhaupt
problematisch ist,
was heißt Verletzung der NV? Gruppen? also NV der Fehler! Stichprobengröße usw...

dann reichst du eine alternative Berechnug nach, die ja nur den p Wert betrift
irgendwas mit bootstrap oder robust, kommt ja auch auf die software an,
in R gibt es da bestimmt einiges, dann kannst du das mit deinem ursprüglichen ANOVA
Ergebnis vergleichen...und wahrscheinlich feststellen, das da dasselbe rauskommt :(
viel geschrei um nix,

wechsel auf keinen Fall das skalenniveau, oder?...

Also wenn du jetzt R und bootstrap aufmachst handelst du dir eventuell mehr
Probleme ein als für eine BA nötig :(
...du kannst auch die hypotesen einzeln testen z.B nur E Gruppe vorher-nachher Vergleich
mit ordinalem Wilcoxon test, oder Vorzeichen test, das hat dann weniger teststärke,
wenn das z.B nicht sig ist brauchst du die Kontrollgruppe gar nicht heranzuziehen.

Ich würde das Vorgehen auch mit dem Betreuer besprechen...

gruß
dutchie
lars96
Beiträge: 8
Registriert: 30.12.2021, 22:48

Re: Rechenverfahren bei der Verletzung eines Gütekriteriums

Beitrag von lars96 »

Hey dutchie,
vielen Dank schon mal für deine Hilfe!

Ich habe bei meiner Pre- und Post-Messung untersucht ob es eine Normalverteilung gibt (gibt es nicht) und bei einer weiteren Variable, bei der ich das auch nicht bestätigen konnte. Dh in meinem Fall gab es zu viele Ausreißer unter den Teilnehmer*innen.

Ich habe auch mal einfach weitergerechnet mit der mixed ANOVA und wie vermutet kam da raus, dass keine Effekte erzielt werden konnten.
Ich frage mich jetzt nur, ob es z.B. Quellen gibt die bestätigen, dass das bei der mixed ANOVA nicht so wild ist, leider werde ich dazu nicht fündig.

Für die Bachelorarbeit muss SPSS genutzt werden, leider nicht R... bei SPSS gibt es keinen Button mit "Bootstrap" bei der mixed ANOVA, das heißt da komme ich nicht so richtig weiter.

Tranformieren der Skalenniveaus wird voraussichtlich nicht so viel bringen glaube ich, die waren ja ganz normal codiert von stimme überhaupt nicht zu bis stimme voll und ganz zu, 1-5.

Mein Betreuer hatte mir empfohlen mal zu schauen was es für Möglichkeiten gibt, wenn die NV nicht gegeben ist. Ein Beispiel wären "robustere" Tests, nicht-parametrische Tests z.B.
Wenn ich es richtig verstehe wird von mir bei der BA verlangt, dass ich zumindest mal ein weiteres Verfahren anwende, das etwas mehr ab kann und z.B. keine Normalverteilung verlangt, um zu schauen ob ich darüber vielleicht doch meine Hypothesen bestätigen kann.

Hast du da vielleicht eine Idee? Ich stecke ein wenig fest und finde nicht so wirklich robuste Tests für mixed Designs wie bei mir....

Und meinst du mit Hypothesen einzeln testen dass ich mir zb den vorher-nachher Wert meiner einen Gruppe anschaue, dann den meiner anderen Gruppe und dann per Augenmaß schaue wie der Unterschied ist? Sorry für die vielen Rückfragen
dutchie
Beiträge: 2767
Registriert: 01.02.2018, 10:45

Re: Rechenverfahren bei der Verletzung eines Gütekriteriums

Beitrag von dutchie »

Hallo lars,

erstmal sie UNI gibt das softwarepaket an sich nicht vor!!!
und wenn dürfte sie das nicht, und wenn wozu?
Die könnte dir auch nicht vorschreiben WORD zu benutzen
oder mit den Fingern zu rechnen..

Wicoxon wäre non parametrisch, und weniger ausreißeranfällig
das gibt es aber nicht zweifaktoriell!

du berichtest die normalen Mittelwert plus Median und machst Wicoxon.
du kannst auch einen neue Variable bilden = vorher minus nachher
die beschreibt dann den Effekt, bzw. die Wechslewirkung
mit dieser Variable macht du Wilcoxon und stellst fest, das es im effekt
zwischen den Gruppen keinen Unterschied gibt.

Du kannst auch überlegen die Ausreißer zu eliminieren
die sind sowieso wichtiger als NV, hängt zusammmen ja,
aber wie sind die Ausreißer erklärbar?
Vermutlich waren deine Items nicht optimal, zu leicht oder zu
schwierig, sodass du in der Messung nicht hinreichend differenzierst.

Nicht transformieren!
lars96 hat geschrieben:
01.01.2022, 20:02
ich frage mich jetzt nur, ob es z.B. Quellen gibt die bestätigen, dass das bei der mixed ANOVA nicht so wild ist, leider werde ich dazu nicht fündig.
das Netz (WIKI oder Statistikguru) ist da keine Quelle, es sei denn die geben Literatur an,
du musst schon mal in irgendein Buch schaun, BORTZ, da steht was dazu....

Also mit ANOVA normal
plus non parametrisch Wilcoxen
plus Ausreißerdiskussion, eliminieren oder gar neue Gruppe?
hast du genug Stoff für eine BA.
lars96 hat geschrieben:
01.01.2022, 20:02
um zu schauen ob ich darüber vielleicht doch meine Hypothesen bestätigen kann.
Du darfst halt nicht so denken, wie es oft geschieht, dass der Sig Test dir die
Entscheidung abnimmt, die Sig ist immer irgendwie falsch berechnet!!
Der Sig Test ist dir nur ein tool, auf basis von Allem triffst du aber deine
Entscheidung, nach oder in der Diskussion, wie mit die Hypos zu verfahren ist.
Da kann dann auch stehen, dass keine Entscheidung zu treffen ist, weil der Fragebogen
Murks war, !!das sollte da natürlich nicht so stehn!!!.
Und es ist auch ganz falsch!!! wichtig!! sein Hypos bestätigen zu wollen!!
wenn das irgendwie durchschimmert, bist du wissenschaftlich gleich unten durch!!
Immer maximal selbstkritisch, dafür gibts dann die 1.0 nicht dafür, dass die Hypos sig sind!
An einer normalen UNI ist das so.

gruß
dutchie
Anzeige:Statistik und SPSS: Die besten Bücher
Als Buch oder E-Book - Jetzt bestellen
spss datenanalyse
SPSS - Moderne Datenanalyse - Jetzt bestellen!
statistik datenanalyse
Statistik - Der Weg zur Datenanalyse - Jetzt bestellen!
Antworten