Hallo, ich bin am verzweifeln, meine Hypothese ist, das es keine Unterschiede bei den Mittelwerte von zwei Gruppen gibt.
Ich habe mit SPSS Anova, t-test etc. gemacht und es gibt keine signifikanten Unterschied- so weit so gut.
Meine H0 Hypothese "es gibt keine Unterschiede“ kann also nicht angelehnt werden.
Ich glaube aber verstanden zu haben, dass eine nicht angelehnte H0 Hypothese eben keine Bestätigung der H0 Hypothese ist.
Wie prüft Frau H1= „Es gibt keinen signifikanten Unterschied der Mittelwerte“
Wenn H0= „Es gibt einen signifikanten Unterschied“ ist?
1001 Dank
Hypothese "Mittelwerte zeigen KEINE Unterschiede"
-
- Beiträge: 1
- Registriert: 27.01.2011, 12:43
-
- Moderator
- Beiträge: 304
- Registriert: 17.01.2006, 19:20
@Judith ??? Wenn Dir die Antwort zu knapp ist, kannst Du das (höflich) schreiben und schauen, ob noch mehr von anderen Leuten kommt. Alles andere war hier wohl mehr als unnötig -> gelöscht.
Literatur?
Bücher zum Thema SPSS und Statistik (Amazon)
Bücher zum Thema SPSS und Statistik (Amazon)
-
- Beiträge: 2391
- Registriert: 06.02.2011, 19:58
RE
Du sprichst ein fundamentales Problem in der Statistik an: Nämlich die Auseinandersetzungen von Fisher (Fisher-Modell) und Neyman-Pearson (Neyman-Pearson Modell) im letzten Jahrhundert.
Fisher war der Meinung, man könne nur die Ausgangshypothese H0 ablehnen oder eben nicht. Neyman-Pearson hingegen waren an der Gegenhypothese interessiert.
Dieser Konflikt wird bei Gerd Gigerenzer: Reich des Zufalls [1] beschrieben (ebd. S.119 ff). Gelöst ist der Konflikt wohl nicht wirklich. Statt dessen werden (im Rahmen eines hybriden Modells) so genannte Teststärken berechnet (andere Begriffe: POWER, Macht, etc.). Das heißt, du gibst folgende Paramter vor:
1. Deinen Stichprobenumfang
2. Das Verfahren
3. Fehler erster Ordnung (i.d. Regel 0,05)
4. die relevante Effektgröße
5. Fehler zweiter Ordnung (meist 0,15)
So, dann läßt sich nach Cohen eine Power Analyse rechen, die angibt, mit welcher Wahrscheinlichkeit (1-beta) eine bestimmte Effektgröße abgesichert werden kann.
Oder man berechnet sich nach Vorgabe von 1-5 einen optimalen Stichprobenumfang.
SPSS bietet dafür das Modul SamplePower. Andere Programme wie S-Plus und wohl auch R haben das bereits integriert.
Gruß
[1]
http://www.amazon.de/Das-Reich-Zufalls- ... 518&sr=8-1
Fisher war der Meinung, man könne nur die Ausgangshypothese H0 ablehnen oder eben nicht. Neyman-Pearson hingegen waren an der Gegenhypothese interessiert.
Dieser Konflikt wird bei Gerd Gigerenzer: Reich des Zufalls [1] beschrieben (ebd. S.119 ff). Gelöst ist der Konflikt wohl nicht wirklich. Statt dessen werden (im Rahmen eines hybriden Modells) so genannte Teststärken berechnet (andere Begriffe: POWER, Macht, etc.). Das heißt, du gibst folgende Paramter vor:
1. Deinen Stichprobenumfang
2. Das Verfahren
3. Fehler erster Ordnung (i.d. Regel 0,05)
4. die relevante Effektgröße
5. Fehler zweiter Ordnung (meist 0,15)
So, dann läßt sich nach Cohen eine Power Analyse rechen, die angibt, mit welcher Wahrscheinlichkeit (1-beta) eine bestimmte Effektgröße abgesichert werden kann.
Oder man berechnet sich nach Vorgabe von 1-5 einen optimalen Stichprobenumfang.
SPSS bietet dafür das Modul SamplePower. Andere Programme wie S-Plus und wohl auch R haben das bereits integriert.
Gruß
[1]
http://www.amazon.de/Das-Reich-Zufalls- ... 518&sr=8-1
drfg2008