Question | Answer |
Ziel der Inferenzstatistik | Schlüsse von einer Stichprobe auf Population zu ziehen sowie Aussagen über die Güte der Schlüsse |
wie kann man sicherstellen, dass Ergebnis einer Stichprobe auf Population verallgemeinert werden kann | - Metaanalysen - Berücksichtigung der Wahrscheinlichkeit, dass die Bestimmung des Ergebnisses aus der Stichprobe falsch ist -->wird bei der Darstellung mit angegeben |
Stichprobenverteilung | = Streuung der Mittelwerte aus einzelnen Stichprobe = zeigt, mit welcher Wahrscheinlichkeit ein Ergebnis erwartet werden kann =wichtigste Grundlage der Inferenzstatistik |
Unterschiede der Stichprobenverteilung zur Häufigkeitsverteilung | - Werte der Verteilung müssen nicht der Skala entsprechend (da sie Mittelwerte sind) - Y-Achse: Anzahl der Stichproben / Wahrscheinlichkeit - Werte in der Mitte kommen häufigst vor (da Mittelwerte der Studien), Randwerte eher selten |
theoretische Stichprobenverteilung | = Verteilung aufgrund Ergebnisse einer Stichprobe --> durch deren Kennwerte wird die Stichprobenverteilung am PC simuliert |
zentraler Grenzwertsatz | = Verteilung einer großen Anzahl von Stichproben folgt immer der Normalverteilung |
Vorteil von steigender Stichprobengröße | Streuung der Stichprobenverteilung sinkt -->es lässt sich eine bessere Schätzung für die Population ableiten |
Kennwerte von Stichprobenergebnisse der Inferenzstatistik | - Kennwerte der Lage und Streuung (Mittelwert) - Kennwerte bzgl. Unterschied zwischen Gruppen (Mittelwertsunterschiede) - Kennwerte, die Zusammenhang zwischen Variablen beschreiben (Korrelation) |
Standardfehler s(e) | = Standardfehler des Mittelwertes = Standard-abweichung der Stichprobenverteilung = durchschnittlicher Unterschied zwischen den geschätzten Mittelwert einzelner Stichproben und dem tatsächlichen Mittelwert |
Populationsstreuung | = Formel für SD in der Population = exaktere Schätzung als mit der Formel für den Standardfehler |
Konfidenzintervalle / Vertrauensintervalle | = Wertebereich, bei dem wir darauf vertrauen, dass sich der wahre Wert in der Population mit der Vertrauenswahrscheinlichkeit deckt |
Vertrauenswahrscheinlichkeit | = gewünschte Güte des Intervalls -ist die Wahrscheinlichkeit,mit der darauf vertrauen können, dass ein bestimmtes Konfidenzintervall den wahren Wert in der Population überdeckt |
Konstruktion des Konfidenzintervall | 1. Vertrauenswahrscheinlichkeit festlegen 2. Stichprobe und Mittelwert erheben 3. Stichprobenverteilung konstruieren 4. Fläche der Vertrauenswahrscheinlichkeit markieren 5. Werte auf X-Achse, die über und unter der Fläche von 4. liegen, werden abgeschnitten --> Werte bilden unteren & oberen Grenze d. Konfidenzintervalls |
Festlegung der Vertrauenswahrscheinlichkeit | - Vertrauenswahrscheinlichkeit kann beliebig festgelegt werden, sollte aber nicht zu hoch sein, da sonst die Aussage ihren Wert verliert Normal: 90, 95, selten 99 % |
Vorteil des Konfidenzintervalls Interpretation | - Wahrscheinlichkeit der Güte einer Schätzung ist vorstellbar -Aber: nur Aussage über die Wahrscheinlichkeit der Korrektheit des Intervalls möglich -mittleren 90% d. Verteilung enthalten Werte, d. bei wiederholter Ziehung von Stichproben aus d. Population 90 von 100 Fällen gezogen würden |
Alternative Möglichkeit zur Erstellung der Konfidenzintervalle | - große Stichprobe (ab 30 P.): Standardnormalverteilung (Normalverteilung annähert, z-Werte)) - kleine Stichprobe: t-Verteilung |
t-Verteilung | - Mittelwert 0 - Streuung 1 - Form ist abhängig von der Stichprobengröße - symmetrische Verteilung |
Notwendige Werte für die t-Verteilung | - Freiheitsgrade (Stichprobengröße) |
Freiheitsgrade (df) | =Anzahl der Werte, die in einem statistischen Ausdruck frei variieren können (Summe sollte gegeben sein) |
Berechnung der oberen und unteren Grenze des Konfidenzintervalls mittels der t-Verteilung bei Mittelwerten | |
Vorteil von größeren Stichproben bei Konfidenzintervallen | - informativer Aussage, da die Grenzen des Intervalls näher zusammen rücken |
Standardfehler bei Anteilen | 1. Stichprobenverteilung bestimmen --> Binomialverteilung (bei zwei Ausprägungen) 2. Standardabweichung bestimmen (definiert durch n und Wahrscheinlichkeit p, mit der bestimmtes Ereignis zu erwarten ist) -->15%=> p=0,15 |
Risiken bei Hypothesentesten | - Verallgemeinerung auf die Population - Effekte entstanden durch Zufall -> nicht übertragbar auf Population |
vertrauensvolle Verallgemeinerung | - Berechnung von Standardfehler - Berechnung von Konfidenzintervallen - Durchführung von Signifikanztests |
Abhängige Messungen- gemessenen Werte stehen in Beziehung zu einander | - Messwiederholungen: within-subject-design: Personen durchlaufen beide Tests - gepaarte Stichproben: matching: Versuchsgruppen werden konstant gehalten, d.h. vergleichbare Personen mit gleichen Ausprägungen d. Störvariablen in Gruppe 1 und 2 |
unabhängige Messungen | = jede Messung wird in jeweiliger Stichprobe bzw. in einer eigenen Gruppe vorgenommen (Versuchsteilnehmer zufällig zugeordnet) - Between-subject-Design: Teilnehmer werden randomisiert und so den verschiedenen Versuchsgruppen zugeordnet |
Art der Messung bei Zusammenhangshypothesen | abhängige Messung --> es müssen beide Variablen an beiden Gruppen untersucht werden um Messwerte beiden Variablen zuordnen zu können und Streudiagramm erstellen zu können |
Standardfehler - s(e) - bei Hypothesentesten (Zusammenhänge & Unterschiede) | ist nicht alleine aussagekräftig! Zusätzlich noch Konfidenzintervall und Signifikanztest weil: es geht um Entscheidungen treffen, und da ist s(e) alleine nicht ausreichend -gibt den durchschnittlichen Fehler der Schätzung eines Mittelwertsunterschieds in der Population |
Standardfehler für Mittelwertsunterschiede bei unabhängigen Messungen | = berechnet aus der Streuung der einzelnen Stichproben Berücksichtigt werden muss die Streuung jeder Stichprobe |
Gesamtstreuung (Standardfehler für Mittelwertsunterschied bei unabhängigen Messungen) | = Fehlerstreuung (Streuung innerhalb der Gruppen) + systematische Streuung (Streuung zwischen den Gruppen) |
Fehlerstreuung (Standardfehler für Mittelwertsunterschied bei unabhängigen Messungen) | = Streuung ohne erkennbaren systematischen Grund, die die Messwerte variieren lässt --> schmälert Bedeutsamkeit des gefundenen Effekts (bei großer Fehlerstreuung kann Mittelwertsunterschied auch zufällig entstanden sein) = Streuung innerhalb der Gruppe |
systematische Streuung (Standardfehler für Mittelwertsunterschied bei unabhängigen Messungen) | = Streuung zwischen den Gruppen = ergibt sich durch den Mittelwertsunterschied = interessanter Effekt |
Standardfehler für Mittelwertsunterschiede bei abhängigen Messungen | Differenz der Messwerte relevant = Streuung innerhalb der Person ( diesebe Person zu zwei Messzeitpunkten) --> Durchschnitt aller Differenzen über alle Personen hinaus Differenz ist entscheidend |
Streuung der Differenz (Standardfehler für Mittelwertsunterschiede bei abhängigen Messungen) | |
Fehlerstreuung (Standardfehler für Mittelwertsunterschiede bei abhängigen Messungen) | besteht nur in der Streuung der Differenz --> Differenzen sollten gleich groß und gleiche Richtung haben. wenn nicht: Vergrößerung der Fehlervarianz --> gefundener Effekt weniger bedeutsam |
Korrelationskoeffizient bei Zusammenhänge | beschreibt die Enge des Zusammenhangs (r = groß --> Streuung klein) |
Standardfehler für Korrelationskoeffizient bei Zusammenhänge | r nahe 1 /-1 führt zu Standardfehler nahe 0 p=Population |
Regressionsgewicht b | = beschreibt den relativen Einfluss einer Variable X auf die andere Y = beschreibt den Anstieg der Regressionsgeraden aus einzelnem Regressionsgewicht kann nicht die Güte abgeleitet werden (da weitere Variablen Einfluss auf Variable Y haben können) |
Standardschätzfehler bei der Regression | wie stark streuen die Werte um die Regressionsgrade - beschreibt Ungenauigkeit wenn man Y-Werte aus X-Werte mithilfe der Regressiongeraden schätzt = Gütemaß für die Vorhersage |
Berechnung des Standardfehler aus dem Regressionskoeffizienten (also aus dem Standardschätzfehler) | Bezeichnung: SE |
Vorteile von Konfidenzintervalle | - leicht verständliche Angabe, ob Effekt durch Zufall entstand oder statistische Bedeutung hat |
Konfidenzintervalle für Mittelwertsunterschiede bei unabhängigen Stichproben | - Verwendung der Stichprobenverteilung von Mittelwertsunterschieden oder die t-Verteilung |
Der Wert 0 beim Konfidenzintervall für Mittelwertsunterschiede bei unabhängigen Stichproben | es gibt keinen Mittelwertsunterschied in der Population --> Hypothese verwerfen Gründe: - zu hohe Vertrauenswahrscheinlichkeit - Mittelwert nahe 0 (je kleiner der Effekt desto eher wird 0 Bestandteil des Konfidenzintervalls sein) |
Konfidenzintervall für Mittelwertsunterschiede bei abhängigen Stichproben | Andere Formel, gleiche Interpretation wie bei unabhängigen Stichproben |
Besonderheit des Korrelationskoeffizient bei Zusammenhänge | t-Verteilung ist nur symmetrisch, wenn r=0 --> r > 0 -> t-Verteilung unbrauchbar, da unsymmetrische Darstellung --> Nutzung der z-Verteilung |
Konfidenzintervalle für Korrelationskoeffizienten bei Zusammenhänge | werden meist nicht berechnet, wenn über z-Verteilung Ablauf: Korrelationskoeffizient in z-Wert umrechnen -> kritischen Wert für Intervallgrenzen ablesen --> Grenzen berechnen (siehe Formel) --> Umrechnung auf Korrelationskoeffizient |
Berechnung des Konfidenzintervall für Regressionsgewicht β bei unsymmetrischer Verteilung | |
Signifikanztests | Entscheidungshilfe bei Hypothesen es werden Hypothesen gegeneinander getestet (mind. zwei Hypothesen erforderlich) lässt keine Aussage über Wahrscheinlichkeit einer Hypothese zu! |
Grundlage der Signifikanztests | Stichprobenverteilungen (Verteilungen, die aus theoretischen Überlegungen erwachsen) |
Nullhypothese (H0) =zentrale Idee des Signifikanztests | = behauptet es gibt keinen Effekt in der Population -Gegenteil von Alternativhypothese (H1): unterstellt solchen Effekt in der Population -Alternativhypothese= Forschungshypothese (Hypothese ergibt sich aus Forschungshypothese, enthält eigentliche Forschungsfrage) --> Achtung bei Berechnung und Interpretation |
Stichprobenverteilung bei der Nullhypothese | Mittelwert = 0 |
p-Wert | = Wahrscheinlichkeit des gefundenen Effekts einer Stichprobe unter der Annahme, dass die Nullhypothese gilt |
Irrtumswahrscheinlichkeit α, auch als Signifikanzniveau / Alpha-Niveau bezeichnet | -Vor Durchführung d. Signifikanztests, erfolgt Festlegung der Irrtumswahrscheinlichkeit = diesen entspricht d .Wert für p, ab dem man die Nullhypothese nicht mehr akzeptiert - kleinere Werte = signifikant -> Ablehnung der Nullhypothese |
Alpha-Fehler | = legt das Niveau der Irrtumswahrscheinlichkeit fest = Risiko die Nullhypothese fälschlicherweise abzulehnen (irren in der Entscheidung d. Ablehnung) p < α Ergebnis ist signifikant = Ablehnung der Nullhypothese |
"Entstehung" des p-Wertes | t-Werte der Stichprobe = Mittelwert = 0 --> entspricht Verteilung der Nullhypothese --> p-Wert aus Verteilung ablesen |
Prüfverteilungen | - z-Verteilung (ist einzelner Wert signifikant, innerhalb einer Stichprobe einzelnen Wert bestimmen) - t-Verteilung (bei Mittelwertsunterschieden, Korrelationskoeffizienten und Regressionsgewichten) |
einseitige Tests | = Hypothese geht nur in eine Richtung - Effekt ist auf der rechten Seite der Nullhypothese zu finden -schließen Alpha-Fehler auf der linken Seite aus --> müssen keinen Signifikanztest machen, wenn Kontrollgruppe höhere Werte erzielt, da Hypothese bereits widerlegt ist |
zweiseitige Tests | = Richtung des Effekts ist unbekannt - Effekt kann auf beiden Seiten der t-Verteilung liegen --> Alpha-Fehler muss auf beide Seiten gleich aufgeteilt werden, dadurch wird es schwerer ein signifikantes Ergebnis zu erzielen |
Alternativhypothese | = unterscheidet sich um die Größe des erwarteten Effekts von der Nullhypothese H0 -beschreibt d. Effekt , den man als mind. oder interessanten Effekt für d. Population annimmt |
Verteilung der Alternativhypothese | -theoretische Verteilung bestimmbar durch: - Größe des interessanten Mindesteffekts - Effekte aus bereits durchgeführten Studien Überschneidung mit H0 |
Fehler erster Art | = Alpha-Fehler--> ist die Wahrscheinlichkeit, mit der wir beim Signifikanztest aufgrund eines Stichprobenergebnisses fälschlicherweise d. Alternativhypothese annehmen -Nullhypothese wird fälschlicherweise verworfen,obwohl in der Population gilt H0 -Interessante Teil der Verteilung: rechter Überschneidungsbereich |
Fehler zweiter Art | = Beta-Fehler-->Wahrscheinlichkeit im Signifikanztest, bei dem d. Alternativhypothese fälschlicherweise abgelehnt wird, obwohl in der Population gilt H1 (H0 wrd angenmmen) -Interessante Teil der Verteilung: linker Überschneidungsbereich |
Abwägung von Alpha- und Beta-Fehler | -Abhängig von der Fragestellung, relevant wenn Verteilungen sich stark überschneiden -beide Fehler haben andere inhaltliche Bedeutungen & Wichtigkeit hängt von d. jeweiligen Fragestellung ab |
Minimierung der Alpha- und Beta-Fehler | - Effekt in der Population ist groß, Verteiligungen liegen weit von einander entfernt & Überschneidung wird kleiner - größere Stichprobe -> Verteilung wird schmaler, geringe Überlappung |
Ablauf der Signifikanztest unter Berücksichtigung der Alternativhypothese | |
Hybrid-Vorgehensweise | = Alternativhypothese formulieren und Abwägung der Fehler erster und zweiter Art wird nicht gemacht -erhalten Handlungsoption, wenn Ergebnis nicht signifikant ist -> H0 stimmt |
Einflussgrößen auf Signifikanztests | - Größe des Populationseffekts (kenne d. Größe nicht) - Stichprobengröße (Einfluss auf d. Breite d. Stichprobenverteilung) - Alpha-Niveau (entscheidet, ob Ergebnis signfikant o. nicht ist) |
Kritik an Signifikanztests | - aus Signifikanztest kann die Größe eines Effektes in der Population nicht geschätzt werden --> inhaltliche Bedeutung ebenfalls nicht erkennbar -sehr theoretisches Testverfahren |
Zusätzlich notwendige Angaben zu Signifikanztests | - Konfidenzintervalle - Effektgrößen |
Effektgröße (Maß) | = standardisierte Effekte, welche die Stichprobengröße berücksichtigen --> sind über Stichproben und Themenbereiche hinweg vergleichbar |
Möglichkeiten der Berechnung der Effektgrößen | - aus Rohdaten - aus anderen Effektgrößen - aus Signifikanztestergebnissen |
Effektgrößen aus Rohdaten | - bei unabhängigen Messungen - bei abhängigen Messungen - für Zusammenhänge (Korrelationskoeffizient) |
Abstandsmaß d (bei unabhängigen Messungen) | repräsentieren den Abstand der Mittelwerte --> Effektgröße erhöht sich, wenn Streuung kleiner wird |
Streuung für Abstandsmaß nach Cohens (bei unabhängigen Messungen) | -Stichproben-streuung -S²A= SD von A (Versuchsgrupe) &S²B=SD von B (Kontrollgruppe) |
Alternative zum Abstandsmaß (bei unabhängigen Messungen) | = Hedges' (g) aus Populationsstreuung -liefert exaktere Schätzungen als d |
Berechnung von Hedges bei unabhängigen Messungen | Populationsstreuung bestimmen |
Abstandsmaß d bei abhängigen Messungen | |
Hedges g bei abhängigen Messungen | |
Überführung Unterschieds- und Zusammenhangsfragen bei Effektgrößen | n = ist Gesamtstichprobe Freiheitsgrade = n - k (Anzahl der Gruppen) |
Berechnung Korrelation aus Abstandsmaßen | nur bei gleicher Stichprobengröße |
Berechnung Abstandsmaße aus Korrelation | |
Effektgröße aus Signifikanztestergebnissen | Signifikanztestergebnis = Prüfgröße Größe der Studie = mithilfe der Freiheitsgrade |
Interpretation von Effektgrößen | - Abhängig von der Fragestellung - Anwendung von Konventionen -Unterschied von r im höheren Wertebereich viel bedeutender -d,g & r: Grenzen zwischen 1 & -1 |
Grundgesamtheit (Population) | -Gruppe von Menschen, für die eine Aussage zutreffen soll, i.d.R. alle Menschen -manchmal ist die Grundgesamtheit eine spezifische Gruppe, z.B. Jugendliche in Bezug auf Computerspiele & Gewalt |
Metaanalyse = Analyse aus vielen Analysen | -verschiedene Forscher führen zur selben/ähnlichen Fragestellung Studien durch--> eher Ausnahme -Ergebnisse werden gesammelt & durchschnittlicher Effekt wid bestimmt -gute Schätzung für wahre Verhältnisse in der Population Güte der Schätzung steigt mit der Anzahl der Studien |
empirische Stichprobenverteilung | -Kennwerte einzelner Stichproben in einer neuen Verteilung abgetragen -ergibt sich aus tatsächlich erhobenen Daten -Ergebnis vieler Studien liefert bessere Schätzung als Ergebnis einzelner Studie |
Stichprobenverteilung im Detail | =mit welcher Wahrscheinlichkeit ein bestimmtes Ergebnis zu erwarten ist -X-Achse=mögliche Werte, die man in d. Population finden kann & auf d. Y-Achse d. Wahrscheinlichkeit den entsprechenden Wert zu ziehen -bestimmte Fläche unter d. Verteilung entspricht d. Wahrscheinlichkeit, mit d. die Werte innerhalb dieser Fläche zu erwarten sind |
Standardfehler- Symbole | -Ô=geschätzte Streuung für d. Poulation - X=Mittelwert -ÔX= Standardfehler |
Benutzung der Tabelle der t-Verteilung | -bei Freiheitsgrade nachschauen (df=20-1=19) -Vertrauenswahrscheinlichkeit von 95%, von jeder Seite 2,5% abschneiden, ergibt Flächenanteil von 0,975 -somit beträgt der t-Wert 2,093 -z-Tabelle: df unrelevant, nur 0,975 wichtig |
Berechnung des Konfidenzintervalls bei Anteilen | -Binominalverteilung geht bei sehr kleinen in Standardnormalverteilung über -->daher häufige Nutzung -z-Wert wird aus der Tabelle abgelesen |
Beurteilung Standardfehler für Anteile | -durchschnittlicher Fehler, der bei der Verallgemeinerung des Stichprobenergebnisses auf die Population -Größe des Standardfehler--> die Schätzung ist mit eine durchschnittlichen Fehler von 3,57 % behaftet |
Hypothesentesten allgemein | -Hypothesen beziehen sich auf Zusammenhänge zwischen Variablen oder Unterschiede zwischen bestimmten Gruppen, mind. zwei Messungen -Hypothesen=Aussagen, die aus einer Theorie ableiten lassen -manchmal ist es eine Fragestellung(nicht aus Theorie abgeleitet) zum Unterschied o. Zusammenhang |
Unterschiedshypothesen und Zusammenhangshypothesen | -Unterschied in der Lage zweier Gruppen/ Stichproben-->Lage=Mittelwert gemeint; Mittelwertsunterschied -beziehen sich auf d. Zusammenhang zweier Variablen-->damit ist Korrelation zweier Variablen gemeint |
Was ist ein Effekt? | -bezeichnet eine Wirkung (Effekt) einer unabhängigen auf eine abhängige Variable -lassen sich in Form von Unterschieden o. Zusammenhängen beinhalten, z.B. Unterschied des Glückempfindens beider untersuchten Gruppen |
Streuung der Differenz (Standardfehler für Mittelwertsunterschiede bei abhängigen Messungen) - Erläuterung der Berechnung | -zuerst von jedem Differenzwert diffi den Mittelwert aller Differenzwerte abziehen und diese Differenen quadrirt (Xdiffi-_Xdiff)² -und das für jedes Messpaar, also n Mal (n=Anzahl d. Messpaare) & summiert alle Werte auf & teil es durch n-1 |
Standardfehler für Mittelwertsunterschiede bei abhängigen Messungen - Formel | Ôdiff Ô⨱diff=_____________ √n Standardfehler des Mittelwertsunterschiedes kann aus der Streuung berechnet werden |
Alpha-Fehler im Detail | -alle Ergebnisse d. Stichprobe, deren Wahrscheinlichkeit p kleiner als 5 % ist, führt zur Ablehnung Nullhypothese -um Irrtumsrisiko zu minimieren, wird Alpha meist auf 5% o. 1 % festgelegt |
Einseitig & zweiseitige Tests | -Häufikeiten & Varianzen können nicht negativ sein & Tests sind daher einseitig -bei Mittelwertsunterschieden von zwei Messungen, kann eine Hypothese über die Richtung des Unterschiedes anzugeben |
Effektgröße für Zusammenhänge | -rxy= cov / SxSy -Kovarianz beider Variablen durch gemeinsame Streuung d. Variablen geteilt -im Korrelationskofffizienten ist Effektgröße bereits vorhanden |
Want to create your own Flashcards for free with GoConqr? Learn more.