Question | Answer |
Multivariate lineare Regression | Verfahren zur Prüfung des gemeinsamen linearen Einflusses mehrerer unabhängiger Variablen auf eine metrische abhängige Variable |
Multivariate lineare Regression 2 | Erklärung der Variabilität einer abhängigen Größe durch (mehrere) Einflussgrößen 1. Formulierung eines plausiblen Modells für die Wirkung der Einflussgrößen auf die abhängige Größe, 2. Quantifizierung der Wirkung von Einflussgrößen, 3. Bestimmung der statistischen Signifikanz von Effekten, 4. Voraussage der abhängigen Größe bei neuen Beobachtungen |
Multivariate Regression | Formulierung des Modells Schätzung der Regressionsfunktion Prüfung der Regressionsfunktion |
Plausibilität | ausschließlich fachliche Gesichtspunkte eine Rolle Der Untersuchungsansatz sollte die vermuteten Ursache-Wirkungs-Beziehungen möglichst vollständig enthalten |
Einfache Regression (Residualgrößen, Residuen) | Die in der vorgegebenen Regressionsgleichung nicht erfassten Einflussgrößen der empirischen y-Werte schlagen sich in Abweichungen von der Regressionsgeraden nieder. Diese nicht erklärten Abweichungen werden durch die Variable e repräsentiert. Die Werte ek werden Residuen genannt. |
Prüfung der Regressionsfunktion | Globale Prüfung wie gut wird die unabhängige Variable Y durch das Regressionsmodell erklärt? Prüfung der Regressionskoeffizienten wie gut tragen einzelne Variablen des Regressionsmodells zur Erklärung der abhängigen Variablen Y bei -Bestimmtheitsmaß -Gesamtabweichung -Gesamtstreuung |
Gesamtabweichung Regressionsfunktion | Gesamtabweichung = erklärte Abweichung + Residuum |
Gesamtstreuung | Summe der quadrierten Gesamtabweichungen aller Beobachtungen Gesamtstreuung = erklärte Streuung + nicht erklärte Streuung |
Bestimmtheitsmaß | r² = erklärte Streuung / Gesamtstreuung r² = 1 - nicht erklärte Streuung / Gesamtstreuung |
korrigiertes Bestimmtheitsmaß | r²korr = r² - (J * (1 - r²) / K - J - 1) K = Zahl der Beobachtungswerte J = Zahl der Regressoren K - J - 1 Zahl der Freiheitsgrade |
F-Statistik (Überprüfung der Gültigkeit über die Stichprobe hinaus) | 1. Berechnung des empirischen F-Wertes 2. Vorgabe eines Signifikanzniveaus 3. Auffinden des theoretischen F-Wertes 4. Vergleich des empirischen mit dem theoretischen F-Wert F-Test basierend auf empirischen Wert |
F-Test | Mit jedem zusätzlichen Regressor J wächst die erklärte Streuung. Mit der Zahl der Beobachtungswerte steigt die nicht erklärte Streuung. Die Nullhypothese wird verworfen wenn Femp > Ftab |
F-Statistik (Vorgabe eines Signifikanzniveaus) | Es ist eine Wahrscheinlichkeit vorzugeben, die das Vertrauen in die Verlässlichkeit des Testergebnisses ausdrückt. Üblicherweise wird hierfür die Vertrauenswahrscheinlichkeit 0,95 gewählt. Mit einer Wahrscheinlichkeit von 95 % kann man sich darauf verlassen, dass der Test zu einer Annahme der Nullhypothese führt, wenn diese korrekt ist (wenn kein Zusammenhang besteht). Die Wahrscheinlichkeit, dass die Nullhypothese abgelehnt wird, obgleich sie richtig ist, beträgt dann (α =1-0,95 = 5%) α ist die Irrtumswahrscheinlichkeit des Tests (Signifikanzniveau) 1- α ist die Vertrauenswahrscheinlichkeit |
Nullhypothese | zwischen den Variablen besteht eigentlich kein Zusammenhang; es wurde nur zufällig eine Stichprobe erhoben, für die die statistische Analyse einen starken Zusammenhang anzeigt |
Irrtumswahrscheinlichkeit „alpha“ | Wahrscheinlichkeit mit der irrtümlich ein Zusammenhang ermittelt wird. |
Prüfung der Regressionskoeffizienten (t-Test) | wenn die Nullhypothese des F-Tests verworfen wird, d.h. mindestens einer der Regressionskoeffizienten ungleich Null ist 1. Berechnung des empirischen t-Wertes 2. Vorgabe eines Signifikanzniveaus 3. Auffinden des theoretischen t-Wertes 4. Vergleich des empirischen mit dem theoretischen t-Wert |
Want to create your own Flashcards for free with GoConqr? Learn more.