Erstellt von Stephanie Klupp
vor fast 9 Jahre
|
||
Frage | Antworten |
Was ist der Zweck / Ziel einer Multiplen Korrelation? | Mehr als 1 Prädiktorvariable wird zur Vorhersage der Kriteriumvariable berücksichtigt |
Welche Voraussetzungen haben Multiple Regressionen? | - richtig spezifiziertes Modell (Linearität, Vollständigkeit, kein Overfitting) - Keine Messfehler der Prädiktorvariablen - Fehler: normalverteilt, Ew = 0, unkorreliert, konstante Varianz (Homoskedastizität, gleichmäsige Streuung der Residuen) - keine Singularität |
Welche Auswirkungen haben Voraussetzungsverletzungen? | Nichtlinear (B) & Unvollständig => Verzerrung der Schätzwerten Heteroskedastizität & Autokorrelation => Ineffizienz Mulltikollinearität = verminderte Präzision Nichtnormalverteilt =>ungültige Signifikanz |
Welche Skalierungsvoraussetzungen haben die Ziel- & Prädiktorvariablen? Wie sieht die Gleichung aus? | Zielvariable: intervallskaliert Prädiktorvariablen: intervall oder dichotom Y = B0 + B1*X1 + ... |
Was postuliert eine Lineare Multiple Regression? Was muss gegeben sein? | - linearer Zusammenhang zwischen Prädiktor- und Kriteriumsvariable - muss linear in den Parametern (Bs) sein aber nicht in der Prädiktoren (X) => evt Transformation zur Linearisierung z.B: y = a * x^b |
Weshalb kann eine Multiple Korrelation per se keine Kausalität nachweisen? | Kausalität = X ist eine Ursache von Y Voraussetzungen einer Kausalität: - X geht Y zeitlich voraus -Kausalmechanismus lässt sich formulieren -Änderung in X führt zur Änderung in Y - isolierter Einfluss von X auf Y |
Was besagt die Globalhypothese? Welche Prüfgrösse untersucht das? | H0: alle Regressionskoeffizienten (B) = 0 H1: mind 1 Regressionskoeffizient =/ 0 Fp = durch das Modell erklärte Varianz / Fehlervarianz (F ist von N abhängig) |
Was ist R^2 und R? | R^2 = das Bestimmtheitsmass, der Anteil gemeinsamer Varianz der Prediktorvariable (X) und der Kriteriumsvariable (Y) -> (erklärte Varianz / totale Varianz) -> (von N unabhängig !) R = Wurzel aus R^2 = Korrelation zwischen vorhergesagter (yî) und tatsächlicher (yi) Kriteriumsvariable |
Was ist Overfitting? | - bei z.B. N=2 -> R=1 ein perfektes Modell, die Gerade geht durch beide Punkte => schlecht, keine Repräsentative Stichprobe, kei replizierbares Modell - erst bei N > 2 gibt es Residuen - Ziel: 20-30 Pbn pro Prädiktor (X) |
Wie prüft man die Wichtigkeit einzelner Prädiktoren? | - durch z-Transformation werden standardisierte Regressionskoeffizienten (beta) gebildet => vergleichbare Skalierung - Überprüfung: ob beta sign von 0 abweicht => Prüfgrösse tp: (von N abhängig) (Parameter/Regressionkoeffizient) / Standardfehler |
Welche Arten der Modellvereinfachung durch Elimination von Prädiktoren gibt es? | 1. Rückwärtsselektion: elemiert nach und nach jeden Prädiktor mit dem grössten F-Wert oder kleinen p-Wert. Abbruch wenn kein p-Wert > 0.1 2. Vorwärtsselektion: beginnt mit der Aufnahme von Prädiktoren mit dem grössten F-Wert oder kleinsten p-Wert Abbruch wenn kein p-Wert < 0.05 3.Hierarchische lineare Regression: Hypothesen geleitete Festlegung der Reihenfolge der Aufnahme ins Modell |
Was ist die Semi-Partialkorrelation? | srj^2 = quadierte semipartialkorrelation = Varianzanteil von Prädiktor Xj gemeinsam mit Kriteriumsvariable Y 1. X1 und X3 werden aus X2 herauspartialisiert 2. spezifischer Varianzanteil von X2 (X2=B0+B1*X1+B2*X3) 3. SP2 = Korrelation der X Residuen mit gesamt Y (= sr2.13 (X2, ohne X1&3) |
Wie kann man R^2 der Multiple Korrelation durch eine Semipartialkorrelation ausdrücken? | R^2 = corr(x1,y)+corr(x2,y)+corr(x3,y) => nur wenn X unkorreliert !! Lösung: Hierarchie - semipartialkorrelation = R^2 = corr(x1,y)+sr2.1+sr3.12 |
Was ist die Partialkorrelation? | Varianzanteil von Prädiktor Xj gemeinsam mit Kriteriumsvariable Y unabhängig von X 1. X1 und X3 werden aus X2 und Y herauspartialisiert 2. spezifischer Varianzanteil von X2 (X2=B0+B1*X1+B2*X3) 3. P2 = Korrelation der X Residuen mit den Y Residuen (= pr2.13) |
Wie kann 1 Punkt Einfluss auf die Steigung haben? | - Diskrepanz = auffällig bzgl Y => parallel verschoben, kein Stg. Einfluss - Leverage = auffällig bzgl X => verlängert, kein Einfluss auf die Steigung - Cooks Distanz = Diskrepanz * Leverage => wenn sowohl Diskrepanz als auch Leverage hoch sind => starken Stg Einfluss |
Was ist eine Kreuzvalidierung? | - Stichprobe zufällig 2 Gruppen (75%, 25%) - G1: Schätzung der Modelparameter - G2: Schätzt y^ anhand der Parameter -> Korrelation von y und y^ -> Ziel: KEIN sign Unterschied - 1000fach Wiederholt mit zufälligen 75%N |
Welche 4 Repräsentationsmodell gibt es? | 1. Regressionsgleichung 2. Quadratsummen (Venndiagramm) 3. Regressionsfunktionskurve 4. Pfadmodell |
Möchten Sie mit GoConqr kostenlos Ihre eigenen Karteikarten erstellen? Mehr erfahren.