A béta-súlyok alapján többszörös lineáris regresszió-elemzésben eldönthetjük, hogy két független változó közül melyiknek van nagyobb hatása a függő változóra.
Lépésenkénti regresszióban a 3. lépéstől a bevonási kritérium tesztelése előtt megnézzük, hogy nincs-e olyan korábban bevont változó, amelyet ki kell ejtenünk a modellből.
A logit a függő változó valószínűségének logaritmusa
Kanonikus korreláció elemzésben két változócsoport egymással erősen korreláló közös struktúráját keressük.
A diszkriminancia analízis feltétele, hogy a független változók diszkrétek legyenek.
Minél nagyobb a wilks-lambda, annál jobb a DA predikciós modellje.
A 2. főkomponens értéke sosem lehet nagyobb mint az első főkomponensé.
Klaszteranalízisben az a klaszter a homogénebb, amelynek a homogenitási együtthatója nagyobb.
Az EESS a klaszterek által megmagyarázott varianciaarány
PB jelzi, hogy átlagosan mennyivel távolabb vannak egymástól távol a külön klaszterbe, mint az egyazon klaszterbe tartozók
A rotáció általában megkönnyíti a FA értelmezését.
A maximum likelihood faktormodell nem veszi figyelembe a változókra specifikus egyedi részleteket.
Klaszteranalízisben az 1-nél nagyobb sajátértékű klasztereken szoktak relokációt végezni
Klaszteranalízisben a: Homogenitást, kohéziót mérik: EESS%,,HCátlag Szeparációt mérik: SC, XBmod, GDI24 Mindkettőt mérik: PB, CLdelta
A MORI (Measure of Relative Improvement) a kapott faktorstruktúra belső validitásának (internal validity) legfontosabb mutatója
A QC és MORI segítségével: -Megítélhetjük velük egy struktúra jóságát -Segítséget nyújthatnak a helyes klaszterszám megállapításához -Összehasonlíthatunk velük különböző algoritmusokat -Összehasonlíthatunk velük különböző klasztermegoldásokat (struktúrákat)
A KMO 0,75- ös értéke már jónak mondható.
A KMO értéke 0,5 alatt elfogadhatatlan
A nemhierarchikus klaszteranalízis egymásra épülő klasszifikációk rendszere, melyhez úgy jutunk, hogy lépésenként egyesítünk vagy felbontunk klasztereket.
A QC jelentése klaszter kvalifikációs mutató. Ilyenek az EESS és a homogenitási együttható.
Magyarázott varianciaarány MV% = nemlineáris determinációs együttható = eta-négyzet. e2 = Hatás variabilitás/Teljes variabilitás
Az ANOVA az összetartozó mintás T-próba általánosítása min. 3 csoportra.
A trimmelés a szélsőséges értékek eltávolítását jelenti.
Klaszteranalízis során a hasonlóságot (távolságot) leggyakrabban az adatsorbeli értékek átlagos távolságával szokták mérni (Euklideszi távolság). Egy ilyen variáns az ASED (átlagos négyzetes eltérés, Average Squared Euclidian Distance).
Ward-féle módszer: Azt a két klasztert egyesítjük, amellyel az „összhiba” (azaz a klasztereken belüli négyzetes összegek összege = ESS) a legkisebb mértékben nő.
Log-lineáris elemzéssel diszkrét változók közti speciális kapcsolatokat tesztelhetünk.
A minimum távolságok módszere képes nem elliptikus formákat is feltárni, de érzékeny a „zaj”-ra és a kilógó értékekre. A maximum távolságok módszere kevésbé érzékeny a zajra/kilógó értékekre, de hajlamos a nagy klasztereket darabolni és globuláris (gömbszerű) alakzatokat kihozni.
Az átlagos távolság módszere és a Ward-módszer a legjobb klaszteranalízisi elemzések.
Jó klaszteranalízis általános sarokszámai: EESS% - legyen 0,65-nél nagyobb PB (Klaszter pontbiszeriális korreláció) – legyen legalább 0,30 SilCoef – legyen 0,50-nél nagyobb HCátlag – legyen 1-nél jóval kisebb HCmin-max – legyen 1 alatt
A K-központú hierarchikus klaszterelemzés ideális, ha a feltárandó valódi típusok arányai erősen különböznek.
A log-lineáris elemzést korrelációs mátrixokon szokás végezni.
Klaszteranalízisben a legközelebbi szomszéd módszerének alkalmazása azt jelenti, hogy mindig a két legközelebbi centroid klaszterét egyesítjük közös klaszterbe.
Többváltozós elemzésekben elvárt, hogy a személyek száma 3-5-ször akkora legyen, mint a változóké.
Hierarchikus klaszteranalízisben a legközelebbi szomszéd módszer alkalmazása azt jelenti, hogy mindig a két legközelebbi klaszterközéppontú klasztert egyesítjük a közös klaszterbe.
Kovariancia-analízisben korrigált mintaátlagokat hasonlítunk össze.
A log-lineáris elemzés egy sima khi2-próbás kapcsolatvizsgálat általánosítása.
Bináris logisztikus regresszióval ugyanarra a fő kérdésre kaphatunk választ mint egy megfelelő diszkriminanciaanalízissel.
A rotációk hatására hasonlóbbá válnak az egyes faktorok által megmagyarázott varianciák.
Regresszióban a konstans tag jelzi, hogy egységnyi megváltoztatásával milyen mértékben változik a függő változó.
Két szempont között a variancia analízisben (VA) akkor van interakció, ha közös hatásuk az egyedi hatások sima összege.
Ha az FA-ban egy input változó KMO-értéke 0,25 feletti, akkor a változó bevonható a faktormodellbe
A klaszteranalízis lényege, hogy eseteket vagy változókat páronkénti távolságaik alapján homogén csoportokba rendezünk
A maximum likelihood faktoranalízisben ugyanannyi faktorral a változók varianciájának nagyobb hányadát tudjuk megmagyarázni, mint egy ugyanazon változókon végrehajtott főkomponensanalízisben
Két szempont között a VA-ban akkor van interakció, ha a két szempont szoros közvetlen kapcsolatban van.
A Ward-féle módszernél két klaszter távolságát a klaszterek centroidjainak távolságával definiáljuk.
Többszörös lineáris regresszióban a többszörös korrelációs együttható négyzete a regresszió standard hibája.
Többszörös lineáris regressziónál a hibatagok korrelálhatnak egymással
Többszörös lineáris regressziónál a multikollinearitás kizárása akkor lehetséges, ha két független változó közti korrelációs együttható nem haladja meg a 0,7-es, míg a determinációs együttható: 0,5-ös értéket.
A Bx regresszió együttható értéke azt mutatja meg, hogy az X független változó értékét 1 egységgel megnövelve az Y függő változó értéke várhatóan hogyan változik.
A diszkriminanciaanalízis fő célja egy olyan predikciós szabály megalkotása, amellyel kvantitatív változók értékeiből bejósolható egy kvalitatív változó értéke.
Lépésenkénti regresszióanalízisben a független változóval kiszámított parciális vagy szemiparciális alapján döntünk az egyenletbe való beválasztásról.
A Wilks-lambda szoros kapcsolatban van a megmagyarázott varianciával.
A legkisebb négyzetes regresszió kritériuma, hogy minimális legyen a regressziós becslés és a függő változó közti átlagos négyzetes eltérés.
A konfigurációelemzés (CFA) sok, kevés értékű változó értékkombinációinak feltárására alkalmas.
Stepwise elemzésnél történhet beléptetés és kiléptetés is.
A Wilks-lambda a megmagyarázott variancia.
A parciális korrelációs együttható lehet nagyobb mint 1.
A determinációs együttható a korrelációs együtthatónál mindig kisebb.
Klaszteranalízisben az 1-nél nagyobb sajátértékű klasztereken szoktak relokációt végezni.
Az agglomeratív hierarchikus klaszteranalízis minden lépésében egyesítünk két klasztert, amelyek valamilyen értelemben egymáshoz a legközelebb vannak.
A Ward-féle módszer egy speciális nemhierarchikus klaszteranalízis.
A kovarianciaanalízis lényege, hogy a szempontváltozók közti interakciókat ki lehet vele mutatni.
A kovariancia-analízisnek nem feltétele a szóráshomogenitás.
A kovariancia-elemzés során lényegében parciálást alkalmazunk.
A kovariancia-analízisben a vizsgált változóknak (a csoportosító változót is beleértve) normál eloszlásúaknak kell lenniük.
A kovariancia-analízis olyan VA, melynek során egy vagy több kvantitatív változó hatását kiszűrve teszteljük a VA szempontváltozóinak a hatását a VA függő változójára.
A kanonikus korrelációk lényegében megmagyarázott varianciák.
Főkomponensanalízisben Varimax rotáció után a főkomponensek nem feltétlenül lesznek korrelálatlanok
A varimax rotációval maximalizáljuk a faktorok által megmagyarázott összvarianciát.
A Levene-próbának fontos alkalmazási feltétele a szóráshomogenitás.
Két normális együttes eloszlású változó között lehet U alakú kapcsolat is.
A Varianciaanalízisban 2 szempont között akkor van interakció, ha a két szempont szoros korrelációban van.
A VA-nak nagy minták esetén nem fontos feltétele a szóráshomogenitás és a normalitás.
A Wilks lambda szoros kapcsolatban van a megmagyarázott varianciával.
Ha a VA-ban a szóráshomogenitás sérül, akkor például a Games-Howell-féle eljárás alkalmazható a szintátlagok páronkénti összehasonlítására.
Szignifikáns VA esetén utótesztekkel értékelhetjük a szintátlagok páronkénti különbségeit.
A faktoranalízis nem foglalkozik a kilógó esetekkel, ezeket kihagyja
A faktorsúlymátrix a faktorok és az eredeti változók közti korrelációk táblázata.
A diszkriminancia-analízis abban a lényeges momentumban különbözik a többszörös lineáris regresszió módszerétől, hogy a függő változó a DA-ban jellemzően kvalitatív, a TLR-ben pedig kvantitatív.
A diszkriminancia-analízis egyik alkalmazási feltétele, hogy teljesüljön a szóráshomogenitás feltétele.
Lépésenkénti regresszióanalízisben a függő változóval kiszámított parciális korrelációk alapján dönthetünk az egyenletbe való beválasztásról.
A többszörös lineáris regresszió alkalmazási feltétele, hogy az input változók függetlenek legyenek egymástól.
A többszörös lineáris regresszió összefoglaló táblázatában a t-értékek melletti p(SIG) értékek jelzik, hogy egy-egy független változó elméleti átlaga különbözik-e 0-tól.
A többszörös lineáris regrssziónak feltétele a csoportok szórósának egyenlősége.
Bináris logisztikus regresszióban az alkalmazás feltételei gyengébbek, mint lineáris regresszió elemzésnél.
Kétféle alap forgatás ismeretes: ortogonális és ferde forgatás
Az ortogonális forgatások a varimax, quartimax, equamax és promax.
Az Equamax a Varimax és a Quartimax módszer kombinációja. Minimalizálja az egy-egy faktoron erősen súlyozódó változók és egyben az egy-egy változóval magasan korreláló faktorok számát.
Direkt oblimin esetén egy delta paraméter segítségével szabályozhatók a faktorok.
A ferde forgatások Direkt oblimin és a Promax.
A legjobb faktorsúlyok 0,5 körüliek.
Kommunalitás: amit egy változó varianciájából a faktorok együtt magyaráznak.
EFA-t használunk ha már van egy alapismeretünk a modellről és CFA-t ha új struktúrákat akarunk találni.
A szfericitási feltétel, hogy a függő változók összes páronkénti különbsége legyen egyforma elméleti szórású
Főkomponensanalízisben Equamax rotáció után a főkomponensek nem feltétlenül lesznek korrelálatlanok
A többváltozós elemzésekben jónak mondható, ha a személyek száma 10-szerese a változók számának
Az agglomeretív hierarchikus KA során minden lépésben felbontunk két klasztert
Logit az odds logaritmusa
A szfericitás feltétele a független mintás VA-nak
Az RMSEA a CFA lényeges mutatója
Promax forgatásnál a faktorok nem korrelálnak egymással.
A scree-ploton a faktorok kommunalitását láthatjuk
A classification table a jövő heti lottó nyerőszámokat tartalmazza
A VA populációk vagy változók varianciáját hasonlítja össze.
TLR alapfeltétele, hogy a független változók ne korreláljanak egymással
Faktoranalízisben legalább 3-5 változó kell ahhoz, hogy egy érvényes faktort lehessen képezni belőlük.
A faktortöltés a korrelációs együttható a változó és a faktor között, ami a közös faktor hatását mutatja a mért változóra.
A maximum likelihood módszer az adatok normális esetén használható legjobb módszer.
A faktortöltések utalnak a faktornak a mért változóra való hatásának erejére és irányára
Egyváltozós statisztikai elemzésekben (EVS-ben) a VA az a módszercsalád, melynek segítségével csoportok és változók átlagait összehasonlíthatjuk. Itt a hangsúly az ugyanakkoraság, egyformaság, homogenitás tesztelésén van. TVS-ben a VA elemzéseinek hangsúlya azon van, hogy a kategoriális független változók együtt hogyan hatnak egy vagy több kvantitatív változó nagyságszintjére (átlagára).
A VA és a kovarianciaanalízis alkalmazásának két általános feltétele van: a függő változó(k) normalitása és a szóráshomogenitás
Faktorsúlynak (factor loading) a független változó és a faktor közti korrelációt nevezzük
A Klaszter-analízisben a centroid 1-1 klaszter átlagvektora.
A Főkomponens-analízis elsődleges célja kevés komponenssel sok változót helyettesíteni
A SCREE PLOT megmutatja, hogy hány faktort kell elforgatnunk
Ha egy változó KMO-ja 50 % feletti, minden esetben bevonható a faktorelemzésbe.
A kommunalitás a változóknak a többi változóval lefedett közös részét mutatja.
A FA a változókon végzett klaszteranalízis.
A főkomponensek elforgatásával nőhet az össz-megmagyarázott variancia értéke.
A kanonikus korreláció lényegében a megmagyarázott varianciát jelenti.
DA-nak nem feltétele a szóráshomogenitás
A Scree-plot azt mutatja meg, hogy mely faktorokat kell kiemelnünk.
A BLR fókusza a p valószínűség; odds(p)-re és logit(p)-re azért van szükség, hogy a TLR függő változója matematikailag kezelhető eloszlású legyen.
A következő esetekben érdemes BLR-t választani DA helyett: A független változók (X-ek) együttes eloszlása nem többdimenziós normális Az X-ek között kategoriálisak is vannak A függő változónál a p valószínűség (binárisnál p = P(1)) egyedi, nem normális eloszláson alapul Az X-ek között nem lineáris kapcsolatok is feltételezhetők
Minimum annyi főkomponens készíthető, ahány input változó van.
Ha van nulla sajátérték is FKA-ban, akkor azt mondjuk, hogy a korrelációs mátrix szinguláris. Ilyenkor fellép a multikollinearitás (változók közti túl erős lineáris összefüggés)
Leggyakrabban az 1-nél nagyobb sajátértékű főkomponenseket tartjuk meg és a megtartott főkomponensek jónak mondhatók, ha az általuk magyarázott összvariancia-arány meghaladja a 70%-ot: MV% > 0,70.
A kommunalitások megmutatják, hogy egy-egy input változót a megtartott főkomponensek milyen arányban magyaráznak (a főkomponensek által a változóból magyarázott varianciaarány)
0,5-ös kommunalitás alatt „kilóg” a változó a főkomponensek által képviselt modellből.
Forgatás után a faktorok által magyarázott összvariancia megváltozik de egyes faktorok által magyarázott varianciák nem.
Az FKA alkalmazási feltételei: Mintanagyság , Linearitás , Interkorrelációk
Ha a változók közös része elhanyagolható, nincs értelme EFA-t végrehajtani.
Ha Bartlett erősen szignifikáns, nincs értelme EFA-t csinálni.
FKA: változók összinformációját faktorizálja míg FA: csak a változók közös információját faktorizálja, tehát figyelmen kívül hagyja aváltozók azon információját, amelyek egyediek, más változóval nem mutatnak átfedést
Lejtődiagram: faktorok összefüggéseinek meghatározása grafikus módszerrel: