Pregunta 1
Pregunta
A béta-súlyok alapján többszörös lineáris regresszió-elemzésben eldönthetjük, hogy két független változó közül melyiknek van nagyobb hatása a függő változóra.
Pregunta 2
Pregunta
Lépésenkénti regresszióban a 3. lépéstől a bevonási kritérium tesztelése előtt megnézzük, hogy nincs-e olyan korábban bevont változó, amelyet ki kell ejtenünk a modellből.
Pregunta 3
Pregunta
A logit a függő változó valószínűségének logaritmusa
Pregunta 4
Pregunta
Kanonikus korreláció elemzésben két változócsoport egymással erősen korreláló közös struktúráját keressük.
Pregunta 5
Pregunta
A diszkriminancia analízis feltétele, hogy a független változók diszkrétek legyenek.
Pregunta 6
Pregunta
Minél nagyobb a wilks-lambda, annál jobb a DA predikciós modellje.
Pregunta 7
Pregunta
A 2. főkomponens értéke sosem lehet nagyobb mint az első főkomponensé.
Pregunta 8
Pregunta
Klaszteranalízisben az a klaszter a homogénebb, amelynek a homogenitási együtthatója nagyobb.
Pregunta 9
Pregunta
Az EESS a klaszterek által megmagyarázott varianciaarány
Pregunta 10
Pregunta
PB jelzi, hogy átlagosan mennyivel távolabb vannak egymástól távol a külön klaszterbe, mint az egyazon klaszterbe tartozók
Pregunta 11
Pregunta
A rotáció általában megkönnyíti a FA értelmezését.
Pregunta 12
Pregunta
A maximum likelihood faktormodell nem veszi figyelembe a változókra specifikus egyedi részleteket.
Pregunta 13
Pregunta
Klaszteranalízisben az 1-nél nagyobb sajátértékű klasztereken szoktak relokációt végezni
Pregunta 14
Pregunta
Klaszteranalízisben a:
Homogenitást, kohéziót mérik: EESS%,,HCátlag
Szeparációt mérik: SC, XBmod, GDI24
Mindkettőt mérik: PB, CLdelta
Pregunta 15
Pregunta
A MORI (Measure of Relative Improvement) a kapott faktorstruktúra belső validitásának
(internal validity) legfontosabb mutatója
Pregunta 16
Pregunta
A QC és MORI segítségével:
-Megítélhetjük velük egy struktúra jóságát
-Segítséget nyújthatnak a helyes
klaszterszám megállapításához
-Összehasonlíthatunk velük különböző
algoritmusokat
-Összehasonlíthatunk velük különböző
klasztermegoldásokat (struktúrákat)
Pregunta 17
Pregunta
A KMO 0,75- ös értéke már jónak mondható.
Pregunta 18
Pregunta
A KMO értéke 0,5 alatt elfogadhatatlan
Pregunta 19
Pregunta
A nemhierarchikus klaszteranalízis egymásra épülő klasszifikációk rendszere, melyhez úgy jutunk, hogy lépésenként egyesítünk vagy felbontunk klasztereket.
Pregunta 20
Pregunta
A QC jelentése klaszter kvalifikációs mutató. Ilyenek az EESS és a homogenitási együttható.
Pregunta 21
Pregunta
Magyarázott varianciaarány MV% = nemlineáris determinációs együttható = eta-négyzet.
e2 = Hatás variabilitás/Teljes variabilitás
Pregunta 22
Pregunta
Az ANOVA az összetartozó mintás T-próba általánosítása min. 3 csoportra.
Pregunta 23
Pregunta
A trimmelés a szélsőséges értékek eltávolítását jelenti.
Pregunta 24
Pregunta
Klaszteranalízis során a hasonlóságot (távolságot) leggyakrabban az adatsorbeli értékek átlagos távolságával szokták mérni (Euklideszi távolság). Egy ilyen variáns az ASED (átlagos négyzetes eltérés, Average Squared Euclidian Distance).
Pregunta 25
Pregunta
Ward-féle módszer: Azt a két klasztert egyesítjük, amellyel az „összhiba” (azaz a klasztereken belüli négyzetes összegek összege = ESS) a legkisebb mértékben nő.
Pregunta 26
Pregunta
Log-lineáris elemzéssel diszkrét változók közti speciális kapcsolatokat tesztelhetünk.
Pregunta 27
Pregunta
A minimum távolságok módszere képes nem elliptikus formákat is feltárni, de érzékeny a „zaj”-ra és a kilógó értékekre.
A maximum távolságok módszere kevésbé érzékeny a zajra/kilógó értékekre, de hajlamos a nagy klasztereket darabolni és globuláris (gömbszerű) alakzatokat kihozni.
Pregunta 28
Pregunta
Az átlagos távolság módszere és a Ward-módszer a legjobb klaszteranalízisi elemzések.
Pregunta 29
Pregunta
Jó klaszteranalízis általános sarokszámai:
EESS% - legyen 0,65-nél nagyobb
PB (Klaszter pontbiszeriális korreláció) – legyen legalább 0,30
SilCoef – legyen 0,50-nél nagyobb
HCátlag – legyen 1-nél jóval kisebb
HCmin-max – legyen 1 alatt
Pregunta 30
Pregunta
A K-központú hierarchikus klaszterelemzés ideális, ha a feltárandó valódi típusok arányai erősen különböznek.
Pregunta 31
Pregunta
A log-lineáris elemzést korrelációs mátrixokon szokás végezni.
Pregunta 32
Pregunta
Klaszteranalízisben a legközelebbi szomszéd módszerének alkalmazása azt jelenti, hogy mindig a két legközelebbi centroid klaszterét egyesítjük közös klaszterbe.
Pregunta 33
Pregunta
Többváltozós elemzésekben elvárt, hogy a személyek száma 3-5-ször akkora legyen, mint a változóké.
Pregunta 34
Pregunta
Hierarchikus klaszteranalízisben a legközelebbi szomszéd módszer alkalmazása azt jelenti, hogy mindig a két legközelebbi klaszterközéppontú klasztert egyesítjük a közös klaszterbe.
Pregunta 35
Pregunta
Kovariancia-analízisben korrigált mintaátlagokat hasonlítunk össze.
Pregunta 36
Pregunta
A log-lineáris elemzés egy sima khi2-próbás kapcsolatvizsgálat általánosítása.
Pregunta 37
Pregunta
Bináris logisztikus regresszióval ugyanarra a fő kérdésre kaphatunk választ mint egy megfelelő diszkriminanciaanalízissel.
Pregunta 38
Pregunta
A rotációk hatására hasonlóbbá válnak az egyes faktorok által megmagyarázott varianciák.
Pregunta 39
Pregunta
Regresszióban a konstans tag jelzi, hogy egységnyi megváltoztatásával milyen mértékben változik a függő változó.
Pregunta 40
Pregunta
Két szempont között a variancia analízisben (VA) akkor van interakció, ha közös hatásuk az egyedi hatások sima összege.
Pregunta 41
Pregunta
Ha az FA-ban egy input változó KMO-értéke 0,25 feletti, akkor a változó bevonható a faktormodellbe
Pregunta 42
Pregunta
A klaszteranalízis lényege, hogy eseteket vagy változókat páronkénti távolságaik alapján homogén csoportokba rendezünk
Pregunta 43
Pregunta
A maximum likelihood faktoranalízisben ugyanannyi faktorral a változók varianciájának nagyobb hányadát tudjuk megmagyarázni, mint egy ugyanazon változókon végrehajtott főkomponensanalízisben
Pregunta 44
Pregunta
Két szempont között a VA-ban akkor van interakció, ha a két szempont szoros közvetlen kapcsolatban van.
Pregunta 45
Pregunta
A Ward-féle módszernél két klaszter távolságát a klaszterek centroidjainak távolságával definiáljuk.
Pregunta 46
Pregunta
Többszörös lineáris regresszióban a többszörös korrelációs együttható négyzete a regresszió standard hibája.
Pregunta 47
Pregunta
Többszörös lineáris regressziónál a hibatagok korrelálhatnak egymással
Pregunta 48
Pregunta
Többszörös lineáris regressziónál a multikollinearitás kizárása akkor lehetséges, ha két független változó közti korrelációs együttható nem haladja meg a 0,7-es, míg a determinációs együttható: 0,5-ös értéket.
Pregunta 49
Pregunta
A Bx regresszió együttható értéke azt mutatja meg, hogy az X független változó értékét 1 egységgel megnövelve az Y függő változó értéke várhatóan hogyan változik.
Pregunta 50
Pregunta
A diszkriminanciaanalízis fő célja egy olyan predikciós szabály megalkotása, amellyel kvantitatív változók értékeiből bejósolható egy kvalitatív változó értéke.
Pregunta 51
Pregunta
Lépésenkénti regresszióanalízisben a független változóval kiszámított parciális vagy szemiparciális alapján döntünk az egyenletbe való beválasztásról.
Pregunta 52
Pregunta
A Wilks-lambda szoros kapcsolatban van a megmagyarázott varianciával.
Pregunta 53
Pregunta
A béta-súlyok alapján többszörös lineáris regresszió-elemzésben eldönthetjük, hogy két független változó közül melyiknek van nagyobb hatása a függő változóra.
Pregunta 54
Pregunta
A legkisebb négyzetes regresszió kritériuma, hogy minimális legyen a regressziós becslés és a függő változó közti átlagos négyzetes eltérés.
Pregunta 55
Pregunta
A konfigurációelemzés (CFA) sok, kevés értékű változó értékkombinációinak feltárására alkalmas.
Pregunta 56
Pregunta
Stepwise elemzésnél történhet beléptetés és kiléptetés is.
Pregunta 57
Pregunta
A Wilks-lambda a megmagyarázott variancia.
Pregunta 58
Pregunta
A parciális korrelációs együttható lehet nagyobb mint 1.
Pregunta 59
Pregunta
A determinációs együttható a korrelációs együtthatónál mindig kisebb.
Pregunta 60
Pregunta
Klaszteranalízisben az 1-nél nagyobb sajátértékű klasztereken szoktak relokációt végezni.
Pregunta 61
Pregunta
Az agglomeratív hierarchikus klaszteranalízis minden lépésében egyesítünk két klasztert, amelyek valamilyen értelemben egymáshoz a legközelebb vannak.
Pregunta 62
Pregunta
A Ward-féle módszer egy speciális nemhierarchikus klaszteranalízis.
Pregunta 63
Pregunta
A kovarianciaanalízis lényege, hogy a szempontváltozók közti interakciókat ki lehet vele mutatni.
Pregunta 64
Pregunta
A kovariancia-analízisnek nem feltétele a szóráshomogenitás.
Pregunta 65
Pregunta
A kovariancia-elemzés során lényegében parciálást alkalmazunk.
Pregunta 66
Pregunta
A kovariancia-analízisben a vizsgált változóknak (a csoportosító változót is beleértve) normál eloszlásúaknak kell lenniük.
Pregunta 67
Pregunta
A kovariancia-analízis olyan VA, melynek során egy vagy több kvantitatív változó hatását kiszűrve teszteljük a VA szempontváltozóinak a hatását a VA függő változójára.
Pregunta 68
Pregunta
A kanonikus korrelációk lényegében megmagyarázott varianciák.
Pregunta 69
Pregunta
Főkomponensanalízisben Varimax rotáció után a főkomponensek nem feltétlenül lesznek korrelálatlanok
Pregunta 70
Pregunta
A varimax rotációval maximalizáljuk a faktorok által megmagyarázott összvarianciát.
Pregunta 71
Pregunta
A Levene-próbának fontos alkalmazási feltétele a szóráshomogenitás.
Pregunta 72
Pregunta
Két normális együttes eloszlású változó között lehet U alakú kapcsolat is.
Pregunta 73
Pregunta
A Varianciaanalízisban 2 szempont között akkor van interakció, ha a két szempont szoros korrelációban van.
Pregunta 74
Pregunta
A VA-nak nagy minták esetén nem fontos feltétele a szóráshomogenitás és a normalitás.
Pregunta 75
Pregunta
A Wilks lambda szoros kapcsolatban van a megmagyarázott varianciával.
Pregunta 76
Pregunta
Ha a VA-ban a szóráshomogenitás sérül, akkor például a Games-Howell-féle eljárás alkalmazható a szintátlagok páronkénti összehasonlítására.
Pregunta 77
Pregunta
Szignifikáns VA esetén utótesztekkel értékelhetjük a szintátlagok páronkénti különbségeit.
Pregunta 78
Pregunta
A faktoranalízis nem foglalkozik a kilógó esetekkel, ezeket kihagyja
Pregunta 79
Pregunta
A faktorsúlymátrix a faktorok és az eredeti változók közti korrelációk táblázata.
Pregunta 80
Pregunta
A diszkriminancia-analízis abban a lényeges momentumban különbözik a többszörös lineáris regresszió módszerétől, hogy a függő változó a DA-ban jellemzően kvalitatív, a TLR-ben pedig kvantitatív.
Pregunta 81
Pregunta
A diszkriminancia-analízis egyik alkalmazási feltétele, hogy teljesüljön a szóráshomogenitás feltétele.
Pregunta 82
Pregunta
Lépésenkénti regresszióanalízisben a függő változóval kiszámított parciális korrelációk alapján dönthetünk az egyenletbe való beválasztásról.
Pregunta 83
Pregunta
A többszörös lineáris regresszió alkalmazási feltétele, hogy az input változók függetlenek legyenek egymástól.
Pregunta 84
Pregunta
A többszörös lineáris regresszió összefoglaló táblázatában a t-értékek melletti p(SIG) értékek jelzik, hogy egy-egy független változó elméleti átlaga különbözik-e 0-tól.
Pregunta 85
Pregunta
A többszörös lineáris regrssziónak feltétele a csoportok szórósának egyenlősége.
Pregunta 86
Pregunta
Bináris logisztikus regresszióban az alkalmazás feltételei gyengébbek, mint lineáris regresszió elemzésnél.
Pregunta 87
Pregunta
Kétféle alap forgatás ismeretes: ortogonális és ferde forgatás
Pregunta 88
Pregunta
Az ortogonális forgatások a varimax, quartimax, equamax és promax.
Pregunta 89
Pregunta
Az Equamax a Varimax és a Quartimax módszer kombinációja. Minimalizálja az egy-egy faktoron erősen súlyozódó változók és egyben az egy-egy változóval magasan korreláló faktorok számát.
Pregunta 90
Pregunta
Direkt oblimin esetén egy delta paraméter segítségével szabályozhatók a faktorok.
Pregunta 91
Pregunta
A ferde forgatások Direkt oblimin és a Promax.
Pregunta 92
Pregunta
A legjobb faktorsúlyok 0,5 körüliek.
Pregunta 93
Pregunta
Kommunalitás: amit egy változó varianciájából a faktorok együtt magyaráznak.
Pregunta 94
Pregunta
EFA-t használunk ha már van egy alapismeretünk a modellről és CFA-t ha új struktúrákat akarunk találni.
Pregunta 95
Pregunta
A szfericitási feltétel, hogy a függő változók összes páronkénti különbsége legyen egyforma elméleti szórású
Pregunta 96
Pregunta
Főkomponensanalízisben Equamax rotáció után a főkomponensek nem feltétlenül lesznek korrelálatlanok
Pregunta 97
Pregunta
A többváltozós elemzésekben jónak mondható, ha a személyek száma 10-szerese a változók számának
Pregunta 98
Pregunta
Az agglomeretív hierarchikus KA során minden lépésben felbontunk két klasztert
Pregunta 99
Pregunta
Logit az odds logaritmusa
Pregunta 100
Pregunta
A szfericitás feltétele a független mintás VA-nak
Pregunta 101
Pregunta
Az RMSEA a CFA lényeges mutatója
Pregunta 102
Pregunta
Promax forgatásnál a faktorok nem korrelálnak egymással.
Pregunta 103
Pregunta
A scree-ploton a faktorok kommunalitását láthatjuk
Pregunta 104
Pregunta
A classification table a jövő heti lottó nyerőszámokat tartalmazza
Pregunta 105
Pregunta
A VA populációk vagy változók varianciáját hasonlítja össze.
Pregunta 106
Pregunta
TLR alapfeltétele, hogy a független változók ne korreláljanak egymással
Pregunta 107
Pregunta
Faktoranalízisben legalább 3-5 változó kell ahhoz, hogy egy érvényes faktort lehessen képezni belőlük.
Pregunta 108
Pregunta
A faktortöltés a korrelációs együttható a változó és a faktor között, ami a közös faktor hatását mutatja a mért változóra.
Pregunta 109
Pregunta
A maximum likelihood módszer az adatok normális esetén használható legjobb módszer.
Pregunta 110
Pregunta
A faktortöltések utalnak a faktornak a mért változóra való hatásának erejére és irányára
Pregunta 111
Pregunta
Egyváltozós statisztikai elemzésekben (EVS-ben) a VA az a módszercsalád, melynek segítségével csoportok és változók átlagait összehasonlíthatjuk. Itt a hangsúly az ugyanakkoraság, egyformaság, homogenitás tesztelésén van. TVS-ben a VA elemzéseinek hangsúlya azon van, hogy a kategoriális független változók együtt hogyan hatnak egy vagy több kvantitatív változó nagyságszintjére (átlagára).
Pregunta 112
Pregunta
A VA és a kovarianciaanalízis alkalmazásának két általános feltétele van: a függő változó(k) normalitása és a szóráshomogenitás
Pregunta 113
Pregunta
Faktorsúlynak (factor loading) a független változó és a faktor közti korrelációt nevezzük
Pregunta 114
Pregunta
A Klaszter-analízisben a centroid 1-1 klaszter átlagvektora.
Pregunta 115
Pregunta
A Főkomponens-analízis elsődleges célja kevés komponenssel sok változót helyettesíteni
Pregunta 116
Pregunta
A SCREE PLOT megmutatja, hogy hány faktort kell elforgatnunk
Pregunta 117
Pregunta
Ha egy változó KMO-ja 50 % feletti, minden esetben bevonható a faktorelemzésbe.
Pregunta 118
Pregunta
A kommunalitás a változóknak a többi változóval lefedett közös részét mutatja.
Pregunta 119
Pregunta
A FA a változókon végzett klaszteranalízis.
Pregunta 120
Pregunta
A főkomponensek elforgatásával nőhet az össz-megmagyarázott variancia értéke.
Pregunta 121
Pregunta
A kanonikus korreláció lényegében a megmagyarázott varianciát jelenti.
Pregunta 122
Pregunta
DA-nak nem feltétele a szóráshomogenitás
Pregunta 123
Pregunta
A Scree-plot azt mutatja meg, hogy mely faktorokat kell kiemelnünk.
Pregunta 124
Pregunta
A BLR fókusza a p valószínűség; odds(p)-re és logit(p)-re azért van szükség, hogy a TLR függő változója matematikailag kezelhető eloszlású legyen.
Pregunta 125
Pregunta
A következő esetekben érdemes BLR-t választani DA helyett:
A független változók (X-ek) együttes eloszlása nem többdimenziós normális
Az X-ek között kategoriálisak is vannak
A függő változónál a p valószínűség (binárisnál p = P(1)) egyedi, nem normális eloszláson alapul
Az X-ek között nem lineáris kapcsolatok is feltételezhetők
Pregunta 126
Pregunta
Minimum annyi főkomponens készíthető, ahány input változó van.
Pregunta 127
Pregunta
Ha van nulla sajátérték is FKA-ban, akkor azt mondjuk, hogy a korrelációs mátrix
szinguláris. Ilyenkor fellép a multikollinearitás (változók közti túl erős lineáris összefüggés)
Pregunta 128
Pregunta
Leggyakrabban az 1-nél nagyobb sajátértékű főkomponenseket tartjuk meg és a megtartott főkomponensek jónak mondhatók, ha az általuk magyarázott összvariancia-arány meghaladja a 70%-ot: MV% > 0,70.
Pregunta 129
Pregunta
A kommunalitások megmutatják, hogy egy-egy input változót a megtartott főkomponensek milyen arányban
magyaráznak (a főkomponensek által a változóból magyarázott varianciaarány)
Pregunta 130
Pregunta
0,5-ös kommunalitás alatt „kilóg” a változó a főkomponensek által képviselt modellből.
Pregunta 131
Pregunta
Forgatás után a faktorok által magyarázott összvariancia
megváltozik de egyes faktorok által magyarázott varianciák nem.
Pregunta 132
Pregunta
Az FKA alkalmazási feltételei: Mintanagyság , Linearitás , Interkorrelációk
Pregunta 133
Pregunta
Ha a változók közös része elhanyagolható, nincs értelme EFA-t végrehajtani.
Pregunta 134
Pregunta
Ha Bartlett erősen szignifikáns, nincs értelme EFA-t csinálni.
Pregunta 135
Pregunta
FKA: változók összinformációját faktorizálja míg FA: csak a változók közös információját
faktorizálja, tehát figyelmen kívül hagyja aváltozók azon információját, amelyek
egyediek, más változóval nem mutatnak átfedést
Pregunta 136
Pregunta
Lejtődiagram: faktorok összefüggéseinek meghatározása grafikus módszerrel: