Question 1
Question
A béta-súlyok alapján többszörös lineáris regresszió-elemzésben eldönthetjük, hogy két független változó közül melyiknek van nagyobb hatása a függő változóra.
Question 2
Question
Lépésenkénti regresszióban a 3. lépéstől a bevonási kritérium tesztelése előtt megnézzük, hogy nincs-e olyan korábban bevont változó, amelyet ki kell ejtenünk a modellből.
Question 3
Question
A logit a függő változó valószínűségének logaritmusa
Question 4
Question
Kanonikus korreláció elemzésben két változócsoport egymással erősen korreláló közös struktúráját keressük.
Question 5
Question
A diszkriminancia analízis feltétele, hogy a független változók diszkrétek legyenek.
Question 6
Question
Minél nagyobb a wilks-lambda, annál jobb a DA predikciós modellje.
Question 7
Question
A 2. főkomponens értéke sosem lehet nagyobb mint az első főkomponensé.
Question 8
Question
Klaszteranalízisben az a klaszter a homogénebb, amelynek a homogenitási együtthatója nagyobb.
Question 9
Question
Az EESS a klaszterek által megmagyarázott varianciaarány
Question 10
Question
PB jelzi, hogy átlagosan mennyivel távolabb vannak egymástól távol a külön klaszterbe, mint az egyazon klaszterbe tartozók
Question 11
Question
A rotáció általában megkönnyíti a FA értelmezését.
Question 12
Question
A maximum likelihood faktormodell nem veszi figyelembe a változókra specifikus egyedi részleteket.
Question 13
Question
Klaszteranalízisben az 1-nél nagyobb sajátértékű klasztereken szoktak relokációt végezni
Question 14
Question
Klaszteranalízisben a:
Homogenitást, kohéziót mérik: EESS%,,HCátlag
Szeparációt mérik: SC, XBmod, GDI24
Mindkettőt mérik: PB, CLdelta
Question 15
Question
A MORI (Measure of Relative Improvement) a kapott faktorstruktúra belső validitásának
(internal validity) legfontosabb mutatója
Question 16
Question
A QC és MORI segítségével:
-Megítélhetjük velük egy struktúra jóságát
-Segítséget nyújthatnak a helyes
klaszterszám megállapításához
-Összehasonlíthatunk velük különböző
algoritmusokat
-Összehasonlíthatunk velük különböző
klasztermegoldásokat (struktúrákat)
Question 17
Question
A KMO 0,75- ös értéke már jónak mondható.
Question 18
Question
A KMO értéke 0,5 alatt elfogadhatatlan
Question 19
Question
A nemhierarchikus klaszteranalízis egymásra épülő klasszifikációk rendszere, melyhez úgy jutunk, hogy lépésenként egyesítünk vagy felbontunk klasztereket.
Question 20
Question
A QC jelentése klaszter kvalifikációs mutató. Ilyenek az EESS és a homogenitási együttható.
Question 21
Question
Magyarázott varianciaarány MV% = nemlineáris determinációs együttható = eta-négyzet.
e2 = Hatás variabilitás/Teljes variabilitás
Question 22
Question
Az ANOVA az összetartozó mintás T-próba általánosítása min. 3 csoportra.
Question 23
Question
A trimmelés a szélsőséges értékek eltávolítását jelenti.
Question 24
Question
Klaszteranalízis során a hasonlóságot (távolságot) leggyakrabban az adatsorbeli értékek átlagos távolságával szokták mérni (Euklideszi távolság). Egy ilyen variáns az ASED (átlagos négyzetes eltérés, Average Squared Euclidian Distance).
Question 25
Question
Ward-féle módszer: Azt a két klasztert egyesítjük, amellyel az „összhiba” (azaz a klasztereken belüli négyzetes összegek összege = ESS) a legkisebb mértékben nő.
Question 26
Question
Log-lineáris elemzéssel diszkrét változók közti speciális kapcsolatokat tesztelhetünk.
Question 27
Question
A minimum távolságok módszere képes nem elliptikus formákat is feltárni, de érzékeny a „zaj”-ra és a kilógó értékekre.
A maximum távolságok módszere kevésbé érzékeny a zajra/kilógó értékekre, de hajlamos a nagy klasztereket darabolni és globuláris (gömbszerű) alakzatokat kihozni.
Question 28
Question
Az átlagos távolság módszere és a Ward-módszer a legjobb klaszteranalízisi elemzések.
Question 29
Question
Jó klaszteranalízis általános sarokszámai:
EESS% - legyen 0,65-nél nagyobb
PB (Klaszter pontbiszeriális korreláció) – legyen legalább 0,30
SilCoef – legyen 0,50-nél nagyobb
HCátlag – legyen 1-nél jóval kisebb
HCmin-max – legyen 1 alatt
Question 30
Question
A K-központú hierarchikus klaszterelemzés ideális, ha a feltárandó valódi típusok arányai erősen különböznek.
Question 31
Question
A log-lineáris elemzést korrelációs mátrixokon szokás végezni.
Question 32
Question
Klaszteranalízisben a legközelebbi szomszéd módszerének alkalmazása azt jelenti, hogy mindig a két legközelebbi centroid klaszterét egyesítjük közös klaszterbe.
Question 33
Question
Többváltozós elemzésekben elvárt, hogy a személyek száma 3-5-ször akkora legyen, mint a változóké.
Question 34
Question
Hierarchikus klaszteranalízisben a legközelebbi szomszéd módszer alkalmazása azt jelenti, hogy mindig a két legközelebbi klaszterközéppontú klasztert egyesítjük a közös klaszterbe.
Question 35
Question
Kovariancia-analízisben korrigált mintaátlagokat hasonlítunk össze.
Question 36
Question
A log-lineáris elemzés egy sima khi2-próbás kapcsolatvizsgálat általánosítása.
Question 37
Question
Bináris logisztikus regresszióval ugyanarra a fő kérdésre kaphatunk választ mint egy megfelelő diszkriminanciaanalízissel.
Question 38
Question
A rotációk hatására hasonlóbbá válnak az egyes faktorok által megmagyarázott varianciák.
Question 39
Question
Regresszióban a konstans tag jelzi, hogy egységnyi megváltoztatásával milyen mértékben változik a függő változó.
Question 40
Question
Két szempont között a variancia analízisben (VA) akkor van interakció, ha közös hatásuk az egyedi hatások sima összege.
Question 41
Question
Ha az FA-ban egy input változó KMO-értéke 0,25 feletti, akkor a változó bevonható a faktormodellbe
Question 42
Question
A klaszteranalízis lényege, hogy eseteket vagy változókat páronkénti távolságaik alapján homogén csoportokba rendezünk
Question 43
Question
A maximum likelihood faktoranalízisben ugyanannyi faktorral a változók varianciájának nagyobb hányadát tudjuk megmagyarázni, mint egy ugyanazon változókon végrehajtott főkomponensanalízisben
Question 44
Question
Két szempont között a VA-ban akkor van interakció, ha a két szempont szoros közvetlen kapcsolatban van.
Question 45
Question
A Ward-féle módszernél két klaszter távolságát a klaszterek centroidjainak távolságával definiáljuk.
Question 46
Question
Többszörös lineáris regresszióban a többszörös korrelációs együttható négyzete a regresszió standard hibája.
Question 47
Question
Többszörös lineáris regressziónál a hibatagok korrelálhatnak egymással
Question 48
Question
Többszörös lineáris regressziónál a multikollinearitás kizárása akkor lehetséges, ha két független változó közti korrelációs együttható nem haladja meg a 0,7-es, míg a determinációs együttható: 0,5-ös értéket.
Question 49
Question
A Bx regresszió együttható értéke azt mutatja meg, hogy az X független változó értékét 1 egységgel megnövelve az Y függő változó értéke várhatóan hogyan változik.
Question 50
Question
A diszkriminanciaanalízis fő célja egy olyan predikciós szabály megalkotása, amellyel kvantitatív változók értékeiből bejósolható egy kvalitatív változó értéke.
Question 51
Question
Lépésenkénti regresszióanalízisben a független változóval kiszámított parciális vagy szemiparciális alapján döntünk az egyenletbe való beválasztásról.
Question 52
Question
A Wilks-lambda szoros kapcsolatban van a megmagyarázott varianciával.
Question 53
Question
A béta-súlyok alapján többszörös lineáris regresszió-elemzésben eldönthetjük, hogy két független változó közül melyiknek van nagyobb hatása a függő változóra.
Question 54
Question
A legkisebb négyzetes regresszió kritériuma, hogy minimális legyen a regressziós becslés és a függő változó közti átlagos négyzetes eltérés.
Question 55
Question
A konfigurációelemzés (CFA) sok, kevés értékű változó értékkombinációinak feltárására alkalmas.
Question 56
Question
Stepwise elemzésnél történhet beléptetés és kiléptetés is.
Question 57
Question
A Wilks-lambda a megmagyarázott variancia.
Question 58
Question
A parciális korrelációs együttható lehet nagyobb mint 1.
Question 59
Question
A determinációs együttható a korrelációs együtthatónál mindig kisebb.
Question 60
Question
Klaszteranalízisben az 1-nél nagyobb sajátértékű klasztereken szoktak relokációt végezni.
Question 61
Question
Az agglomeratív hierarchikus klaszteranalízis minden lépésében egyesítünk két klasztert, amelyek valamilyen értelemben egymáshoz a legközelebb vannak.
Question 62
Question
A Ward-féle módszer egy speciális nemhierarchikus klaszteranalízis.
Question 63
Question
A kovarianciaanalízis lényege, hogy a szempontváltozók közti interakciókat ki lehet vele mutatni.
Question 64
Question
A kovariancia-analízisnek nem feltétele a szóráshomogenitás.
Question 65
Question
A kovariancia-elemzés során lényegében parciálást alkalmazunk.
Question 66
Question
A kovariancia-analízisben a vizsgált változóknak (a csoportosító változót is beleértve) normál eloszlásúaknak kell lenniük.
Question 67
Question
A kovariancia-analízis olyan VA, melynek során egy vagy több kvantitatív változó hatását kiszűrve teszteljük a VA szempontváltozóinak a hatását a VA függő változójára.
Question 68
Question
A kanonikus korrelációk lényegében megmagyarázott varianciák.
Question 69
Question
Főkomponensanalízisben Varimax rotáció után a főkomponensek nem feltétlenül lesznek korrelálatlanok
Question 70
Question
A varimax rotációval maximalizáljuk a faktorok által megmagyarázott összvarianciát.
Question 71
Question
A Levene-próbának fontos alkalmazási feltétele a szóráshomogenitás.
Question 72
Question
Két normális együttes eloszlású változó között lehet U alakú kapcsolat is.
Question 73
Question
A Varianciaanalízisban 2 szempont között akkor van interakció, ha a két szempont szoros korrelációban van.
Question 74
Question
A VA-nak nagy minták esetén nem fontos feltétele a szóráshomogenitás és a normalitás.
Question 75
Question
A Wilks lambda szoros kapcsolatban van a megmagyarázott varianciával.
Question 76
Question
Ha a VA-ban a szóráshomogenitás sérül, akkor például a Games-Howell-féle eljárás alkalmazható a szintátlagok páronkénti összehasonlítására.
Question 77
Question
Szignifikáns VA esetén utótesztekkel értékelhetjük a szintátlagok páronkénti különbségeit.
Question 78
Question
A faktoranalízis nem foglalkozik a kilógó esetekkel, ezeket kihagyja
Question 79
Question
A faktorsúlymátrix a faktorok és az eredeti változók közti korrelációk táblázata.
Question 80
Question
A diszkriminancia-analízis abban a lényeges momentumban különbözik a többszörös lineáris regresszió módszerétől, hogy a függő változó a DA-ban jellemzően kvalitatív, a TLR-ben pedig kvantitatív.
Question 81
Question
A diszkriminancia-analízis egyik alkalmazási feltétele, hogy teljesüljön a szóráshomogenitás feltétele.
Question 82
Question
Lépésenkénti regresszióanalízisben a függő változóval kiszámított parciális korrelációk alapján dönthetünk az egyenletbe való beválasztásról.
Question 83
Question
A többszörös lineáris regresszió alkalmazási feltétele, hogy az input változók függetlenek legyenek egymástól.
Question 84
Question
A többszörös lineáris regresszió összefoglaló táblázatában a t-értékek melletti p(SIG) értékek jelzik, hogy egy-egy független változó elméleti átlaga különbözik-e 0-tól.
Question 85
Question
A többszörös lineáris regrssziónak feltétele a csoportok szórósának egyenlősége.
Question 86
Question
Bináris logisztikus regresszióban az alkalmazás feltételei gyengébbek, mint lineáris regresszió elemzésnél.
Question 87
Question
Kétféle alap forgatás ismeretes: ortogonális és ferde forgatás
Question 88
Question
Az ortogonális forgatások a varimax, quartimax, equamax és promax.
Question 89
Question
Az Equamax a Varimax és a Quartimax módszer kombinációja. Minimalizálja az egy-egy faktoron erősen súlyozódó változók és egyben az egy-egy változóval magasan korreláló faktorok számát.
Question 90
Question
Direkt oblimin esetén egy delta paraméter segítségével szabályozhatók a faktorok.
Question 91
Question
A ferde forgatások Direkt oblimin és a Promax.
Question 92
Question
A legjobb faktorsúlyok 0,5 körüliek.
Question 93
Question
Kommunalitás: amit egy változó varianciájából a faktorok együtt magyaráznak.
Question 94
Question
EFA-t használunk ha már van egy alapismeretünk a modellről és CFA-t ha új struktúrákat akarunk találni.
Question 95
Question
A szfericitási feltétel, hogy a függő változók összes páronkénti különbsége legyen egyforma elméleti szórású
Question 96
Question
Főkomponensanalízisben Equamax rotáció után a főkomponensek nem feltétlenül lesznek korrelálatlanok
Question 97
Question
A többváltozós elemzésekben jónak mondható, ha a személyek száma 10-szerese a változók számának
Question 98
Question
Az agglomeretív hierarchikus KA során minden lépésben felbontunk két klasztert
Question 99
Question
Logit az odds logaritmusa
Question 100
Question
A szfericitás feltétele a független mintás VA-nak
Question 101
Question
Az RMSEA a CFA lényeges mutatója
Question 102
Question
Promax forgatásnál a faktorok nem korrelálnak egymással.
Question 103
Question
A scree-ploton a faktorok kommunalitását láthatjuk
Question 104
Question
A classification table a jövő heti lottó nyerőszámokat tartalmazza
Question 105
Question
A VA populációk vagy változók varianciáját hasonlítja össze.
Question 106
Question
TLR alapfeltétele, hogy a független változók ne korreláljanak egymással
Question 107
Question
Faktoranalízisben legalább 3-5 változó kell ahhoz, hogy egy érvényes faktort lehessen képezni belőlük.
Question 108
Question
A faktortöltés a korrelációs együttható a változó és a faktor között, ami a közös faktor hatását mutatja a mért változóra.
Question 109
Question
A maximum likelihood módszer az adatok normális esetén használható legjobb módszer.
Question 110
Question
A faktortöltések utalnak a faktornak a mért változóra való hatásának erejére és irányára
Question 111
Question
Egyváltozós statisztikai elemzésekben (EVS-ben) a VA az a módszercsalád, melynek segítségével csoportok és változók átlagait összehasonlíthatjuk. Itt a hangsúly az ugyanakkoraság, egyformaság, homogenitás tesztelésén van. TVS-ben a VA elemzéseinek hangsúlya azon van, hogy a kategoriális független változók együtt hogyan hatnak egy vagy több kvantitatív változó nagyságszintjére (átlagára).
Question 112
Question
A VA és a kovarianciaanalízis alkalmazásának két általános feltétele van: a függő változó(k) normalitása és a szóráshomogenitás
Question 113
Question
Faktorsúlynak (factor loading) a független változó és a faktor közti korrelációt nevezzük
Question 114
Question
A Klaszter-analízisben a centroid 1-1 klaszter átlagvektora.
Question 115
Question
A Főkomponens-analízis elsődleges célja kevés komponenssel sok változót helyettesíteni
Question 116
Question
A SCREE PLOT megmutatja, hogy hány faktort kell elforgatnunk
Question 117
Question
Ha egy változó KMO-ja 50 % feletti, minden esetben bevonható a faktorelemzésbe.
Question 118
Question
A kommunalitás a változóknak a többi változóval lefedett közös részét mutatja.
Question 119
Question
A FA a változókon végzett klaszteranalízis.
Question 120
Question
A főkomponensek elforgatásával nőhet az össz-megmagyarázott variancia értéke.
Question 121
Question
A kanonikus korreláció lényegében a megmagyarázott varianciát jelenti.
Question 122
Question
DA-nak nem feltétele a szóráshomogenitás
Question 123
Question
A Scree-plot azt mutatja meg, hogy mely faktorokat kell kiemelnünk.
Question 124
Question
A BLR fókusza a p valószínűség; odds(p)-re és logit(p)-re azért van szükség, hogy a TLR függő változója matematikailag kezelhető eloszlású legyen.
Question 125
Question
A következő esetekben érdemes BLR-t választani DA helyett:
A független változók (X-ek) együttes eloszlása nem többdimenziós normális
Az X-ek között kategoriálisak is vannak
A függő változónál a p valószínűség (binárisnál p = P(1)) egyedi, nem normális eloszláson alapul
Az X-ek között nem lineáris kapcsolatok is feltételezhetők
Question 126
Question
Minimum annyi főkomponens készíthető, ahány input változó van.
Question 127
Question
Ha van nulla sajátérték is FKA-ban, akkor azt mondjuk, hogy a korrelációs mátrix
szinguláris. Ilyenkor fellép a multikollinearitás (változók közti túl erős lineáris összefüggés)
Question 128
Question
Leggyakrabban az 1-nél nagyobb sajátértékű főkomponenseket tartjuk meg és a megtartott főkomponensek jónak mondhatók, ha az általuk magyarázott összvariancia-arány meghaladja a 70%-ot: MV% > 0,70.
Question 129
Question
A kommunalitások megmutatják, hogy egy-egy input változót a megtartott főkomponensek milyen arányban
magyaráznak (a főkomponensek által a változóból magyarázott varianciaarány)
Question 130
Question
0,5-ös kommunalitás alatt „kilóg” a változó a főkomponensek által képviselt modellből.
Question 131
Question
Forgatás után a faktorok által magyarázott összvariancia
megváltozik de egyes faktorok által magyarázott varianciák nem.
Question 132
Question
Az FKA alkalmazási feltételei: Mintanagyság , Linearitás , Interkorrelációk
Question 133
Question
Ha a változók közös része elhanyagolható, nincs értelme EFA-t végrehajtani.
Question 134
Question
Ha Bartlett erősen szignifikáns, nincs értelme EFA-t csinálni.
Question 135
Question
FKA: változók összinformációját faktorizálja míg FA: csak a változók közös információját
faktorizálja, tehát figyelmen kívül hagyja aváltozók azon információját, amelyek
egyediek, más változóval nem mutatnak átfedést
Question 136
Question
Lejtődiagram: faktorok összefüggéseinek meghatározása grafikus módszerrel: