Question 1
Question
A béta-súlyok alapján többszörös lineáris regresszió-elemzésben eldönthetjük, hogy két független változó közül melyiknek van nagyobb hatása a függő változóra.
Question 2
Question
Lépésenkénti regresszióban a 3. lépéstől a bevonási kritérium tesztelése előtt megnézzük, hogy nincs-e olyan korábban bevont változó, melyet ki kell ejtenünk a modellből.
Question 3
Question
A szemi-parciális korreláció négyzete a TLR-ben egy változóval kapcsolatban azt mutatja, hogy mennyivel nőne R2, ha ha a változót kihagynánk a független változók közül.
Question 4
Question
A legkisebb négyzetes regresszió kritériuma, hogy minimális legyen a regressziós becslés és a függő változó közti átlagos négyzetes eltérés.
Question 5
Question
A lépésenkénti regresszióban az R2-et annak a változónak a bevonása emeli meg a legjobban, amelynek a legalacsonyabb a parciális korrelációja az Y-nal, a korábban bevont változók hatásának a kiszűrése után.
Question 6
Question
A standardizált regressziós együtthatók segítségével össze lehet hasonlítani az egyes független változók regressziós hatását.
Question 7
Question
A logit a függő változó valószínűségének logaritmusa.
Question 8
Question
Kanonikus korreláció-elemzésben két változócsopot egymással erősen korreláló közös struktúráját keressük.
Question 9
Question
A diszkriminancia-analízis alkalmazásának feltétele, hogy a független változók diszkrétek legyenek.
Question 10
Question
Minél nagyobb a Wilks-lambda a diszkriminancia-analízisben, annál jobb a DA (=diszk.analízis) predikciós modellje.
Question 11
Question
A diszkriminancia-analízis egyik alkalmazási feltétele a független változók normális együttes eloszlása.
Question 12
Question
A 2. főkomponens sajátértéke sosem lehet nagyobb, mint az 1. főkomponensé.
Question 13
Question
A rotáció általában megkönnyíti az FA-modell értelmezését.
Question 14
Question
A maximum likelihood faktormodell nem veszi figyelembe a változókra specifikus egyedi részleteket.
Question 15
Question
Klaszteranalízisben az 1-nél nagyobb sajátértékű klasztereken szoktak relokációt végezni.
Question 16
Question
Klaszteranalízisben két klaszter közül az a homogénebb, amelyiknek a homogenitási együtthatója nagyobb.
Question 17
Question
A KMO 0,75-ös értéke már jónak mondható.
Question 18
Question
A nemhierarchikus klaszteranalízis egymásra épülő klasszifikációk rendszere, melyhez úgy jutunk, hogy lépésenként egyesítünk vagy felbontunk klasztereket.
Question 19
Question
Log-lineáris elemzéssel diszkrét változók közti speciális kapcsolatokat tesztelhetünk.
Question 20
Question
A log-lineáris elemzést korrelációs mátrixokon szokás végezni.
Question 21
Question
Többváltozós elemzésekben elvárt, hogy a személyek száma 3-5-ször akkora legyen, mint a változóké.
Question 22
Question
Hierarchikus klaszteranalízisben a legközelebbi szomszéd módszer alkalmazása azt jelenti, hogy mindig a két legközelebbi klaszterközéppontú klasztert egyesítjük a közös klaszterbe.
Question 23
Question
Kovariancia-analízisben korrigált mintaátlagokat hasonlítunk össze.
Question 24
Question
A log-lineáris elemzés sima khí2-próbás kapcsolatvizsgálat általánosítása.
Question 25
Question
Bináris logisztikus regresszióval ugyanarra a fő kérdésre kaphatunk választ, mint egy megfelelő DA-val.
Question 26
Question
A rotációk hatására hasonlóbbá válnak az egyes faktorok által megmagyarázott varianciák.
Question 27
Question
Regresszióban a konstans tag jelzi, hogy egységnyi megváltoztatásával milyen mértékben változik a függőváltozó.
Question 28
Question
Két szempont között a variancia analízisben (VA) akkor van interakció, ha közös hatásuk az egyedi hatások sima összege.
Question 29
Question
Ha az FA-ban egy input változó KMO-értéke 0,25 feletti, akkor a változó bevonható a faktormodellbe.
Question 30
Question
A klaszteranalízis lényege, hogy eseteket vagy változókat páronkénti távolságaik alapján homogén csoportokba rendezünk.
Question 31
Question
A maximum likelihood faktoranalízisben ugyanannyi faktorral a változók varianciájának nagyobb hányadát tudjuk megmagyarázni, mint egy ugyanazon változókon végrehajtott főkomponensanalízisben.
Question 32
Question
A varimax rotiációval a faktorok által megmagyarázott összvariancia esetenként növelhető.
Question 33
Question
Többszörös lineáris regresszióban a többszörös korrelációs együttható négyzete a regresszió standard hibája.
Question 34
Question
A Wilks-lambda szoros kapcsolatban van a megmagyarázott varianciával.
Question 35
Question
Lépésenkénti regresszióanalízisben a függő változóval kiszámított parciális vagy szemiparciális alapján döntünk az egyenletbe való beválasztásról.
Question 36
Question
Két szempont között a VA-ban akkor van interakció, ha a két szempont szoros közvetlen kapcsolatban van.
Question 37
Question
A diszkriminancia analízis fő célja egy olyan predikciós szabály megalkotása, amellyel kvantitatív változók értékeiből bejósolható egy kvalitatív változó értéke.
Question 38
Question
A Bx regresszió együttható értéke azt mutatja meg, hogy az X független változó értékét 1 egységgel megnövelve az Y függő változó értéke várhatóan hogyan változik.
Question 39
Question
Az FA a változókon végzett klaszteranalízis.
Question 40
Question
Többváltozós varianciaanalízisnél függetlennek kell legyenek a változók.
Question 41
Question
Kovarianciaanalízissel főleg a változók közti interakciót vizsgáljuk.
Question 42
Question
A DA és TLR közötti lényeges különbség, hogy az előbbi kvalitatív, utóbbi kvantitatív függő változókkal dolgozik.
Question 43
Question
Forgatással megváltozik a faktorok illeszkedése.
Question 44
Question
A Screeplot a faktorok sajátértékét ábrázolja.
Question 45
Question
A faktorforgatással megváltozik a modell illeszkedése
Question 46
Question
A Klaszter-analízisben a centroid 1-1 klaszter átlagvektora
Question 47
Question
A Főkomp-anal. elsődleges célja kevés komponenssel sok változót helyettesíteni
Question 48
Question
Többszörös lin.regresszióban a korr. együttható négyzete a regr. standard hibája.
Question 49
Question
A faktoranalízis gyakorlatilag személyeken végzett klaszteranalízis.
Question 50
Question
A SCREE PLOT megmutatja, hogy hány faktort kell elforgatnunk.
Question 51
Question
A kommunalitás a változóknak a többi változóval lefeledett közös részét mutatja.
Question 52
Question
Ha egy változó KMO-ja 50 % feletti, minden esetben bevonható a faktorelemzésbe.
Question 53
Question
A Bartlett-próba a modell megfelelőségét mutatja.
Question 54
Question
A DA és TLR közit egyetlen különbség, hogy a DA kvalitatív függő változót feltételez.
Question 55
Question
Többszörös regresszió analízisben a béta a lineáris regressziós együttható.
Question 56
Question
Varimax rotációnál a faktorok mindig korrelálatlanok egymással.
Question 57
Question
Főkomponens analízissel kevés főkomponenssel helyettesítünk többváltozót.
Question 58
Question
Diszkriminancia-analízis feltétele a szóráshomogenitás és normalitás
Question 59
Question
Klaszteranalízisnél a legközelebbi szomszéd elv esetén a két legközelebbi klaszteregységet vonjuk össze.
Question 60
Question
A kommunalitás, a forgatás után, a változónak a főkomponensek által megmagyarázott variancája.
Question 61
Question
A sajátérték azt mutatja, hogy a változók mennyit magyaráznak a faktor varianciájából.
Question 62
Question
A kovariancia-analízis révén hatások kombinált interakciói mutathatók ki.
Question 63
Question
A determinációs együttható megmagyarázott variancia-arány.
Question 64
Question
A kannonikus korreláció két skála közös részét emeli ki változóik korrelációja (lineáris függvényei) segítségével.
Question 65
Question
A kanonikus korreláció lényegében a megmagyarázott varianciát jelenti.
Question 66
Question
A kanonnikus korreláció két fajtája, a többszörös lineáris regresszió (TLR) és a diszkrimincia analízis (DA), a különbség köztük, hogy a TLR-nél az y függő változó kvantitatív, míg DA-nál kvalitatív.
Question 67
Question
Az interakció nem más, mint a független változók additív hatása.
Question 68
Question
A főkomponens analízis: adatredukció, a lehető legtöbb információ megtartásával.
Question 69
Question
A Bartlett próba a faktoranalízisben a faktorstruktúra jóságát mutatja.
Question 70
Question
A faktoranalízisnél a faktormátrixban a legnagyobb súllyal eső faktorok segítenek a faktor lényegét megragadni.
Question 71
Question
VA-ban az interakció kovariancianalízissel tesztelhető.
Question 72
Question
A többszörös linregresszóban a bétasúly a.stdizált regressziós együttható, az egyenletben.
Question 73
Question
A faktorelemzésnél az ábra az spss-ben (screenplot) alapján meg lehet mondani, hogy hány faktort emeljünk ki.
Question 74
Question
KLA-ban a legtávolabbi szomszéd elv esetén a két legközelebbi klaszter legtávolabbi értékeit vesszük figyelembe.
Question 75
Question
A BLR arra fókuszál, hogy a független változók értékkombinációi segítségével minél pontosabban megadja a célcsoportba tartozás valószínűségének a logitjét, egyben a két csoportba tartozás valószínűségét. A BLR esetén is szokásos a lépésenkénti beléptetés alkalmazása, mely csak az önálló szignifikáns hatású független változókat lépteti be a regressziós modellbe. A BLR-ben többféle regressziós optimalizációs algoritmus is lehetséges, mi ezek közül a „Forward likelihood ratio” (lépésenkénti likelihood hányados) módszert alkalmaztuk, mely a maximum likelihood becslésre épít.
Question 76
Question
Bináris logisztikus regresszióban az alkalmazás feltételei gyengébbek, mint lineáris regresszió elemzésnél.
Question 77
Question
Bináris logisztikus regresszióval ugyanarra a fő kérdésre kaphatunk választ, mint egy megfelelő diszkriminancia- analízissel.
Question 78
Question
A regressziós táblázat béta együtthatói jelzik, melyik független változónak milyen a hatása a függő változóra.
Question 79
Question
"Minél nagyobb egy regresszió hibavarianciája, annál jobb
a modell illeszkedése."
Question 80
Question
A regresszió táblázat standardizált regressziós együtthatóiból kiolvasható, hogy melyik független változónak van a legnagyobb hatása a függő változóra.
Question 81
Question
Regresszióban az "ENTER" módszer választása esetén minden változó benne lesz a regressziós modellben.
Question 82
Question
Egy regressziós-modell megmagyarázott variancia-hányadát az R-négyzet érték mutatja.
Question 83
Question
A béta súlyok a standardizált regressziós együtthatók
Question 84
Question
A regressziós egyenes az, amelynél a pontok átlagos négyzetes távolsága az egyenestől (= Res = Hibavariancia) a legkisebb.
Question 85
Question
Az eta-négyzet a lineáris regresszió determinációs együtthatójával rokon mutató.
Question 86
Question
A lineáris regresszió érvényessége függ attól, hogy a vizsgált változók normalitása teljesül-e.
Question 87
Question
A többszörös lineáris regresszió alkalmazási feltétele, hogy az input változók függetlenek legyenek egymástól.
Question 88
Question
Többszörös lineáris regresszióban a többszörös korrelációs együttható négyzete a regresszió standard hibája.
Question 89
Question
A béta-súlyok alapján a többszörös lineáris regresszió- elemzésben eldönthetjük, hogy két független változó közül melyik van nagyobb hatással a függő változóra.
Question 90
Question
A többszörös lineáris regresszió összefoglaló táblázatában a t-értékek melletti p(SIG) értékek jelzik, hogy egy-egy független változó elméleti átlaga különbözik-e 0-tól.
Question 91
Question
A többszörös lineáris regressziónak feltétele a csoportok szórósának egyenlősége.
Question 92
Question
Lépésenkénti regresszióanalízisben a függő változóval kiszámított parciális korrelációk alapján dönthetünk az egyenletbe való BEválasztásról.
Question 93
Question
Lépésenkénti regresszióanalízisben a függő változóval kiszámított parciális korrelációk alapján dönthetünk az egyenletbe való leválasztásról.
Question 94
Question
A lépésenkénti regresszióban parciális vagy szemiparciális korrelációk segítségével döntünk a függő változó modellbe való bevételéről.
Question 95
Question
A lépésenkénti regresszió során lépésenként megnézzük, van-e szignifikáns, plusz hatású független változó.
Question 96
Question
A lejtődiagram segítségével eldönthetjük, hogy a lépésenkénti regresszióanalízisben hol álljunk meg.
Question 97
Question
A diszkriminancia-analízis abban a lényeges momentumban különbözik a többszörös lineáris regresszió módszerétől, hogy a függő változó a DA-ban jellemzően kvalitatív, a TLR-ben pedig kvantitatív.
Question 98
Question
A diszkriminancia-analízis CSAK EGY lényeges momentumban különbözik a többszörös lineáris regresszió módszerétől, hogy a függő változó a DA-ban jellemzően kvalitatív, a TLR-ben pedig kvantitatív.
Question 99
Question
A diszkriminancia-analízis egyik alkalmazási feltétele, hogy teljesüljön a szóráshomogenitás feltétele.
Question 100
Question
A diszkriminancia-analízis egyik alkalmazási feltétele, hogy minden független változóra teljesüljön a szóráshomogenitás feltétele.
Question 101
Question
Ha két változó között a korreláció pozitív, akkor a parciális korreláció sem lehet köztük negatív.
Question 102
Question
A Levene-próbának fontos alkalmazási feltétele a szóráshomogenitás.
Question 103
Question
A Levene-próba szóráshomogenitást tesztelő eljárás.
Question 104
Question
Két normális együttes eloszlású változó között lehet U alakú kapcsolat is.
Question 105
Question
Lépésenkénti diszkriminancia-analízisben a kovarianciaanalízisek alapján döntünk az egyenletbe való beválasztásról.
Question 106
Question
Lépésenkénti diszkriminancia-analízisben a VARIANCIA- kovarianciaanalízisek alapján döntünk az egyenletbe való beválasztásról.
Question 107
Question
A faktoranalízis nem foglalkozik a kilógó esetekkel, ezeket kihagyja. ( a mlfa…a fka mindent bevesz)
Question 108
Question
A faktorsúlymátrix a faktorok és az eredeti változók közti korrelációk táblázata.
Question 109
Question
A KMO 0,70-es értéke a faktoranalízisben már igen jónak mondható.
Question 110
Question
A rotáció célja a faktoranalízisben az, hogy a változók faktorsúlyai minél egyenletesebben oszoljanak meg a különböző faktorokban.
Question 111
Question
A rotációval javul a faktorok illeszkedése az input változókra.
Question 112
Question
A rotáció általában megkönnyíti az FA-modell értelmezését.
Question 113
Question
Egy faktor sajátértéke azt mutatja meg, hogy a változók összesen a faktor varianciájának hányad részét magyarázzák.
Question 114
Question
Egy faktor sajátértéke azt mutatja meg, hogy a faktorok a változó varianciájának összesen hányad részét magyarázzák
Question 115
Question
Ha a Bartlett-próba a faktoranalízisben szignifikáns, akkor a faktoranalízis érvényessége kérdésessé válik.
Question 116
Question
Ha az FA-ban a Bartlett-próba erősen szignifikáns, akkor a modell nagyon nem megfelelő.
Question 117
Question
Faktoranalízisben egy változó arra a faktorra illeszkedik, amelyen a faktortöltése a legnagyobb.
Question 118
Question
Ha az FA-ban egy imput változó KMO-értéke 0.25 feletti, akkor a változó bevonható a faktormodellbe.
Question 119
Question
Egy faktormodell illeszkedésének jóságát jelzi a forgatott faktorok által megmagyarázott összvariancia.
Question 120
Question
A faktorelemzés során a végső kommunalitásoknak általában 0,7 felettieknek kell lenniük.
Question 121
Question
Egy változó kommunalitása azt mutatja meg, hogy a faktorok együtt az adott változó varianciájának összesen hányad részét magyarázzák.
Question 122
Question
A kommunalitás egy változónak az a része, amit nem lehet a többi változó segítségével megmagyarázni.
Question 123
Question
A maximum likelihood faktoranalízis a változók egyediségét figyelmen kívül hagyja, és csak a közös részek alapján keres értelmes struktúrát.
Question 124
Question
A maximum likelihood faktoranalízisben ugyanannyi faktorral a változók varianciájának nagyobb hányadát tudjuk megmagyarázni, mint a főkomponensanalízisben.
Question 125
Question
A kétmintás t-próba a varianciaanalízis speciális esetének tekinthető.
Question 126
Question
Ha a VA-ban a szóráshomogenitás sérül, akkor például a Games-Howell-féle eljárás alkalmazható a szintátlagok páronkénti összehasonlítására.
Question 127
Question
Szignifikáns VA esetén utótesztekkel értékelhetjük a szintátlagok páronkénti különbségeit.
Question 128
Question
A VA-nak nagy minták esetén nem fontos feltétele a szóráshomogenitás és a normalitás.