En oppgaves vanskelighetsnivå defineres i Item Response Theory (IRT) som
Proporsjonen testtakere som svarer riktig
Proporsjonen testtakere som svarer galt
Hvor mye evne (egenskap) som trengs for 50% sjanse til å svare riktig (være enig)
Hvor mye evne (egenskap) som trengs for l00% sjanse til å svare riktig (være enig)
Hvor mange itemparametere (oppgavekarakteristikker) er inkluderte i Rasch-modeller?
1
2
3
4
Hva er spesielt for Rasch‐modeller sammenlignet med andre IRT‐modeller?
ICC er overkryssende
ICC er spredt over aksen
ICC er parallelle
ICC er serielle
Ingen sammenheng evne‐testpoeng
Sammenheng evne‐testpoeng
Sammenheng vanskelighetsnivå‐diskriminering
Ingen sammenheng vanskelighetsnivå‐diskriminering
Hvordan håndterer man normalt personer som ikke får fit i en IRT-modell?
Inkluderer dem
Ekskluderer dem
Erstatter dem
Forandrer modellen
Hva er hovedgrunnen til at et item ikke får fit?
Modellen
Utvalget
Innholdet
Tilfeldighet
Hvilken antakelse om populasjonen gir grunnlag for å bruke Mixed Rasch Model (MRM)?
Utvalget er ikke representativt
Populasjonen er homogen
Populasjonen er heterogen
Evnenivået varierer veldig
I bildet vises resultater fra en Rasch-analyse av alle items i testen MRT-10. Hvilket item har ikke "fit"?
5
6
7
8
9
10
I tabellen vises p-verdier fra Winmira for analyser av testen MRT-10 med én til fire klasser. Med hvor mange klasser har vi model fit?
1 klasse
2 klasser
3 klasser
4 klasser