Erstellt von Johanna Brinkmann
vor etwa 8 Jahre
|
||
Was sind die Ziele bei der Erfassung der Programmergebnisse?
Welche Anforderungen stellt dies an den Gutachter?
Benenne die 4 Schritte der Evaluation bei der Ergebnisbewertung
Wie ist "Programmergebnis" definiert?
Was ist bei Ergebnismessung zu beachten?
Definiere und beschreibe: "Ergebnisvariable"
Definiere und beschreibe: "Ergebnislevel"
Definiere und beschreibe: "Ergebnisveränderung"
Definiere und beschreibe: "Programmeffekt"
Bei der Fragestellung, welche Ergebnisse gemessen und analysiert werden sollten - welcherlei Perspektiven könnten Berücksichtigung finden?
Beschreibe die "Stakeholder-Perspektive"
Beschreibe die "Gutachter-Perspektive"
Beschreibe die "Programmwirkungstheorie"
Beschreibe "frühere Forschung" im Kontext der Auswahl relevanter Ergebnisse
Beschreibe "unbeabsichtigte Ergebnisse" im Kontext der Auswahl relevanter Ergebnisse
Beschreibe den groben Ablauf einer Ergebnismessung
Was stellt Diversifizierung bei der Ergebnismessung sicher?
1. Welche Datenquellen lassen sich z.B. für Programmergebnisse heranziehen?
2. Wie werden Informationen daraus zu Messungen?
Wenn kein geeignetes Messinstrument für die Ergebnismessung vorhanden ist, muss eines entwickelt werden - welche Schritte sieht das systematische Verfahren zur Entwicklung eines Messinstruments vor?
Kein Messinstrument ist 100% reliabel. Aber welche sind vergleichsweise besser? Und was ist die Hauptquelle geringer Reliabilität?
1. Mit welchen Methoden kann Reliabilität sichergestellt werden?
2. Welcher Wert wird idR. bevorzugt?
1. Wie kann in der Evaluationsforschung die Validität der Ergebnismessung sichergestellt werden?
2. Welches Problem stellt sich ganz speziell in diesem Bereich?
Ergebnismessungen müssen sensitiv sein, um Veränderungen oder Unterschiede aufzudecken -> aber wie kann Insensitivitöt entstehen? Und wie kann Sensitivität sichergestellt werden?
Wo liegt der Unterschied zwischen Ergebnisüberwachung und Wirkungsanalyse?