Online abgehaltene Tests (TUWEL-Aktivität "Test") erlauben es, das Wissen der Studierenden ohne klassische Hörsaalpräsenz zu überprüfen. Damit daraus jedoch ein sinnvolles, treffsicheres und aussagekräftiges Messinstrument wird, sollten einige wesentliche Aspekte in der Fragenerstellung, Testvorbereitung und -durchführung beachtet werden. Diese "DOs & DON'Ts" werden hier zusammengefasst.
Die vorgestellten Methoden & Werkzeuge beziehen sich auf didaktische Aspekte sowie die technische Umsetzung in und mit TUWEL.
Best Practices sind in folgendem Leitfaden sehr gut zusammengefasst:
Empfehlung zum Einsatz von Multiple-Choice-Prüfungen (TU München)
Kurzzusammenfassung Multiple-Choice-Prüfungen (TU München)
Anderson, L.W. & Krathwohl, D.R. (Eds.) (2001): A Taxonomy of Learning, Teaching and Assessing. A Revision of Bloom’s Taxonomy of Educational Objectives. Addison Wesley
Longman.
Zunächst sollte Klarheit darüber erlangt werden, wie das zu überprüfende Wissen überhaupt strukturiert ist (inhaltlich) und wie sich die Lernergebnisse nach Niveaugraden (Taxonomiestufen) unterscheiden, siehe dazu Beispiele im TUM-Leitfaden sowie die Taxonomietabelle aus Anderson/Krathwohl (2001):
Diese 6-teilige Einteilung des Stoffes zeigt auch, welche Teile sich tendenziell gut (Spalten 1 - 4 "erinnern" .. "Analysieren") bzw. schlecht (Spalten 5 - 6, "Bewerten"/"Entwickeln") mittels Multiple-Choice-Tests überprüfen lassen.
Nächster Schritt ist die Erstellung eines "Blueprints" des Tests: der Teststoff wird top-down nach inhaltlichen Aspekten vs. Taxonomieeinteilung aufgeteilt und gewichtet. Diese "Testlandkarte" quantifiziert die (erwarteten) Ansprüche, die der Test an die Studierenden stellen soll, recht detailliert. Diese Herangehensweise ist für alle Arten von Tests möglich und zielführend, denn so gelingt es systematisch, gut balancierte, treffsichere Tests zu entwickeln.
Erst wenn klar ist, welche Inhalte auf welcher Taxonomieebene überprüft werden sollen (Blueprint, s.o.), sollte das eigentliche Design der Fragestellungen durchgeführt werden - dies ist dann wesentlich effizienter und zielsicher.
Im Fragedesign sind einige wesentliche Aspekte zu beachten. Jede Frage besteht aus dem Fragetext ("Aufgabenstamm") und mehreren Antwortoptionen zusammen. Die wichtigsten DO's & DONT's dabei:
Das beste Fragedesign ist graue Theorie - erst durch tatsächliche Beantwortungen z.B. mittels Peer-Review der Fragen durch Dritte oder durch einen Vortest kann ermittelt werden, ob die Frage tatsächlich wie erwartet funktioniert. Lessons Learned dabei:
Peer-Review muss ernsthaft durchführt werden: Die Reviewer müssen unter Echtbedingungen (verfügbare Quellen & Informationen, Original-Wortlaut der Frage und Antwortoptionen, evtl. Zeitbeschränkung) die Antworten bestimmen, ohne zuvor die korrekte Antwort zu kennen.
Ein guter Ansatzpunkt/Hinweis ist es, wenn ein Peer-Review mit z.B. KollegInnen erfolgt und die KollegInnen (auch nur Kleinigkeiten) zur Fragestellung rückfragen ("wie ist das gemeint?", "meinst du <XY>?", ...): dies deutet darauf hin, dass die Frage potentiell bereits zu unklar/unvollständig formuliert ist. Dies ist schnell ein blinder Fleck im Peer-Review! |
TUWEL bietet die Aktivität "Test" und darin mehrere Fragetypen. Allgemeine Bedienung und Konfiguration wird in den TUWEL-Anleitungen bzw. Cheatsheets erklärt.
Folgende zusätzlichen Aspekte sind für Multiple-Choice-Tests relevant:
Die Testbedingungen von Onlinetests (außer im Hörsaal) sind schlecht oder nicht kontrollierbar.
Verwandte Artikel erscheinen hier basierend auf den Stichwörtern, die Sie auswählen. Klicken Sie, um das Makro zu bearbeiten und Stichwörter hinzuzufügen oder zu ändern.
|