Doppelt-verblindete Studien, evidenz-basierte Medizin, jeder kennt die Erfolgsgeschichte der wissenschaftlichen Herangehensweise. Wer sich bisher fragte, warum diese erfolgreichen Methoden nicht auf die Erziehungswissenschaften übertragen werden, der erfuhr am Montag aus einem langen Artikel in der New York Times, dass dies bereits getan wird, beim Institute of Education Sciences (einer Behörde des US-Erziehungsministeriums) mit bisher 175 (doppeltverblindeten?) Studien:
What works in science and math education? Until recently, there had been few solid answers — just guesses and hunches, marketing hype and extrapolations from small pilot studies.
But now, a little-known office in the Education Department is starting to get some real data, using a method that has transformed medicine: the randomized clinical trial, in which groups of subjects are randomly assigned to get either an experimental therapy, the standard therapy, a placebo or nothing.
Die erste Frage, die ich mir bei solch wissenschaftlicher Herangehensweise stelle, ist natürlich: wie mißt man hier den Erfolg? In der Medizin ist klar: die bessere Methode ist die, bei der weniger Leute sterben oder mehr gesundwerden. In den Erziehungswissenschaften wird die Bewertung einer Methode offensichtlich von den zu wählenden Erfolgskriterien abhängen.
Aber in der Praxis ist es dann doch einfacher, es werden schlicht die Testerfolge bei klar definierten Problemstellungen gemessen. Ein konkretes Beispiel konnte man, ebenfalls am Montag, in einem anderen langen Artikel “Cognitive Science meets Pre-Algebra” ebenfalls in der New York Times besichtigen:
es ging um vier Typen von Aufgaben
■ Linear equations: for example, solving for x if 3(x + 1) = x + 17.
■ Word problems involving proportions. (Penelope’s tractor requires 14 gallons of gas to plow 6 acres. How many gallons will she need to plow 21 acres?)
■ Graphs. (Graph y = –3x + 1.)
■ Slopes. (Find the slope of the line that passes through (9, 7) and (2, 4).)
von denen die ersten beiden Typen und die letzten beiden Typen offenkundig “zusammengehören”. Je nachdem ob Schüler diese Aufgaben nun in vier getrennten Blöcken oder die beiden jeweils “zusammengehörenden” Typen in “gemischten” Blöcken geübt hatten, fielen die Ergebnisse aus, im zweiten Fall besser. (Und da fragt man sich dann wirklich, warum erst jetzt jemand darauf gekommen ist, das experimentell zu messen.)
Man mag beim Lesen eines solchen (etwas zu euphorischen und etwas zu unkonkreten) Artikels reflexhaft erstmal etwas skeptisch reagieren – Didaktiker, die irgendwelche ganz tollen, ganz neuen Ideen anpreisen, kennt man schließlich zur Genüge. Aber eigentlich geht es hier ja wirklich nur um ganz banale Selbstverständlichkeiten, eben dass Dinge, die nicht funktionieren, dann nicht alle 10 Jahre wieder neu aufgewärmt und an Schülern ausprobiert werden. Und so ist für mich die eigentlich interessanteste Information im Artikel die aus dieser Studie stammende:
And when rigorous studies were done, as many as 90 percent of programs that seemed promising in small, unscientific studies had no effect on achievement or actually made achievement scores worse.
Falls die evidenz-basierte Didaktik dazu beitragen sollte, dass diese 90 Prozent uneffektiver “Verbesserungen” nicht immer wieder “neuentdeckt” werden, dann hat sie ihren Zweck eigentlich schon erfüllt.
Guesses and Hype Give Way to Data in Study of Education, New York Times, 2.9.2013
Cognitive Science Meets Pre-Algebra, New York Times, 2.9.2013
Kommentare (3)