Mit Zahlen kann man Politik machen, ach was: Mit ihnen macht man ganz handfest Politik. Die einen durchforsten unendliche Zahlenkolonnen im Ersatz für die eigentlich zu führenden Gespräche mit den Menschen selbst, die anderen leiten das, was sie sagen, aus dem ab, was ihnen die Zahlen sagen. Und Wissenschaftler lieben die Zahlen sowieso und rümpfen nicht selten die Nase, wenn jemand „empiriefrei“ zu argumentieren wagt, auch wenn er oder sie ganz nah bei den Menschen ist. Das kann man verurteilen, kritisieren und ablehnen, es ändert alles nichts. Wenn die Währungseinheit Statistik ein eigenständiger Machtfaktor geworden ist, dann muss man eben kritisch auf die präsentierten „Daten und Fakten“ schauen, ob sie halten, was sie versprechen. Oder ob durch die Herstellung entsprechender Zahlenwelten Potemkinsche Dörfer aufgebaut werden als Kulisse für eine Zufriedenheitsproduktion.
In diesen Tagen wurde man von zahlreichen Seiten mit erfreulichen Nachrichten aus der Welt des ehrenamtlichen Engagements beglückt, denn am 5. Dezember wird alljährlich der internationale Tag des Ehrenamtes begangen. Da darf es nicht an lobenden Worten fehlen, die in diesem Fall aus der Politik nur zu gerne ausgereicht werden, denn die hat in mehrfacher Hinsicht einen Gewinn vom ehrenamtlichen Tun der vielen Menschen in unserem Land. Und die Politik vermeldet Höchststände beim ehrenamtlichen Engagement in unserem Land. Endlich mal gute Nachrichten.
Dabei gibt es natürlich auch die kritischen Stimmen und Berichte, die vor einer Überhöhung und Instrumentalisierung warnen. „Das Ehrenamt muss als Lückenfüller herhalten“, so ist beispielsweise ein Interview überschrieben mit Maria Ebert, die sich im Medibüro Berlin engagiert, wo sie Menschen ohne Krankenversicherung ärztliche Versorgung vermittelt. Almuth Knigge berichtet aus Bremen, immer wieder vorgetragene Bedenken teilweise bestätigend: Ohne Ehrenamtliche geht wenig: »Viele Millionen Menschen setzen sich in Deutschland für gemeinnützige Zwecke ein. In manchen Bereichen ersetzen sie inzwischen den Staat.« Und bereits im März dieses Jahres wurde die NDR-Dokumentation Ehrenamt unter Druck ausgestrahlt, dessen redaktionelle Beschreibung durch das Zitieren der quantitativen Bedeutung des Ehrenamts gut überleitet zu dem Aspekt, der in diesem Beitrag verfolgt werden soll:
»Man mag sich nicht ausdenken, was ohne das Engagement Zehntausender ehrenamtlicher Helfer, die sich um Flüchtlinge kümmern, geschehen würde. Aber nicht nur bei der Flüchtlingshilfe sind Ehrenamtliche im Einsatz. Sie engagieren sich für Obdachlose, sind in Altenheimen aktiv, arbeiten in Bahnhofsmissionen und Tafeln, im Umweltschutz, bei der freiwilligen Feuerwehr, in Sportvereinen und vielen anderen Bereichen. Beeindruckend allein die Zahlen. In ganz Deutschland engagieren sich 23 Millionen Menschen ehrenamtlich: In Schleswig-Holstein sind 40 Prozent der über 14-Jährigen ehrenamtlich tätig, in Niedersachsen 41 Prozent und in Hamburg und Mecklenburg-Vorpommern immerhin noch 29 Prozent.«
Da wird der eine oder andere Leser sicher denken, dass das a) eine ganz tolle Sache ist mit dem Engagement, dass aber b) die Engagement-Differenzen zwischen Schleswig-Holstein und Mecklenburg-Vorpommern ganz erheblich daherkommen. 40 zu 29 Prozent, so hat man es uns mitgeteilt.
Und schon sind wir mittendrin in der Zahlenwelt. Astrid Ehrenhauser hat sich in ihrem Artikel Zu fantastisch, um wahr zu sein kritisch mit der Statistik zum ehrenamtlichen Engagement auseinandergesetzt: »Früher haben sich rund 36 Prozent der Menschen in Deutschland ehrenamtlich betätigt. Jetzt sollen es knapp 44 Prozent sein. 20 Prozent mehr freiwilliges Engagement seit 2009?«
„Science-Fiction“ nennt der Sozialwissenschaftler Roland Roth die servierten Zahlen. Ein starker Vorwurf. Und der Mann ist nicht irgendwer bei diesem Thema, denn er »war sachverständiges Mitglied der Expertengruppe des zweiten Freiwilligensurveys von 2004. Er kritisiert die zwei Millionen Euro teure Umfrage von 2014 scharf. Das Bundesfamilienministerium finanziert die Freiwilligensurveys, die nun zum ersten Mal vom Deutschen Zentrum für Altersfragen durchgeführt und im April 2016 veröffentlicht wurde. Die ersten drei Wellen des Freiwilligensurveys wurden in den Jahren 1999, 2004 und 2009 erhoben.«
Das nunmehr für 2014 ausgewiesene deutlich größere ehrenamtliche Engagement beruht, so die Roth’sche Kritik, eher „auf veränderten Berechnungsgrundlagen“. Roth wird so zitiert: „Die Standards für Tätigkeiten, die als freiwilliges Engagement gelten sollen, wurden abgesenkt.“ So würden jetzt selbst „Kicken im Park oder das Wandern und Chorsingen im Altenverein als Beispiele für freiwilliges Engagement aufgeführt“. Und andere Studien wie etwa das Sozioökonomische Panel und die Shell-Jugendstudie, sehen diesen drastischen Anstieg nicht.
Was sagen die Kritisierten? Claudia Vogel, Mitherausgeberin der Studie, widerspricht Roth: »Höhere Lebenserwartung und ein „Engagement-Hype“ erklärten den Anstieg. Sie räumt jedoch ein, dass die Definition von Engagement erweitert wurde: So sei Singen im Chor in die Berechnung eingeflossen, „weil es einen Teamcharakter“ habe.«
In nach oben getriebenen Zahlen das Engagement betreffend liegt eine große Gefahr für das ehrenamtliche Engagement: die Politik ruht sich auf den „Erfolgen“ der eigenen Engagementpolitik aus. Roth spricht von einer »Neigung zu Hochglanz, zu postfaktischer Selbstdarstellung.«
Und die Ehrenamtsorganisationen? Sie schweigen, für Roth nicht wirklich überraschend: „Die direkte Abhängigkeit von öffentlichen Mitteln begünstigt leider eine Kultur, in der Kritik oft nur hinter vorgehaltener Hand vorgetragen wird.“
Ein anderes Beispiel: Heute überschlagen sich die Medien mit Berichten über die neuen PISA-Ergebnisse. Die Befunde aus PISA 2015 (vgl. auch diese Übersichtsseite der OECD) werden von den einen freudig, von den anderen hysterisch und von noch anderen distanziert aufgenommen. Darum soll es hier gar nicht weiter gehen, sondern um die in vielen Berichten vorgenommenen Vergleiche mit den PISA-Vorläuferstudien und der immer wieder gestellten (oft einzigen) Frage: Sind wir jetzt besser oder schlechter geworden oder gleich geblieben? Und wie stehen wir im Ranking mit den anderen Ländern? Das hat die gleiche „Gebt mir eine einzige Zahl“-Qualität wie die punktuelle Frage, wie viele Menschen in Deutschland sind denn arm.
Möglicherweise aber kann man sich die gesamte Vergleicherei mit den früheren Ergebnissen sparen. Warum? Schauen wir auf die Selbstbeschreibung von PISA 2015:
»Im April und Mai 2015 nahmen 253 Schulen mit 10.500 Schülerinnen und Schülern in ganz Deutschland am PISA-Test teil. Die Aufgaben aus den Bereichen Naturwissenschaften (Schwerpunkt), Mathematik, Lesen sowie Problemlösen im Team werden weltweit von Schülern in 73 Ländern bearbeitet.
Bei PISA 2015 werden nach 2006 zum zweiten Mal die naturwissenschaftlichen Kompetenzen der 15-jährigen Schülerinnen und Schülern als Schwerpunkt getestet. Das bedeutet, dass ein Großteil der Testaufgaben aus dem Gebiet der Naturwissenschaften stammt und jeweils ein kleinerer Teil zu den Bereichen Lesekompetenz und Mathematik gehört.«
So weit, so bekannt. Am man sollte weiterlesen:
»Neu ist, dass die Testaufgaben komplett computerbasiert bearbeitet werden. Dies gilt auch für die in dieser PISA-Runde enthaltenen übergreifenden Kompetenzen des Problemlösens im Team. Die Jugendlichen müssen hier am Computer Problemlöseaufgaben bearbeiten, in denen sie nicht auf sich allein gestellt sind, sondern virtuell Mitschüler oder Partner haben.«
Marcel Grzanna hat sich in seinem Artikel Computer statt Papier mit dieser grundlegenden Veränderung der Vorgehensweise bei PISA genauer beschäftigt. Die Ergebnisse der jüngsten internationalen Schülervergleichsstudie basieren erstmals auf einer digitalen Erhebung. Das eröffnet den Forschern ganz neue Möglichkeiten, die sie vorher nicht hatten, denn sie können Zusatzinformationen sammeln. Zum Beispiel darüber, wie lange die 15-Jährigen brauchen, um einzelne Aufgaben zu bewältigen.
»Allerdings stellt sich auch die Frage, ob die aktuelle Pisa-Studie mit den früheren überhaupt noch vergleichbar ist.« Diese Frage ist mehr als berechtigt und eben nicht nur ein methodischer Nebenaspekt. Wenn man sich die folgenden Erläuterungen von Grzanna durchliest, dann wird einem klar, dass hier massive Veränderungen am Testverfahren vorgenommen worden sind:
„Durch das neue Verfahren wird der Test authentischer und dynamischer. Wir wollen Kompetenzbereiche erfassen, die man nur sehr schwer mit handschriftlichen Verfahren erreichen kann“, sagt Andreas Schleicher, Chef der OECD-Direktion Bildung und Kompetenz in Paris. Ein Teil der Aufgaben stützt sich jetzt auf die Interaktion der Schüler mit der Software, besonders im Bereich Naturwissenschaften. Die Jugendlichen konnten bei manchen Aufgaben verschiedene Varianten ausprobieren und bekamen vom System eine Reaktion auf ihre Versuche. Daraus konnten sie neue Schlüsse ziehen, um schließlich ihre Antworten zu formulieren.
Durch die Interaktion mit der Software können die Forscher die Schüler auf ihrem Lösungsweg begleiten und besser verstehen, was in deren Köpfen vorgeht. Neu ist auch, dass Fragen nicht mehr zurückgestellt werden können. Das System fordert eine sofortige Bearbeitung und registriert, wie lange ein Schüler an einer Aufgabe tüftelt. Jeder Mausklick wird gespeichert.
Nun handelt es sich um seriöse Wissenschaftler und denen war im Vorfeld natürlich schon klar, dass das neue Vorgehen vielleicht nicht in allen der 73 teilnehmenden Ländern unter gleichen Bedingungen durchgeführt werden kann, was sie dann auch getestet haben. Mit diesem Ergebnis: »Es stellte sich heraus, dass die Kinder in manchen Ländern schneller unkonzentriert wurden, weil Computer und Bildschirme veraltet waren. Nachteile hatten auch Schüler aus Ländern, in denen Jugendliche es nicht gewohnt sind, am Computer zu arbeiten, und deshalb mehr Mühe haben, digitale Texte zu lesen und zu verstehen. Mancherorts kam es auch vor, dass die Internetleitung zusammenbrach oder der Strom ausfiel.«
Und welche Konsequenz hat man daraus gezogen?
»Um eine Verzerrung der Resultate wegen äußerer Faktoren zu vermeiden, wurden die Aufgaben nur in 58 der 73 Teilnehmerländer digital gestellt. In den anderen Staaten lösten die Schüler die Aufgaben weiterhin auf Papier.«
Da liegt dieser Hinweis mehr als nahe: »Experten warnen davor, die neue Rangliste mit der aus dem Jahr 2012 direkt zu vergleichen und aus möglichen Verbesserungen oder Verschlechterungen bei der Platzierung vorschnell Schlussfolgerungen zu ziehen … Der Anschluss an die Ergebnisse aus dem Jahr 2012 könne nicht reibungslos funktionieren, weil eine neue Form des Arbeitens hinzugefügt worden sei.«
Auch Thomas Kerstan beklagt in seinem Kommentar Modernisiert, ohne die Folgen auszutesten:
»Man weiß gar nicht genau, ob die deutschen Schüler im Vergleich zu 2012 besser oder schlechter geworden sind. Denn die Pisa-Forscher haben dieses Mal anders getestet … An insgesamt acht Schrauben wurde gedreht, um die Pisa-Studie zu modernisieren. Das widerspricht einer wissenschaftlichen Leitlinie: Wenn du Veränderung messen willst, dann verändere nicht die Messung, lautet sie.«
Leistungstrends lassen sich also erst 2018 nach der nun vorgenommenen Umstellung auf computerbasierte Testung ableiten. Aber was machen viele Medien und Kommentatoren heute? Es wird viele nicht überraschen: Sie vergleichen die neuen Werte mit den alten und leiten daraus munter Schlussfolgerungen ab für die Bildungspolitik. Wenn die Experten von der methodischen Unzulässigkeit wissen, dann handeln sie fahrlässig und getreu dem Motto: Wird schon keiner von den Lesern oder Zuhörern merken. Wenn sie das nicht wissen, dann sind sie keine Experten, sondern wollen ihr (politisches, ideologisches) Süppchen kochen auf dem kurzlebigen Medienhype um das Thema. Bis die nächste Sau durchs Dorf getrieben wird.