Ein Aspekt der Risikoabschätzung ist die Erstellung einer Kosten-Nutzen-Analyse – was in der Wissenschaft aber nicht immer so einfach ist. Die Arbeit am CERN ist Grundlagenforschung und da weiß man eben nicht im voraus, was am Ende dabei raus kommt. Die Entwicklung des World Wide Web hat für die gesamte Welt(wirtschaft) einen enormen Nutzen gehabt – aber es war nicht abzusehen, dass die Erforschung der subatomaren Welt irgendwann in einem weltweiten Datennetz für die Allgemeinheit resultieren wird und eine entsprechende Kosten-Nutzen-Analyse wäre unvollständig.
Eine weitere wichtige Frage lautet also: Wer entscheidet? Wer bestimmt, welche Projekte wichtig genug sind um umgesetzt und finanziert zu werden? Wer entscheidet, dass die Risiken gering genug sind? Eine klare Antwort gibt es nicht – aber jede Menge zu diskutieren, also gebe ich sie weiter:
Wer soll über Forschungspolitik entscheiden? Die Forscher selbst, die aber natürlich in diesen Fragen nicht neutral sein können – dafür aber am besten Bescheid wissen? Die Politiker, die als gewählte Volksvertreter eigentlich zuständig sind, aber nicht unbedingt qualifiziert und vielleicht auch von Lobbyisten beeinflusst werden? Oder die Bevölkerung selbst, die am Ende ja von den Ergebnissen profitiert, von den Risiken betroffen ist und das ganze über ihre Steuergelder auch finanziert – aber im Allgemeinen gar nicht genug Ahnung hat, um eine informierte Entscheidung zu treffen?
In diesem Zusammenhang möchte ich auch noch gerne auf eine sehr interessante Folge des Resonator-Podcast verweisen, bei der ein Professor für Technikphilosophie und Leiter des Büros für Technikfolgenabschätzung beim Deutschen Bundestag über seine Arbeit mit der Risikoabschätzung spricht.
Kapitel 11 fand ich zwar sehr interessant zu lesen – aber der Zusammenhang mit dem Rest des Buches ist mir nicht so ganz klar geworden. Bei Kapitel 12 ist das aber offensichtlich. Hier geht es um Messungen und Unsicherheiten und die spielen in der Teilchenphysik eine wichtige Rolle. In der Wissenschaft muss man sich immer damit beschäftigen, dass man die Dinge nicht beliebig exakt messen kann und der Zufall bei den Messungen ebenfalls berücksichtigt werden muss. Man muss einen Weg finden, mit den Messfehlern umzugehen und die Wahrscheinlichkeiten in den Griff bekommen. Randall spricht einen weiteren Punkt an, über den sich gut diskutieren lässt:
Im Lehrplan von Harvard wurde ein Element eingeführt, dass “empirical reasoning” genannt wurde. Ich weiß nicht, wie es in der deutschen Ausgabe übersetzt wurde. Aber “rationales Denken” würde vielleicht gut passen. Damit ist gemeint, dass man lernen soll, wie man empirische Daten sammelt, gewichtet, Wahrscheinlichkeiten zuweist, versteht und interpretier, Daten auswertet und vor allem feststellt, wann die Daten nicht reichen, um Aussagen treffen zu können. Wo wird so etwas auch hier bei uns gelehrt und wo sollte es gelehrt werden? Wann kann man damit anfangen, so etwas zu unterrichten? Ist das etwas, das nur für Wissenschaftler von Interesse ist oder sollte das zur allgemeinen Ausbildung in Schulen und an Universitäten gehören?
Randall betont, wie wichtig das Wissen über Messfehler und Unsicherheiten ist und das man eigentlich immer die Fehlergrenzen seiner Ergebnisse angeben muss. Aber selbst dann muss man sich auch mit den Wahrscheinlichkeiten beschäftigen und das gilt vor allem in der Teilchenphysik. Ich habe das in diesem Artikel schon mal ausführlich beschrieben und möchte das hier deswegen nicht wiederholen.
Nach all den Geschichten über Messungen und Unsicherheiten wird es jetzt langsam mal Zeit, dass wir auch erfahren, wie am LHC Dinge gemessen werden und das erfahren wir in Kapitel 13 des Buches. Kapitel 14 erklärt dann, wie man die Messungen interpretiert und (unbekannte) Teilchen identifiziert. Die beiden Kapitel sind zwar ein klein wenig länger als bisher, aber ich schlage trotzdem vor, dass wir sie bis zum 4. April lesen – denn dann haben wir auch gleich den dritten Teil des Buches abgeschlossen und können zu den interessanten Ergebnisse übergehen.
Kommentare (15)