Statt dessen habe ich ein neues Blog-Netzwerk-Projekt gestartet. Man findet es unter dem schönen Domain-Namen KulturBlogs.de.
Einerseits ist es ein bisschen schade, die Gründung dieses neuen Netzwerks bestätigt ein bisschen die alte These von den “zwei Kulturen”, die ich eigentlich ablehne. Andererseits ist KulturBlogs.de für mich ein Neuanfang, von dem man nicht wissen kann, wo er hinführt – vielleicht ist dort, in der beschaulichen Ruhe eines kleinen unbekannten Blog-Netzwerkes, ja eine unbeschwerte, freundliche, konstruktive Diskussion über alle Aspekte der Kultur – zu denen auch die Wissenschaft zählt – möglich. Wer weiß – vielleicht kommt es über einen Umweg zur Annäherung.
Jedenfalls ist jeder herzlich eingeladen, dem am kritischen, kontroversen, aber respektvollen Dialog liegt, bei den KulturBlogs mitzuwirken.
]]>Was ich allerdings nicht für möglich hielt, war, dass man mich für einen Feind der Wissenschaft halten könnte. Ich habe aus meiner Begeisterung für die großen Erfolge der Wissenschaften nie ein Geheimnis gemacht. Gerade aus einer Begeisterung, einer großen Zuneigung heraus erwächst ja oft die Sorge, dass sich das geliebte Wesen selbst zerstören könnte. Was die Wissenschaft betrifft, gibt es genügend Grund zur Sorge: Wie jede andere Institution entwickelt sie Tendenzen zur Erstarrung, zum Beharren, zur Machtausübung oder (zum Zwecke der Selbsterhaltung) zu Bündnissen mit Machthabern, die wiederum dieses Bündnis zu eigenen Zwecken ge- oder missbrauchen. Ob die Lebenskräfte der wissenschaftlichen Methode immer stark genug sind, diesen Tendenzen der Beharrung, Erstarrung, Selbstverleugnung und -täuschung zu widerstehen, ob es nicht vielmehr durch die Verstrickung mit Technologie und Politik sogar zu einer Lähmung des Organismus kommt, sodass ursprüngliche Ziel der Suche nach Wahrheit unmerklich ganz aufgegeben wird, ist gerade heute völlig ungewiss. Wer die Wissenschaft wirklich liebt, darf vor den erschütternden Konsequenzen dieser Eigendynamik nicht die Augen verschießen, darf die offensichtlichen Probleme nicht als nebensächliche Oberflächenphänomene abtun, die dem gesunden lebenden Wesen im Kern nichts anhaben können.
Ich hatte monatelang geglaubt, dass eine solche Kommunikation durch Beharrlichkeit und Geduld bei allen Beteiligten irgendwann zustande kommen würde. Dabei war mir bewusst, dass ich eine andere Sprache spreche als die, mit denen ich zu sprechen versuche, auch wenn ich die gleichen Worte verwende. Jeder weiß, dass man in unterschiedlichen Sprachen der Wahrheit auf verschiedene Weise näher kommen kann und dass man sogar unterschiedliche sprachliche Mittel braucht, um die Komplexität einer Wahrheit überhaupt in den Blick zu bekommen. Durch das beharrliche Aufklären von Missverständnissen, durch Umschreibungen und Umkreisungen, so dachte ich, würde Stück für Stück ein gemeinsamer Sprach-Raum entstehen, indem eine Verständigung ohne Kompromisse möglich werden würde. (Ich habe heute versucht, meine Vorstellungen von einer solchen Kommunikation in meinem persönlichen Blog darzustellen.)
Dass diese Idee scheitern würde, deutete sich zum ersten Mal an, als der Versuch, Missverständnisse zu benennen und auszuräumen als „Unbelehrbarkeit” oder als „Ausweichen” interpretiert wurde. Immer, wenn man mir einen Fehler nachweisen würde, so wurde argumentiert, würde ich behaupten, ich hätte „das alles ja nicht so gemeint”.
Andererseits entwickelten sich bei Arte-Fakten immer wieder interessante Diskussionen und so war ich lange Zeit der Überzeugung, dass im Laufe eines langen Prozesses eine Verständigung möglich werden würde. Ich selbst würde lernen, mich besser verständlich zu machen und mit überraschenden Deutungen sicherer umzugehen, der gemeinsame Kommunikationsraum mit denen, die an meinen Gedanken interessiert waren, würde größer werden.
Ich möchte allen danken, die sich immer wieder auf Diskussionen mit mir eingelassen haben, vor allem denen, denen meine Gedanken besonders fremd waren, die aber trotzdem immer wieder das Gespräch aufnahmen. Der Blog-Artikel ist ja nur ein Gesprächsangebot, der Dialog beginnt mit dem Kommentar. Auch ich habe, genau wie georg es gestern in seinem Kommentar geschrieben hat, durch diese Gespräche über vieles genauer nachgedacht und eine Menge gelernt.
In den letzten Wochen zeigte sich jedoch, dass die Grenzbefestigungen nicht geschliffen wurden, sondern dass die Mauern eher größer wurden, und dass vor allem in Richtung zu anderen ScienceBloggern. Die Kommentare zu meinen Artikeln seit Mitte August zeigten zweierlei: Einerseits, dass das Bild, welches bei diesen Autoren von mir inzwischen entstanden war, so verfestigt war, dass in jedem Artikel nur noch „zwischen den Zeilen” der „wissenschaftsfeindliche Grundtenor” gelesen werden konnte. Andererseits – und das wiegt noch schwerer – wiesen ScienceBlogger, darauf hin, dass ihnen durch Arte-Fakten und den Unsinn, den ich ihrer Meinung nach schrieb, selbst der Spaß am Bloggen vergeht. Ein Blog-Netzwerk lebt natürlich davon, dass sich Blogger gegenseitig anregen, wenn sie sich gegenseitig in die Schreib-Blockade treiben, führt das die Idee der gemeinsamen Plattform ad absurdum.
Hinzu kommen Diskussionen der letzten Tage, die hier nicht sichtbar sind und über die ich hier nicht berichten werde, die mir zeigten, dass ich gescheitert bin mit dem Ansatz, den ich mit Arte-Fakten verfolgt habe. Jedes solches Scheitern fügt auch der Idee, die man verfolgt hat, einen Schaden zu. Es wäre besser gewesen, jemand anders, der eine ähnliche Idee mit besseren Fähigkeiten verfolgt hätte, wäre zu ScienceBlogs gekommen. Dann wäre eine Kommunikation zu den Fragen, die ich noch immer für wichtig halte, vielleicht nicht gescheitert. Ich hoffe, dass das noch einmal möglich wird.
Auf meinem persönlichen Blog werde ich in den nächsten Wochen versuchen, auch dieses Scheitern aufzuarbeiten. Wer mich da kritisch begleiten will, ist herzlich eingeladen.
]]>Zu diesen Theatern gehört in Münster Der kleine Bühnenboden im Hinterhaus der Schillerstraße 48. Hier gab es am vergangenen Freitag die Premiere des Stückes “Blue Orange” von Joe Penhall.
In einer Psychiatrischen Klinik in London streiten der engagierter Assistenzarzt Bruce (Tilman Rademacher) und der spöttisch-abgeklärter Oberarzt Robert (Andreas Ladwig) um die Entlassung des jungen schwarzen Patienten Christopher (Julius Douglas Dombrink). Während der junge Arzt, ganz überzeugt von den Lehrsätzen seiner Ausbildung, eine Schizophrenie diagnostiziert, die unbedingt weiter behandelt werden muss, glaubt sein Chef, dass der Junge ganz gut in der Welt draußen klar kommen wird. Oder hat er nur das Budget und die Bettenauslastung der Klinik im Blick? Ist sein junger Kollege vielleicht eher ein Idealist, der den Menschen, unabhängig vom Geldbeutel und von der Finanzlage seines Arbeitgebers helfen will?
Wie im wirklichen Leben ist hier nichts sicher, kein Urteil hält sich länger als bis zum nächsten Akt. Prallt Schulwissen hier auf Lebenserfahrung? Oder Idealismus auf Realismus und Abgebrühtheit?
Zunehmend fragt sich der Zuschauer, wer hier eigentlich paranoid ist: Der junge Patient, der sich von der Medizin der weißen Männer verfolgt sieht, die seine Individualität nicht wahrhaben wollen? Oder der Assistenzarzt, der gegen eine Verschwörung der Klinikleitung zu kämpfen glaubt?
Der kleine Bühnenboden hat diesen Dreierkonflikt in drei Akten unter der Regie von Monika Stermann so in Szene gesetzt, dass das Publikum sich dem Kampf der Drei um Freiheit, Macht und Richtigkeit einer Diagnose nicht entziehen kann. Dafür sorgt vor allem auch die Raumgestaltung von Henri Alain Unsenos: Die 30 Zuschauer sitzen im ersten und dritten Akt an den Längstseiten des Saals aufgereiht, dazwischen, auf einem glatten weißen Läufer, bewegen sich die Protagonisten. Für den zweiten Akt ziehen alle gemeinsam in den Vorraum um, hier sitzen die Schauspieler inmitten der Zuschauer am Tisch.
Da es der Premierenabend war, stand am Ende für jeden, ob Schauspieler, Ensemble-Mitglied oder Zuschauer ein Glas Sekt bereit. Es entwickelte sich eine angeregte Diskussion über das Stück, die Inszenierung, das Theaterspielen überhaupt, die erst spät in der Nacht endete, wobei es bei dem einen Glas Sekt nicht blieb – was tut man nicht alles zur Unterstützung der Theaterszene in Münster.
Weitere Termine:
Freitag, 10.09.2010 | Samstag, 11.09.2010 | Donnerstag, 23.09.2010 | Freitag, 24.09.2010 | Freitag, 01.10.2010 | Samstag, 02.10.2010 | jeweils um 20.30 Uhr
]]>Wenn man sich morgens auf sein Rad schwingt und – z.B. wie ich – zum Bahnhof fährt, dann ist sie plötzlich da. Jetzt weiß man: Es sind keine zwei Wochen mehr bis zum Start. Mit diesem Moment hat der Marathon eigentlich schon begonnen. Der nächste Trainingslauf, das war heute früh, gehört eigentlich schon dazu, und wie durch ein Wunder ist man eine Minute schneller als beim letzten Mal.
Die wirklich großartigen Dinge beginnen mit solchen Nebensächlichkeiten, die zum Symbol werden. Es ist wie mit Borns Fußnote in der Quantenmechanik. Die blaue Linie in der Stadt ist auch so ein Symbol. Sie ist einfach da, und man weiß, das ist der Marathon.
Wenn mich jemand fragt, was mir ganz persönlich der Marathon bedeutet, dann fange ich bei dem Schauer an, der mich früh am Donnerstagmorgen auf dem Rad erfasst, wenn ich auf die blaue Linie treffe. Das sagt vielleicht mehr über meine Beziehung zu diesem Lauf durch Münster als die Zahlen, die Zeiten bei 10, 20, 30 km, die Zahl der Finisher-Shirts, die ich schon im Schrank habe.
Vielleicht muss man solche Geschichten auch über die Wissenschaft erzählen, wenn man erklären will, was sie einem wirklich bedeutet. Das Gefühl beim Lesen von Borns Fußnote, oder der unvergessliche Moment, als ich zum ersten Mal den Artikel “Zur Elektrodynamik bewegter Körper” las.
Übers Jahr verblasst die blaue Linie im Alltag: Regen, LKW-Reifen und Dreck reiben ihn vom Asphalt. Aber Anfang September wird er Jahr für Jahr neu gezogen und man weiß: Es naht Großes.
]]>Tatsächlich, die “Moderne” ist schon so lange her, dass selbst die, die danach kamen, langsam alt werden (Bruno Latour ist natürlich deutlich jünger, aber der ist ja sowieso nie modern gewesen). Serres aber, den zu verstehen sich selbst Latour schwer tat, der ist auf jeden Fall postmodern. Für mich heißt das: Zum Denken provizierend, aber auf jeden Fall nicht im engeren Sinne “zu verstehen”.
Die Süddeutsche Zeitung hat mit Michel Serres zu seinem Geburtstag ein Gespräch geführt (leider nicht online verfügbar). Das Schönste daran ist das Foto, das Serres “im Sommer 2010 am Ufer der Spree” zeigt. Da freut man sich darauf, irgendwann auch mal 80 zu sein und so weise und freundlich auszusehen.
Die Zeitung behauptet, Serres sei in Deutschland Anfang der 1980er Jahre mit seinem Buch Der Parasit “bekannt geworden”. Fast wäre ich geneigt, eine Umfrage unter meinen Blog-Lesern zu machen: Wem ist Serres bekannt, und wer kennt das Buch? Ich glaube, ich kenne die Antwort. Wahrscheinlich bin ich der Einzige.
Das Interview ist trotzdem gelungen. Serres kann eben Sätze formulieren, bei denen man mit dem Nachdenken beginnen kann. Selten wird man ihm am Ende zustimmen, aber manchen guten Gedanken hätte ich nicht gedacht, wenn ich nicht bei Serres begonnen hätte. Z.B. hier:
Wir haben es praktisch geschafft, den Schmerz zu besiegen. … Aber Schmerz war eine alltägliche und eine notwendige Erfahrung, bevor es Schmerzmittel gab. Heute gibt es Menschen, die noch nie gelitten haben. … Ich kenne keine einzige religiöse, philosophische oder historische Moral, die nicht auf die Erfahrung von Schmerz begründet ist. Wenn nun, wie durch Zufall, der Schmerz verschwindet, stellt sich die Frage, worauf man dann die Moral gründet.
Ein paar Sätze, und man könnte seitenlang darüber schreiben, oder – noch besser – abendelang darüber sprechen.
Haben Menschen, die noch nie gelitten haben, keine Moral? Oder, etwas schwächer formuliert, braucht eine Gesellschaft den ständigen Umgang mit Leid, um eine Moral zu entwickeln und zu verankern?
Und ist es wahr, dass wir weniger leiden, nur weil wir Aspirin und Narkosemittel haben? Ändert sich vielleicht nur der Charakter des Leidens, und wie ändert sich dann damit die Moral?
Ich hoffe, dass Serres 100 Jahre alt wird, ohne Schmerzen, und dass es zu jedem runden Geburtstag ein Interview mit ihm in der Süddeutschen gibt. Gern auch zwischendurch.
]]>Diese eindrucksvollen Verbesserungen der Überlebenschancen werden auf der anderen Seite erkauft durch einen beträchtlichen Prozentsatz an verbleibenden körperlichen und geistigen Behinderungen. Jedes vierte Kind mit einem Geburtsgewicht unter 1500 Gramm entwickelt im Laufe der nächsten Monate und Jahre eine so genannte Zerebralparese (kindlicher Hirnschaden) und Kinder mit einem extrem niedrigen Geburtsgewicht von weniger als 1000 Gramm leiden oft an Fehlbildungen des Herz-, Lungen- und Bronchialsystems, an Hirnblutungen oder auch an speziellen Augenerkrankungen und häufig zeigen sich später verminderte kognitive Fähigkeiten sowie Lern- und Schulschwierigkeiten.
Angesichts eines solchen Lebensschicksals stellt sich, so Imhof die “hoch emotionale Sinnfrage … vor allem auch angesichts der dem Kind zugemuteten Leiden – Leiden in Gestalt der Torturen der Intensivmaschinerie, der oft zahlreichen korrigierenden operativen Eingriffe und die lebenslangen Behinderungen.”
Wer fragt das Kind?
“Wer fragt das Kind?” so fragt Michael Imhof. Gut, dass Imhof diese Frage stellt, auch wenn er sie, wie die Sinnfrage, natürlich nicht beantworten kann. Er wendet sich an dieser Stelle im Text einem anderen Thema zu, er kommt zurück auf den Tod der drei Frühgeborenen in Mainz, der der Anlass seines Textes ist. Denn: ” In der immer komplexer werdenden modernen Medizin mit ihren zahlreichen Schnittstellen können schon kleine Unachtsamkeiten und Informationsdefizite verheerende Auswirkungen zeigen.”
Die weiteren Ausführungen Imhofs zu ökonomischen Zwängen im Krankenhaus, zu Konsequenzen aus Zeitdruck und Sparzwang sind richtig und wichtig, ich möchte aber bei der oben formulierten Frage bleiben, weil ich meine, dass eine Sinnfrage weder politisch noch ökonomisch beantwortet werden kann.
Die Frage nach dem Sinn
Eine solche Frage kann wahrscheinlich gar nicht beantwortet werden, aber sie muss gestellt und bedacht werden. “Wer fragt das Kind?” Die Antwort darauf scheint einfach: Niemand. Die Frage drängt uns jedoch den Vergleich mit anderen Lebenssituationen auf, in denen das Leiden so groß wird, dass der leidende Mensch und seine Mitmenschen sich die Sinnfrage stellen: Die Diskussion, ob und in welchem Umfang der Einzelne am Ende seines Lebens selbst bestimmen können soll, ob sein Leiden beendet wird, ist im vollen Gange. Hier setzen wir voraus, dass der Betroffene selbst eine Entscheidung treffen kann, dass er abwägen kann, sich beraten lassen kann, und dann zu einem Entschluss kommt, der für andere, für seine Nächsten genauso wie für die, die sein Leben verlängern können, akzeptabel ist.
Für ein neugeborenes Kind ist diese Entscheidung nicht möglich, und andere sind nicht befugt, über sein Leben zu entscheiden. Den Eltern ist eine solche Entscheidung nicht zuzumuten, zumal wir längst akzeptiert haben, dass Entscheidungen auf Argumenten zu beruhen haben, auf Fakten und stichhaltigen Prognosen: Und diese Argumente stehen am Beginn des Lebens eines Frühgeborenen niemandem zur Verfügung.
Wenn ein Mensch zu leben begonnen hat, dann muss dieses Leben unter Aufbietung aller Kräfte, die menschenmöglich sind, erhalten werden. Darüber besteht ganz sicher Konsens – wir können nicht anders als diesem Imperativ zu gehorchen. Die Frage ist, ob diese Kräfte nicht zum Teil auf einer Täuschung basieren: Sie erhalten ein Leben, ja, aber was für ein Leben ist das?
Die Kräfte verstärken
Es scheint nur eine mögliche Antwort auf die Sinnfrage zu geben: Wir müssen unsere Kräfte eben verstärken. Wir haben – so scheint es – keine andere Wahl als den Weg des Fortschritts weiter zu gehen. Ob uns das je aus dem Dilemma herausführt, das Imhof bezeichnet, ist ungewiss.
Allerdings haben wir auf diesem Weg doch die Möglichkeit, Entscheidungen zu treffen. Worauf sollen wir uns konzentrieren? Sollen wir die “Entgrenzung” von der Imhof spricht, die Fähigkeit, Frühgeborene mit immer geringerem Geburtsgewicht, aus immer früheren Schwangerschaftswochen am Leben zu halten, weiter hinaustreiben. Oder sollen wir uns besser darauf konzentrieren, die Lebensqualität der Kinder zu erhöhen, über den Tag hinaus, an dem sie von den Schläuchen der Intensivstationen getrennt werden? Diese Wahl immerhin haben wir.
Quantität oder Qualität
Lebensqualität lässt sich nicht in Kennzahlen messen. Da lassen sich keine Erfolge feiern, wie bei Rekorden, die in messbaren Zahlen Grenzen immer weiter hinausschieben. Wie sehr jemand leidet, lässt sich nicht beziffern. Deshalb muss eine Entscheidung, die Kräfte des Fortschritts umzuleiten, mit einer Veränderung des Wertesystems einhergehen: Ein Wert ist nichts, was man an einem Messgerät ablesen kann, was man in Tabellen oder Diagramme eintragen kann. Ein Wert ist etwas, für den das Leben, wie es ist, sich lohnt.
]]>Das Bild findet man auf www.wetteronline.de – besonders schön ist dort im Moment auch der Radar-Bild-Film.
Eine Okklusion entsteht, wenn sich durch die Verwirbelung im Zentrum des Tiefdruckgebietes Warmfront und Kaltfront überlagern. Auf dem Bild sieht man sehr schön den Okklusionspunkt östlich von München, das ist der Punkt, wo im Moment der Aufnahme Kaltfront und Warmfront zusammenstoßen. Die Okklusion verläuft von da aus über Prag, Dresden, Berlin, Schwerin, Kiel, Amsterdam, Bonn bis Erfurt. In Münster ist es trocken – weil wir hier alle mit dem Fahrrad unterwegs sind. Hier ungefähr, oder irgendwo zwischen Münster und Hannover, dürfte sich das Zentrum des Tiefdruckgebietes befinden.
Südlich von München sieht man am Bildrand auch noch den Warmsektor des Tiefs – begrenzt im Osten von der Warmfront und im Westen vom langgestreckten Band der Kaltfront, die von München aus Richtung West-Südwest verläuft.
]]>Die Arbeit aus dem Jahr 1926, in der Max Born diese berühmte Regel formuliert hat, trägt den Titel “Zur Quantenmechanik der Stoßvorgänge”.
Die Stelle ist so schön, dass ich sie hier als Faximile wiedergeben möchte:
Borns entscheidende Erkenntnis, dass die Wahrscheinlichkeit für ein quantenmechanisches Messereignis dem Quadrat der Schrödingerschen Wellenfunktion gleich ist, versteckt sich also im Originalaufsatz in einer Fußnote. Ist das nicht wunderbar?
Dass es das Quadrat der Wellenfunktion ist und nicht etwa einfach der Betrag der Wellenfunktion, hat weit reichende Konsequenzen, und sie reichen bis zu einem Experiment über das erst vor gut einem Monat in Science berichtet wurde. Das Experiment wurde 1994 von Rafael D. Sorkin beschrieben, aber erst jetzt ausgeführt.
Eine Wellenfunktion hat ihren Namen daher, dass sie die Ausbreitung von Wellen beschreibt, und Wellen zeigen, wenn sie aufeinandertreffen, Interferenz, sie verstärken sich oder löschen sich aus. Hat man eine einzelne Quelle und lässt die Welle, die von dieser Quelle ausgeht, auf ein Hindernis stoßen, das nur schmale Durchlässe hat, zeigen sich dahinter bestimmte Interferenzmuster. Sorkin hat gezeigt, dass es, wenn die Energie (oder quantenmechanisch die Wahrscheinlichkeit) für die Amplitude der resultierenden Welle im Quadrat anzusetzen ist, immer nur zur Interferenz zweier Wellen kommen kann, Interferenzen von drei oder mehr Wellen (die durch drei oder mehr Schlitze in der Wand zustande kommen) müssen sich immer auslöschen.
Die Idee, das zu prüfen, ist einfach, aber im Falle von quantenmechanischen Systemen schwer zu realisieren. Man nimmt eine Wand mit drei Schlitzen und deckt immer einen davon ab. Dann legt man die resultierenden Interferenzmuster übereinander. Ist die Born’sche Regel richtig, dann muss das Ergebnis dieser Addition genau mit dem Bild übereinstimmen das entsteht, wenn alle drei Spalte gleichzeitig offen sind. Hätte Born unrecht gehabt, dann müsste es im Falle, dass alle Schlitze geöffnet sind, zu zusätzlichen Interferenzen aller drei Wellen kommen.
Kurz gesagt: Die Durchführung des Experimentes, das Sorkin vor 16 Jahren entworfen hat, hat gezeigt, dass die Born’sche Regel wirklich richtig ist. es gibt keine Interferenzenen aus den Überlagerungen der Wellen aller drei Schlitze, es gibt nur Interferenzen aus den Wellen, die je von zwei Schlitzen ausgehen.
Das Experiment hat gezeigt, dass die Wahrscheinlichkeit, ein quantenmechanisches Teilchen zu messen, tatsächlich dem Quadrat der Wellenfunktion gleich ist, die das System beschreibt. Damit wurde der mathematische Formalismus der Quantenmechanik eindrucksvoll experimentell bestätigt. Um Missverständnisse zu vermeiden sei noch angemerkt, dass dies allerdings keine besondere Bestätigung der Wahrscheinlichkeits-Interpretation der Quantenmechanik, die unter dem Namen “Kopenhagener Deutung” bekannt ist, gegenüber anderen Interpretationen wie z.B. der deBroglie/Bohm-Theorie ist. Letztere verwendet bekanntlich den gleichen mathematischen Formalismus wie die Kopenhagener, wurde also – wenn man so will – durch dieses Experiment ebenso bestätigt.
Nachtrag: Dieser Text ist entstanden, weil ich vor ziemlich genau einem Monat darum gebeten wurde, doch einmal darzustellen, wie ich selbst über das Drei-Spalt-Experiment schreiben würde. Durch meinen Urlaub war ich leider nicht mehr dazu gekommen und danach, so dachte ich, würde es vielleicht niemanden mehr interessieren. Aber ein verregneter Sonntag-Abend und die wunderbare Fußnote von Born brachten mich dazu, es doch zu versuchen.
]]>Freiheitsentzug dient der Bestrafung eines Verbrechers, der Sühne einer Schuld. Dem Opfer soll durch die bestrafung des Täters gerechtigkeit wiederfahren. Die Dauer des Freiheitsentzuges muss durch die Schwere der Straftat gerechtfertigt sein. Es gibt natürlich kein objektives Maß, an dem man ablesen könnte, nach welcher Zeitdauer die Haft ausreichede Bestrafung für irgendeine Straftat ist.
Neben der Bestrafung soll der Freiheitsentzug auch dazu dienen, dass der Täter keine weiteren Straftaten verübt. Einerseits erscheint es möglich, dass Straftäter sich durch den gefängnisaufenthalt bessern: Da sie nicht wieder ins Gefängnis wollen, so die einfache Idee, werden sie in Zukunft nicht mehr straffällig. Durch Erziehung oder Therapie während der Haft sollen die Chancen, dass ein Mensch sich nach der Haftentlassung an die Normen und gesetze hält, erhöht werden.
Und dann gibt es da noch die einfache Idee, dass einer, solange er hinter Gittern sitzt, keine verbrechen begehen kann. Hier setzt die Idee der Sicherungsverwahrung an: Im Falle besonders schlimmer Verbrechen soll, wenn Experten zu der Ansicht kommen, dass der Gefangene nach der Entlassung wieder zum Täter wird, dieser trotz Straf-Verbüßung nicht wieder in Freiheit kommen.
In Deutschland geht es um 100 oder 200 Straftäter, für die diese Einschätzung gilt. Die Frage ist, ob das Recht dieser Menschen, eine Aussicht auf ein Leben in Freiheit zu haben, wenn sie ihre Strafe verbüßt haben, geringer zu werten ist als das Schutzbedürfnis der Gemeinschaft, wenn Psychologen zu dem Ergebnis gekommen sind, dass der Täter noch gefährlich ist.
Meine erste Idee war, dass es in einem Land wie Deutschland möglich sein müsste, eine so kleine Gruppe von Menschen so zu überwachen, dass das Leben für diese Personen erträglich ist und die Gmeinschaft trotzdem vor ihnen geschützt ist. kann man nicht eine Kolonie einrichten, irgendwo auf einer Insel? Kann man den paar hundert Menschen nicht ein paar hundert ständige Begleiter geben, die sie überwachen? Allgemeiner gesagt: Kann man keine Lösung finden, wo es sich doch um eine überschaubare Gruppe von Menschen handelt, die das Schutzbedürfnis aller mit dem Recht auf Freiheit auch für einen ehemaligen Verbrecher verbindet?
Allerdings ist eine solche Lösung immer ein Kompromis: In dem Maße, wie die Freiheit für den Täter wirklich zur Freiheit wird, wächst die Gefahr für seine Umwelt.
Es geht, daran muss man denken, um wirklich schwere Verbrechen, nicht einmal “einfach” um Mord, sondern um grausame Sexualverbrechen und ähnliches. Dann ergibt sich doch eigentlich die Frage, warum die Strafe für diese Verbrechen nicht ohnehin wirklich “lebenslänglich” lautet, und zwar lebenslänglich im ursprünglichen Wortsinn, eben bis zum Ende des Lebens.
Warum eigentlich wird das Verfahren nicht umgekehrt? Warum sagt man nicht: Die Strafe heißt Freiheitsentzug bis zum Lebensende, und nur im Falle, dass frühestens nach 20 oder 25 Jahren mit großer Sicherheit eine erneute Straftat ausgeschlossen werden kann, kommt eine Begnadigung in Frage?
]]>Ich hatte gestern leider nur die Gelegenheit, an einer kurzen Führung teilzunehmen bevor ich vor einem überschaubaren aber interessieren Zuhörerkreis einen Vortrag über Physik und Technologie zu halten hatte. Aber der kleine Rundgang regte mich zum Wiederkommen und zum Weitererzählen an.
Besonders erwähnenswert finde ich die Funktionsmodelle der verschiedensten Rechenmaschinen, u.a. von Wilhelm Schickard und Blaise Pascal. Einfach toll, wenn man diese Geräte, von denen man irgendwann in der Schule und im Studium mal ein paar merkwürdige Abbildungen gesehen hat, nicht nur “hautnah” sehen kann, sondern sogar selbst an den Rädern drehen daf und beobachten kann, wie die Zahnräder das Addieren und Subtrahieren bewerkstelligen.
Originalgetreue Nachbauten gibt es von fast allen Rechenmaschinen der Geschichte, eine komplette Hollerith-Maschine genauso wie den Eniac (gut, von dem nur “ein Schrank” aber die Originalgröße ist auf dem Boden und im Raum sichtbar gemacht). Natürlich gibt es auch einen echten Zuse (in dem Falle einen Z11) und sogar der Großrechner, an dem ich mein erstes PL/1-Programm laufen lassen durfte (ein ESER EC 1055) ist aufgebaut.
Damit kommen wir zur Abteilung Sentimentalitätstest. Natürlich hat man in Paderborn auch die kleinen Klassiker versammelt: den Amiga, den ZX81, den ersten Apple, alle sind da. Dazu eine Sammlung von 700 Taschenrechnern – da findet wohl jeder Über-Vierzigjährige sein erstes Modell.
Selbstverständlich hat das Museum auch einen großen Heinz-Nixdorf-Gedächtnis-Bereich, der aber auch gut gemacht wird und die typische Erfinder-Unternehmer-Persönlichkeit erklärt.
Was noch? Schreibmaschinen aller Generationen, Relaisstationen und sogar die Steuerungseinheit eines Lochstreifengesteuerten Webstuhls – die in Betrieb genommen werden kann. Emulationen von alten Computerspielen. Einen Nachmittag kann eine technikbegeisterte Familie sicherlich gut und gern in diesem Museum verbringen – ob Paderborn sonst irgendetwas zu bieten hat, womit man den restlichen Tag füllt, weiß ich leider nicht.
]]>Man kann sich das an einfachen Beispielen veranschaulichen: Laser-Licht beispielsweise entsteht auf der Basis von stimulierter Emission von Licht. 1928 war diese stimulierte Emission das “epistemische Ding” das von Rudolf Ladenburg innerhalb eines Experimentalsystems untersucht wurde. Der Effekt konnte – wie jeder weiß – inzwischen sehr weit stabilisiert werden, Laserlicht gibt es heute zuverlässig “auf Knopfdruck”. Der Effekt ist von einem “epistemischen Ding” zu einem “technologischen Objekt” geworden.
Die Grenze zwischen epistemischem Ding und technologischen Objekten ist im Experimentalsystem jedoch fließend. Letztlich handelt es sich ja um eine Gesamt-Anordnung, die ein bestimmtes Verhalten zeigt. Verändert sich dieses Verhalten durch die Variation der technologischen Teile auch überraschende Weise, dann kann das an den noch nicht geklärten Eigenschaften des epistemischen Dings genauso liegen wie an bisher unbekannten Eigenschaften der technologischen Teile, die erst in diesem neuen Zusammenhang auftauchen.
Rheinberger ist das bewusst. Er fragt selbst, ob die Trennung von epistemischem Ding und technologischem Objekt für die Beschreibung von Experimentalsystemen überhaupt sinnvoll ist. Seine Antwort lautet, dass “wir sonst nicht in der Lage sind, das Spiel der Entstehung von Neuem auf dem epistemologischen Feld zu bezeichnen.”
Damit hat er wohl Recht. Experimentelle Ergebnisse können wir nur beschreiben, indem wir unsere Beobachtungen so darstellen, dass aus der beherrschten Veränderung der Rahmenbedingungen, die durch die technologischen Objekte gesichert werden, Eigenschaften des eigentlichen Untersuchungsgegenstandes sichtbar werden.
Erst wenn es nicht gelingt, diesen Untersuchungsgegenstand immer klarer zu beschreiben und letztlich so zu stabilisieren, dass er selbst zu einem technologischen Ding werden kann, wird der Experimentator seine technologischen Objekte selbst wieder zum Gegenstand machen, er wird untersuchen, ob diese selbst noch unklares, nicht stabilisiertes Verhalten zeigen.
Von welcher Art ist das “Wissen”, das in solchen Experimentalsystemen gefunden wird. “Wissen” heißt “verstehen” im Falle des Experimentalsystems mit der notwendigen Folge, sich “auf etwas zu verstehen” nämlich auf die Benutzung eines technologischen Objektes. Epistemische Dinge sind immer so weit verstanden, wie sie im Experimentalsystem stabilisiert und somit selbst zu technologischen Objekten werden können.
Am Schluss noch einmal die Empfehlung:
Das Buch ist zwar nicht bei Amazon und auch nicht bei buch.de erhältlich, aber man kann es direkt bei der Basilisken-Presse für gerade einmal 11,– € incl. Versand bestellen.
Die Antwort heißt für beide Fragen: Afrika. Einem Artikel der Samstags-Ausgabe der FAZ, der nun auch online verfügbar ist, habe ich entnommen, dass ein großer Teil veralteter Technik “auf riesigen afrikanischen Müllhalden, wo Kinder den Elektronikschrott nach Kupfer und Aluminium durchsuchen, bevor die Reste verbrannt werden und der giftige Qualm Menschen, Luft und Boden verseucht” landet. Und: “Knapp die Hälfte des weltweit für Elektrolytkondensatoren in Handys, Laptops, Fahrzeugelektronik, Digitalkameras und Pagern verbrauchten Tantals stammt aber weiterhin aus dem Osten Kongos, wie die Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) in Hannover angibt.”
Ich schreibe diesen Text auf einem Notebook, daneben liegt ein Mobiltelefon, das noch kein Jahr alt ist, und wenn ich Auto fahre, das vollgestopft mit modernster Elektronik ist, höre ich aus dem iPod ein Hörbuch über Heidegger.
Ich weiß nicht, woher die teuren Rohstoffe stammen, die in diesen Geräten verarbeitet sind. Die Wahrscheinlichkeit, dass sie unter grauenhaften Bedingungen produziert wurden, und dass mit den Gewinnen ein blutiger Bürgerkrieg finanziert wird, ist – wie ich nun weiß – hoch. Es gibt den Begriff der Blut-Diamanten. Schreibe ich an einem Blut-Notebook, telefoniere ich mit einem Blut-Handy?
Es gibt Menschen die meinen, dass man die Produkte eines Systems, welches man kritikwürdig findet, nicht nutzen sollte. Kritikwürdigkeit ist wohl für die Produktionsbedingungen im Osten des Kongo eine makabere Verniedlichung. Sollte ich mein Handy ausschalten, das Notebook zuklappen, bis ich ganz sicher weiß, dass an ihnen kein “Blut klebt”?
Oder soll ich nicht besser den Computer vor mir nutzen um mein Wissen, dass wir uns an unseren elektronischen Wunderwerken die Hände schmutzig machen, zu verbreiten?
Der Rohstoffreichtum Afrikas ist doch auch eine Chance für den “schwarzen Kontinent” – irgendwie muss es doch möglich sein, dass auch dort die Bodenschätze zur Verbesserung der Lebensbedingungen der Menschen beitragen. Voraussetzung dafür ist, dass die global verteilten Konsumenten, die letztlich mit preiswerten Handys und Notebooks von der Ausbeutung im Kongo profitieren, ihre Marktmacht nutzen. Und dazu müssen sie erst mal wissen, woher das Tantal im Handy kommt.
]]>Ist das richtig? In wie fern sind die Infusionen und die darin enthaltenen Bakterien ursächlich für den Tod der kleinen Patienten?
Die Kinder lagen auf der Intensivstation, weil sie schwere Herzfehler hatten. Sie mussten über Infusionen ernährt werden, d.h., offensichtlich war eine Ernährung über den normalen Weg des Stillens oder des “Flasche Gebens” nicht möglich.
Man muss sich vor Augen halten, dass diese Kinder ihr Leben offenbar überhaupt nur der Intensiv-Medizin, den Möglichkeiten der Hochleistungs-Technologie, die an so einer Uni-Klinik in Deutschland verfügbar ist, verdanken. Ein solches System jedoch ist ein hoch fragiles, komplexes System, das Eindringen von Bakterien in ein solches System zu verhindern ist zwar möglich, aber unglaublich kompliziert.
Bakterien umgeben uns in der Welt außerhalb der Intensivstationen von Kliniken überall. Der mehr oder weniger gesunde Körper auch eines Säuglings kann mit ihnen umgehen. Nur der geschwächte Körper eines Schwerkranken muss vor ihnen geschützt werden, das ist aber, aufgrund der Vielzahl von Schnittstellen zwischen der Zone der Intensivbehandlung und der Welt hier draußen, niemals hundertprozentig möglich.
Natürlich ist es nötig und richtig, jetzt nach der Stelle zu suchen, über die die Bakterien in die Infusionslösung kamen. Das wird das System noch sicherer machen. Aber es ist nicht richtig, von einem tödlichen Skandal zu sprechen, so lange niemandem Fahrlässigkeit nachgewiesen worden ist. Die kleinen Kinder sind gestorben, weil sie schwer krank waren und ihr Körper nicht über die ganz gewöhnlichen Kräfte verfügte, die einen gesunden Säugling vor der tödlichen Wirkung von Bakterien schützen.
]]>Die etwas laxe Formulierung soll darauf hinweisen, dass die Mittelspitze sozusagen der eigentliche Gipfel des Watzmann ist, sie überragt die Südspitze um genau einen Meter, und um, am Grat entlang, von dem einen zum anderen Gipfelkreuz zu kommen, muss der Bergsteiger u.a. ein Stück weit frei und ungesichert über der berühmten Ostwand klettern, wovon man später natürlich stolz berichten kann, was aber “nicht ganz ohne” ist.
Welche Worte kann man benutzen, um die Leistung zu beschreiben, die man da vollbracht hat? Soll man sagen, man habe “den Watzmann bezwungen”? Spätestens beim steilen und mühsamen Abstieg ins Wimbachgries verlässt einen das Bezwinger-Gefühl, und dass man hier den Berg noch lang nicht “in der Tasche” hat, sagt eigentlich auch schon das Faltblatt, das fordert, “bis zum letzten Moment konzentriert” zu sein. In der zehnten Stunde des Weges wird Konzentration jedoch für die meisten, die hier nunmehr eher stolpern als schreiten, schwer, und das Tal, in der die Hütte mit den Lagern steht, ist noch weit unten. Auf den Höhenmesser mag keiner mehr schauen. Warum eigentlich wollte man so hoch hinaus, wo man doch wusste, dass man wieder tief hinab zu steigen hat. Über Kletterstellen ist man nun froh, weil es hier schneller abwärts geht als in den Schotterhalden des Hangs.
Im Gastraum der Hütte, wo man noch zwei oder drei Biere trinkt (um den Flüssigkeitsverlust auszugleichen), sind alle stolz, doch keiner spricht vom Bezwingen. Das wäre auch lächerlich, weil sie alle eher wie Bezwungene aussehen. Doch der Berg hat auch niemanden bezwungen oder besiegt. Dem Berg sind wir, wenn wir nun einmal unsere menschlichen Gefühle auf ihn projizieren wollen, einfach gleichgültig.
Das eben ist es vielleicht, was uns auf diesen Berg trieb: das er, während wir uns an ihm abmühen, einfach nur so daliegt, mit einem unmenschlichen Gleichmut, unbeeindruckt vom Leid und vom Schmerz – und auch vom Jubel. Man möchte ihn anschreien, warum der Steig hier nicht etwas breiter, der Stein, der Halt geben soll, nicht etwas fester ist. Warum er, wo man schon so erschöpft ist, ganz am Schluss nicht mehr als einen ausgetrockneten Sturzbach zum Abstieg bereithält. Man möchte ihm danken für den wunderbaren Blick zu den Hohen Tauern hinüber. Aber das ist alles Blödsinn – er hört ja nicht hin – es ist ihm gleich.
Auch dass das Klima sich wandelt (und dass es das tut, bemerkt man nirgends besser als in den Bergen), ist der Natur ganz gleich, und wenn wir das beklagen (auch das machen wir am Berg lauter als anderswo) tun wir das nur um unsertwillen. Durch den Rückgang der Gletscher werden Wege unpassierbar oder unerreichbar, die Steinschlaggefahr wächst. Der Untergrund wird unsicherer, Markierungen stürzen ins Tal, Pfade werden unsichtbar.
Das, was uns am Klimawandel zu schaffen macht, ist, dass unsere eigenen, künstlichen Spuren, die wir der Welt mühsam eingraviert haben um zurecht zu kommen, vernichtet werden. Deshalb ist es auch unsinnig, vom Klimaschutz oder vom Naturschutz zu sprechen. Klima und Natur verändern sich zwar, bleiben aber bestehen. Was fragil ist, sind unsere Einbauten, unsere Hilfsmittel, unsere Krücken. Und um die sorgen wir uns – ganz eigennützig – nicht um das Klima, und nicht um die Natur. Das wäre auch lächerlich.
Nachtrag (30.08.2010)
Die Meldung vom Tod einer 18jährigen während der Watzmann-Überschreitung gibt dem Titel meines Textes und der darin enthaltenen Anspielung, die SingSing in seinem Kommentar weiter unten aufgegriffen hat, etwas Makaberes. Das tut mir leid. Ich möchte aber die Gelegenheit nutzen und darauf hinweisen, dass Touren wie die Watzmann-Überschreitung sicherlich für erfahrene Bergsteiger eine einfache Sache sind, dass sie aber für viele andere eine Gefahr darstellen, die oft unterschätzt wird. Gerade wenn Menschen miteinander diskutieren, die sich gegenseitig gar nicht kennen, wie es im Internet üblicherweise der Fall ist, sollte man sich mit Einschätzungen wie “Das ist eine einfache Tour” zurückhalten.
Fischer bezog sich auf einen Satz, den er in der Schule gelernt hat und der besagt, dass Philosophen so etwas seien wie Wegweiser, die den Weg, den sie weisen, bekanntlich selbst nicht gehen. Fischers Lehrer hat offenbar weder Hegels berühmtes Gleichnis von der Philosophie als der Eule der Minerva, die ihren Flug erst in der Dämmerung beginnt, noch Heideggers Motto von den Holzwegen gekannt.
Die Holzwege waren es, die mich auf dem Sonnblickkees beschäftigten. Wer auf einem Gletscher unterwegs ist, der sucht nach Spuren, nach Spuren von Spalten, die vom Schnee überdeckt werden, und nach Spuren anderer Gletschergeher, die vielleicht das gleiche Ziel gehabt haben. Solche Spuren sind im August, wenn der Schnee tagsüber taut und nachts wieder fester wird und wenn fast täglich regen darauf fällt, manchmal zu verwechseln und schnell nicht mehr sehr deutlich zu erkennen.
Spuren anderer Wanderer ziehen den Gelegenheits-Bergsteiger magisch an. Und manche dieser Pfade sind Holzwege, die, wie Heidegger schreibt, „jäh im Unbegangenen enden”. Wenn eine Seilschaft von zwei oder drei Wanderern für eine Weile einer Richtung folgt um dann festzustellen, dass es besser ist, umzukehren, dann sieht ihre Spur für eine Weile, vielleicht für Tage aus wie ein viel begangener Weg.
Gletscherwege, wie überhaupt Pfade in den Bergen, werden erzeugt, indem sie betreten werden. Jeder Wanderer macht eine Spur ein bisschen mehr zum Weg – und zerstört ihn gleichzeitig – vor allem, wenn die Strecke bergauf führt. Dann bahnt der Erste einen Steig, der für den Folgenden noch hilfreichen Halt bietet, während der Dritte schon abrutscht, weil der Abdruck zu nass wurde und der Schnee unter dem Druck nachgibt. Einer Spur zu folgen, kann hilfreich und gefährlich sein.
Philosophen sind keine Wegweiser und schon gar keine Straßenbauer. Sie sind Wanderer auf einem Gletscher oder im Gebirge. man folgt ihnen auf eigene Gefahr, und am besten nur für eine Weile. Selten ist es dort, wo man hinkommt, sicherer als da, wo man losgegangen ist. Im besten Fall kommt man in Gegenden, die man zuvor noch nicht kannte und erlebt – meist weit abseits vom Trubel – ein paar schöne Momente der Stille und Weitsicht.
]]>Das ist eine “kluge Erfindung” der Evolution, die auch bei Klimaschwankungen für das Überleben der Art sorgt. Wenn die Winter mild sind, überleben die meisten von denen, die “zu faul” zum Fortfliegen waren, sie können zeitig mit dem Nestbau und dem Brüten beginnen, ihr Anteil innerhalb der Population wächst, wenn aber kalte Winter die Zahl der Faulenzer dezimieren, kommen im Frühjahr immer noch genug Zugvögel von ihrer strapaziösen Reise zurück, um die Art zu erhalten.
Ob man es für das “Wesen der Art” hält, sich auf das Überwintern im Kalten einzustellen, oder ob man meint, es läge diesen Vögeln im Blut, sich im Herbst auf den strapaziösen Weg in den Süden zu machen, hängt also von den Umweltbedingungen ab, die gerade in dem Moment herrschen, in dem wir die Tiere beobachten. Mancher mag die Zurückbleibenden, die sich nicht dem Schwarm anschließen, der gen Süden fliegt, für Außenseiter halten, die dem Untergang geweiht sind oder nur durch Glück und günstige Umstände den Winter überstehen, aber vielleicht sind sie auch diejenigen, die durch ihr unnormales, abwegiges Verhalten das Überleben der ganzen Art sichern, wenn “die Zeiten sich ändern”.
Man sagt heute oft, der Forscherdrang, das Erreichen von Fortschritten in Wissenschaft und Technologie, die Erkenntnis der Welt, liege im Wesen des Menschen begründet. “Der Mensch” will die Welt verstehen, sucht schon immer nach Erklärungen für die Ereignisse, die er beobachtet und die sein Leben beeinträchtigen, und er versucht schon immer, sich seine Umgebung besser, angemessener, “lebenswerter” zu gestalten.
Verwiesen wird auf die großen Vorbilder, die auch in Zeiten des Stillstandes nach neuen Techniken gesucht haben, die den ersten Stein zum Werkzeug geformt, den ersten Kanal durch die Wüste gezogen, das Rad erfunden haben. Sie sollen als Zeugen dafür dienen, dass der Mensch schon immer ein Wissenschaftler war (vor allem sind sie seit den Zeiten aufgeschriebener Geschichte Zeugen dafür, dass Technologie vor allem dazu dienen kann, Macht über andere Menschen, weniger über die Bedingungen des Lebens aller zu erreichen).
Aber diese “Helden” sind nichts anderes als die Außenseiter unter den Zugvögeln, die lieber den harten Winter überstehen als die Strapazen des langen Fluges in wärmere Gefilde auf sich zu nehmen. Erst, wenn die Bedingungen sich ändern, werden sie zur Mehrheit, und scheinen dann “das Wesen” der ganzen Gattung zu verkörpern. Das “Wesen” ist aber nicht ein Merkmal der Art, sondern der Zeit, in der die Art gerade überlebt.
Und die Zeiten ändern sich, die Bedingungen, unter denen der Mensch sich einzurichten hat, verschieben sich weiter, und nicht etwa in eine vorher-bestimmte, klar erkennbare Richtung, sondern in einer unbestimmten, nicht erkennbaren und vorhersehbaren Weise. Von den Vögeln unterscheidet sich die Menschen, die Forscherdrang und Erkenntnis-Suche für wesentlich halten, dadurch, dass sie sich nicht nur den Bedingungen anpassen, die sich ändern, sondern dass sie meinen, die Bedingungen den Bedürfnissen der Menschen anpassen zu können. Die Skeptiker, die Sorgenvollen, werden als Außenseiter und Gestrige verlacht. Dabei dient schon heute ein Großteil der Forschung und Technologieentwicklung dazu, mit den Folgen früherer Forschung und Technologieentwicklung klar zu kommen. Die Wissenschaft müht sich um die Lösung von Problemen, die wir ohne Wissenschaft gar nicht hätten.
So verschieben sich unsere Lebensbedingungen weiter. Vielleicht ist das, was wir heute für das “Wesen des Menschen” halten, in ein paar Jahrtausenden nur eine “Fußnote in der Geschichte”. Ob in ein paar Generationen die “Zugvögel” oder die “Bleiber” unter den Menschen die Mehrheit bilden, ist ganz ungewiss. Wichtig ist wohl nur, dass von beiden immer genug da sind, damit die wechselnden Zeiten überstanden werden. Den Vögeln, wenn sie sich paaren, ist es egal, ob der Andere ein “Zieher” oder ein “Bleiber” ist – damit sorgen sie für die Erhaltung der Art. Würden die einen versuchen, die anderen zurückzudrängen, dann könnte sich die Gattung als Ganze auf Dauer kaum erhalten.
]]>Ich möchte mit dem interessanten Haupt-Punkt in Deutsch’ Vortrag beginnen, der Frage, was eine gute Erklärung von einer schlechten unterscheidet. Danach folgen zwei kritische Anmerkungen zu Nebensächlichkeiten, die im Vortrag zwar zuerst auftauchen, die ich aber in meiner Besprechung wegen ihrer geringen Bedeutung erst am Schluss erwähnen will.
Eine gute Erklärung
Deutsch unterscheidet zwischen Erklärungen, die man leicht ändern oder anpassen kann, wenn ihnen Tatsachen und neue Erkenntnisse widersprechen, und Erklärungen, bei denen das nicht so einfach möglich ist. Gute Erklärungen sind solche, die man nicht einfach abändern kann, wenn es empirische Fakten gibt, die ihnen widersprechen.
Deutsch’ Beispiel: Die Jahreszeiten haben sich die alten Griechen durch einen Mythos erklärt, Wärme und Kälte wurde auf das Verhalten rachsüchtiger Bewohner der Götterwelt zurückgeführt. Hätten die Griechen davon erfahren, dass es auf der Südhalbkugel genau dann warm ist, wenn es bei uns kalt ist, wäre der Mythos nicht widerlegt gewesen, man hätte ihn nur leicht modifizieren müssen.
Bei der heutigen Erklärung der Jahreszeiten durch die Neigung der Erdachse ist eine Modifikation nicht so einfach möglich – entweder die Neigung erklärt die Jahreszeiten oder sie tut es nicht – so Deutsch.
Wissenschaftliche Erklärungen, die man durch leichte Änderungen und Erweiterungen leicht an neue Fakten anpassen kann, sind somit nach Deutsch keine guten Erklärungen. Damit ist Deutsch natürlich ganz in der Tradition von Karl Popper, der von wissenschaftlichen Theorien Falsifizierbarkeit verlangt. Deutsch entwickelt Poppers Gedanken weiter – eine Theorie soll nicht nur falsifizierbar in dem Sinne sein, dass sie überprüfbare Vorhersagen macht, sie soll auch, wenn die Vorhersagen nicht genau eintreffen, wirklich als widerlegt gelten und nicht nur zu einfachen Anpassungen durch Abänderungen und Erweiterungen der Theorie führen.
Die Frage ist, warum Wissenschaftler nach so starken Theorien suchen sollten, deren Widerlegungen ja dann immer große Revolutionen im Denken auslösen müssen, weil nach völlig neuen Erklärungen für alle Fakten – sowohl die lange bekannten als auch die neu gefundenen – gesucht werden muss (Deutsch vereinigt an dieser Stelle sozusagen Poppers Falsifikationismus mit Kuhns revolutionärer Theoriendynamik). Wäre nicht ein evolutionäres Modell, bei denen Theorien Stück für Stück erweitert, angepasst, abgewandelt werden, effektiver?
Die Antwort ist vielleicht, dass solche starken, schwer zu variierenden Theorien eine größere Erklärungskraft haben als weiche, anpassbare, umformbare Theorien. Wenn man bei neuen Fakten einfach die Theorien in bisschen hier und da modifiziert und abwandelt, dann wird das Vertrauen, dass die Theorie überhaupt irgendwas erklärt, bald in den Keller gehen.
Wozu überhaupt Erklärungen?
Was eigentlich Erklärungen sind und wozu sie letztlich gebraucht werden, diese Fragen beantwortet Deutsch in seinem Vortrag (der dazu auch einfach zu kurz ist) nicht. Nicht ganz überzeugend ist seine Behauptung, dass die Menschen eben schon immer Erklärungen gesucht hätten – die alten Griechen eben im Mythos. Hier projiziert Deutsch unser heutiges und hiesiges Umgehen mit der Welt auf längst vergangene Zeiten. Dass der griechische Mythos eine Erklärung, eine Art vorwissenschaftliche Theorie überhaupt sein sollte, ist eigentlich nicht anzunehmen – die Griechen brauchten für das Entstehen der Jahreszeiten ja auch keine Theorie, sie nahmen sie hin, sie beobachteten sie und erzählten davon in Mythen.
Erklärungen braucht man erst, wenn man aktiv eingreifen, verändern oder beherrschen will – bis dahin reichen ja Beschreibungen der Welt, wie sie ist. Erst mit der technologischen Entwicklung begann der Wunsch nach Erklärungen zu einer wirklichen Kraft zu werden, und er erscheint uns heute, da wir sowohl für die Entwicklung von neuem Gerät als auch für die Lösung der Probleme, die wir uns mit dem alten Gerät geschaffen haben, ganz selbstverständlich.
Die Rolle der Praxis
Die Abwesenheit des praktischen Arbeitens, des Experimentierens und Eingreifens, die Deutsch auch von Popper übernommen hat, ist der zweite kleine Kritikpunkt, den ich nicht verschweigen kann. Für Deutsch ist – wie für Popper, das Experiment nur die Überprüfung der Theorie. Dass das Experimentieren, die wiederholte Produktion von experimentellen Befunden, deren Stabilität und Variabilität im Experimentalsystem erst die Basis für Hypothesenbildung und damit für Theorien-Konstruktion schafft, hat schon Popper zu ignorieren versucht. Dass damit der wissenschaftliche Prozess höchstens halb verstanden werden kann, wurde spätestens in den 1980ern gezeigt.
Vielleicht liegt aber gerade in der angemessenen Berücksichtigung der Bedeutung des Experimentalprozesses der entscheidende Punkt für die Zurückweisung der weichen Theorien, die auch Deutsch am Herzen liegt. Weiche Theorien lassen sich zwar an jeden experimentellen Befund anpassen, sie sagen aber irgendwann gar keine neuen Fakten, die durch experimentelle Variation produziert werden können, mehr voraus. Variabilität muss eine Eigenschaft des Experimentalsystems sein, Theorien hingegen sollten stark und stabil sein – das wäre die Arbeitshypothese.
* Ich danke Prof. H.D. Zeh für den Hinweis auf den Vortrag.
]]>Dabei kam es mir vor allem darauf an, zu zeigen, dass Poppers Vorstellung von Wissenschaft zwar wichtig für das Verstehen des Theoriebildungs-Prozesses ist, dass Popper aber nie Wissenschaft wirklich so beschrieben hat, wie sie wirklich funktioniert. es ist nicht nur eine Vereinfachung, sondern eher eine Idealisierung die so weit geht, dass man sie als normative Darstellung einer idealen Wissenschaft ansehen muss – ein Idealbild das, wenn es Wirklichkeit wäre, wohl kaum die Produktivität der wirklichen Wissenschaft hätte.
]]>Angefangen hat es mit Ali Arbias Frage nach der Zukunft der Nationalstaaten, auf die ich eine lange Antwort schrieb, die Ali wiederum zu einem Artikel herausforderte. Auch diesen lies ich nicht unbeantwortet, schließlich ging es um Nation und Identität. Wenn man die ganzen Kommentare auf beiden Seiten noch mitliest, das war schon eine spannende Diskussion. Sollte man unbedingt mal wiederholen.
]]>Aber einen besonders schönen Text gab es schon vor mehr als einem Jahr, da ging es um das “God of the Gaps”-Argument. Dort habe ich gezeigt, dass es dieses Argment in einer schwachen und einer starken Form gibt und warum es für den ontologischen Naturalismus (um den es auch schon einmal ging) in seiner starken Form trotzdem keine Herausforderung ist.
]]>Den Entitäten-Realismus von Cartwright hatte ich sogar in einem Video-Podcast erläutert, zu dem ich auch in einem längeren Text geschrieben hatte.
]]>Und überhaupt: die Mathematik! Gibt es die Gegenstände, mit denen sie sich beschäftigt? Und was unterscheidet “Wahrheit” in der Mathematik von dem, was wir sonst als “Wahrheit” bezeichnen?
]]>Hier bei Arte-Fakten waren Simulationen und Computer-Modelle schon öfter ein Thema. Wie erklären Computer-Modelle die Welt, hatte ich im April zuletzt gefragt. Man konnte ich sogar schon einen kleinen Stau-Simulator herunterladen.
Und auch anlässlich des Vulkan-Ausbruches auf Island ging es um die Aussagekraft von Computer-Modellen.
]]>Dass die Philosiüophie sich zwischen Wissenschaft und Alltag mit der Vagheit herumschlagen muss, darum ging es schon am 21.05.2009. Wie man trotz dieser Vagheit zu Definitionen kommt, war am 03.09.2009 mein Thema, das ich am Tag danach noch einmal aufgegriffen habe. Eigentlich ist noch viel dazu zu sagen – ich werde bald mal wieder darauf zurück kommen.
]]>Auch wenn die Entropie keine Erhaltungsgröße ist, zeigt die Verwendung des Konzeptes, wie auf der Basis eines einmal definierten Hauptsatzes immer neue Bereiche der Forschung durch Weiterentwicklung eines Begriffes für eine Theorie erschlossen werden.
]]>Aber (wie der Fernsehkoch meine Kindheit immer gesagt hat): Ich hab da schon mal was vorbereitet.
In den letzten Wochen ist mir nämlich aufgefallen, dass in Diskussionen zu meinen Texten immer wieder Fragen auftauchen, die vor Monaten schon einmal diskutiert worden sind. Ich muss mich dann immer wieder selbst daran erinnern, dass ja nicht jeder Diskutant alle Artikel von Arte-Fakten von Beginn an gelesen hat – so wie ich selbst es notgedrungen tun musste.
Also gibt es in den nächsten zwei Wochen Rückblicke und Wiederholungen. Ich habe ein bisschen im Arte-Fakten-Archiv bestöbert und was ich für interessant genug befunden habe, für die nächsten Tage noch mal ans Tageslicht zurück befördert.
Ich bitte schon jetzt um Verständnis dafür, dass ich mich an Diskussionen nicht beteiligen kann. Gleichzeitig bitte ich darum, in meiner Abwesenheit friedlich und freundlich miteinander umzugehen, damit unser Redakteur Marc Scheloske nicht bereut dass er mir versprochen hat, hier nach dem Rechten zu sehen.
Und falls der Klimawandel, der die Gletscher bekanntlich spaltenreicher macht und die Steinschlaggefahr wachsen lässt, es nicht verhindert, bin ich Mitte August mit neuen Ideen wieder zurück in der virtuellen Welt.
]]>
Unter anderem schreibt er:
Waren zwei Schlitze geöffnet, etwa A und B, so passierte jedes Photon beide Schlitze zugleich, und die beiden von den Schlitzen ausgehenden Photonenwellen interferierten miteinander.
Am Schluss fasst er zusammen
Die Ergebnisse lassen sich so interpretieren, dass die Photonen bei drei geöffneten Schlitzen immer nur durch eines der drei Schlitzpaare flogen, wobei es vom Zufall abhing, durch welches. Sie durchquerten aber die beiden Schlitze des gewählten Paares gleichzeitig, sodass die von den Schlitzen ausgehenden Photonenwellen interferieren konnten.
Nein, ein Photon geht nicht gleichzeitig durch zwei Schlitze. Wer so schreibt, will Quantenmechanik nicht erklären, der will moderne Physik nicht erklären. So ein Text macht weder quantenmechanische Effekte noch die Forschung, die diese Effekte untersucht, verständlich.
Alles, was so ein Artikel erreicht, ist, die Verwirrung beim Publikum zu vergrößern, den mystischen Nebel, der die Quantenphysik umgibt, dichter werden zu lassen. Das kann weder im Interesse der Physik, noch der Öffentlichkeit sein. Wer Physik nicht besser erklären kann, sollte es lieber bleiben lassen.
]]>Kurz gesagt: Bell widerlegt Dilbert.
]]>Das fällt nur dann auf, wenn die Interessen sich plötzlich ändern. Dann wird darüber spekuliert, wie viel Platz ein Mensch bei einer Großveranstaltung eigentlich braucht. Reicht ein Quadratmeter Demo-Fläche für 4 Menschen? Wie oft kommen und gehen Besucher? Wie reisen sie eigentlich an? Wieviele Würstchen werden von jedem Teilnehmer gegessen, wie viele Liter Flüssigkeit in den Dixi-Hütten gesammelt?
Es gibt Zahlen, die kennen wir einfach nicht. Die Zahl der Menschen, die bei den Montags-Demos in Leipzig waren, die gegen den Nato-Doppelbeschluss marschiert sind, die am 04.11.1989 auf dem Alexanderplatz standen. Trotzdem stehen diese Zahlen in Geschichtsbüchern. Da sie keiner ändern will, sind sie sicher.
]]>So ist es auch beim zweiten Teil des Buches “Experiment – Differenz – Schrift“, dessen ersten Teil ich vor einigen Tagen vorgestellt habe. Rheinberger erläutert in “Historialität – Spur – Dekonstruktion” noch einmal sein Konzept des “Experimentalsystems” – und das gibt mir hier auch die Gelegenheit zu einigen Klärungen, die mir nach dem Lesen der Kommentare zu meinem ersten Text notwendig zu sein scheinen.
Experiment und Experimentalsystem
Ein Experientalsystem ist kein einzelner Versuchsaufbau und auch keine Anleitung zu einem Einzelexperiment. Schon in seinem ersten Vortrag weist Rheinberger – in Anlehnung an Ludwig Fleck – ausdrücklich darauf hin, dass der Experimentator es in seiner Praxis “mit allem, nur nicht mit einzelnen Experimenten zu tun hat”. Es handelt sich um eine komplex Experimentalanordnung, “die so eingerichtet ist, dass sie Wissen produziert, das wir noch nicht haben.” In einer Fußnote zum zweiten Vortrag erläutert er:
Praktisch besteht ein Experimentalsystem aus einem ganzen Bündel von ‘Aktanten’: technisches Personal, Diplomanden, Doktoranden und Postdoktoranden, die kontinuierlich in ein Forschungssystem ein- und nach einigen Jahren wieder austreten, ständige Wissenschaftler, eine Vielzahl von Mess- und Manipulationsgeräten, spezielle Ausrüstungen, Rechenanlagen, ein System zur Bereitstellung von Verbrauchsmaterial usw., und nicht zuletzt eine entsprechende Laborarchitektur.
Die Struktur eines Experimentalsystems muss dabei einerseits stabil sein, damit dass darin integrierte Wissen nicht “zerfließt” – andererseits muss sie locker gefügt sein, damit neues Wissen produziert werden kann. “Das Hervorbringen des Unbekannten [wird] zum reproduktiven Prinzip der ganzen Maschinerie”. Solange ein Experimentalsystem das kann, solange es Differenzen produziert, die es erlauben, forschungsrelevante Fragen zu stellen,solange ist ein System “jung”. Wichtig für die Forschung sind also gerade nicht so sehr die Einzelexperimente, die Theorien bestätigen oder widerlegen, sondern die Experimentalsysteme, die durch ihre innere Dynamik ständig Antworten auf Fragen produzieren, die zuvor noch gar nicht bekannt waren.
Das Neue als Ergebnis der Zukunft
Das Neue ist nichts weiter als eine Irritation an der Stelle, an der es seinen Ausgang genommen haben wird – man kann es nur im Modus der vergangenen Zukunft ansprechen.
Das leitet zum Hauptthema des Vortrages über. Im Nachhinein erscheint uns der wissenschaftliche Forschungsprozess immer als folgerichtig. Sowohl das Modell der Wissenschaft als kumulativem Prozess als auch das revolutionäre Modell Kuhns werden problematisch, wenn man die Mikrostruktur des Prozesses, der sich in der Dynamik des Experimentalsystems zeigt, untersucht. Von diesem weiß man eben immer nur, dass es neues Wissen produziert, dass es Antworten produziert auf noch nicht gestellte Fragen.Diese Antworten müssen zunächst erkannt werden, bevor die richtige Frage dazu gefunden wird – dann stellt sich, im Nachhinein, die Antwort als “das Neue” heraus. Aus der Perspektive der Zukunft auf die Vergangenheit kann dieses Neue als das Neue erkannt werden, aber wenn es entsteht, ist es noch nicht das Neue.
Der Forschungsprozess ist eben eine Spur, die aus vielen einzelnen Spuren entsteht. Jede neue Spur verwischt wieder einen Teil der zuvor gezogenen Linien. Erst im Rückblick erkennen wir die klare Linie, die vom ersten Sichtbarwerden des Neuen folgerichtig zu dem führt, was wir heute wissen.
Das Rezente ist, wenn man so will, das Ergebnis von etwas, das es nicht gegeben hat. Und das Vergangene ist die Spur von etwas, das es nicht gegeben haben wird.
Das gilt natürlich nicht nur für die Geschichte der Wissenschaft, das gilt so für jede Geschichte. Nur fällt es uns wohl leichter, diese paradoxe Situation für alle nicht-wissenschaftlichen Tätigkeiten zu akzeptieren. Die logische Klarheit des Ergebnisses erweckt wohl die Erwartung, dass auch bei seiner Entstehung ein logischer, klarer, stringenter, folgerichtiger Prozess am Werke gewesen sein muss. Aber der Prozess der Entwicklung wissenschaftlicher Systeme hat viel mehr mit der natürlichen Evolution gemein, als man manchmal denkt: Auch hier ist es die differentielle Veränderung des Systems, bei Erhaltung einer gewissen reproduktiven Stabilität, die in der Konfrontation mit der Umwelt zu Vielfalt und funktioneller Angepasstheit führt.
]]>Jedem ist klar: Entweder die Würfel sind miteinander verbunden und der eine sendet das Ergebnis des Wurfes an den anderen, oder das Ergebnis ist schon vorher festgelegt, ist im Würfel in einer verborgenen Eigenschaft schon gespeichert und der Wurf ist gar kein Zufall. So argumentierten auch Einstein, Podolsky und Rosen.
Bohm, der das Paradoxon umformulierte, damit man es besser testen konnte, und Bell, der sich den Test ausdachte, der durch seine Ungleichung definiert wurde, waren eigentlich auf der Seite der drei. So kann man sagen, dass die drei Zweifler schließlich von Aspect, der Bells Test nach Bohms Idee endlich ausführte, widerlegt worden sind, und dass Bohm und Bell sich selbst sozusagen des Irrtums überführt haben. So könnte die Geschichte von den Kopenhagenern erzählt werden: Letztlich war alles umsonst, es war richtig, sich um das EPR-Papier nicht zu kümmern, wir haben es schon immer gewusst, nicht der Rede wert.
Aber die Geschichte so enden zu lassen, und unsere fünf Helden als tragisch-komische Figuren am Rande der Quantenmechanik erscheinen zu lassen, wäre falsch, und das aus zwei Gründen.
Der eine ist ganz einfach: Ohne das EPR-Paradoxon hätte Bell seine Ungleichung nicht aufgestellt, und Aspect hätte ohne Bell und Bohm seine Experimente nicht gemacht. Das Besondere an dem, was in der Quantenmechanik Zufall genannt wird und was anders ist als bei allem Anderen was wir Zufall nennen, wäre vielleicht bis heute nicht ans Licht gekommen.
Diese neue, ganz andere Art von Zufall – auch wenn sie noch nicht verstanden ist – findet gerade in unseren Tagen erste technische Anwendungen: Beim Entwerfen und Testen von Verschlüsselungs-Algorithmen, die den Zufall ja benötigen, weil ein geheimer, privater Schlüssel auf gute Zufallszahlen angewiesen ist [1]. Wenn wir also in nicht allzu ferner Zukunft sichere Verschlüsselungsverfahren im Internet benutzen können, haben wir das letztlich den Zweiflern der Quantenmechanik zu verdanken.
Wie gesagt: Wir können diesen Zufall zwar bald technisch nutzen, verstanden ist er aber bis heute nicht. Es gibt jedoch Versuche, auch diesem Zufall auf die Schliche zu kommen, und der erste Versuch dieser Art kam von Bohm (eigentlich schon von deBroglie, der die gleiche Idee schon 20 Jahre vor Bohm hatte, der aber in der eindrucksvoll-lauten Debatte zwischen Einstein und Bohr nicht wahrgenommen wurde – aber das wäre eine neue Geschichte). Und das ist der zweite Grund, warum der Zweifel Einsteins und seiner Freunde nicht vergeblich war: Das EPR-Paradox ist der Stachel im Fleisch der Kopenhagener Version der Quantenmechanik und darüber hinaus jeder Physik, die damit zufrieden ist, über eine Mathematik zu verfügen, mit der Messergebnisse richtig vorhergesagt werden können. Einstein, Podolsky und Rosen verlangten mehr von einer Theorie, deshalb brachten sie das Wort „Realität” ins Spiel. Sie verlangten, dass eine Theorie nicht nur Messungen vorhersagen soll, sondern dass sie diese erklären soll, indem sie sie auf Naturgesetze zurückführt, die verstanden sind. Erst dann ist eine Theorie vollständig.
Warum ist das eigentlich so wichtig, warum machen sich einige Physiker Sorgen um den Realismus? Ich denke, das hat zwei Gründe: Zum einen ist es auch das Ziel der Physiker, den Laien die Phänomene zu erklären, gerade dann, wenn die Ergebnisse der Physik technisch genutzt werden. Ein bisschen erinnern die Kopenhagener ja an jene Schüler, die in den Mathematik- und Physikarbeiten zwar immer die Ergebnisse richtig ausrechnen können, aber das Prinzip, das dahintersteckt, nicht verstanden haben. man weiß: so was kann auch schief gehen: Sieht die Aufgabe mal ein bisschen anders aus oder kommt man beim Rechnen irgendwo durcheinander, dann wird das Ergebnis falsch und man merkt es vielleicht erst, wenn die rote Sechs unter der Klausur steht. Da ist das Vertrauen, neuen Herausforderungen gewachsen zu sein, dann nicht besonders groß.
Der andere Grund ist, dass man, wenn man nur noch auf die Mathematik vertraut, irgendwann den Überblick verliert: Hier noch eine Konstante dazu, dort noch einen Term in die Gleichung eingebaut – Hauptsache, die Rechenergebnisse stimmen mit den experimentellen Daten überein. Da darf man sich dann nicht wundern, wenn das Proton plötzlich kleiner ist als bisher gedacht und wenn das Weltall schneller expandiert, als es nach der Theorie eigentlich „dürfte”. Wer kann da noch sicher sein, ob es sich um Messfehler oder Rechenfehler handelt oder ob man einfach noch eine Gleichung mehr oder weniger geschickt anpassen muss?
Das sind, meine ich, die Gründe, warum Physiker sich wieder an Einstein, Podolsky und Rosen erinnern, die vor 75 Jahren die Frage stellten „Kann die Quantenmechanik als vollständig angesehen werden?” Auch wenn die drei sich im Konkreten irrten, so waren sie wohl doch im recht, als sie diese Frage mit „Nein” beantworteten.
[1] Pironio S, Acín A, Massar S, de la Giroday AB, Matsukevich DN, Maunz P, Olmschenk S, Hayes D, Luo L, Manning TA, & Monroe C (2010). Random numbers certified by Bell’s theorem. Nature, 464 (7291), 1021-4 PMID: 20393558
]]>Der Amiga war in vielem der erste: Er hatte als erster ein präemptives Multitasking-Betriebssystem, eine farbige Benutzeroberfläche und Vierkanal-Sound.
Amiga ist aber auch ein Beispiel dafür, dass Erfolg, wenn er denn zu sehr zufrieden macht, die Vorstufe zum Niedergang ist. Die sprudelnden Gewinne wurden bei Commodore nicht in Neuentwicklungen investiert, und so verblasste der Ruhm des Amiga schon Anfang der 1990er.
Was bleibt, ist ein Test, wie alt und sentimental wir geworden sind.
]]>Der schmale Band enthält drei Vorträge, die Rheinberger vor rund zwei Jahrzehnten gehalten hat und in denen es um die „Experimentalstruktur der empirischen Wissenschaften” geht, darum, das Experiment innerhalb der Wissenschaft unter einem neuen Gesichtspunkt zu betrachten, es nicht mehr nur als „Instanz der Verifikation, der Bewährung, der Verwerfung oder der Modifikation von Theorien” anzusehen sondern als „Geflecht von sich selbst instruierenden epistemischen Praktiken”, mit anderen Worten als die wissenschaftliche Aktivität, die auf eigene Weise neues Wissen produziert. Rheinberger verweist an dieser Stelle auf die Arbeiten u.a. von Latour und Hacking, die in den 1980ern begonnen haben, das Experiment zum Gegenstand wissenschaftsphilosophischer Untersuchungen zu machen.
Experimentalsysteme
Aber Rheinberger geht noch einen Schritt weiter, er sieht nicht nur eine relative Autonomie des Experiments gegenüber der Theorie, er betrachtet das Experimentalsystem als „kleinste funktionelle Einheit, als die Arbeitseinheit des Wissenschaftlers”. Dabei handelt es sich nicht einmal um etwas, das als „experimentelles Denken” bezeichnet werden könnte, denn dabei wäre „Denken” noch das genus proximum, sondern um „eine durch instrumentelle Randbedingungen ausgerichtete Bewegung, in der das Räsonnieren gewissermaßen ins Spiel der materiellen Entitäten gerissen wird”.
Das Experimentalsystem erlaubt überhaupt erst, die Fragen zu formulieren, die man beantworten kann.
Ein Experiment ist dabei niemals ein Einzelereignis, ein Versuchsaufbau, in dem eine bestimmte Konstellation hergestellt und ein bestimmtes Ereignis produziert wird. Ein Experiment „produziert Wissen, das wir noch nicht haben”. Das Experiment als Instanz zur Bestätigung oder Widerlegung von Theorien spielt in dieser Sicht eine ganz untergeordnete Rolle, und selbst wenn es darauf angelegt ist, ist es immer weit mehr als das. Denn eine Experimentalsituation ist niemals klar, wenn sie klar wäre, dann wäre das Experiment streng genommen gar nicht nötig.
Differentielle Reproduktion
Man sollte deshalb eigentlich weniger von dem Experiment als vom Experimentieren sprechen, es ist ein „Tasten”, ein „Tappen”. Ein Experimentalsystem in diesem Sinne zeichnet sich durch ein Zusammenspiel von Reproduktion und Differenz aus. Durch die Reproduktion entsteht die „zeitliche Kohärenz” des Experimentalsystems, „seine Entwicklung hängt davon ab, ob es gelingt, Differenzen zu erzeugen”.
Ein Experimentalsystem existiert im Spannungsfeld von Stabilisierung und Destabilisierung. Wenn es nur noch reproduziert, hört es auf, ein Forschungssystem zu sein – es kann allerdings als stabiles Element in ein neues, umfassenderes Forschungssystem eingebaut werden. Aber nur, so lange es neue Fenster öffnet, solange es sich selbst verschiebt, kann es neues Wissen produzieren, kann es „eine Maschine zur Herstellung von Zukunft” sein. Um produktiv zu bleiben, muss es also so organisiert sein, dass „es jener Art von subversiver, verschiebender Bewegung gehorcht, die Derrida „différance” genannt hat.”
Repräsentation
Das Wissenschaftswirkliche ist eine Welt von Spuren
Die Dynamik des Experimentalsystems ist ein „Schreibspiel”, sie erzeugt „Spuren”. Indem Rheinberger das Primat der Theorie über das Experiment auflöst, löst er auch das Primat der Aussagen von Theorien über die Ergebnisse von Experimenten auf. Nicht die theoretischen Begriffe repräsentieren etwas, sondern die Spuren, seien es Farbflecken auf Papier, Linien, die von den Zeigern der Instrumente gezogen werden, oder Diagramme, die nach standardisierten Verfahren aus Messergebnissen abgeleitet werden. Diese Ergebnisse nennt Rheinberger die „epistemischen Dinge”, die „Objekte der experimentellen Interpretation.
Sie verkörpern bestimmte Seiten des Wissenschaftsobjektes in fassbarer, im Labor handhabbarer Form. Es ist die Anordnung dieser graphematischen Spuren oder Grapheme und die Möglichkeit ihres Herumschiebens im Repräsentationsraum, die das experimentelle Schreibspiel zusammensetzen.
Rheinberger erwähnt an dieser Stelle nicht den wesentlichen Umstand, dass diese epistemischen Dinge immer in einer Größe und Form vorliegen, dass sie unserer unmittelbaren Erfahrung zugänglich geworden sind. Es sind Spuren, die wir ohne Hilfsmittel sehen können, in ihnen wird das nicht beobachtbare Objekt (die „theoretische Entität”) beobachtbar.
Konjunkturen
Der Gang, auf dem experimentelle Objekte ins Leben treten, entscheidet darüber, was sie zunächst sind.
Im Schreibspiel der differentiellen Reproduktion des Experimentalsystems entsteht etwas, das Rheinberger „Konjunkturen” nennt, das „Auftreten einer außergewöhnlichen Konstellation”, eben das „unvorwegnehmbare Ereignis”. Eine Konjunktur „kann dem ganzen Experimentalsystem eine neue Richtung weisen, und vor allem kann sie Nahtstellen zwischen verschiedenen Experimentalsystemen ausbilden.” Rheinberger erläutert dieses Konzept an einer Fallstudie aus seinem Fachgebiet, der Nahtstelle zwischen Biochemie und Molekularbiologie. Etwas, was zuvor im Experimentalsystem als Störung, als Verunreinigung gesehen wird, wird in einer Konjunktur plötzlich wesentlich, wird zum zentralen Gegenstand, und so schafft eine Konjunktur neues Wissen, ja, es wird ein neues epistemisches Ding geschaffen, mit neuen Forschungsprogrammen und neuen Experimentalsystemen.
So wird ein Experimentalsystem unversehens durch eine Konjunktur zu einem „gewaltigen Forschungsattraktor, eine Art Hochgeschwindigkeitsmaschine zur Produktion von Zukunft”. Das System verspricht eine rasche Klärung fast aller offenen Frage, produziert dabei jedoch neue, bisher völlig unbekannte Fragen.
Interessant ist, dass in dieser Sicht auf den wissenschaftlichen Prozess die Theorie scheinbar überhaupt keine Rolle spielt. Im Experimentalsystem werden epistemische Dinge produziert und stabilisiert, indem Spuren als Repräsentationen reproduziert werden. Gleichzeitig ist das Experimentalsystem so organisiert, dass eine stetige Verschiebung des Repräsentationsraumes stattfindet, sodass im Wechselspiel von Kohärenz und Differenz neues Wissen produziert wird. Ist dieses Wissen stabilisiert, kann es als sicheres Bauteil in neue Experimentalsysteme eingebaut werden. Der Bedarf an neuen Experimentalsystemen entsteht, sobald außergewöhnliche Konstellationen wahrgenommen werden, Konjunkuren.
Die Abwesenheit der Theorie in diesem Bild kann natürlich aus dem radikalen Perspektivwechsel beim Blich auf die empirischen Wissenschaften gedeutet werden, der in den 1980er Jahren eingeleitet wurde. Zumindest wäre zu untersuchen, wie weit Theorien beim „Lesen von Spuren” und beim Erkennen von Konjunkturen unverzichtbar sind. Erfrischend ist aber, zu sehen, dass auch die moderne empirische Wissenschaft als Geschichte des praktischen Handelns und nicht nur des genialen Denkens erzählt werden kann.
* Das Buch ist zwar nicht bei Amazon und auch nicht bei buch.de erhältlich, aber man kann es direkt bei der Basilisken-Presse für gerade einmal 11,– € incl. Versand bestellen.
]]>Bestätigen heißt in diesem Fall: die gemessenen (und aus Messwerten berechneten) Werte liegen in einem Bereich, den die Allgemeine Relativitätstheorie vorhersagt, allerdings mit einem Fehlerbereich von +-15%, was dazu führt, dass eine der Alternativtheorien ausgeschlossen werden kann, andere Alternativen aber ebenso als betätigt angesehen werden können.
In der “News & Views”-Rubrik der gleichen Nummer der nature hat J. A. Tyson die Arbeit des Teams um Reyes vorgestellt und besprochen. Tyson weist darauf hin, dass die Allgemeine Relativitätstheorie zur Erklärung der Beobachtungen die Annahme braucht, dass es “dunkle Materie” und “dunkle Energie” gibt (Florian Freistetter hat das für die dunkle Materie kürzlich erklärt). Dann kommt der entscheidende Satz:
Although there are suggestions from particle physics about the nature of dark matter, that of dark energy remains a mystery. [Auch wenn es Vorschläge aus der Teilchenphysik zur Natur der dunklen Materie gibt, bleibt die der dunklen Energie ein Mysterium.]
An diesem Satz entzündet sich nun eine Diskussion, die in der aktuellen Nummer der nature in die nächste Runde geht [3]. Für Bianchi und Rovelli ist die dunkle Energie alles andere als ein Mysterium, sie ist erklärbar, indem die Allgemeine Relativitätstheorie um eine neue kosmologische Konstante erweitert wird. Durch diese kosmologische Konstante wird die Vakuum-Energie erklärt, die dazu führt, dass das Universum deutlich stärker expandiert, als es das ohne die kosmologische Konstante tun würde.
“Kosmologische Modelle müssen in Naturgesetzen begründet sein, die wir verstehen” Rocky Kolb
Dem hält Rocky Kolb entgegen, dass die Einführung einer kosmologischen Konstante genau keine Erklärung für irgendetwas ist. Er bestreitet nicht, dass die Theorie, welche die dunkle Energie enthält, aktuell das erfolgreichste Modell ist, welches die Beobachtungen am besten beschreibt. Im Gegensatz zu Bianchi und Rovelli hält er die Kosmologische Konstante nicht für die Erklärung, sondern sie ist gerade das Mysterium. Denn ein Mysterium ist für ihn alles, das nicht verstanden ist oder jenseits des Verstehens liegt.
Kolb fordert von der Kosmologie mehr als das Anhäufen von Komponenten und Konstanten in einem Modell, das zu den Beobachtungsdaten passt. Das ist für ihn das Gleiche wie das Hinzufügen von Epizyklen zum Ptolemäischen Weltbild. Und er schließt mit einer Warnung des Astrophysikers Tommy Gold: “Für jedes komplizierte physikalische Phänomen gibt es eine einfache, falsche Erklärung”
[1] Reinabelle Reyes, Rachel Mandelbaum, Uros Seljak, Tobias Baldauf, James E. Gunn, Lucas Lombriser, & Robert E. Smith (2010). Confirmation of general relativity on large scales from weak lensing and
galaxy velocities Reyes, R. et al. 2010, Nature, 464, 256-258. arXiv: 1003.2185v1
[2] Tyson JA (2010). Cosmology: Gravity tested on cosmic scales. Nature, 464 (7286), 172-3 PMID: 20220832
[3] Bianchi E, Rovelli C, & Kolb R (2010). Cosmology forum: Is dark energy really a mystery? Nature, 466 (7304), 321-2 PMID: 20631785
]]>Erstaunlicherweise taucht das Problem der Interpretation überhaupt erst mit der Quantenmechanik in der Physik auf, Newtons klassische Mechanik unterschied ebenso wenig zwischen Theorie und Interpretation wie die klassischen Feldtheorien und die Relativitätstheorien.
Beginnen wir trotzdem mit den physikalischen Theorien vor der Quantenmechanik, damit deutlich wird, wozu eine Theorie möglicherweise eine Interpretation braucht.
Theorie ohne Interpretationen
Jede physikalische Theorie besteht zunächst einmal aus ein paar Kernbehauptungen über das Verhalten eines physikalischen Systems. Diese Kernbehauptungen können in einer – scheinbar – mathematik-freien Sprache formuliert werden, scheinbar deshalb, weil sie in Sätzen formuliert werden, die “Je … desto…” Klauseln enthalten und damit auch in mathematischen Gleichungen formuliert werden können: “Je stärker die Kraft, die auf einen Körper wirkt, desto stärker die Beschleunigung des Körpers.” Dabei ist auch der Begriff “Beschleunigung” als “Änderung der Geschwindigkeit in einem festen kleine Zeitabschnitt” und der Begriff der Geschwindigkeit (“Änderung Ortes des Körpers in einem festen kleine Zeitabschnitt” wiederum ebenfalls in einer – scheinbar – mathematikfreien Sprache definierbar.
Die Aussagen der Theorie können in mathematische Gleichungen übersetzt werden, in einen mathematischen Formalismus (im Falle der klassischen Mechanik ist das der der Differentialrechnung und der partiellen Differentialgleichungen). Dann können alle mathematischen Erkenntnisse, die für diesen Formalismus entwickelt wurden, in der Theorie verwendet werden.
Der entscheidende Punkt ist, dass alle Ausdrücke, die in diesem mathematischen Formalismus stehen, aufgrund des Vorgehens bei der Aufstellung des Formalismus eine unmittelbare empirische Bedeutung haben: Wir wissen, das die Orst- und Zeitangaben im mathematischen Formalismus den Ort eines Körpers zu einem bestimmten Zeitpunkt betreffen und dass die Masse eines Körpers eben jenem “m” in Newtons Gleichung entspricht. Deshalb brauchen wir da keine Interpretation, wenn wir die Orte der beteiligten Körper zu einem Zeitpunkt kennen, dann liefert uns der Formalismus eben die Orte der Körper zu einem späteren Zeitpunkt und wir können im Experiment direkt nachsehen, ob die Theorie die richtigen Vorhersagen macht.
Die Dynamik in der Quantenmechanik
So ist das bei allen Theorien der Physik gewesen, bis die Quantenmechanik kam.
Die Dynamik quantenmechanischer Systeme wird allerdings ebenfalls durch eine relativ einfache Gleichung beschrieben, die Wellengleichung (Schrödingergleichung) die so heißt, weil sie mathematisch genauso aussieht wie eine Wellengleichung in der klassischen Mechanik, mit der man Wellenbewegungen beschreiben kann. Ihre Lösung liefert Wellenfunktionen. Aber Wellenfunktionen wovon? Was bewegt sich da als Welle?
Das Dumme ist, dass man diese Wellen nicht beobachten kann. Um zum Experiment zu kommen, zu dem, was man messen kann, braucht man eine weitere mathematische Konstruktion, und die hängt davon ab, wie man die Wellenfunktion interpretiert.
Für die sogenannte Kopenhagener Interpretation ist die Wellenfunktion eine Aussage dafür, wie wahrscheinlich es ist, dass man bei der Messung an einem Ort ein Teilchen misst. Diese Interpretation fügt dem mathematischen Formalismus im engeren Sinne (der Schrödinger-Gleichung) einen weiteren mathematischen Formalismus hinzu, den des “Kollapses” der Wellenfunktion. Bei der Messung, so die Kopenhagener, “kollabiert” die Wellenfunktion, während sie kurz vor der Messung weit verteilt ist, wird nun die Wahrscheinlichkeit des Ortes des Teilchens an einem Punkt = 1 und überall woanders ist er = 0.
Andere Interpretationen fügen der Schrödinger-Gleichung andere mathematische Formalismen hinzu. Für deBroglie und Bohm z.B.ist die Wellenfunktion eine Führungswelle, und die Teilchen bewegen sich tatsächlich entlang echter Bahnen nach den Vorgaben dieser Führungswelle. Die Bewegungsgleichungen der Teilchen kommen also zum Formalismus hinzu.
Andere Interpretation oder andere Theorie?
Vielleicht sollte man sagen, dass es sich nicht um andere Interpretationen einer Theorie, sondern um andere Theorien handelt. Sie haben alle nur eines gemeinsam: Die Schrödinger-Gleichung. Aber schon in der Frage, was die Ausdrücke in dieser Gleichung eigentlich bedeuten, wovon die Gleichung eigentlich eine Dynamik beschreibt, unterscheiden sie sich. Und jede fügt der Schrödinger-Gleichung eine andere Mathematik hinzu, um zu den experimentellen Ergebnissen zu kommen.
Warum machen sich Physiker überhaupt die Mühe, Alternativen zur Kopenhagener Interpretation zu entwickeln? Schließlich ist diese sehr erfolgreich, sie kann Verläufe von Experimenten sehr gut vorhersagen und hat inzwischen viele technische Anwendungen gefunden, und weitere sind zu erwarten.
Es ist das Unbehagen das dann doch viele Physiker beschleicht wenn sie gefragt werden, was uns die Quantenmechanik eigentlich sagt. David Mermin hat es in seinem berühmten Satz auf den Punkt gebracht:
If I were forced to sum up in one sentence what the Copenhagen interpretation says to me, it would be ‘Shut up and calculate!’ [Wenn ich gezwungen wäre in einem Satz zusammenzufassen, was mir die Kopenhagener Interpretation sagt, wäre es “Halt den Mund und rechne!”]
Diese Einstellung, die Werner Heisenberg so schön verteidigt hat, führt die Physik über die Verfeinerungen der Quantenmecahnik und der Standardmodells der Teilchenphysik schließlich zur Stringtheorie und damit vielleicht in eine Sackgasse. Man beginnt sich wieder die Frage zu stellen, wovon der mathematische Formalismus eigentlich handelt, wo die Realität in den Gleichungen bleibt, was die Ausdrücke in den Gleichungen eigentlich bedeuten. Aber der Sinn von “Realität” ist fraglich geworden und die Bedeutung von “Bedeuten” selbst ist in Vergessenheit geraten. Deshalb muss man bei diesen Fragen wieder ansetzen.
]]>Bedenkt man, dass alle politischen Parteien von den Linken bis zur CDU am Schluss für die Primarschule geworben haben, wird vor allem eines deutlich: In der Bildungspolitik ist die Kluft zwischen politischer Klasse und Bevölkerung besonders groß.
Es liegt in der Natur solcher Abstimmungen, dass diejenigen, gegen die der Entscheid gerichtet war, den Wahlkabinen wohl fern geblieben sind. Das Interesse an politischer Beteiligung dürfte gerade bei denen geringer sein, von denen die Aktivisten ihre Kinder fern halten wollen.
Die Angst vor der Primarschule ist die Angst des Bürgertums vor der Unterschicht
Wovor hat die Mehrheit der Hamburger Bürger Angst? Die Tatsache, dass nach vier Schuljahren kaum bestimmt werden kann, welche weiterführende Schulform für ein Kind optimal ist, wird heute kaum noch bestritten. Diejenigen, die mit “Wir wollen lernen!” abgestimmt haben, meinen vor allem: Wir wollen eine möglichst frühe Trennung unserer Kinder von jenen, die nicht lernen wollen, von denen, neben denen unsere Töchter und Söhne nicht die gleiche Schulbank drücken sollten, weil sie sie vom Lernen abhalten, weil sie schlechter Umgang sind.
Die Abstimmung in Hamburg war vor allem eine Abstimmung für eine stärkere Spaltung der Gesellschaft, für eine Abgrenzung der Mittelschicht, die sich als fleißig und strebsam betrachtet, von einer Unterschicht, die als störend, gewalttätig und faul angesehen wird.
Das passt gut zusammen mit dem, was von der Schwarz-Grünen Koalition als geretteter Kern der Hamburger Schulreform angesehen wird: Die Trennung der weiterführenden Schulen in nunmehr nur noch zwei Schulformen: Die so genannte Stadtteilschule und das Gymnasium. Man darf raten, wohin diejenigen, die bei “Wir wollen lernen!” ihr Kreuzchen gemacht haben, ihre Kinder ab der fünften Klasse schicken.
Gute Bildung ist ein knappes Gut in Deutschland, und das bringt Verteilungskämpfe mit sich. Wenn Knappheit herrscht, dann zieht man Mauern und teilt nicht gern. Voraussetzung für die Akzeptanz eines längeren gemeinsamen Lernens wäre, dass die allgemeine Qualität der Bildungsangebote dramatisch steigt. Besser ausgebildete Lehrer an allen Schulen, die mit Unruhe, Faulheit und Störungen besser zurecht kommen, kleine Klassen, gute Ausstattung, weniger Unterrichtsausfall und ein gut durchdachter Lehrplan – das sind die Voraussetzungen dafür, dass Eltern, die sich um die Zukunft ihren Nachwuchs sorgen, bereit sind, ihre Kinder länger mit anderen Kindern aus allen Schichten zusammen lernen zu lassen.
]]>Kritik bedeutet also zunächst, den Gegenstand von anderen Gegenständen abzugrenzen, ihn zu unterscheiden oder unterscheidbar zu machen. Was ist Wissenschaft, was ist wissenschaftlich, was ist hingegen als nicht-wissenschaftlich zu betrachten? Für eine solche Unterscheidung benötigt man Kriterien (ein Wort, das den gleichen griechischen Wortstamm hat wie Kritik), und nach diesen Kriterien kann man eine vorliegende Sache dann beurteilen.
Eine Kritik kann dabei aus ganz verschiedenen Perspektiven an einen Gegenstand herangehen, ja, das Aufzeigen solcher unterschiedlichen Blickwinkel ist schon ein Teil der Kritik. Bei der Wissenschaft können wir nach den Methoden ihres Vorgehens fragen, wir können nach den Zielen der Menschen fragen, nach den Strukturen ihres Betriebs. An all dem kann die Kritik ansetzen. Eine kritische Analyse kann die Rolle einer Institution in der Gesellschaft ebenso betreffen wie ihre Wesens-Merkmale und Funktionsweisen.
Eine Kritik kann natürlich immer Überraschendes zutage fördern, kann bisherigen, unkritischen Urteilen widersprechen. Das mag dazu führen, dass mancher die Kritik als Provokation oder als Ablehnung empfindet. Ich glaube inzwischen nicht mehr an die allgemeine Überzeugungskraft des rationalen Diskurses. Das liegt weniger daran, dass ich meine Argumente für zwingend halte und mich ständig darüber wundere, dass sie so Wenige überzeugen, sondern vielmehr daran, dass ich auf allen Seiten häufig wenig Neigung empfinde, dem Anderen auch nur zuzuhören und seine Ansicht auch nur als bedenkenswert einzuschätzen – und ich nehme mich da selbst gar nicht aus.
Kritik erreicht überhaupt nur diejenigen, die noch keine Überzeugungen haben, oder diejenigen, die ihre schon Überzeugungen verloren haben. Auf dem Weg zu neuen Überzeugungen sind wir offen für Kritik, weil wir hoffen, in den kritischen Analysen eben Kriterien zur Strukturierung des Unübersichtlichen zu finden.
Die Kritik hilft deshalb am meisten dem Kritiker selbst. Im Zuge seiner Kritik destruiert er seinen Gegenstand um in den gefundenen Grundelementen etwas zu finden, was ihm neuen Halt gibt. Zwischendurch mag das Chaos groß sein, aber die Hoffnung ist, das am Schluss ein Holzweg durchs Dickicht gefunden wird oder gelegt werden kann.
Und gerade bezogen auf die Wissenschaft scheint eine solche Kritik nötig, kann sie gar nicht grundsätzlich genug sein. Wissenschaft ist Ursache – wenn auch niemals allein – großer Hoffnungen und großer Ängste. Sie bestimmt uns in unseren Möglichkeiten und unseren Begrenzungen. Sie scheint alles zu können und doch ist nichts sicher. Was soll wichtiger sein als grundsätzliche Wissenschaftskritik, gerade für einen, der die Wissenschaft liebt und den die Ergebnisse der Wissenschaft (in jedem Sinne) schaudern lassen?
]]>In diesem Argument, oft ergänzt durch die Forderung, die Nutzung von Computer und Internet einzustellen (die Älteren unter uns hören ein fernes Echo des Satzes “Geh doch rüber in die Sowjetunion…”) schwingt die Forderung mit, dass wir der Naturwissenschaft und ihren Errungenschaften erst mal dankbar sein sollten für all das, was sie uns ermöglichen, und dass diese notwendige Dankbarkeit ja wohl jede kritische Nachfrage erübrige.
Dann liege ich immer schlaflos in der Nacht und frage mich: Warum kann ich nicht dankbar sein?
Vielleicht zuerst, weil ich dann so vielen dankbar sein müsste. Den Computer und das Internet verdanke ich ja nicht nur den Physikern, sondern auch den Unternehmern von IBM und Microsoft (wer ist Bill Gates dankbar und wofür?), die mit den Erfindungen Geld verdienen wollten, den Bastlern und Lötern, der Rüstungsindustrie. Wo soll meine Dankbarkeit enden? Und wie soll ich sie gegen meine Ängste und Sorgen vor Kernreaktor-Unfällen, Atombomben, Allergien, Killerspielen auf den Computern meiner Kinder, Klimawandel, Luftverschmutzung aufrechnen?
Wenn Wissenschaftler immer wieder darauf verweisen, dass sie nur aus Neugier Mechanismen der Natur verstehen und erklären wollen, dass ihnen Beherrschung und Benutzung für Böses ebenso fern liegt wie die unerfreulichen Nebenwirkungen technischer Entwicklungen, dann können sie doch auch die Segnungen technischer Entwicklungen nicht für sich reklamieren.
Ich gönne ihnen allen ihren Spaß: den Wissenschaftlern, die Uran mit Neutronen beschießen und am LHC Protonen-Strahlen ineinander jagen, den Bastlern, die mit oder ohne Kenntnis der Theorien Maschinen und Computer bauen, den Unternehmern, die Geld damit verdienen wollen. Ich weiß, ich muss mit den Folgen leben, im Guten wie im Schlechten, ich werde sie nicht ändern. Und ich bin einer von ihnen, indem ich ihnen zuschaue, mir meine Gedanken darüber mache, was sie da tun, und laut darüber rede. Daran habe ich meinen Spaß.
Hätte ich weniger Spaß, wenn die Wissenschaft keine Theorien aufstellten? Eigentlich eine sehr akademische Frage. Aber: Ich glaube kaum. Die Bastler würden noch immer basteln, die Unternehmer würden noch immer Geld verdienen wollen. Sie würden etwas anderes entwickeln, würden hier langsamer und dort schneller sein (man glaubt ja gar nicht, wie oft eine Theorie, indem sie sagt, dass etwas nicht geht, den technischen Fortschritt auch behindert), aber sie würden mich genauso in Beschlag nehmen, mir ungefähr ebenso viel Freude und Angst machen, wie ich jetzt habe.
Und selbst wenn ich auf den ganzen wissenschaftlichen Fortschritt verzichten müsste, den mir die Wissenschaft des 19. und 20. Jahrhunderts eingebrockt hat: Dann würde ich in Bücher statt im Internet nach Wissen suchen, ich würde Briefe schreiben statt Mails (und länger drüber nachdenken, bevor ich etwas versende), dann würde ich – zugegeben – mit keinem MartinB, keinem Ockham, keinem georg und keinem roel diskutieren können, statt dessen würde ich mit Menschen, von denen ich Alter, Name, Weingeschmack und Augenfarbe kennen würde, im Kerzenschein oder am Feuer sitzen und diskutieren, die Kinder um uns herum wären nicht so gesund wie unsere, aber es wären mehr.
Aber ich lebe in dieser Welt, so wie sie ist. Das ist in Ordnung. In dieser Welt gibt es – warum auch immer – den Computer und das Internet. Da ich kein Einsiedler bin, benutze ich sie. Aber ich muss niemandem dankbar sein.
]]>Technische Verbesserungen an den Klimaanlagen werden das Risiko eines Ausfalls senken – und die Fahrlässigkeit in Risiko-Situationen erhöhen. Die Frage ist doch nicht, warum die Technik ausgefallen ist – das kann, da sie von Menschen gemacht ist, immer passieren. Die Frage ist doch, warum niemand auf die Idee kam, den Zug zu stoppen, warum man in Titanic-Stimmung in die Katastrophe gerast ist.
Denn der Katastrophe ist die Bahn hier nur durch Glück entkommen. Statt einer Schulklasse hätte auch eine Ausflugsgruppe von herzkranken Rentnern im Zug sitzen können. Ein Zug dieser Art darf, wenn bei Außentemperaturen von mehr als 30°C und brennender Sonne die Klimatisierung versagt, seine Fahrt nicht fortsetzen.
Natürlich soll man von der Bahn fordern, Ihre Technik besser zu warten, und in das sichere Funktionieren aller Komponenten zu gewährleisten. Aber vor allem darf der gesunde Menschenverstand nicht dem Fahrplan geopfert werden. Das gilt nicht nur für das Personal der Bahn, sondern auch für die Passagiere. Im Zweifel ist es besser, ein paar Stunden später am Ziel und gesund zu sein, als pünktlich aber krankenhausreif. Und dass die Wasser-Reserven im Bordbistro zur Neige gehen, ist an Hitzetagen ebenfalls nicht überraschend. Besser als über die schlechte Vorbereitung der Bahn auf Extremfälle zu klagen ist es, sich selbst besser vorzubereiten. dafür, dass ich unterwegs nicht verdurste, kann ich immer noch selbst am besten sorgen. Die Bahn ist zwar für vieles verantwortlich, aber sie ist kein Kindergarten.
]]>Aber irgendwie hat mich die Unruhe gepackt, und deshalb frage ich meine werten Leser:
Ist so etwas sinnvoll? Ist es gut?
Was macht man denn, wenn man Fehlbildungen auf diesen Bildern entdeckt? Ist die Freude auf das Kind dann getrübt? Wozu solche Details schon Wochen vor der Geburt kennen, wenn man sie nicht mehr ändern kann und das Kind andererseits noch nicht wirklich da ist.
Und – noch viel schlimmer: Wenn man schon solche Bilder des kleinen Menschen mit sich herumträgt, was, wenn das kleine Ding die Geburt nicht überlebt? Gut, das ist unwahrscheinlich, aber ist es nicht noch viel schlimmer, wenn man auf diese Weise schon so eine Bindung zu dem Kind aufgebaut hat?
Früher wusste man nicht, ob es ein Junge oder ein Mädchen ist, heute weiß man schon Wochen vor der Entbindung ganz genau, wie groß und wie schwer der Säugling sein wird. Das ist natürlich praktisch für den letzten Einkauf vor dem großen Tag, aber ist es auch gut?
]]>Zeh hält es unter der Bedingung, dass „man bereit ist, den Realitätsbegriff unabhängig
von traditionellen Vorurteilen zu verstehen” für „möglich und konsistent” dass „die Wellenfunktion die Realität beschreibt”. Damit stellt er sich nach seiner eigenen Einschätzung gegen ein „verbreitetes Vorurteil unter Physikern” denn „die Wahrscheinlichkeitsinterpretation wird allen Physikstudenten als unumstößliches Dogma ins Gehirn gebrannt.”
Die übliche Ablehnung einer Realität in der Quantenphysik ist dagegen nur ein Verzicht auf Konsistenz der Beschreibung (umschrieben durch Vokabeln wie Dualismus, Unschärfe usw.).
Die begriffliche Konsistenz der Beschreibung
In diesem Satz äußert Zeh schon implizit seine zentrale Forderung an eine realistische Theorie: Konsistenz der Beschreibung. Das heißt für Zeh offenbar: die Theorie darf, um realistisch genannt zu werden, nicht auf verschiedenen, nicht logisch miteinander vereinbaren Formalismen (wie Partikel und Welle, oder Schrödinger-Dynamik und Kollaps) beruhen, die je nach Kontext oder Fragestellung oder Messsituation angewandt werden. Von einer realistischen Theorie verlangt Zeh einen einheitlichen, logisch konsistenten Formalismus, der insbesondere unabhängig von einem Beobachter, einer Messung die Vorgänge der Realität beschreibt. Eine Theorie, bei der abhängig von der Fragestellung des experimentierenden Forschers ein Formalismus zur Vorhersage der Messergebnisse ausgewählt werden muss, kann also keine Realität beschreiben. Darin stimmt Zeh genau besehen ja sogar mit den Anhängern der Kopenhagener Deutung überein: Für diese beschreibt die Quantenphysik ja gerade keine Realität, sie ist vielmehr eine Theorie über unser Wissen, über unsere Information, die letztlich die Frage, „Wissen worüber?” oder „Information wovon?” nicht beantworten kann.
Der Dissens besteht darin, dass die Kopenhagener und ihre heutigen Anhänger der Meinung sind, dass eine realistische Theorie, die begrifflich konsistent und vollständig ist, auch nicht möglich ist. Zeh hält diese Aussage in ihrer absoluten Form seit Bohms Theorie für widerlegt. Dass sie trotzdem noch immer unter den Physikern weit verbreitet ist, liegt nach Zeh zum einen an der anhaltenden Autorität Bohrs, zum anderen daran, dass die meisten Alternativvorschläge zusätzliche Annahmen enthalten.
Dabei spielt aber auch eine Rolle, dass die pragmatischen Regeln
der Kopenhagener Deutung es erlauben, den darin postulierten begrifflichen Inkonsistenzen systematisch aus dem Wege zu gehen. Wenn der Verzicht auf Realität denn Wahnsinn ist, so erfordert er jedenfalls Methode – und diese ist lehrreich.
Für Zeh muss eine realistische Theorie also begrifflich konsistent und vollständig sein. Konsistenz der Begriffe heißt, dass die Theorie über nur einen logischen Formalismus verfügt, und dass die Auswahl des Formalismus zur Beschreibung der Dynamik eines Systems nicht von irgendeinem Kontext abhängt. Bezüglich der Forderung nach Vollständigkeit darf wohl angenommen werden, dass Zeh diesen Begriff ganz im Sinne von Einstein, Podolsky und Rosen verstanden haben möchte: Wenn es möglich ist, für ein System ein Messergebnis mit Sicherheit vorherzusagen ohne dieses zu stören, dann muss die Theorie eine Eigenschaft für das System enthalten, die dem Messergebnis entspricht.
Heuristische Fiktionen
Wie kommt man nun zu realistischen Theorieansätzen? In seinem kurzen Gang durch historische Beispiele realistischer Theoriebildung (kopernikanisches Weltbild, elektromagnetisches Feld, Lichtäther) zeigt Zeh die zentrale Bedeutung des „als ob” für die realistische Theoriebildung auf: Planetenbewegungen werden zunächst so beschrieben „als ob” sie um die Sonne kreisen, das Licht verhält sich „als ob” es in einem Äther schwingt und elektrische Probeladungen verhalten sich so, „als ob” überall ein elektromagnetisches Feld vorhanden ist (interessant ist in diesem Zusammenhang die Position Nancy Cartwrights zum “als-wenn-Operator). Planeten, die um die Sonne kreisen, Äther und Feld sind zunächst nichts anderes als eine „heuristische Fiktion” – im Sinne des Descarteschen Dämons könnten sie uns im Extremfall auch nur vorgetäuscht sein.
Entscheidend ist, dass eine solche „heuristische Fiktion” einer realen Welt mit allen Erfahrungen im Einklang steht und keine überflüssigen Elemente enthält, die nicht aus Konsistenzgründen erforderlich sind.
Wenn das der Fall ist, dann sind wir über kurz oder lang bereit, eine Theorie, die auf einer heuristischen Fiktion basiert, als realistisch zu akzeptieren.
Warum Realismus?
Das Konzept, Theorien als logisch konsistente und beobachterunabhängige Formalismen zu konstruieren, deren heuristische Fiktionen mit allen Erfahrungen im Einklang stehen, ist nach Zeh ein in der Physikgeschichte äußerst erfolgreiches Konzept. Insofern sind diejenigen, die für die Quantenwelt die Möglichkeit einer realistisch konzipierten Theorie ablehnen, auch in der argumentativen Bringschuld für diese Unmöglichkeit.
Deutlich wird hier aber auch, dass „Realität” für Zeh nichts anderes ist als ein Design-Konzept für Theorien. Realistische Theorien weisen für Zeh unübersehbare Design-Vorteile auf: Begriffliche (logische) Konsistenz und Beobachterunabhängigkeit. Diese schließen offenbar, das sei nur am Rande angemerkt, Vollständigkeit und Determiniertheit ein.
Die Frage, ob eine realistische Theorie im Sinne Zehs die Realität tatsächlich (idealisiert und approximativ) beschreibt, wie sie ist, bleibt dabei unbeantwortet, ja, muss unbeantwortet bleiben, da Zehs Konzept sich ja ausdrücklich auf das Prinzip der „heuristischen Fiktion” stützt. Konsistenz und Beobachterunabhängigkeit sind nur notwendige Bedingungen dafür, dass eine Theorie realistisch gemeint sein kann sie sind nicht hinreichend dafür, dass die Theorie wirklich realistisch gemeint ist oder dass sie eine approximative und idealisierte zutreffende Beschreibung der Welt ist.
Wie viel Gemeinsamkeiten hat Zehs Realitäts-Konstrukt noch mit unserem alltäglichen, außerwissenschaftlichen Begriff von Realität? Auf den ersten Blick nicht viel: Im Alltag halten wir für real, was wir anfassen können, was unseren Bemühungen spürbaren Widerstand entgegensetzt, was seinen Ort nicht plötzlich und ohne Grund wechselt, was nicht verschwindet, wenn wir nicht hinsehen. Wenn man genauer hinsieht, dann muss man aber zunächst beachten, dass Zeh nicht von der Realität von Objekten, sondern vom Realismus der Beschreibungen spricht. Und da passen Alltagsbegriff und wissenschaftlicher Begriff recht gut zusammen: Auch im Alltag halten wir eine Beschreibung für unrealistisch, wenn sie begrifflich nicht konsistent ist und wenn ihr Gehalt von der Beobachtersituation oder -perspektive abhängt. Ob die Beschreibung dann auch zutrifft, ob sie mit der Realität „übereinstimmt”, ist eine ganz andere Frage.
P.S.: Mein Dank gilt Kim Boström, der mich auf diesen Text aufmerksam gemacht hat und mich mit der Aussicht auf eine anregende Diskussion zum Schreiben dieses Artikels motiviert hat.
]]>Davon ausgehend kann das Realismus-Thema in Bezug auf die Wissenschaft in zwei Richtungen variiert werden: Zum Einen ist eine bloße Anwendung des jeweiligen erkenntnistheoretischen Standpunktes auf die Wissenschaft möglich. Das kann dann z.B. heißen, dass auch die Inhalte von wissenschaftlichen Theorien nicht Tatsachen an sich repräsentieren sondern dass diese ebenfalls immer nur Konstruktionen des Geistes sind, deren Beziehung zur Außenwelt noch weit vermittelter ist als es ohnehin im Alltag schon der Fall ist. Auf diese Weise kann man z.B. hinsichtlich der Gedanken über die Alltags-Welt noch Realist sein, hinsichtlich wissenschaftlicher Theorien aber einen realistischen Standpunkt ablehnen.
In all diesen Diskussionen geht es – unabhängig vom Wünschen und Wollen der betroffenen Personen und auch unabhängig von deren Überzeugungen – um die Frage ob und in welchem Sinne wir überhaupt in der Lage sind, mit unseren Gedanken, Hypothesen und Behauptungen Wahres über die Welt auszusagen.
Allerdings könnte man auch von einer anderen der drei großen Fragen Kants ausgehen um sich dem Problem des Realismus in den Wissenschaften zu nähern: Was soll ich tun? Was darf ich hoffen? Dann stellt sich das Realismus-Problem gerade in Bezug auf die Wissenschaften auf andere Weise. Es stellt sich die Frage, ob wissenschaftliche Theorien als realistische Theorien formuliert werden sollen oder ob man gerade auf diesen Anspruch verzichten solle.
Unabhängig davon, woran man eine realistische Theorie im Detail erkennt und was es eigentlich heißt, realistische Aussagen in einer Theorie zu machen kann man sicherlich sagen: Eine realistische Theorie behauptet, dass die Welt (wenigstens idealisiert oder näherungsweise) tatsächlich so ist wie es die Theorie aussagt, dass das, was die Theorie enthält, wirklich existiert, dass diesen Inhalten Realität zukommt. Es gibt viele große Beispiele für die Wirkmächtigkeit realistischer Theorien bzw. für die Kraft, die von realistischen Argumentationen gegen Theorien ausgeht. Das Kopernikanische Weltbild gewann seine (subversive) Kraft eben nicht aus den besseren Ergebnissen bei der Berechnung der Planetenpositionen sondern aus seinem Anspruch, eine richtige Beschreibung der Welt zu sein. Umgekehrt wurde das Phlogiston nicht aus der Chemie verbannt, weil es eine unzureichende Rechen-Konstruktion war, sondern weil sich seine Existenz nicht nachweisen lies, und auch der Lichtäther wurde verworfen, weil man die Messergebnisse (zu seiner Zeit) nicht mit realistischen Vorstellungen von einem kontinuierlichen Schwingungsmedium vereinbaren konnte.
Andererseits gibt es genauso viele Beispiele in der Wissenschaftsgeschichte, bei denen ein Festhalten am Realismus dem Fortschritt der Disziplin scheinbar hinderlich war. Einsteins Ablehnung der Kopenhagener Deutung der Quantenmechanik gilt hier als Paradebeispiel. Mit seinem Satz „Der Alte würfelt nicht.” machte sich der Revolutionär der Physik des 20. Jahrhunderts zum Gespött einer Physikergeneration, die hinsichtlich des Realismus ihrer Theorien ziemlich unbekümmert daherkam. Und der Erfolg schien ihnen zunächst Recht zu geben.
Heute ist die Unbekümmertheit verschwunden, und zeitgleich mit der Vermutung, dass Theorienentwicklung, die auf realistische Ansprüche verzichtet, in eine Sackgasse führt, werden die Rufe nach realistischen Konzepten wieder lauter. Aber wie können realistische Theorien überhaupt aussehen. Das Paradoxon ist: „Realität” scheint selbst zu einem Konzept zu werden, das erst entwickelt werden muss.
Damit gelangt man unversehens wieder zum erkenntnistheoretischen Realismusproblem zurück. Auch wenn sich erkenntnistheoretisch das Grundkonzept von „Realität” als Konstruktion, als Bewusstseins-Inhalt, dessen Bezug zur Welt da draußen ungewiss ist, herausstellt, brauchen wir für die Wissenschaft einen stabilen Realitätsbegriff, um voranzukommen. Wie ein solcher Begriff gebildet und begründet werden kann, ist die offene Frage.
]]>Woran liegt das? Der Grund der zuerst genannt wird, klingt ganz sachlich und lässt sich in dem Satz zusammenfassen: Männer sind halt nicht so kompliziert. Die Variabilität ist geringer, es gibt keine zyklischen Hormonschwankungen. Das war schon vor 100 Jahren das Standard-Argument – und deshalb müssen noch heute Frauen die Medizin schlucken, die Männer für Männer entwickelt haben.
Man spricht heute gern von den Chancen der personalisierten Medizin. Aber was, so fragt auch das nature-Editorial zum Thema, ist personalisierter als das Geschlecht? Wer kann ernsthaft behaupten, dass bald für jeden Menschen ganz persönlich die richtige Medizin gebraut werden kann, wenn noch nicht einmal zwischen Männern und Frauen unterschieden wird und den Frauen einfach das verordnet wird, was den Männern hilft?
Vielleicht sollten die Forscher, bevor sie sich an die großen Visionen machen, erst mal die kleinen, naheliegenden Herausforderungen in Angriff nehmen.
Kim, A., Tingen, C., & Woodruff, T. (2010). Sex bias in trials and treatment must end Nature, 465 (7299), 688-689 DOI: 10.1038/465688a
Baylis F (2010). Pregnant women deserve better. Nature, 465 (7299), 689-90 PMID: 20535185
Zucker, I., & Beery, A. (2010). Males still dominate animal studies Nature, 465 (7299), 690-690 DOI: 10.1038/465690a
]]>Auf dem Küchentuch meiner Oma war ein Spruch eingestickt: “Spare in der Zeit, dann hast du in der Not”. So, wie das Wort “sparen” heute verwendet wird, passt es kaum in diesen alten Satz. “Prasse in der Zeit, und spare in der Not”, das stand wahrscheinlich seit den 1970er Jahren in der Politik-Lehrbüchern der neuen Generation. Und so denken die Politiker auch, ob im Bund, im Land oder in den Städten.
Sparen, das hieß früher, nicht alles auszugeben, was man erarbeitet hat. Sparen setzte früher voraus, dass man Einnahmen hatte, die man dann nicht komplett ausgab, um sie für “schlechte Zeiten” zurückzulegen – eben “aufzusparen”. So hatte man auch dann, wenn die Einnahmen ausblieben, noch für einige Zeit genug Geld, Getreide oder Wein, um sein Leben zu fristen.
Seit den 1970er Jahren lebt unsere Gesellschaft jedoch auf Pump. Die Idee, nur das auszugeben, was man zuvor eingenommen hatte, wurde als Zeichen von verstaubter altmodischer Ängstlichkeit gedeutet. Das betrifft nicht nur den Staat, sondern auch die Bürger und Unternehmer. Ihre Hochzeit in der Wirtschaft erlebte diese Mentalität vor ca. 10 Jahren unter dem Kosenamen “New Economy”. Seit dem haben sich zumindest die Unternehmer, die schon lange keine Kapitalisten mehr waren, weil sie schlicht kein (Eigen-)Kapital besaßen, schmerzhaft von diesem Missverständnis über das Sparen erholt.
Zu spät, wahrscheinlich, denn zum Sparen in der Zeit können auch sie kaum zurückkehren, ebensowenig wie die Bürger – denn der Staat nimmt ihnen all das weg, was übrig bleibt, was sie sparen könnten, und nennt wie zum Hohn genau das: Sparen.
Sparpakete, die der Staat nicht “packt” wie man früher Pakete packte um anderen eine Freude zu machen, sondern die er “schnürt” weil sie vor allem Papier enthalten – Gesetze und Verordnungen – diese Sparpakete enthalten vor allem Zwangsmaßnahmen um Bürgern und Unternehmen alles gesparte im Interesse des Gemeinwohls abzunehmen. Die Stadt bezeichnet es als “Sparen” wenn sie Parkgebühren, Müllgebühren und Gewerbesteuern erhöht, und der Bund “spart” indem er eine LKW-Maut erhebt.
In Krisenzeiten kann man nicht sparen, da kann man nur kürzen, den Gürtel enger schnallen. Da gibt es eben mal keine tollen Geschenke auf Pump, da muss geflickt werden und nicht neu gebaut.
Sparen, das ist etwas für die guten Zeiten, wenn die Gewinne und die Steuern sprudeln und fließen. Dann kann man Geld beiseite legen, alle Schulden abbezahlen – damit man die nächste Krise besser übersteht.
]]>Auch Heidegger selbst ist zu hören – wenn auch nur in einem späten Radio-Interview, in dem die Eindringlichkeit seiner Rede nicht so deutlich wird wie in der berühmten Aufzeichnung des Vortrags Der Satz der Identität. Aber auch die anderen Stimmen lohnt es sich anzuhören, wenn man einmal von den ersten ca. 20 min “Streitgespräch” absieht.
Vor allem wird deutlich, wo Heidegger im denken des 20.Jahrhunderts wirklich steht, welchen Einfluss sein Werk genommen hat. Nichts wird dabei ausgeklammert, weder seine kurzzeitige Unterstützung der Nazis, noch seine Nähe zum Handwerk und zur Bäuerlichkeit, aber auch nicht der merkwürdige Umgang der deutschen Nachkriegs-Intelligenz mit ihrem großen einsamen Denker. Während alle Welt seine Werke las wurde er in Deutschland offiziell lange fast totgeschwiegen, aber wenn er irgendwo vortrug, war kein Hörsaal groß genug, und von Hans Carossa bis Werner Heisenberg lauschten die klugen Köpfe des Landes den Fragen des Philosophen.
Es ist lange her, dass ich mich auf eine Autofahrt gefreut habe. Aber nun überlege ich schon, wann ich mal wieder auf die Autobahn muss – schließlich fehlen mir noch drei Stunden Hörbuch über Heidegger.
]]>Mein Favorit ist der, der sich nur ganz ins geheim seine Chancen ausrechnet. Der sich über jedes Weiterkommen freut. Und der bei der Frage nach dem Favoriten den Gegner nennt, der als nächstes geschlagen werden muss.
Und dieser Favorit spielt morgen gegen den einzig verblieben “Favoriten” dieser WM. Und wird gewinnen.
Und damit beende ich meinen kleinen Ausflug in die Fußball-Welt.
]]>