Ich habe mich lange vor diesem Text gedrückt. Aber jetzt zeigt der Kalender den 31. Dezember an und es ist schon spät am Nachmittag. Allerhöchste Zeit also für diese Notiz, mit der ich mich (wenigstens in meiner Funktion als verantwortlicher Redakteur für das Portal) von ScienceBlogs.de verabschiede. (Es ist ja auch kein Staatsgeheimnis. Der wie immer bestens informierte NiceBastard hat es schon vor einigen Tagen verraten. Tobias hat heute vormittag was dazu gepostet.)
Wie alles begann…
Vor fast drei Jahren (irgendwann im Februar 2008) habe ich meine ersten Topthemen geschrieben (damals hieß die Rubrik noch “Was Blogger bewegt”). Und seitdem war ScienceBlogs ein bestimmender Teil meines Lebens. Wie es sich für einen anständigen Blogger gehört, führte mein erster Weg nach dem Aufstehen nicht etwa an den Frühstückstisch, sondern an den Laptop. Mails checken, nachsehen, was sich während der Nachtstunden bei ScienceBlogs getan hat, gibt es schon neue Artikel und neue Kommentare? Welche Neuigkeiten werden bei Twitter diskutiert?
Und spätabends gab es nicht selten Diskussionen mit meiner Freundin, die manchmal dann doch genervt war, wenn ich auch um 23.00Uhr oder später (gerne auch bis 01.00 oder 02.00Uhr in der Nacht) noch Kommentare beantworten oder eben unbedingt noch ein Topthema für den nächsten Morgen schreiben wollte. Das war in den letzten Jahren mein Leben. Und das war wirklich ausgesprochen klasse.
Deshalb möchte ich mich an der Stelle ausdrücklich bedanken. Bei meiner Freundin (s.o.) und meiner Familie, die mich bei all dem unterstützt haben. Vor allem aber bei den Bloggern. Ohne Euch gäbe es ScienceBlogs nicht und ohne Euch hätte ich das niemals so lange gemacht! Ich habe jede Menge von Euch gelernt. Und von Eurer Begeisterung für die Wissenschaft habe ich mich immer wieder gerne anstecken lassen.*
So geht’s weiter…
Das alles wird mir künftig sicher ein Stückchen fehlen. Hier bei ScienceBlogs geht die Show aber definitiv weiter. Dafür sorgen schon allein die Blogger. Und es gibt natürlich auch Menschen, die meine Aufgaben künftig übernehmen. Einen Teil davon wird Fabian Soethof in Berlin erledigen, für die allermeisten Inhalte (was eben die Topthemen und vieles mehr angeht) wird ab sofort allerdings jemand anderes sorgen. Nämlich Jürgen Schönstein, den man ja bestens von “Geograffitico” kennt.
Und da ich Jürgen die letzten Jahre als einen kritisch-begeisterten Beobachter der Wissenschaft kennengelernt habe, fällt mir der Abschied dann doch etwas leichter. Ich weiß ScienceBlogs nämlich in allerbesten Händen.
Nun bleibt mir nicht viel anderes übrig, als Euch allen alles Gute zu wünschen. Dir Jürgen, viel Erfolg und allen Bloggern und Lesern viele gute Diskussionen.
—
* Neben den ScienceBloggern (die ich oben explizit erwähne) muß ich mich übrigens genauso bei all unseren Stammlesern bedanken, all den anderen Wissenschaftsbloggern draußen an den angeschlossenen Geräten und v.a. auch bei unseren Kollegen von den Scilogs. Ohne Eure freundschaftliche Begleitung hätte es hier nur halb so viel Spaß gemacht.
Von mir wird es in den nächsten Monaten voraussichtlich kaum Postings mit wissenschaftlichem Inhalt geben. Ich werde mir (zusammen mit der Sprachspielerin) nämlich Land und Leute in Neuseeland und Australien ansehen. Und darüber natürlich auch bloggen. Ab nächster Woche gibt es hier etwas zu lesen: https://www.beutelthierchen.de/.
Das Comic stammt von hier: https://xkcd.com/386/
]]>Mit jeder Menge Leidenschaft und politischer Begeisterung ging es nämlich auch bei der zweitägigen “Bürgerkonferenz zur Energienutzung” zur Sache. Doch auch Augenmaß und Kompromißfähigkeit waren gefragt. Schließlich sollten sich die knapp 200 Teilnehmer ja auf ein gemeinsames Empfehlungspapier verständigen. Einige Anmerkungen am Ende des zweiten Tages…
Es waren zwei wirklich vollgepackte Tage hier in Berlin. Es gab hitzige Diskussionen, Koalitionsbildungen an den Tischen und strategisch formulierte Statements und Formulierungen: eigentlich war es einfach nur Politik, was im geschützten Rahmen dieser Bürgerkonferenz stattfand. Das war vermutlich auch nicht anders zu erwarten. Und doch war die Veranstaltung hochinteressant. Denn die Teilnehmer waren ja eben keine (Berufs-)Politiker, sondern ganz normale Bürger. Und die können ganz offenbar auch Politik.
Wenn man während der zwei Tage die Diskussionen in großen und kleinen Gruppen beobachtet hat, wenn man zugehört hat, wie die Experten an den Tischen befragt wurden und wenn man gesehen hat, wie die Teilnehmer hochkonzentriert bei der Sache waren, dann kann man nur hoffen, daß solche Formate künftig häufiger durchgeführt werden (egal ob sie nun unter dem Etikett “Bürgerkonferenz” durchgeführt werden oder anders heißen).
Vermutlich wäre es vermessen, wenn man von einer solchen Veranstaltung die Lösung für die Energiefragen der Zukunft erwarten würde.
Ganz klar: es ist jede Menge Arbeit, um überhaupt eine solche Veranstaltung zu organisieren. An den zwei Tagen waren ca. 30 Helfer direkt vor Ort tätig, das kleine Organisationsteam war natürlich schon viele Monate zuvor aktiv. Und die 20 Tischmoderatoren leisteten wirklich Schwerstarbeit. Aber dieser Aufwand lohnt sich: das zeigt sich an der Ernsthaftigkeit, mit der die Teilnehmer hier diese Möglichkeit wahrgenommen haben. Und das zeigt sich auch an den Ideen und Thesen, die während der zwei Tage erarbeitet wurden.
Keine Neuerfindung des Rades
Wirklich neu, spektakulär, gar revolutionär ist kaum etwas davon. Manche Positionen sind vielleicht auch nicht bis zur letzten Konsequenz durchdacht, manche möglicherweise auch naiv.
Aber vermutlich wäre es auch vermessen, wenn man von einer solchen Veranstaltung an zwei verregneten Tagen im September die Lösung für die Energiefragen der Zukunft erwarten würde. Darüber zerbrechen sich schließlich Heerscharen von Experten seit Jahren die Köpfe. Aber kreative Ideen gab es eben schon. Und die Möglichkeit zu Beteiligung. Und das ist doch schon was.
Was aber wurde heute debattiert und an Empfehlungen erarbeitet? Das PDF mit der Bürgererklärung (einer Topliste an Forderungen bzw. Empfehlungen an die Adresse von Wissenschaft, Politik und Wirtschaft) steht auch online und auf der Website kann in den nächsten 14 Tagen auch diskutiert werden.
Am meisten Zustimmung erhielten Forderungen, die sich auf die Bereiche energieeffizientes Bauen und Altbausanierung (hier insbesondere Dämmung etc.), die Energieerziehung und Aufklärungskampagnen oder den Bereich des Verkehrswesens (Stichwort: intelligente, nutzerfreundliche Verzahnung von ÖPNV, Rad und Car-Sharing-Angeboten).
Was haltet Ihr von solchen partizipativen Verfahren? Hättet Ihr Lust, an einer solchen Bürgerkonferenz teilzunehmen?
Man könnte an der Stelle sicher noch viele weitere Einzelforderungen vorstellen, die erhoben wurden. Wer daran Interesse hat, der wird hier fündig: Empfehlungen zur Zukunft der Energienutzung in Deutschland.
Jetzt aber spiele ich den Ball nochmal an Euch zurück: Was haltet Ihr von solchen partizipativen Verfahren? Hättet Ihr Lust, an einer solchen Bürgerkonferenz teilzunehmen? Ist das Modell geeignet, um den Dialog zwischen Politik (der die Ergebnisse ja weitergeleitet werden sollen) und Bürgern zu verbessern? – Wortmeldungen wie immer gerne in den Kommentaren.
—
Und hier noch zwei Eindrücke vom heutigen Tag:
Um es hier nochmal klarzustellen: Bürgerkonferenzen und alle verwandten Formate der Bürgerbeteiligung, wie sie in Dänemark, Großbritannien, den USA, der Schweiz oder vereinzelt in Deutschland durchgeführt wurden, haben das Ziel das vorhandene Arsenal an Beteiligungsmöglichkeiten für Bürger zu erweitern. Es geht nicht um eine Entmachtung gewählter Parlamente, es geht nicht um die Installation von intransparenten Entscheidungszirkeln von irgendwelchen Eliten.
Im Gegenteil: es geht um das Ausprobieren von maximal transparenten Verfahren der diskursiven Verständigung über kontroverse Fragestellungen. Und die aktuell hier in Berlin stattfindende Veranstaltung ist ohnehin “nur” ein Experiment. Am Sonntagabend soll zwar von der Bürgerkonferenz ein gemeinsames Empfehlungspapier verabschiedet werden. Aber das hat natürlich keinerlei bindende Wirkung. Es ist ein Empfehlungspapier, das dokumentiert, was 200 interessierte und (das mein Eindruck) verantwortungsvolle Bürger an einem Wochenende diskutiert haben. Das ist wertvoll. Und sicher nichts, wovor man sich irgendwie ängstigen müsste. *
Diskussionen, Fragen und Experten
Die beiden Konferenztage sind absolut vollgepackt. Die rund 200 Teilnehmer sitzen ja an 20 Tischen zusammen, an denen jeweils ein Moderator die teilweise überschießende Diskussionslaune bremsen und in geordnete Bahnen lenken muß. Und die Tischmoderatoren geben die Fragen und Statements von den einzelnen Tischen immer wieder an die zentrale Konferenzredaktion weiter, die die Fragen bündeln und dann wieder zur gemeinsamen Diskussion stellen. Und dazwischen gibt es immer wieder Zeit für Fragerunden an die Experten. Der Zeitplan ist eng getaktet. Vielleicht zu eng. Manche Teilnehmer hätten sich (so ist zu hören) mehr Zeit gewünscht, um einige Fragen eingehender zu behandeln.
Die Teilnehmer sind engagiert, diskussionsfreudig und wirklich sehr, sehr gut vorbereitet.
Ganz offensichtlich ist: die Teilnehmer sind wirklich sehr, sehr gut vorbereitet. Im Vorfeld gab es natürlich Informationsmaterial und es sieht so aus, als wurden die Hausaufgaben gemacht. Ich habe mich heute immer wieder an einzelne Tische gesetzt und die Diskussionen verfolgt. Und dort ist zu spüren, daß diese Veranstaltung sehr ernst genommen wird. Man merkt es vielen Redebeiträgen an: für die Teilnehmer ist diese Konferenz endlich einmal eine Gelegenheit, um ihre Anliegen loszuwerden. Hier interessiert sich jemand für ihr Urteil. Da hört jemand zu. Da sitzen echte Wissenschaftler, die für Fragen offen sind und aufmerksame Moderatoren, die den ganzen Input einsammeln, sortieren, bündeln. Das kommt gut an. Zwischenfazit 1: Teilnehmer an Bürgerkonferenzen finden das Format cool.
Das leitet über zu einer anderen Frage: Wer sind die Teilnehmer? Man muß zumindest für dieses Wochenende eingestehen: repräsentativ ist die Zusammensetzung nicht. Man hat sich bemüht, eine möglichst heterogene Teilnehmerschar zusammenzubringen. Aber es gibt einige Faktoren, die das erschweren. Als Teilnehmer muß man nämlich mindestens ein komplettes Wochenende opfern. So wie es aussieht (und wie ich von den Organisatoren erfahren habe) sind junge Menschen zwischen 20 und 40 Jahren dazu ziemlich selten bereit. Und morgen ist Berlinmarathon. Und überhaupt. Deshalb geben eben 42% der Teilnehmer als Status “Rentner” an. So ist das. Nachdem diese Bürgerkonferenz ja eben ein Experiment ist und bleibt, sehe ich darin kein großartiges Problem.
Heute vormittag gab es zuerst einmal Raum, um ohne großartige Vorgaben die Punkte anzusprechen, die im Zusammenhang mit dem Thema Energienutzung nach Ansicht der Teilnehmer im Argen liegen. Die Kritik reichte von den öffentlichen Gebäuden, die (Heiz-)Energie verschleudern über den mangelhaft ausgebauten ÖPNV bis zu fehlenden Informationen über Energieeinsparpotentiale. Überraschend für mich war: an dem Tisch an dem ich zugehört habe, war es ganz klar, daß Energiesparen mittelfristig nicht ausreicht. Verhaltensänderungen und auch der Verzicht auf Luxus waren für die Diskussionsteilnehmer selbstverständlich. Und Kerosin müsse sowieso besteuert werden. Besser heute als morgen.
Reicht es aus, auf die Einsicht der Verbraucher in Sachen Energiesparen zu setzen? Oder wäre (sanfter) Zwang nicht sinnvoll und notwendig?
Auffallend insgesamt: über die Ziele wurde man sich relativ schnell einig. Die große Frage besteht oft darin, wie man diese Ziele realisieren kann. Reicht es aus, auf die Einsicht der Verbraucher zu setzen? Oder wäre (sanfter) Zwang nicht sinnvoll und notwendig? Konkret: können wir warten, bis der Nachbar auch endlich die Kurzstrecken mit dem Fahrrad oder dem Bus zurücklegt oder müssen wir erst (Steuern!) die Benzinpreise verdoppeln oder verdreifachen, um dieselbe Verhaltensänderung zu erreichen?
Hier die meistgenannten Kritikpunkte:
Am Nachmittag ging es dann um die Entwicklung von Visionen für die Energiezukunft des Jahres 2030. Am Ende wurden 15 Forderungen aufgelistet. Am meisten Zustimmung fanden der Punkt “Energieerziehung” (Vorschlag: an den Schulen ein Fach Energiekunde einführen), ebenfalls populär war die Durchsetzung eines umwelt- und nutzerfreundlichen ÖPNV. Ebenfalls die Hitliste belegt der Punkt “intelligente Gebäudetechnik”.
Als erstes Fazit lässt sich festhalten: ein spannender Tag, engagierte Teilnehmer, viele Ideen. Manche davon utopisch, manche sicherlich bald schon Realität (egal ob mit oder ohne Bürgerkonferenz). Über manches wird weiter zu diskutieren sein. Kein schlechter Tag insgesamt. Morgen geht’s weiter.
—
* Zur Erklärung: In den Kommentaren auf meine beiden anderen Texte gab es zum Teil etwas seltsame Kritik.
]]>Wer berät die Berater? Welche Interessen kommen hier zum Zug? Wer trägt am Ende die Verantwortung für Entscheidungen?
Gibt es eigentlich eine Liste, in der all die Expertenräte, Beratungsgremien und Beraterstäbe aufgeführt sind, die momentan die Regierungen auf Länder- und Bundesebene “beraten”? Ihre Zahl dürfte locker dreistellig sein. Die Tatsache, daß sich Politik professionellen Rat von Experten holt, ist auf der einen Seite beruhigend (denn wer wollte ernsthaft, daß unsere Politiker alle Sachfragen einfach frei Schnauze entschieden?) Auf der anderen Seite ist die Tatsache, daß relevante Entscheidungen nicht in den politisch legitimierten Gremien häufig nur noch abgenickt werden, die Weichenstellungen aber in anderen Zirkeln getroffen werden, beunruhigend. (Weitere Überlegungen zu dieser Frage habe ich bereits in diesem Posting angestellt.)
Denn: wer berät die Berater? Welche Interessen kommen hier zum Zug? Wer trägt am Ende die Verantwortung für (Fehl-)Entscheidungen? Und überhaupt: Wissen wir nicht längst, daß kleine, homogene Gruppen tendenziell eher schlechtere Entscheidungen fällen und daß es sinnvoll ist, wenn Gruppen möglichst heterogen zusammengesetzt sind? (vgl. u.a. Surowiecki)
Konsensuskonferenzen: Mehr (Technologie-)Dialog wagen
Solche Überlegungen standen vermutlich auch im Hintergrund, als vor rund 20 Jahren die dänische Behörde für Technikfolgenabschätzung (Teknologi-Rådet) das Format der “Konsensuskonferenzen” entwickelte. Grundlegende Idee war: es sollen ganz normale Bürger mit Experten und Entscheidungsträgern zusammengebracht werden.
Konsensuskonferenzen setzen auf die “Weisheit der Vielen”.
Und die Konferenz soll den Rahmen dafür bilden, daß die Laien die Möglichkeit erhalten, sich möglichst optimal über den Wissensstand im jeweiligen Themenfeld zu informieren, untereinander und mit Fachleuten zu diskutieren und sich am Ende idealerweise auf gemeinsame Positionen einigen können. Es geht also um Information, Diskussion, Meinungsbildung und ein Empfehlungspapier.
Die erste dänische Konsensuskonferenz fand 1987 zum Thema “Gentechnologie in Industrie und Landwirtschaft” statt. In den folgenden Jahren gab es weitere solche Konferenzen in Dänemark (u.a. 1992 Retortentiere – Eingriffe in das Erbgut höherer Lebewesen, 1993 Zukunft des Automobilverkehrs, 1995 Möglichkeiten und Grenzen der Gentherapie). Die Konsensuskonferenzen ziehen sich üblicherweise über einige Wochen (oder auch Monate) hin. Es gibt meist drei oder vier Treffen, bei denen die Teilnehmer gemeinsam ihre Fragen diskutieren und auswählen, welche Experten sie für spätere Sitzungen einladen wollen etc. Am Ende wird ein Schlußdokument formuliert, bei dem explizit ein Konsens angestrebt wird.
In der Schweiz wurden Ende der 1990er Jahre sogenannte “Publiforen” durchgeführt, die sich stark am dänischen Vorbild orientierten. In Deutschland wurde 2001 im Deutschen Hygiene-Museum Dresden die erste Konsensuskonferenz zum „Streitfall Gendiagnostik durchgeführt. Wie der Name schon sagt: bei dieser Variante der partizipativen Bürgerbeteiligung in Sachen Politikberatung geht es ausdrücklich um einen Konsens der Teilnehmer.
Bürgerkonferenzen: Meinungsbildung und Diskurs
Eine etwas abgeänderte Variante des dänischen Vorbilds findet u.a. unter dem Etikett “Bürgerkonferenz” statt. Wie etwa an diesem Wochenende in Berlin. Die Veranstaltung ist deutlich komprimierter, alles passiert an einem Wochenende und am Ende steht ebenfalls ein gemeinsames Votum der Konferenzteilnehmer. Das Format ist aber deutlicher “explorativer” ausgelegt. Der Fokus liegt stärker auf der Beobachtung und Analyse der Meinungsbildungsprozesse, die während des Wochenendes ablaufen. Und natürlich sollen alle Teilnehmer (egal ob “Laien” oder “Experten” dazulernen). Lars hat in seinem Posting seine Erwartungen zusammengefasst.
]]>Vielleicht sollten wir uns ernsthaft überlegen, ob wir nicht neue Verfahren der politischen Entscheidungsfindung ausprobieren sollten. Bürgerkonferenzen zum Beispiel. An diesem Wochenende findet zum Thema “Energienutzung der Zukunft” eine solche Veranstaltung in Berlin statt.*
Im Sozialkundeunterricht lernt man ja, daß Demokratie der Idee nach so etwas wie Volksherrschaft bedeutet. Daß es also um Teilhabe aller Bürger am politischen Prozeß geht. Und man lernt auch, daß in modernen Staatswesen (mit vielen Millionen Einwohnern) allein die Spielart der repräsentativen Demokratie umsetzbar ist. Die auf Zeit gewählten Volksvertreter handeln im Sinne des Souveräns, also der Bürger. Soweit der kleine demokratietheoretische Exkurs.
Lobbyismus und Expertokratie
Wenn man sich den Alltag des Politikbetriebs im 21. Jahrhundert ansieht, dann stellt man fest, daß von diesem schönen Ideal, das im Sozialkundeunterricht behandelt wurde, nur wenig übriggeblieben ist. Es genügen zwei Beispiele, um diese Feststellung zu illustrieren: erstens der wachsende Einfluß der Lobbygruppen, die ihre Interessen mit aller Macht und Unverfrorenheit in den politischen Prozeß einspeisen (und leider in den letzten Jahrzehnten immer raffiniertere Strategien entwickelt haben) und als zweites Indiz soll auf die ebenfalls wachsende Zahl von Expertengremien und Kommissionen verwiesen werden, die inzwischen immer weniger politikberatend, häufiger schon politikgestaltend agieren.
Wer glaubt, in den Parlamenten und im Kabinett werde regiert und politisch entschieden, der irrt sich.
Kurz: Wer glaubt, in den Parlamenten und im Kabinett werde regiert und politisch entschieden, der irrt sich. Das ist alles andere als ein Geheimnis. Aber obwohl wir täglich von den Versuchen der Lobbyisten lesen, die ihren Einfluß immer unverblümter zur Geltung bringen wollen und obwohl wir ständig von neuen Expertengremien lesen, die einberufen werden, dennoch wird fast nirgendwo thematisiert, daß diese Entwicklungen die Demokratie wesentlich aushöhlen. Dabei ließen sich (mit ein wenig Kreativität) durchaus Verfahren finden, in denen die Teilhabe der Bürger wieder maßgeblich politik(mit-)entscheidend wirken könnte. Und das durchaus in komplexen Themenfeldern: Gen- oder Nanotechnologie, Bildungs- und Schulpolitik oder Fragen der Energieversorgung.
Und so schwer ist die Aufgabe ja nicht: es geht schlicht darum, sinnvolle Prozeduren der Bürgerbeteiligung zu finden, die sich nicht darin erschöpfen alle paar Jahre ein Kreuzchen auf einem Wahlzettel zu machen. Auch Bürgerbegehren und ähnliche Verfahren sind in meinen Augen nicht dazu geeignet, um komplexe Sachfragen vernünftig zu behandeln. Das scheitert bereits bei der Frage nach dem Nichtraucherschutz. Ja/Nein-Antworten taugen einfach nicht.
Partizipative Verfahren der Politikgestaltung
Es geht also um partizipative Verfahren, die (ganz normale) Bürger mit relevanten politischen Sachfragen konfrontieren und ihnen ermöglicht, sich differenziert eine Meinung zu bilden und diese zu artikulieren. Ein besonders interessanter Ansatz in diese Richtung sind die sogenannten Konsensuskonferenzen (in verschiedenen Varianten).
Gibt es Verfahren der Bürgerbeteiligung, die auf komplexe Sachfragen angewendet werden können?
Die Methode der Konsensuskonferenz wurde in den späten 1980er Jahren von der dänischen Behörde für Technikfolgenabschätzung (Teknologi-Rådet) entwickelt und mehrmals erprobt. Für eine solche Konferenz wird ein (möglichst heterogen) zusammengesetztes Bürgerpanel gebildet. Das können 15, 30 oder auch 50 Personen sein (man bemüht sich dabei natürlich um eine repräsentative Besetzung). Bei mehreren Treffen und Wochenendseminaren diskutieren die Teilnehmer der jeweiligen Konsensuskonferenz ein bestimmtes Thema (nachdem sie sich zuvor eingehend darüber informiert haben) und erhalten die Möglichkeit auch Experten zu befragen. Am Ende erstellt die Gruppe einen Abschlußbericht, in dem übereinstimmende Positionen festgehalten werden, aber auch Dissens sichtbar gemacht wird.
Wie genau eine solche Konsensuskonferenz abläuft und welche Idee dahintersteckt, wird in einem der nachfolgenden Beiträge erläutert.
—
* An diesem Wochenende (25./26.9.2010) kommen 200 Bürgerinnen und Bürger aus Berlin-Brandenburg und Umland zu einer Bürgerkonferenz in Berlin-Adlershof zusammen. Sie werden mit Experten aus Wissenschaft und Wirtschaft über die Energienutzung von morgen diskutieren. Ich bin selbst bei der Veranstaltung dabei und werde darüber hier im Blog berichten. Weitere Blogpostings von der Veranstaltung (u.a. von Scilogs-Kollege Lars Fischer) findet man hier: www.wissenschaft-debattieren.de
]]>Wissenschaft ist eine Kerze in einer dunklen von Dämonen beherrschten Welt.
Wenn man Pech hat, bekommt man freilich die PR-Parolen von Gentechnik-Pionier Craig Venter zu hören, der nach der Entschlüsselung (und Enträtselung) des Genoms nun die Synthetisierung des Lebens propagiert. Wenn man Glück hat, dann stammen die Antworten, die die Lebenswissenschaften auf diese allerersten Fragen des Menschen gibt, von Gottfried Schatz. Für den besteht das Erfolgsgeheimnis des Lebens nämlich just in dessen Rätselhaftigkeit, die sich konsequent jeder Kontrolle entziehe. Und so steht für den Biochemiker Schatz fest, daß wir “nicht Sklaven unserer Gene sind”.
Es war also zweifellos ein glücklicher Zufall, daß im Mittelpunkt des “Life Science Dialogue” der vergangene Woche Anfang Juni in Heidelberg stattfand, der Vortrag von Prof. Dr. Gottfried Schatz stand. Und der outete sich gleich zu Beginn seiner Ausführungen als Fan von Carl Sagan, dessen Credo er ausdrücklich zustimme: “Wissenschaft ist eine Kerze in einer dunklen von Dämonen beherrschten Welt.”
»Wir sind nicht gesund, sondern nur noch nicht gut genug getestet.«
In seiner kurzen Einführung hatte Dr. Stephan Sigrist von W.I.R.E. kurz die Ausgangslage skizziert. Die Medizin agiere – so Sigrist sinngemäß – zunehmend in einem Spannungsverhältnis: einerseits habe der medizinische Fortschritt und Wissenszuwachs dazu geführt, daß wir Diagnosen immer früher und präziser stellen können. Andererseits hätten sich viele der allzu optimistischen Hoffnungen auf eine gentechnologisch induzierte Revolution in der Medizin doch (noch?) nicht erfüllt und gleichzeitig steige der Kostendruck auf das Gesundheitssystem (was sich schlicht in dem Umstand niederschlägt, daß nicht alles, was möglich ist, auch bezahlbar ist.).
»Sind wir nur biochemische Maschinen, die von Genen gesteuert werden?«
Doch zurück zum Vortrag von Gottfried Schatz. Für den deutsch-schweizerischen Biochemiker, der als Mitentdecker der mitochondrialen DNA gilt und auf eine mehr als vierzigjährige Karriere in der Spitzenforschung zurückblickt, steht unbestritten fest: “Die Biologie ist die Wissenschaft von uns selbst.”
Ausgangspunkt seiner Überlegungen war folgende Frage: “Sind wir nur biochemische Maschinen, die von Genen gesteuert werden?” Stellte man Craig Venter diese Frage, so lautete seine Antwort vermutlich klar und eindeutig: Ja. Doch für Schatz ist die Sache so einfach nicht. Seine Gründe legte er in einer dreistufigen Argumentationskette dar.
Epigenetik, oder: Wie gelebtes Leben das Genom prägt
Die Vorstellung, wir seien nur die besagten Maschinen, die von einer fix vorgegebenen Software (unserer DNA) gesteuert würden, ist in den Augen von Gottfried Schatz naiv. Und überhaupt widerspräche sie vielen Vorgängen in der Natur. Denn wieso, so fragte Schatz, werden denn eineiige Zwillinge im Lauf der Zeit immer verschiedener? Eigentlich wäre doch zu erwarten, daß bei identischem Genom tatsächlich das gleiche (biologisch-physiologische) Programm abliefe, oder?
Daß dem nicht so ist, liegt – wie Schatz eindrucksvoll illustrierte – am Epigenom. Während die DNA der bloße Text ist, unser grundlegender Bauplan des Lebens, so sorgt das Epigenom dafür, welche Passagen der DNA tatsächlich abgelesen werden und somit relevant sind oder werden. Wie die epigenetische Forschung der letzten Jahre zeigen konnte, gibt es eben raffinierte Mechanismen, die kontrollieren, wie die DNA genutzt wird, welche Proteine produziert werden oder eben nicht. Und die Epigenetik ist – wie immer mehr interessante Studien belegen – durch die Umwelt (was nichts anderes heißt: unser Leben bzw. unseren Lebenswandel) beeinflußbar.
Unsere Ernährungsgewohnheiten, Stress, Sport, unsere Leidenschaften und Ängste und all das, was uns je individuell widerfährt und worauf wir (zumindest teilweise) Einfluß haben, wirkt sich eben auf die epigenetischen Mechanismen aus. Die Auswirkungen vollziehen sich dann zum Beispiel über die Histonmodifikation (die den Ableseprozeß für bestimmte Proteine aktivieren oder unterbinden kann), die RNA-Interferenz (die im letzten Moment dazwischenfunkt, bevor die Proteinsynthese stattfindet) oder die sog. Methylierung. Dabei wird eine Methyl(CH3)-Gruppe an bestimmten Stellen der DNA plaziert und somit wird verhindert, daß der zugehörige Text abgelesen wird.
Schatz erläuterte den Mechanismus der Methylierung und illustrierte, daß diese Markierungen in unserer DNA eben durch gesunde Ernährung positive, durch zuviel Stress oder zu wenig Bewegung negative Effekte haben können. Und – hier wird es besonders spannend – die Methylgruppen werden teilweise auch vererbt. Es ist über diese epigenetische Schnittstelle also sogar möglich, so etwas wie intergenerationelles Lernen zu ermöglichen. Bestimmte Informationen, welche Gene wichtig sind (und abgelesen werden) und welche irrelevant sind, können also vererbt werden. Und darauf haben wir (in gewissem Umfang) auch Einfluß.
Der (göttliche) Zufall
Wir selbst sind also – das war der erste Argumentationsschritt von Gottfried Schatz – durchaus in der Lage, bestimmte ‘epigenetische Schalter’ zu kontrollieren, die sich auf unsere Gesundheit (und sogar diejenige unserer Kinder) auswirken. Mit dem Gegenteil von Kontrolle, nämlich mit dem (vieleicht ja göttlichen?) Zufall hatte das zweite Argument zu tun. “Im Leben einer Zelle gibt es Zufallsprozesse, die irreversibel sind”, so erläuterte Schatz.
»Im Leben einer Zelle gibt es Zufallsprozesse, die irreversibel sind.«
Die Natur kann aus einem Genom ganz verschiedene lebensfähige Organismen schaffen. Eine – wenigstens für die Ohren eines biochemischen Laien – bemerkenswerte Aussage. Für Schatz freilich nur ein weiteres Indiz für die ganz fabelhaft organisierte Natur. Denn diese Variationsmöglichkeiten (die eben auch den Zufall nutzen) seien die wahre Stärke der Evolution.
Gottfried Schatz ist – das als kleine Zwischenbemerkung – einer derjenigen Wissenschaftler, die so wunderbar eindrücklich und mitreißend über die Welt der Forschung erzählen, daß man sich wünscht, daß der Vortrag nicht 90 Minuten, sondern mindestens doppelt so lange dauern möge. Denn Schatz (seine Emeritierung liegt schon einige Zeit zurück und doch sprüht er nur so vor Begeisterung, wenn er über die Wissenschaft spricht) liefert gleich dutzendfach bemerkens- und bedenkenswerte Statements ab. “Unser Dasein ist nichts anderes als gigantisch verstärktes molekulares Rauschen!” – so machte er beispielsweise an dieser Stelle deutlich.
Sieg der Komplexität
Der dritte Punkt in seiner Argumentationskette kreiste um das Stichwort ‘Komplexität’. Wie bereits oben angedeutet, so ist für Schatz die Vorstellung ziemlich abwegig, wir seien streng determinierte Apparate, deren Leben und Verhalten direkt durch unsere Gene (fremd-)gesteuert werde. Für ihn steht vielmehr fest: “Unser Genom ist genauso groß, wie rätselhaft.”
Die Vorstellung, wir seien biochemische Maschinen, determinierte Apparate, die durch die zentrale Software ‘DNA’ gesteuert werden, ist abwegig.
Und zwei menschliche Genome unterscheiden sich gerade einmal um 0,5% voneinander und dennoch gibt es eine so enorme Variationsbreite an menschlichem Leben – Schatz, so führte er aus, genügt im Grunde schon diese Erkenntnis, die uns vom vermeintlichen Joch der Versklavung durch unser Genom befreie.
Für Schatz – das war so etwas wie der Dreh- und Angelpunkt seiner Ausführungen – steht fest: das höchste Ziel der Natur ist es, Vielfalt zu schaffen. Und das versucht sie mit allen Tricks, allen ihr zur Verfügung stehenden Mitteln. Insofern hieße es die Natur zu unterschätzen, wenn man glaubte, in der DNA liege das Programm vor, das (ohne das weitere Faktoren mit ins Spiel gebracht würden) allem Leben seine konkrete Form diktieren würde. Es ist eher das freie Spiel, die lange Leine an der die DNA agiert. Umwelteinflüsse (und unser eigenes Verhalten) sind eine Einflußvariable, wie uns die Epigenetik zeigt. Zufälle und Komplexität tun ihr weiteres.
Das Konzert des Lebens
Am Ende erläuterte Schatz sein Verständnis in folgendem Bild: jede befruchtete Eizelle ist wie ein Orchester, das auf seinen Einsatz wartet. Doch was wir hören, das hängt von vielen weiteren Faktoren ab. Vom Takt des Dirigenten, der Virtuosität und der Tagesform der einzelnen Musiker, der Qualität der Instrumente, der Akustik des Konzertsaals etc.
Ein schönes Bild. Und ein schöner Vortrag. So lebendig kann man über Wissenschaft sprechen.
Daß die anschließende Diskussion (die länger als 1 1/2h dauerte) lebhaft und anregend war, daß von den Teilnehmern am “Life Science Dialogue” weitere interessante Perspektiven eingebracht wurden, war dann eher kein Zufall, sondern das folgerichtige Produkt spannender Wissenschaft.
—
Anmerkung: Der “Life Science Dialogue” wird von der Dr. Rainer Wild-Stiftung organisiert und durchgeführt. Weitere Infos zur Veranstaltungsreihe waren bereits in diesem Text bei ScienceBlogs zu lesen.
—
Lektüre-Tipps (Link öffnet Amazon-Website):
* Das Posting war an dieser Stelle bereits im Juni für kurze Zeit lesbar, dann aber durch einen Systemfehler wieder offline gegangen.
]]>Die Links, die auf ein einzelnes Blog verweisen, dienen u.a. auch der Messung von Popularität. Auf dieser Basis entstehen dann Blogcharts. Eine Spielerei sicherlich, aber dennoch nicht uninteressant. Die aktuelle Juni-Ausgabe ist hier exklusiv in einem Preview zu sehen:
Ranking erstellt von Wikio
Das Ergebnis ist natürlich wieder sehr schmeichelhaft aus Sicht der Scienceblogs. Sieben Blogs unter den Top Ten. Das gefällt mir. Und da fällt mir auf: meine eigenen Blogs sind nicht (mehr) in den vorderen Rängen vertreten. Das muß sich ändern – ich werde wohl mehr bloggen müssen.
]]>Eine Bekämpfung der Reblaus ist wegen ihres unterirdischen Lebenszyklus überaus schwierig und erst nach umfangreicher Forschung fand man mit der Pfropfung des Weines den bisher einzig erfolgreichen Weg sie in Schach zu halten. Bei der Pfropfung wird eine europäische Kulturrebe mit einem resistenten amerikanischen Wurzelstock vereint. Über 100 Jahre war dieses Vorgehen erfolgreich, allerdings wurde in den letzen Jahren immer häufiger das Auftreten der Reblaus an Weinreben berichtet. Somit ist sie inzwischen in vielen Weinbaugebieten der Welt zu finden, z.B. in Deutschland, Österreich, Ungarn, Frankreich, Nordamerika, Australien und Neuseeland.
Wie kann die Reblaus gestoppt und unser Wein geschützt werden?
Um die Reblaus an einem weiteren Vormarsch durch die Weinberge zu hindern, ist es wichtig die Wechselbeziehung zwischen der Reblaus und der Rebwurzel zu verstehen. Dies ist unter anderem das Ziel der Wiener Arbeitsgruppe „Clonal Genomics” an der Universität für Bodenkultur. Unter der Leitung Astrid Fornecks arbeite ich (Nora Lawo) seit Anfang 2009 für ein besseres Verständnis dieser Wechselbeziehung.
]]>Insgesamt zehn junge Wissenschaftler hatten sich in den Vorentscheidungen für das Finale des Famelab-Wettbewerbs qualifiziert. Jeweils fünf Minuten hatten die Kandidaten Zeit, um ein wissenschaftliches Thema – idealerweise ihre eigene Forschung – zu präsentieren. Und das ist tatsächlich gelungen. Ohne Powerpoint-Folien, die im Hintergrund flimmern und Sicherheit geben, ohne Fachkauderwelsch, bei dem ein Laienpublikum schon allein durch das Fachvokabular abgeschreckt wird. Kurz, verständlich, sympathisch. Das war das Gütezeichen der meisten Präsentationen.
Vortrag mit Knalleffekt: Wie man den Alterungsprozeß bei Mäusen verlangsamt
Ich persönlich fand bspw. den Vortrag von René Anour sehr, sehr gut. (Photo oben rechts.) Er schilderte auf sehr unterhaltsame Weise, wie die Forscher der Funktion des Gens “Klotho” auf die Spur kamen und feststellten, daß (wenigstens bei Mäusen) dieses Gen wesentlich den Alterungsprozeß bestimmt und auch beim Menschen den Phosphatspiegel beeinflußt. René überzeugte mich auf der ganzen Linie, rhetorisch war’s brillant und absolut souverän im Vortrag.
Bei der Jury kamen allerdings andere besser an. Ramona Pinterich (Physik-Doktorandin der Uni Wien) landete mit ihrer Antwort auf die Frage: “Was haben Nanopartikel mit den Wolken zu tun?” auf dem dritten Platz.
Die Jury-Silbermedaille ging nach Innsbruck. Philip Handle (rechts) überzeugte wie schon bei der Vorentscheidung mit einem Kurzvortrag zu amorphem Wasser. Dabei zeigte er den überzeugendsten Körpereinsatz und hangelte sich quasi als Wasser-Tarzan über die Bühne und verkörperte somit ein (flüssiges) Wassermolekül. Seine Begeisterung für seine Forschung (bei der es u.a. darum geht feste Wasserkristalle bei -140°C zum Schmelzen zu bringen) schwappte über. Sehr cool.
Sieger-Präsentation: Die Suche nach dem perfekten Vakuum
Am Ende wurde lediglich eine Präsentation besser bewertet. Und Wolfgang Steurer, Post-Doc am physikalischen Institut der Uni Graz, war auch wirklich gut. Er benötigte nichts außer einem Honigbrot, um mit dessen Hilfe die Sehnsucht der (Oberflächen-)Physiker nach dem “perfekten Vakuum” zu illustrieren. Man hätte sehr gerne viel länger als nur fünf Minuten zugehört, als Wolfgang von seinem Honigbrot, vom Wiener Ernst-Happel-Fußballstadion, den lästigen Fliegen und der Suche nach dem Nichts erzählte, Wirklich gut. Und Wolfgang war auch einer meiner Favoriten auf den Gesamtsieg.
Das Publikum war übrigens am meisten von einem anderen Vortrag angetan. Den meisten Beifall (und somit den Publikumspreis) bekam Dr. Nora Lawo. Ihr geht es um den Kampf gegen die Reblaus, die (nicht nur) österreichische Reben bedroht. Und solche Forschung ist natürlich immer preisverdächtig.
Hier nochmal alle Sieger mit Beatrix Karl, der Bundesministerin für Wissenschaft und Forschung, die die Preise überreichte.
Es ist kein Geheimnis, daß mir diese etwas unkonventionellen Formate der Wissenschaftskommunikation sympathisch sind. Wissenschaftler verlassen ihr angestammtes Revier und präsentieren ihre Themen in Kneipen, Bars oder an anderen ungewöhnlichen Orten. Es muß ja nicht immer die Fachkonferenz sein. In München hat beispielsweise die NerdNite innerhalb weniger Monate schon eine stattliche Fangemeinde erobert. Und die ScienceSlams haben nicht nur in Braunschweig einen tollen Erfolg.
FameLab: Zum vierten Mal in Österreich
Ganz ähnlich funktioniert FameLab, wobei bei diesem Wettbewerb, dessen Idee 2005 in Großbritannien entstanden ist, die Regeln relativ strikt sind. Bei den Vorentscheidungen stehen den Kandidaten nur jweils 3 Minuten zur Verfügung, um einen kurzen, komprimierten Vortrag zu halten. Im Finale hat man dann 5 Minuten Zeit, um sein Publikum zu begeistern.
Vor zwei Wochen fand in Innsbruck eine der österreichischen Vorentscheidungen statt. Wie schon letztes Jahr war ich Mitglied der Jury und hatte die schwierige Aufgabe, die einzelnen Präsentationen zu bewerten. Und wir haben uns wirklich gequält. Denn die Vorträge waren wirklich sehr, sehr gut. Klar, witzig, interessant. Wer es schafft innerhalb von 3 Minuten einen kleinen Einblick in die tägliche Arbeit des Forschers zu geben, der hat ja schon allein dafür einen kleinen Orden verdient.
Talente der Wissenschaftskommunikation gibt es in Österreich genug.
Nach diesem Eindruck von Innsbruck kann ich jedenfalls nur feststellen, daß sich Österreichs Wissenschaft im Prinzip keine Sorgen machen muß. Talente, die wissenschaftliche Sachverhalte vermitteln können, gibt es. Da müssen jetzt nur die Rahmenbedingungen für die Forschung(sfinanzierung) stimmen.
Und die Themenvielfalt war auch sehr beeindruckend. Da gab es Vorträge zur Astrophysik und zum LHC. Beides von Markus Haider, der aber trotz seines beeindruckenden T-Shirts (das er natürlich in seinen Vortrag einbaute) nichts bis ins Finale kam.
Und auch die Soziologie war vertreten. Andreas Aschaber (Photo rechts mit Hut) von der Uni Innsbruck legte sich mächtig ins Zeug, um dem Publikum näherzubringen, daß jede Technologie (sei sie auch noch so raffiniert) letztlich unter konkreten sozialen (Umwelt-)Bedingungen eingesetzt werden muß.
Und daß eben bspw. die kulturellen und sozialen Faktoren bei der Implementation von Technik in Drittwelt-Ländern entscheidend sind. Das klingt jetzt in diesen zwei Sätzen vermutlich etwas verschwurbelt, in seinen beiden Kurzvorträgen illustrierte Andreas Aschaber diesen Zusammenhang allerdings sehr anschaulich am konkreten Beispiel des Einsatzes von Biogas in Burkina Faso. Denn hier gilt es natürlich sowohl die traditonellen Ess- und Zubereitungsgewohnheiten genauso zu berücksichtigen, wie der Stammesälteste und seine Position mit einzubeziehen ist. Die Präsentationen von Andreas (der zu diesem Thema Feldforschung betreibt und promoviert) kamen jedenfalls sehr gut an – und doch reichte es letztlich nicht bis ins Finale.
Morgen in Wien werden folgende Tiroler Kandidaten mit dabei sein: Philip Handle ist (durchaus naheliegend in Innsbruck, wenn man ständig einen Blick auf verschneite Gipfel hat) ein richtiger Eisexperte. Er erzählte dem Publikum, daß es in der Natur im Prinzip nur genau eine Eisvariante (Eis 1) gibt. Im Labor konnte man (u.a. durch Variation der Druckverhältnisse) aber inzwischen 16 verschiedene Eissorten produzieren. (Wir sprechen nicht von Schokolade oder Pfirsich Melba!)
Genauso sympathisch und kompetent war Ruth Greußing. Sie forscht zu Hautalterungsprozessen und hier im Video wird deutlich, was ihre Stärke ist: Klarheit. Ist doch wirklich superverständlich, oder?
Ich bin jedenfalls sehr gespannt, wer morgen in Wien das Rennen macht. (Außerdem ist aus Innsbruck die Zellbiologin Cornelia Thöni mit dabei.)
Philip und Ruth haben in meinen Augen sehr gute Chancen. Allen österreichischen ScienceBlogs-Fans, die morgen abend noch nichts vorhaben, sei das Finale empfohlen. Es findet ab 18Uhr im Technischen Museum statt. (Kartenreservierung empfohlen!) Ich werde auf alle Fälle da sein.
—
Mehr Infos zu Famelab:
Eigentlich begann alles mit einer Studie zu den Ernährungsgewohnheiten der Inuit in Grönland. In den 50er Jahren stellten Forscher fest, daß sich die Bewohner der Arktis traditionellerweise ausgesprochen fettreich ernähren, aber – und das sorgte für Irritation – dennoch kaum von Herz-und-Kreislauferkrankungen betroffen sind. Des Rätsels Lösung lag dann recht nahe: die Inuit essen natürlich sehr viel Fisch. Und vor allem Kaltwasserfische (Lachs etc.) haben einen sehr hohen Anteil an Omega-3-Fettsäuren.
Ungesättige Fettsäuren als Waffe gegen Infarkte
Sind also diese “Fischöle” das Geheimnis der geringen Anfälligkeit für koronare Erkrankungen? Seit den 70er Jahren wurden die Effekte der Zufuhr verschiedener Fettarten (gesättigte vs. ungesättigte Fettsäuren) umfangreich untersucht. Und tatsächlich haben die mehrfach ungesättigte Fettsäuren (wozu eben die Omega-3-Fettsäuren zählen) positive Auswirkungen. Nach einem Herzinfarkt kann die Einnahme von entsprechenden Präparaten durchaus empfehlenswert sein. (Zur Infarkt-Prophylaxe genügt allerdings sicher eine vernünftige Ernährung und ein ebensolcher Lebenswandel.)
Sicher ist vor allem, daß die Hersteller der einschlägigen Präparate einen “Nutzen” haben
Interessant wird die Sache allerdings, wenn man sich ansieht, wofür Omega-3-Fettsäuren (bzw. Fischöl-Kapseln) außerdem noch gut sein sollen. Es gibt so viele angereicherte Produkte, daß man sich nur wundern kann, wie denn die Unterversorgung der normalen Bevölkerung zustande kommen soll. Aber – wie man ja auch in diesem Interview bei Plazeboalarm lesen kann – nicht alle Nahrungsergänzungsmittel oder auch Präparate aus der Apotheke haben wirklich einen Nutzen (wenigstens wenn man mal den Umsatz der Hersteller nicht als “Nutzen” gelten lässt).
Verbessern Omega-3-Fettsäuren die Gedächtnisleistung?
So sollen Omega-3-Fettsäuren angeblich auch effektiv gegen den kognitiven Alterungsprozeß helfen. Richtig ist, daß die Gehirnentwicklung bei Säuglingen und Kleinkindern bei ausreichender Versorgung mit Eicosapentaen- und Docosahexaensäure günstiger verläuft (diese beiden Zungenbrechersäuren sind spezielle Omega-3-Fettsäuren). Doch was sagt uns das über den Wert einer zusätzlichen Einnahme bei Erwachsenen?
Wie auch immer der Wirkmechanismus lautet, der theoretisch den Erhalt der Denk- und Erinnerungsvermögens erklären könnte: eine großangelegte Studie zu diesem Thema brachte jetzt ein enttäuschendes Ergebnis.
Fischöl-Kapseln sind nutzlos
Die OPAL-Studie war die bislang größte Untersuchung zu diesem Thema. Insgesamt 867 Teilnehmer zwischen 70 und 80 Jahren waren beteiligt. Die Senioren wurden zufällig den zwei Gruppen zugewiesen; die eine erhielt über 2 Jahre hinweg ein Omega-3-Präparat. Die andere eine Placebo-Pille. Die Probanden zeigten zu Studienbeginn keine kognitiven Auffälligkeiten und/oder Defizite.
Nach Ende der 2 Jahre wurde zunächst überprüft, ob die Einnahme der Fischöl-Kapseln den Spiegel der jeweiligen Fettsäuren verändert hatte. Und tatsächlich hatte die Kontrollgruppe eine deutlich geringere Konzentration von Omega-3-Fettsäuren im Blut. Aber die Auswertung der Konzentrations- und Gedächtnistests zeigte ein enttäuschendes Ergebnis. Alan Dangour von der London School of Hygiene & Tropical Medicine und seine Mitautoren schreiben eindeutig:
Cognitive function did not decline in either study arm over 24 mo
Die Forscher schränken zwar ein, daß der Untersuchungszeitraum möglicherweise zu kurz gewählt gewesen sein könnte. Aber 2 Jahre sind so kurz auch wieder nicht. Und nach immerhin 24 Monaten gab es keinerlei Vorteile für die Gruppe, die die richtigen Fischöl-Kapseln schluckte.
Interessant wäre es natürlich gewesen, wenn zusätzlich wenigstens noch die Zahl der Infarkte erhoben worden wäre. Aber zumindest im Abstract steht dazu nichts.
Einziger seriöser Ratschlag: Esst mehr Fisch!
Abschließend kann man nur mal wieder feststellen: Es gibt kaum Anhaltspunkte, die für die Einnahme von Nahrungsergänzungsmitteln sprechen. Das gilt auch für die vielbeworbenen Omega-3-Fettsäuren. Wer sich abwechslungsreich ernährt, gelegentlich mal Fisch ist (Lachs, Makrele oder Hering haben bspw. ziemlich viel Omega-3-Fettsäuren), der ist im Grunde ausreichend versorgt. Und wer keinen Fisch mag, der kann seinen Bedarf auch anderweitig decken. Mit Walnuß-, Raps- oder Leinöl etwa. Oder mit Walnüssen. 2-3 davon pro Tag reichen vollkommen aus. Zusatzpräparate braucht es sicherlich nicht.
—
Studie:
Lese-Empfehlung:
Und so müssen wir uns wohl mit den Befunden einzelner Studien zufrieden geben, die sich – jedenfalls auf den ersten Blick – allerdings teilweise widersprechen. Aber das ist möglicherweise weniger ein Problem der Hirnforschung, denn der Wissenschaftskommunikation. Ein Beispiel.
Zwei Studien, zwei Aussagen: Legen es die Neurowissenschaften auf Verwirrung an?
Studie I: Das Hirn liebt Überraschungen
Vor etwa vier Wochen publizierte ein Forscherteam um Nikolai Axmacher von der Universität Bonn die spannenden Ergebnisse einer Studie. Die Hirnforscher hatten untersucht, wie das Gehirn auf erwartete bzw. unerwartete Informationen reagiert und wie sich das alles auf die Erinnerung auswirkt. Dazu sollten sich die Probanden die Bilder auf einem PC-Bildschirm einprägen. Es wurden Gesichter und Häuser gezeigt und später wurde abgefragt, an welche Bilder sich die Probanden erinnern konnten.
Währenddessen wurde die Aktivität in bestimmten Hirnregionen gemessen. Und die Versuchsanordnung war eben so gestaltet, daß einer Gruppe der Probanden deutlich mehr Gesichter gezeigt wurden, Häuser nur selten. Bei der anderen Gruppe war es umgekehrt. Es war also so, daß die Probanden nach der Durchsicht einiger Bilder jeweils eine bestimmte Erwartungshaltung bildeten (also bspw. weitere Häuser angezeigt zu bekommen).
Wurde diese Erwartung enttäuscht (kam überraschenderweise ein Gesicht), dann zeigte sich im Hippocampus eine deutlich erhöhte Aktivität (als Reaktion auf die Überraschung) und kurz darauf zeigte sich eine Aktivitätsspitze im Nucleus accumbens, einem Teil des Belohnungszentrums, das daraufhin Dopamin ausschüttete.
„Das Gedächtniszentrum vergleicht die tatsächliche Situation mit der erwarteten – das ist das frühe Signal im Hippocampus.”, sagte Axmacher
Und durch das Signal an den Nucleus accumbens wird Dopamin ausgeschütet, das dann wieder das Gedächtniszentrum anregte. Die “überraschend” angezeigten Bilder konnten jedenfalls deutlich besser erinnert werden. Das Ergebnis der Studie lautet also: je mehr Dopamin ausgeschüttet wird, umso wahrscheinlicher ist es, daß der Hippocampus das Ereignis ins Langzeitgedächtnis überträgt.
Oder anders formuliert: das Gehirn liebt neue, unerwartete Ereignisse, da sie das Belohnungssystem aktivieren.
Das ist eine hübsche, typische Meldung, wie wir sie häufig aus der Hirnforschung lesen. Interessant ist aber, was man eine Woche später lesen durfte…
Studie II: Keine Überraschungen bitte!
Eine andere neurowissenschaftliche Studie (diesmal von den Frankfurter Hirnforschern um Wolf Singer) kommt – zumindest wenn man der offiziellen Pressemitteilung des Max-Planck-Instituts glauben schenkt – zu einem gegenteiligen Ergebnis.
Dort liest man: “Keine Überraschungen bitte! Unser Gehirn verarbeitet vorhersagbare Sinnesreize besonders effektiv”. Innerhalb der Studie, die im “Journal of Neuroscience” publiziert wurde, wurde den Probanden ein Bildschirm gezeigt, auf dem sich Balken in einem bestimmten Rhythmus bewegten.
Die Kernspinaufnahmen zeigten, daß genau dann, wenn sich das Muster der Balkenbewegung überraschend veränderte, die Aktivität im Bereich des primären visuellen Kortex erhöhte.
Daraus leiteten die Forscher folgende Schlußfolgerungen ab: erstens sei das Gehirn kein passiver Apparat, der lediglich auf den Signalinput warte, sondern das Gehirn versuche aktiv mögliche Sinneseindrücke vorherzusagen. Und zweitens, so erklärt Wolf Singer:
“Treffen die Vorhersagen zu, kann das Gehirn die tatsächlich eintreffenden Informationen besonders effektiv verarbeiten.”
Klingt recht eindeutig und so liest man in den Artikeln zur Studie: Das Gehirn liebt keine Überraschungen. Irgendwie unerfreulich – zumindest wenn man die Richtigkeit dieser Interpretation unterstellt. Denn die widersprüchlichen Meldungen dürften wohl bei den meisten Lesern für Erstaunen bzw. Überraschung sorgen. Da liest man erst, daß das Gehirn ganz wild auf Überraschungen sei, nur um wenige Tage darüber informiert zu werden, daß das gleiche Gehirn diese Überraschungen gar nicht so gern habe.
Widersprechen sich die Hirnforscher?
Alles nicht ganz optimal, zumindest aus Sicht der Wissenschaftskommunikation. Wenn man sich die Ergebnisse der beiden Studien freilich genauer ansieht, so zeigt sich allerdings, daß der Widerspruch wohl weniger gravierend ist. Denn Wolf Singer und seinen Kollegen ging es vor allem um die Effizienz der Informationsverarbeitung. Und hier stellten sie eben fest, daß überraschende visuelle Reize das Gehirn zunächst “irritieren”, für höhere Aktivität sorgen und eine schnelle Verarbeitung etwas behindern.
Sind die Ergebnisse der beiden Studien konträr? Oder ist es nur deren populäre ‘Übersetzung’?
Bei der Studie von Axmacher war das Design ja anders ausgerichtet. Es ging um die Wechselwirkung zwischen Gedächtnis- und Belohnungszentrum. Und die Untersuchung zeigte ja eben eine bessere Erinnerung an die unerwarteten Informationen. Insofern müssen sich die beiden Studien also doch nicht widersprechen.
Aber es zeigt sich, daß die ‘Übersetzung’ von Wissenschaft (die der Wissenschaftsjournalismus leisten soll) eben mit vielen, vielen Fallstricken versehen ist. Und das beginnt bereits mit der Darstellung und Interpretation der Studienergebnisse durch die einzelnen Forscher. Denn die Behauptungen, das Gehirn “liebe” Überraschungen bzw. “liebe keine” Überraschungen kam ja von den Wissenschaftlern selbst.
—
Links:
Bsp. für die entsprechenden Zeitungsartikel:
Die Stärke und Faszination von Twitter hat ja viel mit den eingebauten Schwächen und Limitierungen des Microblogging-Dienstes zu tun. Ein Tweet bietet nunmal nur exakt 140 Zeichen Platz, um sich der Welt mitzuteilen. Und auf einen Tweet kann man eben auch nur wieder mit einem Tweet reagieren.
Für wissenschaftliche Diskussionen sind 140 Zeichen einfach zu kurz, oder?
Bei Twitter hat das – mehr zufällig, als geplant – zu wunderbar subtilen Formen der Micro-Kommunikation und der gegenseitigen Anschlüsse geführt und Twitkrit beweist, wie wunderschön Micro-Literatur ist. Aber für Statements zu wissenschaftlichen Diskussionen sind 140 Zeichen einfach schlicht zu kurz. Da sprengen manchmal schon die ellenlangen Fachtermini den Platz…
Faktor 3: Mehr Platz, mehr Möglichkeiten, mehr Microblogging für Wissenschaft?
Genau diese strikte Beschränkung auf 140 Zeichen hat ScienceFeed nicht. Dreimal mehr Platz – also insgesamt 420 Zeichen – hat man beim neuen MicroBlogging- und Diskussionsportal für Wissenschaftler, das heute offiziell gestartet ist. Außerdem lassen sich Bilder, Links zu Publikationen und andere notwendige Beigaben direkt in die Kurznachricht packen. Sicher eine gute Idee.
Hinter ScienceFeed steht ein kleines Team um Ijad Madisch, der vor knapp 2 Jahren auch schon zur Gründermannschaft von ResearchGATE gehörte. Das SocialNetwork für Forscher ist ein beachtliches Erfolgsmodell. Inzwischen haben rund 250.000 Wissenschaftler ein Profil bei ResearchGATE, wie Ijad erzählt.
Mit ScienceFeed soll dieser Erfolg natürlich wiederholt werden. Und dahinter steckt auch diesmal wieder eine wohlklingende Vision – ScienceFeed will den Austausch von Forschern, das veröffentlichen von Ideen und deren Diskussion und Kritik fördern – und das alles in Echtzeit:
“Das World Wide Web wurde ursprünglich dafür entwickelt, Forschungsergebnisse einfacher und schneller zu verbreiten. Ich glaube, mit unserem neuen Service geben wir dem Internet einen Teil seiner anfänglichen Bedeutung zurück”, erklärt Ijad Madisch.
ScienceFeed ist eine offene Schnittstelle für Diskussionen aus Twitter und Facebook. Allerdings gibt es zusätzliche Möglichkeiten…
Um dieses Ziel zu erreichen dockt ScienceFeed explizit an das etablierte Microblogging-Vorbild Twitter an. Alle ScienceFeed-Statements kann man direkt auch mit dem eigenen Twitteraccount koppeln. Dasselbe funktioniert per Klick für Facebook und Friendfeed. Das ist gut gelöst und wenn eine kritische Masse an Usern direkt von ScienceFeed Nachrichten absetzt, dann sollte das durchaus für Feedback und Aufmerksamkeit sorgen.
Das interessante an ScienceFeed ist – soweit ich das auf den ersten Blick für mich feststellen kann – , daß die Diskussion eines Statements auf verschiedenen Wegen erfolgen kann. Es kann einerseits Anschlußstatements bei Twitter oder eben durch einen ScienceFeed provozieren, es kann aber andererseits (und das ist neu) auch direkt auf der jeweiligen Seite weiterdiskutiert werden. Und das sogar ohne jegliche Zeichenbeschränkung. Und Diskussionen können auch in Gruppen organisiert werden – auch das muß bei Gelegenheit einfach ausprobiert werden.
Es sind also einige gute Ideen in ScienceFeed eingeflossen – bleibt abzuwarten, wieviele Fans das Portal finden wird.
Und als ersten Test verlinke ich hier auf eine ScienceFeed-Diskussion:
]]>Deutschland im Frühjahr 2010: Kinder-Impfstoffe werden knapp.
Wie man heute in der “Frankfurter Allgemeinen Sonntagszeitung” nachlesen kann [Text von Volker Stollorz, leider nicht online], gibt es seit wenigen Wochen einen Lieferengpaß bei einigen Kinder-Impfstoffen. Die Vorräte bei den Apotheken sind aufgebraucht, GlaxoSmithKline aber kann keinen neuen Impfstoff mehr liefern. Die Kinderärzte müssen die Eltern also abweisen und vertrösten; nachvollziehbar, daß sowohl Ärzten, als auch den Eltern das Verständnis fehlt.
Sechsfach-Impfstoff “Infanrix hexa” derzeit nicht lieferbar
Denn unter den derzeit ausverkauften Impfstoffen ist auch der Sechsfach-Impfstoff Infanrix hexa®. Dabei handelt es sich um den einzigen zugelassenen hexavalenten Impfstoff, der zur Grundimmunisierung gegen Kinderlähmung, Diphtherie, Tetanus, Keuchhusten, Haemophilus influenzae Typ b sowie Hepatitis B eingesetzt wird. Dieser Kombi-Impfstoff ist natürlich schon allein deswegen häufig nachgefragt, weil dadurch die Anzahl der Impftermine reduziert werden kann.
Und Hersteller von “Infanrix hexa” ist eben GlaxoSmithKline (GSK). Doch beim britischen Pharmakonzern hat die Bestellung der 50 Millionen Impfdosen des H1N1-Impfstoffs Pandemrix offenbar dazu geführt, daß man die Produktion anderer Impfstoffe vernachlässigt oder zwischenzeitlich eingestellt hat. Sprecher von GSK bedauern natürlich, daß es zu Lieferproblemen kommt, an der Verärgerung der Betroffenen wird das wenig ändern. Denn noch bis April oder Mai wird es nach derzeitigem Informationsstand dauern, bis wieder ausreichend Nachschub zur Verfügung steht.
Unvermeidliche Nebenfolgen?
Sorgte die Konzentration auf die Produktion des H1N1-Impfstoffs zwangsläufig zur Vernachlässigung anderer Bereiche?
Der Fall ist auch insofern bemerkenswert, als daß hier mustergültig sichtbar wird, welche Fern- und Nebenfolgen in komplex gekoppelten Systemen auftreten. Und ebenfalls wird sichtbar, wie unvermeidbar solche Pannen ganz offensichtlich sind. Denn eigentlich sollte man davon ausgehen, daß man bei GlaxoSmithKline genau weiß, wieviele Dosen “Infanrix hexa” jeden Monat verimpft werden. Da gibt es sicher leichte Schwankungen, aber der Impfstoff ist seit 10 Jahren auf dem Markt und ist quasi die Standard-Immunisierung bei Säuglingen.
Es besteht also kein Zweifel darüber, daß diese Größe (monatlicher Bedarf an “Infanrix”) bekannt ist. Wenn man dann – wie im letzten Herbst – vor der Entscheidung steht, die eigenen Produktionskapazitäten umzuschichten (weil eben der H1N1-Impfstoff produziert werden muß), dann muß man sicher noch andere Zahlen in die Kalkulation mit einbeziehen. Die Zahl der vorrätigen Reserven des Impfstoffs im eigenen Lager, dazu die Vorräte bei den Apotheken.
Doch das alles ist keine höhere Mathematik. Wie man sich dann als GlaxoSmithKline in die peinliche Situation manövrieren kann, daß im Januar kein Infanrix mehr lieferbar ist, ist vollkommen unverständlich. Aber eben doch ein Beispiel mehr, wie schwer sich auch Organisationen tun, unter halbwegs komplexen Randbedingungen richtige Entscheidungen zu treffen.
]]>Die Ausführungen von Tobias werden von mehr als hundert Zuhörern aufmerksam verfolgt. Der Ort des Geschehens ist allerdings kein Hörsaal und keine Fachkonferenz. Das Publikum sitzt in bequemen Sesseln oder steht in Grüppchen beisammen, gelegentlich klirren Bierflaschen. Es ist Donnerstagabend in der Münchner “Repüblik” und heute findet hier wieder die “Nerd Nite” statt.
It’s like Discovery Channel with beer
Patrick Gruban ist der Macher dieser spannenden Veranstaltungsreihe. Die Idee hat er sich aus den USA geholt: in New York findet seit 2006 regelmäßig eine Nerd Nite statt. “It’s like Discovery Channel with beer”, lautet das Motto. Und seit Juni 2009 versammelt sich dazu nun auch in München jeden Monat eine stetig wachsende Fangemeinde.
Das Konzept ist leicht erklärt: jedesmal stehen drei kurze Vorträge auf dem Programm. Thematisch recht das Spektrum von der Quantentheorie über die Architekturgeschichte bis zu Ausführungen darüber, welche Modelle der Spieltheorie beim Poker mitentscheidend sind. Das war gestern etwa das Thema von Stephan Dürr, der eigentlich Wissenschaftler an einem Max-Planck-Institut ist, dessen Leidenschaft allerdings den Spielen und eben vor allem dem Pokern gilt.
Und weil er sich damit mit dem notwendigen wissenschaftlichen Ernst beschäftigt, ist er geradezu prädestiniert, um als Nerd auf die Bühne zu steigen und sein Wissen weiterzugeben. Wobei diese Bühne – das ist der zweite entscheidende Faktor – im Fall der NerdNite eben in einer Kneipe und Bar aufgebaut ist.
Nerd Nite München: Begeistertes Stammpublikum
Und das Konzept funktioniert. Seit dem Start im letzten Sommer hat sich die Zahl der Besucher mehr als verdoppelt. Thomas, der gerade seine Diplomarbeit als Medieninformatiker schreibt, ist zum zweiten Mal als Zuhörer mit dabei. In seinen Augen zeigt die Nerd Nite, daß sich die einstige Nerd-Kultur verändert und selbstbewußter wird. Er würde sich selbst durchaus auch als nerdig bezeichnen und er steht dazu: “Ich bin clever und ich interessiere mich für abgefahrenen Scheiß.”
Nerd-Selbstbewußtsein: “Ich bin clever und ich interessiere mich für abgefahrenen Scheiß.”
Und diese abgefahrenen, speziellen Themen, mit denen sich die haupt- und nebenberuflichen Nerds befassen, sind im Kneipenkontext wunderbar aufgehoben. Nach jedem Vortrag kommen interessierte Nachfragen aus dem Publikum und es wird in Grüppchen weiterdiskutiert.
Über die Thesen von Tobias Hürter etwa, der am gestrigen abend u.a. die Studie von Ursula Voss von der Uni Bonn präsentierte, die feststellte, dass der frontale Cortex aktiviert sein muß, wenn wir unsere Träume halbwegs bewußt wahrnehmen und vielleicht sogar gestalten wollen. Dazu – also zur Erhöhung der “Klartraum-Wahrscheinlichkeit” – gibt es ein gezieltes Training. Tobias Hürter hat das auch selbst ausprobiert. Für einen Nerd ist das wohl Ehrensache. Und er empfiehlt allen Zuhörern, daß sie das auch ausprobieren sollen: “Es lohnt sich!”
Die Quadratur des Kreises
Genauso lohnend wie eben ein Besuch bei der Nerd Nite. Denn bei welch anderer Gelegenheit bekommt man so sympathisch und kompetent die Gedankenwelt und Arbeiten eines Nicolaus von Kues vorgeführt? Marco Böhlandt, promovierter Wissenschaftshistoriker und ausgewiesener Fachmann, sprach über “Wege ins Unendliche – Das Problem der Kreisquadratur bei Nicolaus Cusanus (1401-1464)”. Hört sich vielleicht trocken an, war es aber keineswegs. Denn Böhlandt erfreute nicht nur mit einen wunderbar nerdigen Erscheinungsbild, sondern skizzierte auch für Nichtmathematiker verständlich, womit sich Cusanus beschäftigte: damit daß eine Gerade und eine Kreistangente eben (fast) in eins fallen, wenn der Kreisdurchmesser ins Unendliche wächst.
Als Besucher der Münchner Nerd Nite sollte man also auf alles gefasst sein. Gute Unterhaltung und Lerneffekte sind nicht ausgeschlossen.
—
Links:
Diese Grundkonstellation ist der Ausgangspunkt für Frank Schirrmacher, der in seinem Buch “Payback” die Schattenseiten des digitalen Informationsüberangebots beklagt. Vor ziemlich genau zwei Monaten war das Buch Schirrmachers erschienen, in dem er ein bisweilen recht düsteres Szenario entwirft: die Aufmerksamkeitsspanne der Mediennutzer schmilzt vermeintlich immer weiter dahin und der einstmals autonom denkende Mensch begibt sich mehr und mehr in Abhängigkeit von maschinellen Algorithmen.
Schirrmachers Befürchtungen und Thesen wurden zuletzt in Blogs und den Feuilletons recht anregend diskutiert. Vielversprechende Ausgangsbedingungen also für das Panel zum selben Thema auf der DLD-Konferenz – wobei die Diskussion letztlich doch deutlich hinter dem schon erreichten Reflexionsniveau zurückblieb.
Über die Fratze der digitalen Kultur
Schirrmacher skizziert in Payback ja gewissermaßen die Fratze der digitalen Kultur: Informationsüberflutung, Beschleunigung und Souveränitätsverlust sind die wesentlichen Symptome, die er an sich und vielen anderen Mediennutzern diagnostiziert. Daß das Internet einen tiefgreifenden kulturellen Wandel markiert und den Alltag von Millionen Menschen verändert hat, ist sicher kaum strittig.
Gibt es die von Schirrmacher diagnostizierten Deformationen der Digital Natives wirklich?
Die große Frage ist nur, wie man diesen Medien- und Kulturwandel bewerten will und ob es die angedeuteten Deformationen der digital natives tatsächlich gibt. Für Schirrmacher jedenfalls scheint es klar: es ist zu viel, zu schnell und irgendwie auch zu maschinell-algorithmisch. Da schwingt natürlich eine große Portion Wehmut mit. Denn die Zeiten, in denen man sicher sein konnte, daß alle relevanten Diskurse in der alltäglichen Tageszeitungen abgebildet wurden – wohlsortiert und kommentiert durch die jeweilige Redaktion – , diese Zeiten sind vorbei.
Da mag man Schirrmacher auch gar nicht widersprechen, nur: ist diese Entwicklung wirklich negativ? Für Schirrmacher sehr wohl. “Wir sind abhängig von der Auswahl der Maschinen!”, so lamentierte er heute in München. Wie gesagt: es klang resignativ und wehmütig. Es klang nach der Wehmut desjenigen, der schmerzlich spürt, daß das Agendasetting schwerer geworden ist und die Gatekeeperfunktion der klassischen Medien ebenfalls immer seltener funktioniert.
Das Aussehen der Webanwendungen wird immer langweiliger, ihr (sozialer) Gebrauch immer spannender.
Andrian Kreye, Feuilleton-Chef der Süddeutschen Zeitung, war hier glücklicherweise weit wenig resignativ. Nach Schirrmachers Gejammer war es da schon fast erfrischend, als Kreye feststellte, daß die Oberfläche der Webanwendungen (Twitter etc.) immer langweiliger werde, genau diese Tools in ihrem sozialen Gebrauch aber immer spannender. Immerhin hier konnte man zustimmen.
Auf der Suche nach einer neuen Suche
Und Kreye ging weiter: der Status quo der Internet-Suchmaschinen ist für ihn keinesfalls zufriedenstellend. Er stellte fest, daß die (personalisierten) Suchroutinen zwar immer mehr über ihn, seine Vorlieben und Gewohnheiten wüßten, doch das sei doch keineswegs ausreichend. “Aber ich will mehr. Ich will Informationen, die weit darüber hinausgehen über das, was ich doch schon weiß.”
Das wäre ein spannender Punkt gewesen, um zu diskutieren, ob Schirrmachers aktuelle Diagnose eventuell nur einer unzureichenden Qualität der vorhandenen Instrumente geschuldet ist, deren Weiterentwicklung dann auch die Ängste vor Informationsüberflutung und Destruktivität verschwinden ließen. Aber dazu kam es nicht. Irgendwie fehlte der Esprit bei den Panelteilnehmern. Jeder brachte seine Positionen vor, ein wirklicher Austausch fand kaum statt.
“Wo sind die Innovationen in Mathematik, Wissenschaft und Medizin, die erst das Internet ermöglicht hat?”
David Gelernter, Kult-Programmierer und Computerwissenschaftler aus Yale, stellte ganz grundsätzlich in Frage, ob das Web 2.0 die Hoffnungen erfüllt, die einst – Stichworte: Weisheit der Massen & Schwarmintelligenz – in es gesetzt wurden. Er konstatierte zwar, daß wir heute mehr voneinander wüßten, aber: “Aber wo sind die Innovationen in Mathematik, Wissenschaft und Medizin, die erst das Internet ermöglicht hat?” Auch an diesem Punkt wechselte man flugs zu einem anderen Thema, anstatt Gelernters provokante These zu diskutieren. Schade.
Jemanden fragen, der sich damit auskennt?
So blieb es zum Schluß einem Zuhörer vorbehalten, die etwas müden Herrschaften und ihre ebensolchen Thesen kritisch zu hinterfragen. Bezugnehmend auf das kurz zvor gehörte Lamento darüber, daß man ja schlicht keine Zeit habe, um der Informationsflut Herr zu werden, fragte er: “Kann es nicht sein, daß es letztlich nur eine Frage des Zeitmanagements ist? Aber: Wenn ihr die richtigen Tools dafür nicht kennt, dann geht raus und fragt jemanden, der sich damit auskennt.”
Frank Schirrmacher schaute nur müde ins Publikum. Ob ihm dämmerte, daß er in digitalen Zeiten künftig öfter auf fremde Hilfestellungen angewiesen sein wird?
Link:
Frank Schirrmacher: Payback: Warum wir im Informationszeitalter gezwungen sind zu tun, was wir nicht tun wollen, und wie wir die Kontrolle über unser Denken zurückgewinnen. Blessing, 2009.
]]>Peter Sawicki ist ein unbequemer Kerl. Das muß er freilich auch sein, sonst hätte er seine Aufgabe als Chef des „Instituts für Qualität und Wirtschaftlichkeit im Gesundheitswesen” (IQWiG) auch verfehlt. Und an Selbstbewußtsein mangelt es Sawicki auch nicht. Was ebenfalls nicht schlecht sein muß. Und doch – oder gerade deswegen? – ist Sawicki nun vorläufig gescheitert. Sein Vertrag beim IQWiG wird nicht verlängert. Ein Armutszeugnis. Bei den Pharmaunternehmen dürften heute nachmittag die Korken knallen.
In den letzten Tagen war es bereits abzusehen: der Vertrag von Peter Sawicki, der seit 2004 Chef des Kölner Instituts war, wird am 31. August 2010 enden. Das hat heute der fünfköpfige Vorstand des IQWiG einstimmig entschieden. Sawicki, gern als Deutschlands oberster Pharmaprüfer tituliert, ist damit seinen Posten los.
Die Pharmaunternehmen frohlocken; ihnen war Sawicki, der sich an den Standards der “evidenzbasierten Medizin” orientierte, seit Jahren ein Dorn im Auge. Denn wirtschaftliche Erwägungen, das Interesse der Hersteller, war Sawicki vollkommen gleichgültig. Ihm ging es um eine nüchterne Bewertung des Nutzens von Arzneimitteln und Behandlungsmethoden. Welche Therapien sind wirklich sinnvoll? Sind neue Medikamente wirklich besser, als bewährte (und meist günstigere) Vorgängerpräparate? Das waren die Fragen, mit denen sich Sawicki und seine rund 100 Mitarbeiter beschäftigten.
Empfehlungen des IQWiG: Ärgernis für Pharmabranche, Segen für das Gesundheitssystem?
“Wissenschaftlich unabhängig”, so steht es im Auftrag des Instituts, sollen die Bewertungen vorgenommen werden. Und die Berichte des IQWiG gefielen den Pharmaunternehmen häufig nicht, denn von den IQWiG-Urteilen hängt es ganz maßgeblich ab, ob bestimmte Medikamente oder Leistungen von den Kassen gezahlt werden. Es ist ein Geschäft, in dem es um hunderte Millionen geht. Und Sawicki betätigte sich hier gelegentlich als Spielverderber.
In einem Geschäft, in dem es um Milliarden geht, war Sawicki der große Spielverderber.
Kein Wunder also, daß man in einschlägigen Lobbykreisen seit längerem auf eine Ablösung Sawickis hinarbeitete. Und das nicht ohne Erfolg. Letztes Jahr formulierten die Wirtschaftsminister der Länder – darunter der heutige Gesundheitsminister Philipp Rösler (FDP) – ein Papier, in dem sie eine Neuausrichtung des IQWiG unter Berücksichtigung, der “Wettbewerbsfähigkeit, insbesondere der heimischen pharmazeutischen Unternehmen” forderten. Sind noch Fragen offen, welche und wessen Motive hier dahinterstecken?
Schnapsidee: IQWiG soll künftig “Interessen” der Pharmafirmen berücksichtigen
Im Koalitionsvertrag zwischen CDU/CSU und FDP ist dann zu lesen, daß die Arbeit des IQWiG „auch unter dem Gesichtspunkt stringenter, transparenter Verfahren (zu) überprüfen und damit die Akzeptanz von Entscheidungen für Patienten, Leistungserbringer und Hersteller (zu) verbessern [ist]”. Na Bravo! Die Institution, die einen kritischen Blick auf die Produkte der Pharmaindustrie werfen soll, der soll gleichzeitig von derem Wohlgefallen bzw. deren Akzeptanz abhängig gemacht werden?
Blöd: Sawicki lieferte mit Spesenschlamperei seinen Kritikern Munition. Erbärmlich: Wie die Politik ein unabhängiges Institut beschädigt.
Ärgerlich an der Sache ist freilich, daß Sawicki es seinen Feinden nun auch relativ leicht gemacht hat. Es gab kleinere Unregelmäßigkeiten im Zusammenhang mit Spesenabrechnungen. Schlampereien von Sawicki, wie es aussieht. Und eine Regelung darüber, welchen Dienstwagen der Chef beanspruchen darf, war in seinem Arbeitsvertrag auch nicht zweifelsfrei geregelt.
Daß in der Sache das Gutachten der Wirtschaftsprüfungsgesellschaft BDO im wesentlichen zum Schluß kam, daß sich Sawicki höchstens blöd verhalten habe, kaum aber sich persönlich bereicherte, ändert nichts daran: Sawicki lieferte seinen Kritikern eine Steilvorlage. Sawicki stand auf der Abschußliste, daran änderte auch ein Solidaritätsschreiben von 600 Ärzten nichts mehr.
Insofern ist die Geschichte ein doppeltes Armutszeugnis: für Sawicki, der so naiv und doof war, sich angreifbar zu machen. Erst recht aber für eine Gesundheitspolitik, die einen kritischen und für das System absolut wertvollen Experten wie Sawicki beschädigt und von seinem Posten entfernt.
Für das Gesundheitssystem insgesamt könnte diese Personalie sehr teuer werden. Ein schlechter Tag für alle, die Krankenkassenbeiträge zahlen.
—
Zu den Hintergründen empfehle ich folgende Artikel:
Zugegeben: der durchschnittliche ScienceBlogs-Leser gehört vermutlich nicht zur Zielgruppe für die verschiedenen Ginkgo-Produkte, dennoch ist die Geschichte interessant. Und “Geschichte” – soviel ist wenigstens sicher – hat Ginkgo biloba.
Die Heilkräfte dieses besonderen Baumes werden schon seit Jahrtausenden geschätzt. Das kennt man ja. Jedenfalls spielte Ginkgo biloba (vor allem seine Blätter und deren Wirkstoffe) bereits in der traditonellen chinesischen Medizin eine große Rolle. Und im Mittelalter wurden Ginkgoblätter zur Behandlung von Atemwegs- und Hauterkrankungen, Magenbeschwerden, Erschöpfungszuständen und anderen Leiden eingesetzt.
Gibt es überhaupt vernünftige Studien, die den Nutzen von Ginkgo-Präparaten belegen?
Das alles spricht durchaus nicht gegen Ginkgo. Interessant wird es dann allerdings in der Mitte des 20. Jahrhunderts, als man das pflanzliche Mittel im Hinblick auf seine positive Wirkung auf die Gedächtnisleistung entdeckt.
Tebonin: Topseller der Naturheilpräparate
1965 bringt die Dr. Willmar Schwabe-Arzneimittel GmbH das erste Ginkgo-Präparat unter dem Markennamen Tebonin auf den Markt. Und landet damit einen Verkaufsschlager. Tebonin enthält das von Schwabe entwickelte sog. “Ginkgo-Spezialextrakt EGb 761” und wird seit über 40 Jahren mit dem Versprechen beworben, daß es dem Gedächtnis auf die Sprünge helfen soll. Bessere Konzentration, bessere Merkfähigkeit. Aktuell verspricht die Tebonin-Kampagne: “Mehr Energie für das Gehirn”. Und auf der Website ist zu lesen:
Mit Tebonin® fühlen Sie sich ausgeglichener, belastbarer und konzentrierter. Die Inhaltsstoffe aus dem Ginkgo helfen, die Symptome bei nachlassender mentaler Leistungsfähigkeit – wie Vergesslichkeit und Konzentrationsstörungen – zu lindern und Sie geistig fit zu halten.
Sehr, sehr verlockend. Im weiteren Text auf der Website und in den Broschüren kann man lesen, daß das (patentierte!) Ginkgo-Spezialextrakt EGb 761 direkt “auf die „Kraftwerke” der Zellen – die Mitochondrien” einwirke. Und Tebonin könne “Störungen in den Mitochondrien aufhalten und geschädigte Mitochondrien regenerieren.”
Bereits in den 70er und 80er Jahren war Tebonin eines der meistverkauften Präparate auf dem Naturheilsektor. Vor zehn Jahren erzielte der Hersteller Schwabe rund 200 Mio. DM Umsatz allein mit Tebonin. Und auch in den USA gehen Ginkgo-Präparate millionenfach über den Verkaufstisch. Schwabe ist international Platzhirsch. Doch aus den USA wurden zuletzt mehrfach Studienergebnisse publik, die hier in Karlsruhe (dem Schwabe-Firmensitz) für wenig Begeisterung gesorgt haben dürften.
Neue Studien: Ginkgo-Präparate haben keine Wirkung
Nach einer großen, placebo-kontrollierten Studie mit mehr als 3000 Teilnehmern (im Alter von 72-96 Jahren), von denen jeweils die Hälfte über den Zeitraum von sechs Jahren die empfohlene 240mg-Tagesdosis des Ginkgo-Extraktes einnahm, die andere Hälfte nur ein Placebo schluckte, kommen die Autoren zum Schluß: Ginkgo hat keinen positiven Einfluß auf den geistigen Alterungsprozeß. Oder wie es in der Studie selbst heißt:
“We found no evidence for an effect of G biloba on global cognitive change and no evidence of effect on specific cognitive domains of memory, visual-spatial construction, language, attention and psychomotor speed, and executive functions.”
Sehr, sehr eindeutig. Also nix mit besserer Merkfähigkeit, Konzentration oder Sprachfähigkeit. Damit befindet sich diese Studie auf derselben Linie wie frühere Analysen. Dieselbe Gruppe (Steven DeKosky von der Universität Pittsburgh und Kollegen) hatte bereits 2008 allen Hoffnungen, daß Ginkgo gegen Alzheimer und andere Demenzkrankheiten wirken könne, eine Absage erteilt. (2)
Aktuelle Studien zeigen: Ginkgo-Präparate verlangsamen den (mentalen) Abbauprozeß nicht
Dieser Befund deckte sich mit der Metastudie der Cochrane-Collaboration von 2007, bei der 35 klinische Studien ausgewertet wurden und man ebenfalls keine bzw. nur höchst unzureichende Effekte fand. (3) Das einzig positive ist, daß man in der Studie auch keine Indizien für ein höheres Blutungsrisiko fand. Zumindest Schaden tun die Gingko-Pillen also nicht.
Bei Schwabe, dem Hersteller von Tebonin, ist man verständlicherweise not amused. Und man kontert mit einer Stellungnahme zu der US-Studie, in der man an methodischen und inhaltlichen Mängeln rumkrittelt. Angeblich hätte die Studie noch 10 Jahre länger laufen müssen, um Effekte zu zeigen. So wird Dr. Günter Meng, Leiter Forschung & Entwicklung bei Schwabe zitiert. Wie das mit den (Werbe-)Versprechen zusammenpasst, die etwa auf der Website allen potentiellen Kunden suggerieren, innerhalb von wenigen Wochen sei mit spürbaren Verbesserungen der Merk- und Konzentrationsfähigkeit zu rechnen, will sich mir nicht erschließen.
Aber ich verstehe auch nicht, daß man mit einem Präparat, dessen Nutzen höchst fragwürdig ist, über viele Jahrzehnte viele, viele Millionen verdienen kann. Schließlich wurde schon vor 25 Jahren über den fehlenden Wirknachweis gesprochen. Im “Journal” der Kassenärztlichen Vereinigung Hamburg war 1987 zu lesen: “Für die Blätter-Extrakte [ist kein] therapeutischer Nutzen bekannt.”
Das hat sich bis heute nicht geändert. Wer mit Tebonin gegen Demenz vorbeugen will, der wird jährlich rund 550,- Euro dafür ausgeben müssen. Das Geld wäre in einem Paar Lauf-/Sportschuhe und einem großen Glas Gemüse- oder Obstsaft besser investiert.
—
Die Forschung zu den Effekten von Mobilfunkstrahlung auf Mensch und Umwelt hat u.a. mit zwei großen Problemen zu kämpfen: zunächst machen fast immer zu geringe Fallzahlen die Ergebnisse fragwürdig. Wenn es um (glücklicherweise) verhältnismäßig seltene Erkrankungen wie etwa Tumorerkankungen im Kopfbereich geht, dann sind ein paar hundert Probanden einfach zu wenig. Zweitens ist häufig der Untersuchungszeitraum viel zu kurz.
Diese beiden Schwächen hat die Interphone-Studie nicht. Im Jahr 2000 begann man unter Regie des Internationalen Krebsforschungszentrums der Weltgesundheitsorganisation in Lyon (IARC) mit einer epidemiologischen Fallkontrollstudie in insgesamt 13 Ländern. Innerhalb der Studie (die von der EU finanziert wird) wurden die Daten von Hirntumorpatienten (hauptsächlich Gliome, Meningiome und Akustikusneurinome) erhoben und mit den Daten von gesunden Kontrollpersonen verglichen. Dieses Material wurde mit den Informationen über die Handynutzung der einzelnen Personen gekoppelt und nun untersucht.
Interphone-Studie: Exposition, Korrelation und geringe Inzidenz
In 13 Ländern (Deutschland, Australien, Dänemark, Finnland, Frankreich, Großbritannien, Israel, Italien, Kanada, Neuseeland, Norwegen, Schweden, USA) wurden knapp 13.000 Personen für die Studie untersucht und befragt. Keine andere Studie zum Krebsrisiko durch Mobilfunknutzung ist so umfassend. Und das ist es eben auch dringend notwendig, da die fraglichen Tumorarten eine so geringe Inzidenz haben, braucht man diese Fallzahl einfach.
Immer mehr Teilergebnisse sickern durch. Ist das Tumor-Risiko durch Handynutzung doch erhöht?
Nun ist es aber so, daß die Ergebnisse einiger Länder schon seit geraumer Zeit vorliegen. Dem Vernehmen nach gab es in manchen Ländern (u.a. Deutschland, Japan, Frankreich) keine Auffälligkeiten.
Allerdings kursieren schon lange Informationen darüber, daß einige der beteiligten Forscher durchaus alarmierende Ergebnisse aus ihren Daten ableiten. Bereits letztes Jahr hat Lennart Hardell von der Universität Örebro die vorliegenden Interphone-Daten zusammen mit eigenen und anderen Befragungen analysiert. Er schlußfolgerte, daß sich das Risiko von zwei Tumorarten nach zehnjährigem Handy-Gebrauch auf der bevorzugten Telefonierseite um 100% erhöhe.
Warum wird die Publikation der Resultate verzögert?
Warum lässt der Abschlußreport so lange auf sich warten?
Inzwischen sorgt der fehlende Abschlußbericht für immer mehr Irritationen. Anscheinend gab es hinter den Kulissen heftige Streits bzgl. der Interpretation der Ergebnisse und der Art und Weise der Publikation. Die Teilergebnisse aus manchen Ländern hatten jedenfalls deutliche Indizien für ein erhöhtes Tumorrisiko ergeben.
Der “Daily Telegraph” verfügt nun offenbar über weitere Informationen. Angeblich liefert die Interphone-Studie statistisch belastbare Belege für ein erhöhtes Tumorrisko bei Intensivnutzung:
A preliminary breakdown of the results found a “significantly increased risk” of some brain tumours “related to use of mobile phones for a period of 10 years or more”
Man darf also sehr gespannt sein, wann die Ergebnisse endlich offiziell veröffentlicht werden. Die Tatsache, daß man so lange zögert, ist tatsächlich seltsam und unerfreulich.
Links:
Wer sich mit dem Risikopotential von Nanomaterialien beschäftigt, der kann über die Einschätzung der UBA-Experten kaum überrascht sein. Schließlich werden in Fachkreisen seit vielen Jahren mögliche gesundheitliche und ökologische Gefahrenpotentiale im Zusammenhang mit dem industriellen Einsatz von nanoskaligen Teilchen diskutiert. Überraschend ist vielmehr, daß die Nanotechnologie bis heute ein ausgesprochen positives Image genießt. Doch das könnte sich nun – nach solchen Berichten wie in der SZ – allmählich ändern.
Schließlich ist die aktuelle Studie in ihrer Schlußfolgerung durchaus klar formuliert; im Bericht (“Nanotechnik für Mensch und Umwelt“) heißt es:
“Das Umweltbundesamt empfiehlt weiterhin, die Verwendung von Produkten, die Nanomaterialien enthalten oder frei setzen können, im Sinne eines vorsorgenden Umweltschutzes so lange zu vermeiden, als ihre Wirkungen in der Umwelt und auf die menschliche Gesundheit noch weitgehend unbekannt sind.”
Das Nicht-Wissen der Experten
Diese Empfehlung ist allerdings – darüber sollte man sich im Klaren sein – keineswegs mit einer abschließenden Beurteilung des nanotechnologischen Gefahrenpotentials zu verwechseln. Das Expertenstatement ist kaum anderes als das Eingeständnis von Unwissenheit, es ist die Formulierung des Unbehagens über die eigene Ahnungslosigkeit.
Denn auch der aktuelle Stand der Forschung erlaubt keine zuverlässige Aussage, über die (möglicherweise) negativen Effekte der Nanotechnologie. Auf der einen Seite gibt es inzwischen viele hundert Produkte und Anwendungen, bei denen Nanopartikel zum Einsatz kommen. Vom Ketchup, das durch Nanopartikel bessere Fließeigenschaften bekommt, über antibakterielle Beschichtungen von Küchenutensilien bis zu den bekannten Socken, die durch Nano-Silber antibakteriell und damit gegen Schweißgeruch wirken sollen.
Auf der anderen Seite gibt es viele Studien, die zeigen, daß Nanopartikel prinzipiell schädliche Auswirkungen auf Mensch und Umwelt haben können. Da gibt es Arbeiten der Toxikologin Bellina Veronesi, die mehrmals nachgewiesen hat, daß Titandioxidpartikel (zumindest im Reaganzglas) Mäuse- oder Rattenhirnzellen schädigen können.1 Oder etwa die Arbeiten Ken Donaldsons, der zeigen konnte, daß sogenannte Nano-Tubes (winzig kleine, aus einzelnen Kohlenstoffatomen zusammengesetzte Röhrchen) ähnlich wie Asbest wirken und Krebs auslösen können.2
Wir setzen Nanotechnik zigtausendfach ein, ohne wirklich abschätzen zu können, welche Auswirkung sie hat.
Zusammenfassend läßt sich nur feststellen: wir setzen Nanotechnik zigtausendfach ein, ohne wirklich abschätzen zu können, welche Auswirkung sie hat. Und dieses Dilemma wird nicht geringer, solange die Hersteller (was das UBA auch bemängelt) ihre internen Studiendaten und Risikoanalysen nicht herausrücken. Im Grunde ist das sowieso ein unhaltbarer Zustand.
Es wird allerhöchste Zeit, daß die Anstrengungen zur wissenschaftlichen Risikobewertung der Nanotechnologie intensiviert werden. Das kostet natürlich Geld. Aber die enormen Chancen, die einige nanotechnologische Anwendungsfelder versprechen, sollten eine solche Investition längst rechtfertigen.
Der Nanotechnologie droht das Schicksal der Gentechnik
Sollte es in den nächsten Jahren nicht gelingen, eine saubere und vertrauenswürdige Risikoabschätzung für die Nanotechnik vorzulegen (in deren Verlauf sicherlich manche Anwendungsbereiche als zu riskant verworfen, andere als unbedenklich eingestuft werden können), dann könnten Meldungen wie heute den Anfang vom Ende einer vielseitigen Technologie bedeuten. Die Gentechnologie – die in der Öffentlichkeit meist pauschal als Risikotechnik wahrgenommen wird – sollte Warnung genug sein…
* Die Nanotechnologie befasst sich mit Strukturen und molekularen Materialien, die kleiner als 100nm sind. 1 Nanometer ist 1 Millionstel Millimeter, oder: 0,000 001 mm.
1 vgl. Thomas C. Long, Bellina Veronesi et. al.: Nanosize Titanium Dioxide Stimulates Reactive Oxygen Species in Brain Microglia and Damages Neurons in Vitro, Environmental Health Perspectives Volume 115, Number 11, November 2007
2 vgl. Sanderson: Carbon nanotubes: the new asbestos?, nature, 2008, doi:10.1038/news.2008.845
]]>Das Idealgewicht oder: Der Tanz um den goldenen Body-Mass-Index
Fest steht: noch nie zuvor wurde der Frage nach den Ernährungsgewohnheiten und dem Körpergewicht so viel Platz eingeräumt. Und fest steht auch, daß übergewichtige Menschen pauschal als undiszipliniert und Belastung für das Gesundheitssystem angesehen werden. Wer den BMI-Wert von 25 übertrifft, gilt vielen Gesundheitspolitikern schon als Problemfall.
Es ist gut, daß Autoren wie der Soziologe Friedrich Schorb dieses Zerrbild nun gerade rücken und mit dem Vorurteil aufräumen, daß dick, doof und arm zwingend zusammengehören.* Es bleibt aber dennoch richtig und wichtig, daß untersucht wird, welche Effekte körperliche Fitneß hat – in gesundheitlicher und sozialer Hinsicht.
In diesem Kontext ist die eingangs erwähnte Studie spannend. Insgesamt 2.807 Kinder im Grundschulalter nahmen an der Untersuchung teil (darunter 48,2% Mädchen und 51,2% Jungen). Die Evaluation der Auswirkungen eines Sportprogramms wurde von 2006-2009 durchgeführt.
Körpergewicht korreliert mit der Schulleistung
Aus vielen, vielen anderen Untersuchungen ist bekannt, daß passive Freizeitbeschäftigungen, Bewegungsmangel und eine mangelhafte körperliche Leistungsfähigkeit zusammenhängen. Wen wundert’s, daß viele Kinder große SWchwierigkeiten haben einen Ball zu fangen und die Aufgabe den Ball prellend einen Parcours zu durchlaufen zur unlösbaren Aufgabe geworden ist.
Computer- und Videospiele mögen manche Fähigkeiten fördern, die Koordination und die Ausdauer werden nicht besser.
Insofern ist einer der Befunde der Kölner Studie nicht überraschend:
Bei der Betrachtung der Grundgesamtheit ist festzustellen, dass die übergewichtigen Kinder gegenüber den unter- und normalgewichtigen Kindern schlechtere Leistungen im sportmotorischen als auch im kognitiven Bereich aufweisen. So weisen sie im Bereich der Ausdauerleistungsfähigkeit deutlich schwächere Ergebnisse aus.
Je älter, desto dicker.
So weit, so gut. Ein anderer Befund ist da interessanter (aber genauso unerfreulich): je älter die Kinder werden, desto größer wird der Anteil der übergewichtigen Kinder. (Bei den 6-jährigen gelten – der Studie zufolge – 15% als übergewichtig, bei den 12-jährigen fallen 26% in diese Gruppe).
Wirklich interessant wird es beim Vergleich der kognitiven Parameter: beim Konzentrationstext schnitten die übergewichtigen Kinder jeweils deutlich schlechter ab als die Kinder der anderen BMI-Gruppen. Und das bestätigt sich auch im Vergleich der Schulnoten:**
Nun stellt sich natürlich die Frage, welche Effekte es hat, wenn die Kinder ein regelmäßiges Sportangebot wahrnehmen. Nach drei Jahren zeigte sich zunächst (was weniger verwundert), daß der Anteil der übergewichtigen Kinder sich deutlich reduziert hat. (In der Grundgesamtheit der 11-jährigen sind 36% übergewichtig, unter den Kindern, die 3 Jahre lang (Schul-)Sport gemacht haben, reduziert sich dieser Anteil auf 14%).
Allerdings hat der Sport auch positive Effekte auf die schulischen Leistungen. Die Kinder, die das Sportprogramm über drei Jahre lang durchlaufen hatten, erzielten letztlich eine Durchschnittsnote in Deutsch von 2,33, in Mathe von 2,26. Diese Noten sind zwar nicht ganz gravierend, aber doch sichtbar besser als die Deutschnote von 2,52 bzw. Mathenote von 2,49 bei den anderen (nicht sportlich geförderten) Kindern.
Dieses Ergebnis ist natürlich ein starkes Argument für mehr Schulsport (anstatt einer weiteren Reduktion der Sportstunden). Ein wenig bedauerlich ist nur, daß lediglich 252 Kinder das gesamte Programm mitgemacht haben und somit die Evaluation doch ein wenig auf wackligen Füßen steht. Nichtsdestotrotz sind die Ergebnisse interessant.
—
* Schorb, Friedrich: Dick, doof und arm: Die große Lüge vom Übergewicht und wer von ihr profitiert. Droemer, 2009.
** Schaubild aus den Ergebnissen der Studie: „Klasse in Sport – Initiative für täglichen Schulsport” – Evaluation 2006 bis 2009, erarbeitet von Prof. Dr. Jürgen Buschmann et. al., DHS Köln in Kooperation mit “Klasse in Sport”
Es ist die bislang größte Studie zur Wirksamkeit einer Impfung gegen den HI-Virus. Mehr als 16.000 Teilnehmer erhielten im Rahmen der Alvac-AidsVax-Studie (oder auch: RV144-Studie) in mehreren Intervallen eine Impfung mit zwei alten Bekannten aus der AIDS-Forschung. Die eine Hälfte der Studienteilnehmer erhielt eine Kombi-Impfung mit den Vakzinen “Alvac-HIV” und “Aidsvax”. Die Kontrollgruppe erhielt ein Placebo.
Nun liegen die ersten Ergebnisse vor. Nach Ablauf von drei Jahren haben sich aus der Placebo-Gruppe 74 Teilnehmer mit HIV infiziert; aus der geimpften Gruppe waren es nur 51. In den Pressemeldungen reicht das, um von einem Meilenstein und Durchbruch zu sprechen. Bisweilen ist von einem 30%-Schutz die Rede. Obwohl ich einsehe, daß die Studie durchaus aufhorchen lässt, bin ich dennoch unsicher, ob die positive mediale Resonanz in diesem Fall wirklich positiv zu bewerten ist.
Licht am Ende des Tunnels
Denn – und das ist weniger eine Kritik an der Studie, sondern eher ein Eingeständnis der mangelnden Möglichkeiten der Darstellung komplexer Sachverhalte in den Medien – die Schlagzeilen anläßlich der Studie fallen eben so aus –
Die Welt feiert den Durchbruch:
In der FAZ liest man vom Meilenstein :
Und die Leser des Westen werden über eine Sensation informiert:
Nun ist es ehrlicherweise so, daß in den Artikeln die vorläufigen Ergebnisse der Studie (fast) immer korrekt dargestellt werden. Die Anzahl der Studienteilnehmer wird ebenso aufgeführt, wie die Zahl der nach drei Jahren Infizierten. Und daß der Unterschied zwischen beiden Gruppen statistisch signifikant ist, mag ich gerne glauben.
Und ebenso gerne glaube ich, daß es für die Forscher, die beteiligten Institutionen und Organisationen nach den unzähligen Fehlschlägen und Sackgassen der letzten Jahrzehnte tatsächlich ein Jubeltag ist. Und vielleicht markiert die Studie ja wirklich eine Trendwende.
Was bleibt hängen?
Nur – bei den allermeisten (flüchtigen) Lesern der Texte bleibt nach wenigen Tagen sicherlich genau eine Information hängen: es gibt (bald) einen Impfstoff gegen AIDS. Und das ist eben definitiv nicht der Fall. Die Studie ist ein Anhaltspunkt dafür, daß man dem tückisch-wandelbaren AIDS-Virus möglicherweise mittelfristig doch per Impfstoff begegnen kann. Doch wann das der Fall sein wird, das steht absolut in den Sternen.
Zur Erklärung: In den beiden Studienarmen waren jeweils knapp über 8.000 Probanden beteiligt. Am vorläufigen Ende hatten sich eben 0.902% derjenigen mit AIDS angesteckt, die nur ein Placebo verabreicht bekamen. Bei der Impfstoff-Gruppe war nach drei Jahren bei 0.622% der Erreger nachweisbar (51 Fälle).
Die Studie und ihre kurzschlüssig-euphorische Interpretation sorgt für Unbehagen
Nun ist es aber schlicht so, daß es unter den rund 8.000 Gruppenmitgliedern nur zufällig zwei Dutzend Personen hätte geben müssen, die ein wirklich riskantes Sexualverhalten an den Tag legen. Dann wäre es gut möglich gewesen, daß man für die Impfstoff-Gruppe schließlich nicht 51, sondern 57 HIV-Fälle hätte zählen müssen. Und der vermeintliche statistische Vorteil wäre zusammengeschmolzen.
Gut, aber das ist Statistik und eher ein diffuses Unbehagen meinerseits. Es gibt aber noch zwei weitere Faktoren, die mich etwas nachdenklich machen und weshalb ich es für verfrüht halte, die Sektkorken knallen zu lassen.
1. Die Studie wurde nicht zufällig in Thailand durchgeführt. In Thailand gibt es eben eine spezielle, ziemlich gut untersuchte Variante des HI-Virus. Ob die Impfung auch in Afrika ähnlich erfolgreich verlaufen wäre, ist kaum abzuschätzen.
2. Prinzipiell würde eine vielversprechende Impfung erwarten lassen, daß man bei den Teilnehmern, die sich dennoch infiziert haben einen Unterschied zu nicht-geimpften Probanden feststellen müßte. Die Antikörper sollten eigentlich die Virusvermehrung hemmen. Anscheinend war aber genau das nicht der Fall.
Kein Wunder also, daß man – was man ja auch eingesteht – ziemlich im Dunkeln tappt, weshalb der Kombi-Angriff mit den beiden ja bereits erprobten (aber als untauglich verworfenen) Impfstoffen nun doch Erfolge zeitigt.
Für Jubelmeldungen ist es in meinen Augen jedenfalls zu früh – auch und vor allem, weil es hier in Westeuropa durchaus die falsche Botschaft vermitteln könnte. Nämlich daß der Kampf gegen AIDS nun fast gewonnen sei. Das ist aber eben überhaupt nicht der Fall.
]]>Stress wird ja zunächst fast immer als unangenehm empfunden. Wie sollen wir nur die viel zu vielen Termine unter einen Hut kriegen? Wie sind die viel zu hohen Anforderungen zu meistern, die an uns gestellt werden? Wer wirklich gestresst ist, kann diesem Gefühl vermutlich wenig positives abgewinnen. Da paßt es ins Bild, wenn portugiesische Wissenschaftler jetzt berichten, daß Stress vor allem negative Effekte hat und – wenigstens bei Ratten – zu Hirnveränderungen führt.
Lähmender, lernfeindlicher Stress
Wie letzte Woche bei Science zu lesen war, schnitten gestresste Ratten bei verschiedenen Tests deutlich schlechter ab, als ihre entspannten Artgenossen. Eduardo Dias-Ferreira und Nuno Sousa von der Universität Braga in Portugal hatten ihre Versuchsratten auf ganz verschiedene Arten gestresst: sie etwa einmal täglich ohne Vorankündigung ins Wasser geworfen, ihren Bewegungsraum eingeengt oder sie für zehn Minuten mit einem stärkeren Männchen zusammengesperrt.
Ratten mit dauerhaftem Stress schneiden in Lerntests schlechter ab und büßen Kreativität ein.
Bei anschließenden Tests – die Ratten mußten verschiedene Tasten betätigen, um an Futter zu gelangen – lernten die gestressten Ratten deutlich schlechter und drückten oft weiterhin die falschen Tasten. Und auch im Gehirn zeigten sich Veränderungen: bei den Ratten waren Hirnbereiche zurückgebildet, von denen bekannt ist, dass sie an zielgerichtetem Denken und logischen Entscheidungen beteiligt sind.
Klingt alles irgendwie plausibel. Stress ist böse und macht uns zu Gewohnheitstieren, die stupide dieselbe Taste drücken und nicht bemerken, daß es kein Futter mehr gibt.
Stress als Doping
Doch halt! Bevor wir voreilige Schlußfolgerungen treffen: da tickert doch tatsächlich eine weitere Meldung rein: “Stress verbessert Gedächtnisleistung“. Na sowas?
In dieser – ebenfalls aktuellen Studie – haben Wissenschaftler der Universität Buffalo ihre Versuchsratten ebenfalls unter Stress gesetzt. Die Ratten mußten rund 20 Minuten im Wasser um ihr Leben strampeln – danach sollten sie den Weg durch ein Labyrinth finden, was zuvor mit ihnen trainiert wurde.
Aber: Akutstress verbessert die Gedächtnisleistungen.
Das interessante Ergebnis: die gestressten Ratten fanden den Weg besser als ihre Kollegen, die nicht Schwimmen mußten. Die Forscher waren nicht überrascht: sie vermuteten, daß das Neurohormon Corticosteron hier eine Rolle spielt. Und tatsächlich: als sie in einem weiteren Versuch mit einem Medikament den Signalweg des Corticosteron blockierten, war der Vorteil der gestressten Ratten dahin. Die positive Wirkung des Stresshormons auf den präfrontalen Cortex konnte sich nicht entfalten.
Stress: Die Dosis macht das Gift
Was lernen wir daraus? Hängt es vom Zufall ab, ob wir vom Stress profitieren oder nicht?
Die Antwort ist – wenigstens solange man nur diese beiden Studien zugrundelegt – recht einfach. Es kommt auf die Stress-Dauer an. Akutstress wirkt ganz offensichtlich durchaus positiv, spornt uns an, verbessert bestimmte hirnphysiologische Parameter.
Dauerstress bzw. chronischer Stress allerdings (die Ratten in der ersten Studie wurden über 3 Wochen lang “gestresst”) ist offensichtlich dysfunktional; wir werden weniger kreativ, weniger entscheidungssicher.
In diesem Sinne: lassen wir uns also nicht stressen, jedenfalls nicht dauerhaft!
Bislang ist in Sachen Schweinegrippe sicherlich keine Panik angezeigt. Auch wenn die Fallzahlen kontinuierlich steigen und die Bundesländer nun eine großangelegte Impfaktion beschlossen haben: der Krankheitsverlauf nach einer H1N1-Infektion ist fast immer ziemlich mild. Allerdings sollte man sich eben nicht darauf verlassen, daß dies so bleibt. Grippeviren sind Wandlungskünstler. Deshalb sind die Vorsichtsmaßnahmen der Behörden (wenn etwa Schulen geschlossen werden) auch gerechtfertigt. Probleme könnte man sich allerdings einhandeln, wenn massenhaft das antivirale Medikament Tamiflu (Wirkstoff: Oseltamivir) zur Anwendung kommt…
Als sich 2006 die Vogelgrippe in Asien ausbreitete, schlug die Stunde von Tamiflu. Für den Hersteller Roche ein Riesengeschäft…
Tamiflu: Lösung oder Teil des Problems?
Als sich im Frühjahr 2006 die Vogelgrippe in Asien ausbreitete, schlug die Stunde von Tamiflu. In den Apotheken war Tamiflu ausverkauft und hunderttausende verunsicherte Bundesbürger bunkerten das antivirale Medikament.
Seitdem gilt Tamiflu (mit dem Wirkstoff: Oseltamivir) in der Öffentlichkeit als Geheimwaffe, wenn wieder einmal Meldungen einer Influenza-Epidemie beunruhigen. Und tatsächlich – es war bei der Vogelgrippe (H5N1) so und gilt auch für die Schweinegrippe (H1N1) – im Erkrankungsfall können die antiviralen Medikamente Tamiflu und Relenza die Symptome mindern und die Dauer der Krankheit verkürzen. Das ist durchaus was wert, aber es gibt möglicherweise auch Begleiterscheinungen, wenn Oseltamivir von hunderttausenden Betroffenen eingenommen wird.
Der menschliche Körper scheidet nämlich einen Großteil des Wirkstoffs (überwiegend in Form von Oseltamivircarboxylat) wieder aus; und dieser gelangt über die Kanalisation und Kläranlagen in normale Gewässer, Flüsse und Seen. Denn Oseltamivir ist chemisch sehr stabil, ist weitgehend UV-beständig und wird in den Kläranlagen nur minimal abgebaut. Das ergab auch schon eine schwedische Studie des Jahres 2007. (vgl. Fick, Lindberg et. al., siehe unten)
Der Wirkstoff Oseltamivir gelangt in Flüsse und Seen und wird dort von Enten aufgenommen.
Nun haben die schwedischen Forscher der Unis Uppsala und Umea mit Kollegen der Universität Kyoto eine neue Studie publiziert: sie haben im letzten Winter während der Grippewelle in Japan Gewässerproben entnommen und dort größere Mengen Oseltamivir gefunden.
Das Problem bzw. die Befürchtung der Forscher: Wasservögel, v.a. Enten könnten so die gefährliche Brutstätte für gefährliche neue Virenstämme werden. Viren allerdings, die gegen antivirale Medikamente wie Tamiflu resistent sind.
Die Forscher schreiben in ihrer aktuellen Studie, die jetzt bei PLoS publiziert wurde:
This study shows, for the first time, that low levels of oseltamivir can be found in the aquatic environment. Therefore the natural reservoir of influenza virus, dabbling ducks, is exposed to oseltamivir, which could promote the evolution of viral resistance.
Sollte sich die Befürchtung der schwedischen Wissenschaftler irgendwann bewahrheiten, so wäre dies ein bitterer Nebeneffekt der unbedacht-naiven Einnahme von Tamiflu. Denn im aktuellen Stadium ist der positive Effekt auf den Krankheitsverlauf der Schweinegrippe nur minimal. Experten sagen, daß die Symptome mit Tamiflu eventuell einen Tag früher wieder verschwinden.
Ob dieser marginale Nutzen das Risiko einer Bildung von resistenten Virenstämmen legitimiert? Vermutlich nicht, solange der Verlauf der Grippe so mild ist. Aber das kann sich durchaus ändern, so daß Tamiflu wirklich massenhaft verschrieben und eingesetzt würde, was wiederum die Belastung der Gewässer und das Risiko der Resistenzbildung… ein Teufelskreis, allerdings bislang im Konjunktiv.
In ihrer Studie fokussierte Frederica P. Perera von der New Yorker Columbia-Universität vor allem auf die Rolle, die polyzyklische aromatische Kohlenwasserstoffe (PAKs) spielen. In früheren Studien hatte sie bereits festgestellt, daß hohe Belastungen der Atemluft werdender Mütter zu Entwicklungsverzögerungen bei Kleinkindern führt und auch mit geringerem Geburtsgewicht und Kopfumfang bei der Geburt korreliert.
Sind die PAKs, die bei der Verbrennung von Kohle und Öl entstehen, die Übeltäter?
Verbrennungsabgase und Smog beeinträchtigen Leistung bei Intelligenztests
Im Zusammenhang mit ihrer aktuellen Untersuchung hatte Frederica P. Perera etwa 400 Mütter in ihrem letzten Schwangerschaftsdrittel mit einem Luftmessgerät bzw. Analyserucksack ausgestattet. Während 48 Stunden wurde die Luftqualität gemessen. Vor allem die Belastung mit den erwähnten PAKs war von Interesse. Polyzyklische aromatische Kohlenwasserstoffe entstehen bei der Verbrennung von organischem Material, also Kohle, Heizöl, Kraftstoff, Holz oder auch Tabak.
Die Mütter waren zwischen 18 und 35 Jahre alt und lebten in den New Yorker Stadtvierteln Manhattan und Bronx. Gemäß der Belastung der Atemluft mit PAKs wurden zwei Gruppen gebildet; nun zeigte sich bei den Intelligenztests der Kinder (die nun fünf Jahre alt sind), daß die Kinder erhebliche Unterschiede aufweisen: die Kinder der gering mit PAK-belasteten Gruppe erzielten durchschnittlich einen IQ-Wert von 101.6, die andere Gruppe, die im Mutterleib einer hohen PAK-Konzentration ausgesetzt war, kam im Durchschnitt auf einen IQ von 96.5.
Handeln Schwangere unverantwortlich, wenn sie sich in verkehrs- und abgasreichen Städten aufhalten?
In die Auswertung wurden übrigens nur 249 der ursprünglich rund 400 Kinder einbezogen; der Grund: Kinder aus spanischen Elternhäusern wurden nicht getestet, da Perera fürchtete, daß die Ergebnisse verzerrt werden könnten. Nach Angaben der Wissenschaftler wurden andere Einfluß- und Verzerrungsfaktoren (wie etwa der Bildungsgrad der Mütter, sowie das Passivrauchen) ausgeschlossen.
Interessant wäre es nun freilich, wie die Belastung mit PAKs in der Atemluft bei Schwangeren in ländlichen Gegenden ist und wie diese Kinder in den Tests abschneiden.
Deutlich wird allerdings, daß die Auswahl des Wohnviertels (denn es sollten eher die Hauptverkehrsstraßen mit hoher Abgasbelastung sein, die zu einer hohen PAK-Belastung führen) einen größeren und weitreicherenden Einfluß auf unsere Lebensqualität, Gesundheit und gar unsere Intelligenz haben, als wir oft denken. Aber was wundert uns das, wo doch das “falsche” Stadtviertel auch unser Gewicht und Infarktrisiko beeinflußt?
Der Göttinger Physiker Stefan Hell hat in den letzten Jahren neue – bislang ungeahnte – Meß- und Beobachtungsmöglichkeiten eröffnet. Und mit der erfolgreichen Entwicklung des Fluoreszenz- bzw. STED-Mikroskops* hat Hell sogar ehernes Lehrbuchwissen obsolet gemacht.
Seit 1873 war definiert, daß Lichtmikroskope eine natürliche Auflösungsgrenze haben. Unter 200 Nanometern geht nichts mehr…
In den meisten Standardlehrbüchern der Physik oder Biologie kann man bis heute nachlesen, daß der Lichtmikroskopie eine natürliche Grenze gesetzt ist: alles was feiner als 200 Nanometer ist, kann nicht mehr aufgelöst bzw. differenziert werden. Der Physiker Ernst Abbe hatte 1873 erkannt, daß zwei Strukturen nur bis zu einem bestimmten Abstand als zwei getrennte Einheiten wahrgenommen werden können. Diese so genannte Abbesche Auflösungsgrenze liegt (Licht breitet sich als Welle aus) bei einer halben Wellenlänge des sichtbaren Lichts. Und das sind eben die besagten 200 Nanometer. Alle Details und Strukturen die kleiner sind, können mit einem Mikroskop nicht beobachtet werden.
Grenzverschiebungen
Für die moderne Biologie ist diese (natürliche) Sichtgrenze ein Problem. Denn 200 Nanometer klingen nach wenig (es ist etwa ein 250stel eines Frauenhaars), aber um ins Innere von Zellen zu blicken, reicht das nicht aus. Proteine sind kaum ein Zehntel so groß.
Insofern war die Entwicklung von Elektronenmikroskopen der einzige Ausweg. Die optischen Grenzen der Auflösung spielen hier keine Rolle. Das Problem ist allerdings, daß man nur aufwendig herzustellende Präparate (Schnitte) mit Elektronenmikrosopen “unter die Lupe” nehmen kann, außerdem braucht man ein Vakuum.
Ein Lichtmikroskop wäre also doch was Feines, so dachte sich in den 90er Jahren der Göttinger Physiker Stefan Hell. Und dafür, daß er sich von der vermeintlich unüberwindbaren Abbeschen Grenze nicht abschrecken ließ, wird er heute mit Preisen überhäuft.
Freie Sicht auf lebende Zellen
Hell entwickelte nämlich die STED-Mikroskopie, die Fluoreszenzsignale von Zellbestandteilen aufzeichnet. Das allerdings ganz klassisch mit Linsen, Spiegeln und Objektiven. Der Trick liegt schlicht darin, daß die Probe (also etwa eine Zelle) zweifach mit einem scharf fokussierten Lichtstrahl beleuchtet wird. Einmal werden die eingebrachten Fluoreszenzmoleküle angeregt und dann in einem zweiten Schritt wird die Zelle schrittweise mit einem anderen Lichtstrahl “gescannt”. (Details zur Technik in diesem Wiki-Artikel oder im Interview mit Stefan Hell.)
Stefan Hell ist es gelungen, die physikalische Auflösungsgrenze für Lichtmikroskope deutlich zu unterbieten. Nun können auch lebende Zellen und ihr Innenleben “beobachtet” werden.
Auf diese Weise ist es gelungen die physikalische Auflösungsgrenze für Lichtmikroskope deutlich zu unterbieten. Bis zu 20 Nanometer große bzw. kleine Proteinkomplexe können so beobachtet werden. Die Leistung von Hell liegt also darin, daß beugungs-unbegrenzten Lichtmikroskope zur Verfügung stehen, mit denen auch lebende Zellen (und deren Innenleben) beobachtet werden können. Dafür wurde er inzwischen mit allerhand Preisen dekoriert. 2006 gab es den Zukunftspreis des Bundespräsidenten, ganz aktuell wurde ihm der Otto-Hahn-Preis der Dt. Physikalischen-Gesellschaft verliehen.
Wo soll das noch hinführen (naja, vermutlich weiter in die Beobachtung im nanoskaligen Bereich), der Kerl ist doch gerade 46 Jahre alt!
Am Beispiel von Hell wird jedenfalls sehr schön deutlich, daß Wissenschaft auf Beobachtungsapparaturen angewiesen ist, die aber jeweils Grenzen aufweisen. Oder anders formuliert: für alles, was unterhalb von 200 Nanometern lag, war man bislang (von der Elektronenrastermikroskopie abgesehen) blind. Der Horizont der Wissenschaft ist insofern jeweils begrenzt.
Nun wurde durch die Fluoreszenzmikroskopie freilich ein neues Fenster geöffnet. Und die Wissenschaftler blicken neugierig hindurch. Wobei sie eben soweit blicken, wie sie sehen können. Jedenfalls solange bis ein neuer Hell kommt und weitere Fenster und damit Horizonte öffnet. Und in diesem Sinne ist – wenn man die zeitliche Entwicklung betrachtet – Wissenschaft grenzenlos.
—
* Wie Alexander im Kommentar richtig anmerkt, ist das grundsätzliche Verfahren der Fluoreszenzmikroskopie nicht von Stefan Hell entwickelt worden. Sein Verdienst betrifft die maßgebliche Optimierung hin zum Fluoreszenz-Laser-Raster-Mikroskop bzw. eben seine Variante des STED-Mikroskops.
Heute haben sich in München zwölf namhafte Industrieunternehmen zur Desertec-Initiative zusammengetan, die binnen weniger Jahre in Nordafrika ein Solarthermie-Projekt realisieren will, das richtungsweisend sein könnte. Was steckt dahinter? Woher kommt die Begeisterung der Unternehmen für dieses Konzept?
Kommt der Strom der Zukunft aus der Wüste?
Nach dem Vattenfall-Fiasko mit Krümmel, ist man geradezu dankbar über neue, positive Nachrichten aus der Energiebranche.
In Zeiten, in denen führende Energiekonzerne öffentlichkeitswirksam ihre Inkompetenz beim Betrieb hochtechnologischer (und dabei zugleich hochrisikoträchtiger!) Anlagen demonstrieren, ist man ja schon fast dankbar, wenn sich die Berichterstattung wieder anderer Themen annimmt. Aber vielleicht war es auch ganz gut so, daß Vattenfall zuletzt mit dem Atomkraft-Fossil Krümmel ein kleines Waterloo erlebte: die Tücken der Kernkraft sind der Politik und Öffentlichkeit wieder einmal in aller Deutlichkeit vor Augen geführt worden.
Doch wie sind die Alternativen? Daß die Verfeuerung von fossilen Rohnstoffen purer Irrsinn ist, steht außer Frage. Über die Folgen der weiter steigenden CO2-Emissionen kann man ständig bei “Primaklima” nachlesen. Daß gehandelt werden muß, wurde zuletzt beim Panel zu “Global Warming” zum Abschluß der Lindauer Nobelpreisträgertagung deutlich.
Die Diskussion über alternative, erneuerbare Energiequellen wird in der Öffentlichkeit seit mindestens 20 Jahren geführt; mal mit mahnendem Unterton, mal mit entspannt-zuversichtlichem Zungenschlag. Klar ist, daß es auf den Energiehunger der industriellen Gesellschaften nicht eine einzige, alleinseligmachende Antwort gibt. Man kann das Land einfach nicht mit Windkraftanlagen zupflastern. Und die Photovoltaik? Da stellt sich eben die Frage nach der Effizienz.
Klar ist, daß es auf den Energiehunger der industriellen Gesellschaften nicht eine einzige, alleinseligmachende Antwort gibt.
Die Technik hinter der Solarthermie
Eigentlich erstaunlich, daß in den letzten Jahren recht selten über Solarthermie gesprochen wurde. In solarthermischen Anlagen wird die Sonnenstrahlung mit einem großflächigen System von Spiegeln auf einen Absorber konzentriert, durch den (je nachdem) Wasser, synthetisches Öl oder ein anderer Wärmeträger zirkuliert.
Dieser Wärmeträger erhitzt sich und bringt Wasser zum Verdampfen; über diesen Dampf – das ist dann konventionelle Kraftwerkstechnologie – wird eine Turbine angetrieben, die elektrische Energie erzeugt. (Details zur Technik auch bei Wikipedia.)
Soweit zur (grauen) Theorie der Energieerzeugung, die gar nicht grau, sondern höchst vielversprechend klingt. Doch wo ist der Haken? Gibt es einen? In der Praxis der Solarthermie zeigt sich freilich eines der Probleme: Solarthermieanlagen brauchen Platz. Sehr viel Platz. Und natürlich entsprechende Sonneneinstrahlung.
Offene Fragen
Hierzulande wären beide Bedingungen kaum erfüllbar. Im Süden Spaniens und erst recht in Nordafrika finden sich dagegen ideale Rahmenbedingungen. Und genau hierauf zielt das aktuelle Desertec-Projekt. In der Sahara-Region soll bereits ab 2015 im großen Maßstab solarthermische Energie erzeugt werden.
Darauf haben sich u.a. die Münchener Rück, die Energiekonzerne RWE und E.on, sowie Siemens und die Deutsche Bank verständigt. Auf rund 400 Milliarden Euro werden die Kosten veranschlagt. Man darf davon ausgehen, daß das niedrig kalkuliert ist.
Zwischen 1991 und 2006 wurde weltweit kein einziges Solarthermie-Kraftwerk gebaut. Wieso jetzt?
Doch natürlich stellen sich weitere Fragen. Die erste: Warum ausgerechnet jetzt? Schließlich wurde zwischen 1991 und 2006 weltweit kein einziges kommerzielles Solarthermie-Kraftwerk gebaut. Die Antwort gibt freilich ein Blick auf die Entwicklung des Ölpreises: der war in den 90ern unverschämt niedrig.
Davon, daß die Technologie prinzipiell hervorragend und zuverlässig funktioniert (und das will schon was heißen) darf man freilich ausgehen. Seit mehr als zwanzig Jahren läuft in der kalifornischen Mojave-Wüste ein große Anlage. Dort verrichtet ein Parabolrinnen-Kraftwerk mit einer elektrischen Leistung von 14 Megawatt seinen Dienst. Wie gesagt: Vielversprechend!
Wartungsarbeiten an der kalifornischen Anlage:
Zu klären sind nun zunächst zwei offene Punkte: erstens – in technologischer Hinsicht – die Frage des Energietransports. Denn mit den bestehenden Leitungsnetzen und Kapazitäten wird das nichts. Es muß ein neues Leitungsnetz (mind. über 3.000 Kilometer) erstellt werden. Die Übertragung über effiziente Gleichstrom-Hochspannungsleitungen wird nach Schätzungen mind. 45 Milliarden Euro kosten.
Und zweitens – dies ist eine politische Frage – muß geklärt werden, wie man dieses industrielle Großprojekt in den jeweiligen Staaten (Algerien, Marokko …) zuverlässig betreiben will, ohne in neue Abhängigkeiten zu rutschen oder Opfer der möglicherweise instabilen politischen Verhältnisse zu werden.
Diese Fragen müssen nun sicher auch von politischer und EU-Seite geklärt werden. In Sachen Wissenschafts- und Technologiekommunikation haben die Mitglieder der Desertec-Initiative jedenfalls einen bemerkenswerten Job gemacht. Die Website ist gut gemacht – und die Tatsache, daß man über Solarthermie in den letzten Tagen soviel liest wie nie, spricht auch für sich.
Man darf gespannt sein. Auf den Strom aus der Wüste.
—
Nordafrika als Energielieferant Europas? – Die Desertec-Vision:
Die Abkürzung EPO steht ja für das körpereigene Hormon Erythropoetin, das in der Niere gebildet wird. Als so genanntes Glykoprotein-Hormon ist Erythropoetin an zentraler Stelle bei der Bildung roter Blutkörperchen (Erythrozyten) beteiligt. Ursprünglich wurde EPO biotechnologisch synthetisiert, um Dialysepatienten (deren Nieren kein oder zu wenig Epo herstellen) zu behandeln.
Doping für Herz & Hirn
Bis 2000 konnte man in den Dopinglabors zwischen natürlichem und künstlichem EPO nicht unterscheiden – ein Freibrief für skrupellose Fahrer von Jan Ullrich bis Lance Armstrong.
Erythropoetin (egal ob aus körpereigener oder künstlicher Quelle) wirkt nämlich stimulierend auf die Stammzellen des Knochenmarks, die rote Blutkörperchen herstellen, die wiederum für den Sauerstoff-Transport zuständig sind. Und genau diesen Effekt machten sich die Ausdauersportler zu nutze. Bis 2000 konnte man in den Dopinglabors zwischen natürlichem und künstlichem EPO nicht unterscheiden – quasi ein Freibrief für krankhaft ehrgeizige Radprofis von Jan Ullrich bis Lance Armstrong.
Ob EPO auch bei der diesjährigen Tour de France wieder eine Rolle spielt (möglicherweise in einer modifizierten Variante?), kann ich nicht sagen. Aber eigentlich ist es auch fast gleichgültig, was im Radsport passiert. Viel spannender sind die jüngsten Studien zu Erythropoetin, das möglicherweise viele weitere positive Effekte hat.
EPO als Allzweckwaffe?
Die Untersuchungen der letzten Jahre legen nämlich nahe, daß EPO sozusagen auf Herz & Hirn wirkt. Tatsache ist, daß in eigentlich allen Organen des menschlichen Körpers Epo-Rezeptoren zu finden sind.
In Zellkulturen, sowie in Tierversuchen ist längst bestätigt, daß Erythropoetin eine zellschützende und regenerative Wirkung hat. Das macht Epo zu einem spannenden Kandidaten für die Behandlung neurodegenerativer Erkrankungen (wie etwa Multiple Sklerose etc.) oder akuten neurologischen Schädigungen wie etwa nach Schlaganfällen.
Epo hat eine zellschützende und -regenerative Wirkung. Es steht als vielversprechender Kandidat bei Schlaganfällen, Infarkten oder Multiple Sklerose in den Startlöchern
Die Studiengruppe von Hannelore Ehrenreich vom Max-Planck-Institut für Experimentelle Medizin in Göttingen hat in mehreren Studien die Effekte von Epo bei Schlaganfällen untersucht. Mit ausgesprochen positiven Ergebnissen. Auch bei Herzinfarkten wirkt die schnelle Gabe von Epo – die Folgeschäden sind geringer, wie auch eine Studie am Deutschen Herzzentrum in München belegte.
Aber möglicherweise gibt es noch mehr Indikationen für den Einsatz von Epo: im Mäuseversuch wirkte es stimulierend auf die Nerventätigkeit im Hippocampus und Mäuse, die eine dreiwöchige EPO-Kur verabreicht bekamen, zeigten verbesserte Leistungen des Kurz- und Langzeitgedächtnisses.
Letzten September erklärte Ehrenreich:
Junge Mäuse, die drei Wochen lang systematisch mit Epo behandelt werden, haben ein deutlich besseres Gedächtnis – ähnlich den dramatischen Verbesserungen von Ausdauer und Muskelkraft von Athleten, die sich mit Epo dopen.
Klingt gut. Nun muß man freilich abwarten, ob sich diese Indizien weiter erhärten. Sollten sich diese vielversprechenden neuen Behandlungsansätze tatsächlich durchsetzen, so steht dem heute mit einem zweifelhaften Ruf belasteten Epo vielleicht doch noch eine glänzende Karriere bevor.
Bereits heute werden weltweit jährlich mehr als 10 Milliarden US-Dollar mit Epo-Präparaten verdient. Klar: etwa eine halbe Million Sportler – so die Expertenschätzung – dopen sich mit dem Stoff. Künftig könnte Epo für die Pharmafirmen noch lukrativer werden…
Zu hoffen ist, daß “vernünftige” therapeutische Indikationen zu einem Comeback von Epo führen. Für Lance Armstrong und Co. wird das allerdings wenig nutzen. Denn das Epo der Zukunft wird aus einer neuartigen Molekülvariante bestehen. Um unerwünschte Nebeneffekte zu vermeiden, bevorzugen die Mediziner das sogenannte carbamylierte Epo (Cepo) Das hat zwar einen Schutzeffekt für Nervenzellen, kurbelt aber die Blutbildung nicht an.
Pech gehabt, Lance.
* Im Dezember 2004 wurden – nach Recherchen von L’Équipe – in tiefgefrorenen Urinkonserven des siebenfachen Tour-de-France-Siegers Lance Armstrong Spuren von nicht körpereigenem EPO nachgewiesen. Armstrong bestreitet natürlich die Einnahme von Epo. Aber wer erwartet auch Aufrichtigkeit bei Radprofis…
Es ist dabei letztlich immer die spannende Frage, welche “Form” sich ein soziales Ereignis geben muß, damit es als wissenschaftliches Ereignis zweifelsfrei erkannt wird. Dabei gibt es natürlich bestimmte Erkennungs- und Kennzeichen, die uns signalisieren, daß wir gerade einem wissenschaftlichen Gegenstand gegenüberstehen.
Wie erkennen wir eigentlich, daß es sich um ein wissenschaftliches Ereignis handelt?
Wenn wir uns in einem großen Saal mit abfallenden Sitzreihen befinden, so sollte es uns nicht überraschen, wenn das Licht erlöscht und ein Film an die Leinwand projiziert wird. Sollte stattdessen ein einzelner Mann oder eine Frau erscheinen und einen mit allerlei Fachterminologie aufgepeppten Vortrag beginnen, so sind wir nicht im Kino, sondern vermutlich im Hörsaal einer Universität gelandet.
Die Unterschiede zwischen diesen beiden “Darbietungen” sind gar nicht so groß. Doch erkennen wir zweifelsfrei, in welchem Fall es sich um Wissenschaft handelt. Vergangene Woche hatte ich die Gelegenheit, ein wirklich bemerkenswertes wissenschaftliches Ereignis aus der Nähe zu beobachten. Denn bei der 59. Tagung der Nobelpreisträger in Lindau ging es ganz ohne Zweifel um Wissenschaft. Aber: woher weiß ich das so genau?
Die äußere Form und das Wesen der Dinge
Denn konnte ich mir wirklich sicher sein, daß es sich bei diesem Ereignis nicht um etwas vollkommen anderes handelte?
War ich möglicherweise bei einer politischen Veranstaltung gelandet? Etwa einem Treffen blaublütiger Inselbewohner mit bundesdeutschen und europäischen Spitzenbeamten?
Oder handelte es sich um einen Seniorennachmittag oder ein anderes Veteranentreffen?
Oder ging es bei der Veranstaltung vor allem um Brauchtumspflege? Beispielsweise indischer Provenienz?
Das war sicher genauso ein Beitrag zur Völkerverständigung, wie die Darbietungen bayerischer Tradition und (bierseliger) Kultur.
Oder war es einfach ein Zusammentreffen von jungen Wissenschaftlern aus aller Welt, die eine Woche lang untereinander…
… und mit Nobelpreisträgern diskutierten, sich kennen- und voneinander lernten?
Diese Momentaufnahmen illustrieren, wie vielfältig die Lindauer Tagung war. Und doch ist die Wissenschaft – dieses Jahr stand das Treffen im Zeichen der Chemie – das einigende Band, das die verschiedenen Veranstaltungsteile zusammenhielt. Wer den Gesprächen am Rande zuhörte, der stellte fest, daß es fast immer um wissenschaftliche Themen ging. Wie sind die Studienbedingungen in Neuseeland, den USA oder anderswo? Worauf muß ich achten, wenn ich mir eine Post-Doc-Stelle suche? Wie laufen die aktuellen Forschungsprojekte? Bei welchen Journals hat man Papers eingereicht?
Was für Außenstehende wie ein internationaler Kirchentag aussieht, ist für die Teilnehmer unzweifelhaft eine wissenschaftliche Angelegenheit
Was für Außenstehende möglicherweise wie ein internationaler Kirchentag aussieht, ist für die Teilnehmer unzweifelhaft eine wissenschaftliche Angelegenheit. Und die Teilnehmer und deren Selbstverständnis sind letztlich das entscheidende Moment und erlauben immerhin eine Antwort auf die oben gestellte Frage, woran eine solche Veranstaltung denn als “wissenschaftlich” zu erkennen ist: es sind die teilnehmenden Personen.
Das ist zwar sicher nicht das alleinige (und auch kein hinreichendes) Kriterium, aber wenn – wie in Lindau – gleich mehr als 600 Menschen zusammen sind, deren Leidenschaft die Wissenschaft ist, dann genügt das fast schon aus.
* Die Photos des indischen Abends und der Diskussion mit Harold Kroto sind von Christian Flemming (www.lindau-nobel.de), die anderen sind von mir.
Es wird der Fund der ältesten Keramik der Welt vermeldet. Wer recherchiert stellt fest, daß diese Behauptung nicht zutrifft…
Es ist keine der weltbewegenden Nachrichten, aber das ist auch nicht das Ziel von Forschung, die nach Spuren kultureller Zeugnisse frühester Gesellschaften sucht. In der chinesischen Yuchanyan-Höhle wurden jedenfalls bereits Mitte der 1990er Jahre verschiedene Knochen und auch Tonscherben gefunden. Nun konnte deren Alter mittels der Radiocarbon-Methode genauer bestimmt werden.* Die Datierung des Forscherteams um Elisabetta Boaretto von der isrealischen Bar-Ilan-Universität ergab ein Alter der Scherben von 17.500 bis 18.300 Jahren.
Rekord! So vermeldet etwa Spiegel Online. Strenggenommen stimmt das aber nicht…
Der Mensch erscheint im Holozän, Keramik bereits im ausgehenden Pleistozän
Über die nun datierten Fundstücke aus der chinesischen Höhle in der Provinz Hunan berichten die Wissenschaftler in einem Artikel in den aktuellen Proceedings of the National Academy of Sciences. (PNAS online). Und klar ist, daß die Funde zu den ältesten Zeugnissen menschlicher Geschirr- oder Gefäßherstellung aus gebranntem Lehm und Ton gehören.
Im Artikel ist u.a. auch folgender Satz zu lesen:
These ceramic potsherds therefore provide some of the earliest evidence for pottery making in China.
Daran, so zeigt eine kurze Recherche, gibt es auch gar keine Zweifel. Bei SpiegelOnline liest es sich allerdings recht eindeutig so, als wären die Funde damit die ältesten bekannten Keramikstücke. Man liest bei SpOn:
“Älteste Keramik der Welt stammt aus China. (…) Die bisher ältesten Hinweise auf Töpferei stammen aus dem heutigen Japan und sind etwa tausend Jahre jünger. “
Diese Behauptung kann aber nur aufrechterhalten werden, wenn man als Keramik nur Gefäß-Keramiken meint.
Gefäßkeramik und figürliche Keramik
Strenggenommen ist die Meldung – wenn man sie so formuliert wie Spiegel und die Agenturen – allerdings falsch. Denn es gibt sehr wohl Keramiken, die älter sind. Es handelt sich hierbei freilich um figürliche Darstellungen.
Die bekannteste davon ist die Venus von Dolní Věstonice. Daß solche Keramiken deutlich älter sind, ist allgemein bekannt und auch in der Literatur hinreichend dokumentiert. (Vgl. etwa: Mämpel, Uwe: Keramik. Kultur- und Technikgeschichte eines gebrannten Werkstoffs, Hohenberg 2003, S. 8)
Die Venus von Dolní Věstonice, die bereits 1925 bei Ausgrabungen in Mähren entdeckt wurde, ist mindestens 22.000 Jahre alt und übertrifft die chinesischen Scherben um viele, viele tausend Jahre. Und schöner ist diese sinnliche Venus doch auch, oder?
Dr. Sally Schöne, Keramikexpertin vom Deutschen Keramikmuseum in Düsseldorf, bestätigt diesen feinen Unterschied zwischen Gefäß- und figürlicher Keramik. Und auf diese Unterscheidung kommt es in diesem Fall eben an…
Die Funde in China lassen sich als frühester Nachweis dafür deuten, daß menschliche Gruppen “getöpfert” haben. Aber Keramik(en) gab es eben schon früher.
* Für “jüngere” Keramiken steht neuerdings auch eine andere Datierungs-Methode zur Verfügung, wie bei Diax’s Rake zu lesen ist.
In den letzten Tagen war der ehrwürdige St. James’s Palace in London Treffpunkt von rund 20 Nobelpreisträgern und einigen dutzend Klimawissenschaftlern. Auf Einladung von Hans-Joachim Schellnhuber (Direktor des Potsdam Instituts für Klimafolgenforschung) waren hochrangige Wissenschaftler zusammengekommen, um über Fragen des Klimaschutzes und Lösungsstrategien zu beraten. Als Schirmherr fungierte Prinz Charles, da konnte dann ja fast nichts mehr schiefgehen.
Abschlußmemorandum mit Handlungsaufforderung an die Klimapolitiker
Ob der Appell der Klima-Wissenschaftler bei der Politik Gehör finden wird?
Gestern endete das Symposium mit einem Memorandum, das als dringender Appell an die Politik zu verstehen ist. Die Forscher fordern darin u.a. eine Verringerung der weltweiten Treibhausgasemmissionen ab 2015. Bis 2050 soll mindestens eine Reduzierung der Emmissionen um 50% im Vergleich zum Jahr 2000 erzielt werden.
Das Memorandum formuliert freilich wünschenswerte Postionen (u.a. wird wieder einmal die essentielle Bedeutung der tropischen Regenwälder betont), allein scheinen die Forderungen (zumal unter Bedingungen der Wirtschaftskrise) derzeit kaum durchsetzbar. Diese Einschätzung teilt auch Joachim Müller-Jung, der während der Tagung in London war.
Weiße Dächer und Straßen für den Klimaschutz?
Für einen spannenden und unkonventionellen Vorschlag zur Minderung der Folgen des globalen Temperaturanstiegs sorgte am Mittwoch Steven Chu.
Das Anpinseln von Dächern und Straßen mit weißer Farbe bringt CO2-Einsparungen in Höhe des weltweite Straßenverkehrs von elf Jahren…
Steven Chu erläuterte in seinem Vortrag, daß ein nenneswerter Effekt dadurch erzielt werden könnte, wenn alle Dächer, Straßen und Plätze mit weißer bzw. heller Farbe gestrichen würden. Es sei eine Änderung der Bauvorschriften notwendig, so daß Flachdächer mit weißer Farbe bepinselt würden, sichtbare (geneigte) Dächer mit heller Farbe, ebenso die Straßen. (Dieses farbliche Zugeständnis, um Blendeffekte zu vermeiden.)
Durch diese Malerarbeiten könnten einerseits deutliche Energie-Einspareffekte erzielt werden (da bspw. weniger Energie für Klimaanlagen benötigt wird), außerdem strahlen weiße Oberflächen bis zu 80% der Energie zurück in den Weltraum. Dunkle oder schwarze Flächen nur 20%.
In der Summe ließen sich – so erläuterte Chu, der sich den Berechnungen seines Kollegen Arthur H. Rosenfeld bediente – allein in den 100 größten Städten der Welt etwa 44 Milliarden Tonnen CO2 eingespart werden. Insgesamt seien Einspareffekte in einer Größenordnung möglich, die dem weltweiten Straßenverkehr von 11 Jahren entsprechen.
In Kalifornien wurden übrigens 2005 gemäß den Empfehlungen von Art Rosenfeld die Bauvorschriften modifiziert; dort sind die Flachdächer inzwischen weiß. Die Malerinnung dürfte sich jedenfalls die Hände reiben, wenn – was ich allerdings für unwahrscheinlich halte – dieser Vorschlag flächendeckend (!) umgesetzt wird.
Dennoch eine interessante Idee – warum nehmen wir uns also kein Vorbild an der Farbgebung, wie sie in Städten im mediterranen Raum schon immer üblich ist?
Die Fragen nach Anzahl der Torschüsse oder eben die Laufleistung eines Spielers lassen sich ja einfach beantworten. Da wird gezählt und addiert und damit ist die Sache erledigt. Auch die Tabellen und Punktstände sind ohne Mathematik-Studium nachzuvollziehen (es sei denn man stellt mit diesen Werten raffiniertere Analysen an, wie etwa Metin Tolan). Knifflig wird es allerdings, wenn man andere Parameter erfassen will. Wer ist denn nun wirklich der gefährlichste Stürmer? Wer der beste Torwart?
Die simple Rechenaufgabe, die einfach die Zahl der Tore durch die Anzahl der Spiele teilt, taugt dafür jedenfalls nicht. Für eine Analyse der besten Torhüter in Elfmeter-Situationen haben Statistiker der TU Dortmund nun eine kleine Tabelle erstellt. Mit verblüffenden Ergebnissen.
Wer ist der beste Torhüter?: Haltewahrscheinlichkeiten, Treffsicherheit…
Es leuchtet ein, daß man den besten Elfmeter-Killer nicht durch einfache Additions- und Divisionsprozeduren herausfindet. Denn sonst müßte man beispielsweise Karl Eisenhofer, der von 1963 bis 1965 bei Eintracht Frankfurt als Torhüter spielte, als den ultimativen Elfmeterschreck bezeichnen. Denn Eisenhofer hat immerhin eine 100% Erfolgsquote an gehaltenen Elfmetern vorzuweisen. Das Problem: es gab nur einen Elfmeter in seiner Bundesliga-Karriere – und den hat er gehalten…
Welche Faktoren sind entscheidend für den wahren Elfmeter-Killer?
Was sind aber tatsächliche Gradmesser, wie erfolgreich ein Torhüter zwischen den Pfosten agiert? Die Stärke und Erfahrung des Schützen muß sicher mit einbezogen werden, dann natürlich irgendein Faktor, der letztlich angibt, in welchem Ausmaß die Erfolgsquote des jeweiligen Torhüters von der Quote abweicht, die ein zufälliger “Norm”-Torhüter erreicht hätte.
Über weitere Details schweigt sich die Mitteilung der Uni Dortmund leider aus; jedenfalls hat sich das Team um Prof. Dr. Katja Ickstadt für ein “logistisches Regressionsmodell” entschieden (zu Details kann sicher Thilo vom Mathlog Auskunft geben). Dieses komplexe mathematische Verfahren ermöglicht es offenbar, bei der Errechnung der individuellen Halte-Wahrscheinlichkeit zu berücksichtigen, wie viel Information für jeden Torhüter vorliegt. Dabei gehen die Statistiker von der Grundannahme aus, daß die Haltefähigkeiten aller Torhüter normalverteilt sind.
Über Torhüter, die an wenigen Elfmetern beteiligt waren, ist nicht viel bekannt. Daher liegt ihre errechnete Haltefähigkeit nahe am Mittel aller Torhüter. Für Torhüter, die an vielen Elfmetern beteiligt waren, liegt jedoch mehr Information vor, so daß für diese Torhüter die einzelnen Halte-Wahrscheinlichkeiten sich ihrer tatsächlich beobachteten Haltequote nähern.
Die beste individuelle Halte-Quote erzielt Rudi Kargus vom HSV.
Die Elfmeter-Killer-Formel
Wenn man das alles plausibel kombiniert, dann kommt man am Ende doch zu einer Rangliste. Es wurden alle 3.828 Elfmeter, die seit der ersten Bundesliga-Saison 1963/1964 geschossen wurden, untersucht. Auf Platz 1 des Rankings steht jedenfalls Rudi Kargus, der unter anderem beim Hamburger SV spielte. Er hat von 70 Elfmetern immerhin 23 gehalten. Das ist Rekord.
Auf Platz zwei steht Robert Enke, aktueller Nationaltorhüter und sonst in Diensten von Hannover96. Er hat 10 von 23 Elfmetern pariert. Eine deutlich bessere Quote als Kargus, aber die “individuelle” Haltefähigkeit ist nach der Formel offenbar schlechter. Auf dem dritten Platz folgt dann Andreas Köpke (13 von 41).
Und nach Jean-Marie Pfaff, dem Bayern-Keeper der 80er Jahre folgt eine Torhüter-Legende auf Platz 5: Petar Radenkovic! Radenkovic war Publikumsliebling und Torwartstar der 60er Jahre und spielte in den großen Zeiten bei 1860 München. Und er hielt gute 12 von 34 Elfmetern.
Jens Lehmann, der im WM-Viertelfinale 2006 mit seinem Spickzettel die argentinischen Stars irritierte, landet übrigens auf einem wenig ruhmreichen 233. Platz (6 von 34). Allerdings fließen in die Statistik nur Bundesliga-Elfmeter ein. Kaum besser – nämlich auf Platz 226 (10 von 58) – platziert sich Oliver Kahn.
Traurige Schlußlichter
Interessant ist dann wieder das Ende der Tabelle. Auf dem vorletzten Platz der 280 Torhüter landet ein ehemaliger Bayern-München-Spieler. Walter Junghans nämlich, der 1979 Keeper wurde, und nur einen von 24 Elfmetern hielt.
Und Schlußlicht, damit lausigster Torwart, wenn es um Elfmeter geht, ist einer, der bis heute von Fußballfans verehrt wird: Sepp Maier! Der Weltmeister von 1974 und erfolgreiche Torhüter hielt ganze 9 von 69 Elfmetern. Schlechter geht’s – jedenfalls nach Meinung der Dortmunder Statistik-Profis – nicht.
[Update | 16:00 Uhr]
Das vollständige Paper findet man hier als PDF:
Inzwischen hat sich das Virus tatsächlich weltweit ausgebreitet, die Zahl der bestätigten Fälle ist auf über 12.000 angestiegen und die WHO sieht weiterhin ein “erhebliches Pandemie-Risiko”. Für die Medien ist die Schweinegrippe freilich nur noch ein Randthema, in Blogs, Foren oder bei Twitter scheint sie inzwischen vollkommen irrelevant geworden zu sein.
Warnschuß im April: Die Ausbreitung der Schweinegrippe
In der letzten Aprilwoche überschlugen sich die Ereignisse: In Mexiko-Stadt wurden viele hundert Grippefälle registriert, die – so die Vermutung – durch einen neuen Influenza-Virus ausgelöst wurden. Als die ersten Todesfälle bekannt wurden, verhängte der mexikanische Präsident Felipe Calderón den Ausnahmezustand und Zwangsferien. Währenddessen wurden immer mehr Grippe-Infektionen aus den USA und anderen Ländern gemeldet. War das der lange erwartete Ausbruch eines neuen Supervirus?
Heute wissen wir, daß der Schweinegrippevirus weniger ansteckend und tödlich ist, als zunächst befürchtet. Außerdem scheinen Neuraminidase-Hemmer (wie bspw. Tamiflu) recht gut zu wirken. Genauso steht inzwischen aber fest, daß sich der A/H1N1-Virus sehr gut von Mensch zu Mensch überträgt. Und die WHO hält nicht zuletzt deshalb an der Pandemie-Warnstufe 5 (von max. 6) fest. Von Entwarnung kann also keine Rede sein.
Influenza-Viren sind hochvariabel. Der aktuelle A/H1N1-Typ verbreitet sich spielend leicht von Mensch zu Mensch. Von Entwarnung kann keine Rede sein…
Zumal Influenzaviren begnadete Verwandlungskünstler sind. Das Virus hat vor einigen tagen nun auch Asien erreicht und Experten halten es durchaus für möglich, daß sich der H1N1-Erreger mit anderen Influenza-Typen mischt und möglicherweise in einer neuen, deutlich aggressiveren Variante zurückkehrt.
Erfolgreiches Virus: Globale Ausbreitung
Man kann und muß also davon sprechen, daß weiterhin allergrößte Vorsicht angebracht ist. Denn der Erreger breitet sich weiter aus. Nicht mit rasender Geschwindigkeit, aber dennoch mit Erfolg. Das Robert-Koch-Institut schreibt vorgestern:
“Mit weiteren Erkrankungen in Deutschland muss gerechnet werden. Nach Einschätzung der Weltgesundheitsorganisation gibt es vermutlich keine oder nur eine beschränkte Immunität gegen das neue H1N1-Virus.”
Die WHO meldet aktuell mehr als 12.200 bestätigte Fälle und 91 Todesopfer. Die Karte zeigt die weltweite Ausbreitung:
Aufmerksamkeit: Eine begrenzte Ressource
Auffallend dabei ist, daß sich diese anhaltende Gefährdungslage in keinster Weise in den Medien widerspiegelt. Das Interesse an der Schweinegrippe ist rapide gesunken. Dem anfänglichen Hype folgte (was durchaus typisch ist) der Übergang zur Tagesordnung.
Wobei hier zu erwähnen ist, daß die “Tagesordnung” sich im Vergleich verschiedener Medienformate deutlich unterscheidet. Für die klassischen, journalistisch-redaktionellen Formate ist die Schweinegrippe durchaus weiterhin ein Thema. Über neue Fälle in Deutschlan dund Europa wird durchaus berichtet. Allerdings eben weniger schrill, weniger aufgeregt, was durchaus angemessen ist.
Wenn man demgegenüber aber die alternativen Kanäle (wie Blogs, Foren oder aber Twitter) ansieht, so zeigt sich hier ein deutlicher Unterschied: denn dort spielt die Schweinegrippe seit 2-3 Wochen faktisch keine Rolle mehr.
Twitter ist im journalistischen Kontext kaum mehr als eine Erregungsmaschine.
Insbesondere bei Twitter kann rekonstruiert werden, wie dieses Thema binnen weniger Stunden weltweit gehypt wurde und zum dominierenden Diskussionsgegenstand wurde. Man sieht wie am 25./26. April die Kurve ansteigt, etwa 5-6 Tage anhält und dann fast wieder auf das Ausgangsniveau zurückfällt.
Dieses Beispiel könnte man durchaus als Indiz dafür hernehmen, daß Twitter (wenn es um seine journalistische Relevanz geht) letztlich doch kaum mehr als eine Erregungsmaschine ist. (Quelle: Twist)
Die rote Kurve zeigt den Karriereverlauf von “swine flu” bei Twitter. In der “heißen Phase” war die Schweinegrippe das Thema jeden dreißigsten Tweets und kam in Spitzenzeiten auf 10.000 Nennungen pro Stunde. Inzwischen ist die Zahl der Schweinegrippe-Tweets auf 1% der Spitzenwerte gesunken.
Im Gegensatz dazu, zeigt die Zahl der bestätigten Fallzahlen in Europa keine abnehmende Tendenz. Die aktuelle Statistik des europäischen Zentrums zur Seuchenbekämpfung in Stockholm sieht so aus:
Wobei es mir mit den oben gemachten Ausführungen keineswegs um eine Pauschalkritik an Twitter oder ähnlichen Formaten geht. Schließlich twittert ScienceBlogs auch. Und auch auf ScienceBlogs war die letzten Tage nichts über die Schweinegrippe zu lesen. Wir zählen also strenggenommen auch zu denjenigen, die dazu beigetragen haben, daß die Schweinegrippe zu einem Medienthema wurde und dann nach einigen Tagen auch wieder vergessen wurde.
Dennoch ein interessanter – und für den Umgang mit Krisen, Katastrophen u.ä. typischer – Befund, finde ich…
Mehr zur Schweinegrippe bzw. A/H1N1-Influenza auf ScienceBlogs:
Seit einigen Stunden ist Wolfram|Alpha nun online – ein erster kurzer Test, ob die Antwortmaschine hält, was ihr Name verspricht.
Die Vorabinformationen zu diesem hochambitionierten Projekt waren mehr als vielversprechend. Stephen Wolfram, einstiges Wunderkind, Physiker, Mathematiker und Vater des legendären Matheprogramms “Mathematica“, arbeitet seit rund vier Jahren mit einem stattlichen Expertenteam an einem System, das Informationen aus einer Unmenge an Datensätzen auswertet, kombiniert und als Antwort in Form von Tabellen und Graphen ausgibt.
Beginn einer neuen Ära? Wolfram Alpha will ausdrücklich keine Suchmaschine á la Google sein, sondern echte Antworten auf echte Fragen liefern.
Um wirklich relevante Resultate auszugeben – so die wohlklingende Ankündigung – , setzt Wolfram Alpha auf ein Technologie, die einerseits eine (semantische) Interpretation der Fragestellung leistet, andererseits Informationen aus Datenquellen – die eine Art Qualitätsprüfung durchlaufen haben – berechnet und bündelt.
Insgesamt, so erklärt Stephen Wolfram in den letzten Tagen mehrmals, müsse “Wolfram|Alpha” als “Maschine zur Berechnung menschlichen Wissens” angesehen werden, im ZEIT-Interview sagte er:
“Wir benutzen als Ausgangsmaterial das gesamte Wissen der menschlichen Zivilisation, mit dem sich Berechnungen anstellen lassen.”
Über die Grenzen der Berechnung
Doch was läßt sich denn nun auf diese Weise tatsächlich “berechnen”? Welche Antworten liefert diese Wissensmaschine beispielsweise auf Fragen mit sozialwissenschaftlicher Akzentsetzung? Ist Wolfram|Alpha ein sinnvolles Instrument zur Informationsbeschaffung für sozial- und gesellschaftswissenschaftliche Fragestellungen?
Lassen sich relevante Antworten tatsächlich “berechnen”? Ist Wolfram|Alpha ein taugliches Instrument zur Informationsbeschaffung?
Auch in der Soziologie rekurriert man natürlich immer wieder auf “harte” Zahlen und Daten. Einkommen, Altersdurchschnitt, Bildungsgrad, Ausländeranteil, Konfessionszugehörigkeit etc., lauter sozio-ökonomische Daten, die interessant sein können. Findet man die mit Wolfram Alpha?
Eine der Stärken sei, so war zu lesen, die übersichtliche Darstellung der Informationen. Und sicher, wenn ich die Lebenserwartung in Deutschland und Frankreich wissen will, so erhalte ich tatsächlich die Antwort, daß die Franzosen im Schnitt 81 Jahre alt werden, die Deutschen lediglich 79.3 Jahre. Aber – hier beginnen schon die Einwände – wie verhält es sich mit der Lebenserwartung bei Männern und Frauen? Wie ist die historische Entwicklung? Und auf welche Datenbasis und welchen Zeitpunkt beziehen sich die angebenen Werte?
Dennoch: mit ein wenig Glück bekommt immerhin ein halbwegs informatives Ergebnis. Allzu oft reagiert das System allerdings mit Schulterzucken: auch auf simple Keyword-Kombinationen erhält man ein lapidares: “Wolfram|Alpha isn’t sure what to do with your input.”
Und mehr als die bescheidene Information, daß es in Deutschland Katholiken, Protestanten, Muslime und andere Religionen gibt, war der Wissensmaschine auch nicht zu entlocken. Andernorts – etwa bei der Wikipedia – erhält man deutlich bessere und detailliertere Auskünfte, was die Konfessionszugehörigkeit und Bedeutung verschiedener religiöser Gruppierungen angeht.
Nicht ganz so schlecht ist das Ergebnis auf die Frage nach dem Bevölkerungswachstum. Hier werden einige Kennzahlen wie etwa die jährliche Geburts- und Sterberate, wie auch die Gesamtbevölkerungsanzahl ausgegeben.
Doch auch hier gilt: bei der Wikipedia – beispielsweise auf der Seite zur Demographie Deutschlands – ist man wesentlich besser und umfassender informiert.
Wolfram|Alpha: Die programmierte Ahnungslosigkeit
Nun bestehen die Sozialwissenschaften allerdings nicht allein aus dem Wissen über bestimmte statistische Kennzahlen. Es geht um Bedingungen, Sinn und Strukturen menschlichen Zusammenlebens, um das Wechselspiel zwischen Individuum und Gesellschaft und generell um die Organisations- und Funktionsprinzipien von sozialen Systemen.
Die mit viel Vorschußlorbeeren ausgestattete Antwortmaschine liefert nichts außer Fehlermeldungen oder Quasi-Antworten.
Wie steht es also, wenn man Wolfram|Alpha einige Grundbegriffe wie Handlung, Macht, Individuum oder Organisation vorsetzt? Wie schon zu erwarten war, liefert die mit so viel Vorschußlorbeeren ausgestattete Antwortmaschine nichts außer Fehlermeldungen oder Quasi-Antworten, denen eine falsche Interpretation der Frage zugrunde liegt.
Auch die Hoffnung, daß man irgendwelche Definitionen oder hilfreiche Infos zu anderen Fachbegriffen wie “Risk Assessment” oder “Public understanding of Science” erhalten könnte, kann man sich abschminken. Jürgen Habermas ist immerhin bekannt und man erfährt, daß es sich um einen Philosophen handelt, der 1929 in Düsseldorf geboren wurde. Von Niklas Luhmann hat die schlaue Maschine dagegen noch nie etwas gehört.
Aber was erwartet man auch von einer Webanwendung – ganz egal, ob man sie nun Antwortmaschine, Wissensmaschine oder sonstwie nennt – , die auf die Eingabe von ScienceBlogs nichts anderes als:
“Did you mean Scientology?”
antwortet?
Damit disqualifiziert sich Wolfram Alpha ja wohl endgültig, oder? Und ich gehe mal nicht davon aus, daß Wolfram|Alpha die ebenfalls wenig positiven Tests von Thilo, Ali, Jörg oder Florian zur Kenntnis genommen hat und deswegen rumzickt.
Meine Gesamtwertung: 2/10 Punkten.
Daß die großzügige Verteilung von Werbeartikeln durchaus sinnvoll und natürlich keineswegs uneigennützig ist, zeigt eine aktuelle Studie, die die Effizienz subtiler Einflußfaktoren in der Medizin illustriert.
Wirksames Pharmamarketing
Mit ihrer Studie wollte das Forscherteam um den Psychologen David Grande von der Universität Philadelphia überprüfen, ob und mit welchen Erfolgsaussichten die Marketingbemühungen der Pharmafirmen Erfolg haben können. Dazu luden sie Medizinstudenten verschiedener Unis zu einem Test ein, der sich vorgeblich mit der klinischen Entscheidungsfindung beschäftigte.
Die Studenten sollten bei dem Test – der als IAT-Test (Impliziter Assoziationstest) aufgebaut war – ihre Einstellung in Bezug auf verschiedene Medikamente dokumentieren. Es ging um die Cholesterinsenker Zocor und Lipitor. Die Studenten sollten innerhalb des Tests u.a. Wortpaare, die mit positiven oder negativen Eigenschaften konnotiert sind, den beiden Präparaten zuordnen.
Schon die Plazierung eines Medikamentennamens auf einem Notizzettel führt zu einer veränderten Beurteilung des Präparats durch Medizinstudenten.
Die Versuchsgruppe war zweigeteilt: die Studenten stammten nämlich zur einen Hälfte von der University of Pennsylvania School of Medicine, wo Pharmawerbung strikt verboten ist. Die andere Hälfte (insgesamt nahmen 352 Studenten an dem Experiment teil) kam von der Miami Miller School of Medicine, wo Pharmawerbung auch auf dem Campus kein Tabu ist. Direkt vor dem Experiment erhielt jeder zweite Student ein Klemmbrett und einen Notizzettel, wo jeweils das Logo von Lipitor® aufgedruckt war.
Das Ergebnis: Diese Einflußnahme – durch Positionierung des Produktlogos auf Klemmbrett und Notizzettel – wirkte sich auf die Bewertungen aus, die die Studenten im Test den beiden Medikamenten gaben. Und zwar wurde Lipitor von Studenten der Miami Miller School of Medicine (die sozusagen an Pharmawerbung “gewöhnt” sind) deutlich besser bewertet, als das Konkurrenzprodukt. Und dieser Effekt kam allein durch die richtige Plazierung eines Produktlogos zustande!
Interessanterweise reagierten die Studenten der University of Pennsylvania School of Medicine ganz anders: sie bewerteten Lipitor schlechter, wenn sie zu der Gruppe gehörten, die das Klemmbrett mit Markenlogo erhalten hatte.
Was lehrt uns dieses Beispiel? Für die Pharmafirmen ist das Experiment sicherlich eine Bestätigung für ihre Vorgehensweise, die Ärzte (und natürlich bereits Medizinstudenten) mit jeder Menge Werbematerial versorgt. Denn offensichtlich läßt sich durch solche Maßnahmen sehr effektiv die Grundeinstellung zu den eigenen Produkten beeinflußen. Und das funktioniert auf einem sehr niederschwelligen Niveau – denn die Studenten (leider wurde das nicht abgefragt) fühlten sich mit großer Wahrscheinlichkeit nicht manipuliert.
Reziprozitätsregel: Kleine Geschenke erhalten die Freundschaft…
Nun gab es im oben skizzierten Experiment natürlich noch die Gruppe, die auf die Plazierung des Werbelogos auf der Klemmmappe nicht positiv reagierte. Allerdings ist das überhaupt kein Indiz dafür, daß diese Gruppe vollkommen immun gegenüber Einflußmaßnahmen wäre. Denn bei dem Experiment gab es ja wohlgemerkt keine Geschenke, die verteilt wurden (nicht einmal den obligatorischen Kugelschreiber).
Interessant wäre es gewesen, wenn die Gruppe in drei Teile aufgeteilt worden wäre und die dritte Gruppe im Vorfeld eben kleine Werbegeschenke erhalten hätte. Man darf annehmen, daß der Verzerrungs-Effekt noch stärker gewesen und auch in der Studentengruppe von der Pennsylvania School of Medicine wirksam geworden wäre. Eine Erklärung liefert die sogenannte Reziprozitätsregel.
Reziprozität: Wer Geschenke erhält revanchiert sich mit Gegenleistungen…
Die Reziprozitätsregel bezieht sich auf das tief in uns verankerte Verhaltensmuster, das uns dazu motiviert auf bestimmte Leistungen, Gefälligkeiten oder Geschenke mit einer Gegenleistung zu reagieren. Sich für vergangene Leistungen oder Wohltätigkeiten von dritten Personen zu revanchieren ist durchaus sinnvoll; und wer sich dieser Norm konsequent widersetzt (also immer nur empfängt und niemals gibt) hat in allen Kulturen mit Sanktionen zu rechnen. Das perfide an diesem psychologischen Reaktionsmuster ist freilich, daß es unser Urteilsvermögen unterläuft, was sich die Marketingabteilungen natürlich zunutze machen.
Interessant ist dabei, daß die Reziprozitätsregel – wie Untersuchungen belegen (s.u.) – fast unabhängig von der Größe des “Geschenks” funktioniert. Auch die sprichwörtlichen kleinen Geschenke veranlassen den Beschenkten tendenziell zu einem revanchierenden Verhalten, das oftmals im Gegenwert unverhältnismäßig hoch ist.
Und ebenso spannend ist, daß dieser Mechanismus auch unabhängig davon funktioniert, ob man den Partner sympathisch findet. Ein Gefühl der Verpflichtung zur Gegenleistung entsteht dennoch.
David Klemperer, Professor für Sozialmedizin in Regensburg und Vorsitzender des Dt. Netzwerks Evidenzbasierte Medizin, schreibt in einem lesenswerten Beitrag (PDF):
“Das Problem der Beeinflussung durch Geschenke erkennen die meisten Ärzte zwar, allerdings sehen sie das Problem eher bei ihren Kollegen und halten sich selbst für immun gegenüber der Einflussnahme der Industrie. Ähnliches gilt für den Besuch von Pharmavertretern: je häufiger ein Arzt Pharmavertreter empfängt, desto höher ist zwar die Wahrscheinlichkeit, dass er die beworbenen Medikamente verschreibt, umso stärker ist er jedoch davon überzeugt, dass ihn der Pharmavertreter in seinem Verschreibungsverhalten nicht beeinflusst. Selbst wenn die Ärzte versuchen, objektiv zu sein, ist ihr Urteilsvermögen einer den Eigeninteressen folgenden Verzerrung unterworfen.”
Zusammenfassend: All die Kugelschreiber, Haftnotizen und andere Artikel, mit denen die Pharmafirmen die Ärzte beglücken, dienen einem wohlkalkulierten Zweck und sind – aus der Perspektive der Pharmaindustrie – sicherlich hocheffizient, was das Verhältnis von Investition und Ertrag angeht. Andere Leistungen, Gefälligkeiten und Annehmlichkeiten – das reicht von der Einladung zum gepflegten Abendessen am Abend des Fachkongresses bis zu anderen Vergünstigungen, mit denen die rund 20.000 Pharmavertreter gezielt Landschaftspflege betreiben – verpflichten den “Beschenkten” natürlich auch zu anderen Revancheleistungen.
Und was für normalsterbliche Ärzte gilt (daß sie nämlich auch der Reziprozitätsregel entsprechend handeln), gilt natürlich für Wissenschaftler genauso. Insofern sollte man sich also wirklich nicht wundern, daß industriefinanzierte Studien tendenziell häufiger solche Ergebnisse liefern, wie sie sich das finanzierende Unternehmen mutmaßlich vorgestellt hatte. Ganz ohne direkt Einfluß zu nehmen. Und ganz ohne die bewußte Verzerrung der Ergebnisse durch die Wissenschaftler. Subtile “Geschenke” und die Reziprozität machen das häufig von ganz allein.
Doch Linus Pauling ging einen Schritt weiter: für ihn war Vitamin C eine Allzweckwaffe gegen das Altern und gegen Krebs. Und Linus Pauling machte die Vitamine in der Öffentlichkeit und in der Wissenschaft so richtig populär. Täglich 18g Vitamin C – so lautete seine Empfehlung. In dieser extrem hohen Dosis, das steht heute fest, ist auch die Einnahme von Vitamin C keineswegs sinnvoll. Und in den letzten Jahren mehren sich die Zweifel, ob die Vitamine tatsächlich soviel Nutzen stiften. Möglicherweise sind – wie aktuelle Studien zeigen – sogar einige der grundlegenden Prämissen der Vitamin-Apostel falsch.
Perspektivwechsel: Der oxidative Stress ist gar nicht so “böse”
Weshalb wir altern und krank werden ist bis heute nur ansatzweise verstanden. Schon in den 50er Jahren war bekannt, daß der sog. “oxidative Stress” hierbei eine Rolle spielt. Immer dann, wenn innerhalb des Stoffwechsels durch die Mitochondrien mehr reaktive Sauerstoffverbindungen gebildet werden, als gleichzeitig oxidiert bzw. reduziert werden können, liegt ein Ungleichgewicht, oder eben: oxidativer Stress vor.
Das Problem an der Sache ist, daß die überzähligen freien Radikalen eben eine zellschädigende Wirkung entfalten. Genau das war zu Paulings Zeiten bekannt und das sollen – so die Hypothese – die Vitamine als Radikalfänger verhindern.
Und daß oxidativer Stress unerwünscht ist, daran besteht kaum Zweifel, wie man u.a. an dieser Abbildung aus einem aktuellen Lehrbuch (Hartig/Adolph: Ernährungs- und Infusionstherapie: : Standards für Klinik, Intensivstation und Ambulanz, Thieme-Verlag, 2004, S. 40) sehen kann.
Wie jedoch jüngere Studien an Ratten und Fadenwürmern nahelegen, ist der “oxidative Stress” keineswegs so zentral, wenn es um Alterungsprozesse geht. Beim Fadenwurm haben Forscher die Gene ausgeschaltet, die für den zelleigenen Reparaturprozeß zuständig sind (Bspw. SODs). Die Fadenwürmer wurden allerdings genauso alt, wie ihre Artgenossen.
David Gems vom Londoner University College, der seit Jahren zu diesen Fragen arbeitet, ist sich sicher, daß die Bedeutung des oxidativen Stresses überschätzt wurde. Er erklärt gegenüber der WELT:
“Je nachdem welchen Teil der Zelle man betrachtet und um welche Art Tier es sich handelt, kann ein Ausfall der SODs das Leben verkürzen oder nicht. Eines der Kennzeichen des Alterns ist, dass sich Schäden an den Molekülen häufen. Aber was verursacht diese Schäden? Nach dem, was wir jetzt wissen, kann Peroxid daran höchstens einen kleinen Anteil haben. Andere Faktoren, wie etwa chemische Reaktionen mit Zuckern, spielen dagegen ganz klar eine Rolle.”
Perspektivwechsel: Wie aus den “bösen” freien Radikalen plötzlich sinnvolle Akteure werden
Und ebenso, wie im Hinblick auf den oxidativen Stress und seine Rolle im Alterungsprozeß ein Umdenken stattfindet, werden momentan auch die freien Radikalen – wenigstens teilweise – rehabilitiert.
Für Christian Leeuwenburgh von der University of Florida steht fest, daß es ganz verschiedene Varianten von Radikalen gibt. Und nicht alle sind schädlich. Das legen auch die jüngsten Studien von Michael Ristow von der Universität Jena nahe; Ristow hat mit Kollegen aus Leipzig, Potsdam und von der Harvard Medical School eine Studie mit 39 Sportlern durchgeführt. Über vier Wochen hinweg wurden bestimmte Parameter bei den Probanden erhoben.
Wer Sport treibt und zusätzlich Vitaminpräparate einnimmt, der macht bestimmte positive Effekte wieder zunichte.
Die Ergebnisse sind hochinteressant, denn körperliche Beanspruchung hat u.a. zwei bekannte Effekte: erstens werden von den Mitochondrien vermehrt potentiell schädigende Sauerstoffradiale produziert. Zweitens verbessert regelmäßiger Sport den Blutzuckerstoffwechsel und damit das Diabetesrisiko.
Ristow und sein Team stellten nun allerdings fest, daß die Studienteilnehmer, die zusätzlich zu ihrem Sportprogramm noch Vitaminpräparate einnahmen, keine positiven Effekte auf ihren Insulinhaushalt erzielten. Für Ristow liegt auf der Hand, daß die Vitaminpräparate Schuld sind, da sie die wünschenswerten (Neben-)Effekte der freien Radikalen unterbinden. Offenbar – so die Erklärung der Wissenschaftler – ist eine gewisse Menge an oxidativem Stress notwendig, um bestimmte körpereigene Prozesse in Gang zu setzen. Die beim Sport freigesetzten Sauerstoffradikale wirken ganz ähnlich wie ein Impfstoff: sie mobilisieren die Körperabwehrkräfte, die gegen Radikale wirken. Ristows Fazit:
“Die gesundheitsfördernde Wirkung von körperlicher Bewegung wird durch die Einnahme von sogenannten Antioxidantien in Form von Vitamin C und E sogar unterdrückt.”
Damit mehren sich die Indizien dafür, daß die Einnahme von Vitaminpräparaten (von Ausnahmefällen abgesehen) sinnlos und im Einzelfall schädlich ist. Ähnliche Ergebnisse lieferten u.a. die großangelegten Meta-Studien von Goran Bjelakovic, der mehrmals ein höheres Krebsrisiko durch Vitamine konstatierte.
Zusammenfassend lässt sich feststellen, daß Obst und Gemüse offenbar so gesundheitsförderlich sind, nicht weil, sondern obwohl sie Vitamine und Antioxidantien enthalten. Und die teuren Vitaminpillen kann man sich getrost sparen.
Links:
Das Problem von Interessenskonflikten der Forscher und beteiligter Institutionen gibt es freilich nicht nur in der Medizin. Auch in anderen Disziplinen gilt die Regel, daß bei Publikationen, Vorträgen oder anderen Veröffentlichungen alle wirtschaftlichen und anderweitigen Interessenkonflikte offen gelegt werden müssen. Und das ist absolut das Mindeste, was man strenggenommen erwarten kann. Denn eine Verzerrung der (publizierten) Studienergebnisse findet beim Vorliegen von Interessenkonflikte ganz offensichtlich statt.
Bei 1/3 aller Krebsstudien liegen Interessenskonflikte vor
Ein Forscherteam um Reshma Jagsi von der University of Michigan hat insgesamt 1.534 Krebsstudien ausgewertet, die im Jahr 2006 in renommierten Peer-Review-Journals publiziert wurden.* Dabei stellten sie fest, daß in 29% aller Fälle ein Interessenkonflikt gegeben war. 17% der Studien waren direkt von der (Pharma-)Industrie finanziert, in 12% der Studien waren Firmen-Mitarbeiter direkt beteiligt.
Wenn Interessenkonflikte vorliegen, dann wirkt sich das auf Themenstellung und Ergebnisse der Studien aus.
Bei der Auswertung zeigte sich, daß – was kaum verwundern dürfte – die von der Industrie gesponserten Studien sehr häufig bestimmte Therapien zum Inhalt hatten (in 62% der Fälle). Die Untersuchung von Risikofaktoren, Präventionsmaßnahmen oder diagnostischen Methoden war allerdings überaus selten (20%) das Thema, während das bei den Studien ohne vorliegenden Interessenkonflikt bei 47% der Fall war.
Das ist für sich genommen eine Feststellung, die kaum verwundert. Denn daß für die Pharmafirmen nicht alle Fragestellungen gleichermaßen interessant sind, liegt auf der Hand.
Interessanter ist da schon ein weiterer Befund der Analyse: bei Studien, die u.a. die Überlebensrate bzw. Überlebenszeit als Endpunkt hatten, lieferten die Studien (mit Interessensverquickung der Forscher) deutlich positivere Ergebnisse. Kurz: sobald Pharmafirmen direkt oder indirekt an Krebsstudien beteiligt sind, steigt die Wahrscheinlichkeit, daß die Studie am Ende der fraglichen Behandlungsmethode (bzw. dem Medikament/Wirkstoff) einen Vorteil bescheinigt.**
Über die Faktoren, die zu diesen Verzerrungseffekten führen, kann man natürlich trefflich spekulieren. Reshma Jagsi stellt jedenfalls fest:
“A serious concern is individuals with conflicts of interest will either consciously or unconsciously be biased in their analyses. As researchers, we have an obligation to treat the data objectively and in an unbiased fashion. There may be some relationships that compromise a researcher’s ability to do that.”
Ist unabhängige medizinische Forschung möglich?
Die Problematik – vor allem im Bereich der klinischen Forschung – ist natürlich altbekannt. Auf der einen Seite steht die normative Forderung einer vollständig nüchternen, neutralen, ergebnisoffenen Forschung, auf der anderen Seite steht das Beziehungs- und Verpflichtungsnetz der beteiligten Akteure, die materielle und immaterielle Verbindungen zueinander haben.
Wer wundert sich wirklich über Verzerrungseffekte? Wissenschaft wird von Menschen gemacht.
Aber wer kann sich darüber wundern? Wissenschaft wird von Menschen gemacht. Und so sehr wir uns wünschen, daß die Forscher vollkommen unvoreingenommen an ihre Forschungstätigkeit herangehen, alle Untersuchungsschritte genaustens dokumentieren und analysieren und schließlich in transparenter Art und Weise die Ergebnisse publizieren, so gering sind die Chancen, daß ein solches “Forschungs-Ideal” Wirklichkeit werden kann.
Gerade in der Medizin sind Beratungstätigkeiten, bezahlte Vorträge bei Schulungen, Einladungen zu Konferenzen inkl. Honorar und Spesenübernahme und weitere Maßnahmen der Landschaftspflege an der Tagesordnung. Das (medizinische) Forscherteam, dessen Mitglieder zu keiner Zeit irgendwelche Zuwendungen von der Pharmaindustrie erhalten haben (sei es persönlich oder “nur” zur Finanzierung von Forschungsprojekten), muß erst noch zusammengestellt werden.
Und so braucht es den einzelnen Wissenschaftlern gar nicht bewußt zu sein, daß sie – und mit ihnen ihr fachliches Urteil und ihre Expertise – einem bestimmten Bias unterliegen. Die Vokabel Käuflichkeit muß man in diesem Zusammenhang auch gar nicht unbedingt bemühen. Befangenheit wirkt – auch wenn man sie gar nicht spüren und wahrhaben will. Und diejenigen, die sich wirklich befangen fühlen, die geben wohl – wie man bspw. am Fall von Scott Reuben sehen kann – erst gar nicht alle Interessenkonflikte an.
Quelle:
* Die ausgewerteten Journals waren: New England Journal of Medicine; JAMA; the Lancet; the Journal of Clinical Oncology; the Journal of the National Cancer Institute; Lancet Oncology; Clinical Cancer Research; and CANCER.
** Leider liegt der Artikel bislang online nicht vor (jedenfalls wurde ich nicht fündig.)
*** Oder zynisch: ein finanzieller Einsatz der Pharmaindustrie erhöht die Überlebenswahrscheinlichkeit der Studienteilnehmer.
Der Platz ganz oben auf dem Treppchen ist freilich begrenzt; da trifft es sich gut, daß es das Universitäts-Ranking des CHE gibt. Das produziert – wie man lesen kann – eigentlich ausschließlich Gewinner.
Man könnte eine ganze Artikelserie verfassen, in der man die einzelnen Aspekte darstellt, die das Wissenschaftssystem als Wettbewerbssystem kennzeichnen. Da gibt es den Wettlauf der Forscher untereinander: ganz egal ob es um die Publikation von Papers in den relevanten Journals geht oder um die Konkurrenz um Mitarbeiterstellen oder Professuren.
Höher, schneller, weiter…?
Ganz ähnlich geht es zwischen einzelnen Forscherteams oder Instituten zu, die beispielsweise um Forschungsgelder konkurrieren oder eben versuchen als Erster das Ziel zu erreichen (etwa den Nachweis des Higgs-Boson, um den das europäische LHC und das Fermilab in den USA wetteifern).
Und ganz genauso stehen die Universitäten in Konkurrenz zu einander. In Konkurrenz um die motiviertesten Studenten, um die besten Dozenten oder wenn es mal wieder um das Prädikat einer Exzellenzuniversität geht.
Klar ist: wenn es einen Wettbewerb gibt, so gibt es am Ende Sieger und Verlierer. Umso erfreulicher ist da das heute erschienene Universitäts-Ranking, das seit 1998 vom CHE (Centrum für Hochschulentwicklung) erstellt und in Kooperation mit der ZEIT veröffentlicht wird.
Das CHE-Ranking
Die Untersuchung ist die größte ihrer Art im deutschsprachigen Raum. Es werden etwa 300 Universitäten und Fachhochschulen in Deutschland, sowie in Österreich, Schweiz und den Niederlanden bewertet. Die Kriterien reichen von Forschungsreputation der Hochschule im jeweiligen Fach über die Bibliotheksausstattung bis zur Betreuungssituation.
Aktuell gab es eine Neuauflage des Rankings für die Fächer: Medizin, Zahnmedizin, Pharmazie, Pflege, Biologie, Chemie, Physik, Geowissenschaften, Geografie, Mathematik, Informatik und Sportwissenschaften.
Festtag für die Universitäts-Presseabteilungen: Das CHE-Ranking bescheinigt allen Unis fabelhafte Leistungen. Irgendwo. Man muß nur genau hinschauen…
Und die Ergebnisse haben offenbar in dutzenden Universitäten für Jubel gesorgt; wobei: vermutlich waren es eher die Mitarbeiter der universitätseigenen Pressestellen, die über alle Maßen begeistert waren. Denn aus den ziemlich wachsweichen Ergebnissen des CHE-Rankings läßt sich – wenn man sich Mühe gibt – immer ein positives Ergebnis für die eigene Hochschule ableiten.
Gestern und heute habe ich dutzende Pressemitteilungen erhalten, in denen sich die akademischen PR-Profis kaum mehr einkriegen vor lauter Freude. Von Spitzenpositionen im CHE-Ranking ist die Rede oder daß man erneut seine Exzellenz bescheinigt bekommen habe.
Sollte man sich gerade für ein Studium und eine bestimmte Uni entscheiden müssen, so lohnt sicher ein Blick in das CHE-Ranking. Insgesamt erscheint es mir aber eher als Steilvorlage für eifrige Mitarbeiter der Universitäts-Pressestellen.
Oder anders formuliert: So schlecht kann eine Uni gar nicht sein, als daß man aus dem CHE-Ranking nicht doch eine Erfolgsmeldung basteln könnte.
Beweise gefällig?
So ist das. Bei allen anderen deutschen Unis, die nicht oben aufgeführt sind, hatte die Pressestelle heute vermutlich Betriebsausflug.
So müssen Studien sein: alle Beteiligten können irgendein positives Ergebnis rauslesen und in die Welt posaunen. Überall Gewinner. Schön.
Jetzt ist es dafür zu spät: Forscher der Harvard University haben eine interessante Studie zur Physik des Regentropfens vorgelegt.
Ich finde es ja ganz wunderbar, wenn Wissenschaft alltägliche Phänomene genauer unter die Lupe nimmt und dabei – das ist dann natürlich ganz besonders spannend – feststellt, daß sich die Dinge letztlich doch anders verhalten als gedacht. Und Regentropfen sind hier ganz besonders geeignete Kandidaten. Woran das wohl liegt?
Gibt es die Tropfenform wirklich?
Letztes Jahr verblüffte mich ja Frank vom weatherlog mit seinen Erläuterungen zur Form der Regentropfen. Denn mit der klassisch-idealisierten Tropfenform, die sich ja eher wie eine Träne aussieht, hat die fast gar nichts zu tun.
Zwei physikalische Kräfte (einerseits die Oberflächenspannung des Wassers, andererseits der Luftwiderstand) sind dafür verantwortlich, daß der gemeine Regentropfen (aspergo vulgaris) eher in Sandwich-Form durch die Luft saust.
Und heute stellt Jürgen Schönstein die Frage aller Fragen: Lohnt es sich bei einem Regenschauer zur nächsten Unterstellmöglichkeit zu rennen? Bietet man im Sprinttempo nicht viel mehr Angriffsfläche? Oder bleibt man am Ende doch trockener, wenn man losrennt?
Wie kommt man halbwegs trocken durch den Regenguß?
Die Antwort kann ich hier natürlich nicht verraten; um die optimale Strategie für den nächsten Regenschauer zu haben, muß man schon zu Jürgen rüberklicken. Zum Trost habe ich allerdings die Antwort auf die eingangs gestellte Frage parat: “Zerplatzen die Regentropfen eigentlich am Boden?”
Ehrlicherweise klingt die Frage etwas seltsam. Denn wo bitteschön sollten die Tropfen denn sonst zerplatzen, zerstäuben, zerspringen? Die Antwort haben Shreyas Mandre und Kollegen nun u.a. mittels Computersimulationen gefunden. Die relevanten Kräfte sind wieder einmal die Oberflächenspannung und der Luftwiderstand.
Die Physik des Regentropfenaufpralls
Und der Luftwiderstand und die Fallgeschwindigkeit führen zunächst dazu, daß die Tropfen (wie oben erläutert) als Sandwich heruntersausen. Und dann, einige Mikrosekunden vor dem eigentlichen Aufschlag bildet sich zwischen Tropfen und Oberfläche ein Luftpolster, das dann (siehe Fallgeschwindigkeit) so komprimiert wird, daß der Regentropfen zerplatzt bevor (!) er mit dem Boden bzw. der Oberfläche Kontakt hat. Die Autoren schreiben:
We demonstrate that, neglecting intermolecular forces between the liquid and the solid, the liquid does not contact the solid, and instead spreads on a very thin air film.
Gleichzeitig sei dieses Phänomen (also dieses winzige Luftpolster zwischen Tropfen und Oberfläche zum Zeitpunkt des Zerplatzens) auch der Grund dafür, daß die Tropfen häufig mit der charakteristischen Krönchenform zerspringen.
Ich werde in Zukunft das Prasseln der Regentropfen mit anderen Augen sehen.
Links:
Aber wie kommen wir überhaupt auf diesen Gedanken? Es ist doch kaum 48 Stunden her, als wir diesen Begriff “Schweinegrippe” zum ersten mal hörten! Und schon ist der Begriff zur Chiffre eines relevanten, diskussionswürdigen und schlagzeilenfüllenden “Risikos” geworden. Aber wovon reden wir eigentlich, wenn wir von Risiken sprechen?
Globale, mediale Risikogesellschaft
Der aktuelle Fall, also die Meldungen über die Schweinegrippe in Mexiko und den USA, illustriert einmal mehr zwei grundlegende Sachverhalte: erstens leben wir im Horizont globaler Risiken, zweitens ist diese Risikogesellschaft ein Medienereignis.
Niklas Luhmann, der Bielefelder Soziologe und Gesellschaftsanalytiker, brachte den zweiten Aspekt folgendermaßen zum Ausdruck:
“Was wir über unsere Gesellschaft, ja über die Welt, in der wir leben, wissen, wissen wir durch die Massenmedien.”1
Gut, heute müßte man diese Aussage möglicherweise in der Hinsicht differenzieren, als daß sich neue Medienformate – wie etwa Blogs oder Twitter – etabliert haben, die nicht uneingeschränkt als Massenmedien bezeichnet werden können. Aber auch wenn man in Luhmanns Zitat Massenmedien streicht, so ist seine Feststellung keineswegs trivial.
Denn wie eingangs erwähnt: Weshalb sorgt das auffällige Husten des Nebenmanns im dichtgedrängten Bus heute für irritiert-hektische Blicke, wo doch derselbe soziale Sachverhalt (=Husten) noch vor wenigen Tagen vollkommen irrelevant geblieben wäre?
Eben! Die Information aus den Medien, die über die Schweinegrippe berichten und uns darüber informieren, daß mittlerweile Europa erreicht wurde, führt dazu, daß ein profanes Husten plötzlich andere Anschlußhandlungen nach sich zieht. Denn wer weiß schon, ob der hustende Nachbar nicht gestern von seiner Fernreise aus Mexiko zurückgekehrt ist…?
Feine Unterschiede: Gefahren und Risiken
Der globale Nachrichtenfluß, der in Echtzeit über alle verfügbaren Kanäle zu uns vordringt, führt im Ergebnis dazu, daß wir – wie im aktuellen Fall – im Horizont globaler Risiken leben. Wobei hier genau zu unterscheiden ist: Risiken und Gefahren sind nämlich nicht identisch!
Die sozialwissenschaftliche Forschung hat in der Analyse des Umgangs mit unsicheren Zukünften auch bestimmte terminologische Unterscheidungen eingeführt, die durchaus interessant sind. Im Hintergrund steht ein gemeinsamer Sachverhalt: der Eintritt von Schadensereignissen in der Zukunft. Die Frage also, ob die Schweinegrippe tätsächlich eine Pandemie wird, wer davon betroffen sein wird, wieviele Opfer es geben wird, ob wir selbst dazu gehören etc.
In der Gegenwart lassen sich hier aber zwei Aspekte bzw. Dimensionen unterscheiden: Risiko und Gefahr. Die Unterscheidung (die man nicht verabsolutieren sollte, aber sie leistet in der Analyse von Risikophänomenen gute Dienste) geht u.a. wieder auf Niklas Luhmann zurück, der in gewisser Weise die fremd- und selbstreferentielle Dimension unterschieden hat. Er schrieb:
“Wenn etwaige zukünftige Schäden (…) auf Entscheidungen zugerechnet werden, geht man (…) ein Risiko ein; Schäden, die außerhalb dieses Einflußbereiches liegen, werden, solange sie noch unsicher sind, als Gefahr angesehen.” 2
Alle negativen Ereignisse, die wir infolge (bewußter) Entscheidungen eingehen, sind also in diesem Sinne als Risiken zu bezeichnen. Risiko ist also die In-Kaufnahme potentieller Schädigungen, zu Gunsten konkreter Nutzenerwartungen. Konkret: Wer heute zu einem Badeurlaub nach Mexiko reist, handelt riskant.
Im Unterschied dazu gibt es bei Gefahren keine Entscheidungsmöglichkeit in der Gegenwart. Die (künftigen) Betroffenen können also den Schadenseintritt nicht auf zurückliegende Entscheidungen zurechnen, oder anders: mangels Entscheidungsalternativen oder Wissen, kann man im Fall einer Gefahr nicht ausweichen. Und konkret: wenn mich der besagte, Mexikotourist in der Münchner U-Bahn heute auf dem Nachhauseweg anhustet, so kommt hier die Gefahrendimension zum Ausdruck. Noch konkreter: die U-Bahnfahrt in Zeiten globalen Massentourismus ist gefährlich.
Transformationen: Wie Gefahren zu Risiken werden können,
oder: Wenn die Schweinegrippe in Europa ankommt
Und daß diese Gefahr konkret werden und sich möglicherweise schnell in ein Risiko verwandeln kann, wird deutlich, wenn man sich vor Augen führt, was passiert, wenn tatsächlich in den nächsten Tagen einige Fälle der Schweinegrippe in Europa auftreten sollten. (Der erste Fall in Spanien ist schon vermeldet.)
Dann also – versorgt durch das Wissen der Medien – ist plötzlich auch die U-Bahnfahrt riskant. Denn dann muß ich damit rechnen, angesteckt zu werden. Es ist meine Sache, wie ich mich hier verhalte.
Ich für meinen Teil fahre lieber mit dem Rad. Was natürlich – in anderer Hinsicht – ebenfalls ein risikobehaftetes Unterfangen ist.
Auf dieser Karte sind die Verdachtsfälle und die bestätigten Fälle der Schweinegrippe verzeichnet:
View 2009 Swine Flu (H1N1) Outbreak Map in a larger map
Mehr zur Schweinegrippe auf ScienceBlogs:
Fußnoten:
1 Niklas Luhmann. Die Realität der Massenmedien. Opladen 1996, S. 9
2 Niklas Luhmann: Risiko und Gefahr, in: Soziologische Aufklärung 5, S. 141
Manche Zwischenfälle sind natürlich unvermeidlich, viel zu viele Pannen gehen allerdings auf die Rechnung eines mangelhaften Qualitätsmanagements in den Krankenhäusern. Eine aktuelle internationale Studie zur Behandlungsqualität auf Intensivstationen liefert nun wieder einmal ein beunruhigendes Ergebnis: nur bei zwei Dritteln der Patienten lief die Medikamentengabe ohne Pannen ab.
Internationale Studie zur Qualität der intensivmedizinischen Behandlung
Vor wenigen Tagen publizierte ein Team um den Intensivmediziner Andreas Valentin die Ergebnisse einer großangelegten Studie. Für die Sentinel Events Evaluation-II (SEE-2)-Studie wurde im Jahr 2007 das Personal von 113 Intensivstationen in 27 Ländern befragt, darunter neun Stationen aus Deutschland.
Die Ärzte und das Intensivpflegepersonal mußte dazu alle Fehler dokumentieren, die innerhalb eines einzigen Tages im Zusammenhang mit der Medikamentenverabreichung passieren. Die Ergebnisse, die im “British Medical Journal” publiziert wurden, sind Grund genug, um über die Qualitätsstandards in Kliniken zu reden:
Innerhalb von 24 Stunden wurden bei 1328 Patienten genau 861 Fehler gemacht.
Innerhalb der fraglichen 24 Stunden ereigneten sich 861 Fehler bei 441 von 1.328 Patienten. Im Abstand von 1:40 Minute folgt Panne auf Panne. Somit waren 33% der Patienten von Medikamentenfehlern betroffen. Bei 250 Patienten trat jeweils ein Fehler auf, bei 191 Patienten mehr als einer.
Zwölf Patienten trugen durch Fehler der Intensivbetreuer bleibende Schäden davon oder starben. Das sind also 0.9% der Intensivpatienten. Zu viele, wenn man bedenkt, daß es absolut vermeidbare Pannen waren: Medikamente wurden gar nicht oder in falscher Dosierung verabreicht, teilweise wurden falsche Medikamente gegeben oder es unterliefen Fehler, was den Applikationsweg angeht.
Gefährliche Routine
Nach Selbsteinschätzung der befragten Ärzte und Schwestern sind die meisten Fehler auf zu hohe Arbeitsbelastung, Stress oder Ermüdung zurückzuführen. Allerdings – das ist eine interessante Beobachtung – gab es bei Notfallbehandlungen relativ wenige Fehler. Die Fehlerwahrscheinlichkeit steigt, je gleichförmiger die Arbeitsabläufe sind. Es gibt also tatsächlich so etwas wie ein tödliche Routine.
Um die Studie nochmal zusammenzufassen: jeder dritte Patient war von Fehlern im Zusammenhang mit der Medikamentation betroffen. Für 1% hatten diese Pannen schwere, teilweise tödliche Folgen.
Keine Fehlerkultur
Michael Zenz und Thomas Weiß vom Uniklinikum Bergmannsheil in Bochum ergänzen, wie die SZ meldet, in einem Kommentar im Ärzteblatt, daß bei solchen Stationen, die ein Fehlermeldesystem eingeführt haben, die Fehlerhäufigkeit deutlich reduziert werden konnte.
“Anscheinend ist die Kultur im Umgang mit Fehlern ein wichtiger Faktor, der die Sicherheit erhöht.”
So die Aussage von Michael Zenz und Thomas Weiß.
Weshalb gibt es kein verpflichtendes System zum Umgang mit Fehlern im Gesundheitssystem?
Die Frage ist: Weshalb ist ein solches System nicht obligatorisch? Denn ein Fehlermeldesystem, das auf Optimierung der Kommunikations- und Arbeitsabläuge abzielte, würde ja nicht nur helfen, die oben skizzierten Medikamentationsfehler zu reduzieren. Denn – wie man aus anderen Studien weiß – gibt es natürlich eine ganze Palette weiterer Pannen und Mißgeschicke, die im Klinikalltag insgesamt die Quote der vermeidbaren (!) Todesfälle oder Schädigungen deutlich nach oben treiben.
Das beginnt mit Nachlässigkeiten bei der Diagnose, geht weiter mit haarsträubenden Pannen bei der Narkose und reicht bis zu vollkommen unverständlichen Schlampereien, was Hygienestandards angeht. Und manchmal sind es schlicht hingeschmierte und mißverständliche Abkürzungen oder Notizen, die Ausgangspunkt für Fehler mit tragischem Ausgang sind…
Fehler zu machen ist eine Sache, nichts aus ihnen zu lernen, eine andere.
Zugegeben: Es ist eine Binsenweisheit, daß sich die entscheidenden Dinge im Kopf abspielen. Das gilt für den sportlichen Wettkampf genauso, wie für das Kochen oder den Sex. Dennoch wirft eine aktuelle Studie über den leistungssteigernden Effekt von Energydrinks ein interessantes Licht auf die Art und Weise, wie wir – im Sport, in der Küche oder im Bett – funktionieren.
Dem leistungsfördernden Effekt von Energydrinks auf der Spur
Die Sportmediziner Edward S. Chambers, Matt W. Bridge und David A. Jones von der Uni Birmingham haben für ihre kleine Studie eine interessante Versuchsanordnung gewählt. Als Probanden wählten sie gut trainierte Radfahrer, die ein Zeitfahren absolvieren mußten. Den Radfahrern stellten sie dabei drei Getränke zur Verfügung: einmal einen zuckrigen Glukose-Drink, das andere mal einen Mix aus Wasser und Maltodextrin (also einem Kohlenhydrat), das dritte mal gab es pures Wasser. Allerdings schmeckten – dank künstlichem Süßstoff – alle drei Getränke gleich.
Allerdings durften die Radfahrer diese Pseudo-Energydrinks nicht wirklich trinken, sondern durften nur ihren Mund damit ausspülen. Das erstaunliche Ergebnis: die Leistungsfähigkeit unter Einnahme der beiden zuckrigen bzw. kohlehydrathaltigen Drinks war signifikant höher, als unter der Placebo-Lösung.
Energydrinks nutzen auch dann, wenn man sie sofort wieder ausspuckt
Das heißt also nichts anderes, als daß Energy- oder Elektrolytdrinks auch dann wirken, wenn man sie sofort wieder ausspuckt. Das Forscherteam um Ed Chambers stellt fest:
“Die Wirkung von Kohlehydraten in Energydrinks besteht vor allem darin, dass sie Signale direkt ins Gehirn senden und weniger darin, dass sie Energie für die Muskeln liefern.”
Um diesem Verdacht nachzugehen, haben sie mittels funktioneller Magnetresonanztomographie die Hirnaktivität der Sportler untersucht, während sie die verschiedenen Energydrinks zu sich nahmen (und wieder ausspuckten). Dabei zeigte sich, daß kurze Zeit nach den Mundspülungen mit Glukose und Maltodextrin die Belohnungszentren des Gehirns aktiviert wurden.
“Mentale” Leistungsreserven anzapfen
Die naheliegende Schlußfolgerung lautet: Die – bislang noch unbekannten – Rezeptoren im Mund- und Rachenraum melden dem Gehirn die Versorgung mit wertvollen Energieträgern. Das Gehirn “bedankt” sich mit der Ausschüttung bestimmter Hormone. In der Folge fühlen sich diese Sportler wenig angestrengt und mobilisieren so zusätzliche muskuläre Kraftreserven, die Konkurrenten (weil sie sich bereits hinreichend erschöpft fühlen) erst gar nicht angreifen.
Sport-Drinks nutzen auch, wenn man sie ausspuckt. Denn nicht die vermeintlich klar vorgebene physische Leistungsfähigkeit ist der limitierende Faktor, sondern das kognitive System.
Diese Befunde illustrieren wieder einmal, wie zentral die Bedeutung des Gehirns ist. Nicht die vermeintlich klar vorgebene physische Leistungsfähigkeit (was vereinfacht die Organsysteme Herz, Lunge und Muskelsystem umfasst) ist der limitierende Faktor, sondern doch das kognitive System. Oder eben die mentale Leistungsfähigkeit.
Und Sieger wissen ganz offenbar, wie man es anstellt, um sich selbst bzw. sein Gehirn “auszutricksen” – wobei Energydrinks im Leistungssport sowieso an der Tagesordnung sind. Insofern hat keiner der Topathleten dadurch einen wirklichen Vorteil. Aber es gibt natürlich auch andere Tricks, um sich selbst und den allzu schnell ermüdenden Organismus zu überlisten.
Aber kurz der Reihe nach: die Schwalben, die übrigens zur Familie der Sperlingsvögel gehören, sind gleich mehrmals in Wetterregeln bedacht. Eine davon ist richtig, die andere hat sich nun durch eine Beobachtungsstudie von Ornithologen als falsch herausgestellt.
Mehrere Schwalben machen doch den Sommer
Jedes Kind kennt das Sprichwort, wonach eine Schwalbe noch keinen Sommer macht. Und das ist vollkommen richtig, denn die Rückkehr der Schwalben aus ihrem Winterquartier vollzieht sich nicht schubweise, sondern als langer Prozeß. Die ersten Schwalben kehren meist schon Anfang bis Mitte Februar an ihre Brutplätze zurück. Die Rede vom Sommer ist da sicher nicht angebracht. In den folgenden Wochen werden es natürlich immer mehr. Und dann rund um den 25. März (Marienverkündigung) sind die Schwalben in nennenswerter Anzahl wieder bei uns anzutreffen.
Es läßt sich also durchaus sagen, daß zwar eine Schwalbe noch keinen Sommer macht, mehrere Schwalben aber sehr wohl.
Was sagen uns hochfliegende oder tieffliegende Schwalben?
Die andere prominente Wetterregel, die die Flughöhe der Schwalben berücksichtigt, ist aber definitiv falsch, wie nun eine kleine Studie zeigt. Die Regel lautet sinngemäß:
“Fliegt die Schwalbe hoch, wird das Wetter schöner noch, fliegt die Schwalbe nieder, kommt grobes Wetter wieder”
Das ist allerdings Blödsinn. Auch wenn für die oben ausgeführte Bauernregel hübsche (und durchaus plausible) Erklärungen kursieren. Hintergrund ist der Umstand, daß Schwalben Insektenjäger sind, die sie im Flug erbeuten. Nun ist es schlicht so, daß bei sonnigem Wetter die warme Luft aufsteigt und mit ihr auch kleinere Insekten. Das – so die konventionelle Erklärung – sei der Grund, weshalb die Schwalben bei gutem Wetter in der Höhe zu sehen seien.
Im Prinzip seien es also die Insekten, die das Wetter “anzeigen”. Denn wenn die Luft feuchter und der Wind stärker werde, dann fliegen die Insekten wieder niedriger und werden von den Schwalben verfolgt.
Die Bauernregel widerspricht der Beobachtung der Ornithologen
Peter Biedermann von der Universität Bern und Martin Kärcher von der University of Sheffield haben jetzt aber schlechte Nachrichten für die Liebhaber dieser einleuchtenden Bauernregel. Sie haben nämlich das Flugverhalten und die Flughöhen von Rauch- und Mehlschwalben analysiert (dabei deren Flughöhen recht genau anhand von Luft- bzw. Wetterballons abgeschätzt).
Rauch- und Mehlschwalben sind die häufisten Schwalbenarten und im Ergebnis stellten Biedermann und Kärcher fest: die Flughöhe hängt sehr stark von zufälligen Faktoren ab (je nachdem, wo Insektenschwärme auftreten) und ist von der Schwalbenart abhängig. Denn: während Mehlschwalben sehr häufig in Höhen von 30-40 Metern umherfliegen, sind die Rauchschwalben überwiegend in niedrigen Höhen unterwegs. Und insgesamt kommen sie zum Ergebnis:
“Unsere Ergebnisse zeigten, dass beide Arten bei schlechtem Wetter in größerer Höhe flogen als bei Schönwetter.”
Ein ernüchterndes Fazit für alle Schwalben-Wettervorhersagefans. Aber ich finde es ja jedesmal schön, wenn Vorurteile auf diese Weise zurechtgerückt werden. Nun bin ich nur noch gespannt, wie lange es dauert, bis die olle Regel mit dem Federvieh und dem Mist entzaubert wird.
Und doch ist es manchmal ganz nett, wenn man diesen Sachverhalt wieder in aller Deutlichkeit vor Augen geführt bekommt. Wie am Beispiel dieser unverdächtigen Allensbach-Studie zum Stellenwert der Evolutionslehre in der Gesellschaft…
Allensbach-Befragung zur Evolutionslehre
Ganz kurz zum Gegenstand: das Allensbacher Institut für Demoskopie hat vor wenigen Wochen insgesamt 1800 Bundesbürger befragt, ob ihnen erstens die auf Charles Darwin zurückgehende Erklärung für die Entstehung der Arten bekannt ist und zweitens, ob sie dementsprechend glauben, daß Affe und Mensch gemeinsame Vorfahren haben.
63% der Bundesbürger halten Darwins Lehre über die Entstehung der Arten für zutreffend
Das Ergebnis der Befragung: Immerhin 63 Prozent (in Westdeutschland 61 Prozent, in Ostdeutschland 72 Prozent) sind davon überzeugt, dass die Evolutionslehre richtig ist. 18 Prozent der Bevölkerung bezweifeln diese These. 19 Prozent verhalten sich unentschieden zu Darwins Lehre. Unter den Katholiken fällt – was wenig verwundert – die Zustimmung zur Evolutionslehre etwas geringer aus: nur 53 Prozent halten sie für zutreffend.
Eigentlich sollte man meinen, daß eine Meldung über diese kleine Befragung kaum Spielraum für großartige Verzerrung bietet. Oder etwa doch?
Wie Schlagzeilen die Nachricht präformieren
Wie leicht sich – allein durch die Auswahl der Überschrift – die Meldung in eine bestimmte Richtung drehen läßt, zeigt sich, wenn man die jeweilige Nachricht von Süddeutscher Zeitung und Focus-Online gegenüberstellt.
Süddeutsche.de vermeldet heute früh ganz selbstverständlich:
Naja, die 63% Zustimmung sind ja (wenigstens im Vergleich zu anderen Ländern) halbwegs passabel. Und vor allem im zeitlichen Verlauf wird deutlich, daß die Evolutionslehre immer mehr Anhänger findet: 1970 waren es gerade mal 38%, die sich mit dem Gedanken anfreunden konnten, daß es eine gemeinsame Ahnenreihe von Mensch und Affe gibt. 1988 waren es immerhin schon 48% und heute vermelden wir eben den Anstieg auf 63%.
Insofern leuchtet die Schlagzeile ein: “Immer mehr von Charles Darwins Theorien überzeugt”. Klarer Fall, oder?
Gleicher Gegenstand, andere Nachricht
Nicht so ganz, wenn man sich dieselbe Meldung bei Focus-Online ansieht. Denn bei den Kollegen bekommt die Story einen etwas anderen Dreh:
Nicht schlecht, oder? Aber irgendwie liest sich das ganz anders, als bei der Süddeutschen. Hmmm…? Aber falsch ist die Sache freilich auch nicht. Es kommt einfach darauf an, wie man es sieht.
Ist das Glas nun halb voll oder halb leer? Sind es nun die verbliebenen Zweifler oder die steigende Zahl an Darwin-Fans, die die Nachricht machen? Und welche Nachricht blieb den Lesern von SZ im Gedächtnis? Welche Botschaft haben die Focus-Leser erhalten?
Eine Meldung und verschiedene Informationsgehalte. Niklas Luhmann – und wer sollte am Großmeister der Soziologie zweifeln – wußte:
“Was wir über unsere Gesellschaft, ja über die Welt, in der wir leben, wissen, wissen wir durch die Massenmedien.” *
Die Massenmedien “machen” die Welt. Durch Schlagzeilen beispielsweise. Und nun wissen wir immerhin, daß Süddeutsche- und Focus-Leser in anderen Welten leben…
* Niklas Luhmann. Die Realität der Massenmedien. Opladen, 1996. S.9.
Vor wenigen Tagen hat Reuben zugegeben, daß er in den vergangenen zwölf Jahren zahlreiche klinische Studien, die in namhaften Fachjournals publiziert wurden, erfunden, herbeiphantasiert oder schlicht: gefälscht hat. So wird die Liste der medizinischen Felix Krulls und Fälscher also um einen Namen länger. Dort stehen bislang etwa der deutsche Krebsforscher Friedhelm Herrmann oder der koreanische Klon-Superstar Hwang Woo-Suk. Und wieder stellt sich die Frage, wie die Fälschungen und Täuschungsmanöver von Reuben über so lange Jahre hinweg unentdeckt bleiben konnten.
Scharlatan oder Pionier der Schmerztherapie?
Denn es war keineswegs irgendeine Nische, irgendein unwesentliches Randthema, mit dem sich Reuben befasste. Als Anästhesist beschäftigte er sich mit neuen Ansätzen in der Schmerztherapie und war seit spätestens 2000 maßgeblich am Erfolg der sog. COX-2-Hemmer beteiligt.
Bis dato standen die klassischen nichtsteroidalen Antirheumatika (u.a. Ibuprofen oder Diclofenac) hoch im Kurs. Als jedoch – u.a. mit vermeintlich besserer Magenverträglichkeit – eine neue Generation von Schmerzmedikamenten zur Verfügung stand, war es allen voran Scott Reuben, der mit seinen Studien den Beleg für deren Überlegenheit lieferte.
Reuben, der noch 2007 in Fachzeitschriften als Pionier und Wegbereiter einer neuen Ära der Schmerzmedikamentation gefeiert wurde, empfahl etwa die OP-begleitende kombinierte Gabe von COX-2-Hemmern (etwa Vioxx, Celebrex oder Bextra) und bspw. des Antikonvulsivums Gabapentin. Basis waren seine Studien, die als “sorgfältig geplant” und “akribisch dokumentiert” gelobt wurden. Publiziert wurden sie in angesehenen Journals wie Anesthesiology, Anesthesia and Analgesia oder Journal of Clinical Anesthesia.
Immer wieder Pfizer…
Da verwunderte es offenbar weder, daß das von Reuben doch so heftig empfohlene Vioxx im Jahr 2004 wegen unabweisbarer Sicherheitsbedenken vom Markt genommen werden mußte. Noch irritierte offenbar, daß Reuben in schönster Regelmäßigkeit Produkte aus der Angebotspalette das Pharmariesen Pfizer als Mittel der Wahl präsentierte. In mehreren Studien hatte er bspw. den kombinierten Einsatz von Celecoxib (Celebrex®) und des Antikonvulsivums Pregabalin (Lyrica®) als hocheffektiv gepriesen.
Die Fabrikation von Erkenntnis
Der Schönheitsfehler an der Sache: Scott Reuben hat in mindestens 21 Fällen schlicht geflunkert, gelogen und wissenschaftliche Fachartikel zusammengebastelt, für die er keine Datenbasis hatte. Die Beobachtungsstudien, über die er Rechenschaft ablegte, gab es nie. Die auf diese Weise behandelnden Patienten? Nichts außer Kopfgeburten des Dr. R.
Reuben treibt die “Fabrikation von Erkenntnis” auf die Spitze
Eine erstaunlich dreiste Art einer “Fabrikation von Erkenntnis“, an die die Wissenschaftssoziologin Karin Knorr-Cetina in ihrem Buch kaum gedacht haben dürfte. Und – wie es eben so ist: wenn ein bestimmtes Wissen einmal in der (Fach-)Welt ist, so hat dieses Wissen bestimmte Folgen. Es wird anschlußfähig und produziert Folgehandlungen.
In diesem Fall stehen die erfundenden (!) Studien von Scott Reuben am Anfangspunkt; in der Folge wurden hunderttausende, vielleicht gar Millionen Patienten gemäß dieser Empfehlungen ganz real behandelt.
Steven Shafer, Chefredakteur des Fachjournals “Anesthesia & Analgesia”, erklärt:
“Wir sprechen hier wohlgemerkt von Millionen Patienten weltweit, deren postoperatives Schmerzmanagement auf den Studien von Dr. Reuben basierte”.
Und wir sprechen von vielen Milliarden US-Dollar, die die entsprechenden Pharmafirmen in den letzten Jahren mit den entsprechenden Medikamenten erlöst haben. Da kann es kaum verwundern, daß inzwischen auch bekannt wurde, daß Scott S. Reuben ausgesprochen gute Verbindungen zu Pfizer unterhielt; u.a. fünf Forschungsstipendien wurden ihm in den letzten Jahren vom Pharmamulti finanziert. Ein gutes Geschäft, wenngleich Reuben jetzt aus dem Spiel ist.
Was motivierte Reuben zu seinen gefaketen Studien? War es Geld, Gefälligkeit, Ehrgeiz…?
Eine Routineüberprüfung seiner eigenen Klinik hatte das Studien-Lügengebäude jetzt zum Einstürzen gebracht: er hatte versäumt, sich für zwei seiner Patientenstudien eine interne Durchführungsgenehmigung geben zu lassen. Dieses Versäumnis sorgte für Nachfragen, weitere Ungereimtheiten traten zu Tage…
Und doch stellt sich die Frage, wie Reuben über zwölf Jahre hinweg immer wieder neue Fake-Studien publizieren konnte. Und es stellt sich auch die Frage, wie jetzt mit dieser Information über den “Fall Reuben” umgegangen wird – denn natürlich werden in aller Welt Patienten im guten Glauben an die Expertise und Rechtschaffenheit Reubens behandelt. Vielleicht sollte man doch noch einmal nachprüfen, ob seine therapeutischen Empfehlungen tatsächlich belastbar sind…
Randnotiz: Erstaunlich – das nebenbei gemerkt – daß dieser gravierende Fall wissenschaftlichen Fehlverhaltens in den deutschen Medien bislang schlicht ignoriert wird. Auf “3vor10” hatte ich bereits vergangenen Freitag auf Reubens Fall hingewiesen.
Deutsches Obst und Gemüse ist gesund! So jedenfalls das Fazit der Experten des Bundesamts für Verbraucherschutz und Lebensmittelsicherheit (BVL) für das Jahr 2007. Fast 18.000 Obst- und Gemüseproben wurden auf Rückstände von Pflanzenschutzmitteln getestet und gerade einmal 2,7% der Produktproben überschritten die strengen gesetzlichen Höchstwerte. Klingt gut und beruhigend, jedenfalls solange man sich nicht an Analyse-Ergebnisse des Lebensmittelmonitorings erinnert, die vor wenigen Monaten bekannt wurden…
Heute sind jedenfalls allerorten die auf den ersten Blick erfreulichen Ergebnisse der “Nationalen Berichterstattung Pflanzenschutzmittelrückstände 2007” nachzulesen. Die Zahl der belasteten Lebensmittel ging weiter zurück; lediglich bei Proben aus dem Ausland ist Vorsicht angeraten: bei Obst und Gemüse aus anderen EU-Ländern waren 5 Prozent mit Pestiziden belastet, bei Produkten aus Nicht-EU- Staaten sogar stattliche 9,5 Prozent.
Vorsorgliche Entwarnung: Grenzwerte bedeuten… nichts?
Aber auch dies – so teilt das BVL in der Pressemitteilung vorsorglich mit – sei bestimmt kein Grund zur Beunruhigung. Denn die Grenzwerte seien selbstverständlich so gewählt, daß eine Gesundheitsgefährdung quasi ausgeschlossen sei. Klingt so, als sei – wie es immer so schön heißt – Qualität aus deutschen Landen tatsächlich ein Gütesiegel.
Allerdings lohnt es sich hier auch genauer hinzusehen: es beginnt damit, daß die Grenzwerte natürlich jeweils für einen bestimmten Stoff gelten. Und hier – tatsächlich – fiel nur jede 40. Probe negativ auf. Allerdings (das steht eher im Kleingedruckten) wurde in immerhin 40,9 Prozent aller Lebensmittelproben mehr als ein Rückstand gefunden – ein Umstand, der gerne vergessen wird.
Widersprüchliche Informationen des BVL?
Aber geschenkt. Bedenklich ist vielmehr, daß die Experten des BVL heute Statements verbreiten, die in deutlichem Widerspruch zu Meldungen stehen, die vor gerade einmal 5 Monaten verbreitet wurden. (U.a. wurde hier im SB-Mahlzeit-Blog berichtet.) Als im Oktober 2008 die Ergebnisse des Lebensmittelmonitorings vorgestellt wurden, ließ sich BVL-Chef Helmut Tschiersky-Schöneburg folgendermaßen zitieren: “Bei einigen Proben liegt die Belastung so hoch, dass bei einmaligem Verzehr gesundheitliche Beeinträchtigungen nicht auszuschließen sind.”
In 4 von 5 getesteten Salatköpfen hatte man damals gleich mehrere Pflanzenschutzmittel gefunden und zehn Prozent überschritten mehrere Pestizidhöchstgrenzen. Und was die Tomaten angeht, schrieb damals die Süddeutsche Zeitung:
“Tomaten sind nicht besser dran. In jeder zweiten getesteten Tomate haben die Forscher einen wahren Pestizidcocktail gefunden: Insgesamt 72 Giftstoffe verzeichneten die Tester. Am häufigsten Bromid, ein Rückstand des Begasungsmittels Methylbromid, das in Gewächshäusern eingesetzt wird, gefolgt von Procymidon und Pyrimethanil.”
Das Risiko der Risikokommunikation im Lebensmittelbereich
Wie ist dieser Widerspruch zu erklären? Welcher Analyse, welchen Aussagen soll man Glauben schenken? Ist es glaubwürdig, daß beim Lebensmittelmonitoring in 50% der Tomaten im Jahr 2007 bedenkliche Werte gefunden wurden und sich diese erschreckenden Zahlen bei der Berichterstattung Pflanzenschutzmittelrückstände, die sich ebenfalls auf 2007 bezieht, einfach verflüchtigen?
An der Fallzahl kann es kaum liegen: beim Monitoring wurden 4957 Produktproben zugrunde gelegt; beim heute veröffentlichten Datensatz waren 17 700 Proben vorhanden.
Vermutlich muß man sich schon selbst durch die detaillierten Berichte arbeiten und beim Einkauf auf den Gemüsehändler seines Vertrauens bauen… Schade ist nur, daß das BVL einen Vertrauensverlust riskiert (jedenfalls bei Verbrauchern, die sich an solch widersprüchliche Verlautbarungen erinnern).
Die Bewertung von Risiken ist ein riskantes Geschäft. Ganz egal ob Einzelpersonen oder Gruppen eine Einschätzung von Gefahrensituationen vornehmen oder ob Experten oder Laien gefragt sind: bei der Beurteilung von Risiken liegen wir regelmäßig falsch. Selbst relativ nebensächliche Aspekte wie die Begriffe, mit denen bspw. bestimmte Substanzen bezeichnet werden, beeinflußen unsere Risikowahrnehmung.
Wobei vorab klargestellt werden muß: Ein Patentrezept oder gar eine “richtige” Form des Risikokalküls kann es kaum geben. Welche Gefahrenschwelle noch toleriert wird, variiert von Person zu Person und von Situation zu Situation. Und das Wissen, das uns in der jeweiligen Situation zur Verfügung steht, ist ohnehin kaum ausreichend oder stellt sich (wenigstens im Nachhinein) als ungenügend heraus. Interessant ist es dennoch, was jüngst die US-Psychologen Hyunjin Song und Norbert Schwarz festgestellt haben: je unaussprechlicher die Risiken, desto gefährlicher wurden sie eingeschätzt.
Unser irrationales Risikokalkül
Es ist im Grunde müßig, darüber zu lamentieren, daß wir – wenn es um die Einschätzung von Risiken geht – furchtbar irrational handeln. Da darf man mir noch tausendmal vorrechnen, daß die Fahrt zum Flughafen deutlich gefährlicher ist, als der Flug selbst. Statistisch gesehen trifft das natürlich zu, doch für mein individuelles Sicherheitsempfinden eben nicht.
Und um Sicherheit, Vertrauen und das Gefühl eine Situation kontrollieren zu können, geht es fast immer, wenn Risikoeinschätzungen gefragt sind. Dabei spielt der (vermeintliche) Bekanntheitsgrad der potentiellen Gefahrenquelle eine Hauptrolle. Aktivitäten oder Situationen, die uns neu sind, erscheinen zwangsläufig als riskanter. Der erste Bungee-Sprung ist noch ein Abenteuer, wenn ich bereits dutzende Sprünge absolviert habe, wird die Sache mehr und mehr zur Routine und erscheint als weniger riskant.
Acrylamid, Arcobacter, Azorubin: Harmlos oder gefährlich?
Aber wie verhält es sich, wenn verschiedene neuartige Risiken taxiert werden müssen? Ist das Acrylamid in den Keksen gefährlicher als das Bakterium Arcobacter in rohem Fleisch?
Hyunjin Song und Norbert Schwarz haben ihren Probanden eine Liste mit erfundenen Zusatzstoffen von Nahrungsmittels vorgelegt und sie aufgefordert, deren Gefährlichkeit zu beurteilen. Alle Begriffe hatten zwölf Buchstaben, die in unterschiedlicher Schwierigkeit angeordnet waren. Das (phonetisch) leichteste Wort lautete “Magnalroxate”, das schwerste “Hnegripitrom”.
Das Ergebnis war eindeutig, je schwieriger die Begriffe, als desto risikoträchtiger wurden sie beurteilt. Einfache Produktnamen (egal ob bei Lebensmitteln oder Medikamenten) suggerieren uns ganz offenbar Vertrautheit. Wenn es allzu kompliziert oder gar zungenbrecherisch-unaussprechlich wird, dann wächst die Skepsis.
Und dieser Effekt tritt – kaum verwunderlich – auch auf, wenn es nicht um die Bewertung von Lebensmittelrisiken geht. Der Versuchsgruppe wurden angebliche Attraktionen eines Freizeitparks genannt und sie sollten diese hinsichtlich der vermeintlichen Gefährlichkeit einstufen. Einhellige Meinung: das Fahrgeschäft mit dem Namen “Vaiveahtoishi” muß sehr viel riskanter und rasanter sein, als die Attraktion “Chunta”.
Doch welche Lehre ziehen wir aus diesen Erkenntnissen? Sprechen wir vom H5N1-Virus, wenn wir den Gefahrenaspekt betonen wollen und von der Vogelgrippe, wenn die Ängste zu sehr hochkochen?
Wenn in Ihrem Stadtviertel überdurchschnittlich viele Imbißketten angesiedelt sind, dann sollten Sie möglicherweise ihren Lebenswandel überdenken. Denn – wie eine US-Studie nun zeigt – rein statistisch betrachtet haben Bewohner solcher Viertel ein überdurchschnittlich hohes Schlaganfallrisiko. Aber kurz der Reihe nach:
Je mehr Fast-Food-Restaurant, desto höher das Schlaganfallrisiko
US-Mediziner haben eine umfangreiche Auswertung erstellt, in der sie die Wohngebiete in der Region von Nueces County in Texas in insgesamt vier Kategorien einteilten und zwar abhängig von der Anzahl der Fast-Food-Restaurants. Diese Daten verknüpften sie mit demographischen und sozioökonomischen Daten des Statistischen Bundesamtes und stellten fest: mit jedem Schnell-Imbißrestaurant in der Nachbarschaft steigt das relative Schlaganfallrisiko um ein Prozent an.
Je mehr Fast-Food-Filialen, desto höher die Schlaganfallwahrscheinlichkeit. Bewohner von Vierteln mit der höchsten Dichte von McDonalds & Co. haben im Vergleich zu Bewohnern von Gegenden mit den wenigsten Fast-Food-Möglichkeiten ein um 13 Prozent erhöhtes Risiko, einen Schlaganfall zu erleiden.
Studienautor Lewis B. Morgenstern von der University of Michigan in Ann Arbor erläuterte bei der Jahrestagung “American Stroke Association” in San Diego: “Die Daten zeigen einen echten Zusammenhang. Wir wissen aber nicht, ob Fast-Food tatsächlich aufgrund seiner Inhaltsstoffe das Risiko erhöht oder ob Fast-Food-Restaurants ungesunde Wohngegenden kennzeichnen.”
Zufälliger Zusammenhang oder Kausalität?
Und das ist tatsächlich eine spannende Frage, die im Kern etwas vom klassischen Henne-oder-Ei-Dilemma hat. Denn: was war zuerst da? Gab es zuerst die Häufung von Fast-Food-Restaurants und erst in der Folge führte das zu überdurchschnittlichem Konsum von Burgern, Pommes und Co., die üblicherweise als Risikofaktoren gelten? Ist die Studie also Beleg für “Führe-uns-nicht-in-Versuchung-Regel”?
Oder, zweite Variante: siedeln sich die Fast-Food-Ketten just genau dort an, wo ihre Kunden anzutreffen sind? Handelt es sich also um Stadtviertel mit einer Bevölkerungszusammensetzung, die nur wenig auf gesunde Ernährung und Lebensweise achtet und eben große Nachfrage nach schnellen Snacks hat?
Oder, dritte Erklärung: sind es am Ende ganz andere Faktoren, die für diese Korrelation verantwortlich zu machen sind? Denn Fast-Food-Restaurants sind üblicherweise an größeren Starßen zu finden, so daß sowohl die Lärm-, als auch die Feinstaubbelastung ein weiteres Risikomoment für Herz-/Kreislauferkrankungen darstellen.
Aber egal, wie Ursache und Wirkung exakt zusammenhängen und ob tatsächlich eine unmittelbare Verbindung zwischen übermäßigem Verzehr von Fast-Food und einem erhöhten Schlaganfallrisiko existiert – Gegenden mit zahlreichen Fast-Food-Angeboten sollten nach Ansicht der Mediziner ein Primärziel für Programme zur Gesundheitsvorsorge sein.
]]>Aber vielleicht ist es in diesem Sinne auch ganz passend, wenn dieser Blog den Namen “Echolot” trägt. Denn nicht jedes modische Accessoire ist wirklich ein Fortschritt und gerade ein aus der Mode geratenes, unzeitgemäßes Instrument verspricht doch spannende Ein- und Aussichten.
Lust und Leiden an der Wissenschaft
An der Niederschrift dieser Beobachtungen (die – hoffentlich – mit Hilfe des Echolots zustande kommen) versucht sich künftig ein “Liebhaber der Wissenschaften”, durchaus im Sinne Bruno Latours. Wobei die Lust und das Leiden an der Wissenschaft ungefähr gleichen Raum einnehmen.
Und die Leidenschaft gilt der Wissenschaft in ihrer abenteuerlichen Spielart. Denn, damit wir uns richtig verstehen: Wissenschaft ist ein großartiges Abenteuer. Kann man sich etwas Spannenderes vorstellen, als die Grenzen des Wissens zu erweitern? Was könnte reizvoller sein, als neue Entdeckungen zu machen und – egal in welcher (akademischen) Disziplin – die Welt und Wirklichkeit besser zu verstehen, als es bisher möglich war?
Riskante Wissenschaft, riskantes Wissen
Aber wie für jede Abenteuerreise gilt auch für das “Abenteuer Wissenschaft”, daß mit ihr immer ein gewisses Risiko verknüpft ist. Von der Abenteuerfahrt kehrt man möglicherweise gar nicht oder nur schwer beschädigt zurück. Und auch für wissenschaftliche Entdeckungsreisen muß die Möglichkeit des Scheiterns immer einkalkuliert werden…
Worauf es mir ankommt: auch die Wissenschaft lebt durch das Wechselspiel von Erfolg und Mißerfolg. Neue Entdeckungen werden gemacht, andere Erkenntnisse stellen sich als Irrtum heraus. Wissenschaft ist ein riskantes Geschäft. Sie ist ein virtuoser Seiltanz der Forscher und Wissenschaftler. Ein Balanceakt zwischen Wissen und Nichtwissen.
Balanceakte zwischen Wissen und Nichtwissen
Und genau diese Grenzgänge, also das Vorstoßen in Bereiche des bislang Unbekannten und die Unsicherheit, ob man auf sicheren oder doch sehr prekären Pfaden voranschreitet, diese Grenzgänge sollen mit dem Echolot vermessen werden. Und diese Vermessungen und Beobachtungen sollen Grundlage der Texte in diesem Blog sein.
Denn genau in dem Moment, in dem sich wissenschaftliche Sicherheiten als unsicher erweisen, wird besonders deutlich, wie Wissenschaft “tickt” und wie sie sich in der Gesellschaft verortet. Und die Gesellschaft, soviel ist klar, ist immer der Rahmen innerhalb dessen Wissenschaft stattfindet.
Wenn innovative Forschungsergebnisse schließlich in Produkte münden, dann sind es die Konsumenten, die damit umgehen dürfen. Wenn therapeutische Verfahren sich letztlich als Fehlgriff herausstellen, sind die Patienten die Leidtragenden. Und wenn sich in anderen Feldern die wissenschaftlichen Erkenntnisse nachträglich als Irrtümer herausstellen, dann sind es ebenfalls wissenschaftliche Laien (als Patienten, Käufer, Anwohner…), die mit den Nebenfolgen umgehen müssen.
Mit Nebenfolgen, Randnotizen und all den Hoffnungen und Enttäuschungen, die immer auch mit dem wissenschaftlichen Prozeß verknüpft sind, soll sich dieser Blog auseinandersetzen.
]]>