Wenn Gliazellen sich unkontrolliert teilen, entsteht ein Gliom. Titiens Gliom sitzt im Hirnstamm, genauer in der Pons. Die morphologische Charakterisierung des bei der Biopsie entnommenen Gewebes ergab, dass die Tumozellen eine fibriläre Matrix bilden. Titien hat ein […]
Zum vollständigen Artikel und zum kommentieren: Hier entlang!
]]>Der operierende Arzt nimmt sich nur kurz Zeit um mir zu erklären, dass die robotergestützte stereotaktische Biopsie so lange gedauert habe, weil es Schwierigkeiten dabei gab, die Proben zu entnehmen. Es sei außerdem zu einer leichten Einblutung […]
Zum vollständigen Artikel und zum kommentieren: Hier entlang!
]]>Meine Frau Titien fragte mich: “Warum schreibst du denn nicht über meine Krankheit auf deinem Blog?”
“Weil ich die Zeit, die uns bleibt, lieber mit dir verbringen möchte, als vor meinem Computer” antwortete ich.
Titiens rechtes Auge wollte vor 21 Monaten nicht mehr richtig zur Seite. Vor 20 Monaten sahen wir einen kleinen hellen Fleck auf einer CT-Aufnahme ihres Kopfes.
Zum vollständigen Artikel und zum kommentieren: Hier entlang!
]]>Vertreter des Verlags haben mir über den Redaktionschef mitgeteilt, dass meine Vertragsbedingungen zum 1.1.2019 anders ausgelegt werden. Unter den geänderten Bedingungen würde ich bei meiner geringen Artikelfrequenz und Leserzahl effektiv meine Inhalte kostenfrei zur Verfügung stellen. Dazu bin ich nicht bereit.
Ich werde meine Artikel in Zukunft auf WeiterGen.de publizieren. Frei von Werbung, in angenehmem Design, und weiter unabhängig.
Ich würde mich sehr freuen, wenn mir möglichst viele bisherige Leserinnen und Leser erhalten blieben. Bei einem einsamen Blog im weiten Internet kein einfaches Unterfangen.
Ich würde euch gerne benachrichtigen, wenn ich neue Artikel publiziere. Dazu bitte ich euch, auf WeiterGen.de mein Blog zu abonnieren.
Danke allen, die hier kommentiert haben. Die Interaktion mit euch war für mich bei weitem die größte Motivation das Blog weiter zu führen. Ich hoffe, auch auf der neuen Seite von euch zu hören und zu lesen.
]]>Er kann einem schon fast wieder Leid tun, wie er jetzt in den Medien von den ehemaligen Kollegen auseinander genommen wird. Von denen, die es immer schon wussten, und denen, die ihre Empörung öffentlich teilen müssen. Und von den Lesern. Jenen, die jetzt den Untergang des SPIEGEL prophezeien, und von jenen, die meinen, dass die Reportage, also die von Relotius bevorzugte journalistische Darstellungsform, als Format ausgedient hat.
Letztere Stimme kommt auch aus der Ecke der Wissenschaft. Mein Eindruck ist, dass viele Forschende eine Aversion gegen das Geschichten erzählen in der Wissenschaftskommunikation haben. Große Fallzahlen zählen mehr als Anekdoten. Porträtierte Einzelschicksale wirken aber mehr als die statistisch signifikanten Ergebnisse des letzten Papers. Das wird als ungerecht wahrgenommen.
Auch Julika Griem, Vizepräsidentin der DFG, fragte in ihrem Vortrag beim diesjährigen Forum Wissenschaftskommunikation, warum “alle gegenwärtig auf erzählerische Vermittlung setzen”. Sie wünscht sich, dass die Wissenschaftskommunikation ihr Publikum nicht nur einseitig mit Narrativen füttert und “irgendwo abholt, sondern sorgfältig, umsichtig, furchtlos und […] zärtlich überfordert”. Hier das Transkript ihrer Rede als pdf. Die Wissenschaftskommunikation bräuchte laut Griem “keinen barrierefreien Abenteuerspielplatz, sondern ein bisschen mehr hartnäckigen und frustrationstoleranten Ernst für die Sache”.
Bei allem Ernst: Wer als Wissenschaftlerin oder Wissenschaftler Zielgruppen jenseits der eigenen Fachcommunity erreichen will, muss lernen, die sachliche Wohlfühlecke zu verlassen. Eine gute Geschichte bleibt eine gute Geschichte. Sie soll das erzählen, was die Daten aussagen. Und wahr muss sie sein.
Was damals galt, ist heute fast noch genauso. Wer aktiv forscht und nebenbei noch mit Menschen jenseits der eigenen Fachcommunity kommuniziert, ist ein seltenes Pflänzchen.
Wir am NaWik haben uns überlegt, erstmalig nur für kommunizierende Wissenschaftlerinnen und Wissenschaftler ein Symposium zu organisieren. Der Call für Beiträge ist bis zum 25. Januar 2019 offen. Unten der komplette Text des Calls und hier der Link zum pdf. sowie der Ausschreibung auf NaWik.de. Gerne weitersagen. Ich würde mich freuen, wenn wir uns in Karlsruhe sähen.
Das Symposium richtet sich an Wissenschaftlerinnen und Wissenschaftler, die sich aktiv in die Kommunikation ihrer Themen mit Nicht-Spezialisten einbringen. Wir wollen Ihnen eine Plattform bieten um sich auszutauschen, voneinander zu lernen, miteinander zu diskutieren und sich zu vernetzen.
Neben Vorträgen und Workshops wollen wir Ihnen die Gelegenheit geben, sich und Ihren persönlichen Kommunikationsansatz oder ein Kommunikationsprojekt Ihres Forschungsbereichs zu präsentieren.
Bitte schicken Sie uns eine kurze Beschreibung Ihres Formats (maximal 250 Wörter), mit dem Sie Wissenschaftskommunikation betreiben und das Sie beim NaWik-Symposium vorstellen möchten.
Wir möchten mit Ihnen beim Symposium die brennenden Themen diskutieren: Wie lässt sich Kommunikation in den Forschungsalltag integrieren? Welche Anreize zur Kommunikation gibt es für Forschende? Was funktioniert gut? Und was hat vielleicht auch nicht so gut geklappt? Ihre Ideen, Erkenntnisse und Erfahrungen sind gefragt.
Schicken Sie uns Ihr Proposal zu Ihrem Projekt, Ihren Erfahrungen formlos per E-Mail an:
symposium@nawik.de
Wenn also nun ein kalifornisches Geschworenengericht einem schwer krebsranken Gärtner und Hausmeister Entschädigungszahlungen in Höhe 289 Millionen US-Dollar zuspricht, dann zeigt das vor allem, dass die Geschworenen viel Mitgefühl mit dem Kläger haben.
Es zeigt auch, dass die Geschworenen nicht in der Lage waren, die wissenschaftliche Faktenlage richtig einzuschätzen. Die ist nämlich eindeutig: Glyphosat verursacht kein Krebs.
Wie ein Blick in die Kommentarspalten zu Artikeln zeigt, die diese Tatsache ohne zu relativieren berichten, sind die acht Geschworenen des Gerichts in Kalifornien nicht die einzigen, die Probleme damit haben, wissenschaftliche Daten richtig einzuordnen und im Zweifelsfall ihre gefühlte Wahrheit zu überdenken.
Wäre das nicht schön, wenn es weniger wissenschaftlichen Analphabetismus gäbe, und Fakten und Daten, Meinungen und Entscheidungen beeinflussen und bestimmen würden?
Wir sind weit davon entfernt. Obwohl Bayer bereits Einspruch gegen das Urteil eingelegt hat, ist die Bayer-Aktie nach bekannt werden des Urteil um gut 10% eingebrochen. Bayer ist seit der Übernahme von Monsanto dieses Jahr der Besitzer des Unternehmens, das verklagt wurde.
Der Kursverlust von 10% bedeutet konkret, dass der Bayer-Konzern in Folge des 253 Millionen Euro Urteils mit dem Schlusskurs gestern gut acht Milliarden Euro an Wert verloren hat.
Der Markt rechnet also damit, dass dies nicht die einzige Verurteilung von Monsanto zu Glyphosat uns Krebs bleibt, sondern mit sehr hoher Wahrscheinlichkeit mehrere Milliarden Euro entweder an Kläger gezahlt werden müssen oder es zu einer außergerichtlichen Einigung in Folge einer Sammelklage kommen wird, um die Kläger zu entschädigen und Bayer zukünftige Rechtssicherheit in der Causa Glyphosat zu bieten.
Acht Milliarden Euro wären deutlich mehr Entschädigungszahlungen, als zum Beispiel Merck für den Skandal um ihr Schmerzmittel Vioxx zahlen musste (4,9 Milliarden USD), oder Bayer für ihr 2001 vom Markt genommenen Cholesterinsenker Lipobay (4,2 Milliarden USD).
Der Unterschied ist: Sowohl Lipobay als auch Vioxx verursachen schwere Nebenwirkungen und es kam im Zusammenhang mit deren Einnahme zu Todesfällen. Die Zahlungen an die Kläger sind also gegründet und gehen mit einem zumindest impliziten Schuldeingeständnis einher.
Soll sich Bayer im Falle Glyphosat für etwas schuldig bekennen, ohne dass es dafür hinreichende Indizien geschweige denn Beweise gäbe? Würde eine außergerichtliche Einigung im Fall Glyphosat mit potentiell tausenden Klägern nicht automatisch als Schuldeingeständnis gewertet werden?
Politiker vieler Parteien zeigen Sympathie mit den Landwirten. Auch die Grünen zeigen sich offen für eine Bauern-Nothilfe. Deren Franktionschef Hofreiter forderte ein grundsätzliches Umsteuern in der Landwirtschaft. Die Dürre müsse “ein Weckruf sein für einen grundlegenden Kurswechsel in der Agrarpolitik“, sagte der Grünen-Politiker in Spiegel Online.
Hofreiter sagt in dem Artikel:
Die industrielle Landwirtschaft kann nicht mehr weiter so wirtschaften wie bisher […] die Milliardengelder, die in die Landwirtschaft fließen, sollten in Zukunft nur noch an solche Betriebe gehen, die mit der Natur arbeiten.
Ich versuche diesen Satz zu verstehen. Mit der Natur arbeiten. Heißt das, die meisten landwirtschftlichen Betriebe arbeiten gegen die Natur? Ist die konventionelle Landwirtschaft schuld an der Dürre? Was würde passieren, wenn alle Bauern in Deutschland “mit der Natur” arbeiten würden? Würde dann Mutter Natur pünktlich Regenwolken schicken und so lokal weitere Dürren vermeiden?
Ich habe eine bessere Idee. Wie wäre es, wenn 20% der gewünschten Nothilfen für die Bauern in die Entwicklung dürreresistenter Nutzpflanzen investiert würde. 200 Millionen Euro für ein Forschungsprogramm für deutsche Universitäten und Institute, mit dem Ziel Getreide, Raps und Mais herzustellen, die vergleichbare Erträge abwerfen, aber bei wenig Regen besser überlebt.
Moderne molekularbiologische Methoden, wie das Gene-Editing mit CRISPR/Cas , bieten sich natürlich an, um die neuen Sorten gezielt, zügig, und günstig zu züchten. Das Förderprogramm könnte so gesteuert werden, dass neben den Unis und Forschungsinstituten auch kleine und mittlere Saatgutunternehmen profitieren, die die neu entwickelten Sorten zeitnah in Deutschland zur Marktreife bringen und gerne auch international verkaufen könnten.
Leider platzt der Traum schon heute. Die Gesetzgebung in Deutschland stellt ein langfristiges und flächendeckendes Anbauverbot gentechnisch veränderter Pflanzen sicher. Daunter fallen nach neuer Gesetzgebung auch Pflanzen, die durch Gene-Editing gezüchtet wurden.
Die in Deutschland mit deutschen Steuergeldern entwickelten Sorten dürften ohne hohe regulatorische Hürden nicht mal hier im Freiland getestet werden. Der weitere regulatorische Prozess, der für die Zulassung dieser Pflanzensorten notwendig würde, ist unabschätzbar hinsichtlich Zeitdauer und Ergebnis, so dass kleinere und mittlere Saatgutunternehmen schon aus reiner Risikokalkulation die Finger davon lassen werden.
Bleibt also die Erforschung der Sorten im Ausland und deren Zulassung durch die großen Agrarmultis. Das kann doch sicher nicht im Interesse der Grünen sein.
Oder vielleicht doch. So bleiben deren Feindbilder erhalten. Man kann die gleichen Grabenkämpfe wie bisher führen. Und die paar Wissenschaftlerinnnen und Wissenschaftler hier, die logisch versuchen zu argumentieren, die kann man schon im Vorfeld diskreditieren.
Lobbyistenpack.
]]>Das klingt nach einem Offenbarungseid für den Sport, der immer noch Millionen Zuschauer vor den Fernseher oder direkt an die Strecke lockt.
Lance Armstrongs letzter Toursieg liegt 13 Jahr zurück, meine letzten Artikel zur Tour de France fünf Jahre. Zeit für ein Update. Kann man die Tour de France auch ohne Doping gewinnen?
Armstrong bezieht die 0% Chance auf einen cleanen Tourgewinn auf das damalige Tourumfeld. Damals wurde systematisch und im gesamten Fahrerfeld gedopt. In den Top10 des Gesamtklassements von 2005 gibt es beispielsweise nicht einen Fahrer, der nicht nachgewiesenermaßen gedopt hat, bei Dopingärzten in Behandlung war, Dopingtests umgangen hat, dem Doping konkret vorgeworfen wurde oder der selbst zugegeben hat, gedopt zu haben.
Wie sieht die Situation also heute aus? Zunächst: Kategorisch ausschließen, dass Fahrer auch dieses Jahr gedopt waren, kann wohl keiner. Um einen generellen Eindruck von der Sauberkeit der Tour zu bekommen, kann man sich aber die Leistungsdaten der Spitzenfahrer anschauen und prüfen, ob diese plausibel erreichbar sind. Plausibel heißt konkret: Wie viel Watt pro kg Körpergewicht Leistung bringen die Fahrer? Und sind diese Leistungen mit modernen Trainingsmethoden erreichbar?
Das kann Peter Sturm (Pseudonym) deutlich besser als ich. Deshalb hier sein zweiter Gastartikel bei WeiterGen. Peter Sturm ist Trainingsmethodiker. In den letzten 5 Jahren trainierte er bis zu 200 engagierte und erfahrene Sportler. Sein Trainingssystem erscheint in Kürze in Buchform. Sturm ist Trainer der Nachwuchshoffnung Jonas Rapp, der seit diesem Jahr für das österreichische UCI Continental Team Hrinkow Advarics startet und bei der diesjährigen internationalen Österreichrundfahrt gesamt zwölfter wurde.
—Gastartikel—
Das Thema ist auch fünf Jahre später noch aktuell. Aus meiner Sicht eindeutig ja. Wir schauen uns im Folgenden die Leistungsanforderungen an den potentiellen Toursieger 2018 an und ich zeige Ihnen anhand von tatsächlichen Trainingsdaten die Leistungsentwicklung von Jonas Rapp, der sich durch gezieltes Training vom Niveau eines A-Fahrers (Höchste deutsche Amateurklasse) zu einem möglichen Weltklasseprofi in der Kategorie Rundfahrer (vs. Allrounder, Sprinter) entwickelt hat. Um die Daten des Sportlers vergleichend zu analysieren, rechne ich die Leistungen bei der diesjährigen Tour auf sein RACE Gewicht von 71kg um.
Am Mittwoch stand eine Bergetappe über gerade mal 65km mit 3000 Höhenmetern auf dem Programm. Auf Strava haben schon einige Sportler ihre Daten hochgeladen (leider z.T. ohne Wattangaben) und wir können die Leistungen der Klassementfahrer in der Gruppe um das gelbe Trikot mit einem Leistungsrechner (wie z.B. Kreuzotter.de) nachvollziehen. Länge und Durchschnittsteigungen habe ich analog zu den Strava-Segmenten einbezogen.
Nach dem Start ging es sofort in den Col de Peyresourde. Das Strava-Segment über 12,93km mit einer mittleren Steigung von 7,146% bedeutet für einen 71 kg schweren Fahrer mit 8 kg Ausrüstung, er müsste rechnerisch 385 Watt oder 5,36 W/kg leisten, um den Anstieg in der Gruppe der Spitzenfahrer zu absolvieren (37 min und 17 sek). Im Windschatten der Gruppe und mit besten Material (Reifen, Trikots etc.) können das aber auch nur 360 Watt und ca. 5,07 W/kg gewesen sein.
Simon Geschke hat seine Wattdaten bei Strava hochgeladen und brauchte in einer Fluchtgruppe für 35min und 20 Sek. 348 Watt und somit bei einem Gewicht von 63 kg 5,53 W/kg. Hier errechnet Kreuzotter ca. 377 und somit 5,89 W/kg. Die Berechnung der Wattwerte nur anhand der physikalischen Werte, wie Gewicht von Fahrer und Ausrüstung, kann die tatsächliche Leistung (gerade in einer Gruppe) deutlich überschätzen. Je geringer die Steigung (und je höher die Geschwindigkeit), desto mehr profitieren die Fahrer vom Windschatten in einer Gruppe.
Am zweiten Berg, dem Col de Val Louran-Azet wurde das Tempo dann in der Gruppe um das gelbe Trikot deutlich angezogen. Das Team AG2R und später auch Team Movistar sorgten mit ihren Helfern für eine Tempoverschärfung. Das mir vorliegende Stravasegment über 7,14km mit 8,29% führt Michal Kwiatkowski mit 20:58 an. Die Tempoverschärfung hat kurzfristig die sonst sehr geordneten Fahrer des Teams Sky ordentlich durcheinandergewirbelt.
Für unseren 71 kg Fahrer errechnen wir 428 Watt oder 6,03 W/kg. Tatsächlich können es aber auch nur 408 Watt und 5,74 W/kg für den im Windschatten geschützten Fahrer in der Gruppe gewesen sein. Wir können aber davon ausgehen, dass während der Tempoverschärfung zumindest der Fahrer an der Spitze z.B. 6,1-6,2 W/kg gefahren ist. Das Tempo war zeitweilig so hoch, dass zumindest einige Helfer über ihrem Limit waren. Das war im Fernsehen sehr gut sehen. Dieser Gruppe gehörten am Ende noch ca. 15-20 Fahrer an, wobei einige Fahrer vorher in Fluchtgruppen unterwegs waren und im Anstieg aufgesammelt wurden.
Den Schlussanstieg am Col du Portet habe ich handgestoppt und mir Zeiten für den Sieger Quintana von 49:39 und für das Gelbe Trikot von 50:25 notiert. Quintana mit 50kg leistete rechnerisch 312 Watt und somit 6,24 W/kg. Unser 71kg Fahrer würde hierfür 418 Watt und 5,88 W/kg benötigen. Die 8 kg Ausrüstung benachteiligen folglich den leichten Fahrer. Real wird die Leistung von Quintana vielleicht bei 6,0 W/kg gelegen haben. In der Gruppe um das gelbe Trikot hätte unser 71kg Fahrer rechnerisch 410 Watt leisten müssen und somit also 5,77 W/kg. Tatsächlich können es auch 390 Watt mit 5,5 W/kg gewesen sein.
Ohne die genauen Wattangaben und ohne Angaben zum Gewicht des Fahrers sind wir auf Hochrechnungen angewiesen und müssen von den physikalischen Berechnungen einen Abzug für Windschatten/Material etc. machen. Hier wäre es sicherlich für die Transparenz eines sauberen Sports sicherlich wünschenswert, wenn alle Fahrer ihre Daten auf eine Plattform wie Strava hochladen würden.
Die Etappe nach Alpe d’Huez war deutlich länger und führte vor dem Schlussanstieg über zwei hohe und lange Berge. Der Schlussanstieg nach Alp d’Huez wurde handgestoppt in 41:10 gefahren und unser 71kg Fahrer hätte hierfür rechnerisch 410 Watt benötigt. Die relative Leistung von 5,77 W/kg (ohne Fehlerabzug) sollte man hier in die Gesamtbelastung der Etappe einordnen.
Auf dieser Etappe nach Alpe d’Huez) hätte der 71kg Fahrer rechnerisch ca. 2600 kcal allein an den ersten beiden Anstiegen benötigt. Die relative Leistung am Col de la Madeleine betrug ca. 5 W/kg für 1h und 8 Minuten. Am Croix de Fer waren es noch 4,6 W/kg für eine Stunde. Die Profile waren flacher, der Windschatten müsste also noch berücksichtig werden, ein Abzug von 200 kcal und somit ein Energieverbrauch von 2.400 kcal bildet die Belastung vermutlich besser ab. Ein Fahrer wie Quintana spart hier durch sein geringes Körpergewicht ca. 750 kcal im Anstieg dieser beiden Berge gegenüber seinen 20 kg schweren Konkurrenten ein. Das entspricht 183 gr. Glykogen.
Wenn man berücksichtigt, dass Sportler maximal 700 gr. Glykogen in der Muskulatur und Leber speichern können, sind 183 gr. Ersparnis natürlich relevant. Quintana hat auf der Kopfsteinpflasteretappe am Ende der ersten Woche gegenüber seinen Konkurrenten keine Zeit verloren, aber wir dürfen davon ausgehen, dass er viel Substanz eingebüßt hat. Ein leichter Fahrer hat auf schnell gefahren und windanfälligen Etappen deutliche Nachteile. Während unser 71kg Fahrer 330 Watt noch im Grundlagenbereich fahren kann, wird unser Bergfloh hier schon stark gefordert.
Wir können also unterstellen, dass bei gleicher relativer Leistung, der schwerere Fahrer bei dieser Tour frischer in die zweite Woche gegangen ist, als sein leichtgewichtigerer Konkurrent. Quintanas Leistung am Mittwoch deutet darauf hin, dass leichtere Fahrer dann in den Bergen insgesamt weniger belastet sind (Energieverbrauch) und so eher noch am Schlussanstieg ihre Leistungen abrufen können. Das ist natürlich spekulativ und lässt das Rennprogramm außen vor; Froome und Dumoulin sind den Giro d`Italia gefahren, Quintana und Thomas nicht. Am Freitag bei der letzten Bergetappe büßte Quintana Zeit ein. Der Einbruch kann auf einen Infekt oder zum Beispiel eine Magenverstimmung hindeuten. Die dritte Woche einer Grandtour führt alle Fahrer an ihre Grenzen und ob ein Fahrer dann von Tag zu Tag die Leistung halten kann, zeigt sich erst in der Rundfahrt.
Welche Rückschlüsse lassen sich ziehen? Die Spitzenfahrer müssen auch noch nach langen harten Etappen in der Lage sein ca. 5,6-5,7 W/kg am Schlussanstieg abrufen zu können. Auf kürzeren harten Etappen können das am Schlussanstieg auch 6,0 W/kg sein. Leichte Fahrer müssen bis zu 0,35 W/kg mehr leisten können als Fahrer, die 20 kg schwerer sind. Dafür benötigt der schwerere Fahrer aber auch ca. 100 Watt mehr Leistung (ungefähr 360 kcal/h).
Wir sehen, die Konkurrenz einer Tour ist äußerst komplex. Die Ergebnisse der letzten Jahre beim Giro und der Tour deuten darauf hin, dass Rundfahrer wie Dumoulin oder Froome mit Körpergewichten leicht unter 70 kg zumindest nicht benachteiligt sind.
Der Sportler benötigt eine hohe maximale Sauerstoffaufnahme (VO2max) bezogen auf sein Körpergewicht und muss durch Training einen möglichst hohen Anteil der VO2max in Zeiträumen von 5-60 Minuten abrufen können, also der Dauer der Anstiege bei der Tour de France. Um das auch im späteren Verlauf einer Etappe zu können, sollte der Fettstoffwechsel des Sportlers möglichst gut trainiert sein, um die Glykogenspeicher der Muskulatur zu schonen.
Die VO2max, die Dauerleistungsschwelle (CP, MLSS) und der Fettstoffwechsel stehen also im Fokus des Trainings für Fahrer, die sich auf Rundfahrten oder schwere Eintagesrennen vorbereiten.
Nun kenne ich nicht im Detail das Training von Froome, Dumoulin, oder Thomas. Ich trainiere aber seit Januar 2015 das Nachwuchstalent Jonas Rapp. Jonas konnte in dieser Zeit seine Stundenleistung von 330 Watt auf 430-440 Watt steigern. An seinem Beispiel möchte ich zeigen, wie das Training eines Rundfahrers aussehen kann, um in der Spitzengruppe mithalten zu können. Jonas hat bei einem Gewicht von 72kg einen Körperfettanteil von über 10%. Sein Wettkampfgewicht ohne Leistungsverlust (Körperfettanteil von 8%) könnte also mit 70,4 kg angenommen werden. Er entspricht damit ziemlich genau unserem Vergleichsfahrer mit 71 kg Körpergewicht.
Kommen wir zurück auf die 2400 kcal (nach Fehlerabzug), die ein 71 kg Fahrer allein auf den ersten beiden Anstiegen der Etappe nach Alpe d`Huez verbrennt. In Studien wird die Fettflussrate von Ausdauersportlern in Abhängigkeit zu ihrer VO2max dargestellt. Je nach Trainingszustand kann die Fettflussrate ihr Maximum zwischen 65-70% der VO2max erreichen. Nehmen wir an, unser 71 kg Fahrer hat im Bereich von 350 Watt einen Anteil der Fette am Energieverbrauch von 45%, dann muss er 61 g aus seinen Speichern pro Stunde zusteuern. Er hätte also ca. 120 g für die ersten beiden Anstiege aus seinen Speichern gezogen.
Im Rechner unterstelle ich bei hochtrainierten Sportlern eine Effizienz von 25% und nehme hier mal an, der Sportler hat seine Kohlenhydrataufnahmefähigkeit auf 100 g pro Stunde maximieren können. 80 g pro h im Mix von Fructose mit kurz und langkettigen KH gelten als gesichert für jedermann. Die Fettflussrate von 0,97 g/min zeigt uns, dass der Fettstoffwechsel hier schon auf hohem Niveau läuft. Mit 350 Watt liegt die Leistung genau zwischen 65% und 75% der VO2max. Ein Bereich, in dem der Fettstoffwechsel noch maßgebliche Anteile zur Leistung beisteuern kann.
Wir sehen also, die 750 kcal, die Quintana durch sein geringes Gewicht rechnerisch weniger verbraucht, kann der schwerere Fahrer kompensieren, wenn er über einen guten Fettstoffwechsel im Bereich um 5 W/kg verfügt. Der schwere Fahrer wird tendenziell mehr Glykogen (da mehr Muskelmasse) einlagern können als der leichtere Fahrer und würde hier den Vorteil des leichteren Fahrers wieder teilweise ausgleichen können.
Jonas typische Trainingseinheiten beinhalten z.B. 3x15min mit 370-380 Watt und am Ende (jenseits von 3000 kcal) noch 10-12 min Intervalle um 410-420 Watt. Eine andere Einheit stellt die 430 Watt Intervalle nach vorn und erst am Ende sind die längeren 380 Intervalle zu fahren. Obige Einheit ist Jonas am 28.6 gefahren. Er startete mit 2×10 min mit einer Anfangsleistung von 500 Watt für die ersten zwei Minuten und sollte dann spielerisch in den „Streckenschlag“ gehen. In den folgenden 2x12min hat er Tempoerhöhungen über die Trittfrequenz und 6 Sekundensprints eingebaut. In der zweiten Hälfte kamen noch 3x15min um 380 Watt hinzu.
Am 21.6. fuhr Jonas die Einheit anders rum. Zuerst die 370-380 Watt Intervalle und dann Intervalle um 410 Watt gegen Ende der Einheit mit schon gut geleerten Glykogenspeichern. Wir sehen, dass die 410 Watt über 24 min ihn ca. 600 kcal gekostet haben. Er hat hier seine Speicher schon fast leergefahren und musste dann das letzte Intervall frühzeitig abbrechen, um nicht komplett leer zu fahren.
410 Watt in der letzten Stunde einer 4 Stunden Einheit zu fahren, ist natürlich anspruchsvoll. Auch für den Kopf des Sportlers ist es gut, die Einheiten dann auch mal wieder umzudrehen und die härteren Intervalle am Anfang mit noch vollen Speichern zu fahren.
Wir zielen hier genau auf den Fettstoffwechsel zwischen 380 und 420 Watt und setzen mit dem Wettkampfgel Reize auf den Kohlenhydratstoffwechsel, den Fettstoffwechsel und die Größe seiner Glykogenspeicher. Wir trainieren also aktuell schon seine Fähigkeit auch am Ende einer langen Trainingseinheit mit deutlich reduzierten Speichern Leistungen um 5,7-5,9 W/kg abzurufen.
Das Vo2max Training wird in vielen Studien unter dem Begriff „High Intensity Training” untersucht. Im Prinzip kann eine Einheit die relative Vo2max um einen halben Punkt erhöhen. Theoretisch. Im Radsport wurde der Bereich für das Vo2max Training vor 5 Jahren noch mit 105-120% der FTP (Stundenleistung) angegeben. Läufer hatten für dieses Training schon seit Jahrzehnten genaue Tempotabellen, die sich z.B. an ihrer 10.000 Meter Zeit orientierten.
VO2max Training kann nur dann in der Mehrjahresperiodisierung erfolgreich umgesetzt werden, wenn eine exakte Belastungssteuerung erfolgt und der Sportler mitdenkt. Hottenrott zeigte 2012 mit einer groß angelegten Studie mit über 750 Breitensportlern, dass Vo2max Training zum größten Leistungsfortschritt führt, die Sportler aber nur bedingt über längere Zeiträume für dieses Training zu gewinnen sind.
Man geht zum Zahnarzt, damit mit man auch morgen noch in den Apfel beißen kann. Aber der Besuch wird weh tun. So ist das auch mit dem Vo2max Training. Ich muss dieses Training als Trainer so einbinden, dass mir die Zustimmung des Sportlers oder der Sportlerin erhalten bleibt. Das kann mir nur gelingen, wenn ich dieses Training sehr genau steuere und sehr sensibel auf das Feedback des Sportlers reagiere.
Basierend auf dem Modell von Monod-Scherrer (1965) gebe ich meinen Sportlern Tempovorgaben für die wichtigsten Intervallbereiche. Die Bereiche werden durch die CP und die W des Sportlers bestimmt. Die Stundenleistung zur Orientierung ist hier nicht zweckmäßig, weil Fahrer mit der gleichen Stundenleistung durchaus unterschiedliche anaerobe Kapazitäten haben können. Der Fahrer mit der eher hohen W wird deutlich höhere Werte im Bereich der 4 min Intervalle fahren können und muss dafür dann deutlich niedrigere Wattwerte für die 8 min Intervalle nehmen. Wenn ich herausfinden will, wie bei einem Sportler in etwa die Verteilung seiner CP/W ist, lasse ich ihn 2-3 Intervalleinheiten mit 4 und 8 Minuten Länge fahren. Zur Bestätigung dann z.B. den 12 Minutentest.
Die Sportler fahren diese Intervalle in einem Fenster von einem Verbrauch der anaeroben Kapazität von 40-60%. Ausgehend von den Beobachtungen und der Analyse von mehreren hundert Sportlern konnten wir folgern, dass der Sportler bei einem Verbrauch von ca. 55% seiner anaeroben Kapazität (W`) seine Vo2max erreicht, er also unter Volllast seines aeroben Systems arbeiten muss. Die nachfolgende Darstellung zeigt wie unser aerobes System an die Vo2max geführt wird, hier in Abhängigkeit der Intensität und der Intervalllänge. Die Vorgabe im Intervall wird so gewählt, dass am Ende des ersten Intervalls ca. 55% der W` verbraucht sind. Wir können also eine Intensität wählen, mit der wir die Vo2max triggern können und somit können wir auch die relative Vo2max ziemlich genau rechnerisch bestimmen.
In den Folgeintervallen erreicht der Sportler durch das Pausenregime immer früher die Vo2max. Bei 4×8 min trainiert der Sportler vielleicht 16-17 min an der Vo2max plus weitere Minuten in dem ebenfalls wirksamen Bereich von 90-100 Prozent der Vo2max. Aus den Beobachtungen wissen wir, dass Sportler, die übermotiviert diese Intervalle fahren und z.B. am Intervallende noch sprinten, deutlich längere Regenerationszeiten benötigen. Werden nun weitere Einheiten in der gleichen Trainingsphase deutlich übersteuert, kann sich ein sympathisches Übertraining etablieren. Der Fahrer „schießt sich ab“.
Der Sportler sollte die Freigabe seines Kardiologen haben und er braucht den richtigen Tag für dieses Training und einen kühlen Kopf, um im Zweifel nach dem ersten Intervall oder nach dem Warmfahren abzubrechen, wenn das Körperfeedback dazu rät. Wenn alles passt, dann heißt es „never ever waste your hammertime“. Für die Entwicklung eines Sportlers ist diese Zone ausschlaggebend.
Talente reagieren auf so ziemlich alle Reize mit einer starken Leistungsentwicklung. Auch Jonas hatte schon eine relative VO2max von mehr als 70 als wir mit dem Training starteten. Aber um in seinen Fall von 72 auf 89 Punkte zu kommen, waren drei Jahre hartes Training erforderlich. Jonas steigerte mit Serien von 2x (3x8min) in Zone 5a seine Critical Power von 320 auf 390 im ersten Jahr. Jeder, der solche Intervalle im Training schon mal gefahren ist, weiß, wie stark man im Kopf sein muss, um nach der ersten Serie noch eine zweite Serie folgen zu lassen.
Berücksichtigen wir, unter welchen zeitlichen Bedingungen Jonas dieses Level erreicht hat, bekommen wir einen Ausblick auf das Potential dieses Sportlers. Jonas hat Abitur gemacht und im Anschluss eine Ausbildung, die er Ende Januar 2018 abgeschlossen hat. Ich kenne viele Hobbysportler, die mehr Zeit für das Training hatten als Jonas. Er kam oft gegen 19Uhr nach Hause und hatte den ganzen Tag gestanden und konnte dann abends nicht immer die geplanten Einheiten fahren. Seine Jahreskilometer lagen in den letzten Jahren um 20.000.
Für 2018 haben wir den Fokus darauf gerichtet, Jonas mehr Substanz für lange Rennen mitzugeben, so dass er auch am Ende einer Etappe seine Leistungen abrufen kann. Einige Einheiten habe ich euch ja schon vorgestellt. Jonas ist die Saison auf einem konstant hohen Niveau gefahren. Nach einer Erkältung in Folge einer kurzen und nasskalten Rundfahrt im Frühjahr musste er zehn Tage pausieren und konnte trotzdem nach 14 Tagen Training am 4.Tag einer Rundfahrt im Bergzeitfahren schon wieder über 25 min 441 Watt abrufen. Bei einem Bundesligarennen (!) in Österreich musste er in einer Situation 507 Watt über 5 min. aufbringen, um mit den Topfahrern nach vorn zu fahren. Wenn ich die beiden Renndaten in das Modell von Monod-Scherrer einpflege, kommt eine Stundenleistung von 430 Watt raus.
Anfang Juli ist Jonas die internationale Österreichrundfahrt gefahren. Acht schwere Tage in Folge und wir hatten nicht wirklich erwartet, dass Jonas in der Summe nur 3 Min verliert und somit bei seiner ersten schweren Landesrundfahrt auf das Gesamtklassement fahren kann. Jonas ist zuvor nie lange Alpenpässe gefahren. Er kannte weder das Kitzbüheler Horn noch den Großglockner. Jeder Rennfahrer weiß, wie wichtig es ist, Berge vorab im Training am besten mehrmals gefahren zu sein. Leider fehlen Powermeterdaten vom Kitzbüheler Horn, weil Jonas hier mit Kompaktkurbel gefahren ist.
Rennen kann man nicht am Rechner gewinnen. Aber Jonas hat bei den beiden Bergankünften gerade mal etwas mehr als eine Minute auf den führenden Fahrer verloren. Das entspricht etwa dem mitführen von 2kg Gewicht. Diese zwei kg Ersparnis wären auch dieses Jahr schon möglich gewesen (Körpergewicht/Ausrüstung).
Jonas ist die Rundfahrt aber nicht in Topform gefahren. Nur in den großen Profiteams, können die Sportler sich auf die Saisonhöhepunkte mit längeren Trainingsblöcken und Höhentraining vorbereiten. In den UCI-Continentalteams fahren die Sportler ihren Kalender runter und müssen schauen, dass sie von Rennen zu Rennen kommen. Wenn dann noch eine Erkältung da Zwischen kommt, werden die Vorbereitungsfenster kleiner.
Bei der Tour de France sind die Bergetappen eher länger aber es gibt selten mehr als 3 Etappen für Classementfahrer am Stück. Kürzere Etappen werden mit einer höheren Intensität gefahren. Auf den hügeligen oder flachen Etappen fahren Fahrer wie Jonas mit Leistungen, die eher im Regenerationsbereich liegen. Bei der Österreichrundfahrt hatte jede Etappe mehr als 2000 Höhenmeter und wurde hart gefahren. Vorsichtig geschätzt, liegt Jonas mögliche Topform bei optimaler Vorbereitung und mit Höhentraining bei circa 450 Watt für Zeitfenster von 20-40 Minuten.
Aus meiner Sicht braucht ein Tour de France Sieger eine relative Stundenleistung von ca. 6,3-6,5 W/kg, um in Rennen wie vergangenen Mittwoch noch am letzten Berg 6 W/kg abrufen zu können. Für den Sieg am Mittwoch hätte rein rechnerisch ein 50 kg Fahrer wie Quintana 6,24 W/kg, ein 62kg schwerer Fahrer 6,02W/kg und ein 71kg schwerer Fahrer 5,88 W/kg benötigt. 6,3 W/KG könnten also für einen 71kg Fahrer durchaus bedeuten, dass er bei einer Grandtour zumindest um das Klassement mitfahren kann.
Die Grandtour gewinnt aber nicht unbedingt derjenige, mit dem besten relativen Leistungsgewicht, sondern der, von seinem Leistungsprofil am besten mit dem Profil der Rundfahrt harmoniert. Beim Giro gibt es viele Zeitgutschriften für kurze Schlussanstiege bei gefühlt jeder zweiten Etappe. Hier haben explosive Fahrer Vorteile. Wenn dann aber Froome mitten in einer Etappe (19.) an einem Anstieg (Col del Finestre) mit 5,9 W/kg über eine Stunde alle Verfolger abschütteln kann, sieht man, dass richtiges Training und Umsetzung gerade in der dritten Woche einer Grandtour entscheidend sein können. Froome hat sich hier von Helfern alle 1-2km Flaschen reichen lassen und nach dem Trinken fallen lassen um Gewicht zu sparen. Ein Killogramm weniger Gewicht weniger machen an so einem Berg 30 Sekunden aus. Jonas Rapp kam mit einer fast vollen Flasche am Kitzbüheler Horn an. Er (Originalton) ..hatte dann oben wenigstens schon was zu trinken.
Nach 3,5 Jahren des Privilegs eines der größten deutschen Radsporttalente trainieren zu dürfen, würde ich das ganz klar mit ja beantworten. Ob Jonas die Tour gewinnen kann? Von 8 harten Tagen am Stück bei der Österreich Rundfahrt auf eine Grandtour zu schließen, ist schwierig. Wer aber auf seiner ersten schweren Landesrundfahrt nur 3 Min. auf den Sieger verliert, ist ein Rundfahrer mit Potential.
Jonas fährt für das Team Hrinkow Advarics. Das Team hat ihn bei den Rundfahrten 2018 super unterstützt. Die Teamphilosophie steht für sauberen Radsport. Seine Leistungsentwicklung ist dokumentiert; hier gibt es nur Anpassungen an harte Reize und ein großes Talent. Anpassungen des aeroben Systems über mehrere Jahre erfordern ein Reizsystem, dass auch hochintensive Reize immer wieder in der Mehrjahresplanung berücksichtigt.
Sind aus meiner Sicht Leistungen um 6,3-6,5 W/kg pro Stunde ohne Doping möglich? Ja, das würde ich unterstreichen. Sind alle Sportler sauber, die 6,3-6,5 W/kg leisten? Das würde ich mir wünschen. Dumoulin und Froome fahre beide das Double Giro und Tour auf hohem Niveau. Das geht nur, wenn das Basislevel sehr hoch ist und das spricht aus meiner Sicht dafür, dass der Sportler davon ausgehend in Höchstform auch Topleistungen erbringen kann – ohne Doping. Bei der Tour 2018 habe ich keine Leistungen gesehen, die man mit einem Fragezeichen versehen müsste.
]]>Geht es um den Kampf gegen “Alternative Fakten”, geht es um die bessere Kommunikation von Forschungsergebnissen in die Gesellschaft, geht es um die Verbesserung der Arbeitsbedingungen der Angestellten im Wissenschaftsbetrieb, oder doch um etwas ganz anderes.
Eins hat der March for Science jedoch schon letztes Jahr gezeigt: Wissenschaftlerinnen und Wissenschaftler haben auch eine Stimme und können sich Gehör verschaffen – wenn sie denn wollen.
Es muss nicht jedes Mal eine Demo sein. Die Soziale Medien bieten deutliche niedrige Eintrittshürden um ein rationales Weltbild zu verteidigen. Aktuell finden zum Beispiel auf Twitter zwei Diskussionen statt, die deutlich machen, wie wichtig es ist, dass Menschen, die logisch argumentieren und deren Meinungen auf wissenschaftlichen Daten fußen, sich zu Wort melden.
Die Deutsche Homöopathie-Union, ein in Karlsruhe ansäßiges Unternehmen mit 100 Mio EUR Umsatz hat den Hashtag #MachAuchDuMit ins Leben gerufen, um auf die angeblichen Vorzüge der Homöopathie hinzuweisen.
Der Hashtag wurde von Menschen mit wissenschaftlicher Vorbildung regelrecht gekapert. Es ist der aktuelle Höhepunkt einer schon seit Monaten andauernden Debatte auf Twitter, die unter anderem zum Ziel hat die gesetzlichen Krankenkassen davon zu überzeugen, keine Leistungen zu erstatten, die erwiesenermaßen wirkungslos sind.
#MachAuchDuMit, und schreibe deiner Krankenkasse, dass du auf Homöopathie-Erstattung keinen Wert legst und lieber Zuschüsse für tatsächlich wirksame Maßnahmen, wie z.B. Brillen, hättest.
— Hans Zauner (@HansZauner) April 25, 2018
Ich bin jahrelang auf die #Homöopathie reingefallen, hab jede Kritik als lächerlich dargestellt und nicht gemerkt wie lächerlich und falsch genau das ist. Homöopathie ist keine wirksame Arzneitherapie, sie ist ein Placebo wie Heile-heile-Segen und Aua-Wegpusten. #MachAuchDuMit — Natalie Grams (@nataliegrams1) April 25, 2018
Ralf Reski, Professor für Pflanzenbiotechnologie an der Uni Freiburg und Professor Detlef Weigel vom Max-Planck-Institut für Entwicklungsbiologie in Tübingen tauschen sich seit Wochen auf Twitter mit verschiedenen Politikerinnen und Politikern der GRÜNEN über Pflanzengentechnik aus. Beide Wissenschaftler wünschen sich eine auf wissenschaftlichen Erkenntnissen basierende Diskussion der Chancen und Risiken des Einsatzes der Grünen Gentechnik in der Landwirtschaft.
Der Austausch findet leider nicht auf Augenhöhe statt. Die Fragen und Argumente der Wissenschaftler, die zum Teil unter dem Hashtag #Gentechnikwende laufen, bleiben unbeantwortet oder werden bestenfalls mit Scheinargumenten erwidert. Es wäre einfach, die Positionen der GRÜNEN mit Unwissenheit zu entschuldigen. Es ist aber längst klar, dass die GRÜNEN wider besserem Wissens bewusst Fakten ignorieren, um ihre Lobby- und Agendapolitik zu betreiben.
Knackige Forderungen zu #Grüne #Gentechnik, kecke Sprüche für Fragesteller, dann aber peinliches Schweigen bei Argumenten.
Deshalb brauchen wir die #Gentechnikwende jetzt. https://t.co/q8rioga4Rq— Ralf Reski (@ReskiLab) May 1, 2018
]]>Yup, das behaupten die Klimawandelleugner auch. Bitte nennen Sie mir Ernst zu nehmende wissenschaftliche Studien aus hochqualitativen peer review Zweitschriften. https://t.co/c7PZBcMK55 — Weigel Lab (@PlantEvolution) April 16, 2018
Wenn Juristen, Philosophen und Theologen im Ethikrat über die Zukunft meiner Forschungsdisziplin entscheiden wollen und dabei jegliche Pragmatik vermissen lassen. Wenn Journalisten vor lauter neutralem einerseits – andererseits den ihnen bequemen Meinungen soviel Gewicht einräumen wie fundierten wissenschaftlichen Ergebnissen, dann macht mich das wütend.
Als Ende 2007 so über die Zukunft der Stammzellforschung in Deutschland diskutiert wurde, machte mich das so wütend, dass ich entschied, mich nicht nur über Artikel in Zeitungen zu ärgern, sondern meinem Ärger Luft zu verschaffen und in Form eines Blogs dagegen anzuschreiben. Ironisch, manchmal zynisch, aber immer aus der Sicht eines tatsächlich forschenden Wissenschaftlers.
Ich traf mit meinen ersten Schreibversuchen offenbar Ton und Thema und drei Monate später zog mein noch junges Blog zu den ScienceBlogs um und WeiterGen war geboren. Rekrutiert worden bin ich damals übrigens von Beatrice Lugger. Die damalige Chefredakteurin der ScienceBlogs ist eine der Ausnahmefiguren in der deutschsprachigen Wissenschaftskommunikationszene – und das schreibe ich nicht, weil sie akutell als Direktorin am NaWik meine direkte Vorgesetze ist (mehr davon später).
Es folgten Jahre produktivsten Schaffens. Tags wurde im Labor geforscht und abends, oft bis spät in die Nacht, wurde für WeiterGen recherchiert, geschrieben, kommentiert und publiziert.
Der Mischung der Frustrationen aus nicht funktionierenden Experimenten im Labor, abgelehnten wissenschaftlichen Veröffentlichungen und die meinen Wissenschaftsalltag charakterisierende fehlende Unterstützung durch Vorgesetze, stand etwas Positives gegenüber: Ich bekam meine regelmäßige Dosis Glückshormone durch die Publikation meiner Artikel im Blog, durch die lebhaften Diskussionen in den Kommentarspalten und durch den täglichen Blick auf meine Leserzahlen in Google Analytics.
Meine Texte wurden durch viel üben besser, ich wurde als Blogger zu Konferenzen eingeladen: Dem EMBO-Meeting und – auch wieder katalysiert durch Kontakte von Beatrice Lugger – zu mehreren Lindau Nobel Laureate Meetings; und ich bekam ein Angebot, bei einem renommierten Verlag ein populärwissenschaftliches Buch zu veröffentlichen.
Zu letzterem sollte es nie kommen. Der Buchvertrag und der Wunsch, mehr Blogartikel zu schreiben, fiel meiner damaligen Entscheidung zum Opfer, mich auf meine akademische Laufbahn zu konzentrieren. Eine Fehlentscheidung, wie sich herausstellen sollte. Zwei Jahre später, mit neun Papers aus dem Postdoc, und nach Bewerbungen an Unis und Instituten weltweit, hatte ich immer noch keine Stelle als unabhängiger Forschungsgruppenleiter.
Ich entschied mich für einen Richtungswechsel. Mein trotziger Gedanke war: Wenn ich nach zehn Jahren Wissenschaft, also vier Jahren Doktorarbeit und fast sechs Jahren Postdoc, den nächsten Schritt nicht komfortabel gehen kann, dann mache ich eben etwas anderes.
Ich hatte Angst vor dem Schritt ins Ungewisse, aber ich hatte ein Leitmotiv: Durch meine Erfahrung mit dem Bloggen wusste ich: Es wird irgendwas mit Wissenschaftskommunikation.
Ich gründete ein Software-Startup, mit dem wir Wissenschaftler halfen, mit der aktuellen und jeweils relevanten Fachliteratur auf dem aktuellen Stand zu bleiben. Ich gründete eine Agentur für Wissenschaftskommunikation mit Spezialisierung auf Kommunikation für große, internationale Forschungsprojekte. Ich fing an, Workshops für Wissenschaftler zu geben. Und ich nahm vor knapp drei Jahren das Angebot an, am Nationalen Institut für Wissenschaftskommunikation (NaWik) in Karlsruhe zu arbeiten.
Aus meiner Leidenschaft ist also in den letzten zehn Jahren mein Beruf geworden, und aus Beatrice Lugger, der Person, die mich damals zu den ScienceBlogs geholt hat, ist meine Vorgesetzte und Mentorin geworden. Ohne WeiterGen wäre ich nie da gelandet wo ich jetzt bin.
Ich sollte ScienceBlogs dankbarer sein und wieder mehr Artikel schreiben. An möglichen Themen mangelt es wahrlich nicht. Ich mache mich auf die Suche nach der Zeit, die ich vor zehn Jahren dafür gefunden habe.
]]>In der Datei mit den detaillierten Ergebnissen (pdf) werden die 1007 Befragten weiter aufgeschlüsselt: Nach Wohnort, Haushaltsgröße, Einkommen, Alter, Schulbildung, Parteivorlieben, und so weiter.
Die angerufenen Teilnehmer wurden auch nach Ihrem Berufsfeld gefragt. 78 der Befragten gaben an, in Wissenschaft und Forschung zu arbeiten und 77 sagten, früher in Wissenschaft und Forschung gearbeitet zu haben (844 nicht). Wäre es nicht interessant zu sehen, in wie weit die befragten Wissenschaftlerinnen und Forscher die Lage zur Wahrnehmung ihres Berufsfeldes in der Bevölkerung anders einschätzten als der Rest?
Ich bin der Frage nachgegangen und habe hier die interessantesten Ergebnisse der detaillierten Aufschlüsselung des Datensatzes zum Wissenschaftsbarometer 2017 zusammengetragen. Meine Auswertung ist wegen zum Teil fehlender statistischer Signifikanz nicht ganz ernst gemeint.
Zunächst geht es um generelle thematische Interessen, und da wird klar, dass Wissenschaftler mannigfach interessiert sind. Natürlich an Wissenschaft, aber sowohl für Politik, Kultur als auch Sport haben prozentual mehr Wissenschaftler gesagt, sehr oder eher großes Interesse zu haben als der Rest der Befragten.
Nur an Themen zu Wirtschaft und Finanzen ist das Interesse der Wissenschaftler im Vergleich zu den nicht- oder nicht mehr Wissenschaftlern niedriger. Das verwundert wenig. Es gibt etliche Wissenschaftler, die nicht ohne Stolz auf ihren Beitrag zur reinen Grundlagenforschung verweisen, und die Fragen nach dem wirtschaftlichen Nutzen Ihrer Forschung mit Schulterzucken beantworten.
Vielleicht auch deshalb verdienen viele Wissenschaftler so wenig, dass sich die Frage nach dem Wohin mit dem Geld gar nicht stellt. Warum sollte man sich mit Finanzthemen beschäftigen, wenn das eigene Gehalt durch Miete und Lebenshaltungskosten komplett aufgezehrt wird?
Was bei der Analyse der detaillierten Ergebnisse weiter auffällt, ist die mangelnde Kenntnis der Bevölkerung, was Wissenschaft eigentlich ist und wie der Alltag vieler Wissenschaftler aussieht.
Auf die Frage, was es heißt, wissenschaftlich zu forschen, beschreiben die befragten Wissenschaftlerinnen und Wissenschaftler ihre Arbeit: Ideen haben, Probleme erkennen und analysieren, Thesen oder Theorien aufstellen und sie verifizieren, beobachten, prüfen, Zusammenhänge sehen, Erkenntnisse gewinnen.
Davon weiß ein Teil der Bevölkerung wenig. 30% der befragten Nichtwissenschaftler gaben an, nicht zu wissen oder keine Angaben machen zu wollen oder können, was es heißt etwas wissenschaftlich zu erforschen (Seite 269-270).
Auch bei der Fragen, welche Fähigkeiten man als Wissenschaftlerin mitbringen muss gibt es Diskrepanzen zwischen aktiven Forschern und der Bevölkerung. Zusammengefasst meinen Wissenschaftler, dass Intelligenz, Neugier und allgemeines Wissen weniger wichtig sind, als die befragten Nichtwissenschaftler glauben.
Ausdauer, Geduld und Hartnäckigkeit hingegen werden von Wissenschaftlern als wichtige Fähigkeiten beschrieben, als sie in der Gesellschaft wahrgenommen werden. 25% der Wissenschaftler meinen, Kreativität sei eine wichtige Fähigkeit.
Nur 4% der Nichtwissenschaftler schreibt diese Eigenschaft Wissenschaftlern zu.Laien und Experten sind sich Immerhin einig, dass Fachwissen und eine gute Ausbildung für Wissenschaftler benötigte Fähigkeiten sind (Seite 279).
Man kann diese Ergebnisse als einen Hinweis an die Kommunikation von Wissenschaft interpretieren. Es geht offenbar nicht nur darum, was Wissenschaftler machen, sondern auch wie Wissenschaft funktioniert. Es reicht nicht, wissenschaftliche Ergebnisse so aufzubereiten, dass sie für die Gesellschaft verständlich werden. Es geht auch darum, den Prozess des Forschens, sowie die wissenschaftliche Methode (mit) zu kommunizieren.
Vielleicht nimmt dann die Bevölkerung die Wissenschaft als weniger bedrohlich war – 45% der befragten Nichtwissenschaftler gab an, dass sich durch Wissenschaft und Forschung die Lebensbedingungen zu schnell ändern würden (Seite 195).
Wissenschaftler müssen dann auch nicht mehr zynisch verbergen, dass Intelligenz bei der Ausführung Ihres Berufs eine wichtige Rolle spielt.
Heute ist ja Bundestagswahl. Ich habe deshalb auch überflogen, ob die Aufschlüsselung nach politischen Parteien, ungewöhnliche Antwortmuster ergeben. Das Wissenschaft mehr schadet als nützt glauben zum Beispiel 6% der befragten Wissenschaftler. Bei Nichtwissenschaftlern sind es 13%. Fast ein Viertel (24%) der befragten Personen, die sich der SPD zuordnen gaben an, das Wissenschaft mehr schadet als nützt (Seiten 179,180).
Dass die Menschen zu sehr der Wissenschaft und zu wenig dem Glauben und Ihren Gefühlen vertrauen, denken 28% der befragten Wissenschaftler. 45% derer, die sich als sehr oder eher religiös bezeichneten stimmten der Aussage zu. Die Anhänger einer Partei überboten diesen Wert noch locker. Menschen vertrauen zu sehr der Wissenschaft und zu wenig dem Glauben oder Ihren Gefühlen gaben 57% der AfD Wähler an (Seiten 204, 205).
In diesem Sinne, vertrauen Sie der Wissenschaft und gehen Sie heute wählen.
]]>Die richtige Antwort wäre gewesen: “Es ist vollkommen egal wann ich das letzte mal in der Kirche war. Fragen Sie mich was wichtiges“. Wahlentscheidend war die Szene dennoch eher nicht – ich habe das Kanzlerduell kurz danach nicht mehr ausgehalten und habe ausgeschalten.
Die nachträglich publizierten Analysen zum langweiligen Frage-Antwort-Spiel haben meinen Verdacht bestätigt: Zu einer informierten Wahlentscheidung konnte die zermoderierte Sendung nicht beitragen.
Wie soll man also als dem Wechselwählen freundlich gesinnten Bürger nach dieser großen Koalition eine informierte Wahlentscheidung treffen? Der Wahl-O-Mat bietet sich zur Bestätigung der eigenen parteilichen Vorlieben an. Die dort abgefragte Themenbreite ist immerhin deutlich größer als das, wozu Merkel und Schulz im Duell sprechen durften.
Ich finde es noch viel interessanter, wie die Parteien speziell zu Fragen der Wissenschafts- und Forschungspolitik stehen.
Zum Glück gibt es auch hierfür Abhilfe: Die Organisatoren des Berliner Science March haben den Science-O-Mat ins Leben gerufen. Ein Wahl-O-Mat, der eben Fragen stellt (und parteispezifisch beantwortet), die für Wissenschaft und Forschung interessant sind.
Ich habe den Link zum Science-O-Mat schon einigen Freunden mitgeteilt. Eine häufige Rückmeldung bestand darin, die Auswahl der Fragen beziehungsweise deren Auswertung zu kritisieren. Bei vielen waren die sonst eher dem Lebensgefühl entsprechenden Grünen und Linken weit unten in der Liste der Parteien, die nahe an der eigenen Meinung zu Wissenschaft und Forschung stehen.
In den Kommentaren schwang mit, dass die Macher des Science-O-Mats bei der Entwicklung der kurzweiligen Webseite tendentiös gearbeitet haben könnten. Der March for Science ist zwar politisch, aber nicht parteiisch. Ich glaube, die bemerkte Diskrepanz zwischen den Erwartungen meiner Freunde und den Ergebnissen des Science-O-Mat ist eher eine Folge der forschungsfeindlichen Positionen der jeweiligen Lieblingsparteien.
Man mag sich ideologisch gerne Links oder Grün verorten. Wer Wissennschafts- und Forschungspolitik bei der eigenen Wahlentscheidung berücksichtigen möchte, könnte in Verlegenheit kommen, dann vielleicht doch mal was anderes zu wählen.
]]>Für mich, der die Wende als dreizehn und vierzehn Jahre alter Junge in Westdeutschland verfolgt hat, klingt das wie Geschichtsklitterei.
Mein Freund ist in Ostdeutschland aufgewachsen. Teilt jemand hier seine Meinung? Wie wird die Wiedervereinigung und die Rollen von Kohl, Modrow, Gorbatschow, Genscher und Schäuble eigentlich in Schulen gelehrt? Gibt es da Unterschiede zwischen Ost und West?
]]>Das Tribeca Film Festival schmückt sich jedes Jahr mit tollen Filmen, oft abseits des Mainstreams. Dokumentationen zählen zum Kernprogramm. Dieses Jahr sollte der Film “Vaxxed: From cover up to catastrophe” gezeigt werden.
Der Regisseur des Films ist Andrew Wakefield. Wakefield ist eine Ikone der Impfgegner-Szene. Er ist durch die Publikation einer Studie in einem renommierten Wissenschaftsjournal bekannt geworden, in der ein vermeintlicher Zusammenhang zwischen der Kombi-Impfung gegen Masern, Mumps und Röteln (MMR) und Autismus bei Kindern gezeigt wurde.
Inzwischen konnte klar gezeigt werden, dass kein Zusammenhang zwischen der Impfung und Autismus besteht. Wakefield wurde mehrfaches wissenschaftliches Fehlverhalten nachgewiesen, er hat seine Approbation als Arzt verloren und das besagte Paper ist zurück gezogen worden.
Fakten interessieren jedoch die Impfgegner-Szene wenig, und auch die Organisatoren des Tribeca-Filmfestivals waren offenbar ebenfalls schlecht informiert, als sie die Dokumentation ins Programm hoben. Robert, de Niro, einer der Gründer des Filmfestivals, begründete die Nominierung von “Vaxxed” unter anderem damit, dass er selbst ein autistisches Kind habe, und alle Themen im Zusammenhang mit den Ursachen von Autismus offen diskutiert und untersucht werden sollten [sic].
Vor allem auf Twitter wurde Kritik an der Nominierung des Films laut. Um zu verdeutlichen, wie wenig die Dokumentation Wakefields mit der realen Datenlage zu tun hat, wurde unter dem Hashtag #futuretribecadocumentary absurde Titel für zukünftige Dokumentationen beim Tribeca Festival vorgeschlagen:
The Day We Sailed Off The Earth #futureTribecadocumentary @Tribeca
— Jennifer Gunter (@DrJenGunter) March 26, 2016
Gravity: Just The Man’s Way Of Keeping Us Down#futuretribecadocumentary
— Deborah Roseman (@roseperson) March 26, 2016
The 6000 year old Earth#futuretribecadocumentary — Diana Barbosa (@diraquel) March 26, 2016
Die Macher des Festivals reagierten. In einem ersten Schritt wurde die geschönte Biografie von Wakefield von der Webseite des Festivals entfernt.
Gestern Nacht dann wurde auf der Facebook-Seite von Tribeca ein Statement von de Niro ergänzt, in dem er erklärt, dass er nachdem er unter anderem mit Wissenschaftlern gesprochen hat, sich entschieden hat, die Dokumentation aus dem Festivalprogramm zu entfernen.
]]>Die katholische Kirche ist nicht unbedingt als reformfreudige Organisation bekannt. Die Social Media Accounts des Pontifex werden jedoch wie selbstverständlich in die Kommunikationsstrategie des Vatikans integriert. Weil sie erkannt haben: Nirgendwo sonst kann das Oberhaupt der Kirche so persönlich und so direkt mit den Gläubigen in Kontakt treten. Regelmäßige Statusupdates – und seien sie noch so trivial – stärken die Beziehung zur Zielgruppe.
Pray for me.
— Pope Francis (@Pontifex) March 13, 2016
Am 18. März war ich beim Workshop “Kommunikation zwischen Wissenschaft, Öffentlichkeit und Medien: Bedeutung, Chancen und Risiken der sozialen Medien”, organisiert von den Wissenschaftsakademien. Bei der eintägigen Veranstaltung sollte in den vorgestellten Expertisen beleuchtet werden, wie soziale Medien und Wissenschaftskommunikation zusammen passen oder zusammen kommen können.
Nun sind die Wissenschaftsakademien nicht der Vatikan und Peter Weingart, der Sprecher und Koordinator des Projekts, hat soweit ich weiß auch weder ein Twitter- noch ein Instagram-Account. Daher bin ich mir auch nicht ganz sicher, ob den Organisatoren, den Autoren der Expertisen und den Experten auf dem Podium klar geworden ist, was die Sozialen Medien für die Wissenschaftskommunikation leisten können und schon leisten.
Meine Zweifel ob die akademische Elite der Wissenschaftskommunikation, die das Podium in Berlin geschmückt hat, das Potential der Sozialen Medien voll erkannt hat, wurden leider bei der Tagung nicht ausgeräumt. Während laut dem Titel der Veranstaltung Bedeutung, Chancen und Risiken untersucht werden sollten, war von den Chancen auf der Tagung fast keine Rede mehr.
Desinformation, Mainstreaming und Fragmentierung wurden schon in der Ankündigung als Beispiele für spezifische Risiken der Wissenschaftskommunikation über Soziale Medien genannt. In Berlin wurden dann Bedenken um mangelnde Qualitätskontrolle geäußert und die ökonomischen Kosten der Kommunikation online duschdekliniert. Es wurde vor drohendem Reputationsverlust kommunizierender Organisationen und Akteure gewarnt, und natürlich blieb die Gefahr der Auflösung klarer Grenzen zwischen unabhängigem Qualitätsjournalismus und Wissenschafts-PR nicht unerwähnt.
Selbst im Ausblick wurde ein düsteres Bild gemalt: Bots und Algorithmen können die Wissenschaftskommunikation negativ beeinflussen oder die Forschung gleich ganz übernehmen.
Ich habe nach der Präsentation der ökonomischen Perspektiven des Wissenschaftsjournalismus und der Wissenschaftskommunikation (eines der vorgestellten Ergebnisse: Soziale Medien revolutionieren die Wissenschaftskommunikation nicht) die Rednerin gefragt, ob neben den Kosten, die die Kommunikation auf Sozialen Medien verursachen, nicht auch deren Nutzen untersucht wurde.
Die Datenlage sei zu dünn, war die lapidare Antwort. Und in der Tat haben während der gesamten Veranstaltung in Berlin sinnvolle Best-Practice Beispiele gefehlt.
Ich dachte mir, ich nehme diesen Artikel daher als Anlass, um ein paar Zahlen und Fakten zu Sozialen Medien in der Wissenschaftskommunikation zu sammeln, auch über den deutschsprachigen Tellerrand hinaus. Ich würde mich freuen, wenn meine natürlich unvollständige Liste in den Kommentaren noch ergänzt würde:
]]>
Hinter den Kulissen jedoch spielen sich beim wissenschaftlichen Publizieren häufig Dramen ab, die nicht selten Parallelen zur Game of Thrones Saga aufweisen. Diesen Vergleich zog Ana Ros Camacho, eine der Teilnehmerinnen beim Heidelberg Laureate Forum. Fakt ist: Das Publizieren von Ergebnissen ist ein wesentlicher Teil der Arbeit als Wissenschaftlerin – und abgelehnte Manuskripte, deren verzögerte Veröffentlichung oder Unstimmigkeiten beim internen Festlegen der Reihenfolge der Autoren auf dem Paper sind oft der Auslöser schlafloserer Nächte und nicht selten karrierebeeinflussend.
Die sich abspielenden Dramen unterscheiden sich interessanterweise je nach Wissenschaftsdisziplin und spielen sich auf unterscheidlichen Schlachtfeldern ab, um bei dem Game of Thrones Vergleich zu bleiben. Günter Ziegler, Professor am Institut für Mathematik an der FU Berlin, erklärte mir, dass Manuskripte in der Mathematik häufig vorab auf arXiv veröffentlicht werden und auf Kommentare von Fachkollegen gewartet wird, bevor das Paper dann an ein Journal geschickt, und dann nach der externen Begutachtung publiziert wird. Dieser zweite, offizielle Publikationsweg dauert aber durch den sehr gewissenhaften Reviewprozess in der Mathematik zum Teil Jahre vom Zeitpunkt der Einreichung bis zur Veröffentlichung, so dass Nachwuchswissenschaftler oft wenig offiziell Publiziertes nachweisen können wenn sie sich beispielsweise auf Stellen bewerben. Die Autorenreihenfolge spielt in der Mathematik laut Ziegler übrigens keine Rolle: Es wird strikt alphabetisch sortiert.
Jedes Jahr werden weltweit über eine Million neue begutachtete molekularbiologische und medizinische Fachartikel veröffentlicht. Die Dramen beim Publikationsprozess unterscheiden sich in diesen Disziplinen ganz erheblich von der Mathematik. Die Vorabpublikation der Manuskripte auf sogenannten pre-print Servern ist weit weniger verbreitet. Die Magazine haben in den letzten Jahren viel unternommen, um den Begutachtungsprozess zu beschleunigen, so dass inzwischen im Idealfall nur wenige Wochen vergehen, bis ein eingereichtes Manuskript publiziert werden kann.
Die subjektiv wahrgenommene Realität aus böswilligen Gutachtern und inkompetenten Editoren ist jedoch oft eine andere. Manuskripte werden oft direkt auf editorieller Ebene abgelehnt und müssen dann mühsam für das nächste Journal umgeschrieben und umformatiert werden. Gutachter fordern aufwändige zusätzliche Experimente und Analysen, deren Sinn sich für die Autoren nur selten erschließt oder die zwar thematisch passen, aber mit der Kernaussage des Manuskripts wenig zu tun haben. Das alles kostet Zeit und verlängert die Publiktionsphase nicht selten auf rund ein Jahr vom Fertigstellen des ersten Manuskripts bis es dann tatsächlich erschient. Unterschwellig schwingt in diesem Jahr Wartezeit immer die Angst mit, dass eine konkrurrierende Gruppe vergleichbare Ergebnisse publizieren könnte, da die Daten eben vorab nicht auf einen Preprint Server gelegt wurden.
Im Gegensatz zur alphabetischen Sortierung in Mathematik ist die Erstellung der Autorenliste im biomedizinischen Bereich ein hochpolitisches Instrument. Die Rangliste soll hier reflektieren wer wie viel zum Paper beigetragen hat. Und wer die Verantwortung trägt (und die Finanzierung beigetragen hat) steht ganz hinten. Die Positionen auf den Veröffentlichungen haben ganz konkreten Einfluss auf die weitere Karriere. Nur Erstautoren können sich auf bestimmte Stipendien bewerben und nur jenen an letzter Stelle wird der Verteilung von Antragsgeldern geglaubt, das Projekt initiiert und geleitet zu haben.
Nur wie misst man den Beitrag der Autoren? Wie viel zählen Idee, Durchführung der Experimente, Analyse der Daten, Anfertigung der Abbildungen und das eigentliche Schreiben des Manuskripts? Spätestens bei großen kooperativen Projekten verteilt sich das auf mehrere Schultern und The Game of Thrones kann beginnen: Wer steht ganz vorne? Wer kommt direkt dahinter und bekommt möglicherweise ein Sternchen hinter den Namen als ebenbürtiger aber eben doch nicht ganz gleichwertiger Erstautor? Gibt es zusätzliche verantwortliche (corresponding) Autoren, wird dafür eine jüngere Autorin in der Rangfolge herabgesetzt? Wo reiht sich der Postdoc ein, der nur schnell noch ein, zwei Experimente für die Revision nachgereicht hat, aber ein besonders kollegiales Verhältnis zum Chef pflegt?
In der Regel sind es zwischen einer Hand voll und einem Dutzend Autoren, die auf diesen Publikationen stehen, die man zuerst mal versucht bei Cell, Nature oder Science einzureichen (und meistens nach ein paar Tagen abgelehnt zurück bekommt). Wie sieht es aber bei noch komplexeren Projekten mit der Bestimmung der Autorenlisten aus?
Calliope Sotiropoulou arbeitet am ATLAS Projekt am CERN. Hunderte Wissenschaftler forschen an den Experimenten dort, dementsprechend lang sind die Autorenlisten. Angefertigte Manuskripte durchlaufen dort zuerst eine offizielle interne Kontrolle, bevor sie überhaupt an ein Journal geschickt werden. Sotiropoulou, die ebenfalls Teilnehmerin am Heidelberg Laureate Forum 2015 war, beschreibt, wie ein Game of Thronesques Gemetzel umgangen wird:
“The ATLAS experiment has many subsystems and each one has a Speaker’s committee. This committee informs the subsystem members about the conferences that are suitable for publications and presentations and controls the whole process. We submit the abstract or proceeding to the Speaker’s committee where it goes through a review process first by the committee before it is even submitted. […] Then all ATLAS submissions are handled by the committee which will also decide who will make the presentation or present the poster (everything goes through a review process again).
A publication within ATLAS can have a custom author list (which means that only the directly involved scientists sign it […]) or be an ATLAS publication (which means that the whole ATLAS collaboration – author list signs it). Belonging to the ATLAS collaboration does not make you an ATLAS author. In order to become an ATLAS author you are assigned an authorship task and qualify to be an ATLAS author. This task must be completed successfully within a year. After that you sign all ATLAS publications. However, for a paper to be published through ATLAS and with the ATLAS author list it takes significant time (usually a year or more). It has to go through reviewing and commenting through the various institutes that participate and be presented to the collaboration, and this has many iterations until it is finally ready for publication. […].”
Ich nehme heute an einer Podiumsdiskussion am KIT in Karlsruhe teil: Publish or perish. Sinnvoll publizieren. Ich bin gespannt, welche Dramen sich bei der Publikation von Artikeln in anderen Wissenschaftsdisziplinen abspielen.
Ich kann mir gut vorstellen, die Diskussion heute Nahmittag mit einigen Beispielen aufzulockern. Wer also eigene traumatische Erlebnisse mit dem Publikationsprozess gemacht hat, bitte unten kommentieren!
]]>Das Heidelberg Laureate Forum ist das Gipfeltreffen preisgekrönter Wissenschaftler aus Mathematik und Computerwissenschaften. Die Koryphäen kommen dort kommende Woche mit 200 Nachwuchswissenschaftlern aus etlichen Ländern in Heidelberg zusammen. Wie kommt es also, dass ausgerechnet ich, mit zugegebenermaßen beschränktem mathematischen Verständnis und kaum erwähnenswerten Ausflügen in die Programmierung von Computern, von dort berichten darf?
Moderne Mathematik und Computerwissenschaften haben mit der von mir so innig gehassliebten Schulmathematik wahrscheinlich so viel zu tun wie eine Magnetschwebebahn mit der Draisine. Das Verständnis der Grundlagen wird für mich also sicher nicht einfacher – und darüber kann ich dann auch nicht berichten auf dem HLF-Blog. Ich habe mir aber vorgenommen beim Laureate Forum in Heidelberg die Fragestellungen zu verstehen, die hinter der Forschung stehen. Die potentiellen und realen Anwendungen der beiden Forschungsgebiete vorzustellen, schlicht also das für mich geistig so Fremde und Abstrakte greifbar zu machen.
Ich habe mir zur Vorbereitung auf das Heidelberg Lautete Forum durchgelesen an was die 200 Nachwuchswissenschaftler forschen. Sowohl die Faszination wie auch das Verständnis für Mathematik und Computerwissenschaften haben dabei schon zugenommen. Einige mehr oder weniger zufällig ausgewählte Teilnehmerinnen und Teilnehmer stellen sich, ihre Motivation, und ihre Forschungsgebiete zur Einstimmung auf die Tagung drüben im englischsprachigen Blog jeden Tag diese Woche vor. Unter anderem von mir gibt es dann kommende Woche auch auf dem deutschen Blog des HLF Texte aus Heidelberg. Der Twitter Hashtag ist #hlf15.
Die veränderte Medienlandschaft bietet Wissenschaftlern die Möglichkeit, über Artikel in Fachpublikationen hinaus, direkt an der Kommunikation über Wissenschaft teil zu nehmen und somit die Wahrnehmung der Wissenschaft im Allgemeinen und die der eigenen Person und Forschung im Speziellen zu beeinflussen.
Nicht alle Wissenschaftler haben die Chancen, die sich dadurch bieten erkannt, oder eine Antwort auf die Frage, warum man als Wissenschaftler überhaupt von den verfügbaren Medien Gebrauch machen und kommunizieren sollte.
Jene Frage, auf die es, vielleicht wenig überraschend, keine allgemeingültige Antwort gibt, wird zentral in den Seminaren des Nationalen Instituts für Wissenschaftskommunikation (NaWik) behandelt.
Ganz egal, ob die Kommunikation primär der Förderung der eigenen Reputation dienen soll, ob es einfach aus Spaß an der Weitergabe des eigenen Wissens geschieht, oder man sich der Gesellschaft gegenüber verpflichtet fühlt, die als Gesamtheit der Steuerzahler ja häufig die eigene Forschung finanziert: Das NaWik bietet Wissenschaftlern in Seminaren die Möglichkeit die Werkzeuge effektiver Kommunikation zu lernen und mit neuen wie traditionellen Medien professionell umzugehen.
Was sich wie ein Absatz aus einem Werbeprospekt für das NaWik anhört, hat genau diesen Hintergrund: Ich bin seit kurzem Dozent am Nationalen Institut für Wissenschaftskommunikation und biete zusammen mit meinen Kollegen eben solche Seminare an.
Meistens werden diese Veranstaltungen von Unis und wissenschaftlichen Einrichtungen für ihre Mitarbeiter direkt gebucht. Aufgrund zahlreicher Nachfragen bieten wir aktuell drei offene Seminare in unseren Räumen in Karlsruhe an: “Verständlich Schreiben” mit Klaus Wingen, “Verständlich Präsentieren” mit Kristin Raabe und ein Seminar zu “Wissenschaft Online und in Sozialen Medien” mit mir als Dozent.
Es sind übrigens noch ein paar Plätze offen in den Seminaren. Hier gibts mehr Informationen zu den Seminaren und auch einen Link zur Anmeldung!
Seine Hepatitis C wurde mit einer Kombination aus dem Nukeleosidanalogon Ribavirin, das virostatisch wirkt, und einem PEGylierten (und damit retardiert wirkendem) Interferon behandelt. Jörg Böckem war mit dem Genotyp 1 des Hepatitis C Virus infiziert und hatte Glück zu jener Hälfte der Patienten zu gehören, die nach Abschluss der einjährigen Therapie virenfrei waren.
Hepatitis C ist keine seltene Krankheit. Es wird davon ausgegangen, dass weltweit bis zu 200 Millionen Menschen infiziert sind. In Georgien sind mindestens 7% der Bevölkerung HCV-Positiv und in den USA sterben inzwischen mehr Menschen an den Folgen einer Hepatitis C Infektion als an AIDS.
Seit Jörg Böckems interferongeschwängertem Tagebuch voller Horrorstories der Nebenwirkungen der Medikamente, fand eine Biotechrevolution bei der Hepatitis C Therapie statt.
Das von Gilead Sciences entwickelte und erst seit kurzem zugelassene Kombipräparat Harvoni® kann oral eingenommen und muss nicht mehr injiziert werden. Die Nebenwirkungen sind im Gegensatz zur interferonbasierten Therapie äußerst mild. Die Therpiedauer ist von einem Jahr auf zwei bis drei Monate verkürzt und vor allem: Während die interferonbasierte Therapie nur bei der Hälfte der Träger des Hepatitis C Virus Genotyp 1 anschlägt, wirkt Harvoni® bei über 95%, je nach Studie bis 99% der Infizierten.
Harvoni® besteht aus einem spezifischen Inhibitor der RNA-Polymerase (Sofosbuvir) und einem Inhibitor des NS5A Proteins des Hepatitis C Virus (Ledipasvir). Sofosbuvir (Sovaldi®) wird auch alleine bei der Hepatitis C Therapie eingesetzt. Andere Unternehmen wie AbbVie (Viekira Pak®), Bristol Myers Squibb und Merck USA ziehen mit ähnlichen Präparaten nach und haben die Zulassung Ihrer Hepatitis C Medikamente entweder beantragt oder bereits erhalten. Harvoni® wirkt auch bei Infektionen mit anderen Hepatitis C Genotypen zu über 90% und wird zur Therapie vorgeschlagen.
Klingt fast zu gut um war zu sein? Spätestens bei den Kosten der neuen Hepatitis C Medikamente schlucken Krankenkassen, Gesundheitspolitiker und Mitblogger Joseph Kuhn. Die Harvoni-Therapie schlägt in den USA mit umgerechnet über 1000 Euro zu Buche – pro Pille. Das sind fast 85 000 Euro für eine zwölfwöchige Behandlung.
Wie sind diese Kosten zu rechtfertigen? Aus Sicht der Pharmaunternehmen sind es neben dem Ziel natürlich Gewinn machen zu wollen, die hohen Forschungs- und Entwicklungsausgaben, die durch Verkäufe erfolgreicher Medikamente wieder eingespielt werden müssen. Außerdem würden durch die medikamentöse Behandlung hohe Folgekosten für die Gesundheitssysteme vermieden, beispielweise durch nun nicht mehr notwendige Lebertransplantationen nach Zirrhosen.
Tatsache ist, dass die unverbindlichen Preisempfehlungen der Hersteller selten den realen Marktpreisen entsprechen und zum Teil deutliche Preisnachlässe ausgehandelt werden. Für die Märkte in Schwellenländern werden außerdem Lizenzen an Unternehmen vergeben, die auch von patentgeschützen Wirkstoffen Generika herstellen und deutlich günstiger anbieten können.
Gilead hat sich unterdessen vorgenommen Hepatitits C auszurotten. Das Unternehmen plant eine Pilotstudie im 5 Millionen Einwohner Land Georgien, in dem, wie weiter oben schon erwähnt, 7% aller Bewohner HCV positiv sind. Gilead plant, die notwendigen Medikamente allen Infizierten Georgiern kostenlos zur Verfügung zu stellen. Unterstützt werden sie dabei vom US-amerikanischen Center for Disease Control and Prevention. Ein globaler Fond zur Bekämpfung von Hepatitis C, ähnlich wie zur Bekämpfung von Tuberkulose, AIDS und Malaria, ist angedacht.
]]>
Auch für die USA liegt der Preis denkbar knapp an der Rentabilitätsschwelle für die Ölförderung durch Fracking. Die Vergangenheit dient als Warnung. Der letzte Fracking-Boom in den USA in Folge der Ölkrise der 70er Jahre des vergangenen Jahrhunderts fand Anfang der 80er Jahre ein rapides Ende, ausgelöst durch fallende Ölpreise, damals vor allem verursacht durch die Verfügbarkeit billigeren Öls aus Alaska und der Nordsee.
Paradoxerweise kann selbst Saudi-Arabien, der größte Produzent und einflussreichstes Mitglied der OPEC, bei einem Preis von 70 Dollar pro Barrel nicht mehr rentabel fördern. Der eine Dreiviertel Billion Dollar umfassende Bargeldpuffer der Saudis erlaubt es ihnen jedoch abzuwarten und zu beobachten, wie weniger rentable und weniger liquide Konkurrenten der Reihe nach Probleme bekommen. Das selbst ärmere OPEC-Länder wie Venezuela, Nigeria und der Iran davon betroffen sind, wird offenbar in Kauf genommen.
Der aktuell relativ niedrige Ölpreise dürfte auch die Debatte um die Gewinnung von Schiefergas in Deutschland durch Fracking wenn nicht aufgehoben, so doch zumindest aufgeschoben haben. Denn abgesehen von der Frage der Rentabilität, scheint rein rational wenig gegen die Gasförderung durch Fracking auch in Deutschland zu sprechen.
]]>Bei einem Volksmarathon kommen im Durchschnitt rund 80% der Starter im Ziel an, und wer ausreichend trainiert, ist wahrscheinlich bei den Finishern dabei. Der Anteil der promovieren Wissenschaftler, die irgendwann mit unbefristetem Arbeitsvertrag ausgestattet in einem akademischen Umfeld arbeiten, ist hingegen lächerlich gering. 8% der Doktoranden haben aktuellen Zahlen aus den USA zur Folge später tatsächlich eine (immer noch befristete) “Tenure-Track” Stelle inne.
Ungeachtet der miserablen Aussichten auf eine erfolgreiche wissenschaftliche Karriere wertet die Mehrzahl der Doktoranden und Doktorandinnen Forschung oder Lehre innerhalb des akademischen Umfelds dennoch als attraktivsten Karriereweg. Kein Wunder, werden doch laut einer Studie 85% aller Doktoranden in den Biowissenschaften innerhalb ihres beruflichen Umfelds ermutigt, eine wissenschaftliche Karriere anzustreben, anstatt sie realistisch und adäquat auf den Arbeitsmarkt vorzubereiten.
Das Missverhältnis zwischen den akademischen Karriereplänen vieler Nachwuchswissenschaftler und der den tatsächlichen Beschäftigungsmöglichkeiten im System, zusammen mit fehlender oder nur rudimentärer Karriereberatung an den Unis und Instituten führt regelmäßig zu großen Frustrationen. Wenn die Erkenntnis reift, dass man trotz harter Arbeit, trotz guter Ideen, trotz jahrelanger Entbehrungen und trotz vieler Publikationen, den Marathonlauf nicht zu Ende bringen wird, stellt sich nicht selten das Gefühl ein, beruflich gescheitert zu sein.
Es wird Zeit, dass sich die Kultur ändert. Eine Doktorarbeit ist keine Etappe in einem Wettlauf und eine wissenschaftliche Karriere ist kein Marathon mit einem Ziel, das mit großer Wahrscheinlichkeit nie erreicht wird. Wenn nicht einmal jeder zehnte Doktorand langfristig Platz im akademischen System findet, ist die Promotion vielmehr eine qualifizierende Zusatzausbildung für den Arbeitsmarkt außerhalb, als ein Baustein einer wissenschaftlichen Karriere.
Das muss nicht nur so kommuniziert werden, ich denke, die Institute und Fakultäten haben ob dieser Zahlen dem wissenschaftlichen Nachwuchs gegenüber sogar die Verantwortung, sie aktiv bei der Berufswahl zu unterstützen. Ich weiß, dass es an britischen Universitäten sogenannte “Career Offices” gibt. Wie steht damit in Deutschland? Gibt es unterstützende Maßnahmen für die Karriere außerhalb? Wie sehen diese aus und werden sie angenommen?
]]>Inzwischen ist auf dem kleinen Punkt auf dem Radar auf Saint Martin eine veritable Epidemie geworden. Es gibt über 180 000 Verdachtsfälle aus der gesamten Karibik, inklusive der Touristenziele Dominikanische Republik und Martinique. Mehrere Fälle werden inzwischen auch aus Cuba, Mexico, anderen mittelamerikanischen Ländern, sowie den USA beschrieben.
Die Fälle sind bislang durch Touristen oder Geschäftsreisende eingeschleppt worden, Experten warnen jedoch, es sei nur noch eine Frage der Zeit, bis das Virus auch auf dem amerikanischen Festland endemisch wird.
Das Chikungunya Virus ist ein Alphavirus mit einem 11,6 kB großen, einsträngigen RNA-Genom. Das Virus hat die Form eines Ikosaeders und ist etwa 40 nm im groß. Es befällt Fibroblastenzellen und Muskelvorläuferzellen. Eine Infektion mit dem Chikungunya-Virus führt nach einer normalerweise zwei bis dreitägigen Latenzzeit zu Hautausschlag und akuten Fieberschüben, die mehrere Tage anhalten.
In der Folge klagen infizierte über arthritis-ähnlichen Schmerzen in den Gelenken der Extremitäten, die in Ausnahmefällen mehrere Jahre anhalten können. Es gibt aktuell weder die Möglichkeit, eine Infektion spezifisch zu therapieren, oder einen Impfstoff gegen die Infektion mit dem Virus. Übertragen wird das Chikungunya-Virus von Stechmücken der Gattung Stegomyia (früher: Aedes).
Die aktuell dokumentierten Chikungunya-Fälle beschränken sich nicht auf Amerika alleine. In Katalonien sind erste Verdachtsfälle aufgetreten, und Frankreich hat 47 Verdachtsfälle, allesamt bislang jedoch vermutlich eingeschleppt durch Aufenthalte in der Karibik.
Was muss passieren, dass die Krankheit auch in Europa zur Epidemie wird? Neben dem Einschleppen aus betroffenen Regionen, muss der Überträger endemisch sein, also die Stechmücken, die das Virus übertragen.
Ein bekannter Überträger von Chikungunya ist die Asiatische Tigermücke Aedes albopictus. Die Moskitoart wurde 1990 nach Italien gebracht und ist inzwichen im gesamten Mittelmeeraum verbreitet. 2011 wurde die Moskitoart auch in in Deutschland gesichtet. Im warmen, äußersten Südwesten des Landes.
]]>Die E-Zigarette wird auch so vermarktet: Zwei Drittel der in einer Studie untersuchten Marketing Claims von Anbietern der elektrischen Zigarette nehmen direkt auf den Ausstieg aus dem Tabakkonsum Bezug.
Wie sieht es aber mit der Evidenz aus? Hilft die E-Zigarette um mit dem Rauchen aufzuhören? Dadurch, dass die elektrische Variante der Zigarette eine relativ neue Erfindung ist, gibt es nicht besonders viele Studien zum Thema. Diejenigen, die ich mir angeschaut habe, zeigen keinen klaren Nutzen des Tabakersatzprodukts beim Abgewöhnen der Sucht.
Eine klinische Studie mit 657 aussteigewilligen Teilnehmern aus Australien hat untersucht, ob die E-Zigarette beim Aufhören besser hilft als Nikotinpflaster oder der kalte Entzug in Form von Placebo-E-Zigaretten.
Die Teilnehmer der Studie wurden drei Monate mit den Zigarettenersatzpräparaten versorgt, und sechs Monate nach Studienstart wurde der Erfolg beim Aufhören ausgewertet. 7,3% der Teilnehmer, die auf E-Zigaretten umgestiegen waren, hatten auch sechs Monate nach Studienstart den tabakhaltigen Zigaretten entsagt. 5,8% der Teilnehmer, die Nikotinpflaster benutzten und 4.1% der Teilnehmer, die nikotinfreie Placebo-E-Zigaretten bekamen, waren ebenfalls zigarettenfrei nach den sechs Monaten Beobachtungszeitraum. Ein klarer Nutzen sieht anders aus.
Eine aktuell publizierte Populationsstudie fand zwar, dass signifikant mehr Frauen, junge Erwachsene und Menschen mit wenig Bildung sich auf die E-Zigaretten einlassen; in der Studie war jedoch der Anteil derjenigen, die nach einem Jahr aufgehört hatten in der Gruppe jener, die E-Zigaretten rauchten sogar niedriger als in der Zigaretten rauchenden Kontrollgruppe.
Die Autoren schreiben, mit Einschränkung der statistischen Aussagekraft ihrer Daten, dass es verboten werden sollte, E-Zigaretten in der Werbung als Mittel zum Aufhören anzupreisen, so lange die Evidenz hierfür fehle. Eine Stellungnahme des Deutschen Krebsforschungszentrums dkfz zur E-Zigarette kommt zu ähnlichen Schlussfolgerungen: “Die Evidenz reicht bislang nicht aus, um qualifizierte Aussagen zur Wirksamkeit der E-Zigarette als Hilfsmittel zum Rauchstopp zu treffen.”
Zur Frage, ob ehemalige Raucher mit den weniger direkt gesundheitsschädlichen E-Zigaretten wieder anfangen, also auf die alte Sucht im neuen Gewand hereinfallen, habe ich leider keine Daten gefunden. Eine Annekdote aus den Kommentaren zum Artikel gestern beschreibt, wie die E-Zigarette von einem ehemaligen Raucher zur Kontrolle von Hunger und Gewicht eingesetzt wird.
Vielleicht besinnen sich ja die Hersteller der E-Zigarette und bewerben ihre Produkte in Zukunft als Diätmittel.
]]>Seit 2007 wird ein Mittel gegen den Tabaktod angeboten. Die E-Zigarette raucht nicht, sie produziert Dampf. Die E-Zigarette stinkt nicht, weil nichts verbrannt wird. Die E-Zigarette ist weniger gesundheitsschädlich, denn es entsteht kein Kohlenmonoxid, keine Blausäure, kein Arsen, keine Nitrosamine und keine polyzyklischen Kohlenwasserstoffe.
Ist die elektrische Zigarette also die Lösung eines der größten Gesundheitsprobleme unserer Zeit? Die Teilnehmer einer Vortragsrunde mit dem Titel “Sanftes Töten oder unsere größte Chance für das Gesundheitswesen” äußerten sich gestern auf dem Euro Science Open Forum (ESOF) vorsichtig positiv, hatten allerdings auch Bedenken.
Wilson Compton, Stellvertretender Direktor vom NIDA zitierte Literatur, wonach genetische Unterschiede in Nikotinrezeptoren dazu beitragen, wie viele Zigaretten ein Raucher braucht und wie abhängig und krank er dementsprechend wird. Auch sei bei Jugendlichen die Plastizität des Gehirns noch hoch, und daher die Gefahr der Abhängigkeit von Nikotin daher höher.
Das sind allerdings keine Bedenken spezifisch gegen die elektrische Variante der Nikotinzufuhr, und so hatte Sudhanshu Patwardhan, internationaler Engagement Officer von Nicoventures Media, also der Vertreter der Industrie, es leicht, die E-Zigarette als die Lösung aller Gesundheitsprobleme darzustellen. Er prognostizierte, dass 2021 mehr Geld mit E-Zigaretten als mit traditionellen Tabakprodukten umgesetzt wird.
Als Kontrapunkt sprach danach Deborah Arnott, die Leiterin der not-for-profit Organisation ASH (action on smoking and health). Die E-Zigarette sei seit 2007 auf dem europäischen Markt, und obwohl die Hälfte der Raucher in Großbritannien sie schon ausprobiert habe, würde nur ein Drittel derjenigen die es probieren, tatsächlich umsteigen, berichtete Arnott. Dennoch sei zu beobachten, dass obwohl die Zahl der Nutzer der E-Zigaretten derzeit stark ansteigt, die Gesamtzahl der Raucher weiter abnehmen würde.
Alle Teilnehmer der Session erkannten großes Potential in den elektronischen Zigaretten, da die gesundheitlichen Gefahren durch die giftigen Inhaltsstoffe tabakbasierter Zigaretten weitgehend wegfallen würden. Besonders Arnott warnte aber auch vor potentiellen neuen Gefahrenquellen durch zugesetzte Aromastoffe, Verunreinigungen, und vor fehlender Regulierung des Marktes. Auch die Gefahr, dass die E-Zigarette eine Einstiegsdroge für Jugendliche sei, ist gegeben und kann noch nicht beurteilt werden, da der Markt einfach noch zu jung sei.
“People smoke for nicotine but die from tar” war die Erkenntnis, auf die alle Präsentationen aufbauten. Der Rauch ist also das Problem, und nicht das Nikotin. Zumindest aus gesundheitspolitischer Sicht.
Wer Abhängigkeiten aber generell nicht mag, für den sind aber auch mit LED Lämpchen bestückte Vaporisieraparaturen keine Alternative. Für den gibts nur den Entzug. Und für ehemalige Raucher die Hoffnung, nicht auf die alte Sucht im neuen Gewand hereinzufallen.
Die inzwischen in der dritten Generation verfügbaren elektronischen Zigaretten enthalten ein Reservoir für eine Nikotinhaltige Lösung, ein Heizelement, welches diese Lösung verdampft, einen Sensor, der erkennt, ob und wie stark der Raucher an der Zigarette zieht, und ein elektrisches Schaltelement, welches mit einer wiederaufladbaren Batterie verbunden ist und welches das Heizelement, sowie bei manchen ein eingebautes LED Lämpchen reguliert.
Die durch das Heizelement verdampfte Lösung basiert häufig auf Propandiol und Glycerin und enthält bis zu 20 mg/ ml Nikotin. Den meisten E-Zigartetten werden noch Aromastoffe beigemischt. Am Heizelement wird das dickflüssige Gemisch verdampft, es wird also kein Rauch eingeatmet.
Propandiol und Glycerin sind nicht giftig. Nikotin ist in den verwendeten Dosierungen ebenfalls nicht gesundheitsschädlich. Bei den zugesetzten Aromastoffen ist es häufig nicht abschließend geklärt, wie gesundheitsschädlich diese sind, und insbesondere ob sie durch das notwendige Erhitzen nicht gesundheitsschädlich werden. Weiter besteht die Gefahr durch Verunreinigungen unbekannte Stoffe einzuatmen.
]]>Ich weiß nicht, warum ich überhaupt zugesagt habe, bei der Disputation dabei zu sein. Aus altruistischen Gründen, oder weil ich einfach noch nie in Tallinn war? Heute morgen war ich jedenfalls wieder geheilt von dem Rückfall. Ich habe mich erinnert, zu welchem Preis man die Kicks der eigenen Ideen einkauft.
Klick aufs Bild vergrößert die Abbildung. Von the upturned microscope .
]]>Die Fussball-WM ist in vollem Gange und, untertrieben gesprochen, von Überraschungen nicht ganz frei. Wer hätte gedacht, dass Brasilien im Auftaktspiel gegen Kroatien solche Schwierigkeiten hat. Die Seleção hat letztendlich dennoch klar gewonnen nicht zuletzt durch einen strittigen Elfmeter.
Die Kritik am japanischen Unparteiischen wurde zwar von Offiziellen zurück gewiesen, es gibt dennoch Studien, die zeigen, dass Schiedsrichter zwar unbewusst aber systematisch die Heimmannschaft bevorzugen.
Boyko et al. beschreiben in Ihrer Studie ein Regressionsmodell, mit dem sie in der englischen Premierleage anhand von über 5000 analysierten Partien zeigen konnten, dass bei fast allen der 50 untersuchten Schiedsrichtern einen Hang zur Bevorzugung der Heimmannschaft gab. Der Grad der Bevorzugung war unterschiedlich hoch zwischen den Individuellen Unparteiischen.
Der von dem Argentinier Pablo C. Silva patentierte Markierungsschaum, der nur eine bestimmte Zeit sichtbar ist, wird unter dem Namen 9.15 fairplay als Spray vertrieben und von den WM-Schiedsrichtern genutzt, um die Distanz der Mauer zum Ball beim Freistoß zu markieren.
Der Schaum besteht aus:
Der Legende nach kam der Erfinder, selbst Amateurfussballer, nach einem verlorenen Match auf die Idee.
Der FIFA-WM-Pokal, ist aus 18 Karat, also 75% Gold. Er müsste bei einer Höhe von 36,8 cm und einem von mir geschätzten Volumen von drei Litern und einer Dichte von 16,5 g/cm3 des Goldes (75% Gold, 25% Kupfer) rund 50 kg wiegen. Zu viel, um bei der Siegerehrung leichtfertig über Kopf gerissen zu werden.
Laut FIFA ist der Pokal 6,175 kg schwer. Bei dem aktuellen Goldpreis von rund 940 EUR pro Feinunze beträgt der Materialwert alleine fast 140.000 EUR.
Ein weiteres Geheimnis, das von der FIFA verschwiege wird: Der WM Pokal wurde ursprünglich einem halben, fettigen Chickenwing nachempfunden.
]]>
Ein enthusiastisches Mitglied im Vorstand der Freischreiber, erzählte wie er es doch schafft, als selbstständiger Journalist zu überleben. Crowdfunding und der Zugriff auf Stiftungskapital wurde als Möglichkeit zur Finanzierung einzelner Rechercheprojekte vorgestellt – und kritisiert. Man könne sich ja von den Gönnern abhängig machen. Ein Tablet-Abonnement basiertes Wissenschaftsmagazin namens Substanz wurde vorgestellt. Das Magazin will mit Hintergrundartikeln aus der Wissenschaft begeistern und wollte dieses Frühjahr zum ersten Mal erscheinen.
Hinter vorgehaltener Hand wurde aber erwähnt, wie es wohl dennoch bei vielen läuft: Tags sind sie unabhängige Journalisten, und nachts werden für Unternehmen PR-Aufträge angenommen. Mögliche Interessenkonflikte, die dabei entstehen, werden anscheinend durch ein Themenembargo auf Zeit gelöst.
Alle kreativen Lösungen täuschen über das eigentliche Problem hinweg: Durch das Internet und die kostenlose Verfügbarkeit unendlich vieler Artikel mit und ohne Nachrichtenwert sind die gängigen Geschäftsmodelle der tradierten Printmedien weitgehend zusammengebrochen. Die spürbar leidtragenden sind die Produzenten der Inhalte, also die Journalisten, die nun leider nicht mehr genug Geld verdienen. Geld, dass bislang aus Werbung und Zeitschriften- und Zeitungsabonnements kam.
Wie also kann “im Internet” mit journalistischen Texten Geld verdient werden? Ein Zusammenschluss von – wenn ich richtig gezählt habe – 28 Journalisten, der unter dem Namen Krautreporter firmiert, versucht es aktuell mit einer Crowdfundingkampagne. Für 60 EUR erhält man eine zwölfmonatige Krautreportermitgliedschaft.
Die Krautreporter wollen mit 15.000 zahlenden Kunden 900.000 Euro einsammeln. Das entspricht abzüglich der Verwaltungskosten und Ausgaben für die Web-Infrastruktur und umgelegt auf die 28-köpfige Redaktion jeweils einem anständig bezahlten Halbtagsjob. Ich habe mich angemeldet, ohne dass ich überhaupt weiß, was eine Krautreportermitgliedschaft bedeutet.
Ich habe in den vergangenen Tagen vor allem negative Stimmen zu dem Projekt gelesen. Die Kritik reicht vom fehlenden Themenkonzept über missratene Kommunikation mit den möglichen zukünftigen Lesern und der fehlenden Begeisterung der Krautreporter selbst, bis zu Kritik am Bezahlsystem (hier, hier, hier und hier).
Ich habe das alles gelesen und meine Meinung zu dem Projekt trotzdem nicht geändert. Obwohl mich die Inhalte wahrscheinlich nur bedingt interessieren (mit Hanno Charisius ist gerade einmal ein Wissenschaftsjournalist an Bord), ist alleine der Versuch auf diese Weise mit Journalismus online Geld zu verdienen es Wert unterstützt zu werden.
Journalisten ohne finanzielle Perspektive führen mittelfristig zu qualitativ schlechtem, abhängigen Journalismus und machen langfristig die vierte Gewalt einer Demokratie zum Papiertiger. Ganz unabhängig von gesellschaftlichen und politischen Dimensionen haben es Menschen, die schreiben können, verdient auch dafür bezahlt zu werden.
Aktuell fehlen noch knapp eineinhalb Tausend Anmeldungen zur erfolgreichen Finanzierung. Die Kampagne läuft noch bis heute Nacht. Hier kann man Krautreporter unterstützen.
]]>Die hier eingebundene Grafik (Klick darauf vergrößert sie) zeigt auf, wo die 16.000 Biologie-Doktorandinnen und Doktoranden, die jedes Jahr in den USA anfangen, sich Jahre später, wieder finden.
37% aller Promovierenden brechen demnach vor der Doktorprüfung ab. 70% aller Akademiker, die die Promotion abschließen fangen einen Postdoc an. Insgesamt enden weniger als 8% all jener, die eine Promotion anfangen und 15% aller Postdocs auf einer sogenannten Tenure Track Stelle, also einem Job, der eventuell mal in einer unbefristeten Anstellung mündet.
Das große Problem ist nicht die geringe Anzahl der akademischen Stellen. Es gibt eben nur begrenzt Fördermittel. Es ist das fehlende Interesse des Systems, diejenigen, die darin ausgebildet werden, auf alternative Karrieren vorzubereiten. Wobei der Begriff “Alternative Karriere” aufgrund der oben dargestellten Zahlenverhältnisse und in Anlehnung an den Vortrag von Gregory Petsko, eigentlich für den akademischen Weg vorbehalten sein sollte.
Um es mit dem gescheiterten Akademiker und derzeit beliebtesten Nihilisten des Internets zu sagen:
Academia: Don’t believe the hope.
A gentle reminder: Don’t believe the hope.
— Nein. (@NeinQuarterly) April 14, 2014
]]>So hat Nobelpreisträger Randy Scheckman letztes Jahr im Dezember einen Artikel im Guardian publiziert, in dem er Open Access Publishing propagiert und den Impact-Faktor im Allgemeinen sowie den Einfluss der Flagschiff-Journale einflussreicher Verlage, nämlich Cell, Nature und Science, im Besonderen kritisiert.
Sydney Brenner, ebenfalls Nobelpreisträger, hat in einem kürzlich publizierten Interview eine ähnliche argumentative Richtung eingeschlagen. Er kritisiert darin den Einfluss der Herausgeber der Wissenschaftsmagazine auf das, was publiziert wird und somit wissenschaftliche Trends bestimmt.
Er warnt in dem Interview vor dem Einfluss des Impact-Faktors auf die Beurteilung der Förderwürdigkeit von Wissenschaftlern und Forschungsprojekten und schlägt damit die Brücke von Problemen mit dem Publikationswesen zu allgemeinen Problemen im akademischen System.
Brenner stellt fest, dass viele der bahnbrechenden wissenschaftlichen Erfolge der letzten Jahrzehnte heute, bedingt durch Publikationsdruck und dem verlangten Erreichen kurzfristiger Ziele, wohl nicht mehr möglich wären. In einem Nachruf (pdf) auf den vergangenen November verstorbenen zweifachen Nobelpreisträger Frederick Sanger schreibt Brenner:
“A Fred Sanger would not survive today’s world of science. […] He would be labelled as unproductive, and his modest personal support would be denied. We no longer have a culture that allows individuals to embark on long-term—and what would be considered today extremely risky—projects.”
Die aktuellen Probleme im System Wissenschaft sind komplex und nicht nur mit einem ungeeigneten oder wenigstens unzureichenden Publikationssystem zu erklären. Die aktuellen Probleme im System Wissenschaft sind auch nicht alleine aus dem Blickwinkel von oben, von Wissenschaftlern, die es geschafft haben, wie die Nobelpreisträger Schekman und Brenner, zu verstehen. Die aktuellen Probleme betreffen vor allem jene, die selbst forschen.
Die National Academy of Science in den USA hat eine Kommission gegründet, um die Situation der Postdocs in the USA zu untersuchen, also diejenigen Wissenschaftler, die zusammen mit den Doktorandinnen die eigentliche Forschungsarbeit leisten. Die Ergebnisse werden vom Leiter der Kommission, Gregory Petsko, in einem Video zusammen gefasst. Sie treffen auch auf die akademische Welt außerhalb der USA zu.
Petsko erkennt, dass nur ein Bruchteil der Postdocs tatsächlich Chancen auf eine akademische Karriere haben, gleichzeitig werden die Nachwuchswissenschaftler an den Universitäten und Instituten aber vollkommen unzureichend auf eine Berufstätigkeit außerhalb der akademischen Forschung vorbereitet.
“The figure [of postdcos continuing an academic career] is much below 20%. We’re fond of saying that we should prepare people for alternative careers without realising that we are the alternative career. […] If we believe as scientists that the people we are training in our labs are being trained for academic careers, we are fooling ourselves and we are doing them a disservice. […] We need to worry about whether we are giving them adequate preparation for careers that are not like the careers that we have.”
Petsko hat Recht: Der akademische Weg ist zum Standard geworden. Vor allem in den Naturwissenschaften existiert fast ein Automatismus, wonach man an das Studium eine Promotion anschließt, und danach – häufig aus tatsächlichem oder so wahrgenommenen Mangel an Alternativen – mit dem Postdoc weiter macht. Die wissenschaftliche Karriere gleicht einer breiten Straße, die dennoch für über 80% in einer Sackgasse endet.
Das Überangebot an hochqualifizierten Wissenschaftlern, die um viel zu wenige verfügbare Stellen im akademischen Mittelbau oder als Gruppenleiter oder Nachwuchsprofessor konkurrieren, hat längst zu einem ungesunden und von Frustrationen geprägten Umfeld geführt, in dem die wenigsten noch Spaß an der Forschung haben und psychische Erkrankungen schon normal und akzeptiert sind.
Diese Entscheidung schwächt die europäische Forschungsinfrastruktur, die stark auf international vernetzte Forschungsprojekte aufbaut, und in der die Schweiz als wissenschaftlicher Hochleister eine wichtige Rolle spielt. Forscher in der Schweiz, egal ob dort gebürtig oder Ausländer, dürfen sich außerdem nicht mehr auf die Calls vom European Research Council (ERC) bewerben. Hier ist eine Zusammenfassung der Konsequenzen (.pdf) von offizieller Stelle.
Es geht um eine Menge Geld. In dem gerade angelaufenen achten Rahmenprogramm (Horizon 2020) werden in den kommenden sechs Jahren rund 80 Milliarden Euro an Fördermitteln vergeben. Kooperative Projekte mit Schweizer Beteiligung können betroffen sein. Der Personalizing Health and Care Call mit einem Gesamtvolumen von 303 Millionen Euro schließt morgen und der Mobility for Growth Call (341 Millionen) kommende Woche Dienstag. Der 485 Millionen Euro Topf des ersten ERC Starting Grant Calls mit Anmeldeschluss am 25. März wird wohl an den Schweizern vorbei gehen, was vor allem junge Nachwuchswissenschaftler treffen würde.
Die Schweiz hat die brisante Lange natürlich erkannt und schafft derzeit ein befristetes Förderinstrument zum Ausgleich, das aktuell vor allem für Bewerber auf ERC Starting Grants relevant ist. Wissenschaftler, die ein Forschungsprojekt in der Schweiz planen und dazu einen ERC Starting Grant beantragen wollten, können ihren Antrag zwischen dem 15. März und dem 25. März 2014 beim Schweizerischen Nationalfonds SNF einreichen.
Es gibt außerdem natürlich Petitionen mit einem Appell für einen europäischen Hochschulraum und dem Wunsch, dass die Schweiz Teil der europäischen Wissenschaft bleiben soll.
Die komplett internationalisierte Wissenschaftselite ist nun wirklich unverdächtig nationalschweizerische Interessen zu verfolgen und hat beim Referendum Anfang Februar wahrscheinlich nicht mehrheitlich mit “Ja” gestimmt. Wieso sie aber direkt die Konsequenzen der Schweizer Abstimmung, beziehungsweise der Sanktionen der Europäischen Kommission treffen soll, ist mir unverständlich.
]]>Vor allem eine detaillierte Untersuchung des Gehirns soll ergeben, in wie weit Alzheimer schon durch einfache Tests zu Lebzeiten vorausgesagt werden kann — und möglicherweise entsprechende Vorkehrungen getroffen werden können.
Die Nonnen eignen sich aus mehreren Gründen ganz ausgezeichnet als Studienobjekte. Seit Jahrzehnten wohnen sie zusammen, sie haben daher sehr ähnliche Tagesabläufe und soziale Bindungstrukturen. Weiter stellen sie durch ihre von weltlichen Versuchungen relativ freie Lebensweise eine recht homogene Gruppe dar: keine Drogen, kaum Alkohol, keine Kinder. Es gibt also wenige externe Faktoren, die bei der Auswertung der Korrelationen zwischen Zustand des Gehirns und dem Abschneiden bei den Tests berücksichtigt werden müssten.
Erste Ergebnisse der Nonnenstudie zeigen, dass Schwestern, die beim Eintritt in den Orden in ihrer Jugend schon komplexe und stilistisch flüssige Autobiografien verfassten, ein geringeres Risiko hatten später im Leben an Alzheimer zu erkranken — und da die meisten Nonnen sich weiterhin bester Gesundheit erfreuen, ist mit weiteren Ergebnissen auch erst in den nächsten Jahren zu rechnen.
Die Untersuchungen der Gehirne der bislang verstorbenen Nonnen mit Alzheimer bestätigten die bislang bekannten Befunde: Neben einem deutlichen Zurückgang der Gehirnmasse, können in Dünnschnitten unter dem Mikroskop sogenannte Plaques identifiziert werden. Die Plaques bestehen hauptsächlich aus einem Teil des sogenannten Amyloiden Präproteins (APP) und die meisten Wissenschaftler sind sich einig, dass in diesem Protein der Schlüssel zum Verständnis der Ursachen und der molekularen Zusammenhänge der Alzheimerschen Krankheit auf zellulärer Ebene liegt
Das Amyloide Präprotein kommt konzentriert in den Verbindungen von Nervenzellen zueinander vor, in den Synapsen im Gehirn. Die eigentliche Funktion von APP ist bislang nicht klar; man weiss jedoch, dass das Protein im Gehirn ständig neu gebildet und von sogenannten Sekretasen in Stücke geschnitten und wieder abgebaut wird. Eines der APP- Abbauprodukte, ein Proteinstück aus 42 Aminosäuren, genannt A-beta-42, hat eine physikalisch ungünstige Eigenschaft: Es kann mit seinesgleichen zusammenkleben, also aggregieren. Normalerweise werden auch die A- beta-42 Peptide, direkt nachdem sie entstehen, wieder entsorgt. Im Lauf eines Lebens kann es aber zu deren Anhäufung kommen — mit fatalen Folgen:
Die Reizübertragung zwischen Nervenzellen wird behindert; Im Gehirn laufen Entzündungsprozesse ab und größere Mengen aggregierter A- beta-42 Peptide bilden eben die für Alzheimer typischen und unter dem Mikroskop identifizierbaren Plaques, in die auch andere, wichtige Proteine rekrutiert werden können. Innerhalb von Nervenzellen bilden sich fibrilläre Knäule aus dem sogenannten Tau-Protein, was schließlich dazu führt, dass die betroffenen Zellen absterben. Dieser Nervenzellverlust ist der Grund für den nach dem Tod messbaren Zurückgang der Gehirnmasse bei an Alzheimer erkrankten Menschen.
.
Diese komplexen und nur bislang unvollständig verstandenen Vorgänge im Gehirn gehen im Verlauf der Alzheimerschen Krankheit mit dramatischen Symptomen und Folgen für Betroffene und deren Angehörige einher. Anfängliche Wortfindungsstörungen und lückenhafte Erinnerungen führen über Jahre zum kompletten Verlust kognitiver Fähigkeiten bis hin zum Vergessen des eigenen Namens und zur Unfähigkeit, sich verbal zu äußern. Damit einher gehen deutliche Veränderungen des Charakters, Misstrauen den Nächsten gegenüber, ungekannte Aggressivität und Feindseligkeit gegenüber bislang Vertrauten, bis zu vollständiger Demenz.
Es wird angenommen, dass derzeit rund 700 000 Menschen in Deutschland an Alzheimer erkrankt sind. Die Zahl wird in Folge der Erhöhung der durchschnittlichen Lebenserwartung weiter steigen, da bei alten Menschen das Erkrankungsrisiko ungleich höher ist: Während 3% der 65-69-Jährigen Alzheimer Symptome zeigen und 9% bei den 75-79-Jährigen, sind es bei den 85-89-Jährigen bereits rund 40%. Wir werden zwar immer älter aber leider auch immer häufiger dement.
Die Suche nach den Risikofaktoren erlaubt möglicherweise präventiv der Krankheit zu begegnen oder zumindest deren Fortschreiten zu verzögern. So kann die langfristige Einnahme von bestimmten entzündungshemmenden Medikamenten die Gefahr an Alzheimer zu erkranken verringern.
Die Erforschung der molekularen Ursachen und Zusammenhänge der Alzheimerschen Krankheit eröffnet außerdem therapeutische Ansätze für diese häufigste Demenzkrankheit. Die Symptome können beispielsweise durch die medikamentöse Beeinflussung der Reizübertragung zwischen Nervenzellen abgemildert werden. Es ist weiter denkbar, direkt auf die Bildung oder die Aggregation des A-beta-42 Peptides Einfluss zu nehmen. Möglicherweise haben Derivate des Tetrahydrocannabinol (THC), der aktiven Substanz in Marihuana, ebenfalls einen positiven Effekt auf den Verlauf der Krankheit und können gar therapeutisch eingesetzt werden.
Das Amyloide Präprotein APP, bei dessen Prozessierung das Plaque-bildende A-beta-42 Peptid entsteht, ist nicht das einzige Protein, das direkt Krankheiten auslösen kann. Vor achtzehn Jahren kam es zu einer wahren Massenpanik, als bekannt wurde, dass einige Briten nach dem Verzehr von Gerichten, die vornehmlich Rinderhirn enthielten, an einer seltsamen neurodegenerativen und tödlich verlaufenden Krankheit litten, der bovinen spongiformen Enzephalopathie, kurz BSE.
Bilder von Rindern, die an BSE litten und auf den Knien rutschend durch den Matsch auf britischen Bauernhöfen zur Schlachtbank getrieben wurden, waren Teil der Abendnachrichten. Es kam schon bei einzelnen Verdachtsfällen zu Massentötungen von ganzen Rinderherden und von der EU wurde ein Exportverbot für britisches Fleisch ausgesprochen. Noch nie zuvor konnte man beim Metzger so gutes Rindfleisch so günstig einkaufen; genießen konnten es allerdings nur die Mutigen.
Die verantwortlichen Erreger waren weder Parasiten, Bakterien oder Viren, sondern Proteine, sogenannte Prionen. Prionproteine können spontan ihre Stuktur ändern und in einer Kettenreaktion gleiche Proteine mit der ursprünglichen Struktur ebenfalls dazu bewegen, die veränderte, krank machende Form anzunehmen. Das ist, vereinfacht gesagt, die Prionenhypothese, für deren Postulierung und für die Entdeckung, dass die infiziösen Partikel tatsächlich Proteine sind, Stanley Prusiner 1998 den Nobelpreis für Medizin bekam.
Die veränderte Variante des Prionproteins führt nicht direkt zu den typischen motorischen Ausfallserscheingungen, es sind — ähnlich wie bei Alzheimer — nachgeordnete Effekte in den betroffenen Zellen, die für das Krankheitsbild verantwortlich sind. Veränderte Prionproteine aggregieren und rekrutieren andere wichtige Proteine der Zelle. Diese Aggregate können von der Zelle nicht mehr entfernt werden, sie häufen sich an und bringen das empfindliche Gleichgewicht aus Proteinsynthese und -abbau durcheinander.
Höchstwahrscheinlich weiß sich die Zelle dann nicht mehr anders zu helfen, als den eigenen Tod einzuleiten. Da das Prion-Protein hauptsächlich in Nervenzellen und im Gehirn vorkommt sind es eben jene Zellen die in Folge der Erkrankung absterben und zu den beobachteten Symptomen bis hin zum Tod führen. Wenn die Gehirne von betroffenen Menschen oder Tieren nach deren Ableben untersucht werden, ist das Organ durch den massenhaften Zelltod regelrecht durchlöchert und sieht aus wie ein Schwamm. Daher wird diese Erkrankung in der Fachsprache auch spongiforme Enzephalopathie, also schwammförmige Gehirnkrankheit genannt.
Der Grund für die Verbreitung von BSE bei den britischen Rindern war damals das Zufüttern von unzureichend aufbereitetem Tiermehl von Schafen, die an Scrapie, einer ähnlichen Krankheit litten. Schafe mit Scrapie, Rinder mit BSE und Menschen mit einer Variante der Creutzfeld-Jakob-Krankheit. Drei Namen in drei Spezies für letztendlich die gleiche neurodegenerative Krankheit.
Bereits Ende der 1950er Jahre wurde in Papua-Neuguinea eine ganz ähnlich verlaufende Krankheit entdeckt. Sie wurde unter dem Namen bekannt, den ihr die betroffenen Angehörigen des dort ansässigen Stammes der Fore gaben: Kuru. Der Arzt Daniel Carleton Gajdusek lebte mit den Fore, beschäftigte sich mit deren Kultur, und obduzierte Leichen, die an Kuru verstorben waren. Er vermutete, dass sich die Stammesangehörigen bei ihren Ahnen ansteckten, da ein kannibalistisches Bestattungsritual darin bestand, das Hirn der verstorbenen Verwandten zu verspeisen. Gajdusek bewies die Übertragbarkeit der Krankheit in Experimenten mit Affen.
Er bekam für seine Arbeit 1976 den Nobelpreis für Medizin, und obwohl er selbst in seiner Rede in Stockholm den Erreger noch ein “ungewöhnliches Virus” nannte, wurden bereits damals Parallelen zu Scrapie bei Schafen gezogen und es war bekannt, wie die Erreger der seltsamen Krankheit unschädlich gemacht werden konnten, zum Beispiel durch Autoklavieren, also durch eine halbstündige Garzeit bei 121°C im Dampfkochtopf. Hätten sich die Briten die Nobelpreisrede von Gajdusek gründlich durchgelesen, bevor Sie das unzureichend aufbereitete Tiermehl an ihre Rinder verfüttert hätten, wären wohl rund 200 Menschen weniger gestorben — und über vier Millionen Rindern wären, statt auf dem Scheiterhaufen und im Krematorium, auf den Tellern gelandet.
Deutlich wird das Paradoxon zum Beispiel gegen Ende eines Jahres, wenn ein Rückblick zeigt, was in den vergangenen Monaten passiert ist. Der Meteoriteneinschlag von Chelyabinsk? War im Februar. Genauso wie der Rücktritt Schavans. Die Nachricht, dass das Neandertalergenom sequenziert wurde? Im März. Die Enthüllung des Abhörskandals durch Edward Snowden? Gerade mal ein halbes Jahr her.
Besonders schön hat Mario Zucca die Highlights von 2013 illustriert, mit Schwerpunkten auf neue Technik und Unterhaltung (Hier geht es zu einer vergrößerten Version der Abbildung oben). Der Tod von Nelson Madele und Lou Reed wird ebenso dargestellt, wie die Einführung von Playstation4 und Xbox1. Die von mir geschätzten US-Serien Breaking Bad und House of Cards werden genauso wie die Familie Bluth aus Arrested Development gewürdigt.
Die Illustration ist thematisch leider relativ einseitig. Politik fehlt fast ganz, und bis auf die Referenz zum Periodensystem im Logo von Breaking Bad und der reichlich unrealistischen Szene von den völlig losgelösten Sandra Bullock und George Clooney aus “Gravity” ist von Wissenschaft ebenfalls kaum etwas zu sehen. Vom Meteoriten von Chelyabinsk und dem Neanderthalergenom keine Spur.
Das bringt mich auf die Idee: Könnte man nicht analog eine Illustration nicht für die wissenschaftliche Ereignisse des Jahres anfertigen? Passiert ist ja so einiges.
Mein zeichnerisches Talent tendiert leider gegen Null. Selbst Strichmännchen, die ich mühsam zu Papier bringe, sind nur schwer als solche zu erkennen. Zum Glück hat Lena Weitz schon Interesse geäussert, illustratorisch tätig zu werden. Vielleicht finden sich ja noch mehr grafisch begabte Leser, die Lust haben, das Werk mit zu gestalten?
@weitergen Mir kommen da für 2013 so viele Ideen, das Jahr ist ja noch nicht um! Ich lege gleich mal los mit skizzieren.
— Lena Weitz (@lenatriticum) December 18, 2013
Natürlich bauchen wir auch noch mehr Motivideen für die Illustration. Wie kann zum Beispiel der Rückzug von Saatgutkonzernen aus dem Geschäft mit gentechnisch veränderten Organismen in Europa dargestellt werden? Oder die Diskussion um Open Access und Glamor-Journals?
Welche wichtigen wissenschaftlichen Ereignisse gab es sonst noch in 2013?
]]>Möchten Sie, dass Katalonien ein eigener Staat ist?
Möchten Sie, dass dieser Staat unabhängig ist?
Die Reaktion der spanischen Zentralregierung lies nicht lange auf sich warten. Ministerpräsident Rajoy selbst trat vor die Presse und machte deutlich, dass das Referendum nicht stattfinden wird, da es gegen die spanische Verfassung verstoße. Hier ist das Video seiner Erklärung.
Rajoy reagiert zu Recht nervös. Aktuellen Meinungsumfragen zur Folge, sind inzwischen konsistent über 50% der Katalanen für die Unabhängigkeit und nur rund 20% explizit dagegen. Rund Dreiviertel der Gemeinden unterstützen die Unabhängigkeit und zum katalanischen Nationalfeiertag am 11. September gehen regelmäßig über eine Million Menschen auf die Straße, um für die Unabhängigkeit zu demonstrieren. Anfang des Jahres wurde im katalanischen Parlament mit großer Mehrheit eine Erklärung ratifiziert, nach der die Katalanen das Recht haben, über ihre Unabhängigkeit abzustimmen.
Ein zentraler Punkt der Unabhängigkeitsbewegung ist die Zugehörigkeit zu einem vereinten Europa. Katalonien möchte gerne ein neuer Staat innerhalb der EU sein. Der europäische Ratspräsident Herman Van Rompuy macht den Katalanen jedoch dahingehend wenig Hoffnung. In einer heute veröffentlichten Erklärung stellt er sich klar auf die Seite der spanischen Zentralregierung und sagt, dass ein neuer, unabhängiger Staat nicht automatisch Teil der EU sei und die reguläre Aufnahmeprozedur durchlaufen müsse.
Dazu gehöre auch eine Ratifizierung durch alle Mitgliedsstaaten. Inklusive Spanien.
Van Rompuy: “Cataluña quedaría fuera de la UE
“ por europapress
“for their discoveries of machinery regulating vesicle traffic, a major transport system in our cells.”
Hier ist der Link zu Scheckmans 54 minütigem Vortrag den er am 7.12. am Karolinska-Institut hielt. Für diejenigen, die sich näher mit der Thematik befassen wollen oder einen historischen Überblick über das Feld bekommen möchten.
Wissenschaftler stehen ja nur selten im öffentlichen Rampenlicht. Die Verleihung der Nobelpreise ist jedoch eine der Ausnahmen und Randy Schekman nutzt die momentane Aufmerksamkeit, die ihm zuteil wird, um in einem Artikel im Guardian Open Access zu propagieren und explizit die von ihm so gekannten Luxusmagazine Cell, Nature und Science, sowie den Impact Factor im Allgemeinen zu kritisieren. Insbesondere geht es ihm um den negativen Einfluss, den die hochselektiven Magazine auf den generellen Wissenschaftsbetrieb haben:
Luxury-journal editors […] accept papers that will make waves because they explore sexy subjects or make challenging claims. This influences the science that scientists do. It builds bubbles in fashionable fields where researchers can make the bold claims these journals want, while discouraging other important work […].
Scheckman erklärt weiter, wie Open-Access Magazine (wie das von ihm co-herausgegebene eLife Journal) den kostenfreien Zugang zu wissenschaftlichen Literatur erlauben und unter Einhaltung aller notwendigen Qualitätskriterien fairer publizieren, da sie eine größere Anzahl an Artikeln veröffentlichen können als die Luxusmagazine und nicht auf Abonnenteneinnahmen angewiesen sind.
Obwohl aktuell bereits etwa 20% der biomedizinischen Fachliteratur frei zugänglich sind, vollzieht sich der Kurswechsel hin zu offenen Modellen zu langsam – und stößt an Grenzen. Ein Artikel in einem “Luxusmagazin” wird in den Köpfen der Wissenschaftler immer noch mit hoher Qualität gleichgesetzt. Einer aktuellen Umfrage der Nature Publishing Group zur Folge, sind es demnach immer noch das Prestige des Magazins, sowie der Impactfaktor, die neben der fachlichen Relevanz entscheiden, an welches Magazin das eigene Manuskript geschickt wird.
Weiter werden in den Auswahlkriterien der Forschungfinanzierer und der Berufungskommissionen viel Wert auf Publikationen in Luxusmagazinen gelegt. Ein Erstautorenpaper in Cell, Nature oder Science ist in meiner Erfahrung immer noch fast so etwas wie eine Garantie für das berufliche Weiterkommen auf der akademischen Karriereleiter. Es zählt der Name mehr als die Inhalte.
Es ist daher leider immer noch eine Luxusposition, die der Nobelpreisträger Schekman einnimmt, wenn er sagt, dass sein Labor die Luxusmagazine boykottiere und seine Mitarbeiter ihre Manuskripte woanders einreichen würden. Es ist eine Luxusposition, die ihm nach 46 eigenen Artikeln in Cell, Nature und Science nichts mehr anhaben wird, die einigen Postdocs in seinem Labor aber die Karriere kosten kann.
]]>Obwohl der Parteichef Gabriel bei den Jusos mit der Werbung für Zustimmung zu dem Koalitionsvertrag gescheitert ist, wird von den Parteioberen doch mit einem klaren “Ja” der Basis gerechnet. Bindend ist der Mitgliederentscheid über die Annahme des Koalitionsvertrags jedenfalls nicht, was freilich so direkt nicht kommuniziert wird.
Falls er wider erwarten aber dennoch scheitert, sind verschiedene Szenarien denkbar: Wahrscheinlich ist ein Rücktritt der aktuellen SPD Führungsriege. Frau Nahles hat dies zumindest zwischen den Zeilen angekündigt.
Ob dann in letzter Konsequenz Koalitionsverhandlungen mit den Linken und den Grünen aufgenommen werden, oder es gar zu Neuwahlen kommt, ist fraglich. Wahrscheinlicher sind meiner Meinung nach Nachverhandlungen des Koalitionsvertrags mit der Union, der dann vermutlich ohne weitere Abstimmung mit der Basis abgezeichnet würde.
Warum geht die SPD überhaupt das Risiko einer Mitgliederabstimmung ein? Ich denke, das hat hauptsächlich drei Gründe:
In erster Linie geht es um die Legitimierung der eigenen Politik an der Basis und es dient der internen Positionsbestimmung. Wie weit links ist die SPD? Das Ergebnis der Abstimmung wird es zeigen.
Die Abstimmung und die damit verbundene Übertragung von Verantwortung an die Basis gibt der Führung der SPD außerdem ein starkes Argument gegenüber zukünftige Kritik aus den eigenen Reihen an die Hand.
Nicht zuletzt geht es darum, durch das direkte Mitspracherecht der Basis zu kommuniziere, dass die SPD sie ernst nimmt. Die SPD hat innerhalb der letzten 20 Jahre immerhin fast die Hälfte ihrer Mitglieder verloren, aktuell sind es noch 477 000. Eine bessere Bindung der eigenen Mitglieder an die Partei kann da nicht schaden.
Ich denke, der Mitgliederentscheid birgt berechenbare Risiken und ist in geschickter, parteipolitischer Schachzug. Mich würde vor allem interessieren, wer innerhalb der SPD eigentlich auf die Idee kam.
]]>
Für die Studie wurde bei fast eintausend Heranwachsenden die Konnektivität der Neurone im Gehirn untersucht. Die Autoren nutzen Diffusionsmagnetresonanz (DTI) um die Konnektivität unterschiedlicher Gehirnregionen zu untersuchen. Die Ergebnisse zeigen zweierlei:
Die Ergebnisse der Studie werden von Ragini Verma, der verantwortlichen Autorin folgendermaßen eingeordnet:
“These maps (Die Konnektivitätskarten des Gehirns) show us a stark difference – and complementarity – in the architecture of the human brain that helps provide a potential neural basis as to why men excel at certain tasks, and women at others”.
Die Studie liefert Daten, die mit geschlechtsspezifischen Verhaltensunterschieden korrelieren. Die Ergebnisse erlauben es aber sicher nicht, bestimmte Verhaltensmuster kausal mit Unterschieden in der Gehirnarchitektur zu erklären.
Kritik an der Studie direkt, nicht an der Berichterstattung darüber, betrifft vor allem die Zuverlässigkeit der DTI-Messungen. Das Blog Neuroskeptic und anonyme Kommentatoren auf Pubpeer merken an, dass geschlechtsspezifische Unterschiede in Stillhalten des Kopfes die Ergebnisse beeinflussen könnten.
Tatsächlich wurde in einer Studie letztes Jahr gezeigt, dass die Kopfbewegung zwischen Individuen stark variiert und Faktoren wie Alter, und Krankheit das Kopfwackeln und damit die MRI-Messungen beeinflussen. Wackeln vielleicht Männer einfach mehr?
Journalisten suchen natürlich nach einer Story hinter der wissenschaftlichen Publikation, wobei die Übergänge zwischen originalgetreuer Wiedergabe und freier Interpretation der Studienergebnisse fließend sind. Am schönsten hat “The Mouth” die Studie zusammengefasst und illustriert:
“Female brains are just scribbled multicoloured mess reveals science study.”
Ingalhalikar M, Smith A, Parker D, Satterthwaite TD, Elliott MA, Ruparel K, Hakonarson H, Gur RE, Gur RC, & Verma R (2013). Sex differences in the structural connectome of the human brain. Proceedings of the National Academy of Sciences of the United States of America PMID: 24297904
]]>Konkret geht es um den Aromastoff Piperonal, der laut Auszeichnung auf der Schokoladepackung ein “natürliches Aroma” sei, laut Stiftung Warentest jedoch chemischen Herstellungsverfahren entspringen soll.
Bestätigten Angaben zur Folge bezieht die Firma Ritter Sport den Aromastoff vom Unternehmen SymRise, welches an Eides statt erklärt hat, dass das an Ritter Sport gelieferte Piperonal ein natürliches Produkt sei, welches der europäischen Regulierung zu Aromastoffen folgend, aus Pflanzen isoliert wird.
Die eidesstattliche Versicherung von SymRise bezieht sich auf ein Vanillearoma, dem Piperonal zugegeben wird. Zitiert wird Artikel 3 Absatz 2c der EU-Verordnung zu Aromastoffen (.pdf):
natural flavouring substance’ shall mean a flavouring substance obtained by appropriate physical, enzymatic or microbiological processes from material of vegetable, animal or microbiological origin either in the raw state or after processing for human consumption by one or more of the traditional food preparation processes listed in Annex II. Natural flavouring substances correspond to substances that are naturally present and have been identified in nature
Annex lI listet traditionelle Arten der Lebensmittelzubereitung, mit denen es zumindest schwierig erscheint ausreichende Mengen “natürliches” Piperonal zu isolieren. Denn laut Toxnet kommt Piperonal nur in Spuren in einigen Planzen natürlich vor, unter anderem in Robinien und laut Firmenblog von Rittersport:
in Tahiti-Vanille, Kräutern und Gewürzen sowie einer ganzen Reihe anderer Pflanzen, z.B. in Pfeffer und Dill.
Alternativ kann Piperonal, das wohl häufig in der Duftstoff- und Parfümindustrie eingesetzt wird, aber auch relativ einfach aus Safrol, einem Naturstoff, hergestellt werden. Dabei wird Safrol zu Isosafrol isomerisiert und dann sauer zu Piperonal oxidiert. Das ist allerdings auf chemischem Wege, was Artikel 3 der EU-Verordnung zuwider laufen würde.
Die Stiftung Warentest jedenfalls teilt mit, sie würde derzeit keine über die bereits bekannten Fakten hinausgehenden Details zu den Untersuchungsgrundlagen und Bewertungsfragen nennen. Meiner Meinung nach ist derzeit auch immer noch Ritter Sport, beziehungsweise Symrise am Zug.
Ich wäre zum Beispiel mit ein paar Zahlen zu überzeugen. Konkret, und vielleicht liest ja die eifrige PR-Abteilung von Ritter Sport hier mit:
Was ist eigentlich aus dem Begriff “naturidentischer Aromastoff” geworden?
]]>Die Studie wurde von zahlreichen Wissenschaftlern vor allem ob ihrer methodischen Mängel kritisiert und unter anderem auch hier im Blog thematisiert. Zahlreiche kritische Briefe und Kommentare von Wissenschafter an den Verlag sind auf der Seite der Veröffentlichung verlinkt.
Ein an Séralini adressierter Brief des Chefredakteurs von Food and Chemical Toxicology vom 19.11.2013 ist inzwischen auf der genteschnikkritischen Webseite GMWatch publiziert worden (gmwatch.org/files/Letter_AWHayes_GES.pdf). Darin wird dem Autor unmissverständlich klar gemacht, dass der Artikel zurückgezogen wird:
Dear Professor Séralini,
As you know, several months ago, we began a thorough examination of the data you provided to the journal. The panel looking at the data and its analysis sought to address the questions that had been raised in the Letters to the Editor received in response to your article.
The panel had many concerns about the quality of the data, and ultimately recommended that the article should be withdrawn. I have been trying to get in touch with you to discuss the specific reasons behind this recommendation. If you do not agree to withdraw the article, it will be retracted, and the following statement will be published it its place: […]
Im anschließenden Statement (.pdf) wird Séralini zwar von wissenschaftlichem Fehlverhalten frei gesprochen, jedoch wird erklärt, dass methodische Mängel der Studie, insbesondere im Studiendesign, die von den Autoren gezogenen Schlussfolgerungen nicht erlauben und somit die Retraktion des Papers gerechtfertigt sei. Eine Antwort von Séralini steht noch aus.
]]>Man mag von der Evaluierung des Einflusses von Wissenschaftlern durch Publikationsdaten im Allgemeinen und von der Methode der Autoren der Publikation “A list of highly influential biomedical researchers, 1996–2011” im Besonderen halten, was man will. Ein Ungleichgewicht bleibt wahrscheinlich selbst bei gravierendsten methodischen Mängeln bestehen:
Manuelles Auswerten der eingebundenen Tabelle ergibt, dass gerade einmal 26 der gelisteten einflussreichen Wissenschaftler weiblich sind – das sind etwas über 6%.
Die mit Abstand am häufigsten genannte Institution an der die aufgelisteten einflussreichen Wissenschaftler arbeiten (11,5%) ist Harvard. Ich war zufällig vor ein paar Wochen in Boston und habe dort eine Gruppe Harvard-Doktoranden getroffen, die an einem Kurs über “Leadership und Communication Skills” für Wissenschaftler teilnahmen und dort Techniken lernten, die ihnen helfen sollen, erfolgreiche Wissenschaftler zu werden. Was mir vor allem in Erinnerung blieb: Etwa 80% der Kursteilnehmer waren weiblich.
Lust auf Leadership scheinen die Frauen also zu haben. Ob sich das in einer Liste einflussreicher biomedizinischer Wissenschaftler in 30 Jahren so widerspiegeln wird?
Edit 17:28 Uhr: Ich arbeite freiberuflich für das oben erwähnte Consultingunternehmen und habe deshalb den Link zu deren Seite soeben wieder entfernt.
]]>Auf die Wähler scheint die Plagiatsafäre nur geringen Einfluss zu haben. Auch wenn es für ein Direktmandat nicht gereicht hat, konnte Lammert den Stimmenanteil in seinem Wahlkreis verglichen mit der Wahl vor vier Jahren um fast fünf Prozent auf 35,7% steigern. Ähnliches gilt auch für Annette Shavan in ihrem Wahlkreis in Ulm. Sie hat ihren Stimmenanteil von 42.8% bei der Wahl 2009 um fast 10% auf 52,1% in 2013 ausgebaut.
Plagiate sind nur eine Spielart wissenschaftlichen Fehlverhaltens, und ich bin von der Gesellschaft für Wirtschafts-und Sozialwissenschaften des Landbaus (GEWISOLA) eingeladen worden, um auf deren Konferenz am Freitag über Wissenschaftliches Fehlverhalten zu referieren. Wen es interessiert: Ich habe meine (kurze) Präsentation schon vorab online gestellt und hier eingebunden.
Es ist relativ schwierig verlässliche Zahlen zur Häufigkeit wissenschaftlichen Fehlverhaltens zu bekommen. Das liegt in der Natur der Sache, es geschieht ja meistens heimlich. Einer Meta-Analyse zur Folge geben in Umfragen rund 2% aller Wissenschaftler an, schon einmal Daten erfunden, gefälscht oder modifiziert zu haben. Den Kollegen trauen das rund 14% der Befragten zu.
Wenn man statt dessen die Zahl der zurückgezogenen Publikationen und die aufgedeckten Plagiatsfälle als Maß für Fehlverhalten betrachtet, könnte man meinen, in den letzten Jahren sei ein starker Anstieg wissenschaftlichen Fehlverhaltens zu verzeichnen. Die Autoren einer erst kürzlich publizierten Studie erklären den Anstieg mit aktuell niedrigeren Hürden, sowohl für die Publikation gefälschter Daten als auch für deren Widerruf. Ich denke, einen großen Anteil spielen dabei die technischen Möglichkeiten, digital zur Verfügung stehende Texte miteinander zu vergleichen und Datensätze auf statistische Auffälligkeiten hin zu untersuchen, und so mit relativ wenig aufwand Plagiate und Fälschungen zu entlarven.
Eine Form des wissenschaftlichen Fehlverhaltens ist das Zurückhalten von Daten. Besonders relevant, da es direkt die Gesundheit von Menschen betrifft, ist das bei klinischen Studien zur Medikamentenwirksamkeit. Ben Goldacre hat diesen Fall in seinem Buch Bad Pharma das kürzlich auch auf Deutsch erschienen ist, ausführlich dargelegt und so zusammengefasst:
Trials are frequently conducted, but then left unpublished, and so are unavailable to doctors and patients. Only half of all trials get published, and those with negative results are twice as likely to go missing as those with positive ones. This means that the evidence on which we base decisions in medicine is systematically biased to overstate the benefits of the treatments we give. […] This is research misconduct on a grand, international scale.
Ich werde in meinem Vortrag in Berlin diese und weitere Formen des wissenschaftlichen Fehlverhaltens thematisch nur anschneiden können, denn ich teile mir die Session mit Gunnar Breustedt, Gebhard Kirchgässner, Ludwig Theuvsen und Peter Winkler. Vielleicht finden wir ja in der anschließenden Podiumsdiskussion noch Antworten auf ein paar der Fragen, die ich in meinem Vortrag aufwerfe:
Eine einheitliche Antwort auf die Frage was die Auswirkungen von wissenschaftlichem Fehlverhalten sind, werden wir sicher nicht finden. Es kann Patienten töten, wie in Bad Pharma dargestellt, und wissenschaftliche Karrieren beenden. Zumindest Wahlergebnisse scheint es aber nicht nachhaltig zu beeinflussen.
]]>Aber schon in den Wochen vor der Wahl wird die Spannung für das große Ereignis durch die allabendlich an prominenter Stelle ausgestrahlten Wahlwerbespots aufgebaut. Die Qualität der Wahlwerbung der unterschiedlichen Parteien ist, gelinde gesagt, inhomogen. Je nach Budget und beauftragter PR-Agentur sind die Spots gut gemacht, nichtssagend, liebenswert-dilletantisch oder nicht zum Aushalten.
Dieses Jahr wurde die FDP mit ihrem Spot ja bereits mit Spot und Häme überzogen. Wie bei den Liberalen war im Werbevideo der NPD und in der Werbung für Quark einer finnischen Agentur die gleiche fahrradfahrende Familie zu sehen. Viel Potential zum Fremdschämen haben auch Spots von Spartenparteien aus den neunziger Jahren. Einige dieser Perlen sind auf Youtube zu finden und hier verlinkt. Mangelhafte Qualität der Videos bitte ich zu entschuldigen:
Klar ist, die Wahlwerbespots dienen der Orientierung der Wähler; sie sollen die politischen Botschaften und Pläne der Parteien verständlich erklären. Ganz unabhängig von der Qualität der Wahlwerbung ist die hier eingebundene Rede des MdB Karl-Heinz Stiegler in ihrer programmatischen Aussagekraft und Deutlichkeit jedoch weiter unübertroffen. Ein wahrer Meilenstein deutscher Politik und Vorbild für Generationen Politiker.
Eigentlich sind Wahlwerbespots im Fernsehen aber ein Atavismus. Längst bestimmen die Wähler anhand von Umfragetools wie dem Wahl-O-Mat welche Partei den eigenen, vorgefertigten Meinungen am nächsten kommt. Was vordergründig für Wähler entweder eine nette Spielerei ist, oder nützliche Hilfe bei der Orientierung in der Parteienlandschaft bietet, liefert den Machern (für den Wahl-O-Mat ist die Bundeszentral für politische Bildung verantwortlich) interessante statistische Daten über die politischen Meinungen und Ansichten der Nutzer.
Der Wahl-O-Mat ist das bekannteste Tool zum Abgleich der eigenen Einstellungen mit jener der Parteien. Es gibt jedoch auch Alternativen: Der Parteinavi der Uni Konstanz erlaubt eine differenziertere Meinungsäußerung, der Bundeswahlkompass, an dem die Uni Bamberg beteiligt ist, formuliert die Fragen besser. Bei mir kamen alle drei übrigens zu jeweils ähnlichen Wahlempfehlungen.
]]>Wahrscheinlicher ist aber, dass der Artikel über Recently ist im Laborjournal für das erhöhte Verkehrsaufkommen auf recentlyapp.com sorgt. Der Artikel preist die App für Wissenschaftler und Mediziner in allen Facetten an – kein Wunder, ich habe den Artikel ja auch selbst geschrieben.
Außerdem habe ich Biotechnologie.tv ein Interview über Recently gegeben, in dem ich auch noch mal die Hintergründe und die Funktionsweise von Recently erkläre. Es sollte hier unten zu sehen sein.
Das Interview mit mir startet bei 6 min 12 sec. Hier ist der Direktlink zum Video.
Zwar nicht ausdrücklich das Video hier mit meinem Interview, aber dafür andere von Biotechnologie.tv, wie z.B die Kreidezeit über Gentechnik oder über Gregor Mendel, stellen sich gerade der Konkurrenz in einem Web-Video-Wettbewerb, in dem die meist-gelikten und kommentierten Wissenschaftsvideos prämiert werden.
Ich wusste gar nicht, wie divers die Landschaft für deutsche Wissenschaftsvideos ist. Da sind durchaus Perlen mit dabei, bis Ende September kann noch abgestimmt werden. Und in der ersten richtigen Arbeitswoche nach dem Urlaub erst mal ein paar Videos gucken ist auch nicht das schlechteste.
Alle drei Artikel haben eins gemein: Sie handeln von Profis, die mit Radrennen ihr Geld verdienen. Radfahren ist aber Breitensport und auch im Amateurbereich werden Rennen gefahren. Wenig verwunderlich aber weitgehend ignoriert: Auch dort wird gedopt. Ich habe ein Interview mit Jasper Vanuytrecht geführt. Jasper hat seine Masterarbeit zum Thema Doping im Amateurradsport in Flandern gerade fertig gestellt.
WeiterGen: Jasper, hat der Amateurradsport ein Dopingproblem
Jasper Vanuytrecht: Auf jeden Fall. Ich habe für meine Massenarbeit mehrere Amateurrennfahrer, aber auch Trainer, Ärzte, Teambetreuer, einen Polizeiinspektor, sowie den Leiter der Anti-Doping Agentur in Flandern (TeamMVS) befragt und Aussagen zur Häufigkeit von Doping im Amateursport gesammelt, aber auch zu Gründen warum im Amateursport gedopt wird, und was dagegen unternommen werden kann. Basierend auf den Aussagen in den Fragebögen schätze ich, dass mindestens 10% aller Amateurrennfahrer gedopt sind.
WG: Mit welchen Mitteln wird gedopt?
JV: Die Dopingmittel im Amateursport sind die gleichen, die wir vom Profisport der letzten Jahre und Jahrzehnte kennen: Steroidhormone, EPO, Corticosteroide. Ältere Fahrer nehmen auch häufig Amphetamine. Weiter werden Diuretika genommen, um Dopingmittel vor den Rennen aus dem Körper auszuschleusen.
WG: Wie kommen die Fahrer an die Medikamente?
JV: Das meiste wird über das Internet bestellt und ist Angaben der von mir interviewten Sportler zu Folge binnen einer Woche im Briefkasten zu Hause. Die Anbieter findet man mit einer einfachen Googlesuche. Es gibt aber auch Ärzte, die auf Bitten der Sportler leistungssteigernde oder schmerzhemmende Präparate verschreiben, obwohl dies möglicherweise nicht notwendig wäre, beispielsweise Kortison. Außerdem gibt es lokale Dealer, über die Dopingmittel bezogen werden, etwa bei Wettkämpfen. Ein Problem mit den bestellten Präparaten ist, dass man nie sicher sein kann, dass auch tatsächlich das drin ist, was drauf steht.
WG: Warum dopen Amateursportler überhaupt?
JV: Das hat verschiedene Gründe. Zum einen ist es natürlich Ehrgeiz. Egal ob Amateur oder Profis, wer Rennen fährt, will gewinnen. Dazu kommt ein nur eingeschränkt vorhandenes Unrechtsbewusstsein, das durch dopende Profis, die ja Vorbildfunktion haben, sicher nicht gefördert wird. Im Profiradsport gab es lange eine Kultur des Dopings, die weit in den Amateurbereich hinein reicht. Wer sich ambitionierte Ziele steckt, möchte diese erreichen – häufig offenbar egal mit welchen Mitteln und zu welchem Preis. Ein weiterer Faktor ist, dass das Risiko erwischt zu werden im Amateurbereich einfach sehr gering ist.
Vielen Sportlern scheint außerdem nicht bewusst zu sein, dass die Einnahme von Dopingmitteln kurzfristige und langfristige negative gesundheitliche Folgen hat. Die Nebenwirkungen von vielen Substanzen sind nicht adäquat untersucht. In Flandern gab es in den letzten Jahren zum Beispiel mehrere plötzliche Todesfälle von Amateurrennfahrern, die zuvor außergewöhnlich gut gefahren sind.
WG: Wird im Amateurbereich nicht auch getestet?
JV: Doch. Dopingkontrollen sind jedoch teuer und die Logistik ist kompliziert. Der Fokus liegt daher hauptsächlich bei den Profis. Bei Amateuren wird zwar auch getestet, allerdings nur bei den Rennen. Es finden so gut wie keine Trainingskontrollen statt. Die Kontrolleure müssten für effektive Kontrollen ja jederzeit unangemeldet bei den Athleten auftauchen können und müssten daher ständig wissen, wo sich die Amateurfahrer befinden. Das ist nicht zuletzt ein tiefer Eingriff in die Privatsphäre. Die Zeit zwischen den Rennen kann also von Amateursportlern genutzt werden, um beispielsweise mit EPO die Ausdauer zu verbessern.
WG: Was wären dann deiner Meinung nach passende Maßnahmen, um Doping im Amateurbereich einzudämmen?
JV: Das wichtigste ist ein Mentalitätswechsel im Amateurradsport, so dass vor allem Nachwuchssportler nicht mit Doping anfangen. Dazu muss das Problem nicht nur von den Verbänden und der Politik als solches erkannt werden, sondern auch dementsprechend gehandelt werden, beispielsweise durch Aufklärungskampagnen, Präventionsmaßnahmen und die Androhung drastischer Strafen. Ein Problem ist sicher das fehlende Geld für eine adäquate Kontrollinfrastruktur. Da die Dopingkontrollen von den Verbänden selbst durchgeführt werden, besteht außerdem ein Interessenkonflikt, der nicht zur Lösung des Problems beiträgt. Welcher Radsportverband möchte schon dem Radsport schaden, dadurch dass er Dopingfälle bekannt macht?
Meine Erfahrungen mit Amateursportlern zeigt auch, dass die Legalisierung von Doping mit Sicherheit nicht zur Lösung des Problems beiträgt. Der Meinung sind übrigens auchdie meisten Experten und Wissenschaftler. Durch bessere Kontrollen ist der Profisport in den letzten Jahren sauberer geworden, jetzt muss sich das auch auf den Amateursport übertragen.
WG: Hat einer der von dir befragten Sportler eigentlich Doping gestanden?
JV: Nein, obwohl ich den interviewten Sportlern natürlich Anonymität garantierte, ist das ist nicht passiert. Ich habe wahrscheinlich auch einfach zu wenig Interviews geführt und vielleicht haben diejenigen, die dopen, auch schlicht abgelehnt mit mir zu sprechen. Die Strafen für Doping im Amateursport sind genauso hoch wie im Profisport, also Rennsperren und empfindliche Geldstrafen. Wer aktiv fährt möchte das nicht riskieren. Außerdem: Wer seiner Familie und seinen Freunden nichts davon erzählt, gibt sicher in einem Interview nicht zu, gedopt zu haben. Aber das Insiderwissen einiger meiner Interviewpartner war schon erstaunlich.
Jasper Vanuytrecht studiert an der Universität in Ghent an der Fakultät für Strafrecht und Kriminalistik. Er beantwortet hier in den Kommentaren gerne aufkommende Fragen, ist auch per Email unter Jasper.Vanuytrecht[ät]ugent.be für Rückfragen erreichbar.
]]>Sie war eine Strukturbiologin bevor der Begriff überhaupt erfunden war. Sie hat an der Entdeckung der Struktur der DNA entscheidend mitgearbeitet und ihr ist dennoch akademische Anerkennung, vergleichbar mit der von Francis Crick und James Watson, versagt geblieben.
Die Geschichte von Rosalind Franklin ist sehr gut recherchiert, von etlichen Briefen und Aufzeichnungen gestützt und daher recht einfach nachzuerzählen. Sie gibt einen ungewöhnlich detaillieren Einblick in den damaligen akademischen Alltag mit erfolgreichen Kooperationen und persönlichen Antipathien, genialen Momenten, Managementfehlern und der unautorisierten Nutzung der Daten Dritter.
Ähnliches spielt sich auch heute noch in den Laboren ab, wenn auch die Entdeckungen oftmals weit weniger bahnbrechend sind als die Aufklärung der Struktur der DNA.
Franklin begann 1951 am MRC in London als wissenschaftliche Assistentin in der Abteilung Biophysik von John Randall zu arbeiten. Randall gab ihr ein Projekt zur Untersuchung von DNA durch Röntgenstrukturanalyse, einer Methode mit der sie Erfahrung hatte.
Bislang hatte Maurice Wilkins und sein Doktorand Raymond Gosling an dem Projekt gearbeitet – mit erfolgsversprechenden, jedoch zu ungenauen Ergebnissen. Während Wikins im Urlaub war, wurde Franklin das Projekt (und die Aufsicht über den Doktoranden Gosling) komplett übertragen – allerdings ohne Wilkins rechtzeitig und adäquat davon zu unterrichten.
Dieser klare Kommunikationsfehler von Randall war der Auslöser für Reibereien zwischen den Kollegen Wilkins und Franklin. Die Charaktere beider Forscher – Wilkins scheu und bedacht, Franklin ungeduldig und direkt – tat ihr übriges um das Verhältnis beider Forschern weiter zu belasten.
Neben den technischen Aspekten der Röntgenstrukturanalyse, die Franklin ohne Zweifel beherrschte, war die größte Herausforderung die richtige Interpretation der Daten. Watson, Crick, sowie Linus Pauling vermuteten, dass DNA helikal vorlag, jedoch hatten deren Modelle Fehler, die erst durch die Arbeit von Franklin an DNA mit unterschiedlich starker Hydratation und durch ihre hervorragenden Beugungsaufnahmen der DNA erkannt werden konnten.
Am 30. Januar 1953 reiste Watson ans MRC, um Wilkins eine Kooperation vorzuschlagen. Er wollte mit vereinten Kräften Linus Pauling bei der Lösung der Struktur der DNA zuvor zu kommen. Wilkins war nicht in seinem Büro und Watson traf auf Franklin, die ihm klar zu verstehen gab, dass sie alleine in der Lage sei, ihre Daten zu interpretieren und nicht auf die Kooperation angewiesen wäre.
Der vor den Kopf gestoßene Watson traf sich am selben Tag dennoch mit Wilkins, der ihm im Rahmen der geplanten Kooperation eine Beugungsaufnahme Franklins zeigte – ohne deren Wissen oder Zustimmung.
Diese Aufnahme 51 war der Schlüssel zum Verständnis der DNA Struktur. Es war keine einfache Helix, wie von Pauling postuliert, es waren keine drei umeinander geschlungene Fasern, wie Watson und Crick dachten, sondern zwei Stränge, die eine Doppelhelix bildeten.
Fünf Wochen nach dem verhängnisvollen Meeting am MRC in London hatten Watson und Crick die DNA-Struktur gelöst. Sie publizierten ihr Doppelhelixmodell in Nature am 25. April 1953. Franklin war inzwischen ans Birbeck College in London gewechselt. Randall, ihr alter Chef, legte großen Wert darauf, dass ihre Daten zur DNA-Struktur am MRC verblieben.
Obwohl die Daten von Franklin nach Aussagen von Francis Crick entscheidend für die Aufklärung der DNA Struktur waren, wurde ihr keine eigentliche Autorschaft auf dem Paper zu Teil. Sie wurde in einem Nebensatz gegen Ende des Briefs an Nature erwähnt:
We have also been stimulated by a knowledge of the general nature of the unpublished experimental results and ideas of Dr. M. H. F. Wilkins and Dr. R. E. Franklin and their coworkers at Kings College, London.
Wenn man den historischen Aufzeichnungen glauben kann, war Franklin auch nach der Publikation des Artikels von Watson und Crick nicht von der vorgeschlagenen Struktur überzeugt. Sie vermisste stichhaltige, experimentelle Daten, die das Modell stützten.
Neun Jahre später war die Doppelhelixstruktur wissenschaftlich etabliert und Watson, Crick und Wilkins bekamen 1962 der Nobelpreis für Physiologie und Medizin für die Entdeckung der Struktur der DNA.
Franklin freilich ging leer aus. Sie war bereits 1958 mit 37 Jahren an Krebs gestorben.
]]>Doping im Radsport war in den letzten Jahrzehnten weit verbreitet. Wir dürfen davon ausgehen, dass es zumindest bei der Tour kaum saubere Spitzenleistungen gegeben hat. Team Sky beruft sich nun auf verbesserte Trainingsmethoden, Akribie hinsichtlicher technischer Aspekte und beste individuelle Betreuung ihrer Sportler und will so die zum Teil herausragenden Leistungen ihrer Sportler erklären. Ist das plausibel?
Um dies zu diskutieren, sollte man sich anschauen, welches Wissen und auch welche Technik den Sportlern heute zur Verfügung steht, das vor 5-10 Jahren noch nicht zur Verfügung stand und das ganze vor den Leistungsanforderungen eines möglichen Toursiegers.
Offensichtlich müssen Radsportler, die schnell Berge hochfahren wollen, sehr leicht sein. Da die Berge bei der Tour bis zu 20 km lang sind und Aufstiegszeiten von bis zu einer Stunde benötigen, wird letztlich derjenige am Ende vorne sein, dessen relative Leistungsfähigkeit in einem Zeitfenster von 20-60 Minuten am besten ist. Aus den Aufstiegszeiten und dem Gewicht des Sportlers lassen sich dann Watt/ kg ausrechnen.
Bei Sprintern ist die Rechnung noch komplexer. Hier wird die absolute Wattleistung in Bezug zur Aerodynamik des Sportlers gesetzt. Kleine Fahrer wie Cavendish, die es schaffen, ihren Kopf bei Tempo 70 auf Lenkerhöhe zu halten, brauchen im Sprint geschätzte 200-300 Watt weniger als Sportler mit einer Figur und Haltung von Greipel.
Das Talent und normales Training bringt unseren Sportler vielleicht auf eine Leistungsfähigkeit von 420 Watt in der Stunde. Der Sportler wiegt 74 kg und seine relative Stundenleistung beträgt 5,67 W/ kg. Das ist nicht schlecht und würden diesen Profi auf jeden Fall zu einem sehr wertvollen Helfer auf Flachetappen machen und er könnte in der Position 3-5 am Berg auch noch Helfer für seinen Kapitän sein. Wenn unser Sportler aber nun von diesen 74 kg 10 kg verlieren würde – ohne Leistungsfähigkeit einzubüssen – hätten wir seine Leistungsfähigkeit auf 6,54 Watt/kg erhöht und sind in den Leistungsbereichen, die z.B. von Vayer mit Doping erklärt werden.
Wir sehen also, dass wir allein durch eine strikte Diät aus einem guten Profi einen Toursieger machen können. Natürlich werden auch Muskeln am Oberkörper Opfer dieser Diät. Das ist aber gewollt, jeder Muskel, der nicht benötigt wird, muss zusätzlich mit Sauerstoff versorgt werden. Unser Radsportler würde idealer Weise ergänzend ein Übungsprogramm absolvieren, z.B. Yoga, Pilates, Coretraining, um den Aufbau und Erhalt einer schlanken Muskulatur zu unterstützen. Das sind natürlich nur Zahlenspiele, die die Rolle des Körpergewichtes veranschaulichen sollen.
Amüsant ist, dass in einigen Medien neue Wundermittel aufgeführt werden, die den Profis helfen sollen, ihr mageres Gewicht zu erreichen. Um 10 kg abzunehmen brauchen wir ein Kaloriendefizit von 70.000 kcal. Sie glauben das ist viel? Ein Profi hat kein Problem im normalen Training 3500 kcal zusätzlich zu verbrennen. Das sind 20 Trainingstage und der Athlet müsste dann noch nicht einmal auf seine täglichen 2500 kcal verzichten. Natürlich würden die Profis, um ihre Leistungsfähigkeit zu halten, diese Diät auf einen Zeitraum von vielleicht 60 Tagen ausdehnen. Kein Profi, der messen und wiegen kann, braucht ein Mittel, dass die Fettverbrennung steigert.
Die Stundenleistung kann nur dann auch am Ende der Etappe in etwa erreicht werden, wenn die Glycogenvorräte des Sportlers noch gut gefüllt sind. Wenn wir nun schätzen, das ein Sportler einen Glycogenvorrat von insgesamt vielleicht 600-700 Gramm hat, erkennen wir, dass wir hier einen Leistungsbegrenzer haben. Immer dann, wenn der Sportler Vollgas fährt, verbraucht er ausschliesslich Kohlenhydrate. Selbst volle Speicher reichen also nur für 1,5 bis 1,8 Stunden Vollgas. Wir können uns aber vorstellen, dass der Sportler, der es schafft, mit seinen Glycogenvorräten vorsichtig umzugehen, auf die Dauer einer Tour de France Vorteile hat.
Das war nicht immer so. Aus den Aufzeichnungen von Bernhard Kohl zur Tour 2008 wissen wir, das er täglich mit Insulin gearbeitet hat. Insulindoping soll die Glycogenvorräte um bis zu 40 Prozent steigern. Mit Doping hat man also schlicht und ergreifend den “Tank” vergrössert und konnte so länger schnell fahren. Was Kohl noch nicht wissen konnte, ist, dass man die Fettverbrennung auch im Bereich der Schwellenleistung (Stundenleistung) aktivieren kann (Studie von Jeukendrup). Die Trainingsroutine wird ergänzt durch eine wöchentliche Einheit in der der Fettstoffwechsel im Belastungsbereich zwischen 85 und 100 Prozent der Schwellenleistung (Stundenleistung) in Form von Intervallen trainiert wird. Zuvor werden die Speicher nahezu leer gefahren – mit enormen Lerneffekten des Körpers.
Der Sportler kann so den Anteil der Fettverbrennung an der Energieversorgung steigern und die Glycogenspeicher vergrössern. Das Konstrukt dieser Einheit ist so angelegt, dass der Sportler lernt mit erschöpften Speichern und seiner Wettkampfernährung noch Leistung zu bringen. Früher hat man lange 6-8 h Ausfahrten im ruhigen Tempo gemacht und so versucht, den Fettstoffwechsel zu optimieren. Wenn man bei solchen Ausfahrten dann in den Stunden 4-6 auch mal Berge mit höherer Leistung gefahren wäre, hätte man auch den oben geschilderten Effekt. Wenn wir den besseren Trainingseffekt aber in kürzerer Zeit gezielter hinbekommen, halten wir die Gesamtermüdung des Sportlers in Grenzen und gewinnen Platz im Trainingsplan für andere Einheiten und Trainingsinhalte. Hier sind weitere, sportmedizinische Hintergründe zum Fettstoffwechseltraining (pdf)
Sie kennen als Zuschauer der Tour de France vielleicht noch die Silberlinge, die uns immer als Verpflegung der Profis dargestellt wurden? Heute weiß man, dass jeder Sportler eine individuelle Zusammensetzung seines Wettkampfgetränkes benötigt. Ideal ist ein Getränk, das zu einem Drittel aus Fructose und zwei Dritteln aus Einfach- oder Mehrfachzuckern besteht. Die Geschichte mit der Fructose (findet einen zusätzlichen Weg ins Blut) ist neu und dieses Wissen stand zumindest Armstrong und auch Ullrich noch nicht zur Verfügung. Man kann also heute bis zu ein Drittel mehr Nahrung aufnehmen und verarbeiten als früher. Man weiß heute auch, das in ein Wettkampfgetränk zusätzlich nur noch Salz und Koffein gehören. Alle andere Zugaben erhöhen ohne Nutzen die Anzahl der Teilchen und erschweren so die Verfügbarkeit und Menge der Kohlenhydrate.
Aus diesem Wissen folgt auch, dass man heute als Sportler mehrere Kohlenhydratlieferanten in Form von Maltodextrin, Wachsmaisstärke, Fructose (Verträglichkeit prüfen!) zu Hause hat und sukzessive austestet, mit welcher Mischung man am besten klarkommt. Zum Beispiel während der oben geschilderten Fettstoffwechseleinheit. Natürlich besteht aber auch ein Teil des Talents des Sportlers darin, möglichst viel Energie im Wettkampf aufzunehmen und umsetzen zu können.
Aber was ist mit dem Silberling? Während der Tour sollte ein Sportler jede Stunde nutzen, um sein persönliches Maximum an Nahrung pro Stunde zu sich zu nehmen. Während einer ruhigen Etappe im Feld können das 90 Gramm Kohlenhydrate pro Stunde sein. Da die Muskulatur arbeitet, wird der Zucker im Blut sofort verarbeitet und schont somit die Speicher. Am Berg in der Rennentscheidung wird man vermutlich je nach Sportler eher auf 50-60 Gramm pro Stunde gehen und eine Mischung nehmen, die sehr schnell ins Blut geht. Beschrieben wird das beispielsweise in dieser Studie zur Leistungssteigerung beim Zeitfahren durch veränderte Ernährungsstrategien.
Bleiben wir noch einen Moment bei den Glycogenvorräten, die es zu schonen gilt. Die Durchschnittleistungen bei einer Flachetappe können relativ niedrig liegen. Nehmen wir an, sie betrage 200 Watt. Dann verbraucht unser Sportler auf 200 km ca. 4000 kcal. Wenn wir diesem Sportler nun ein besonders eng anliegendes Trikot (Aerotrikot) anziehen und ihm einen Aerohelm aufsetzen und ihn auf einen Aerorahmen mit Aerolaufrädern setzen, können wir seine Durchschnittsleistung auf 170 bis 180 Watt reduzieren. Im Laufe einer normalen Etappe kann unser Sportler so seinen Energieverbrauch vielleicht um 500 kcal absenken. Das bedeutet von Tag zu Tag weniger Müdigkeit, weniger Belastung des Magen-/Darmtraktes und somit auch eine verbesserte Regeneration.
Bei einer rennentscheidenden Etappe hat unser professionell betreuter Sportler also einen Vorteil aus einer optimalen Fettverbrennung, seinem bestem Wettkampfgetränk und durch sein Material einen günstigen Luftwiderstandsbeiwert.
Auf der gestrigen Etappe mit dem zweimaligen Anstieg nach Alp d`Huez haben wir sehr deutlich gesehen, wie leere Speicher sich auf das Renngeschehen auswirken, aber auch wie unterschiedlich Fahrer darauf reagieren. Froome hat seine drohende Unterzuckerung rechtzeitig erkannt und konnte dann mit einem Gel die letzten fünf Kilometer noch so schnell fahren, das er auf die ihn verfolgende Gruppe von Contador nur ca. 10-15 Sekunden verlor. Da das Gel aber auch nicht sofort ins Blut geht, können wir davon ausgehen, das Froome das erste Anzeichen einer drohenden Unterzuckerung bemerkt hat. Der Leistungsmesser hilft hier.
Früher konnte man das hohe Tempo der Konkurrenz nicht mehr folgen und erzählte sich darüber Geschichten, heute weiß der leistungsgesteuerte Sportler, dass er Probleme hat, seine eigene Leistung zu erbringen und kann dann die richtigen Rückschlüsse ziehen. Gut, wenn man das im Training trainiert hat, zum Beispiel mit der oben dargestellten Trainingseinheit.
Schauen wir uns noch mal ein bisschen näher das Training an. Zu Jan Ullrichs Zeiten wurden die Sportler auf ein Ergometer gesetzt und dann wurde ein Belastungsstufentest mit Spirometrie und Laktatmessung durchgeführt. Aus den Ergebnissen wurden dann Trainingsempfehlungen abgeleitet. Seit ein paar Jahren wissen wir, Laktat ist nicht nur ein Stoffwechselprodukt, das man als Parameter für die Ermüdung heranziehen kann, sondern spielt auch eine Rolle als Energieträger. Laktat kann also vom Sportler genutzt werden, um dem arbeitendem Muskel zusätzlich Energie zuzuführen.
Wenn wir früher bei Leistungssportlern die so genannte individuelle anaerobe Schwelle auf beispielsweise 400 Watt gelegt haben, dann konnte es durch aus sein, das dieser Sportler eine so genannte funktionelle (tatsächliche) Schwelle von 420 Watt hatte. Ich habe als Hobbysportler keinen Einblick in die Ergebnisse von Profisportlern, kenne aber persönlich nicht einen konventionellen Test im Hobbybereich der belastbare Trainingsempfehlungen gegeben hätte. Wenn Sie also Hobbysportler sind und Sie wollen ihre Leistungsfähigkeit untersuchen lassen, dann machen Sie es ruhig und sammeln sie die Daten, bis Sie sie selber interpretieren können.
Zurück zum Laktat und unserem neuen Wissen über seine Rolle als Energieträger. Mittlerweile gibt es erste Trainingsempfehlungen aus der Sportwissenschaft. Wir bauen Einheiten, in denen wir bewusst in einem Intervall Laktat erzeugen und dann die Leistung absenken, um das Laktat als Energieträger im Muskel zu verarbeiten. Wir fahren also 3-4 Minuten mit vielleicht 105-110 Prozent unserer Schwellenleistung und reduzieren dann die Leistung auf 85-95 Prozent für weitere 4 Minuten. Wenn die Tour näher kommt, würde man diese Übung dann entsprechend spezifizieren und mit Antritten am Berg kombinieren. Zum Beispiel 10 Sekunden hart antreten und dann für weitere 30 Sekunden das Tempo hochhalten und dann erst das Tempo auf 85-90 Prozent der Stundenleistung absenken.
Übrigens gab es schon immer Einheiten, wie z.B. das Schwellenkreuzen, mit denen man ähnliche Effekte erzielt hat. Neu ist heute, dass wir wissen, warum diese Einheit nützlich ist und zu welchem Zweck und wann sie eingesetzt werden kann. Verkürzend könnte man sagen, dass wir ähnlich der exogenen Versorgung mit Kohlenhydraten trainieren können, das Laktat als Energieträger zu nutzen; und zwar dergestalt, dass der Formaufbau begünstigt wird.Wir haben mit diesem Wissen also ein weiteres Puzzle, um unseren Sportler formaufbauend zu Tour zu bekommen.
Wenn wir unseren Trainingsplan für unseren Tour de France Sieger 2014 zusammenbauen, hilft uns jedes neuere Wissen, die Einheiten entsprechend einzuplanen. Wir bekommen also mehr Qualität in unser Training. Bernhard Kohl hat in der „Zeit“ versucht, seinen Trainings- und Dopingplan zu rekonstruieren. Die Daten sind natürlich unvollständig und ich tue ihm vermutlich im folgenden Unrecht, möchte diesen Plan aber gerne als Beispiel nehmen.
Früher haben Leistungssportler im Oktober eine längere Ausszeit genommen. Radrennen sind sehr hart und sehr ermüdend. Nahezu jeder Profi und auch die meisten Hobbysportler haben am Ende des Jahres ein leichtes Übertrainingssyndrom. Eine Pause tut also gut und für die Gesundheit ist es förderlich, wenn man dem Körper eine z.B. 6 wöchige Regeneration gibt. Leider nimmt mir eine Pause von 4-6 Wochen fast die Chance, im nächsten Jahr stärker zu werden. Schon 2 Wochen Trainingspause reduzieren die Zahl der Mitochondrien dramatisch. Ich muss also beim Trainingsstart einen längeren Vorlauf einplanen, bevor ich wieder härter trainieren kann. Unserem Toursieger 2014 würde ich empfehlen, 2013 eine abgegrenzte Saison zu fahren und so die Ermüdung in Grenzen zu halten. Eine reine Saisonpause wäre dann hinfällig und unser Sportler könnte in einer Übergangsperiode von Mitte September bis Mitte Oktober aktiv mit Sport regenerieren.
Bernhard Kohl hat im Winter Langlauf gemacht, um wieder den Sport aufzunehmen. Für das Herz-Kreislauf-System ist es egal, welchen Ausdauersport wir wählen. Aber wenn wir nachdenken, werden wir unschwer erkennen, dass dieses Training auf dem Rad einen höheren Nutzen hat. Bernhard Kohl hat also Langlauf gemacht. Als Trainer hätte ich grosse Probleme, dieses Training in einer Trainingsplanung zu qualifizieren und auch die Trainingsbelastung zu messen. In der Trainingsplanung bauen wir auf Reize und auf Regeneration. Die Reize müssen sukzessive gesteigert werden. Jeden Tag vier Stunden Langlauf zu machen ist bestenfalls nett. Spätestens in der dritten Woche fange ich an meine Zeit zu verschwenden, wenn ich meinen Reiz nicht deutlich anpasse.
Die Firma SRM hat für den Radsport einen Leistungsmesser bereits vor über 20 Jahren entwickelt. Mittlerweile gibt es diverse Softwareprogramme, die diese Leistungsdaten analysieren und den so genannten Trainingsload einer Einheit bewerten. Vereinfachend ausgedrückt werden Belastungen oberhalb der Schwelle deutlich stärker gewertet als Belastungen darunter. Mit dem Herzfrequenzmesser könnte Bernhard Kohl Belastungsspitzen durch kurze Hügel nicht wirklich erfassen, da die Herzfrequenz bis zu 3 Minuten Nachlauf hat. Wir fahren also einen Hügel hoch, sind sehr stark im anaeroben Bereich und unsere Herzfrequenz ist gerade mal von 120 auf 140 gestiegen. Unser Leistungsmesser zeigt aber, dass wir am Hügel 130 Prozent unserer Stundenleistung eingesetzt haben und diese Leistung korrespondiert eher mit einer Herzfrequenz von 180, die wir auch erreicht hätten, wenn der Hügel einen Kilometer länger gewesen wäre.
Für unsere Trainingsplanung sind solche Differenzierungen sehr wichtig. Durch die Messung der tatsächlichen Leistungen können wir die Reize viel genauer setzen und so auch die Regeneration viel besser steuern. In einer perfekten Trainingsumgebung kennt nicht nur der Trainer, sondern auch sein Schützling die Wirkweisen des richtigen Trainings und so können beide von Tag zu Tag die Feinsteuerung für das Training vornehmen. Natürlich hat es früher schon Ruhepulsmessungen morgens gegeben und es wurden Blutparameter gemessen. Nur die dann folgende Trainingsleistung kann man erst mit der Software für Leistungsmesser richtig setzen und auswerten. Wer es genau wissen will, kann sogar während der Ausfahrt den aktuellen Trainingsload vom „Tacho“ ablesen.
Wir können also einem Trainingstag eine Trainingsbelastung zuordnen und die Software kann uns dann anzeigen, wie sich der Trainingsload der letzten sieben Tage sich beispielsweise zum Trainingsload der letzten 42 Tage darstellt. Da man mittlerweile die Daten von vielen Leistungssportlern zum Vergleich hat, haben Trainer heute mehr Möglichkeiten, sich zu orientieren. Wir planen also unsere Trainingsbelastung für die Zeit von November bis Februar und steigern kontinuierlich den Trainingsload mit Einheiten, die für eine bestmögliche Basis für das weitere Training sorgen.
Man könnte neben vielen ruhigen Kilometern in dieser Zeit zum Beispiel auch harte, hochintensive Reize im so genannten Hittraining machen. Dieses hochintensive Training in Intervallform ist ein neuer und auch alter Hut. Die Sportwissenschaft arbeitet aktuell an Längsschnitten, die uns helfen werden, das Hittraining auch in die Mehrjahresplanung einzubauen. Aber schon heute sehen die Trainingspläne in nahezu allen gängigen Magazinen für Breitensportler deutlich roter (=intensiver) aus als noch vor einigen Jahren. Wer bislang noch wenig in diesem Bereich trainiert hat, wird von einem Hit-Trainingsblock vermutlich stark profitieren.
Softwareprogramme wie Golden Cheetah (opensource) verfügen über vielfältige Analysetools, zum Beispiel das Performancechart. Hier wird der aktuelle Trainingsload mit dem langfristigen Trainingsload verglichen. Wenn ich mein Pensum steigere, ist die aktuelle Belastung immer höher als die langfristige. Die Software erzeugt daraus die Trainingsstressbilanz, die dann in der Aufbauphase natürlich sehr stark negativ sein kann. Vor dem Wettkampf wird dann der aktuelle Trainingsload reduziert, um dann zum Wettkampf eine leicht positive Trainingsstressbilanz zu erzeugen. Der Sportler hat also ein Instrument, um die Trainingsbelastung zum Wettkampf genau auszusteuern; natürlich immer abgleichend mit eigenen Erfahrungswerten.
Von der Firma Trainingpeaks gibt es eine Kaufsoftware von Coggan und Allen, die sich seit über 20 Jahren mit dem Thema Training mit Powermeter beschäftigen. Hunter Allen hat sich in diesen Tagen auch zu den Berechnungen von Vayer geäussert. Allen hält aufgrund der vielen ihm vorliegenden Charts von Sportlern die 6,5 W/kg für sauber möglich. Andy Coggan hat sich gestern in Facebook dahingehend geäussert, dass er Leistungen von mehr als 9 W/kg im VO2 Max Bereich für physiologisch möglich hält und leitet daraus ca. 6,6 W/ kg als mögliche Stundenleistung ab. Wenn man sich die Topfahrer anschaut, liegen diese oftmals am Ende einer Tour nur 1-5 Minuten auseinander. Diese Unterschiede lassen sich mit einem Kg Gewichtsunterschied erklären.
Wenn Sie mich fragen, ob die Leistungen von Wiggins und Froome sauber sind, würde ich das bejahen. Zwischen 1990 und 2010 gab es hinsichtlich des Wissens über „richtiges“ Radsporttraining eine Wissensexplosion. Natürlich hat die Trainingsmethodik unter Doping gelitten. Durch Conconi, Ferrari und co. wurde in der Trainingsmethodik der Focus sehr stark auf die Schwellenleistung und deren Beeinflussbarkeit durch Epo und Blutdoping gesetzt. Das Training in diesen Jahren stand sicherlich hinter den Möglichkeiten und Ergebnissen des Dopings zurück. Als Hobbysportler gebührt mein Respekt und meine Achtung den Sportwissenschaftlern, die unseren Sport mit ihrer Suche und Forschung nach weiteren Bausteinen, die unsere Erkenntnisse mehren und bereichern.
Der Radsport hat sich gewandelt. Teams wie Sky beschäftigen keine ehemaligen Doper. Die Sportler selber äussern sich heute eindeutig über Doper. Früher hätte man zum Doping der anderen geschwiegen und lediglich geleugnet selber zu dopen. Dieser Vorzeichenwechsel ist im Peleton erfolgt. Auch die aktuellen Leistungscharts z.B. von Valverde zeigen, dass die Sportler heute sauber sind. Der Radsport hat aus meiner Sicht an Faszination wieder gewonnen, weil die Leistungen nachvollziehbarer geworden sind.
Schauen Sie auf das Chart von Valverde und teilen Sie meine Leidenschaft für diesen Sport. Valverde hat am ersten Berg seine Helfer vorgeschickt und dann vor der Kuppe mit vielleicht 6,5-6,8 Watt/kg attackiert. Froome konnte ihm zwar folgen, war dann aber ohne Helfer. Die restlichen Berge der Etappe waren dann davon geprägt, dass Froome umzingelt von Gegner ohne eigene Helfer selber entscheiden musste, welche Gegner er kontrolliert. Die Leistungen von Valverde sind absolut plausibel. Ich kenne genug talentierte Hobbysportler, die natürlich mit höherem Gewicht, ähnliche Leistungen erbringen.
Freuen wir uns auf den heutigen Tag. Heute geht es zuerst über den Glandon, dann kommt der Col de Madeleine. Denken Sie heute mal an die Glycogenspeicher. Wenn auf den ersten beiden Bergen ein hohes Tempo gefahren wird, dann kann es durchaus sein, dass an den letzten Steigungen einige Topfavoriten sehr grosse Probleme bekommen. Sowohl Valverde als auch Contador sind beide überführte Doper. Beide sind aber auch herausragende Rennfahrer, die heute (sauber) den Radsport mit grosser Leidenschaft ausüben und aufgrund ihrer offensiven Fahrweise ihren Gegnern einen Wettkampf antragen, der an Faszination viel mehr zu bieten hat, als der Abgleich von Zahlen.
Der Autor dieses Gastartikels ist Diplomkaufmann und seit vielen Jahren begeisterter Radsportler, der auch Rennen fährt. Er beschäftigt sich beruflich unter anderem mit der Entwicklung von Carbonteilen für Rennrad und Mountainbike made in Germany (Projekt sizezero). Am 01. August ist die offizielle Vorstellung.
Der Autor schreibt hier unter dem Pseudonym Peter Sturm.
]]>
Auf Basis der bundesweiten vertragsärztlichen Abrechnungsdaten der Jahre 2008 bis 2010 kann gezeigt werden, dass insgesamt 85,8% der Kinder bis zu einem Alter von zwei Jahren mindestens eine Masernimpfung erhalten haben; 69,4% im von der STIKO empfohlenen Zeitraum (9-14 Monate). […] Die zweite Masernimpfung, welche dazu dient, Impflücken, die auf einem Versagen der ersten Impfung beruhen, zu schließen, erhalten im Bundesdurchschnitt nur noch 62,0% der beobachteten Kinder bis zur Vollendung des zweiten Lebensjahres, 44,3% im von der STIKO empfohlenen Alter von 15-23 Monaten.
Im Bundesdurchschnitt sind weniger als zwei Drittel aller zweijährigen gegen Masern geimpft und selbst später, durch Nachuntersuchungen belegt, beträgt die Impfhäufigkeit nur rund 70%. Angestrebt werden 95% für eine wirksame Herdenimmunität.
Bei Betrachtung der lokal aufgeschlüsselten Daten fällt vor allem eine regional unterschiedliche Verteilung der Impfhäufigkeit auf. Im Süden der Republik ist sie eindeutig niedriger (Karte oben). Interessant sind auch die großen Schwankungen auf Kreisebene. So beträgt die Häufigkeit der ersten Impfung im Kreis Landau in der Pfalz nur rund 70%, wohingegen im gerade 60 km entfernten Kreis Zweibrücken fast 95% erreicht werden. In Bayern sind die Unterschiede zwischen dem Kreis Hof (94%) und Rosenheim (61%) noch drastischer.
Die jetzt publizierte Studie gibt stimmt einerseits mit der Feststellung in meinem kürzlich hier publizierten Artikel über ideologische Impfgegner überein. Es sind vornehmlich sozioökonomisch höher gestellte Schichten, in denen die Impfung am ehesten abgelehnt wird, sprich: Das Bildungsbürgertum.
Bei den starken Schwankungen der Impfhäufigkeit auf Kreisebene müssen aber noch andere Faktoren als die Bildung der Eltern eine Rolle spielen. Laut dem Bericht des Zentralinstituts für die kassenärztliche Versorgung sind es vor allem die Kinderärzte und Hebammen, die einen Einfluss auf die Impfentscheidung der Eltern haben. Das ZI schreibt:
Sind zum Beispiel auch Heilpraktiker oder Naturheilkundler an der Impfentscheidung beteiligt, sinkt die Wahrscheinlichkeit einer frühzeitigen Masernimpfung um 50%, wobei Kinder, deren Eltern grundsätzlich bei Homöopathen Rat suchen, zusätzlich geringere Chancen haben, (frühzeitig) gegen Masern geimpft zu werden. […] Da in den Kreisen eine unterschiedliche Rate an impfkritischen Ärzten, Hebammen und/oder Heilpraktiker bzw. Naturheilkundler vorhanden ist, könnte dieser Faktor auch einen Teil der Heterogenität der Impfquoten erklären.
Erwiesen ist, dass die Masern eine gefährliche Infektionskrankheit mit potentiell schwerwiegenden akuten und langfristigen Folgen ist. Die Wahrscheinlichkeit direkt an Masern zu sterben liegt etwa bei 1:1000-1:3000. Aktuelle Zahlen aus Deutschland geben die Wahrscheinlichkeit als Masernspätfolge an einer immer tödlich verlaufender Entzündung des Gehirns, der subakuten sklerosierenden Panenzephalitis, zu erkranken mit 1:1700-1:3300 an.
Mögliche Nebenwirkungen der Impfung, wie eine Rötung der Einstichstelle und in manchen Fällen leichtes Fieber, stehen dazu in keinerlei Verhältnis.
Die öffentliche Wahrnehmung sieht hingegen anders aus. Eine Elternbefragung der Bundeszentrale für gesundheitliche Aufklärung aus dem Jahr 2011 ergab, dass 35% der befragten Eltern Schutzimpfungen generell kritisch gegenüber stehen und nur 61% der befragten Eltern Masern für eine (sehr) gefährliche Krankheit halten. Fast die Hälfte der Eltern habe bereits einmal auf eine Impfung ihres Kindes verzichtet, weil sie die Impfung entweder für nicht notwendig hielten (18%), sie die Befürchtung hatten, dass ihr Kind körperlich zu stark zu belasten (15%) oder sie Angst vor Nebenwirkungen der Impfung hatten (14%).
Ist es wirksamer und besser zu versuchen über Aufklärung der Eltern eine höhere Durchimpfung zu erzielen? Soll bei den Ärzten und Hebammen angesetzt werden? Oder ist doch eine Impfpflicht für Masern notwendig? Und wenn ja, wie sollte diese umgesetzt werden?