Dieser Frage bin ich nachgegangen, und zwar in der Charité Berlin, auf dem Campus Mitte, gleich neben dem Hauptbahnhof, in der Advanced Medical Bioimaging Core Facility (kurz: AMBIO). Diese Facheinrichtung für Mikroskopie wird von Dr. Jan Schmoranzer geleitet. Wir beide kennen uns ganz gut, er hatte die Bürde meine Doktorarbeit zu betreuen. Bei Jan bin ich genau richtig mit meiner Frage – nicht nur hat er in der Facility einige Mikroskope herumstehen, er ist auch Ansprechpartner für alle Wissenschaftler*innen in der Charité, die aufwendige, neue oder einfach nur gut durchdachte Fragestellungen mit einem Experiment am Mikroskop beantworten wollen.
Aber sprechen wir kurz über den Elefanten im Raum: Ich hab hier lange nicht geblogt, sorry. Ich werde nun wieder öfter hier ein paar Zeilen schreiben, und mein Besuch an der Charité ist der passende Auftakt dafür. Denn ich bin da nicht nur vorbei gegangen für diesen Artikel – ich hab mit Jan zusammen auch einen Live-Stream auf meinem twitch-Kanal twitch.tv/andereLampe gemacht, mit derselben Fragestellung. Den vergangen Live-Stream habe ich auch aufgezeichnet und er ist hier anzuschauen (direkter Link zur Playlist auf YouTube):
Wir planen, einen solchen Live-Stream öfter zu machen, und dabei wird definitiv immer das ein oder andere Thema zur Sprache kommen, über das ich dann hier auch etwas ausführlicher, mit mehr Ruhe und vielen Bildern schreiben kann. Der nächste Live-Stream ist in der Tat schon geplant, und zwar am Mi 24.01.2024 ab 19 Uhr auf meinem twitch-Kanal twitch.tv/andereLampe – da kann man einfach so zuschauen, nur zum chatten benötigt man einen Account bei twitch. Eine Aufzeichnung wird es dann kurz danach auch wieder auf YouTube geben, genau wie oben auch schon, aufgeteilt in einige Folgen und jeweils auch durchstrukturiert mit Kapitelmarken.
Während des Live-Streams kam mehrfach die Frage nach der Vergrößerung. Und die Antwort darauf, also welche Vergrößerung hat denn jetzt genau das Objektiv, das ich gerade benutze, ist für ein Wissenschaftly am Mikroskop gar nicht so relevant wie man denkt. Es ist eher eine Abwägung zwischen Sichtfeld und Details. Wenn ich ein großes Sichtfeld haben will, um viel von meiner Probe zu sehen, ist dies möglich, aber auf Kosten der Details. Andersherum, will ich vor allem viele Details in meiner Probe ausmachen, geht das auch, allerdings nur, wenn ich in Kauf nehme, dass mein Sichtfeld kleiner ist. Und die Entscheidung trifft man, in dem man das passende Objektiv wählt. Alle Bilder hier sind mit Maßstab versehen und ich habe schon früher einmal über das Thema gebloggt, gerantet könnte man auch sagen: Mikroskopbilder: Maßstab vs. Vergrößerung.
Hier handelt es sich um ein Fluoreszenzbild – in der Probe wurden bestimmte Strukturen markiert und dann, jeder Kanal einzeln, zum Leuchten gebracht. Wie das genau geht, habe ich schon in Farbe und das Fluoreszenzmikroskop erklärt. Im Bild oben wurde “die Mitte” gewählt, das 40fach Objektiv. Wir haben im Stream verschiedene Objektive durchprobiert, für die Fluoreszenz-Aufnahmen benutzten wir ein 20fach, ein 40fach und ein 60fach Objektiv. Oben sieht man die Aufnahme mit dem 40fach Objektiv, und hier drunter “mehr Überblick auf Kosten der Details” mit dem 20fach Objektiv.
All diese Bilder stammen aus dem Live-Stream, und im Eifer des Streams haben Jan und ich nicht darauf geachtet, dass wir für alle Vergrößerungen die gleiche Stelle wählen. Das ist auf jeden Fall eine Lektion für den kommenden Stream am 24.01.2024: Wir machen mehr Bilder und, je nach Kontext, auch an der selben Stelle, wenn es passt. Da wir im Live-Stream lange geredet haben und dabei die Beleuchtung immer an war, sind die meisten Fluoreszenz-Marker an der Stelle, wo wir mit dem 20fach und 40fach Bilder gemacht hatten ausgeblichen, so dass wir für ein Bild mit dem 60fach Objektiv eine andere Stelle nehmen mussten. Aber der Punkt, den ich machen möchte, wird trotzdem deutlich: Ein Wissenschaftly vorm Mikroskop stellt sich nicht die Frage wie sehr etwas vergrößert wird, sondern wie gut der Überblick über die Probe ist und wie gut Details aufgelöst sind – und entsprechend werden Objektive gewechselt. Hier nun die Aufnahme mit dem 60fach Objektiv:
Das verwendete 60fach Objektiv ist ein besonderes: Ein Öl-Immersions Objektiv, bei dem ein besonderes Öl zwischen Objektiv und Deckgläschen der Probe gegeben wird, um mehr Licht einzusammeln und so noch mehr Details sichtbar zu machen. Jan erklärt die Öl-Immersion ausführlich im Video 01-6 (hier der Link zum genauen Zeitpunkt). Natürlich kann man in den Bildern oben sehen, dass die Objektive auch vergrößern – wenn man aber den Fokus auf eine einzelne Zelle legt, so wie das Wissenschaftlys oft tun, wird vielleicht klarer, dass es eher um die Auflösung von Details geht als um die wirkliche Vergrößerung. Im folgenden Bild habe ich mal die Zellen in den blauen Rahmen von oben nebeneinander gesetzt und in der gleichen Größe dargestellt.
Gerade in der biologischen oder medizinischen Forschung, wie sie an der Charité betrieben werden, besteht die Probe meistens aus Zellen. Die können in unterschiedlichen Formen daher kommen: frei in einer Flüssigkeit, wie beispielsweise Blut; in Gewebeschnitten oder eben aus der Zellkultur, aufgewachsen auf Glas, wie es bei den gezeigten Zellen der Fall ist. Die Zellgrößen können variieren, aber die Größen eines Zelltyps in einer Probe sind recht gleich. Was das Wissenschaftly vorm Mikroskop einschränkt, ist die physikalische Beugungsgrenze (darüber habe ich in Ernst Abbe war ein faszinierender Mensch gebloggt) und die kann man sogar mit der Hochauflösungsmikroskopie überlisten, aber für viele Anwendungen reicht ein normales… oder sagen wir besser: reicht ein modernes Forschungsmikroskop wie es im AMBIO in der Charité bei Dr. Jan Schmoranzer steht, völlig aus.
]]>
Die Dienstagspolitik ist ein live-Stream auf meinem Twitch-Kanal (twitch.tv/andereLampe). Dort treffe ich mich jeden Dienstag um 20 Uhr mit der Politikwissenschaftlerin Romy Höhne und wir spielen ein Computerspiel mit Politikbezug, lassen uns vom Chat auch mal vom Thema ablenken, aber vor allem reden und denken wir live vor der Kamera Politik in verschiedenen Szenarien. Seit dem Sommer 2020 haben wir dort schon die Spiele Democracy 3, den Nachfolger Democracy 4 und For the People behandelt und aktuell spielen wir dort die Polit-Strategie-Simulation Realpolitiks II. Alles was Romy und ich in den Streams bisher angestellt haben lässt sich auf auf YouTube ansehen – man muss also nicht live dabei sein. In den Streams können Zuschauer*innen auch einfordern, dass ich etwas über Physik erzähle und ich nehme mir immer mal 5 Minuten Zeit um über dies und das aus der Physik zu reden, etwas zu erklären oder ein kleines Experiment zu machen – das meiste davon findet sich auch in den Videos. Hier eine kurze Auswahl von Playlists bei YouTube:
Auch mit dem Guerilla-Wissenschaftskommunikations-Projekt Plötzlich Wissen! haben wir angefangen zu streamen, auf dem Twitch-Kanal twitch.tv/ploetzlichwissen. Über das Projekt habe ich bereits im Artikel Plötzlich Wissen! hier etwas geschrieben – aber natürlich können wir wegen der Pandemie zur Zeit nicht in Kneipen gehen. Trotz dieser Situation – in Kneipen gehen und über Wissenschaft quatschen gehört halt zum Konzept – hat sich die Robert Bosch Stiftung bereit erklärt zu fördern, auch mit unserer Idee erstmal live-stream mit Tauch-Computerspielen zu machen und so über alles möglich aus den Meeren und Ozeanen zu berichten. In jedem live-stream bringen wir auch immer ein Experiment unter, dass auch zu Hause nachgemacht werden kann. Der nächste live-stream wird am Mo 11.01.2021 kommen und hier kann man sich die bereits vergangenen Streams ansehen.
Außerdem spiele ich regelmäßig auf meinem twitch-Kanal das Strategie-Spiel Stellaris. Dort werde ich auch immer wieder mal dazu aufgefordert etwas über Physik zu erzählen, aber vor allem spiele ich es weil ich Spaß dran habe und im Herzen ein Gamer bin. Und das ist auch der Grund warum ich überhaupt angefangen habe diese Dinge zu tun: Ich konsumiere schon lange Let’s Plays und live-Streams von Computerspielen und irgendwann juckte es mich einfach in den Fingern das selbst einmal zu tun – aber immer auch zusammen mit meinem Hintergrund als Wissenschaftler. Das Wissenschaftskommunikation auf twitch im live-Stream passiert ist aber nicht neu. Im englischen Sprachraum passiert dies bereits häufiger, im deutschsprachigen Raum will ich auf jeden Fall meine lieben Freunde von Methodisch inkorrekt erwähnen die seit einigen Monaten auch regelmäßig optisch inkorrekt live streamen. Außerdem gibt es da noch den Forschungsstrom, drei wundervolle Menschen und Wissenschaftler*innen (Claudia, Henning und Lambert), die über alles möglich aus der Wissenschaft reden und viel davon auch im Stream zeigen: forschungsstrom.tv.
]]>Ich war schwer begeistert, als ich zum ersten Mal davon gelesen habe. Ein Mikroskop auf der ISS! Da es leider online nicht so viele Informationen gibt, habe ich mich an das DLR gewandt um aus erster Hand mehr über FLUMIAS zu erfahren. Das hat großartig funktioniert, siehe Danksagung am Ende des Textes. Entwickelt und gebaut wurde das Gerät von der Firma TILL I.D. (Anpassung für den Einsatz auf der ISS & Projektleitung durch Airbus D&S) und die wissenschaftliche Seite wird von der Arbeitsgruppe um Prof. Ullrich an der Uni Magdeburg betreut.
Bevor ich in die Details einsteige, was dort untersucht werden soll und wie das Mikroskop technisch funktioniert, ein kurzer Überblick dazu, warum ein Mikroskop zur ISS fliegt.
Wir wissen schon sehr sehr viel über die verschiedensten Zelltypen – größtenteils allerdings von Proben, die auf Glas aufgewachsen sind, und immer unter Einfluss der Schwerkraft. Auf der Erde können wir in Falltürmen für kurze Zeit “Schwerelosigkeit” auf eine Probe wirken lassen, bei Parabelflügen teilweise einige Dutzend Sekunden. In diesen kurzen Zeitspannen hat man bereits Reaktionen und teilweise komplette Anpassungen nach 42s nachgewiesen. Folglich will man nun Untersuchungen in längeren Phasen der Schwerelosigkeit durchführen. Mit dem Mikroskop auf der ISS soll die Morphologie von Zellen in der Schwerelosigkeit untersucht werden, also wie sich das Zytoskelett, die einzelnen Bestandteil der Zelle (Organellen) und die Membranen verhalten. Auch soll untersucht werden, ob sich Eiweiße in der Zelle in anderen Bereichen sammeln, anders verteilen und ob und wie sie miteinander interagieren, im Vergleich zu Zellen auf der Erde. Schließlich soll auch untersucht werden, ob es auf zellulärer Ebene Prozesse gibt, die durch Schwerkraft überhaupt erst ausgelöst werden. All das wird dazu beitragen, Zellen und deren innere Prozesse besser zu verstehen – schließlich wird das Mikroskop Live-Bilder liefern, also räumlich-zeitliche Daten unter Schwerelosigkeit.
Leider gibt es kein Mikroskop das man kaufen und dann auf die ISS schicken kann. Man merkt hier auf der Erde oft gar nicht, wie sehr uns die Schwerkraft dabei hilft Ordnung zu halten und Dinge zu benutzen. Beispielsweise dürfen auf der ISS keine Objektträger und Deckgläschen aus Glas benutzt werden – denn wenn diese kaputt gehen, warum auch immer, fliegen scharfkantige Scherben durch die ISS und fallen nicht einfach nur auf den Boden wie bei uns auf der Erde. Dasselbe gilt für Schmiermittel, zum Beispiel um die Höhenverstellung oder die Schärfe eines Mikroskops zu steuern, Flüssigkeiten wie Immersionsöl für bestimmte Objektive, und die einzelnen Teile des Mikroskops müssen auch besonders verkapselt werden. Sollte ein Fluoreszenzfilter brechen, oder eine Linse, haben wir wieder das gleiche, gefährliche Szenario der herum schwebenden Scherben wie bei den Objektträgern. Allein schon wegen dieser Gründe musste das Mikroskop dafür neu “erfunden” werden, um es auch auf der ISS gefahrlos benutzen zu können.
Aber es gibt nicht nur Sicherheitsregeln, die erfüllt werden müssen, sondern auch Anforderungen daran, was das Mikroskop können muss. Um einzelne Eiweiße in der Zelle beobachten zu können, müssen die Zellen erst einmal am Leben gehalten werden. Eiweiße, die man beobachten will, müssen mit Fluoreszenz-Farbstoffen markiert werden; die Zellen sollten in 3D abgebildet werden können und die Bedienung sollte zum großen Teil automatisch erfolgen – die Besatzung der ISS hat ja noch mehr zu tun.
Und natürlich wäre es praktisch, einen direkten Vergleich zur Erde auch auf der ISS zu haben, also vielleicht “Schwerkraft zum Anschalten”. Dazu ist eine Zentrifuge geplant, welche die Probe dann verschiedenen Beschleunigungen aussetzen kann, über eine längere Zeit. Diese Zentrifuge ist beim FLUMIAS Demonstrator noch nicht dabei – erst will man sicher gehen, dass das Mikroskop auch einwandfrei funktioniert (siehe “Demonstrator” ;-)).
Gebaut wurde der FLUMIAS Demonstrator von TILL I.D. GmbH und von Airbus Defense and Space GmbH für den Einsatz im Weltraum angepasst. In manchen Presseartikeln zum Thema liest man noch, dass das Mikroskop ein “spinnging disc confocal” ist – Schnee von gestern. In dem FLUMIAS Demonstrator steckt ein “strukturierte Beleuchtung”-Mikroskop (Structured Illumination Microscope, SIM). Was ein SIM ist und wie es funktioniert habe ich schon im Artikel Hochauflösungsmikroskopie beschrieben. Mit einem SIM kann man 3D Bilder aufnehmen und theoretisch Details unterhalb der Beugungsgrenze des Lichts auflösen (mehr zur Beugungsgrenze gibt’s bei Ernst Abbe war ein faszinierender Mensch). Der Bau des Gerätes ist für TILL I.D. nicht einfach gewesen – für den Demonstrator war der Platz und das Gewicht beschränkt: Volumen maximal 7 Liter, Gewicht maximal 7 Kilogramm.
Ich habe vorhin geschrieben, dass man “theoretisch Details unterhalb der Beugungsgrenze des Lichts” auflösen kann. Das SIM im FLUMIAS Demonstrator wird so nicht benutzt, es liefert “nur normal” aufgelöste Mikroskopiebilder. Die strukturierte Beleuchtung wird dafür benutzt, um die Probe in 3D aufzunehmen. Man könnte auch höher aufgelöste Bilder machen, dies stellt sich allerdings schwieriger dar als man denkt, wieder wegen der Beschränkungen für Dinge auf der ISS. Das Objektiv muss ein “Luft-Objektiv” sein, also ein Objektiv, das auf die Probe schaut ohne einen Tropfen Immersionsöl dazwischen (wird gemacht um eine höhere numerisch Apatur zu erreichen). Die Abbildung von Luft-Objektiven ist nicht optimal und führt zu vielen Schwierigkeiten in Details von SIMs. In den Laboren, die strukturierte Beleuchtung auf der Erde einsetzen, wird eigentlich immer ein Öl-Immersions-Objektiv benutzt.
Das SIM im FLUMIAS Demonstrator benutzt ein etwas anderes Gitter als die meisten zur Zeit verwendeten SIMs. Es ist ein hexagonales Gitter, also kein eindimensionales Strichgitter, sondern ein zweidimensionales Gitter aus kleinen Löchern. Verwendet man ein solches Gitter, fällt ein Schritt der Rohdaten-Aufnahme weg, der bei SIMs mit Strichgittern erforderlich ist: die Rotation des Gitters. Nochmal: Wie ein SIM funktioniert steht im Artikel Hochauflösungsmikroskopie. Wer sich für die Details von SIM mit hexagonalen Gittern interessiert: Es gibt einen open access Fachartikel dazu: Schropp et al. “XL-SIM: Extending Superresolution into Deeper Layers”.
Im FLUMIAS Demonstrator werden am Freitag 29.06.2018 zwei Proben zur ISS fliegen. Einmal eine Probe mit lebenden Makrophagen (Fresszellen, weiße Blutkörperchen), die mit Fluoreszenz-Farbstoffen markiert sind und derselbe Zelltyp in einer fixierten (toten) Probe, ebenfalls markiert mit Fluoreszenz-Farbstoffen. Diese Makrophagen sind menschliche Zellen, sie wurden aus zentrifugierten Proben von Blutspendern gewonnen, aus dem sogenannten buffy-coat. Präpariert und bereitgestellt wurden die Proben von der Arbeitsgruppe um Prof. Ullrich an der Uni Magdeburg. Der Demonstrator soll vor allem zeigen, dass das Gerät auf der ISS Bildserien von biologischen Proben anfertigen kann, in guter und gleichbleibender Qualität, die auch auswertbar für die Wissenschaft sind. Ein Test-Bild der fixierten Makrophagen-Probe, gemacht mit dem FLUMIAS Demonstrator (als er noch auf der Erde war), hab ich euch hier eingefügt.
Für mich war das eine besonders spannende Frage. Einmal weil ich gerne wissen wollte, welche Kamera- und Beleuchtungstechnik im Mikroskop steckt, zum anderen hat mich interessiert wie die Daten von der ISS zu Erde kommen. Die Antwort auf die letzte Frage war für mich ein wenig enttäuschend: Die aufgenommenen Rohdaten werden mit einer SSD (solid-state-disk, im Prinzip ein USB-Stick) bei der nächsten Gelegenheit wieder mit zur Erde gebracht, im Labor ausgewertet und daraus werden dann dreidimensionale SIM-Bilder errechnet. Aber es handelt sich ja nur um einen Demonstrator, für die Zukunft ist ein direkter Datentransfer geplant. Bisher ist die Übertragungskapazität der ISS für die erwarteten 2TB Rohdaten zu schwach.
Was die Kamera und die Beleuchtung angeht war ich überrascht. Die Kamera ist ein einfacher CMOS, mit einem Sony-Chip, also kein Eigenbau sondern ein so gekauftes Teil. Verbunden ist sie mit dem Rechner über eine PCI-Express-Schnittstelle, was dann zu einer maximalen Bildrate von 40 Bildern pro Sekunde bei 3000 x 3000 Pixeln führt. Zum Vergleich: Full-HD heißt 1920 x 1080 Pixel, UHD 4k heißt 3840 x 2160 Pixel. Die Beleuchtung der Probe übernehmen vier LEDs in verschiedenen Farben: violett, blau, grün-gelb und rot. Vor diesen LEDs befinden sich Fluoreszenz-Anregungsfilter, die nur in einem recht schmalen Wellenlängen-Fenster durchsichtig sind, ca. 20nm. Das führt dazu, dass mit diesen LEDs Fluoreszenz-Farbstoffe oder fluoreszente Proteine bei folgenden Wellenlängen angeregt werden können: ca. 400nm, ca. 470nm, ca. 550nm und ca. 640nm. Das passt für viele gängigen fluoreszenten Marker (mehr dazu auch unter Farbe und das Fluoreszenzmikroskop).
Welche Techniken und Fähigkeiten später bei FLUMIAS (ohne Demonstrator) auf die ISS fliegen werden, wird gerade untersucht, und ist natürlich auch abhängig von den Ergebnissen des Demonstrators. Was man aber definitiv sagen kann – also was sich das DLR vorgestellt hat – wäre Folgendes: Ein ständiges Gerät mit wechselbaren Experiment-Blöcken. In jedem Block ist eine Probe, auch lebende Zellen, mit eigenem Lebenserhaltungssystem. Letzteres besteht bei lebenden Zellen vor allem aus kleinen Pumpen, die das Zellmedium in regelmäßigen Abständen tauschen und einer Gasversorgung für die Zellen. Im finalen Experiment wird die LED-Beleuchtung durch eine Vierfarben Laser-Beleuchtung ersetzt, und die Kamera wird eine sCMOS (scientific CMOS) sein, die noch etwas schneller und empfindlicher ist als die Kamera im Demonstrator.
Die ganze Geschichte, also der Experimenthalter mit den einzelnen Experiment-Blöcken, das Mikroskop und wohl auch der eingebaute Rechner zur Datennahme und Auswertung werden auf einer Zentrifuge montiert sein, und zwar so, dass die Proben unterschiedliche Beschleunigungen erfahren können. Damit kann man Kontrollmessungen machen, um Vergleichbarkeit mit der Erde herzustellen (0g – 1g – 0g) und auch Schwellwerte bestimmen, also feststellen, ab wann bestimmte Beschleunigungen bestimmte Prozesse in Zellen auslösen und schnelle interne Effekte bei Änderung der Beschleunigung beobachten.
Das DLR hat das FLUMIAS als multi-user Experimentanlage konzipiert. Wie das im Detail später aussehen wird ist noch nicht klar. Ich würde mir wünschen, wenn das Gerät etwas wird, für das jede*r Wissenschaftler*in einen Antrag schreiben kann, einen Experimentblock baut und dann Zellbiologie bei verschiedenen Beschleunigungen und Schwerelosigkeit machen (lassen) kann. Ein Bild des Experiment-Block-Konzepts habe ich hier eingefügt – mit etwas Mühe kann man auch erkennen, dass in diesem Block ein Objektiv integriert ist. Das finde ich eine sehr kluge Idee, führt das doch zu der Möglichkeit verschiedene Vergrößerungen für die Experimente auf der ISS benutzen zu können. Und wer weiß, vielleicht kommt jemand noch auf eine Idee ein Objektiv zu bauen, dass die positiven Eigenschaften der Öl-Immersion besitzt, ohne diesen nervigen Öltropfen, der auf der ISS verboten ist.
Am Freitag, 29.06.2018 um 11:42 Mitteleuropäischer Sommerzeit soll eine Falcon9 von SpaceX den FLUMIAS Demonstrator zur ISS fliegen. SpaceX wird auf ihrem YouTube-Kanal den Start live übertragen.
Update: Der Start war erfolgreich. Das Andocken der SpaceX-Dragon-Kapsel wird am Montag den 02.07.2018 live auf NASA TV übertragen: Link.
Update: Die SpaceX Dragon Kapsel ist mittlerweile an die ISS gekoppelt und die Ladung wurde/wird ausgeladen. Ich hab dazu einen Tweet vom Astronauten Ricky Arnold, der zur Zeit gerade auf der ISS ist, ganz unten verlinkt, mit einem schönen Video.
Ich bemühe mich hier, Neues über FLUMIAS zu schreiben und hoffe, dass ich etwas von den ersten Messungen auf der ISS mitbekomme und euch hier zeigen kann.
Mein Dank geht an Dr. Anna Carstens und Dr. Markus Braun vom DLR, an Dr. Christian Seebacher von der TILL I.D. GmbH und an Prof. Ullrich und Team für die sehr ausführlichen Gespräche und die Bereitstellung der Bilder.
]]>Once we captured @SpaceX Dragon, ground controllers at @NASA_Johnson took over and berthed it to station. Enjoy the robotic ballet. pic.twitter.com/kIrANJqiG3
— Ricky Arnold (@astro_ricky) July 5, 2018
Dabei sind Größenangaben so praktisch, nicht nur bei Bildern aus dem Mikroskop. Beispielsweise in einem Tweet von Mike Beckers (siehe Bild) – der hashtag #bananaforscale ist schon seit einigen Jahren ein Internet-Meme, um bei Bildern aus dem Alltag eine Größenvorstellung zu bekommen (mehr zu “Banana for scale” bei knowyourmeme.com). Es gibt auch eine Anleitung, wie die Bananen-Skala als Einheit anzuwenden ist: hier. Wirklich witzig in dem Bezug fand ich auch Guitar For Temperature, aber ich schweife ab.
Es geht mir hier um einen Maßstab, und wenn es auch eine Banane ist. Eine Hilfe um die Größenverhältnisse auf einem Bild zu verstehen ist wichtig, besonders bei Bildern, die mit dem Mikroskop aufgenommen wurden. Leider findet man bei Mikroskopiebildern in Presseartikeln, auf Wikipedia oder sonst wo eine Angabe, die mich immer aufregt: “… 20fache Vergrößerung” und KEINEN Maßstab. Ich gebe hier bewusst keine Beispiele, weil ich in diesem Artikel niemanden mit einem fachlichen Fehler in den Fokus der Aufmerksamkeit ziehen möchte. Das Problem liegt vor allem in der Art und Weise wie “schon immer” Aufnahmen aus einem Mikroskop mit Text versehen wurden, und nicht an einer bestimmten Person. Ja, ich habe oben “fachlicher Fehler” geschrieben, denn wenn man ein Mikroskopiebild in einem digitalen Medium abbildet, ist eine Angabe von “… XXfache Vergrößerung” oder ähnliches falsch, und zwar auf mehreren Ebenen.
Ich habe eine Weile gebraucht, um zu erkennen, was daran alles falsch ist. Lange habe ich nicht wirklich über eine Angabe wie “… 200fache Vergrößerung” zu einem Mikroskopiebild nachgedacht – vielleicht auch weil ich gewohnt war, das so zu lesen und ich dachte “das muss so”. Mir ist nur irgendwann beim Zusammenstellen einiger Bilder von mir aufgefallen, dass ich gar keine korrekte Angabe der Vergrößerung machen kann, schon gar nicht bei einem digitalen Bild. Da ich die ganze Zeit von Bildern spreche, habe ich mal ein kleines Bilderrätsel vorbereitet:
Sieht alles einigermaßen gleich groß aus, oder? Vielleicht hier und da mal ein Faktor zwei oder drei – aber diese Bilder sind mit Optiken aufgenommen worden, die Vergrößerungen von 40fach, 100fach und 4fach liefern. Könnt ihr die “richtige Vergrößerungen” zuordnen?
Ich hab nicht schlecht gestaunt, als ich die Definition für die Vergrößerung gelesen habe – dort wird sich immer auf die “Deutliche Sehweite” bezogen.
Deutliche Sehweite
Nicht zu verwechseln mit der Sehschärfe ist der Begriff der deutlichen Sehweite, auch Bezugssehweite oder Normsehweite genannt. Sie ist festgelegt auf 250 mm. Die Bezugsgröße ist erforderlich, um beispielsweise den Vergrößerungsfaktor einer Lupe zu definieren. – Wikipedia Deutliche Sehweite
Die Vergrößerung ist also immer bezogen auf das menschliche Auge und eine Vergrößerung von beispielsweise “20fach” heißt, dass ein Objekt zwanzig-Mal so groß erscheint, wie mit dem freien Auge aus 25 cm betrachtet.
Ich habe das auch schon in meinem Vortrag auf dem 34. Chaos Communication Congress (34c3) erwähnt. Das Video zum Vortrag ist im Artikel Mikroskopie: Wie fängt man an und mit was? verlinkt. In dem Artikel komme ich auch kurz auf die Vergrößerung zu sprechen, allerdings als ein Parameter, der die Leistungsfähigkeit eines Mikroskops beschreibt. Aber hier soll es darum gehen, warum man bei Bildern aus einem Mikroskop nicht die Vergrößerung angeben sollte, sondern einen Maßstab.
Der Knackpunkt ist der Detektor. Wenn das menschliche Auge aus dem Spiel ist und eine Kamera eingesetzt wird, spielt vor allem die Pixelgröße des CCD- oder COMS-Chips in der Kamera eine Rolle und evtl. auch noch zusätzliche Linsen vor dem Sensor. Damit kann ich dann ausrechnen, welche Dimension ein Pixel im Digitalen Bild meiner Probe hat. Zum Beispiel: Ich benutze ein 4fach Objektiv und habe eine Kamera dahinter mit einer Pixelgröße von 3 µm. Damit errechnet sich die Größe eines Pixels in meinem Mikroskopiebild zu 3 µm / 4 = 0,75 µm oder 750 nm. Wenn man schon so weit ist, kann man sein Mikroskopiebild auch mit einem Maßstab (oder scale bar) ausstatten – denn wenn man an der Vergrößerungsangabe festhalten wollen würde, müsste die Angabe korrekt “4fache Vergrößerung bei 3 µm Pixelgröße im Detektor” lauten.
“Warum soll man denn keine Vergrößerung bei digitalen Bildern angeben?” – Weil sich das auf das menschliche Auge bezieht und niemand Einfluss darauf hat, wie das Bild später angezeigt wird. Ich kann nicht kontrollieren, ob sich jemand ein Bild von mir auf seinem Rechner zu Hause anschaut, unterwegs auf dem Handy, im Zug auf dem Tablet oder ausgedruckt auf Papier im Büro. Ich habe keine Kontrolle, wie groß das Bild später wiedergegeben wird – also kann ich auch keine Aussage dazu treffen, wie es sich mit der Vergrößerung verhält.
Wenn man ein Bild beispielsweise in einer Zeitung abdruckt, und genau weiß, wie groß das Bild später im Druck sein wird, dann wäre es theoretisch OK eine Vergrößerung in “XXfach” anzugeben. Ich würde aber auch davon abraten. Nicht nur, weil es wohl keine Zeitung mehr ohne online-Version gibt, sondern auch wegen dem schwerwiegendsten Problem mit der ganzen Geschichte: der Verständlichkeit.
Hier schlägt die Wissenschaftskommunikation zu. Es macht keinen Sinn jemandem eine Information zu geben (20fache Vergrößerung), zu der man eine Zusatzinformation braucht (bezogen auf 25cm entfernt vom freien Auge), um zu verstehen was damit gemeint sein soll. Selbst wenn man Kenntnis von der Zusatzinformation hat – wir Menschen sind ziemlich schlecht darin uns eine Multiplikation vorzustellen. Angaben wie “20-mal größer” oder “100-mal größer” helfen uns kaum dabei uns vorzustellen, wie groß etwas im Bezug zu unserer Umwelt ist.
Viel besser wäre es etwas anzubieten, das wenigstens die Chance hat, eine Verbindung zu unserer Alltagserfahrung herzustellen. Für Größenverhältnisse benutzen Landkarten schon seit je her einen Maßstab: “Diese Länge entspricht 1 km auf der Karte”. Wir haben gelernt etwas damit anzufangen und für das Verständnis ist keine Zusatzinformation nötig. In den Lebenswissenschaften ist es übrigens Standard, dass man Mikroskopiebilder mit einem Maßstab versieht. “Diese Länge entspricht 1 µm im Bild” ist eine Pflichtangabe für jede wissenschaftliche Veröffentlichung und jeden Vortrag. Um ein Gefühl für die kleinen Dimensionen zu entwickeln, habe ich eine Abbildung gebastelt, die eine Referenz für verschiedene Längen liefert. Weil ich glaube, dass dies sinnvoll ist, und ganz im Sinne von open science, ist diese Abbildung public domain. Nehmt und nutzt das Bild wie ihr wollt – wenn ihr Bock habt, nennt meinen Namen oder linkt hier her .
Ich füge eigentlich immer einen Maßstab in meine Mikroskopiebilder ein – vor allem aus den Gründen, die oben unter “3. Problem: Verständlichkeit” aufgeführt sind. Und das ist überhaupt nicht schwierig zu machen. Forschungsmikroskope sind in der Regel bereits kalibriert und liefern die Option einen Maßstab in ein Bild einzufügen. Wenn man diese Funktion nicht zur Verfügung hat, kann man einen Maßstab unter das Mikroskop legen und selbst nachmessen, beziehungsweise sein Mikroskop selbst “kalibrieren”. Dafür braucht man nur eine Referenz, die man unter das Mikroskop legt. Für geringe Vergrößerungen kann man einfach die Millimeter-Striche auf einem Lineal oder Geodreieck nehmen. Für ein paar Cent kann man sich aber auch kleine Folien kaufen, die man unter das Mikroskop legen kann, wie im folgenden Bild gezeigt.
Wenn man eine solche Folie statt der Probe unter das Mikroskop legt (oder auf die Probe ), kann man mit einfachen Bildanalyse-Werkzeugen (ImageJ, Fiji, etc.) die Pixelgröße im Bild bestimmen. Das habe ich bei meiner Serie Dinge unter’m Mikroskop immer so gemacht, bei jedem Bild. Verwendet man ein Schülermikroskop mit Okularkamera, muss man diese Messung sogar nur einmal für jedes Objektiv durchführen und sich die ermittelte Pixelgröße merken – daran sollte sich über die Zeit nur minimal etwas ändern. Wenn man seine Bilder mit dem Smartphone durch das Okular aufnimmt, würde ich schon dazu raten, zu jeder Probe eine eigene Kalibrierung mit so einer Folie aufzunehmen.
Aber jetzt will ich noch das Bilderrätsel vom Anfang dieses Artikels auflösen. Ich habe mit verschiedenen Optiken und verschiedenen Kameras Bilder einer Probe gemacht. Ich habe die Bilder nicht vergrößert oder verkleinert sondern so, wie sie waren, in meine Bildbearbeitungs-Software geladen. Ich habe lediglich die Bilder, die ich mit dem Smartphone durchs Okular aufgenommen habe, etwas beschnitten. Na? Wer hat denn richtig geraten?
Besonders beim unteren Gitter-Bild von c kann man eine Verzerrung des Bildes erkennen. Das liegt vor allem daran, dass es manchmal nicht so einfach ist, mit dem Smartphone den richtigen Winkel und den richtigen Abstand zum Okular zu erwischen. So ein Gitter ist also auch ganz praktisch, um Abbildungsfehlern in der Optik auf die Schliche zu kommen (oder einem falschen Abstand zum Okular, wenn man das Handy benutzt). Diese Gitter-Messungen würde ich niemals in einer wissenschaftlichen Arbeit benutzen, da das Gitter nicht wirklich regelmäßig ist und der Hersteller auch keine Fehlerangabe gemacht hat. Aber was will man auch von einem Cent-Artikel erwarten? Es gibt Gitter für das wissenschaftliche Arbeiten, die in Glas geätzt sind und eine sehr hohe Genauigkeit aufweisen. Aber eine solche Folie ist vollkommen ausreichend um einen ungefähren Maßstab anzugeben, damit sich Betrachter*innen die Größenverhältnisse vorstellen können.
Die verschiedenen Vergrößerungen und Größen der Bilder im Bilderrätsel sind auf die verwendeten Optiken und Pixelgrößen der Sensoren zurück zu führen. Wenn ich mein Smartphone benutze, sind Objektiv, Okular und Optik des Smartphones beteiligt – die Pixelgrößen des Sensors in meinem Telefon kenne ich gar nicht. Bei den Okularkameras ist nur das Objektiv beteiligt gewesen. Bei einigen Okularkameras sitzt noch eine Reduktionslinse vor dem Sensor, häufig mit einer “Vergrößerung” von 0,45fach bis 0,6fach (im Bilderrätsel nicht verwendet). Meiner Meinung nach illustriert das Bilderrätsel sehr schön, warum eine Angabe der Vergrößerung wenig Sinn macht. Wenn man einfach sagt, dass die runde Struktur in der Mitte der Bilder eine Breite von ungefähr 0,35 mm hat, kann man sich schon leichter etwas darunter vorstellen.
Also, liebe Wissenschaftsjournalisten, liebe Pressestellen, liebe Wikipedia-Autoren und alle, die sich irgendwie mit Mikroskopiebildern beschäftigen. Bitte verwendet Maßstäbe oder Größenangaben im Text zum Bild und nicht eine Angabe der “Vergrößerung” die besonders bei digitalen Bildern keinen Sinn macht und nicht zum Verständnis des Bildes beiträgt. Bitte.
Wer dabei Hilfe braucht, kann sich gerne bei mir melden. Entweder in den Kommentaren oder unter andre.lampe{ät]fu-berlin.de – ich helfe gerne!
Übrigens ist meine Leidenschaft für den “scale bar” mittlerweile so groß geworden, dass ich bei einem bestimmten Lied von Electric Six aus dem Jahr 2003 “scale bar” anstatt des Refrains höre. Ich lasse euch die Wahl danach zu suchen, aber Vorsicht: das bleibt im Kopf stecken .
]]>Es gibt den Vortrag auch mit engischem voice over, hier.
Ich habe kein umfassendes Wissen über alles was es so zu kaufen oder zu basteln gibt. Alle Empfehlungen gebe ich auf Grund von eigenen Erfahrungen. Wenn ihr andere Erfahrung habt oder eine Empfehlung abgeben wollt: bitte tut das! Entweder in den Kommentaren oder per mail an andre.lampe{ät]fu-berlin.de.
Es gibt eine kleine Linkliste zum Vortrag hier.
Im folgenden Text versuche ich alle Dinge aus dem Vortrag aufzuarbeiten und ein paar mehr Einordnungen anzubieten.
Alles andere ist für den Anfang nicht wahnsinnig wichtig. Diese fünf Punkte sollten jeden dazu befähigen einen guten Start in die Mikroskopie zu machen. Grundsätzlich bin ich davon überzeugt, dass man immer eine Variante wählen sollte bei der man sowohl mit “dem Auge durchgucken” als auch digitale Bilder machen kann. Warum erkläre ich im Vortrag und habe ich auch in Die Frage nach der Wissenschaft, der Kommunikation und dem ganzen Rest aufgeschrieben.
Die Vergrößerung ist DER Parameter schlechthin, auf den wohl jeder instinktiv bei einem Mikroskop schaut. Bevor wir aber dazu kommen was dieses “x” oder “fach” bei der Vergrößerung genau heißt, habe ich mal einen Maßstab gemacht, mit dem man die Dimensionen der Welt des Kleinen verstehen kann. Weil ich glaube, dass dieser Maßstab sinnvoll ist und ganz im Sinne von open science, will ich den Maßstab auch als public domain veröffentlichen. Nehmt und nutzt das Bild wie ihr wollt – wenn ihr Bock habt nennt meinen Namen oder linkt hier her
Nun aber zu dem Ausdruck “400fach” oder “2000fach” im Bezug auf Vergrößerung. Diese Angabe bezieht sich immer auf die Betrachtung eines Objekts mit dem “unbewaffnetem” Auge in 25cm Abstand. Dieser Abstand ist die optimale Entfernung für unser Auge um etwas zu betrachten, und wird auch als deutliche Sehweite bezeichnet. Ein Objekt in 25cm Entfernung zu betrachten wäre damit also eine Vergrößerung von 1fach, in 50cm eine “Vergrößerung” von 0,5fach. Um die Vergrößerung eines Mikroskops auszurechnen multipliziert man die Vergrößerung des Okulars (meistens 10fach) mit der Vergrößerung des Objektivs (zum Beispiel 40fach). Mit den Zahlenwerten aus den Klammern dann also 400fache Vergrößerung. Das heißt: Im Mikroskop betrachtet ist ein Objekt 400 mal größer als in 25cm Entfernung mit dem “unbewaffnetem” Auge betrachtet.
Die Angaben mit “x” oder “fach” beziehen sich immer nur auf das menschliche Auge. Die Vergrößerung bei Verwendung einer Kamera errechnet man über die Pixelgröße der Kamera. Benutzt man eine Kamera mit einer Pixelgröße von 12µm und ein Objektiv mit einer 40fachen Vergrößerung, hat jedes Pixel im digitalen Bild später eine Größe von 12µm / 40 = 0,3µm. Oft besitzen Kameras für Mikroskope noch eine Reduktionslinse mit einer Vergrößerung von 0,5fach. Dies berechnet man dann mit so mit ein: 12µm / (40 mal 0,5) = 0,6µm. Einfacher ist es jedoch, ein kleines Gitter mit bekannter Größe abzubilden und dann die Pixelgröße auszurechnen (siehe Bild – aus Rezension “BRESSER”…). So habe ich das übrigens immer gemacht, wenn ich mein Smartphone als Kamera benutzt habe. Aus so einer Messung mit dem Gitter errechnete ich dann die Länge eines kleinen Balken im Bild, wie man ihn zum Beispiel bei Dinge unter’m Mikroskop IV – Nadeln und Kanülen sehen kann.
Es gibt eine natürliche Grenze, bis zu der Vergrößerung Sinn macht: die Beugungsgrenze. Darüber habe ich bereits in Ernst Abbe war ein faszinierender Mensch etwas geschrieben. Eine Vergrößerung für das Auge macht nur bis ca. 1250fach Sinn, bzw. bis zu einer Pixelgröße im Bild von ca. 0,1µm. Bei höherer Vergrößerung schlägt die Physik zu und man sieht keine weiteren Details.
Den Arbeitsabstand unterschätzt man immer – mir geht das auch oft so. Jedes Objektiv hat einen eigenen Abstand, bei dem es ein scharfes Bild liefert. Je höher die Vergrößerung des Objektivs, je näher muss man an die Probe heran. Bei Objektiven mit einer Vergrößerung von 40x kann das bereits unterhalb eines Millimeters sein. In meiner Doktorarbeit habe ich mit einem 100x Objektiv gearbeitet, dessen Arbeitsabstand im Bereich von 200µm war.
Wenn man eine hohe Vergrößerung will muss man davon ausgehen, dass man nah an seine Probe ran muss. Das kann bedeuten, dass man zunächst einiges an Arbeit in die Probenpräparation stecken muss. Das sollte man im Hinterkopf behalten.
Ich sage im Vortrag “Tiefenschärfe”. Meistens sagt man Schärfentiefe. Wie es “korrekt” heißt, darüber wird sich schon lang gestritten (kann man hier nachlesen).
Die Schärfentiefe ist ein Maß für den Bereich in dem die Abbildung eines Objekts scharf ist. Ähnlich wie beim Arbeitsabstand hat die Vergrößerung eines Objektivs auch Auswirkungen auf die Schärfentiefe. Je größer die Vergrößerung eines Ojektivs ist, je geringer ist die Schärfentiefe. Das heißt, man sollte eine Probe, die man mit hoher Vergrößerung betrachten oder abbilden möchte, so dünn präparieren, dass sie innerhalb der Schärfentiefe liegt. Das kann für ein 40fach Objektiv bedeuten, dass man dünne Schnitte von 10µm herstellen sollte – zugegeben, nicht ganz einfach. Ein paar Bilder mit unterschiedlichen Objektiven (aus dem Vortrag) machen das deutlicher. Hier sieht man einen kleinen Staub-Faden auf der Probe liegen, ca. 170µm von der eigentlichen Probe entfernt. Mit höherer Vergrößerung wird das Fädchen immer unschärfer – es liegt nicht mehr im Bereich der Schärfentiefe. Der kleine Kringel im Bild des 40x Objektivs ist ein anderes Stück Staub, dass sich irgendwo ins Linsenssystem des Mikroskops geschlichen hat.
Für sein eigenes Mikroskopie-Vorhaben sollte man sich merken: Wenn ich etwas mit hoher Vergrößerung betrachten oder abbilden will, dann werde ich wohl um eine Präparation (Dünnschnitt oder Ähnliches) nicht herum kommen – oder ich akzeptiere das ich meine Probe nie vollständig scharf sehen werde.
Für den Einstieg in die Mikroskopie kommen meiner Meinung nach drei verschiedene Mikroskop-Typen in Frage: Stereo-Mikroskop, “normales” Mikroskop (Auflicht/Durchlicht) oder günstiges(!) USB-Mikroskop. Jeder einzelne Typ bietet einen guten Start in die Mikroskopie mit Vor- und Nachteilen.
Ein Stereo-Mikroskop habe ich mir bisher nicht im Detail angesehen, ich habe aber einen Artikel über die günstigen USB-Mikroskope geschrieben (hier) und zwei Rezensionen für Schülermikroskope: KOSMOS Experimentierkasten und BRESSER JUNIOR Biolux. Diese Geräte habe ich eingehend getestet. Dies hier ist keine Kaufempfehlung, bitte lest euch die Rezensionen durch – bei Fragen gerne auch Fragen.
Abraten möchte ich von jeder Art von “Ansteckmikroskop für das Smartphone” – das führt zu Frust und Ärger. Genau so wie Kombigeräte mit integrierter Kamera und Display. Warum ich davon abrate und einige Empfehlungen gibt es weiter unten im Text.
Ich halte es für sehr wichtig, dass man durch ein Mikroskop durchschaut. Es ist ein Erlebnis und man kann an einer Probe für Stunden sitzen und faszinierende Dinge entdecken. Das ist wirklich etwas anderes als ein Bild auf einem Display zu betrachten. Ich habe etwas länger für dieses Physiker-untypische Denken gebraucht und möchte jedem noch einmal den Artikel Die Frage nach der Wissenschaft, der Kommunikation und dem ganzen Rest ans Herz legen.
Aber irgendwann möchte man Bilder machen. Um seine Entdeckungen zu teilen, um ein großes Bild zusammen zu setzen oder um vielleicht sogar Daten aus den Bildern zu ziehen – es gibt so viele schöne Möglichkeiten, wenn man erstmal ein paar Digitalbilder gemacht hat. Ich würde dafür zwei preisgünstige Methoden empfehlen wollen: Zum Einen die Kamera vom Smartphone und zum Anderen eine Okularkamera.
Bilder aus der Hand am Okular mit dem Smartphone zu machen bedarf ein wenig Übung, aber nach kurzer Zeit kommt man recht gut klar. Das müsst ihr mir nicht allein glauben, ihr könnt auch Florian Karsten (@messfehler auf Twitter) fragen, der hat im Bild oben, links das Handmodel gegeben. Von der Firma BRESSER gibt es einen Smartphone-Aufsatz (Bild oben, Mitte), leider nur passend für das 10x Okular von BRESSER. So etwas selbst zu bauen sollte aber eigentlich kein Problem darstellen. Für Teleskope gibt es Universal-Smartphone-Halterungen. Wie gut die sind, kann ich leider nicht sagen, weil ich die noch nicht ausprobiert habe – sieht aber auf den Bildern etwas wackelig aus. Zu guter Letzt gibt es Okularkameras. Anstatt des Okulars wird die Kamera direkt in den Tubus des Mikroskops gesteckt. Die passen so gut wie in alle Mikroskope, da die Tuben meistens einen Innendurchmesser von 23,2mm haben. Für eine solche Kamera der Firma BRESSER habe ich hier eine Rezension geschrieben. Es gibt aber noch andere Hersteller/Vertreiber. Solche Kameras werden entweder als Webcam erkannt oder kommen mit einem directShow Treiber. In jedem Fall kann man sie mit der freien Software micro-manager ansteuern (in micro-manager dazu unter “Camera” openCVgrabber auswählen).
Es gibt sicher noch andere Methoden, wenn man zum Beispiel eine alte Digitalkamera rumliegen hat, könnte man etwas basteln. Ich habe damit allerdings noch keine Erfahrungen gesammelt und habe mit den oben genannten Möglichkeiten bisher so gute Bilder gemacht, dass ich mich damit auch noch nicht beschäftigt habe.
Im Vortrag spreche ich auch das Sichtfeld oder Field of view (FOV) eines Mikroskops an. Das hilft einem nicht unbedingt bei der Kaufentscheidung weiter, aber man versteht ein wenig besser woher teilweise recht hohe Preisunterschiede bei den Mikroskopen herrühren. Aber Vorsicht: Nur weil etwas teurer ist, heißt das noch lange nicht, dass hier das Sichtfeld viel größer ist. Bevor es gleich mit den Warnungen und den Empfehlungen weiter geht, habe ich hier noch das Video zum Sichtfeld aus dem Vortrag eingebunden. Es steht unter CC BY Lizenz und kann gerne weiter verwendet werden.
Ich rate von den folgenden Dingen ab, weil ich sie entweder selbst getestet habe, oder weil man anhand der Parameter bereits ablesen kann, dass das etwas ist, dass keine Freude bereitet.
Einfach weil man nicht vier Hände hat. Gleichzeitig das Smartphone ruhig zu halten, ohne zu wackeln an kleinen Knöpfchen am Ansteckmikroskop drehen und die Probe ruhig und im Bereich der Schärfentiefe zu halten ist ein spaßbefreites Geduldsspiel. Ich hab ein paar dieser Dinger getestet und nie ein Bild erhalten, das ich herzeigen wollen würde.
Ich warne ausdrücklich vor “endoskopischen Mikroskopen” oder anderen Dingen, die digitale Bilder liefern während man sie “einfach” in der Hand hält. Niemand hat eine so ruhige Hand. Die Idee ist wirklich verlockend – in der Praxis funzt das aber leider nicht.
Geräte bei denen man überhaupt nicht mit dem Auge durchschauen kann sollte man auf keinen Fall kaufen, es sei denn sie sind günstiger als 20€. Aber selbst wenn man durchschauen kann, und im Gerät eine Kamera und evtl. ein Display verbaut sind, muss man eigentlich immer damit rechnen, dass sowohl Kamera als auch Display keine gute Qualität liefern werden. Ich habe mir ein paar dieser “Kombigeräte” angesehen, und kein einziges vor der Nase gehabt, bei dem ich sagen würde, dass die produzierten Bilder OK sind. Abgesehen davon: Man sollte sich nicht ohne Not ein Gerät zulegen, bei dem man keine Chance hat eine bessere Kamera zu nehmen. Und “die bessere Kamera” ist oft einfach die bereits im eigenen Smartphone eingebaute.
Ich gebe nur sehr ungern eine Empfehlung, denn jeder Mensch hat andere Vorstellungen von der Mikroskopie, davon was sie oder er damit anstellen will und sehr unterschiedliche finanzielle Rahmen. Ich gebe hier trotzdem ein paar Empfehlungen, weil ich immer wieder gefragt wurde und weil ich glaube, dass ich einen Ansatz gefunden habe, bei dem ich ruhig schlafen kann: Ich richte mich danach was jemand ausgeben will.
Ein billiges USB-Mikroskop. Nicht die Art in Stiftform oder “Endoskop”. Meistens liegt eine Art einfacher Fuß oder Stativ bei. Bitte, nehmt die für unter 20€. Steuert sie mit micro-manager an, einer freien Software basierend auf ImageJ (in micro-manager dazu unter “Camera” openCVgrabber auswählen). Ich habe darüber bereits ausführlicher geschrieben, im Artikel Mikroskope – Dos & Don’ts beim Kauf, der sich vor allem mit den günstigen USB-Mikroskopen beschäftigt.
Ein Schülermikroskop zwischen 65€ und 80€. Ich selbst habe den KOSMOS Experimentierkasten selbst getestet, aber es gibt sicher andere Mikroskope von anderen Herstellern in dieser Preisklasse. Lest Rezensionen und seid kritisch. USB-Mikroskope in dieser Preisklasse machen meiner Erfahrung nach keinen Sinn. Digitale Bilder kann man bei dieser Variante mit seinem Smartphone am Okular machen.
Entweder: Ein Schülermikroskop zwischen 120€ und 140€, auf keinen Fall eines das eine eingebaute Kamera oder ein Display hat. Ich habe eines von BRESSER getestet, aber es gibt sicher andere Mikroskope von anderen Herstellern in dieser Preisklasse. Bitte Rezensionen lesen. Wenn dann noch Platz im Budget ist, kann man sich für ca. 60€ eine Okularkamera leisten. So eine habe ich auch schon von der Firma BRESSER getestet, aber es gibt die auch von anderen Herstellern. Mehr als 60€ sollte man hier allerdings nicht ausgeben. Ansteuern kann man die Kamera mit micro-manager, einer freien Software basierend auf ImageJ (in micro-manager dazu unter “Camera” openCVgrabber auswählen).
Oder: Sucht nach alten und gebrauchten Mikroskopen auf Flohmärkten, ebay oder wo man soetwas sonst noch finden könnte, und haltet euch an euer Budget von unter 200€ ;-). Auf die meisten Mikroskope passen auch Okularkameras, aber auch mit einem Smartphone kann man schöne, relativ reproduzierbare Bilder machen.
Genau das tun was unter “Weniger als 80€” steht, ausprobieren, spielen und erste Bilder machen – Erfahrung sammeln und feststellen wovon man am ehesten “mehr” braucht. Vielleicht ist es Arbeitsabstand, vielleicht Vergrößerung, vielleicht Usability. Dann entweder mit dem restlichen Budget gebraucht kaufen (ebay etc.) oder mal zu einem Laden fahren und sich beraten lassen. Viele Teleskop-Shops haben auch eine Mikroskopabteilung. Von den meisten online-Shops für Mikroskope kann ich nur abraten, besonders von denen die keine Niederlassung irgendwo haben. Wenn es eine Niederlassung gibt einfach mal anrufen und ein Gespräch suchen – und dabei kritisch bleiben. Viele der online-shop Betreiber, die hier anscheinend auch oft lesen und regelmäßig versuchen in den Kommentaren zu spammen möchte ich an dieser Stelle ganz herzliche grüßen: Hallo ihr Flachzangen!
Genau das tun was unter “weniger als 200€” steht – und dann bitte oben bei “Bis zu 500€” nach dem ersten Komma weiterlesen.
Siehe “Bis zu 1500€” oder sie kontaktieren mich unter andre.lampe{ät]fu-berlin.de und wir quatschen mal.
Wundervoll. Man kann mich auch für Vorträge oder eine Beratung buchen. Ansonsten das tun, was bei “Bis zu 10k€” steht.
Herzlichen Dank für eure Aufmerksamkeit.
]]>Ich habe einen Maßstab gezeigt, den ich ausschließlich mit public domain Bildern gebastelt habe. Weil ich glaube, dass dieser Maßstab sinnvoll ist und ganz im Sinne von open science, will ich den Maßstab auch als public domain veröffentlichen. Nehmt und nutzt das Bild wie ihr wollt – wenn ihr Bock habt nennt meinen Namen oder linkt hier her
Zu tollen Menschen und den Dingen die sie Taten:
Mein Vortrag vom 33c3 und Links dazu gibt es hier.
Hier im Blog zu Zeug das ich im Vortrag angesprochen habe:
Einige Bilder aus dem Vortrag werde ich auch noch hier online stellen – ihr könnt gerne nach mehr Content bei Dinge unter’m Mikroskop stöbern
]]>Wenn man die Ohren spitzt, hört man die oben genannte Forderung schon eine ganze Weile, nicht unbedingt als ersten, wichtigen Punkt, aber – nach meinem Gefühl – beständig und immer wieder. Aber es hat sich nicht wirklich viel getan, was das Thema “mehr Wissenschaftler*innen auf dem FWK” an geht. Dazu hatte ich eine Idee, schon vor einer Weile, und ich habe sie versucht beim FWK 2016 umzusetzen. Aufgrund von Zeitknappheit hat das leider nicht geklappt. Der Versuch sie beim kommenden FWK 2017 in Braunschweig umzusetzen, dass übrigens am 27.11.2017 bis 29.11.2017 statt finden wird, hat leider auch nicht geklappt. Wegen Zeitmangel auf meiner Seite und wegen Mittelknappheit beim Veranstalter. Da ich diese Idee aber für eine gute halte, will ich, ganz im Sinne von open sciene, sie einfach mal hier umreißen und darauf hoffen, dass dies Anstöße in der Wissenschaftskommunikations-Community geben kann. Feedback ist auch herzlich willkommen, entweder hier in den Kommentaren oder direkt an mich unter andre.lampe{ät]fu-berlin.de.
Ich habe mir die Chaospat*innen und Podcast Pat*innen zum Vorbild genommen, denn ich finde die jeweiligen Konzepte sehr gut und der Erfolg gibt ihnen recht. Meine Idee für das FWK war es, Wissenschaftler*innen in der Stadt anzusprechen, in der das FWK statt findet, und einzuladen einen Tag auf das Forum zu kommen. Diese Forschenden hätten Orientierung und Ansprechpartner an die Hand bekommen. Morgens ein kleiner Workshop, lediglich 15 Minuten, in denen es so etwas wie ein “Vokabelheft” gibt, ein bisschen Einordnungshilfe, was denn im Kontext des FWK Begriffe wie “Wissenschaftskommunikation” bedeuten sollen, und was es bei den Begriff allein schon Schwierigkeiten in der Definition gibt, nur um ein Beispiel zu nennen. Ein bisschen Hilfe eben, dass man Diskussionen besser einordnen kann, wenn man als Wissenschaftler*in in eine Session auf dem FWK wandert. Damals, als ich mit Wissenschaftskommunikation als Promotionsstudent angefangen habe, hätte ich mir des öfteren genau so eine Orientierung gewünscht.
Aber meine Idee umfasste nicht nur diesen einen kleinen Workshop am morgen, es sollte auch den ganzen Tag über Ansprechpartner*innen geben: die Pat*innen. An einem festen Ort sollte jede/r eingeladene Wissenschaftler*in zur jeder Zeit jemanden finden können um über das gesehene und gehörte zu reden, eine Pause zu machen und Fragen zu stellen, einen ganzen Konferenztag des FWK lang. Dieses Angebot wäre vollkommen freiwillig, es würde keine Verpflichtung bestehen in den Pausen zu den Pat*innen zu kommen – ich glaube aber das so ein Angebot hilfreich wäre und sicher auch angenommen würde. Am Abend war dann noch ein gemeinsames Treffen und eine Feedbackrunde geplant und im Nachgang der Konferenz noch ein Fragebogen um noch mehr Feedback einzusammeln. Ich wollte diese Idee als Pilotprojekt verstanden wissen, da das FWK jedes Jahr in einer anderen Stadt zu Gast ist, würden so immer verschiedene Wissenschaftler*innen zum FWK kommen – und hoffentlich bei Diskussionen und Fragerunden die Sicht der Forschenden beisteuern und sich selbst mehr für die Wissenschaftskommunikation interessieren.
Ich habe mich bemüht, dass diese Idee auf einem FWK umgesetzt wird, aber es hat bisher nicht geklappt. Ich mache weder den Organisatoren in der jeweiligen Stadt noch dem Team von Wissenschaft im Dialog einen Vorwurf daraus. Ich schreibe diesen Text nicht aus Frustration, sondern ich fasse mir hier, ganz öffentlich, an die eigene Nase. Ich predige immer wieder open science und open access – also muss ich mich auch daran messen lassen. Dementsprechend wollte ich die Idee der Wissenschaftskommunikationspat*innen öffentlich machen. Vielleicht nimmt jemand diese Idee auf, vielleicht schreibt mich jemand deswegen an, vielleicht klappt es auf dem FWK 2018 mit den Wissenschaftskommunikationspat*innen – nur weil ich die Idee jetzt “veröffentlicht” habe, heißt das ja nicht, dass ich es nicht weiter versuchen werde! Das ist ja das tolle an open science: Nur weil man es öffentlich macht, ist es ja nicht plötzlich weg
Ich möchte einen Denkprozess anstoßen, aber ich bitte auch um Feedback. Egal ob euch das Thema betrifft oder nicht, teilt mir bitte eure Meinungen und Gedanken dazu mit. Hab ich etwas wichtiges vergessen? Habe ich einen bösen Schnitzer in meinem Konzept? Wären Wissenschaftler*innen auf dem Forum WissKomm überhaupt richtig? Fragt ihr euch warum Wissenschaftler überhaupt kommunizieren sollen? Ich würde das gerne von euch hören und lesen. Bitte seid beim kommentieren höflich zueinander. Es schmerzt mich etwas diesen letzten Satz dazu schreiben zu müssen. Ich werde die Kommentare aufmerksam moderieren und auch kommentieren.
Ich verstehe mich selbst als kommunizierenden Wissenschaftler, der sich auch immer wieder Gedanken zu neuen Formaten macht – eins davon findet sich unter ploetzlichwissen.de, dass ich jedem Leser hier einmal aufrichtig ans Herz legen möchte. Herzlichen Dank fürs lesen!
UPDATE, zur Klarstellung: Mein Vorschlag bezieht sich vor allem darauf, dass ich es wünschenswert finde, wenn mehr Wissenschaftler*innen das FWK besuchen würden, weil diese Stimmen und Sichtweisen meiner Meinung nach wichtig dafür sind. Das dies nicht dazu führt Wissenschaftskommunikation in der Breite in die Wissenschaft zu bringen, ist mir durchaus klar und das es dafür andere Ansätze geben muss. Da ich selbst Wissenschaftler bin, selbst allgemeines Interesse an der WissKomm habe und quasi unbedarf vor einigen Jahren auf das FWK stolpert, führte mich zu dieser Idee, den Einstieg leichter zu machen. Ich kenne einige Wissenschaftler*innen die Interesse hätten, nur fehlt etwas Einstiegshilfe und auch Geld. Ich habe des öfteren die Rückmeldung bekommen, dass die jeweilige Uni bzw. Arbeitsgruppe nicht für Kosten für das FWK aufkommt – daher die Idee mit der Einladung für einen Tag.
]]>WICHTIGER HINWEIS (oder DISCLOSURE, wenn man auf Anglizismen steht): Ich habe die Kamera gratis zur Verfügung gestellt bekommen. Ich bin im folgenden um ein neutrales Urteil bemüht, kann aber nicht ausschließen, dass allein schon so eine Kamera „geschenkt“ zu bekommen, um sie zu rezensieren, mich befangen sein lässt. Ich habe Bresser angefragt, die Firma ist nicht auf mich zugekommen. Ich habe keine weiteren Zuwendungen oder ähnliches von Bresser erhalten.
BRESSER MikrOkular Full HD Okularkamera, Artikel-Nummer: 5913650, Preis direkt beim Hersteller: 59,00€. Der Link zu der Seite des Herstellers: hier. Und so sieht die Kamera aus:
Die Kamera hat ein Metallgehäuse, und besitzt einen Deckel aus Gummi zum Schutz der Optik. Es liegt ein USB-Kabel bei, der Anschluss auf der Rückseite der Kamera ist ein USB 2.0 Mini-B Anschluss. Bei der Kamera selbst handelt es sich um eine 1920×1080 Pixel Kamera, mit variabler Belichtung – oder anders gesagt: mit einstellbarer Zeit pro Bild. Im Video-Modus schafft sie 30 Bilder pro Sekunde, aber dazu später mehr. Es liegen auch noch Adapter bei für verschiedene Mikroskope oder auch Teleskope: 30mm, 30,5mm, 31,7mm, letzterer ist ein Teleskopadapter mit Gewinde für 1,25 Zoll Filter, den ich für diesen Test nicht angefasst habe – Teleskope sind nicht mein Fachgebiet. Schließlich liegt noch eine Software bei: CamLabLite, die tatsächlich auf Deutsch und brauchbar ist – um das gleich vorweg zu schicken. Mit Software für andere USB-Dinge hatte ich schon einen heiden Spaß, wie man hier nachlesen kann.
Die Kamera passt ohne Adapter in jedes meiner Mikroskope, sowohl in das fast 70 Jahre alte Zeiss, das ich mein eigenen nenne, als auch in ein Zellkultur-Olympus, ins KOSMOS-Mikroskop und in das Mikroskop von Bresser. Der Tubus eines Mikroskops, da wo das Okular rein kommt, hat eine Standardgröße – das die Kamera also überall passt ist nicht verwunderlich. Was mir dabei sofort aufgefallen ist: Das Gehäuse der Kamera passt recht präzise, ohne viel Spiel. Allerdings liegt hier Metall auf Metall, eine kleine Bewegung am USB-Kabel kann die Kamera leicht verdrehen. Gefahr, dass man die Kamera versehentlich herauszieht besteht zwar nicht – da sie recht weit in den Tubus hinein reicht – aber dass das Bild recht leicht verdreht werden kann ist nicht so schön. Allerdings war ich auch überrascht davon, wie wie Problemlos alles funktioniert hat. Vom Auspacken über das Einstecken und der Softwareinstallation bis zu einem ersten Live-Bild auf dem Computer verging nur eine Minute. Das sollte zwar auch so sein, aber da wohl jeder schon einmal Probleme mit dem ein oder anderen USB-Device gehabt hat, finde ich das schon erwähnenswert. Weiter geht es mit dem Sichtfeld.
Aber wie viel kann man überhaupt sehen, mit dieser Kamera? Das Sichtfeld der Kamera ist im Zentrum des Mikroskops, und zwar auch so, dass man keine Vignette vom sonst runden Sichtfeld eines Mikroskops hat, wie zum Beispiel wenn man ein Bild mit dem Smartphone durch das Okular macht (Das kann man sich beispielsweise bei den Rezensionen vom KOSMOS und Bresser-Mikroskop ansehen). Das heißt aber auch, dass man ein bisschen weniger sieht im Vergleich zu einem direkten Blick mit dem Auge durch das Okular. Ich habe das versucht zu verdeutlichen mit Screenshots von einem Live-Bild in der Software CamLabLite und in µManager (mehr über diese Software hier und hier) und einem Bild das ich mit meinem Smartphone durch das Okular gemacht habe.
Man kann also nur einen Ausschnitt erkennen. Das macht die Sache an Mikroskopen aus Experimentierkästen nicht einfacher, denn diesen fehlt oft ein Kreuztisch, so dass man die Probe von Hand hin und her schieben muss, was nicht gerade sehr präzise ist. Ich muss aber auch dazu sagen: Es geht im Bild oben nur um das Sichtfeld und nicht um die Qualität der Bilder selbst. Darauf gehe ich weiter unten ein. Die Bilder der Kamera sind größer, als es in den Screenshots den Anschein hat. Im Fall von µManager ist das Bild auf 33% seiner Größe skaliert.
Was bei den Bildern von oben noch auffällt: Die Darstellung im Mobiltelefon und in µManager ist farbenfroher als in der mitgelieferten Software CamLabLite. Letztere ist zwar gut zu bedienen, aber lässt hier und da ein paar Einstellung zu wünschen übrig. Mit einem Klick in µManager kann man das Bild der Kamera automatisch justieren, so dass die Farben besser heraus kommen – für einen Ambitionierten Bastler ist das definitiv eine Option. Für den Gelegenheits-Mikroskopierer muss man sich dafür allerdings schon recht tief einarbeiten, und ich würde es nicht unbedingt empfehlen. Wirklich schön ist, dass die Kamera eine Standard USB-Kamera ist, sie also mit jeder erdenklichen Software angesprochen und ausgelesen werden kann.
Die Größe und Auflösung des Bildes aus der Bresser Kamera ist besser als Bilder die man mit dem Smartphone aufnimmt. Das mag sich erst einmal nicht verwunderlich anhören, wenn man es aber anhand von Zahlen ausdrückt kann man sich schon wundern: Die Auflösung und Bildgröße der 2 Megapixel Kamera ist besser als die der 20 Megapixel Kamera. Ich hab ein Bild mit meinem Handy durch das Okular meines Olympus Mikroskops gemacht, mit der 20 Megapixel Einstellung, oder anders gesagt: 5248 x 3936 Pixel. Die Kamera von Bresser hat 2 Megapixel, also 1920 x 1080 Pixel. Aber bevor ich mich weiter Textlich versteige, hier die beiden Bilder wie sie aus den Geräten gekommen sind – ich sollte noch drauf hinweisen, dass das Sichtfeld meines Olympus Mikroskops deutlich größer ist als das des Bresser Mikroskops von oben.
Der Größenunterschied liegt vor allem daran, dass die Bresser Kamera eine eigene Optik hat die das Okular ersetzt, und so “näher” an der Probe ist. Dementsprechend ist die Auflösung der Bresser Kamera höher, und mit Auflösung meine ich immer die Größe der Pixel im Maßstab der Probe. Die Haare auf dem Fliegenbein sind in der Bresser Kamera einige Pixel breiter als im Bild vom Mobiltelefon. Das geht leider deutlich auf die Größe des Sichtfeldes. Weiter geht es mit möglichen Anwendungen dieser Kamera und für wen so ein Teil wohl ein nützlicher Kauf ist.
Wenn man ab und zu mal ein Bild von einer Mikroskopieprobe machen möchte, reicht eigentlich eine Smartphonekamera, die sowieso die meisten in der Tasche haben – oder eventuell sogar eine andere Digitalkamera. Wenn jemand ein Auge auf ein Mikroskop mit integrierter Kamera geworfen hat, oder sogar auf ein Mikroskop mit Kamera und Display, das gar keine Okulare für das bloße Auge mehr besitzt, dem würde ich zu einem “normalen” Mikroskop und dem kauf dieser Kamera raten, anstatt ein Gerät mit Display zu kaufen (wie zum Beispiel Frank in diesem Kommentar). Einmal, weil man sich nie die Gelegenheit des “selber mal durchguckens” nehmen lassen sollte, und zum Anderen, weil man sich nie darauf verlassen sollte, dass Bildschirm und Kamera eines Gerätes für knapp 200 Euro eine gute Qualität aufweisen und Wartungsfrei sind, wenn ein vergleichbares Mikroskop ohne Display und Kamera knapp 140 Euro kostet. Ich habe noch nie ein Mikroskop mit integriertem Bildschirm getestet, und würde das auch nicht tun wollen, denn ich rate jedem sich niemals die Gelegenheit eines Blicks durch ein Okular zu verbauen.
Diese kleine Kamera könnte aber auch für Labore in der Wissenschaft interessant sein. Durch ihre Standardmaße sollte sie eigentlich in jeden Mikroskoptubus passen und könnte eine günstige Möglichkeit darstellen Bilder an Zellkulturmikroskopen zu machen, oder an Mikroskopen die keinen Kameraport haben. Das vielleicht nur als Anregung – ich hätte mir in meiner Doktorarbeit in unserer Zellkultur eine Möglichkeit gewünscht Bilder machen zu können, dann hötte ich nicht mit dem Handy vorm Okular rumfummeln müssen, wie ich das bei den Bildern in Dunkelfeld und Phasenkontrast getan habe.
Die Kamera macht gute Bilder und die Pixelanzahl ist mit 1920 x 1080 nicht schlecht. Vor allem lässt sich die Kamera aber an jedem Computer mit vielerlei Software betreiben, da es sich um eine Standard USB 2.0 Kamera handelt, aber selbst die mitgelieferte Software (für Win 7/8/10) ist nicht schlecht. Leider ist das Sichtfeld der Kamera recht beschränkt und den richtigen Bildausschnitt einer Probe im Sichtfeld der Kamera zu haben kann wirklich fummelig sein. Ich finde das Preisleistungsverhältnis vollkommen OK, eine Web-Cam mit 1080p kostet in etwa das gleiche wie diese Kamera von Bresser.
Gutes Ding, angemessener Preis, etwas für den ambitionierten Hobbyforscher und nice-to-have als Option für einen Profi. Ein bisschen besser als eine Mobiltelefonkamera, mit der man auch schöne Bilder durch ein Mikroskopokular machen kann.
]]>Aber ich beklage mich nicht, ich tue auch etwas. Ende 2016 habe ich mit zwei Kolleginnen einen Antrag beim Bundesministerium für Bildung und Forschung (BMBF) eingereicht, und wir haben eine Zusage bekommen! Das Projekt heißt “Plötzlich Wissen!” und verfolgt eher einen ungewöhnlichen Kommunikationsansatz. Zusammen mit Inga Marie Ramcke und Dr. Julia Schnetzer gehen wir auf Menschen zu und laden zum Gespräch ein, und zwar in Kneipen und Biergärten. Wir haben Fakten und Experimente zu Meeren und Ozeanen dabei, was das Thema des aktuellen Wissenschaftsjahres 2016*17 ist – aber wir suchen das Gespräch und hören uns die Fragen und Gedanken der Leute an. Unser Ansatz ist hier auf unserer Homepage lesen noch genauer beschrieben.
Wir haben bereits unsere Erste Tour im Südwesten Deutschlands hinter uns, dabei haben wir die Städte Heilbronn, Mainz und Karlsruhe besucht. Alle Artikel, Themen, Fakten und Experimente, die wir auf unserer Seite veröffentlichen, stehen alle unter Creative Commons Lizenz und können weiter benutzt werden und vor allem Lehrer können alle Inhalte frei im Unterricht verwenden. Fühlt euch also eingeladen mal bei uns vorbei zu schauen, unter www.ploetzlichwissen.de. Und vielleicht sind wir ja auch bald in eurer Stadt
]]>Dort fragte ich, was denn mal mikroskopiert werden soll, und die Wahl von den meisten entfiel auf ein Flöckchen Rasiergel. Ich hatte das zur Auswahl gestellt weil es mir schon häufiger aufgefallen war, dass dieses Kosmetikprodukt die interessante Eigenschaft besitzt über viele Stunden, aus nur einer Spur Gel, eine deutlich größere Menge Schaum zu bilden. Eigentlich eine gute Probe um erneut einen Zeitraffer aufzunehmen, wie ich das Bereits bei “süß oder slazig?”, “Wassertropfen trocknen” oder “Klebstoff trocknen” getan habe. Auf Twitter führte das dann zu etwas, dass ich in diesem “Moment” zusammengefasst habe:
Moment! “#Rasiergel mikroskopieren”
…so zum Abschluss des Tages.https://t.co/vI6HaNgKMf— Real Scientists DE (@realsci_DE) May 16, 2017
Ich dokumentierte wie ich das USB-Mikroskop aufbaue habe und fing mit der ersten Datennahme an. Nach knapp anderthalb Stunden schaute ich mal grob über die Bilder, die micro-manager bisher gesammelt hatte, und ich stellte fest, dass gerade am Anfang ein paar Wackler drin waren und die Probe immer mal wieder abgeschattet wurde – anscheinend immer dann, wenn ich ein Foto für die Twitter-Berichterstattung gemacht habe. Daher brach ich die erste Datennahme ab, die immerhin schon 4,18 GB Rohdaten geliefert hatte, und baute das Mikroskop, besser beleuchtet und schwingungstechnisch entkoppelt von meinem Schreibtisch, auf meinem Sofa auf. Und dort bekam ich dann keine Bilder mehr von dem Mikroskop. Nachdem andere USB-Kameras ohne Probleme Bilder in mikro-manager lieferten (und auch nach zwei mal booten), blieb mir wohl nichts anderes als mit einer Träne im Knopfloch an die schönen Bilder aus Dinge unter’m Mikroskop zurück zu denken, und ein Zeitraffer-Video aus der ersten Rasiergel-Messung – und wie sich herausstellte – der letzten Messung meines günstigen USB-Mikroskops zu machen.
Ich hatte die Flocke Rasiergel auf einen Objektträger gegeben und mit dem USB-Mikroskop von unten jede Sekunde ein Bild gemacht. Die Zeitanzeige in der linken, oberen Ecke des Videos gibt also Stunden:Minuten:Sekunden an. Wie das Setup aussah kann man auch im folgenden Bild erkennen.
Bereits zum Beginn der Messung kann man erkennen, dass die Rasiergel-Flocke etwas geschäumt hat. Rasiergel hat die Eigenschaft selbst nicht zu schäumen, sondern benötigt Wasser um einen Schaum zu bilden. Wenn man nur ein klein wenig Gel nimm – ich hab eine ca. 4 mm große Rasiergel-Flocke auf dem Objektträger platziert – bildet sich trotzdem recht schnell Schaum. Das liegt daran, dass das Rasiergel mit der Feuchtigkeit aus der Luft anfängt Schaum zu bilden und das geht besonders effizient, wenn die Oberfläche im Vergleich zum Volumen recht groß ist. Eine kleine Flocke bildet also recht schnell einen Schaum, der Prozess verlangsamt sich allerdings mit wachsender “Schaumhülle”.
Im Nachgang wurde ich auf Twitter auch gefragt, was denn meine Erwartungen an diese Probe gewesen sind:
@realsci_DE Was ist überhaupt das Ziel der Rasiergelbeleuchtung?
— Chris (@itscz_org) May 17, 2017
Eine berechtigte Frage! Und ich freue mich sehr über meine Antwort darauf: Ich weiß es nämlich nicht. Ich genieße es sehr, einfach mal Dinge unter (oder in diesem Fall “auf”) das Mikroskop zu legen und zu schauen ob dabei etwas spannendes heraus kommt. Ich hab viele Bilder auf meinem Rechner von Proben wo die Vergrößerung nicht etwas neues zeigt, dass interessant ist zu besprechen. Über diese Proben habe ich nie gebloggt. Aber andere Proben, wie zum Beispiel die Nadeln und Kanülen, lieferten so spannende Bilder, dass ich darüber dann einen Blogbeitrag verfasst habe.
Im Gegensatz zur Wissenschaft, bei der man mit einer Fragestellung und einigem an Vorbereitungszeit ans Mikroskop tritt, mag ich es hier zu Hause sehr gerne einfach mal meiner Neugier zu folgen und einfach etwas das mir in den Sinn kommt durch ein Mikroskop zu betrachten. Wenn sich dabei ein überraschendes oder faszinierendes Bild offenbart, ist das wieder ein Ansatzpunkt um sich in ein Thema einzulesen, dass man vorher eventuell gar nicht mit der Mikroskopie in Verbindung gebracht hat. Mir macht es jedenfalls unglaublich Spaß. Und selbst wenn eine Probe nicht sofort etwas spannendes offenbart, behalte ich die Bilddateien trotzdem, denn wie ich schon bei meinem Vortrag auf dem #33c3 sagte: Rohdaten sind geil. Wer weiß, wozu man die noch gebrauchen kann – und wie es scheint ist diese Botschaft auch schon bei dem ein oder anderen angekommen:
@realsci_DE Und wie wir alle wissen: Rohdaten sind geil!
— Sascha Hiller (@shiller79) May 17, 2017
Die Serie Dinge unter’m Mikroskop wird weiter gehen, wenn auch mit einem anderen Gerät als meinem günstigen USB-Mikroskop. Aber dazu wird es hier bald mehr auf dem Blog zu lesen geben. Zum Abschluss gibt es den Twitter-Moment, den ich aus der Dokumentation des #Rasiergel-Vorhabens gebastelt habe in voller Länge:
]]>WICHTIGER HINWEIS (oder DISCLOSURE, wenn man auf Anglizismen steht): Ich habe den Experimentierkasten gratis zur Verfügung gestellt bekommen. Ich bin im folgenden um ein neutrales Urteil bemüht, kann aber nicht ausschließen, dass allein schon so ein Mikroskop „geschenkt“ zu bekommen, um es zu rezensieren, mich befangen sein lässt. Ich habe Bresser angefragt, die Firma ist nicht auf mich zugekommen. Ich habe keine weiteren Zuwendungen oder ähnliches von Bresser erhalten.
BRESSER JUNIOR Biolux CA 40x-1024x Mikroskop inkl. Smartphone Halterung (auch „Bresser MicroSet 40x – 1024x“), Artikel-Nummer: 8855002, Preis direkt beim Hersteller: 114,89€. Der Link zur Seite des Herstellers: hier. Das Mikroskop und Zubehör kommt in einem Koffer (für den Inhalt siehe Foto unten).
Das Mikroskop ist aus Metall gefertigt mit einem Plastikfuß. Es verfügt über einen verstellbaren Probentisch, eingebauter Auf- und Durchlichtbeleuchtung mittels LEDs und einem Objektiv-Revolver mit je einem 4fach, 10fach und 40fach Objektiv. Des weiteren sind zwei Okulare, einmal 10fach und 16fach mitgeliefert und eine Barlowlinse, die – in gewissem Umfang (1 – 1,6fach) – stufenloses zoomen ermöglicht. Unter dem Probentisch ist ein Rad mit Farbfiltern angebracht, für die Durchlichtbeleuchtung. Die drei benötigten AA-Batterien liegen dem Mikroskop bei. An Zubehör befindet sich eine Pinzette, eine Pipette, Objektträger, Deckgläschen, Präparationsnadeln, Rasierklinge in Schneideamatur, Plastikfolienabdeckung für das Mikroskop, ein Einschlussmittel zur Herstellung von Dauerpräparaten, ein Aufzuchtsset für Urzeitkrebse (Artemia) und eine Smartphone-Halterung. Auch fünf Dauerpräparate liegen dem Kasten bei, mit denen man sofort Anfangen kann: Ein Fliegen-Beinchen, Zwiebelhaut, Querschnitt eines Baumwoll-Stengels (angefärbt), Querschnitt eines Pinien-Stengels (angefärbt) und ein Querschnitt durch einen Ast eines Zweikeimblättrigen (angefärbt).
Das Mikroskop ist sehr stabil und fühlt sich auch überraschend schwer an. Schärfe, Licht und Objektive lassen sich leicht wechseln und Räder und Schalter liegen an gut erreichbaren Stellen. Der Tubus mit Okular kann geschwenkt werden. Den Fokuspunkt einer Probe zu finden stellt kein großes Problem dar, fühlt sich aber eine Spur zu grob an bei der höchsten Vergrößerung mit 40fach Objektiv und 16fach Okular. Es gibt einen Wahlschalter der zwischen Auflicht, Durchlicht, Auf- und Durchlicht und AUS schaltet, wobei die LEDs der verschiedenen Beleuchtungsarten sich nicht in ihrer Helligkeit einstellen lassen. Die Beleuchtungsstärke in beiden Modi ist allerdings recht hell, so das man höchsten das Licht in der niedrigsten Vergrößerung reduzieren wollen würde – dafür liegt eine Filterkarte bei, die man über die Durchlichtquelle legen kann, oder man verwendet das Farbfilterrad unter dem Probentisch. Obwohl ich zu Anfang wenig begeistert davon war, lediglich eine AN/AUS-Funktion für das Licht vorzufinden, habe ich beim weiteren testen des Mikroskops nie eine Helligkeitsregelung vermisst.
Direkt beim ersten Durchschauen merkt man deutlich, warum dieses Mikroskop einiges mehr kostet als das von KOSMOS aus dem Experimentierkasten (link). Das Sichtfeld des Bresser Mikroskops ist deutlich größer. Ich habe versucht die Sichtfeldgröße vergleichbar abzubilden, und zwar zwischen diesem Mikroskop, dem KOSMOS Mikroskop und einem Forschungsmikroskop von Olympus, dessen Neupreis im hohen dreistelligen Bereich liegt. Alle Mikroskope wurden im Durchlichtmodus betrieben, alle hatten das 4fach Objektiv gewählt und ein 10fach Okular. Die Bilder habe ich knapp hinter dem Okular mit meinem Mobiltelefon gemacht, mit der höchsten Auflösung von 20,7 Megapixel. Ich habe die Bilder nicht nachträglich bearbeitet oder skaliert – Originalgröße beim draufklicken: 7200×2984 pixel.
Das Sichtfeld des Mikroskops von Bresser ist recht groß. Ohne genaue Details zu kennen, würde ich vermuten, dass vor allem hier der höhere Preis verantwortlich ist. Ein größeres Sichtfeld wird nur durch eine bessere Abbildung, also durch eine höhere Qualität bei den Optiken möglich. Das Gefühl beim durchschauen – das man nur schwer mit dem Bild von oben vermitteln kann – ist folgendes: Bei dem KOSMOS Mikroskop hab ich „von weiter weg“ auf einen kleinen Teil der Probe geblickt, beim Bresser Mikroskop hatte ich das Gefühl mit höherer Vergrößerung näher an die Probe ran zu rücken.
Die Objektive in den Vergrößerungen 4fach, 10fach und 40fach sind ja fast schon Standard. Und vielleicht fragt man sich an dieser Stelle auch was denn die großen Zahlen im Produktnamen, also „40x – 1024x“, bedeuten sollen. Eine Vergrößerungsangabe von X-fach macht nur bei Geräten Sinn, bei denen man mit dem Auge beobachtet, wie ich schon bei Dunkelfeld und Phasenkontrast etwas ausführlicher erklärt (und mich aufgeregt) habe. Die Rechnung besteht immer aus einer Multiplikation aller Vergrößerungen. Beim Bresser Mikroskop liegen zwei Okulare und eine Barlowlinse bei. Die Okulare haben eine Vergrößerung von 10fach und 16 fach und die Barlowlinse eine Vergrößerung von maximal 1,6fach. Letztere sitzt in einem Tubus, der zwischen Okular und Mikroskop gesetzt werden kann, und beim herausziehen das Bild noch ein wenig mehr und stufenlos vergrößert (1 – 1,6fach). Damit wird auch klar woher die maximale Vergrößerung auf der Verpackung her kommt: 40fach mal 16fach mal 1,6fach = 1024fach.
Ich habe im folgenden Bild wieder, wie schon in der Rezension des KOSMOS Experimentierkastens Mikroskop ein Gitter mit 0,1mm Kästchenabstand mit Auf- und Durchlicht beleuchtet, linke Spalte die Bilder des 10fach Okulars, rechte Spalte die Bilder des 16fach Okulars. (Ich musste das verlinkte Originalbild auf 80% seiner Größe verkleinern – irgendwas läuft falsch, wenn man versucht ein Bild mit mehr als 9000 pixel Breite zu hinterlegen.)
Im Bild oben habe ich die Bilder aus meinem Handy nicht vergrößert oder auf 80% verkleinert. Das Sichtfeld ist mit dem 16fach Okular noch ein gutes Stück größer. Warum ich das trotzdem nicht weiter oben im Sichtfeldvergleich aufgeführt habe, neben der Tatsache das alle anderen Mikroskope die ich zur Hand habe nur ein 10fach Okular besitzen: Ich finde das 16fach Okular unangenehm zu benutzen. Man muss wirklich nah mit dem Auge an das Okular heran, unangenehm nah für meinen Geschmack. So nah, dass bei jedem blinzeln die Wimpern sehr deutlich gegen die Einfassung des Okulars kommen – und ich hab jetzt nicht besonders geschwungene oder lange Wimpern, glaube ich. Aber das ist noch nicht alles. Der Halter für ein Smartphone im Kasten passt nur auf das 10fach Okular, das 16fach Okular ist zu kurz für diese Halterung. Die Bilder von oben mit dem 16fach Okular sind also wieder „freihändig“ mit dem Smartphone aufgenommen worden.
Die Vergrößerung mit dem 10fach Okular ist schon wirklich gut, vergleichbar mit dem des KOSMOS Mikroskop bei einem größeren Sichtfeld. Ich würde nur zum 16fach Okular greifen, wenn eine Probe nach ein bisschen „mehr“ verlangt, wenn ich also schon erahnen kann das sich da noch Strukturen verstecken könnten. Gleiches gilt auch für die Barlowlinse. Etwas mehr Vergrößerung durch herausziehen des Tubus zu erhalten ist zwar nett, gleichzeitig muss man aber die Schärfe nachregeln. Man hat also keine Hand mehr frei, wenn man die Barlowlinse benutzt. Eine Hand hält den Tubus, die andere muss die Schärfe nachstellen. Für meinen Geschmack nicht mehr als eine Spielerei – allerdings muss ich auch sagen, dass ich bisher nie mit einer Barlowlinse gearbeitet habe. Sollte es für diese Linse einen Anwendungsfall geben, an den ich jetzt nicht gedacht habe, würde ich mich über einen Kommentar freuen. Aber kommen wir jetzt zu den Dauerproben.
Gleich fünf Dauerpräparate, und auch eine Flüssigkeit zum Herstellen von eigenen Dauerpräparaten, sind im Kasten enthalten. Einziger, kleiner Wermutstropfen: Die Beschriftung ist in englischer Sprache. Baumwoll-Stengel klingt vielleicht nicht so schmissig. Ich habe auf dem folgenden Bild vier der fünf Dauerpräparate mit dem 4fach Objektiv und dem 10fach Okular abgebildet.
Da lässt sich schon einiges entdecken bei den mitgelieferten Proben. Das fünfte Dauerpräparat habe ich mit allen Objektiven und mit dem dem 10fach Okular aufgenommen, im Bild, von oben nach unten: 4fach, 10fach, 40fach Objektiv. Bei diesen Bildern und auch bei den Übersichtsbildern der anderen Proben von oben, habe ich die Smartphone Halterung benutzt. Das ging recht einfach und ist deutlich stabiler als ich erwartet hätte.
Im letzten Bild erkennt man einige unscharfe Bereiche. Das kommt von der geringen Tiefenschärfe des 40fach Objektivs und nicht weil die Abbildung des Objektivs schlecht ist. Bei dieser hohen Vergrößerung kann man sehr schön mit der Schärfe durch die verschiedenen Ebenen der Probe wandern. Allerdings muss ich sagen, dass man beim 40fach Objektiv wirklich einiges an Fingerspitzengefühl benötigt, das Rad zum Verstellen der Schärfe ist ein klein wenig zu grob für meinen Geschmack. Weiter geht es mit einer kleinen Zusammenfassung zur Bildqualität.
Das Bresser Mikroskop ist wirklich gut. Ein recht großes Sichtfeld schon mit einem 10fach Okular, jedes der drei Objektive liefert eine gute Abbildung. Die Option einer Barlowlinse habe ich weiter oben schon besprochen, bitte korrigiert mich falls ich da etwas übersehen habe. Ein 16fach Okular als Option ist sehr schön, nur finde ich es persönlich unangenehm zu benutzen, weil man wirklich schon sehr nah mit dem Auge herangehen muss. Mit den fünf Dauerpräparaten kann man sofort loslegen und jedes spannende Fundstück kann auch sofort im Auflichtmodus betrachtet werden. Findet man schöne dünne Proben oder präpariert diese selbst, enthält der Kasten all was nötig ist um eigene Dauerpräparate herzustellen. Und auch wenn es sehr schade und ärgerlich ist, dass man die Smartphone Halterung nur mit dem 10fach Okular benutzen kann, funktioniert das ganz hervorragend um tolle Bilder auf das eigene Mobiltelefon zu zaubern.
Den Inhalte habe ich ja bereits ganz am Anfang aufgezählt. Besonders das Aufzuchtset für die Urzeitkrebse finde ich eine tolle Sache. Leider benötigen die Tierchen einige Zeit um zu wachsen und darauf wollte ich nicht warten bis diese Rezension heraus kommt. Ich werde sie aber sicher in Bild und Video verewigen, in der Dinge unter‘m Mikoskop Rubrik. Auch, dass alles nötige zum Herstellen von Dauerpräparaten vorhanden ist, sowie eine Plastikhaube für das Mikroskop, finde ich klasse. Die Smartphone Halterung finde ich richtig gut: stabil und einfach gemacht, die Saugnäpfe sollten jedes Mobiltelefon halten können und das Handy in die richtige Position zu bringen ist sehr einfach. Schade, dass das 16fach Okular zu flach ist um mit dieser Halterung benutzt zu werden – aber besser eine Option um Bilder zu machen als gar keine. Und der letzte Punkt den ich wirklich super finde ist die Verpackung. Das Ganze kommt in einem stabilen Plastikkoffer in dem jedes kleine Zubehörteilchen an seinen eigenen Platz geklemmt werden kann.
Eine gute Qualität beim Mikroskop und einiges an Zubehör in einem praktischen Transportkoffer. Irgendwie fehlt da doch was, oder? Die Anleitung ist etwas dünn. Zwar liegt dem Koffer ein 48-seitiges DIN A5 Heft in schwarzweiß bei, aber leider beinhaltet dieses Heft sieben Sprachen. Der Deutsche Teil der Bedienungsanleitung ist lediglich sechs Seiten stark, wobei zwei Seiten nur Sicherheits- und Reinigungshinweise sind. Auf den vier verbleibenden Seiten wird zwar klar und gut erklärt wie man anfängt mit dem Mikroskopieren, in einfacher, leicht verständlicher Sprache, allerdings geht der Inhalt kaum über das Hinaus was vorne auf dem Heft steht: Bedienungsanleitung. Die folgenden Überschriften finden sich auf den vier Deutschen Seiten:
Aus diesen Teilen besteht dein Mikroskop
Wo mikroskopiere ich?
Wie bediene ich die elektrische LED-Beleuchtung?
Wofür verwende ich die Farbfilterscheibe?
Wie stelle ich min Mikroskop richtig ein?
Wie beobachte ich das Präparat?
Welches Licht für welches Präparat?
Wie stelle ich dünne Präparatschnitte her?
Wie stelle ich mein eigenes Präparat her?
Smartphone-Halterung
Wie pflege ich mein Mikroskop und wie gehe ich damit um?
Dem aufmerksamen Leser wird nicht entgangen sein: Kein Wort von den Urzeitkrebsen. Obwohl Dinge wie „Garnelenbrutanlage“ und „Garneleneier“ in der Übersicht „Aus diesen Teilen besteht dein Mikroskop“ aufgeführt sind. Es gibt auf der Homepage von Bresser eine ziemlich gute Anleitung zu den Urzeitkrebsen. Ein Hinweis darauf und auch auf andere, gut gemachte Seiten wie Mikropräparate für Einsteiger oder Experimente für den Anfang fehlen vollkommen in der Anleitung. Von Bresser wurde mir gesagt, dass sie zur Zeit die Kästen etwas umstellen und teilweise erneuern – ich hoffe in diesem Zuge gibt es wenigstens einen Hinweis auf die Homepage oder ein weitreichendes Update der beiliegenden Anleitung. Ich wäre nicht auf die Idee gekommen auf der Homepage nachzuschauen, wenn ich im Kasten nicht genug Informationen finde.
Nach dem Ausprobieren und dem Schreiben eines Großteils dieses Textes habe ich noch einen finalen Blick auf den Karton geworfen, in dem der Koffer verpackt war. Neben einer Übersicht aller Teile ist auch eine Empfehlung für Kinder ab acht Jahre abgedruckt. Und wenn ich es mir recht überlege, würde ich dem zustimmen. Das Mikroskop und die Optiken sind ein guter Anfang, auch wenn die Anleitung und Dokumentation im Kasten selbst zu wünschen übrig lassen. Wenn man als Erwachsener bereit ist, neben dem Kaufpreis, einiges an Zeit zu investieren, stellt dieses Gerät einen recht guten Einstieg in die Welt der Mikroskope dar. Damit es auch ein Einstieg in die Welt der Mikroskopie wird, muss man sich etwas anstrengen.
Das Mikroskop ist toll. Die Verarbeitung ist stabil, die Optiken sind gut, alle Schalter und Regler sind unkompliziert zu erreichen. Die Schärfe könnte etwas feiner justierbar sein. Die Qualität rechtfertigt – meiner Meinung nach – den doch recht hohen Preis. Ich bin mir allerdings auch sicher, dass man das „Bresser MikroSet 40x – 1024x“ bei dem ein oder anderen (Versand-) Händler für einen günstigeren Preis erstehen könnte. Allerdings sollte man sich etwas mit der Mikroskopie auskennen und auch bereit sein Zeit mit den Beschenkten zu investieren (wenn man es denn verschenken will). Die Anleitung ist zwar gut geschrieben, aber eben nur vier Seiten lang und man benötigte weitere Informationen von der Homepage des Herstellers, um alles Mitgelieferte benutzen zu können. Man merkt dem Kasten an, dass der Hersteller vor allem Geräte baut – was ja nicht das schlechteste ist.
Man bekommt für den recht hohen Preis ein gutes Gerät mit viel Zubehör. Anleitung ist sehr kurz und man muss auf der Homepage des Herstellers nachlesen wie man alles benutzt. Das Ding ist kein Selbstläufer und man muss selbst Zeit investieren damit Kinder daran Freude haben – aber dann ist es ein guter Einstieg.
]]>Der Verlag hat sich über die Anfrage gefreut und kurze Zeit später habe ich ein großes Paket an die Haustür geliefert bekommen. WICHTIGER HINWEIS (oder DISCLOSURE, wenn man auf Anglizismen steht): Ich habe den Experimentierkasten gratis zur Verfügung gestellt bekommen. Ich bin im folgenden um ein neutrales Urteil bemüht, kann aber nicht ausschließen, dass allein schon so ein Mikroskop „geschenkt“ zu bekommen, um es zu rezensieren, mich befangen sein lässt. Ich habe KOSMOS angefragt, der Verlag ist nicht auf mich zugekommen. Ich habe keine weiteren Zuwendungen oder ähnliches von KOSMOS erhalten.
KOSMOS Experimentierkasten Mikroskop, Artikel-Nummer: 63560, Preis direkt beim Hersteller: 74,99€, der Link zur Seite des Herstellers: hier. Der Inhalte ist auf dem Bild unten zu erkennen. Vor allem hat mich überrascht, dass dem Experimentierkasten eine Ausgabe von „Mikroskopieren, Entdecken – Staunen – Wissen“ von Annerose Brommer (ebenfalls KOSMOS Verlag) in Heftform beliegt. Immerhin ein Buch, das Einzeln 9,99€ kostet.
Es ist ein Mikroskop enthalten mit verstellbarem Probentisch, eingebauter Auf- und Durchlichtbeleuchtung mittels LEDs und einem Objektiv-Revolver mit je einem 4fach, 10fach und 40fach Objektiv. Des Weiteren sind Utensilien zur Probenpräparation enthalten wie Pinzetten, Pipetten, Objektträger und Deckgläschen, Fläschchen und einiges mehr. Es sind aber auch drei Dauerpräparate dabei, also Proben mit denen man gleich loslegen und die Welt des Kleinen erforschen kann: Wolle, Zwiebelhaut und Froschblut. Für die LED-Beleuchtung benötigt man noch drei AA-Batterien, die nicht im Kasten enthalten sind.
Das Mikroskop macht einen stabilen Eindruck. Es ist zwar aus Plastik gefertigt, aber nicht zu leicht oder instabil, sondern fühlt sich solide an und ist auf einem Tisch sehr stabil. Das große Drehrad für den Probentisch, zum Einstellen der Schärfe, wirkt robust und es ist nicht viel Fingerspitzengefühl nötig um ein Bild scharf zu stellen. Die beiden Lichtquellen für die Auf- und Durchlichtbeleuchtung sind unabhängig von einander schaltbar und variabel in ihrer Helligkeit mittels Drehscheiben im Mikroskopfuß. Insgesamt hab ich mich sofort an dem Teil zurecht gefunden und mir als erstes das Froschblut angeschaut. Einziges Manko das mir dabei aufgefallen ist: Die Durchlichtbeleuchtung ist für das 4fach Objektiv, selbst in der dunkelsten Stufe, ein bisschen zu hell und das Sichtfeld nicht gerade groß.
Ich habe versucht Bilder durch das Okular mit meinem Handy zu machen. Das habe ich schon einmal gemacht, bei den professionellen Phasenkontrastmikroskopen im Labor. Das Sichtfeld im KOSMOS Mikroskop ist deutlich kleiner, weshalb es deutlich fummeliger war ein vernünftiges Bild hinzubekommen. Der Kontrast des KOSMOS Mikroskops ist besser wenn man mit dem Auge durchschaut. Ich habe die Bilder mit der 22 Megapixel Einstellung meines Handys gemacht – dann füllte das Bild aus dem Okular etwas weniger als ein Neuntel des Sichtfeldes der Handykamera aus. Bitte auf das Bild klicken um die volle Auflösung genießen zu können.
Auch wenn das Gitter etwas blass aussieht, besonders beim 40fachen Objektiv, ist die Vergrößerung besser als ich gedacht habe. Vielleicht wird dem ein oder anderen eine leichte Verzerrung des Gitters nach außen hin auffallen. Ich schätze das dies an der fehlenden Linsenkorrektur liegt. Vermutlich ein Grund warum das Sichtfeld relativ klein ist. Ich bin bessere Korrekturen gewohnt, allerdings ist ein direkter Vergleich ein wenig unfair: Vergleichbare Luft-Objektive, die ich aus dem Labor kenne, können locker das zehnfache des kompletten Experimentierkastens kosten. Wenn man mit dem Auge hinein schaut muss man bewusst nach der Verzerrung suchen, sonst fällt sie einem kaum auf.
Zum Vergleich mal die beiden Vergrößerungsstufen des günstigen USB-Mikroskops, das ich für die Serie Dinge unter‘m Mikroskop benutze und das ich Artikel Mikroskope – Dos & Don‘ts beim Kauf angesprochen habe. Auch hier sollte man auf das Bild klicken um die volle Auflösung zu genießen.
Ich habe mir als Beispiel das Frosch-Blut-Dauerpräparat ausgesucht. Wie schon beim Gitter habe ich versucht ein Bild mit meiner Handykamera durch das Okular des KOSMOS Mikroskops zu machen. So ein schönes Bild zu erhalten kommt einem Geduldsspiel gleich und, auch wie beim Gitter, ist der Kontrast beim Betrachten mit dem Auge besser. Bitte wieder auf das Bild klicken um die beste Auflösung genießen zu können.
Die Verzerrung der Objektive ist hier deutlicher zu erkennen, besonders bei dem 10fach und 4fach Objektiv. Ich bin aber durchaus begeistert gewesen über die Details in der höchsten Vergrößerungsstufe. Wieder zum Vergleich: Bilder meines günstigen USB-Mikroskops.
Ich bin positiv überrascht über die gute Vergrößerung und die ebenmäßige Ausleuchtung der Durch- und Auflichtbeleuchtung (das Froschblut wurde mit Durchlicht beleuchtet, das Gitter mit Auflicht). Mit den drei beiliegenden Dauerpräparaten kann man im Prinzip sofort loslegen und das erste Beobachtung-Erfolgserlebnis haben. Auch für spontanes Betrachten ist die Auflichtfunktion wirklich sehr gut. Durchlicht bedarf etwas mehr Verbreitung. Das ist generell so, das liegt nicht an dem Experimentierkasten. Als Beispiel: Ein Blatt oder Grashalm ist zu dick, und selbst wenn das Licht stark genug ist um durch das Pflanzengewebe hindurch zu scheinen, sieht man dann im Okular jede Menge sich überlagernde Zellen. Man muss Zeit in die Probenvorbereitung stecken, das gilt ganz allgemein.
Dem Kasten liegen zwei Hefte und ein Poster bei. Das Poster, dass zum sauberen und sicheren Arbeiten auffordert, finde ich sehr gelungen, viel besser als nur ein Hinweis in einer Anleitung. Das kommt an die Wand in meiner Küche – jeder braucht ja ab und zu mal eine kleine Erinnerung an die Sicherheitsvorschriften. Das kleine schwarze-weiße DIN A5 Heft, die Experimentierkasten Anleitung, ist so etwas wie die „Schnellstart-Anleitung“. Die 16 Seiten listen ein Inventar auf, zeigen wo am Mikroskop die Knöpfchen sind und starten dann gleich mit einer kurzen Beschreibung wie man einen ersten Blick auf die Dauerproben wirft. Die Beschreibung ist kurz und knapp und in einfacher Sprache gehalten und kleine Schaubilder zeigen, was der Text erzählt. Danach werden ein paar kurze Experimente geschildert, zum Beispiel wie man Pflanzenproben vorbereitet und ein bisschen zur Geschichte der Linsen. Experimente die alle Utensilien des Kastens benutzen oder die Funktion und den Sinn jedes einzelnen Zubhörteils erklären findet man hier allerdings nicht.
Das große, in Farbe gedruckte Heft ist eins-zu-eins das Buch „Mikroskopieren – Entdecken, Saunen, Wissen“ von Annerose Bommer, das ich oben bereits erwähnt habe. Das sind 47 Seiten Abbildungen, Zeichnungen und Texte. Ich war davon positiv überrascht, zunächst jedenfalls. Das Buch ist eine Art Rundumschlag um Kinder (und Jugendliche, schätze ich) von der Welt des kleinen etwas zu begeistern und an die Mikroskopie heran zu führen. Der Knackpunkt: Es ist eben ein Buch das für sich steht. Es fängt an eine Lupe zu erklären und viele Vorschläge zu machen was sich alles mit einem Vergrößerungsglas in der Natur beobachten lässt. Es werden verschiedene Lupen vorgestellt, zum Beispiel eine Stereolupe um Umschnallen oder eine Becherlupe. Dann werden Schneeflocken, Stoffe, Pflanzenmaterial, Insekten, Blüten und noch so einiges mehr kurz Beschrieben und erklärt was man dort mit einer Lupe so alles finden kann. Auf Seite 10 wird dann zum ersten mal über das Mikroskop gesprochen und zwar grundlegend. Was man als Einsteiger für eine Ausrüstung braucht, wie man scharf stellt und Vorschläge für das erste Präparat.
Vielleicht haben sie es zwischen den Zeilen schon gelesen: Ich finde das alles andere als gut. Dieses Heft hat keinen direkten Bezug zum Experimentierkasten. Die meisten Dinge, die auf den ersten 10 Seiten vorgeschlagen werden, kann man nur recht begrenzt mit der beliegenden Plastiklupe nachmachen. Schlimmer noch, ich hatte folgenden Eindruck: „Guck mal was es für TOLLE Lupen gibt und ÄTSCHIBÄTSCH – keine davon liegt dem Experimentierkasten bei!“ – so kam das bei mir an. Irgendwie gemein ist, dass es dann im Buch mit Abbildungen von professionellen Mikroskopen weiter geht. Richtig, hier wird das Konzept eines Mikroskops eingeführt Anhand von Abbildungen von Geräten die hunderte, wenn nicht tausende von Euro kosten würden. Des weiteren ist der Abschnitt „Ausrüstung für Anfänger“ bebildert mit Glaspipetten, einer Präpariernadel, Färbemittel, einer Schere, einer Rasierklinge in einem Halter und einem Skalpell. Abgesehen davon das ich Färbemittel, Skalpell und eine offene Rasierklinge für ein bisschen problematisch halte: Hier erneut null Bezug zu dem Mikroskop und dem Zubehör aus dem Experimentierkasten (siehe Bild).
Das ist sehr schade und eine vergebene Chance. Sicher, wenn es ein Heft eigens zu jedem Einzelteil des Experimentierkasten geben würde, mit Experimenten und so weiter, wäre der Umfang dieser Beilage sicher kleiner als dieses ganze Buch in Beilagenform. Auf der anderen Seite irritiert es doch stark, dass ich in einem Heft, dessen Cover das Mikroskop aus dem Experimentierkasten ziert, keine einziger Bezug zu eben diesem Kasten zu finden ist. Da helfen auch nicht die zwei bunten Kreise auf dem Heftcover „Der KOSMOS Ratgber-Klassiker als Zusatz zu deinem Mikroskop Experimentierkasten. Enthält allgemeine Infos über das Mikroskopieren und viele Tipps für eigene Objekte und Präparate“. Dieses Heft zu verwenden um eigene Dinge mit dem Mikroskop zu machen erfordert einiges an Transferleistung und die Abbildungen zeigen entweder professionelles Gerät (oder für den Schulbedarf gedachtes) oder Werkzeuge, die dem Kasten nicht oder nur in anderer Form beliegen.
Ich will hier jetzt nicht noch Anfange das Buch von Annreose Bommer ausführlich zu rezensieren. Nur so viel: Es macht gute Vorschläge für Experimente und erklärt auch gut verschiedene Präparationstechniken. Allerdings bezieht es sich immer nur auf die Natur bzw. die Biologie. Ein Hinweis doch auch mal technische Dinge wie Bauteile, Werkstoffe, oder Steine zu betrachten fehlt mir sehr. Es gibt lediglich eine Seite die sich mit Kristallen auseinander setzt, allerdings nur mit Salz und Zucker. Die Biologie ist zwar ein Hauptthema in der Mikroskopie, aber es gibt noch mehr. Weiter hinten findet sich eine Doppelseite über Elektronenmikroskope, überschrieben mit „Atome sichtbar machen“ und dann mehrere Seiten „Mikroskope in der Wissenschaft“. Gerade hier hinten sind die Informationen sehr knapp. Es werden zwar Bereich wie Medizin, Archäologie, und Kriminalistik angesprochen, aber der Text dazu umfasst nur mehr als ein paar hundert Zeichen. Dieser Absatz hier ist schon länger als jeder Text zu den einzelnen Gebieten. Mich persönlich stört, dass mit keinem Wort die Hochauflösungsmikroskopie angesprochen wird, für die es immerhin 2014 den Nobelpreis gab. Und ob die Ansprache wirklich kindgerecht ist, und junge Forscher bei der Stange hält, wage ich ein wenig zu bezweifeln – aber da bin ich alles andere als ein Experte. Kurz zusammengefasst: Gute Einführung, Gute Experimente, kein Bezug zum Kasten, fast nur Biologie, Ausblick lässt sehr zu wünschen Übrig.
Das Mikroskop ist ganz gut, wirkt robust und stabil. Die Qualität der Optik würde ich für den Preis als „ganz OK“ beurteilen. Es gibt einiges an Zubehör und Material zum lesen, das zwar ausführlich ist, aber leider kaum Kontext zum Kasten selbst herstellt. Wer seinem Nachwuchs so einen Kasten schenken will, sollte davon ausgehen, dass es einige Stunden mitlesen und Begleitung des jungen Forschenden bedarf. Also, liebe Onkel und Tanten, die weiter weg wohnen: Vorher mal mit den Eltern sprechen, sonst schenkt ihr einen Staubfänger, fürchte ich. Mir fällt ein abschließenden Urteil ausgesprochen schwer, vom Gefühl her würde ich sagen: Wenn der Kasten zehn Euro weniger als die vorgeschlagenen 74,99€ kosten würde, wäre das ein guter Deal. Es ist ein Einstieg in die Welt der Mikroskopie für jemanden der Begeisterungsfähig ist, Ausdauer besitzt und bei dem Erziehungsberechtigte Zeit haben mit zu lesen und zu forschen.
Was die Begeisterung für die Mikroskope deutlich heben könnte: Ein Adapter, dass man ohne viel Fummelei Bilder mit dem Mobiltelefon machen kann. Wenn ich die Zeit finde, werde ich mir eine Röhre basteln und eine billige Handy-Hülle opfern, um einen Aufsatz für mein Mobiltelefon zu haben – wenn man seine Entdeckungen herumzeigen kann, dann ist der Reiz doch irgendwie größer, oder?
Das Mikroskop ist für den Preis OK, Zubehör einiges, viel Lese-Material, da muss man aber mitlesen und sich Zeit nehmen – kein Selbstläufer.
]]>In diesem Buch werden auch angebissene Äpfel schmierigen Anzugträgern zugesteckt, als Piraten verkleidete Softwareentwickler überwunden, Ausflugsdampfer mit Tortenhebern geentert und eine Axt in die Hände eines gerade aufgestandenen und leicht-bekleideten Wissenschaftlers gelegt.
Jedes Kapitel wird mit einer kleinen Episode rund um „Tante Hedwig“ eingeleitet. Und diese wirklich witzigen und skurrilen Kurzgeschichten haben auch immer ein klein wenig mit dem Thema des aktuellen Kapitels zu tun. Ich war begeistert, und so seltsam es klingt: Ich wollte dringend zum nächsten Kapitel weiter lesen um eine weitere Eskapade von Tante Hedwig lesen zu können.
Die Ausführungen über Gene von den Eheleuten Sieber sind dabei nicht langweilig – im Gegenteil. Jeder Aspekt von Genen, sei es nun die Entdeckung, spontane Mutationen oder das Upcycling, wird immer anhand der Wissenschaftsgeschichte erzählt. Die genauen Einzelheiten wie es damals war als Watson und Crick die Struktur der DNA aufgeklärt haben waren mir so nicht geläufig – vor allem nicht, dass die Art und Weise nicht so ganz den Leitlinien für gute wissenschaftliche Praxis entsprochen hat. Aber auch die Geschichte von Flemming und und dem Penicillin wird erzählt. Dabei wird man stets in den Blickwinkel eines Forschers der damaligen Zeit versetzt und kann wirklich nachvollziehen ob eine Entdeckung eher mit Glück, Starrsinn, Dreistigkeit oder harter Arbeit zu tun hatte.
Die Wirkmechanismen der DNA und der auf ihr codierten Gene werden mit schönen Vergleichen erklärt, und den ein oder anderen Ansatz werde ich mir auch zu eigenen machen. Das Treppenhaus der Evolution ist mir sehr im Gedächtnis geblieben: Wir stehen als Menschheit auf dem Dach und wenn wir jetzt ein paar Stufen im Evolutionstreppenhaus hinabsteigen entwickeln wir uns zurück. Irgendwo, in den niedrigen Stockwerken, verlieren wir die Fähigkeit zu sehen und um ins Erdgeschoss zu gelangen hilft wohl nur das Tasten. Im Buch wird dann die wichtige Frage gestellt: „Und was ist dem Gehweg und der Straße?“ – also wo kommen wir eigentlich her? Auch das wird mit einer Erzählung aus der Zeit in der die erste Ursuppe nachgekocht wurde beantwortet.
Fazit: Ich würde dieses Buch jedem ans Herz legen, der mehr über unsere Gene und die DNA erfahren möchte. Aber selbst die, die das nicht besonders interessiert haben sicher Freude an diesem Buch. Entweder wegen der kleinen Erzählungen aus der Wissenschaftsgeschichte, wie es war als dieses oder jenes entdeckt wurde, oder einfach nur durch die Eskapaden von Tante Hedwig. Ich habe viel gelernt aus diesem Buch – und viel gelacht.
Disclosure: Ich kenne die beiden Autoren und ich habe mich sehr gefreut, als mir Timo eines der ersten Exemplare geschenkt hat. Es könnte also sein, dass ich befangen bin. Außer der Freude über das geschenkte Buch habe ich persönlich keinerlei Zuwendungen oder Nettigkeiten bekommen – und niemand hat mich dazu aufgefordert das Buch zu rezensieren. Das hab ich aus freien Stücken getan und weil ich glaube, dass es vielen Menschen eine Freude bereiten könnte.
]]>Es gab eine weitere Veröffentlichung unter dem Titel Survival rate of eukaryotic cells following electrophoretic nanoinjection im Journal Scientific Reports. Dieser wissenschaftlichen Artikel ist open access, also jeder kann ihn lesen ohne dafür zu bezahlen.
Die Wissenschaftler*innen der Uni Bielefeld, Abteilung biomolecular photonics haben nachgewiesen das die Nanoinjektion besonders schonend für die injizierten Zellen ist (Details darüber hab ich – wie gesagt – schon hier aufgeschrieben). Im Gegensatz zur Technik der Mikroinjektion, bei der knapp die Hälfte der Zellen nach der Behandlung den Löffel abgeben, erreicht man mit der Nanoinjektion eine Zell-Überlebensrate nach Injektion von 92%. Aber nicht nur das: Die Zellen zeigen auch nach der Nanoinjektion ein normales Teilungsverhalten, etwas das so auch nicht für Mikroinjektion gilt. Einer der besonderen Tricks der Nanoinjektion ist die Art und Weise des Injizierens. Moleküle werden über ein elektrisches Feld in die Zelle gebracht und nicht durch einen Druckunterschied, wie zum Beispiel beim Herunterdrückens des Kolbens einer Spritze. Im Artikel wurde auch getestet, ob dieses elektrische Feld, auch elektrophorische Kräfte genannt, die Zelle belastet oder stresst. Dabei konnte eine Beeinträchtigung der Zellen erst bei viel höheren Spannung festgestellt werden, als sie für effiziente elektrophorische Kräfte in der Nanoinjektion nötig sind.
Ich hab es damals schon geschrieben und ich wiederhole mich da gerne: Eine faszinierende Technik mit viel Potential. Ich hoffe das einige Wissenschaftler*innen aus den Lebenswissenschaften beginnen diese Technik einzusetzen. Ich bin gespannt welche neuen Erkenntnisse gewonnen werden können, wenn die ersten Analysen von Zellprozessen auf Einzel-Zellebene in wissenschaftlichen Journalen veröffentlicht werden.
Blogartikel von damals Wenn ein bisschen kleiner den Unterschied macht
open access Artikel in Scientific Reports:
Survival rate of eukaryotic cells following electrophoretic nanoinjection
Internetseite der Forschergruppe an der Uni Bielefeld:
https://www.physik.uni-bielefeld.de/biopho/
Zeitraffer-Mikroskopaufnahmen von trocknendem Klebstoff
Ähnlich wie beim trocknenden Wassertropfen aus der Dinge unter‘m Mikroskop-Serie, könnte man meinen das trocknender Klebstoff nicht unbedingt faszinierende Bilder liefert. Wer sich die trocknenden Wassertropfen angeschaut hat, oder das Video von der trocknenden Farbe von sixty symbols kennt, der weiß, dass das nicht stimmt.
Generell ist Kleber ein faszinierender Stoff, besonders Alleskleber den wir aus unserem Alltag kennen. In der Industrie gibt es viele verschiedene Kleber die nur ganz bestimmte Materialen verkleben können – die sind auch spannend, aber gerade der Alleskleber ist noch eine Ecke interessanter. Alleskleber gehören zu der Kategorie lösemittelhaltige Nassklebstoffe, die physikalisch Abbinden, aber bevor ich da jetzt ins Detail gehe würde ich gerne schonmal eine kleine Zeitrafferaufnahme zeigen.
4mm Tropfen Alleskleber – Der Erste Teil zeigt einen schnellen Zeitraffer mit 180fach Geschwindigkeit, danach folgen die gleichen Bilder in 30facher Geschwindigkeit (CC-BY 4.0 André Lampe)
Die Luftbläschen im Kleber sollten einem sofort aufgefallen sein und auch wie langsam sie sich bewegen – kein Wunder, Kleber ist ziemlich zähflüssig, was man in der Physik als viskos bezeichnet. Warum ein Kelbstoff überhaupt klebt, hängt mit der Flächenhaftung und der inneren Festigkeit zusammen. Flächenhaftung kennt man vom Geschirrspülen, zum Beispiel wenn feuchte Frühstücksbrettchen an einander kleben bleiben. Das ist ein Beispiel für Flächenhaftung oder auch Adhäsion. Die innere Festigkeit wird bei Klebstoffen auch Kohäsion genannt. In der Chemie bezeichnet dieser Begriff die Bindungskräfte zwischen Atomen oder Molekülen eines Stoffs die zum Beispiel auch für die Oberflächenspannung verantwortlich sind. Bei Klebstoffen ist mit Kohäsion sowohl die Viskosität und das Fließverhalten als auch die Festigkeit des ausgehärteten Klebstoffs gemeint.
5mm Tropfen Alleskleber auf zwei Kugelschreiberlinien – Der Erste Teil zeigt einen schnellen Zeitraffer mit 180fach Geschwindigkeit, danach folgen die gleichen Bilder in 30facher Geschwindigkeit (CC-BY 4.0 André Lampe)
OK, Alleskleber ist also ein lösemittelhaltiger Nassklebstoff – was ist das genau? In einem Lösemittel, zum Beispiel Aceton oder Essigsäuremathylesther, sind langkettige Moleküle (Polymere) gelöst. Wenn das Lösungsmittel sich nun langsam aus dem Klebstoff verdünnisiert, verhaken sich diese Polymere mit der Oberfläche aber auch miteinander: es klebt. Die „Luftbläschen“ in den Videos sind vermutlich nicht mit Luft gefüllt sondern mit verdunsteten Lösungsmittel.
4mm Tropfen Alleskleber von der Seite – Der Erste Teil zeigt einen schnellen Zeitraffer mit 180fach Geschwindigkeit, danach folgen die gleichen Bilder in 30facher Geschwindigkeit (CC-BY 4.0 André Lampe)
Der Nachteil von Allesklebern ist, dass sie nur „ganz OK“ kleben, Wikipedia nennt das „keine überragende Haftung“. Hinzu kommt, dass Alleskleber in den meisten fällen nicht sonderlich beständig sind gegenüber Lösungsmitteln oder auch Wasser sind. Außerdem kann man die Klebestellen häufig durch Temperaturen oberhalb von 40°C wieder trennen, die sogenannte Erweichungstemperatur von Alleskleber ist recht niedrig.
Alle Aufnahmen sind mit dem günstigen USB-Mikroskop gemacht, über das ich in Mikroskope – Dos and Don‘ts beim Kauf geschrieben habe. Angesteuert wurde das Mikroskop mit µManager (micro-manager.org), einer open source software, die auch in der Forschung benutzt wird. Generell stelle ich alle Bilder und Videos hier unter eine CC Lizenz, so das jeder sie benutzen kann. Wenn ihr das tun solltet, teilt mir das doch bitte mit – ich würde mich freuen zu erfahren wo der Kram weiter benutzt wird. Die Rohdaten dieser Aufnahmen stelle ich auch gerne zur Verfügung, wenn jemand daran Interesse hat.
]]>Ich habe mich sehr gefreut als ich von Daniel Meßner und Richard Hemmer von Zeitsprung – Geschichten aus der Geschichte gefragt wurde, ob ich nicht Lust hätte bei ihnen im PodCast die Geschichte von Antonie van Leeuwenhoek ein bisschen ausführlicher zu erzählen. Natürlich habe ich “Ja” gesagt. Nicht nur weil ich immer gerne über Mikroskope quatsche, sondern auch weil ich diesen PodCast leidenschaftlich gerne höre. Jede Woche erzählen die zwei sich, für ungefähr eine halbe Stunde, eine kleine Geschichte aus der Geschichte. Ganz generell möchte ich jedem diesen PodCast ganz besonders ans Herz legen. Mittlerweile gibt es 68 Folgen (Stand Jan 2017), es ist also schon einiges zum Anhören da.
Homepage Zeitsprung – Geschichten aus der Geschichte.
Link zur Folge: ZS68: Eine ganz kleine Geschichte der Mikroskopie
Hinweis: Wenn der Player nicht angezeigt wird, die Seite mit https:// und nicht mit https:// aufrufen. Daniel und Richard sind dabei das zu fixen.
Wer sich also für Geschichte interessiert, sollte sich auf jeden Fall den Zeitsprung PodCast in seinen PodCatcher eintragen. Diesen PodCast findet man übrigens auch im kuratierten Wissenschaftspodcast-Verzeichnis wisspod.de, wo eine ganze Liste von privat produzierten Audio-Teilchen gepflegt wird, die sich alle mit der Vermittlung von Wissen und Wissenschaft beschäftigen. Wenn man auf diesem Blog gerne noch mehr über Personen aus der Geschichte der Mikroskopie lesen möchte, kann ich noch auf Ernst Abbe war ein faszinierender Mensch und auf Besuch bei Roberts Mikroskopen hinweisen. Und schöne Bilder gibt es auf diesen Seiten bei Dinge unter’m Mikroskop.
Antonie van Leeuwenhoek by Jan Verkolje (I) – https://www.rijksmuseum.nl/collectie/SK-A-957, Public Domain, Link
Der ein oder andere erinnert sich vielleicht an den Nobelpreis 2014 für Chemie. Nein? Der ging an zwei Amerikaner und einen Deutschen, William E. Morner, Eric Betzig und Stefan Hell für the development of super-resolved fluorescence microscopy, was übersetzt nicht anderes heißt als für „die Entwicklung hochaufgelöster Fluoreszenzmikroskopie“.
Es geht dabei immer um Mikroskopiemethoden, die mit Licht aus dem sichtbaren Teil des elektromagnetischen Spektrums funktionieren. Elektronenmikroskopie zählt nicht dazu, obwohl diese Technik die beste Auflösung hat. Allerdings ist die Elektronenmikroskopie auch recht beschränkt in dem was sie darstellen kann. Ein bisschen etwas darüber habe ich bereits unter Besuch bei Robert Mikroskopen aufgeschrieben.
Zurück zum sichtbaren Licht. Genau das stellt uns, durch seine Wellennatur, ein Hindernis in den Weg, wenn wir Mikroskopie machen wollen: Die Beugungsgrenze des Lichts. Dies allein ist schon eine spannende Geschichte für sich, und ein bisschen was davon habe ich bei Ernst Abbe war ein faszinierender Mensch aufgeschrieben. Für uns reicht es hier einfach zu wissen, das zwei Lichtpunkte nicht mehr von einander zu unterschieden sind, wenn sie zu eng zusammenstehen. Die Schwierigkeit besteht dann, wenn die gemessene Distanz der beiden Lichtpunkte zueinander unter der halben Wellenlänge der verwendeten Lichtquelle liegt; der sogenannten Beugungsgrenze.
Allerdings gibt es Möglichkeiten diese Beugungsgrenze zu umgehen. Aber wie immer im Leben: so etwas ist nicht umsonst. Man handelt sich andere Schwierigkeiten und Probleme ein, je nachdem welche Strategie man nutzt, um das Licht quasi auszutricksen. Für diese Strategien gibt es nicht wirklich treffende Oberkategorien – finde ich – daher hab ich meine eigene kleine Einteilung gewählt: mathematisch, physikalisch und chemisch.
Das wohl prominenteste Beispiel hier wäre wohl die strukturierte Beleuchtung, auf Englisch Structured Illumination Micorscopy (SIM). Kurz und kompliziert gesagt: Durch Transformationen in den Frequenzraum von Bildern können Frequenzen unterhalb der Beugungsgrenze sichtbar gemacht werden. Kurz und einfach gesagt: Wir benutzen diese lustigen Muster in zwei überlappenden Geländern (Blick auf Autobahnbrücken z.B.) oder bei kleinkarierten Hemden im Fernsehen, um Dinge zu sehen die kleiner sind als die Beugungsgrenze. Diese Muster nennt man auch Moiré-Effekt.
Bei der strukturierten Beleuchtung regt man die Farbstoffe in einer Probe (siehe Das bringt Farbe ins Leben) mit einem engen Streifenmuster an, das sinusförmig ist. Dieses Muster verschiebt man einige Male senkrecht zur Streifenrichtung, dreht es um 60°, verschiebt wieder, dreht es ein letztes Mal um 60° und verschiebt wieder. Am Ende bekommt man so 15 Bilder, je fünf Bilder von kleinen Verschiebungen der jeweiligen Rotationen. Diese Bilder werden dann einer mathematischen Transformation in den Frequenzraum unterzogen, der sogenannten Fourier-Transformation.
Links, im Bild oben, sieht man 15 Bilder: die Rohdaten. Auf der rechten Seite kann man die Fouriertransformationen erkennen. Die drei „pillenfömigen“ Bilder sind die kombinierten Fouriertransformationen von den fünf Verschiebungen eines Winkels. In diesem Beispiel wurde Aktin angefärbt. In der Animation weiter unten, ist der eindimensionale Fall dargestellt. Die grauen Kästen stellen die markierten Strukturen in einer Probe dar, die blaue Linie ist das, was ein normales Fluoreszenzmikroskop sehen würde, die Sinusfunktion in türkis stellt die strukturierte Beleuchtung dar und in rot sind die Signale des SIM gezeigt. Man sieht, dass auf der linken Seite SIM einzelne Spitzen produziert, wohingegen im normalen Mikroskop (blau) keine getrennten Spitzen zu sehen wären.
Diese Grafiken wurde von Marcel Müller an der Uni Bielefeld erstellt, der so etwas generell unter CC-BY-SA lizensiert. Nicht nur das möchte ich gerne erwähnt haben, sondern auch die Arbeit die Marcel in das Softwarepaket fairSIM gesteckt hat. Das ist ein offenes ImageJ Plug-In für SIM (Über ImageJ gibt es mehr bei Basteln ist auch Wissenschaft). Das ist deswegen so etwas Besonderes und Erwähnenswertes, weil es bisher so gut wie nur kommerzielle SIM-Software gegeben hat, von Mikroskopieherstellern die sich bei der Berechnung der Bilder nicht in die Karten schauen lassen wollten. Bei fairSIM kann man sich jede Zeile Programmcode anschauen, aber nicht nur das: fairSIM ist auch noch deutlich schneller als die meisten kommerziellen Programme und zur Zeit arbeiten die Forscher an der Uni Bielefeld an einer Variante die auf Grafikkarten noch ein Stück schneller rechnen können wird. So schnell, dass man höchstens einen Augenaufschlag auf das hochaufgelöste Bild warten muss, und so live seine Probe in SIM-Auflösung betrachten kann. Das ist eine Neuerung, die jeden Biologen begeistern wird und etwas, dass keine kommerzieller Hersteller anbietet. Yeah – open science!
Ich sprach darüber auch in meinem Vortrag auf dem 33. Chaos Communication Congress (33c3). Noch mehr Links zu SIM, Beispiele und den Vortrag selbst gibt es hier.
Bei SIM ist eine recht aufwändige Nachbearbeitung der Messdaten durch einen Computer nötig. Dabei wird eine Auflösung von 100nm in der Ebene und 250nm in z-Richtung erreicht. Der große Vorteil ist hier, dass eigentlich alle gängigen Fluoreszenzfarbstoffe für die Technik geeignet sind, und es keinen Unterschied zu einer normalen Probenpräparation gibt.
Ein anderes Beispiel für eine mathematische Überlistung ist Super-resolution optical fluctuating imaging (SOFI).
Man kann sich auch das Problem der Beugungsgrenze zu einem gewissen Grad ersparen, wenn man die beleuchtete Fläche kleiner macht. Zwar sind auch fokussierte Laser beugungsbegrenzt, können also das Kriterium „halbe Wellenlänge“ nicht unterschreiten, aber da geht es dann schon los mit der physikalischen Trickserei. Das wohl bekannteste Beispiel dafür wäre STED, Stimulated Emissioen Depletion oder, auf Deutsch stimulierte Emissionsverarmung. Dafür bekam Stefan Hell den Nobelpreis in Chemie 2014.
Dem STED-Ansatz zu Grunde liegt ein konfokales Mikroskop. Dabei wird ein Laser auf einen kleinen (beugungsbegrenzten) Punkt in der Probe foussiert, die Farbstoffe in diesem Punkt werde angeregt und die Fluoreszenz gemessen. Dann wird der Punkt ein kleines Stückchen in der Probe weiter bewegt. So kann man, Punkt für Punkt, Zeile für Zeile ein Bild einer Probe machen, und das geht auch schneller als es sich anhört. Oft braucht man für einen solchen Punkt in einem konfokalen Mikroskop höchstens ein paar Millisekunden Messzeit. Die Trickserei von STED ist jetzt, dass der Messpunkt effektiv kleiner gemacht wird. STED benutzt dafür einen zweiten Laser – der erste Laser den es beim konfokalen Mikroskop gibt ist ja weiterhin beugungsbegrenzt. Der zweite, auch sogenannte STED-Laser wird durch eine Phasenplatte wie ein kleiner Donut geformt, in dessen Mitte der erste Laser liegt.
By Marcel Lauterbach – Own work (Original text: Selbst erstellt), CC BY-SA 3.0, Link
Der STED-Laser liegt mit seiner Wellenlänge im gleichen spektralen Bereich, in dem das ausgesendete Licht des benutzten Farbstoffs liegt. Das führt dazu, dass sich angeregte Elektronen in den Farbstoffen denken „Hey, da leuchtet jemand, das wollen wir auch!“ und ihre Energie in Form von Licht der selben Wellenlänge des STED-Laser abgeben. Das nennt man stimulierte Emission. Mit dem STED-Laser räumt man alle angeregten Farbstoffe um das Zentrum dieses Donuts sofort wieder ab. Wenn man jetzt die Leistung des zweiten Laser erhöht, wird das Loch in der Mitte kleiner, und kann auch kleiner als die Beugungsgrenze werden. Deswegen habe ich oben von „effektiv kleiner“ gesprochen. So wird der Punkt, von dem man noch ein effektives Fluoreszenzsignal bekommt kleiner – und die Auflösung besser.
Die erreichte Auflösung von STED liegt im Bereich von 50nm in der Ebene und mit mehr Trickserei bei 120nm in z-Richtung. Die Leistungsdichte durch die beiden Laser auf der Probe sind sehr hoch, wenn auch nur für kurze Zeit. Dies kann zum Bleichen der Farbstoffe und zur Beschädigung der biologischen Struktur selbst führen. Im Vergleich zu allen anderen Techniken ist das hochaufgelöste Bild direkt nach der Messung zu sehen, und keine Nachbearbeitung irgendwelcher Rohdaten im Computer ist nötig.
Ein anderes Beispiel für eine physikalische Überlistung ist das optische Rasternahfeldmikroskop (NSOM).
Darunter fällt eine recht prominente Gruppe von Techniken, die einzemolekül lokalisationsbasierte Hochauflösungsmikroskopie, englisch singe molecule localizations.based super-resolution microscopy (SMLM). Für die Variante photo-activated localization microscopy (PALM) gab es für Eric Betzig und W. E. Moerner den Nobelpreis in Chemie 2014. Aber unter SMLM fallen noch andere Techniken, zum Beispiel direct stochastic optical reconstruction microscopy (dSTORM), die direkte stochastische optische Rekonstruktionsmikroskopie. Daran hab ich in meiner Doktorarbeit gearbeitet, und habe sie bei Ich hab was gegen Rauschen auch schon kurz erklärt – aber ich mache das hier noch mal etwas Ausführlicher und im Vergleich zu den anderen Techniken von oben.
Bei jeder SMLM Technik tauscht man den Raum gegen die Zeit. Das ist gar nicht esoterisch gemeint. Eine markierte biologische Struktur trägt, im Besten Fall, einen Haufen von Fluoreszenzfarbstoffen (siehe Das bringt Farbe ins Leben). Wenn ich jetzt dafür Sorge, dass die meisten dieser Farbstoffe kein Licht aussenden, am besten so viele, das man nur jeweils einzelne Moleküle sieht, dann kann man deren Ort recht genau bestimmen. In dem Fall hängt die Genauigkeit der Position nur von der Zahl der Photonen ab, die das Molekül aussendet und nicht mehr von der Beugungsgrenze. Die Signale sind immer noch beugungsbegrenzt, aber wenn man sicher sein kann, dass die Signale immer nur von einzelnen Molekülen ausgesendet werden, kann man auf die Position sehr genau zurück rechnen. Allerdings muss man jetzt verdammt viele Bilder machen, schließlich sollte jedes Molekül mindestens einmal dran sein mit Leuchten, mehrfach im Idealfall – sonst sieht man ja unter Umständen nicht alles von der biologischen Struktur, die von den Farbstoffen markiert wird. Im Falle von dSTORM sind das meistens so 10000 bis 20000 Bilder Rohdaten, aus denen man dann ein paar Millionen Koordinaten von Molekülen berechnet werden.
Die verschiedenen SMLM Techniken unterscheiden sich eigentlich nur über die Art und Weise wie diese langlebigen AUS-Zustände der Farbstoffe erreicht werden. Im Fall von dSTORM nutzen wir da einen besonderen Puffer, in den die Probe mit den Farbstoffen eingebettet ist. Der Puffer sorgt dafür, dass die Farbstoffe – bei recht starker Beleuchtung – ein große Chance haben in einen Radikalzustand reduziert zu werden. Dieser Zustand ist dunkel, was gut ist. Was nicht so gut ist: er ist auch chemisch recht aktiv und kann auch zur Zerstörung des Farbstoffes führen, aber irgendwas ist ja immer. Dieser dunkle Zustand ist aber auch langlebig wegen unserem Puffer. Wenn man sich an die Chemie in der Schule erinnert: Das Gegenteil von Reduktion ist die Oxidation – durch Sauerstoff würde der Farbstoff recht schnell aus dem dunklen Zustand zurück kommen. Unser Puffer bei dSTORM verhindert das, weil ein paar Enzyme enthalten sind, die den ganzen Sauerstoff schon in andere Verbindungen umgesetzt haben. Deswegen sorgt der Puffer dafür, dass der dunkle Zustand sehr langlebig ist und ein Großteil der Farbstoffe „aus“ ist.
Man nimmt sich also mehr Zeit, macht viele Bilder und bekommt am Ende viele Punkte aus denen man das Bild Punkt für Punkt wieder zusammen setzen kann. Ricardo Henriques, der eine Software Namens QuickPALM geschreiben hat, hat dazu ein ein schönes Video vom Eifelturm gebastelt, was diesen Ablauf verdeutlicht:
Ich sprach darüber auch in meinem Vortrag auf dem 33. Chaos Communication Congress (33c3). Noch mehr Links zu dSTORM, Beispiele und den Vortrag selbst gibt es hier.
Die Rekonstruktion der vielen aufgezeichneten Bilder (10000-20000 bei dSTORM) geschieht nach der Datenaufnahme und benötigt einiges an Rechenleistung. Ein moderner Rechner ist damit schon einige Minuten beschäftigt. Die Auflösung von dSTORM kann bis zu 20nm in xy und 40nm in z erreichen. Einige Ansätze schaffen es sogar in den einstelligen Nanometerbereich, dabei handelt man sich aber deutlich längere Aufnahmezeiten und einige andere Nachteile ein – weswegen dafür auch nicht alle Proben geeignet sind. Der Ansatz, an dem ich in meiner Doktorarbeit gearbeitet habe, spectral demixing dSTORM (SD-dSTORM) erreicht 25nm in xy und 66nm in z, siehe dazu Ich hab was gegen Rauschen.
Wenn man Versuche an lebenden Zellen machen will oder Dynamiken beobachten möchte, ist das mit diesen Techniken, die die höchste Auflösung bieten, nur mit einem erheblichen Mehraufwand zu machen, und manchmal gar nicht.
Ich habe ja oben erwähnt der SMLM viele verschiedene Techniken enthält. Weitere Beispiele, neben dSTORM wären PALM oder uPaint.
Das ist schwer zu sagen, welche Technik die Beste ist. Überall gibt es Vor- und Nachteile. Als kleine Einschätzungshilfe vielleicht: Mehr Auflösung bedeutet immer auch mehr Probleme. Wenn ich bei SIM bei der Probenpräparation kaum etwas anders machen muss im Vergleich zur normalen Fluoreszenzmikroskopie, bin ich bei STED auf lediglich ein paar Farbstoffe beschränkt, die die hohen Leistungsdichten aushalten können. Bei dSTORM habe ich auch nur ein paar Farbstoffe zur Auswahl, die das gewünschte Blinkverhalten zeigen und ich brauche einen besonderen Puffer. SIM kann man noch relativ schnell machen, bei STED und den SMLM Techniken dauert es schon ein bisschen, bis man ein Bild hat. Noch gar nicht gesprochen haben wir über die Größe der Farbstoffe selbst, oder die Biegsamkeit der Antikörper mit denen man Strukturen markiert. Es gibt noch sehr viele kleine Details die hier eine Rolle spielen, man kann diese Liste sehr lange fortsetzen.
Für mich haben SIM und SMLM Techniken die Nase vorn, weil sie Rohdaten generieren, die man später mit Software auswertet. Das ist auf den ersten Blick eigentlich ein Nachteil – aber ich würde sogar so weit gehen, dass hier die Zukunft der Hochauflösungsmikroskopie liegt. Gerade bei der Software machen immer mehr Forschergruppen ihren code offen, so das andere von neuen Erkenntnissen profitieren können. Also kann man nicht nur sehr einfach bessere Bilder durch die Arbeit anderer Forscher aufnehmen, durch neue Software kann man auch seine alten Rohdaten vermutlich besser Rekonstruieren und neue Dinge lernen. Aber nicht nur das: Wenn man diese Techniken als das Sammeln von Rohdaten begreift, dann kann man noch viel mehr daraus ziehen, und nicht nur Bilder rekonstruieren. Zum Beispiel ist unser Ansatz spectral demixing dSTORM so gebaut, dass im Prinzip die Farbinformation auch aus den Rohdaten gezogen wird. Wenn man das verinnerlicht, sind gerade diese Techniken, die sich auf spätere Auswertung mit (offener) Software verlassen, die Ansätze mit dem größten Potential neue Erkenntnisse in den Lebenswissenschaften zu liefern.
]]>Ich habe versucht aufzuschreiben worauf man beim Kauf achten muss, an welchen Stellen man verarscht wird und welche falschen Annahmen man macht, wenn man sich nicht gut mit Mikroskopietechnik auskennt. Es gibt eine sehr kurzes tl;dr am Ende.
Update: Dieser Artikel richtet sich vor allem an all jene, die vor haben ein USB-Mikroskop zu kaufen. Siehe dazu die Diskussion in den Kommentaren. Danke an alle Kommentator*innen für ihre Beiträge.
Ich bin der Meinung: Auf keinen Fall ein günstiges USB-Mikroskop für den Nachwuchs anschaffen. Die Faszination von Mikroskopen beginnt in den meisten Fällen beim durchschauen. Ich musste das auch erst lernen und hab darüber in Die Frage nach der Wissenschaft, der Kommunikation und dem ganzen Rest berichtet. Heranwachsende werden wenig Freude daran haben einfach nur ein Gerät zu bekommen und dann einfach mal “zu machen”. Wenn man keine Vorstellung davon hat wie die Welt des Kleinen aussieht wird man Schwierigkeiten haben ein gutes Bild zu erkennen, eine schöne Probe zu finden und man braucht Geduld und Fingerspitzengefühl für die Justage und das Scharfstellen.
Es gibt wundervolle Kästen von diversen Herstellern die sich an Kinder und Jugendliche richten. Wenn der Nachwuchs mit einem Mikroskop beglückt werden soll, dann nehmt einen Mikroskopkasten, denn es sind Anleitungen für Probenpräparation dabei und oft sehr gut geschriebene Begleittexte. Wenn ihr euch bei letzterem nicht sicher seid: Es gibt ein tolles Buch, in dem ich auch schon einmal gestöbert habe, das lediglich für einen Zehner zu haben ist. Niemand hat mir Geld für diese Empfehlung gegeben, es ist nur ein günstiges Buch das mir nach ein paar mal durchblättern sehr gefallen hat:
“Mikroskopieren” Untertitel: Entdecken – Staunen – Wissen” von Annerose Bommer, Kosmos.
Update: Mittlerweile habe ich eine Artiekl über einen Mikroskopie-Kasten geschrieben: Rezension “KOSMOS Mikroskop Experimentierkasten”.
Aber auch beim Mikroskopie-Kasten gilt: Es muss nicht das teure Teil sein, schaut euch Rezensionen an und entscheidet dann. Ich hab mir aktuelle Kästen selbst nicht im Detail angeschaut, aber das was man an Zubehör und an Anleitung bekommt ist oft seinen Preis wert. Als Orientierung: Mit einem Kasten für unter 60 Euro kommt man schon wirklich weit. Es gibt auch Kästen für weniger, aber bei diesen bitte immer erst ein paar Rezensionen lesen. Es muss kein teureres Mikroskop sein, wenn es das erste ist, und auf Spielereien wie “mit LCD Monitor” oder so kann man gut verzichten. Aufnahmen mit einem Handy durch das Okular liefern oft bessere Bilder als eine interne Kamera und sind recht einfach zu machen manchmal etwas fummelig, aber möglich. Egal was man mit einem Mikroskop tut – man braucht eine ruhige Hand.
Wenn man selbst ein Mikroskop haben will – weil man sich bestimmte Dinge anschauen will und Neugierig auf die Welt des kleinen ist – kauft euch ein billiges USB-Mikroskop. Ich hab eins das den Namen XCSOURCE trägt, aber jede vergleichbare Form macht Bilder die ganz OK sind. Wie gesagt: Justage ist wirklich fummelig und für manche Proben empfiehlt es sich eine Taschenlampe zur Hand zu haben um von der Seite zu beleuchten, aber diese Mikroskope findet man zwischen 12 und 20 Euro.
Allerdings gibt es viele Produkte die einen gehörig in die Irre führen wollen. Gerade bei USB-Mikroskopen sind die folgenden Dinge IMMER gelogen: “HD”, “2 Megapixel”, “5 MegaPixel”, “Plug and Play”, “einfach zu installieren” “bis zu 500x Vergrößerung”, die Liste könnte man fast endlos Fortsetzen. Meine Erfahrung ist: In jedem Teil, das weniger als 80 Euro kostet, ist immer ein 640×480 Pixel chip drin. Wenn mehr Pixel drauf stehen, dann nur weil die Kamera das Bild künstlich aufbläht – mehr erkennen kann man deswegen nicht. Kauft euch eins für unter 20 Euro, dann tut es auch nicht weh, wenn es nicht genau das zeigt, was ihr euch vorgestellt habt. Mit mehr investiertem Geld wird sich das Ergebnis kaum ändern.
“Plug and Play” und “einfach zu installieren” ist nicht wirklich eine Lüge – man steckt das Mikroskop rein und es geht, weil es als WebCam erkannt wird. Wenn ihr dann keine passende Software dafür habt… Schade. Software, die bei liegt, hat in der Regel nichts mit dem Mikroskop zu tun, erkennt oft das Gerät gar nicht und falls doch, beschränkt sich die Funktionalität auf “Bild speichern unter…”. Ein solches billiges Mikroskop steuert man am besten mit µManager (mikro-manager.org) an. Für WebCams kann man dort den Treiber “openCVgrabber” benutzen. Ansonsten kommt man an die Bilder aber auch mit VirtualDub (capture AVI) oder mit Fiji. Softwareempfehlungen nehme ich gerne!
Es macht nicht wirklich Sinn bei einem Mikroskop ohne Okulare von einer Vergrößerung wie “256-fach” zu sprechen. Die Angabe von “XXX-fach” oder “XXXx” macht nur Sinn wenn man selbst mit dem Auge durchs Okular schaut. Ohne Kenntnis davon zu haben wie große die Pixel des Chips in dem Mikroskop sind, macht eine solche Angabe aber keinen Sinn. Bei meinem Mikroskop erreiche ich bei der sogenannten 500-fachen Vergrößerung eine Abbildung von ca. 1,2 µm pro Pixel, ich kann also Details ausmachen die so ca. 10 µm groß sind. Ich lehne mich zwar damit aus dem Fenster, aber ich würde sagen, dass kein Mikroskop für unter 80 Euro mehr liefern kann.
Alles was ich oben über USB-Mikroskope schrieb, sollte einem klar machen, warum ich solche Dinger nicht für Kinder empfehlen kann. Wenn man aber selbst auf der Suche nach ein bisschen mehr Vergrößerung und doch ein paar mehr Bildpunkten ist, hilft logisches Denken. Wenn man Preise für HD-WebCams mal mit Preisen für USB-Mikroskope vergleicht, stellt man schnell fest, dass es wohl kaum möglich sein kann, dass in einem USB-Mikroskop für schon 50 Euro ein HD-Chip drin steckt – schließlich muss noch irgendwo die Optik für die Vergrößert bezahlt werden. Es lohnt sich immer in den technischen Spezifikationen nach der Größe des Chips zu suchen oder darauf zu achten welche Auflösung bei Video erreicht wird. Steht bei Video irgendwas mit 640×480 oder 0,3 MegaPixel, dann sind 2 oder 5 Megapixel immer gelogen – das wird dann künstlich über binning gemacht, was nur das Bild größer zaubert und nicht die Auflösung oder die Vergrößerung besser macht.
Gute Optiken und gute Chips haben ihren Preis. Selbst ein Mikroskop für 80 Euro von Conrad, dass vermutlich wirklich einen 2 Megapixel Chip drin hat, wird nur unwesentlich bessere Bilder liefern, als mein Billigding aus dem Reich der Mitte. Mir waren die 80 Euro allerdings bisher immer zu teuer für “mal ausprobieren” und daher habe ich das nie getestet. Ich würde mich gerne eines besseren Belehren lassen und daher diesen Artikel an Conrad schicken – vielleicht wird mir ja Exemplar für ein Review zur Verfügung gestellt. Dagegen würde ich mich nicht wehren.
Es gibt auch Mikroskope in “schmaler Bauform” oder mit der Bezeichnung “Endoskop”. Lasst die Finger davon. Die Handhabung ist wirklich sehr sehr fummelig. Ich bin ein geduldiger Mensch und ich war nicht in der Lage auch nur ein brauchbares Bild damit zu fabrizieren. Wenn euer täglich Brot nicht das inspizieren von engen Rohren oder Spalten ist, denkt erst gar nicht darüber nach. Aber selbst dann: Der Bereich in dem ein scharfes Bild entsteht ist kürzer als 1 mm. Wenn ihr nicht eine so ruhige Hand habt wie ein Neuro-Chirurg und es gewohnt seid Dinge zu tun wie “Flur tapezieren durch den Briefkastenschlitz” werdet ihr an etwas, das dünn und stiftförmig ist und irgendwo die Silbe “endo” im Namen trägt, nicht wirklich viel Freude haben. (So etwas in einem stabilen Stativ kann gut funktionieren, siehe Kommentare).
Es gibt auch diverse Firmen und online-Shops die Mikroskope aufarbeiten und verkaufen. Da sprechen wir dann schon von Preisen im drei bis vierstelligen Bereich. Davor würde ich grundsätzlich warnen. Erstens: Weil ich hier auf diesem Blog von einigen dieser online Shops unglaublich viel Spam in den Kommentaren bekomme. Hallo Karsten, Christoph, Michael und all die Anderen – wenn ihr das hier lesen solltet, bitte hört doch auf andauernd Kommentare mit euren Links zu unterfüttern – ich bin nicht doof. Zweites: Es gibt keinen großen Markt für Mikroskope, deswegen kann man auch nicht wirklich Schnäppchen erwarten. Ein “aufgearbeitetes Markenmikroskop von BLA mit USB-Kamera” wird zwar in der Handhabung ein wenig netter sein, aber in der Auflösung kaum mein billiges USB-Mikroskop schlagen. Vermutlich ist dort auch nur eine 640×480 Kamera verbaut und im Zweifel hat man auch noch Ärger mit Software die nur auf WinXP läuft und eigene, seltsame Protokolle zur Ansteuerung verwendet. Ich weiß nicht ob das einen dreistelligen Eurobetrag wert ist. Drittens: Gute Optik hat ihren Preis – immer. Fragt die Hobbyfotografin eures Vertrauens. In so einem Gespräch wird euch auch gesagt werden, dass es für einen Einsteiger wenig Sinn macht viel Geld zu investieren, wenn man nicht schon etwas Erfahrung in der Bedienung hat und weiß was man abbilden möchte.
Im Gegensatz zu Teleskopen, wo es Sachen für das Hobby gibt, Sachen für die Wissenschaft und irgendwas dazwischen, fehlt der Bereich “irgendwas dazwischen” für Mikroskope. Es gibt zwar einige Hersteller die versuchen mit Schlagworten wie “Schulmikroskop” oder anderen Dingen, Menschen dazu zu bringen dreistellige Beträge auszugeben, aber die meisten Anwendungsfälle werden von deutlich günstigeren Mikroskopen erschlagen. Wenn man wirklich ein Händchen für Basteleien hat, kann man mal auf ebay schauen, aber auch hier wird einem vieles angeboten, das total gut klingt, aber nicht unbedingt sooo wertig ist wie es den Anschein hat.
Mikroskopieren steht und fällt auch mit der Probe. Für Kinder und Jugendliche sollte man fertig Kästen nehmen – damit kann man auch als Erwachsener Spaß haben. Wenn man “erstmal nur gucken will” reicht eine Investition von maximal 20 Euro für ein USB-Mikroskop vollkommen. Es gibt kaum Schnäppchen bei Mikroskopen, man sollte immer davon ausgehen, dass man Übervorteilt wird. Viele Dinge klingen sehr gut, machen aber nicht wirklich Sinn. Es lohnt sich vor einem Kauf drei mal nachzudenken und, im Zweifel, mal jemanden Fragen der sich damit auskennt. Damit meine ich nicht zwangsläufig mich. Wenn ihr irgendwo ein Naturkundemuseum habt oder eine Uni, ist die Chance sehr groß, dass es da auch einen Mikroskopieverein gibt. Einfach mal vorbei gehen, sich was zeigen lassen und nach Empfehlungen fragen. Das Feld der Mikroskopie ist so… klein, dass das Internet nicht zwangsläufig die Beste Quelle für Kaufempfehlungen ist.
Tl;dr
Kauft für Kinder & Jugendliche einen fertigen Kasten
für unter 60 Euround evtl. ein gutes Buch dazu – und lest Rezensionen. Günstige USB-Mikroskope sind nicht ideal für den Nachwuchs. Wenn man selbst Bildchen machen will: USB-Mikroskope kosten maximal 20 Euro. Teurere USB-Mikroskope versprechen mehr als sie halten können – besonders für Einsteiger.
Update: Tl;dr wurde etwas umformuliert. Herzlichen Dank an alle Kommentator*innen für die Diskussion.
Update: Ich hab mir das mit der Preisempfehlung im Tl;dr zu einfach gemacht (nachdem ich einen KOSMOS Kasten rezensiert habe).
]]>UPDATE Vortrag ist online:
Ganz ohne tracking, dass ihr euch das Video angeschaut habt: https://media.ccc.de/v/33c3-8237-es_sind_die_kleinen_dinge_im_leben
Oder hier als embedded YouTube:
Die Link-Liste:
fairSIM: https://fairsim.github.io/
fairSIM: https://github.com/fairsim
Marcel Müller et al., Nat. Comm. 7, 2016 (OA)
https://www.nature.com/articles/ncomms10980
Viola Mönkemöller et al., Scientific Reports 5, 2015 (OA)
https://www.nature.com/articles/srep16279
dSTORM:
Heilemann et al., Angewandte Chemie Int. Ed., 2008 (closed)
https://onlinelibrary.wiley.com/wol1/doi/10.1002/anie.200802376/full
DOI: 10.1002/anie.200802376
rapidSTORM
https://www.super-resolution.biozentrum.uni-wuerzburg.de/research_topics/rapidstorm/
thunderSTORM
https://zitmen.github.io/thunderstorm/
https://github.com/gtadeus/sdmixer2
https://sourceforge.net/projects/sdmixer/
Tadeus et al., MAF, 2015 (closed)
https://dx.doi.org/10.1088/2050-6120/3/3/037001
Lampe et al., MAF, 2015 (closed)
https://dx.doi.org/10.1088/2050-6120/3/3/034006
ImageJ
https://imagej.nih.gov/ij/
Fiji (ImageJ with a lot of Plug-Ins)
https://fiji.sc/
Thorge Holm et al., ChemPhysChem, 2013 (closed)
https://onlinelibrary.wiley.com/wol1/doi/10.1002/cphc.201300739/full
DOI: 10.1002/cphc.201300739
Hui-Wen Lu-Walther et al., MAF, 2015 (closed)
https://dx.doi.org/10.1088/2050-6120/3/1/014001
Ronny Förster et al., arxiv.org, 2014 (OA)
https://arxiv.org/ftp/arxiv/papers/1406/1406.1662.pdf
https://events.ccc.de/congress/2016/wiki/Assembly:Science_Hack_and_Communication
]]>Unter diesen vielen Videominuten sind Clips, die Wissen vermitteln, Videos aus Forschungsinstitutionen, PR-Stücke von Universitäten und Einrichtungen, von jungen Medienfirmen, die spannende (klickzahlenversprechende) Wissenschaftsthemen erklären oder einfach von Privatpersonen, die gerne über Wissen und Wissenschaft reden (Übergänge sind fließend).
Gerade im Bereich der Wissens- und Wissenschaftsvideos finde ich Wettbewerbe sehr gut. Tolle Videos, und vor allem die Köpfe dahinter, sollten ausgezeichnet werden. Genauso wichtig ist mir, dass ein Wettbewerb immer dazu führt, dass ein bestimmtes Genre sichtbarer wird und mehr Menschen erwägen selbst etwas in der Richtung zu machen. Ich hab im Sommer 2016 auch mal zu Handykamera und Ansteckmikro gegriffen und Filmchen für YouTube gemacht, wie ich hier schon erzählt habe. Für mich persönlich war es ein Experiment in der Richtung “bekomm‘ ich das hin?”. Mit den Videos habe ich allerdings nicht an einem Wettbewerb teilgenommen, zum einen weil es sich um eine Auftragsarbeit für die Lange Nacht der Wissenschaften in Berlin und Potsdam 2016 gehandelt hat und zum anderen, weil ich in der Jury des Wettbewerbs sitze, der mir als erstes einfallen würde wo man so etwas einreichen könnte: Fast Forward Science von Wissenschaft im Dialog.
Ich bin sehr glücklich Teil einer solchen Jury zu sein, schon seit 2014 für Fast Forward Science und seit 2015 für einen österreichischen Wettbewerb: scienceclip.at. Man bekommt einen neuen Blickwinkel darauf wie die ersten Schritte mit Webvideo von einigen Personen oder Einrichtungen aussehen, aber man entdeckt auch wahre Video-Perlen und wird auf interessante Themenfelder gestoßen. Und diese Erlebnisse kann jeder haben. Stöbert einfach mal auf den entsprechenden Webseiten der Wettbewerbe oder direkt auf den Youtube Channeln von Fast Forward Science (YouTube Channel) und sciencelip.at (YouTube Channel).
Ich schreibe das hier nicht alles auf, um mich selbst zu beweihräuchern. Am vergangenen Freitag, den 02.12. war die Preisverleihung von scienceclip.at in Wien. Die Preise für Fast Forward Science werden am Dienstag den 06.12. in Bielefeld auf dem Forum Wissenschaftskommunikation verliehen. Und gerade in dieser geballten Preisverleihungszeit kam mir der ein oder andere Gedanke. Vergleicht man die Videos der beiden oben genannten Wettbewerbe, fällt auf, dass in Österreich vornehmlich Schüler*innen Videos eingereicht haben, etwas das bei Fast Forward Science erst 2016 ausdrücklich gewünscht wurde mit dem Spezialpreis MeerWissen. Allein die Tatsache das beim Wettbewerb in Österreich, in verschiedenen Alterskategorien, 100 Videos von Schüler*innen eingereicht wurden freut mich wahnsinnig. Solche Webvideos können eine tolle Spielwiese sein, ein nettes Projekt, etwas in dem man sich ausprobieren kann – ich wünsche mir da noch viel mehr Beiträge von Schüler*innen.
Bei Fast Forwad Science treten Videos von verschiedenen Teilnehmer*innen gegeneinander an, in Kategorien wie „Scitainment“ oder „Substanz“. Unter den Einreichenden sind einzelne YouTuber*innen, Wissenschaftler*innen und Forscher*innengruppen, Vereine, Einrichtungen und teilweise Hochglanzproduktionen von Wissenschaftsorganisationen, die YouTube mit einer Plattform für Fernsehbeiträge verwechseln. Von diesen Videos haben eigentlich alle Aufmerksamkeit verdient, und es gibt darunter besondere Dinge zu entdecken. Ein Video, das mich immer noch nicht loslässt – aber das wir nicht wirklich für einen Preis bei Fast Forward Science auszeichnen konnten, weil es eben ein Wissens- und Wissenschaftsvideowettbewerb ist – wäre dieses hier:
Ich bin jedes Jahr aufs Neue von der Schaffenskraft beeindruckt, die in den Einreichungen bei Fast Forward Science steckt, und auch davon würde ich gerne noch mehr sehen. Aber mein Herz hängt irgendwie an den Schüler*innen Videos. Nicht weil sie professionell produziert sind – das sind diese Videos in vielen Fällen nicht – sondern weil man hier die Freude und die Leidenschaft spürt. Na klar, kann einem das ganz egal sein. Warum sollte man sich ein Video von sehr jungen Schüler*innen anschauen, das sich damit beschäftigt aus welcher Höhe ein Butterbrot auf die Butterseite fällt? Was interessieren mich Schüler*innen aus Niederösterreich oder aus dem Saarland? Man könnte aber auch kurz überlegen, ob man überhaupt etwas davon mitbekommen hätte, wenn es nicht Wettbewerbe gäbe. Der Segen und der Fluch von Webvideos ist, dass man niemandem Platz wegnimmt (oder Sendezeit). Jeder kann alles hochladen was sie oder er möchte. Das heißt aber noch lange nicht, dass diese Videos gefunden oder überhaupt angeschaut werden. Wettbewerbe schaffen Aufmerksamkeit – ich hoffe, ich habe letztere jetzt auch bei euch geweckt.
Mal ab und zu auf YouTube und vor allem bei Wettbewerben stöbern – dafür ist die Plattform gemacht. Abschließend möchte ich jeder Einrichtung, Organisation, jedem Verein, jedem Studierenden und schulpflichtigen Menschen ans Herz legen, mal ernsthaft mit dem Gedanken zu spielen, ein Video zu drehen das sich mit Wissen oder Wissenschaft beschäftigt. Handykamera und ein Ansteckmikro können für die ersten Versuche vollkommen ausreichen. Ressourcenknappheit kann ja auch erfinderisch machen.
Längst nicht für jeden ist ein YouTube Channel ein Karriereweg, mit dem der Lebensunterhalt bestritten werden kann. Aber es schadet nicht ein paar vorsichtige Schritte auf Video-Plattformen zu unternehmen, und es kann ein spannendes Hobby sein. In jedem Fall ist die Antwort „Ja, hab ich schonmal gemacht“ auf die Frage „Kennen sie sich mit Webvideos aus?“, immer ein Pluspunkt.
YouTube Channel Fast Forward Science
]]>Ich hab dabei viel gelernt, zum Beispiel was es heißt sich selbst einen strickten Zeitplan zu geben und wie man argumentiert, wenn die Skripte und Rohschnitte der Videos vor Veröffentlichung abgenommen werden müssen und Änderungswünsche in die inbox flattern. Einerseits hat konstruktive Kritik die Videos besser gemacht, andererseits habe ich gelernt, wie man seinen eigenen Gedankengang selbst hinterfragt und seine gestalterischen Entscheidungen mit Argumenten unterfüttert.
Überraschend war für mich vor allem, dass unsere Mobiltelefone wirklich eine tolle Qualität bei HD-Videos (1080p) liefern können. Womit ich eigentlich gar nicht gerechnet habe, bis ich es getestet habe, war das Problem der Ausleuchtung. Aufnahmen in meiner Wohnung hatten ein lustiges Flackern im Bild, das wohl von meiner LED-Deckenbeleuchtung herrührte – so hatte ich dann nach den ersten Test keine Wahl als mich an sonnigen Tagen in meinen Innenhof zu stellen, der mit seinen hell gestrichenen Wänden eine ganz passable Ausleuchtung lieferte.
Eine weitere Erkenntnis: Es geht nichts über professionelle Schnittsoftware. Wenn ich nicht Adobe Premiere Pro benutzt hätte, wäre ich wohl nicht in der Lage gewesen die Videos in kurzer Zeit fertig zu produzieren. Ich hab einige gratis Softwarelösungen für den Schnitt ausprobiert, nichts kam dem Funktionsumfang und Leistungsfähigkeit von Premiere auch nur nahe. Es gibt noch andere professionelle Lösungen, aber ich bin irgendwie bei Adobe gelandet. Gehört habe ich das auch Sony eine sehr gute Softwarelösung anbietet und auch das Appleprodukt soll wohl ganz gut sein. Beides hab ich nicht ausprobiert, ich will es nur erwähnt haben. Wenn jemand der verehrten Leser eine Empfehlung hat bzgl. freier Software, wäre ich sehr neugierig. Für die Produktion von Mikroskopie-Videos benutze ich übrigens freie Software (Virtual Dub), aber vor allem weil es bei Datenvisualisierung mehr um codec, framerate und Kompression geht als um den Schnitt und das Einblenden von Text.
Alle sechs Videos plus das Video mit den Outtakes kann man hier als Playlist bei YouTube finden. Das erste Video, dass auch am besten in dieses Blog passt handelte von Fluoreszenz, tonic water und Waschmittel. Viel Spaß beim anschauen.
]]>Zellen sind klein. Eine typische menschliche Hautzelle misst bis zu 0,05 mm in der längsten Richtung und 0,01 mm in der kürzesten. Man hat wenig Probleme sie unter einem Mikroskop zu betrachten, wenn man ein paar kleine Tricks anwendet.
Will man aber in eine Zelle hinein schauen, um etwas darüber zu lernen wie diese kleine Einheit des Lebens funktioniert und Dinge tut, dann muss man anfangen die Strukturen anzufärben, wie ich das im Artikel Das bringt Farbe ins Leben bereits erklärt habe. Damit man schöne Bilder machen kann, muss die Zelle still halten, angefärbte Zellen, besonders bei mehreren Farben, sind meistens fixierte Zellen – also längst tot. Wenn man in eine lebende Zelle schauen will, muss man sich Wege überlegen die fluoreszenten Farbstoffe in die Zelle zu bringen, ohne die Zelle so stark zu verletzen, dass sie anschließend nicht mehr weiter leben kann. Besser noch: Man bringt die Farbstoffe so in die Zelle, dass sie eigentlich kaum gestört wird und davon nichts merkt – damit sie weiter das tut was eine Zelle eben tut, so als ob nichts gewesen wäre. Denn genau das will man ja beobachten.
Um die ganze Geschichte mit dem “Zelle verletzen” zu umgehen, kann man die Genetik benutzen. Wenn man die DNA von Zellen so manipuliert, dass eine bestimmte Eiweißsorte in der Zelle so zusammen gebaut werden das sie das grün fluoreszierende Protein (GFP) tragen, dann leuchten diese Strukturen von sich aus. Der Pferdefuß an dieser Herangehensweise ist, dass man die innere Struktur der Zelle verändert, und wenn an irgend einem Eiweiß noch ein leuchtender Blob dran hängt, kann man nicht sicher sagen, dass die Zelle ganz genau so funktioniert wie ohne den leuchtenden Blob.
Im Bild oben sieht man, dass ein GFP kleiner ist als ein Tubulin-Eiweiß, die Proteine, die ein Microtubulu bilden. Stellt man sich aber vor, dass an JEDEM Tubulin-Protein so eine kleine Tonne dran klebt, weiß man ungefähr was ich meine mit “so funktionieren wie vorher”. Wählt man genetische Methoden kann man leider nicht steuern, dass nur jedes fünfzigste Protein ein GFP drangebastelt bekommt – Genetik funktioniert in diesem Fall nach dem Alles-oder-Nichts-Prinzip.
Man kann auch fluoreszierende Farbstoffe in die Zelle bringen, die deutlich kleiner sind als das GFP. Die müssen allerdings an etwas gebunden sein, dass dafür sorgt, dass sie auch an der richten Stelle binden und nicht irgendwas markieren. In fixierten (also toten Zellen) benutzt man meistens Antikörper. Denen kann man beibringen an alles möglich zu binden, und selbst wenn diese Bindung nicht sehr stark ist, wird das Bild nachher ganz schön, denn in fixierten Zellen kann man „waschen“, das heißt Antikörper die irgendwo liegen geblieben sind entfernen, dass am Ende wirklich nur die Struktur markiert ist für die man sich interessiert.
In lebenden Zellen funktioniert das waschen leider nicht. Um an herumliegende Antikörper ran zu kommen müsste man das innere der Zelle einmal durchspülen – Vergleichen könnte man das mit dem Versuch ein Hühnerei auszublasen, die Schale einmal mit Seife auszuwaschen, das glibbrige Zeug wieder reinzupuzzeln und am Ende zu hoffen das man es noch zu einem Küken ausbrüten kann. Waschen geht also nicht, was den Einsatz von Antikörpern ziemlich schwierig macht. Deswegen werden Farbstoffe oft an Chemikalien gekoppelt die sich sehr zielsicher in eine alpha-Helix der DNA legen (Interkalatoren) oder aus bestimmten Teilen von Giften bestehen die zielgenau an das Aktin binden, ein wichtiger Teil des Zellskeletts (z.B. Phalloidin oder Paclitaxel)*. Egal wie man den Farbstoff mit etwas ausstattet, dass etwas spezifisch markieren kann – man kann über diese Strategie die Menge an Markern sehr gut steuern, im Gegensatz zu der genetischen Variante mit GFP. Oft reicht es für die Mikroskopie auch vollkommen wenn nur jedes hundertste Protein markiert ist um die Struktur gut zu erkennen, wenn man sich im Bild oben mal anschaut wie dicht die Bausteine dort gepackt sind.
Um etwas in lebende Zellen hinein zu bekommen gibt es auch mehrere Ansätze. Man kann Elektroporation benutzen. Dabei werden durch ein elektrisches Feld Löcher in die Zellwand gerissen, durch die Marker hinein kommen können. Klingt nicht gerade schonend und ist es auch nicht. Auch ist diese Methode nicht geeignet einzelne Zellen zu markieren. Es werden immer sehr viele Zellen auf einmal „behandelt“. Neben anderen, ebenfalls recht harschen Herangehensweisen gibt es auch noch die Microinjection. Eine Nadel (Mikropipette) mit einem Durchmesser zwischen 0,5µm bis 5µm wird in die Zellwand gestochen und Fremdmoleküle werden über Druck injiziert. Die Methode erlaubt es einzelne Zellen gezielt zu manipulieren. Dabei wird die Zelle kurzzeitig wie ein Ballon aufgebläht, kehrt aber nach kurzer Zeit in den Ausganszustand zurück, schließlich hat man mit der nicht gerade kleinen Nadel ein Loch in die Zellwand gestochen. Ein Durchmesser von 0,5µm ist für eine solche Nadel die absolute Untergrenze, filigranere Nadeln würden durch den Druck der Injektion bersten.
Die meisten Zellen (ca. 50-60%) kommen damit nicht gut klar und sterben bei oder kurz nach der Injektion.
Microinjection ist schon eine ziemlich Holzhammermethode. Und warum soll dann Nanoinjection schonend und besser sein, wie ich ganz oben angedeutet habe? Die Techniken unterscheiden sich doch nur durch eine Vorsilbe! Mikro – Nano – was ist das schon für ein Unterschied? Beides ziemlich klein, oder?
Verdammt klein, besonders wenn man bedenkt, dass ein menschliches Haar einen Durchmesser von 100µm haben kann, heißt das, dass die Spitze einer Mikropipette 20-200 Mal kleiner ist als der Durchmesser eines Haares. Nanoinjection treibt die Sache jetzt aber ein Stückchen weiter als man denken würde. Bei dieser Technik ist die Spitze der Nadel (Nanopipette) kleiner als 0,1µm (oder 100nm), also 1000 Mal kleiner als ein Haar. Damit ist die Untergrenze aber noch nicht erreicht. Nanopipetten können bis 10 nm im Durchmesser klein sein. Wenn man die „Fläche“ der Spitze einer Nanopipette betrachtet, im Vergleich zur kleinsten Mikropipette, heißt das eine knapp 33-fach kleinere Einstichfläche (pi * 50nm² vs pi * 250nm²). Die Nanopipette ist also so klein, dass man sie nicht einmal mehr unter dem Mikroskop sieht. 100nm, das ist unter der Beugunsgrenze des sichtbaren Lichts die von Abbe und Rayleigh beschrieben wurde.
Man kann jetzt natürlich einwenden: „Moment mal, war da eben nicht die Rede davon, dass so kleine Nadeln Injektionsdrücke nicht aushalten?“, und man hätte recht damit. Der Clou bei der Nanoinjection ist, dass nichts injiziert wird, jedenfalls nicht über Druck und einer damit verbundenen Volumenänderung innerhalb der Zelle. Die „Injektion“ basiert allein auf der Bewegung von geladenen Molekülen innerhalb eines elektrischen Feldes. Das hat den Vorteil, dass nur die Moleküle injiziert werden, die auch wirklich in die Zelle sollen. Man kann sich das ungefähr so vorstellen, dass die Moleküle durch die Nanopipette zur Spitze hin wandern und dann in die Zelle weitergehen. Im Gegensatz zur Microinjection, bei dem die Injektion in einem Puls abläuft ist es also ein kontinuierlicher Prozess. Das hat den Vorteil, dass man nicht vorher bestimmen muss wie viel man injiziert, sondern man stoppt den Injektionsvorgang einfach, wenn die Zelle genügend Moleküle aufgenommen hat. Man kann den Prozess bei fluoreszierenden Molekülen sogar unter dem Mikroskop beobachten.
Mit Gefühl. Obwohl ein Mikroskop ein optisches Instrument ist, muss man sich ja nicht zwangsläufig auf das Visuelle verlassen. Wie oben schon erklärt, werden die Farbstoffe aus der Nanopipette mit Hilfe eines Ionenflusses abgesetzt, also durch das Anlegen eines elektrischen Feldes. Dieses Feld muss sehr genau angesteuert werden können und genau kontrolliert und gemessen werden – schließlich sprechen wir hier von wenigen Molekülen. Und genau diesen Ionenfluss kann man auch für die Abstandsmessung ausnutzen. Wenn man die Nanopipette direkt von oben nach unten in Richtung der Zelle steuert kann man eine Abnahme des Ionenflusses messen, je näher man der Zelloberfläche kommt. Diese Technik nennt man SICM, was kurz für scanning ion-conductance microscope ist. Damit kann man die Zelloberfläche sehr genau kartieren und ist ein weiterer Vorteil der Nanoinjection-Methode. Nicht nur weil man quasi einen weiteren Sinn, also eine zusätzliche Messgröße hat, sondern auch weil es eine Möglichkeit zur Automatisierung bietet. Würde man die Position optisch kontrollieren (wenn man die Nadel sehen könnte), müsste man relativ komplexe Software zur Bilderkennung einsetzen, bei der der Teufel im Detail liegt. Wenn man aber den Abstand als Funktion eines Stromes messen kann, hat man eine recht zuverlässige Messgröße um einfache Aufgaben zu automatisieren. Zum Beispiel: “Stich mir mal diese zwanzig Zellen an, die ich markiert habe und setze jeweils 200 Farbstoffe ab.”
Es gibt also einige Grundlegende Unterschiede und vor allem Vorteile zur Microinjection. Deutlich kleinere Nadel durch die die Zelle weniger beschädigt wird. Keine Belastung der Zelle durch zusätzliches Volumen beim Absetzen von Farbstoffen durch ein elektrisches Feld. Zuschauen, wie die Moleküle in die Zelle gelangen mit Fluoreszenzmikroskopie und damit die Kontrolle über die abgelegten Moleküle. Präzise Annäherung und Positionsbestimmung der Nanopipette, Automatisierbar durch die Abstandsmessung mit Hilfe von Ionenströmen (SICM). Das sind viele Fakten, die mir am Anfang den Blick auf das Potential dieser Technik genommen haben und ich dachte erstmal “so what?”
Das was mir dann irgendwann mal hat ein Lichtlein aufgehen lassen war das Stichwort Automatisierbarkeit. Man könnte mit der Nanoinjection automatisch zwanzig Zellen ansteuern und ein bestimmtes Programm fahren und mit zwanzig anderen Zellen ein anderes, alles auf demselben Objektträger, in derselben Probe. In der Biologischen Forschung muss man für alle Experimente Kontrollen machen, das heißt unbehandelte Zellen derselben Zelllinie und derselben Charge zu jedem Experiment “mitziehen” um eine Probe des “normalen” oder “natürlichen” zu haben, eben etwas mit dem man das Experiment vergleichen kann. Mit der Nanoinjection könnte man die Kontrolle auf in ein und derselben Probe erledigen. Das mag nicht nach viel klingen, aber wenn ihr eine/n Biolog*in fragt – leuchtende Augen.
Aber das ist nicht der einzige potentielle Vorteil. Die meisten Forschungsergebnisse der Biologie oder Medizin, die mit einzelnen Zellen zu tun haben, bilden einen Mittelwert über sehr sehr viele gemessene Zellen um eine Aussage treffen zu können. Statistisch nennt man das auch Ensemble. Mit der Nanoinjection wäre es möglich, dass man vom Ensemble weg kommt und Zellen wirklich einzeln untersucht. Durch die Automatisierbarkeit der Technik und dadurch, dass die Zelle kaum etwas von der Nanoinjection merkt, wird das überhaupt erst möglich. So könnte man Effekte entdecken die in der Individualität der einzelnen Zelle begründet sind. Im Ensemble (bei dem man eben über viele Zellen mittelt) würde man diesen Effekt nicht erkennen. Mit Nanoinjection würde man diese Art von Effekt leicht detektieren können.
Es ist immer schwer vorher zu sagen welche Ergebnisse eine neue Herangehensweise in der Forschung bringen wird, ganz besonders in der biologischen und medizinischen Forschung. Auf jeden Fall spielt in der Welt des ganz kleinen die Größe immer noch eine wesentliche Rolle und ich persönlich finde die Idee Dinge mit einer Nadel zu machen, die man unter dem Mikroskop nicht sehen kann verdammt cool. Das Paper gibt es hier… leider nur closed access. Aber man kann ja den Autor anschreiben, wenn man das Paper unbedingt selbst lesen will – oder andere Tricks und Tools einsetzen die draußen im Netz so herumgeistern. Man sollte auf keinen Fall sci-hub benutzen, so wie es im Moment aussieht ist der dort angebotene Service etwas verbotenes.
Fußnoten:
* Es gibt auch noch FLAG oder HALO Tags, die genau wie GFP, mit genetischen Methoden an Proteine gebastelt werden können. Die sind teilw. kleiner als GFP, aber das Problem “funktioniert das genauso wie ohne” bleibt.
“Die Digitalisierung verändert alles.”
“Die klassischen Medien kämpfen ums überleben.”
“Die Bevölkerung ist zunehmend wissenschaftsfeindlich.”
Ist “die Bevölkerung” das? Die Bevölkerung – also alle – ist das überhaupt eine sinnvolle Kategorie und ist so eine absolute Aussage über alle vielleicht ein guter Weg die wahre Ursache zu verdecken? Müssen die klassischen Medien wirklich kämpfen? Drohen ARD und ZDF Bankrott zu gehen? Haben ZEIT, Welt und Süddeutsche keine Leser*innen mehr? Ändert die Digitalisierung wirklich alles, auch die Freiheit von Kunst und Wissenschaft? Die unantastbare Menschenwürde? Werden sich Hunde und Katzen paaren können? Um es mit den Worten von Wilson aus Hör mal wer da hämmert zu sagen: „Ich denke nicht, Tim.“
…generalisierten, absoluten Aussagen – oder um es mit einer weiteren Popkultur-Referenz auszudrücken: „Nur ein Sith kennt nichts als Extreme!“, was den Jedi-Ritter Obiwan eigentlich selbst zu einem Sith macht. Auch wenn man mit Star Wars und den Jedi nichts anfangen kann, ist das ein schönes Beispiel wie man sich durch eine starke Vereinfachung selbst austrickst. Zum Glück sind wir Wissenschaftler*innen. Wir sind kritisch und hinterfragen gerne; das gehört zur Ausbildung. Natürlich wissen wir, dass die Digitalisierung sehr viel verändert, aber natürlich nicht das Verhalten von Tieren, die Grundrechte, die Sonne, die Farbe des Hirnrnels oder die Tatsache das sich manche Betriebswirte mit Schweinebauch-Futures beschäftigen. Uns ist auch klar, dass „Die Digitalisierung ändert ein bisschen was“ eben keine Aussage ist, die Aufmerksamkeit erregt, die eine Emotion auslöst. Das bringt das Wissenschaftler*innen-sein so mit sich. Würden wir uns von Angesicht zu Angesicht gegenüberstehen, würde ich schelmisch grinsen und Sie würden wissend nicken – schließlich ist ihnen sofort aufgefallen, dass ich weiter oben „Himmel“ mit RNRN geschrieben habe. Wir sind alle ziemlich clever, und ich meine das vollkommen ohne Ironie. Wir müssen clever sein. Jeder von uns arbeitet, wenigstens teilweise, mit seiner Wissenschaft an der Forschungsgrenze, da wo man niemanden fragen kann, weil es noch keiner weiß. Und wir tun das trotz so widriger Umstände wie Drittmittelaquise, Verwaltungsarbeit, Lehrverpflichtungen, dem Druck zu Veröffentlichen und vielen weiteren Stöckchen, die einem das Hochschul- und Wissenschaftssystem in die Speichen stecken will.
Man hat ziemlich viel zu tun als Wissenschaftler*in, ziemlich viel was eigentlich gar keine Forschung ist, aber trotzdem gemacht werden muss – es muss ja alles seine Ordnung haben. Und plötzlich soll man für Geld von der EU auch noch ein Kommunikationskonzept vorlegen, eine Strategie wie man sein Forschungsvorhaben und die Ergebnisse an die Öffentlichkeit vermittelt. Auf Bundesebene wird so etwas auch gerne gesehen, wenn auch noch nicht so explizit verlangt, wobei von dort immer mehr Töne in Richtung Dialog mit Bürgern*innen und sogar Bürger*innenbeteiligung zu vernehmen sind. Das klingt bedrohlich in unseren Ohren, nicht wahr? Sehen wir der Realität ins Gesicht: Wissenschaftler*innen haben viel mehr mit Garth aus Wayne‘s World gemein als wir zugeben wollen.
Ich könnte jetzt mit der moralischen Keule um die Ecke kommen, und sagen, dass es sich für ein steuerfinanziertes Ding wie Forschung gehört, dass man da auch offen legt was man getan hat und der Steuerzahler*in über den Prozess und spätestens das Ergebnis zu informieren hat. Ich mag diese moralische Keule eigentlich nicht, weswegen ich den vorherigen Satz auch mit „Ich könnte…“ eingeleitet habe. Das macht die moralische Keule weniger schmerzhaft und trotzdem schlägt sie zu. Hin und wieder ist ein Perspektivwechsel keine schlechte Idee.
Aber nachdem ich jetzt knapp 560 Wörter um den heißen Brei herum geschlichen bin, möchte ich dieses wenig respektvolle und prätentiöse Spiel mit Sprache sein lassen. Ich habe sehr viel meiner Forschungsarbeit nach außen kommuniziert und dadurch viele Vorteile und schöne Erlebnisse erfahren. Ich habe angefangen Twitter zu nutzen und musste überrascht feststellen: Dieses soziale Medium bringt mich als Wissenschaftler weiter. Ich kann mich mit anderen aus meinem Forschungsfeld sehr gut vernetzen, ich knüpfe neue Kontakte ohne direkte Begegnungen im echten Leben, ich kann Konferenzen folgen ohne anwesend zu sein und ich erfahre früher von Veröffentlichungen in meinem Feld als das die Alerts bei diversen Journalen für mich leisten. Ich begann zu bloggen und stellte fest, dass ich längst nicht alles aus meinem Feld weiß, dass ich oft Schwierigkeiten habe die grundlegenden Dinge präzise und einfach zu erklären, dass ich mir das ein oder andere wohl lieber nochmal genauer durchlese. Ich bin dadurch reflektierter und besser geworden was das Erklären angeht, aber auch was die Herangehensweise bei der Forschung selbst betrifft, besonders im interdisziplinären Kontext. Ich habe mich wiederholt vor ein Laienpublikum gestellt und über meine Arbeit in der Wissenschaft erzählt, aber auch andere spannende Dinge aus der Forschung genommen und sie in eine Geschichte gepackt, der man gerne zuhört. Neben interessierten Nachfragen und Anerkennung dafür habe ich vor allem festgestellt, dass mir dies dabei hilft festzustellen worüber ich noch nicht ausführlich genug nachgedacht habe. Einige Funktionen und Prozesse des Mikroskops, das ich im Rahmen meiner Doktorarbeit gebaut habe, würden heute nicht existieren, wenn ich nicht gezwungen gewesen wäre mein Projekt in sehr einfachen Worten einer Vielzahl von Laien zu erklären. Erst das Nachdenken über die Vereinfachung hat mir gezeigt an welchen Stellen noch Verbesserungen möglich sind, die das Projekt selbst voranbringen konnten. Als Wissenschaftler*in muss man hinterfragen – vor allem sich selbst. Ein paar Schritte nach außen gehen hilft dabei.
Jede/r Wissenschaftler*in ist anders, jede/r hat andere Vorstellungen und Gewohnheiten. Ich würde niemandem vorschreiben wollen Twitter, Blogs und Bühnen zu nutzen, weil das bei mir so toll funktioniert hat*. Es gibt so viel mehr Möglichkeiten, aber man muss ein bisschen offen sein, ein bisschen fragen und ein wenig Vertrauen haben in die professionellen Kommunikatoren der eigenen Einrichtung – um sich etwas leiten zu lassen. Ob die Bühne, Twitter oder anderes wirklich nicht zu einer Persönlichkeit passen, kann man erst wissen, wenn man es ausprobiert hat. Und selbst wenn man feststellt, dass dieses oder jenes nichts für einen selbst ist, vergessen sie niemals: Extreme Aussagen sind der Weg zur dunklen Seite der Macht.
Fußnoten:
* toll funktioniert = ich bin zufrieden.
Allerdings war ich Anfang Dezember auf dem 8. Forum Wissenschaftskommunikation. Dort hatte ich eine Session eingereicht, zusammen mit einer wundervollen Kollegin und tollen Kollegen, die wir “Der kommunizierende Wissenschaftler – das (un)bekannte Wesen” genannt haben. Die Voice Republic hat die komplette Session mitgeschnitten und sie zum nachhören bereit gestellt:
Session “Der kommunizierende Wissenschaftler – das (un)bekannte Wesen” bei Voice Republic
Mit von der Partie waren
Das wollte ich euch dann doch nicht vorenthalten. Zwischen Weihnachten und Neujahr werde ich zum ersten Mal auf dem Choas Communication Congress 32c3 sein. Ich habe auf jeden Fall ein Mikroskop im Gepäck und vielleicht sieht man sich dort – ich würde mich freuen. Zum Abschluss ein Bild, dass Nicolas beim Forum von uns gemacht hat:
]]>Der YouTube-Kanal 100SekundenPhysik tut ziemlich genau das, was sein Name verspricht: Kurz und knackig erklärt er Physik. Auch in diesem Video: Zunächst erklärt es, warum man überhaupt etwas sieht, und erläutert bei der Gelegenheit einige der teilweise nicht leicht zu verstehenden Konzepte und Fachbegriffe der Optik – in einer gelungenen Mischung aus eingängigen Zeichnungen und den Erklärungen des Sprechers Leon Baar.
Es geht um nichts weniger als die Frage, wie man sich unsichtbar machen kann. Baar demonstriert, dass ein Tarnanzug, der die elektromagnetischen Wellen des Lichts absorbiert, zwar im ersten Moment nahe liegt, aber trotzdem keine gute Idee wäre: Denn in diesem Fall würden wir einen schwarzen Fleck an der Stelle sehen, an dem sich der Träger des Anzugs befindet. Die Lösung: Licht um das Objekt oder das Lebewesen herumlenken, das unsichtbar werden soll, und es anschließend wieder auf die ursprüngliche Bahn bringen. Wissenschaftlern sei das mit Hilfe von so genannten Metamaterialien schon gelungen – dummerweise nicht mit sichtbarem Licht, sondern nur mit elektromagnetischen Wellen im Mikrowellenbereich.
Ein ganz kleiner Wermutstropfen im Video ist, dass man über die dort angesprochenen neuen Erkenntnisse der Wissenschaft nichts genaueres erfährt, sodass wir uns selbst auf die Recherche begeben haben. Dabei wurde schnell klar: Es braucht sehr spezielle Materialien, um Licht um Objekte herumzulenken. Und bislang gelingt das, wenn überhaupt, nur in 2D. Dann ist ein Objekt von der Seite her gesehen zwar tatsächlich “unsichtbar” – aber weiterhin zu sehen, wenn man es von oben betrachtet.
Wo also kann man mehr lesen? Sehr viel zu Tarnkappen erfährt man in Physikalische Tarnkappen, einem ausführlichen Spektrum-Artikel vom Januar 2014 (€). Über das Material Vantablack, das fast alles Licht verschluckt und auf das Baar anspielt, ist in dieser Spektrum.de-Meldung vom Juli 2014 mehr zu lesen: Schwärzestes Material der Welt macht Dinge nahezu unsichtbar. Die aktuellste Meldung Tarnhaut mit kleinen Schwächen ist sogar nur ein paar Wochen alt.
Übrigens gibt es auch ein nettes Experiment dazu, wie es sich eigentlich anfühlt, unsichtbar zu sein – das ist eine psychologische, aber auch eine moralische Frage (Spektrum.de, April 2015).
Doch zurück zum Video: 2014 wurde es beim Video-Wettbewerb Fast Forward Science in der Kategorie “Scitainment” völlig zu Recht auf Platz drei gewählt und landete beim Community Award sogar auf dem ersten Platz. Leon Baar hat mit seinem Kanal schon 2012 begonnen – damals war er 16 und ging noch zur Schule. Im deutschsprachigen Raum gehört 100SekundenPhysik zu den größeren Angeboten auf YouTube und ist in jedem Fall ein Besuch wert, auch wenn er zum Mediakraft-Netzwerk gehört, an dem in den letzten Jahren von vielen Seiten Kritik geübt wurde.
]]>Vom 30. November bis 02. Dezember 2015 ist das achte Forum Wissenschaftskommunikation in Nürnberg.
Ich bin voller Vorfreude auf das achte Forum Wissenschaftskommunikation. Das ist eine Tagung von Wissenschaft im Dialog, die jedes Jahr im Herbst statt findet und sich genau mit dem beschäftigt, was der Titel verspricht: mit Wissenschaftskommunikation. Das Publikum dort ist divers, viele Wissenschaftskommunikatoren die an Instituten und Universitäten arbeiten sind dort, aber auch Wissenschaftsjournalisten, Menschen von Stiftungen und einige andere. Für meinen Geschmack war in den letzten Jahren der Anteil von Wissenschaftlern nicht besonders groß. Deswegen haben die beiden Jungs von Methodisch Inkorrekt!, Nicolas Wöhrl und Reinhard Remfort und ich uns überlegt mal eine Session einzureichen. Zusammen mit der großartigen Lydia Möcklinghoff (ihr Buch) und Michael Doser (AEgIS Experiment CERN) gibt es von uns am Mittwoch den 02.12.2015 um 9 Uhr die Session “Der kommunizierende Wissenschaftler – das (un)bekannte Wesen”.
Man kann fast der kompletten Konferenz auch von zu Hause aus folgen. Die Voicerpublic überträgt die meisten Sessions im Stream und stellt auch das Audiomaterial zum nachhören bereit:
https://voicerepublic.com/users/Wissenschaft-im-Dialog
]]>Der kommunizierende Wissenschaftler – das (un)bekannte Wesen
Es gibt sie, die kommunizierenden Wissenschaftler. Meistens sind es Einzelkämpfer, die versuchen ihre Leidenschaft “Forschung” mit der Öffentlichkeit zu teilen. Die Referenten beschäftigen sich mit Podcast, YouTube-Videos, Crowdfunding, Citizen Science, populärwissenschaftlichen Büchern, Vorträgen und vielem mehr. Diese Session ist eine Einladung zu Diskussion und Dialog: „Das machen wir. Das könnten wir an Unterstützung gebrauchen. Was erwartet ihr von uns?“
Referenten:
Prof. Dr. Michael Doser, AEgIS Experiment – CERN, CH
Lydia Möcklinghoff, Zoologisches Forschungsmuseum Alexander Koenig
Reinhart Remfort, Center for Nanointegration Duisburg-Essen (CENIDE)
Dr. Nicolas Wöhrl, Center for Nanointegration Duisburg-Essen (CENIDE)
Spätestens anlässlich der Entdeckung des Higgs-Teilchens am Large Hadron Collider (LHC) am Europäischen Kernforschungszentrum CERN dürfte jeder einmal von einem Teilchenbeschleuniger gehört haben. Diese riesigen Geräte wurden gebaut, um den kleinsten, bekannten Dingen auf den Grund zu gehen: den Elementarteilchen. Von ihnen und von dem Wissenshunger der Forscher, den sie stillen sollen, erzählt dieses Video, das der Hobbyfilmemacher Stefan Müller komplett mit Stop-Motion-Technik und Lego gedreht hat. Ein adrett gekleideter Moderator aus Lego führt denn auch durch den kurzen Film.
Die Reise zu mehr Wissen über das Elementarste beginnt mit der Idee kleinster und vermeintlich unteilbarer Teilchen, die in der Antike aufgekommen ist. Sie geht weiter über Lichtmikroskope bis hin zum Elektronenmikroskop. Metaphern und Schaubilder, ebenfalls aus Lego, führen zu den Fragestellungen und Problemen eines modernen Teichenbeschleunigers. Treffend wird die zu Grunde liegende Technik erklärt, auch Magnetismus und Elektrostatik erläutert das Video gekonnt – Letztere sogar mit einem kleinen Experiment des Legomoderators selbst. Zudem bekommt man einen kleinen Einblick in die Arbeit und das Wirken von Teilchenphysikern. Der aus Legosteinen gebaute Hintergrund des Film stellt nämlich nichts weniger als das CERN selbst dar. Knapp fünf Minuten Video machen Lust darauf, mehr über Teilchenbeschleuniger zu erfahren – oder zu überlegen, wo denn wohl die Kiste mit den Legosteinen von früher sein könnte.
Der Filmemacher Stefan Müller ist ein Pfälzer Mathelehrer und Legoenthusiast, der schon einige Filme mit den berühmten Plastikklötzen gemacht hat. Seit zehn Jahren spielt er mit Stop-Motion-Technik, mit Lego und mit dem Medium Film herum und verbucht durchaus beachtliche Klickerfolge. Der hier besprochene Film “Brickscience TV – Teilchenbeschleuniger” hat nun völlig zu Recht 2015 den ersten Preis beim Webvideowettbewerb Fast Forward Science in der Kategorie “Scitainment” erhalten.
Stefan Müller
Homepage des Filmemachers
Fast Forward Science 2015 – die Gewinner
1. Preis in der Kategorie “Scitainment”
Mikroskopaufnahmen von trocknendem Leitungswasser
Man sagt ja manchmal “Das ist so spannend wie Farbe beim trocknen zu beobachten”. Mit dem unbewaffneten Auge ist das sicher eine sehr langweilige Angelegenheit. Wenn man sich das allerdings vergrößert anschaut, bietet sich ein ganz anderes Bild. Die Universität Nottingham hat das getan, in der Reihe Sixty Symbols gibt es ein Video von trocknender Farbe. Eigentlich eine gute Idee für einen neuen Beitrag in der Dinge unter’m Mikroskop Reihe.
Ich hatte leider keine Farbe zur Hand und besitze auch kein Phasenkontrastmikroskop um solche Bilder aufzunehmen wie Brady Haran für Sixty Symbols. Aber ich wohne in Berlin, und wir haben hier Leitungswasser mit relativ viel Kalk. Tatsächlich sind die Bilder eines trocknenden Wassertropfens wirklich schön geworden.
In diesem Video habe ich einen knapp 3,5 mm Wassertropfen in einer kleinen Glasschale präpariert. Das Mikroskop hat mit seinen acht LEDs den Tropfen von unten beleuchtet. Wie dieser Aufbau aussieht kann man sich weiter unten anschauen. Es hat knapp 20 Minuten gedauert bis der Tropfen komplett getrocknet war, daher ist das Video 48-fach beschleunigt.
Das Berliner Wasser ist im allgemeinen sehr “hart”, dass heißt es sind relativ viele Ionen der Erdalkalimetalle, wie zum Beispiel Calcium oder Magnesium, darin gelöst. Der Wikipedia-Artikel über Wasserhärte ist recht ausführlich – den kann ich, für mehr Details dazu, nur empfehlen. Übrigens bieten die Berliner Wasserbetriebe Analysedaten des Leitungswassers nach Postleitzahlen an.
Ich hab auch eine Detailaufnahme vom Rand eines Wassertropfens gemacht, der ein wenig kleiner war als der aus dem ersten Video. Daher ist diese Aufnahme nur um das 28-fache beschleunigt. Man kann hier schön sehen wie sich ein Kalkfleck bildet, und bekommt auch einen Eindruck davon, wie farbenfroh dieser sonst so schmutzig weiß erscheinende Fleck eigentlich ist, wenn man mal genauer hinschaut. Wie der ganze Aufbau von außen ausgesehen hat, kann man sich hier anschauen:
Vom Standpunkt der Lichttechnik her betrachtet sind solche Videos ein bisschen aufwendiger als man meint. Die eingebauten LEDs des USB-Mikroskops reichen oft nicht aus, weswegen ich meistens noch mit einer sehr hellen Taschenlampe und meiner Schreibtischlampe von der Seite auf die Probe leuchte.
Ich würde mich über Vorschläge für Dinge unter’m Mikroskop sehr freuen. Ein paar Dinge habe ich noch auf der Liste und der nächste Teil wird sich auf jeden Fall mit den Abnutzungserscheinungen an Injektionsnadeln beschäftigen, wie es in den Kommentaren bei Dinge unter’m Mikroskop IV – Nadeln und Kanülen vorgeschlagen wurde. Mich würden auch Kommentare zur Video-Technik sehr glücklich machen, denn im Moment nehme ich das Bewegtbild vom Mikroskop mit VirtualDub auf und mache auch damit die Nachbearbeitung. Wenn jemand eine andere, etwas Benutzerfreundlichere Software kennt, die Bildsignale vom USB-Port aufnahmen kann, wäre ich für einen Hinweis dankbar.
]]>The Rosetta Mission from Royal Observatory Greenwich on Vimeo.
Rosetta war wohl diejenige Weltraummission, die 2014 für das größte öffentliche Interesse gesorgt hat. Vom über ein Jahr verspäteten Start 2004 über den Winterschlaf der Sonde und ihre Reaktivierung bis hin zum Absetzen der Landeeinheit Philae gab es auf dieser Mission der Europäischen Weltraumorganisation (ESA) gleich mehrere markante Stationen. All dies wird vom Royal Observatory Greenwich in diesem Knetfigurenvideo im Schnelldurchlauf zusammengefasst.
Das Video ist zwar nur kurz. Doch die knapp über zwei Minuten machen neugierig auf die Erkenntnisse und Abenteuer von Rosetta und Philae. Auch einige der Dinge, die man über den Kometen 67P/Churyumov-Gerasimenko herausgefunden hat, werden kurz angerissen. Am Ende gibt es noch einen kleinen Ausblick, wie die Erkundung von Kometen unseres Sonnensystems weitergehen wird.
Eine solche gut gemachte Zusammenfassung der Rosetta-Mission war eigentlich überfällig. Gerade die Probleme der Landesonde Philae, deren Harpunen versagten und die sich darum nicht auf der Oberfläche des Kometen verankern konnte, nahmen viele als Misserfolg wahr. Und das ist wirklich schade: Denn eigentlich führte gerade dieser kleine Fehler dazu, dass die hüpfende Sonde den Wissenschaftlern mehr Informationen über die Oberfläche liefern konnte als geplant.
Vor allem sollte man betonen: Eine Sonde auf eine zehn Jahre lange Reise zu einem Kometen zu senden, sie auf eine Umlaufbahn zu bringen und eine Landeeinheit auf der Oberfläche des Himmelskörpers abzusetzen, das sind gleich drei Dinge auf einmal, die noch nie versucht worden sind. Man könnte fast von einem Erfolg wie bei Apollo 13 sprechen, wo eine Explosion zum vorzeitigen Missionsabbruch führte: Nicht alle gesetzten Ziele wurden erreicht, es gab Probleme, aber am Ende hatte man mehr Erkenntnisse gewonnen, als man sich erhofft hatte.
Mir persönlich fehlt nur der ein oder andere weiterführende Link. Das liegt aber wohl daran, dass das Royal Observatory Greenwich, das dieses Video produziert hat, nicht direkt an der Rosetta-Mission beteiligt ist. Ein deutsche Version wäre ebenfalls schön gewesen, ist wohl aber etwas viel verlangt von einem englischen Observatorium. Trotzdem: ein tolles Video für Groß und Klein, dass man sich auf jeden Fall anschauen sollte.
Kometenmission Rosetta: Auf der Suche nach der Urmaterie
Zusammenfassung der Rosetta-Mission auf der ESA-Website (24.03.2014)
ESA Euronews: Mission Rosetta – Auf der Suche nach dem Ursprung des Lebens
Film der ESA über die Kometenmission
Historische Landung
Video des DLR auf SciViews.de zur historischen Kometenlandung (21.08.2015)
Ich hab mir angesehen was beim Science Hack Day Berlin 2015 so alles an tollen Tüfteleien herausgekommen ist.
Seit 2013 gibt es in Berlin den Science Hack Day. Erfunden wurde diese Variante eines Hackathon erst 2010 in San Francisco. Die letzten zwei Jahre habe ich in Berlin aktiv daran teilgenommen, habe an der #SpitLamp mitgearbeitet und mit Martin Ballaschk* versucht ein günstiges Spektrometer, den #instrarainbow zu basteln (Erste Messungen hier).
Dieses Jahr habe ich nicht mitgemacht sondern habe nur am Eröffnungsabend ein bisschen was dazu erzählt, dass hacken auch Wissenschaft ist. Das war praktisch eine Kurzform von dem was ich auch schon auf der re:publika 2015 erzählt habe, was man im Artikel Basteln ist auch Wissenschaft (#rp15) nachlesen kann. Auf jeden Fall waren die pitches, also die Vorschläge von einzelnen Teilnehmern was sie gerne basteln wollen würden, sehr interessant. Neben den Vorhaben eine Polymerase-Kettenreaktions-Maschine (PCR) oder ein Rastertunnelmikroskop zu bauen, gab es noch viele andere Ideen. Vor allem hat mich die Idee von World Brain sehr fasziniert, bei dem ein Browser-Plugin heraus kommen soll, dass einem hilft die Fakten in einem Artikel im Internet zu checken. Auf jeden Fall war nach dem Pitches im FabLab Berlin jede Menge los, es wurde diskutiert, gequatscht und gefachsimpelt, wie man im Foto unten sehen kann.
“You don’t have to be a scientist, you don’t have to be a hacker, you just have to be excited!” – Ariel Waldman, Science Hack Day Gründerin
Die Teilnehmer hatten von Freitag Abend bis Sonntag Mittag Zeit ihre Projekte umzusetzen, zwischendurch gab es auch ein bisschen Zeit-hacking, schließlich wurde von Samstag zu Sonntag die Uhr eine Stunde zurück gestellt. Am Sonntag Nachmittag war ich denn wieder im Innovation Space des FabLab Berlin. Um 15 Uhr sollten die verschiedenen Hacks der Öffentlichkeit vorgestellt werden. Aber nicht nur das, es waren auch einige Juroren dort um in unterschiedlichen Kategorien Preise zu vergeben, zum Beispiel für den härtesten oder den wissenschaftlichsten Hack.
Ich hab versucht bei den abschließenden Präsentationen alles mitzuschreiben und auch einige Fotos zu machen. Ich hab aber längst nicht alles mitbekommen, denn jede Präsentation war lediglich 4 Minuten lang. Also: Schlagt mich bitte nicht, wenn irgendetwas zu knapp oder ungenau ist. Alle Teilnehmer sind herzlich dazu eingeladen hier in den Kommentaren mein Geschreibsel zu ergänzen und/oder richtig zu stellen. Auch auf der Webseite vom Science Hack Day Berlin wird es sicher in einigen Tagen ein paar ausführlichere Berichte geben.
Ein Gerät, das Zähneknirschen detektieren und dokumentieren kann. Mit einem Muskelsensor und einem Mikrophon wird festgestellt ob der Träger mit den Zähnen knirscht. Diese Gruppe wird ihren BRUXI, abgeleitet von Bruxismus, dem Fachwort für Zähneknirschen, noch weiter entwickelt. Eventuell könnte ein Schläfer durch Virbation oder Lichtsignale benachrichtig werden, aber was genau mit dem Teil passieren wird, steht noch nicht fest. Auf jeden Fall kann man sagen: Bisher gibt es so ein Gerät wohl noch nicht. (Publikumspreis)
Muskelbewegungen und Gehirnströme wurden gemessen und aufgezeichnet. Für ein kurzes Zeitfenster werden so, für jede Messung individuelle Parameter aufgezeichnet, die benutzt werden um daraus einen Bauplan für einen kleinen Turm aus drei Klötzen zu generieren. Dieser kann dann in einem 3D Drucker ausgedruckt werden. (Preis: Best Art/Science Hack)
Diese Gruppe hat sich die Frage gestellt “Was wäre wenn wir einen künstlichen Muskel in einem 3D Drucker ausdrucken könnten? Wäre dann der Bau von Robotern nicht viel einfacher?”. So richtig sind sie aber nicht zu einem konkreten Ergebnis gekommen, was für einen Science Hack Day auch kein Muss ist. Die Gruppe selbst fasste es mit “Failing fast = Learning fast” zusammen, also “schnell gescheitert = schnell gelernt”. Dafür haben sie sich intensiv damit beschäftigt wie Muskeln auf molekularer Ebene funktionieren, in dem sie die bteiligten Moleküle genauer betrachtet haben. In einem 3D Drucker wurden Teile von Aktin-Filamenten und von Myosin ausgedruckt (siehe Bild rechts). (Preis: Best Health Hack)
Extreme Wetterlagen Frühwarnsystem. Bei dem Projekt ging es darum aus Resonanzeffekten die bei den Jetstreams auftreten Vorhersagen für extreme Wetterlagen zu generieren. Die beteiligten KlimaforscherInnen brachten die Daten und das Know-How über diese Phänomene mit und fanden ein paar Programmierer/Künstler die zwei schöne Anwendungen für die Visualisierung geschrieben haben. Zum Frühwarnsystem ist die Gruppe nicht vorgestoßen, in der knappen Zeit des Hackathon, aber es wird wohl weiter daran gearbeitet. Die Darstellung der Erde in einer 3D Animation, auf der die aktuellen Winddaten gezeigt wurden, fand ich wirklich sehr beeindruckend.
Die Gruppe bekam von jemandem einen Scanner geschenkt, der wohl irgendwo an einer Straßenecke lag. Dieser wurde umgebaut, so das Bakterienkulturplatten darauf platz finden und so alle 15 Sekunden ein Bild von den wachsenden Kulturen angefertigt werden kann. (Preis: Best Science Hack)
Ein Holzkasten mit Karte und einer kleinen Bahn darauf soll visualisieren wann die nächste Bahn kommt, spezifisch für die eigene Haltestelle. Der Programm-Code dazu steht frei zur Verfügung auf GitHub. Leider war ich zu langsam um den Namen mit zuschreiben. (Preis: Best Design Hack & Publikumspreis)
Ziel war es eine Lernhilfe zu basteln, die einem bei der Konzentration hilft, indem Hirnaktivität gemessen wird. Zur Präsentation war die Gruppe immerhin so weit, dass sie einige Daten über den Pulsschlag am Kopf auslesen konnten.
Die Gruppe hatte sich vorgenommen eine Evolutionsmaschine zu bauen. Das sind Bioreaktoren, die zum Beispiel Bakterien unter kontrollierten Bedingungen über viele Generationen wachsen lassen können. Wenn man währenddessen noch Giftstoffe den Bakterien beimischt, besteht die Hoffnung das eine späte Generation von Bakterien sich an das Gift angepasst hat und es auffressen kann. Die Gruppe hat schon eine eigene Webseite gebastelt, die wohl deutlich besser beschreibt was sie vor haben als ich das hier gerade getan habe.
Oder um es viel kürzer auszudrücken: CO2GLE. Es kam ein Browser-Plugin dabei heraus, dass dem Benutzer anzeigt wie viel CO2 seine Internetaktivitäten zu verzeichnen haben. Im Browser wurde das in einem kleinen extra Fenster in Form von Club Mate Flaschen dargestellt. Es hab aber auch noch eine elektrische Luftpumpe, die in Abhängigkeit der Downloadmenge ein Kondom aufgeblasen hat. Der Code ist auf GitHub zu finden, falls jemand Interesse daran hat die Entwicklung weiter zu treiben. (Preis: Best Data Hack)
Die Gruppe hatte sich vorgenommen so etwas wie einen automatischen Fakten-Checker für Artikel zu entwickeln. Das könnte auch ein Werkzeug sein um herauszufinden wer Mythen und wer Fakten im Internet verteilt. Das ganze Thema ist kompliziert, wird aber auf der zugehörigen Internetseite worldbrain.io hervorragend erklärt.
Hier wurde quasi ein Werkzeugkasten für die interdisziplinäre Forschung an Empathie entwickelt, mit einigen design-thinking Elementen. Eine Idee dabei war zum Beispiel die Sinneseindrücke mit einer anderen Person zu tauschen, mit Hilfe von technischen Geräten. Ich fand die Idee ausgesprochen faszinierend, aber bekomme die Einzelheiten im Nachhinein nicht mehr zusammen. (Preis: Best Interaction Hack)
Ein Thermocycler für die Polymerase-Kettenreaktion ist ein Standardgerät für jedes Biolabor. In der Richtung gibt es schon viele offene Projekte wie OpenPCR, ein Projekt im Open BioLab Graz und noch andere. Der Prototyp funktionierte bereits, auch die Software, die das Gerät angesteuert hat. Die Materialkosten belaufen sich hierfür auf unter 100 Euro. Gar nicht schlecht, wenn man bedenkt, dass ein kommerzielles Gerät nur für einen nicht gerade niedrigen, vierstelligen Betrag zu haben ist. (Preis: Best Hardware Hack)
Diese Gruppe hatte es sich wirklich in den Kopf gesetzt ein Rastertunnelmikroskop zu basteln. Theoretisch sollte das mit einfachen Mitteln möglich sein, andere hatten schon früher so ein Gerät gebaut. Am Ende konnten sie zwar kein Bild zeigen, aber hatten bei einer Messung schon einen kleinen Anstieg im Tunnelstrom bemerkt. Die Gruppe will weiter machen, und ich werde auch zusehen, dass ich erneut von diesem Projekt berichte. Das ist ja schließlich auch eine Art Mikroskop. (Preis: Hardest Hack)
Neben einigen Juroren von diversen Einrichtungen, könnte auch das Publikum für seinen liebsten Hack abstimmen. Und das auf eine recht ungewöhnliche Art und Weise. Die Organisatoren des Science Hack Day hatten mit Hilfe eines Makey Makey ein Abstimmungsgerät gebastelt, bei dem man eine Hand in einen Eimer mit Glibber tauchen musste und die andere Hand einen beschrifteten Pilz (oder in einem Fall eine Banane) berühren musste, und das ganze zehn Sekunden lang, um so seine Stimme ab zu geben. Auf dem Bild unten kann man das Gerät bei der Benutzung betrachten.
Das Science Hack Day Team kann Unterstützung und Verstärkung gut gebrauchen. Wer Lust hat mit zu machen kann auf der Science Hack Day Seite vorbei schauen, ihnen direkt eine Mail schicken unter shd@opentechschool.org oder bei einem der Science Hacking Meetups einfach mal aufkreuzen.
Fußnoten:
* Martin Ballaschk schreibt auch ein tolles Blog!
]]>Ich habe ein öffentliches Fachgespräch über Wissenschaftskommunikation des Ausschusses für Bildung, Forschung und Technikfolgenabschätzung besucht.
Ich wohne jetzt schon fast fünf Jahre in Berlin, aber habe nie die Gelegenheit genutzt mal im Regierungsviertel bei einer öffentlichen Sitzung oder Anhörung dabei zu sein. Das habe ich heute geändert, denn heute morgen, am 14. Oktober 2015 um 9:30 war ein Öffentliches Fachgespräch zum Thema “Stand und Perspektiven der Wissenschaftskommunikation” im ständigen Ausschuss für Bildung, Forschung und Technikfolgenabschätzung des Bundestags.
Ich war eigentlich pünktlich da, aber dann doch etwas spät im Sitzungssaal. Zwar hatte ich mich für das öffentliche Fachgespräch angemeldet, aber um in das Paul-Löbe-Haus hinein zu kommen, musste ich zunächst durch einen Sicherheits-Check. Mantel, Rucksack und Metallgegenstände sollte ich ablegen. Die wurden – wie am Flughafen – durch eine Röhre gefahren und durchleuchtet, und ich durfte durch einen Metalldetektor schreiten. Dummerweise hatte ich, zu dieser recht früher Stunde, ein stark koffeinhaltiges Erfrischungsgetränk in einer Glasflasche bei mir, die ich dann am Eingang zurück lassen musste. Aber im Gegensatz zum Flughafen durfte ich mir die Flasche beim Verlassen des Gebäudes wieder abholen. Generell waren die Menschen dort am Eingang sehr freundlich und hilfsbereit; kurz fragte ich mich, ob ich hier wirklich richtig war*.
Nachdem ich nun wirklich hinein durfte, musste ich warten, zusammen mit einigen Anderen, die ebenfalls zu diesem öffentlichen Fachgespräch wollten. Wir sollten abgeholt werden, einfach durch das Paul-Löbe-Haus zu stromern, auf eigene Faust, dass war nicht drin. Aber auf den netten jungen Herren, der uns abholen sollte, mussten wir nicht all zu lange warten. Schließlich durften wir uns dann auf der recht schmalen Empore des Sitzungssaals einen Platz suchen, die schon recht gut gefüllt war. Anscheinend war ich längst nicht der Einzige, der Interesse an dieser Geschichte hatte.
Es waren sieben ExpertInnen zum Thema eingeladen worden:
Vorab haben diese geladenen ExpertInnen auch Stellungnahmen verfasst, die man auf der Seite dieser Sitzung als Links zu PDFs nachlesen kann, genauso wie den Siggener Aufruf oder einen ersten Entwurf von Leitlinien für gute Wissenschafts-PR, an denen ich mitgewirkt habe. Die PolitikerInnen des ständigen Ausschusses sind hier aufgeführt – es waren auch so gut wie alle da*.
Es ist gar nicht so leicht die zweieinhalb Stunden zusammen zu fassen, denn es wurden viele Themen angesprochen, teilweise auch nur kurz gestreift. Es ging vor allem darum, dass sich die MdBs bei den ExpertInnen informieren können. Grundsätzlich hatte ich den Eindruck, dass alle sehr interessiert und aufmerksam waren und Fragen gestellt wurden, die auf eine durchaus intensive Auseinandersetzung mit dem Thema Wissenschaftskommunikation schließen ließ*.
Eine große Rolle spielte das Thema citizen science und Partizipation in der Wissenschaft, was übrigens auch schon im Koalitionsvertrag steht. Von Expertenseite wurde dazu vor allem gesagt, dass es dabei nicht darum gehen darf, dass die Wissenschaft einfach mehr Daten durch die Mitarbeit von Bürgern bekommt, sondern das diese Bürger auch in den Prozess mit einbezogen werden, dass verstanden werden kann wie das geht, mit dieser Wissenschaft, und dadurch auch Verständnis für die Wissenschaft geweckt werden kann. Es wurde auch heraus gestellt, dass in der Wissenschaft selbst diese neuen Entwicklungen in der Wissenschaftskommunikation, wie citizen science, teilweise noch gar nicht angekommen oder richtig verstanden worden sind. Aber das gilt auch für den korrekten Umgang mit social media oder der Berücksichtigung von Ängsten und Sorgen von außen, um nur zwei weitere Beispiele zu nennen. Dr. Steffi Ober hat etwas sehr wichtiges gesagt, dass mir so auch noch nicht klar gewesen ist: Bestrebungen, dass jeder Bürger sich mit der Wissenschaft auskennt sind gut und schön, aber das wird nicht funktionieren solange da keine Verankerung in der Kultur gegeben ist, sich keine Konflikte und Reibungsflächen zeigen und das Bild nach außen immer so steril und sachlich gehalten wird. Wenn der Bürger Technologie-offen sein soll, dann sollte man auch offen kommunizieren und auch mal Probleme ansprechen.
Ob ein Wissenschaftsfeld relevant ist, war auch ein wichtiger Punkt. Dazu kann man aus dem Gespräch festhalten, dass Relevanz vor allem vom Bürger kommt und man die Rückmeldung auch nicht einfach ignorieren kann. Empfohlen wurde auch, dass die Politik Abstand von ihren Leuchtturmprojekten nehmen sollte. Wenn man Bürger erreichen will, dann muss man das vor Ort, kleiner und zielgerichtet tun, und nicht ein riesiges Konzept mit Geld bewerfen. Es wurde klar gesagt, dass der Wettbewerb in der Hochschullandschaft ganz grundsätzlich viele Bestrebungen der Wissenschaftskommunikation antreibt und das KommunikatorInnen, besonders die in den Institutionen, auch die Rückendeckung der Politik brauchen, wenn sich gegen ein stumpfes “geben sie das mal an die Presse raus, wir haben nämlich gerade Geld bekommen” gewehrt werden soll. Auch wurde eine Warnung ausgesprochen: Ruhen sie sich nicht auf dem Wissen aus, dass die Digitalisierung jetzt da ist, das dicke Ende kommt noch! Was immer größere Rechenleistung und das Internet für Auswirkungen auf die Wissenschaft und die Wissenschaftskommunikation haben werden, ist zur Zeit kaum ab zu sehen.
Es wurden noch einige andere Sachen angerissen, aber ich beschränke mich jetzt auf diesen kurzen Ritt durch mein Gedächtnisprotokoll. Der Vollständigkeit halber möchte ich noch erwähnen, dass die Punkte open access, Wissenschaftskommunikation an Kinder und die Befähigung von Wissenschaftlern zur Kommunikation auch angesprochen wurden, allerdings viel zu kurz für meinen Geschmack. Aber ihr müsst euch nicht nur auf meine paar Zeilen Text verlassen, ihr könnt euch das komplette Fachgespräch als Video ansehen. Kurz nachdem die Sitzung zu Ende war, stand die Aufzeichnung schon im Netz zur Verfügung*.
Da ich einige Probleme mit dem einbetten des Videos hatte, ist hier der Permalink zum Video in der Mediathek des Bundestags.
Eine Sache habe ich allerdings noch, aber die wollte ich mir für den Schluss aufbewahren. Es wurde von Jan-Martin Wiarda gesagt, dass man sich Sorgen machen muss um die Situation des Wissenschaftsjournalismus, dass sich darum gekümmert werden muss. Er wies dabei auf Bestrebungen hin, den Wissenschaftsjournalismus in Deutschland mit einer Stiftung zu unterstützen. Wenn Verlage sich diese Art von Journalismus nicht mehr leisten wollen, dann muss von irgendwo anders Geld kommen. Weiter führte er aus, dass viele Fernsehformate (oder Massenmedien, wie es hieß) ihre Themen aus den großen Printmedien bekommen würden und er sagte auch, dass für die großen Zeitungen ein science media center für Deutschland wohl keine Bedeutung hat, das es aber praktisch für kleinere Lokalzeitungen sein könne. Übrigens wird das scence media center für Deutschland Anfang 2016 seinen Betrieb aufnehmen.
Dem möchte ich etwas entgegnen, denn diese Aussagen haben mich ein bisschen aufgeregt. Man sollte sich vielleicht auch einmal trauen darüber nachzudenken, ob der sehr präsente Wissenschaftsjournalismus der letzten zwei Jahrzehnte nicht nur ein Extremfall war, und wir aktuell nicht mit einem schwachen Wissenschaftsjournalismus umgehen müssen, sondern das wir es mit dem Normalfall zu tun haben. Nur mal als kleines Gedankenexperiment. Damit will ich nicht sagen, dass ich das toll finde, dass große Zeitungen ihren Wissenschaftsteil ausdünnen – ich will damit nur sagen, dass es sich auch mal lohnt zu überlegen wie man ein unabhängiges Korrektiv, was die Presse ja ohne Zweifel ist, eventuell auch anders erreichen könnte. Ein Lösung habe ich dafür nicht, aber ein permanenter Ruf nach alternativer Finanzierung wenn Zeitungen ihren Wissenschaftsteil verkleinern stört mich irgendwie. Vor allem könnte das deutsche science media center viel in diesem Bereich tun, und ich bin gespannt auf das Wirken der dort arbeitenden Damen und Herren, wenn 2016 der Betrieb aufgenommen wird.
Jan-Martin Wiarda hat noch andere Sachen gesagt, die mir sehr gefallen haben. Besonders hat er an vielen Punkten die Dinge, die andere ExpertInnen gesagt haben, klug zusammen gefasst und Probleme klar benannt. Ich war sehr froh, dass er einer der geladenen Gäste war. Ich war nicht in allen Punkten seiner Meinung, aber er hat es auf jeden Fall geschafft, dass ich mir erneut Gedanken um diese Sache mit dem Wissenschaftsjournalismus machen werde, und ich mich in den Vorschlag einer Stiftung mal einlese*.
Fußnoten:
* Es ist nie zu spät Vorurteile abzulegen.
]]>Ich hatte die Gelegenheit einen Diamanten mit Brilliantschliff unter meinem Mikroskop zu betrachten.
Ich war bei Nicolas Wöhrl, an der Uni Duisburg-Essen, am CENIDE Institut zu Besuch. Neben dem großartigen Wissenschafts PodCast Methodisch inkorrekt!, den Nicolas mit seinem Doktoranden und Padawan Reinhard Remfort produziert, stellt der gute Mann auch noch Diamanten in seinem Labor her, die ich mir mal für Dinge unter’m Mikroskop genauer angeschaut habe.
Allerdings werfen Nicolas und Reinhard ihre Maschinen nicht an um Diamanten für Ringe, Halsketten und Tiaren herzustellen. Sie beschäftigen sich mit Oberflächenbeschichtungen aus Diamant, Fehlstellen im Diamant, Graphen und einigen Dingen mehr, die sich um die physikalischen Eigenschaften von Kohlenstoffgittern drehen. Nicht anderes ist nämlich ein Diamant: reiner Kohlenstoff, in einer besonderen Kristallanordnung. Kohlenstoff ist ein Element mit vier Valenzelektronen, also Elektronen der äußeren Hülle die chemische Bindungen eingehen können. Beim Diamantgitter hat jedes Kohlenstoffatom jeweils vier Kohlenstoffatome als Bindungspartner, und zwar in einer tetraedischen Anordnung. Diamant ist ein Material der Superlativen, mit der höchsten Härte eines natürlichen Materials, es besitzt eine sehr hohe Lichtbrechung und die höchste Wärmeleitfähigkeit aller bekannten Materialien.
Nicht nur als Schmuckstein ist Diamant also interessant. Aber natürlich sehen sich die beiden Physiker Nicolas und Reinhard immer wieder der Frage ausgesetzt “Habt ihr auch einen Diamanten da?”. Und auf diese Frage können sie auch mit “Ja” antworten. Nicolas hat sich die Mühe gemacht einen künstlich hergestellten Diamanten im Brilliantschliff schleifen zu lassen. Diese Form des Schliffs kann man oben in der schematischen Abbildung bewundern und dieser Schliff ist – für einen Laien – genau die Form die man sich für einen Diamanten vorstellt. Diamanten kommen aber in den diversesten Formen in der Natur vor und dieser Brilliantschliff ist eigentlich nur eine geometrische Überlegung, wie man es schafft möglichst viele Winkel so zu gestalten, dass der Diamant das meiste des einfallenden Lichts reflektiert, also schön funkelt.
Erstmal ein normales Foto, damit man ein Gefühl dafür bekommt wie groß dieser Diamant eigentlich ist. Nicolas hat freundlicher Weise das Bild nachgeliefert und ein Lineal daneben gelegt. Aber kommen wir zum Blick durch das Mikroskop von oben auf den Diamanten, also ein Blick auf seine flache Seite.
Die leicht gelbe Farbe entsteht durch Unreinheiten im Kristall, genauer gesagt durch Stickstoff, der beim Herstellen des Diamanten in das Kristallgitter eingebaut wurde. Man kann auch etwas Schmutz auf der Oberfläche sehen, ein deutliches Zeichen dafür, dass dieser kleine Stein auch gerne mal in die Hand genommen wird. Nicolas hat ihn des Öfteren bei Vorträgen dabei.
Ganz perfekt ist die Brilliantenschliff bei diesem Stein nicht, wie man an der nicht symmetrischen Spitze auf den Bildern oben sehen kann. Auch der Rand sieht alles andere als eben aus, und weist nicht die lang gezogenen, elliptischen Facetten auf, die die schematische Darstellung oben eigentlich vorschreibt. Aber hier handelt es sich ja auch nicht um einen Diamanten, der für irgend ein Schmuckstück geschliffen wurde, sondern um einen Stein, den ein Physiker selbst gemacht hat und eher zu Demonstrationszwecken sein eigenen nennt. Jetzt noch die Seitenansicht, bevor ich euch weiter unten ein Video verlinke, dass ein wenig über den Wert von Diamanten aufklärt.
Und was ein Diamant als Schmuckstein so wert ist und was für eine Rolle er gerade in der amerikanischen Kultur spielt, dass hat CollegeHumor.com in diesem Video mal erklärt, leider nur auf englisch.
]]>Wenn man in der Filterblase eines Wissenschaftlers steckt, ist man oft der Meinung, dass man kaum noch jemanden erklären muss, wie bekloppt das System des wissenschaftlichen Publizierens ist. Ja, bekloppt, bescheuert und vollkommen veraltet. Wir Wissenschaftler haben uns das auch ein bisschen selbst eingebrockt, aber ich will hier gar nicht mit dem Finger auf irgendjemanden zeigen oder davon reden wer an was Schuld hat. Ich schreibe diese Zeilen, weil ich eine Rede der Europa-Parlamentsabgeordneten Julia Reda gelesen habe.
Für alle, die ungern lange, englische Texte lesen, will ich mir kurz den Punkt heraus picken, der mich zum schreiben dieses Artikels veranlasst hat: Julia Reda schreibt viel über die Reform des Copyrights, darüber wie Politik in Brüssel funktioniert und was ihr Vorschlag für ein angeglichenes Copyright in der EU alles leisten könnte. Aber vor allem schreibt sie, dass ihre Vorschläge für eine Reform von Lobby-Gruppen attackiert werden, auch von den Wissenschaftlichen Fachzeitschriften-Verlagen. Hier schließt sich also schon der Kreis zum oben angesprochenen bekloppten Systems des wissenschaftlichen Publizierens. Diese Verlage, welche die wissenschaftlichen Fachzeitschriften wie “Nature”, “Science”, “Cell” oder “Physica B: Condensed Matter” herausgeben, bekommen ihre Inhalte von WissenschaftlerInnen. Das sind zum großen Teil traditionsreiche Verlagshäuser, die WissenschaftlerInnen schon seit über hundert Jahren durch diese Journale Gelegenheit geben ihre Ergebnisse der Welt mitzuteilen. Bisher alles nicht so richtig schlimm mag man meinen, aber ich bin gerade schon auf metaphorischen hundertachtzig. Worüber ich mich nun beginne auszulassen betrifft den naturwissenschaftlichen Bereich, weil ich in diesem arbeite – ich würde mich daher besonders über Kommentare zur Situation in anderen Wissenschaftsbereichen sehr freuen.
Das Stichwort ist “seit über hundert Jahren”. Wenn man in der Wissenschaft etwas herausgefunden hat, dann veröffentlicht man einen Artikel in einem Journal, am besten in den großen, renommierten, die ich oben schon genannt habe, oder eben in einer Fachzeitschrift die andere ForscherInnen auf dem eigenen Gebiet eben auch lesen. Und mit Journal sind durchaus gedruckte Hefte gemeint. Zwar gibt es jeden Artikel eines Journals auch online als PDF, aber sowohl für das gesamte Journal als auch für einzelne PDFs muss man in der Regel bezahlen. Bibliotheken und Einrichtungen müssen also dafür bezahlen, dass diese Artikel von Forschenden gelesen werden können. Gleichzeitig müssen auch WissenschaftlerInnen dafür bezahlen damit ein Artikel in einem Journal erscheint. Sie haben richtig gelesen, sowohl das Veröffentlichen eines Artikels (nach eingehender Prüfung, anderes Thema*) als auch das Lesen eines Artikel muss bezahlt werden. Das heißt für Deutschland, dass die wissenschaftlichen Verlage zweimal Steuergeld erhalten, denn sowohl die Bibliotheken als auch ein Großteil der Forschungsgelder wird von der öffentlichen Hand finanziert.
In der Wissenschaft werden also Verlage dafür bezahlt, dass sie einen Artikel in ein Journal bringen für das man dann erneut bezahlen muss. Nur merkt man dies als WissenschaftlerIn nie so richtig, denn die Gebühr (teilw. mehrere Tausend Euro pro Artikel) muss ein/e WissenschaftlerIn aus den Forschungsmitteln aufbringen, die Abos bezahlt aber die Bibliothek oder Einrichtung. In der Forschung spürt man davon höchstens dann etwas, wenn die Damen und Herren der Bücherregale gezwungen werden zu sparen und man plötzlich nicht mehr an das eine Journal ran kommt, dass man regelmäßig liest, um auf dem neusten Stand des Feldes zu bleiben, auf dem man forscht.
Das hat dazu geführt, dass dieses wissenschaftliche Publikationswesen in den letzten Dekaden, Jahr für Jahr, die Gewinne um zweistellige Prozentzahlen steigern konnte. Damit sind die Wissenschaftsverlage so gut wie die einzige Branche, die von der Wirtschaftskrise keinerlei Gewinneinbußen davon getragen hat. Ich habe eine kleine Tabelle gefunden, welche die Steigerungen der Gewinne zeigt, im Vergleich zu anderen Konzernen die starke Gewinnzuwächse verzeichnen.
Diese Tabelle wurde von Alex Holcombe zusammen gestellt Er erklärt in einem Blogpost wie er zu diesen Zahlen gekommen ist.
Ruft man sich die Geschichte mit dem doppelten Bezahlen in Erinnerung, könnte man schon sagen, dass hier im System des wissenschaftlichen Publizierens das ein oder andere falsch läuft. Nehmen wir uns mal als Beispiel den Verlag Elsevier vor: knapp 2.000 Journale, ca. 350.000 Artikel werden pro Jahr veröffentlicht. Dieser Verlag verlangt teilweise für einzelne Journale bis zu 40.000 Euro für ein Jahres-Abo und mehrere tausend Euro für das publizieren eines Artikels. Allerdings kann man kaum einzelne Journale von Elsevier abonnieren, man muss sich immer für ganze Pakete von Journalen entscheiden, was die Sache nicht günstiger macht. Elsevier hat für seine Preispolitik massive Kritik geerntet, und sogar die Deutsche Forschungsgemeinschaft hat 2012 eine Petition unterstützt, die den freien Zugang zu öffentlich finanzierten Forschungsergebnissen gefordert hat. Im selben Jahr gründete der renommierte Mathematiker William Timothy Gowers die Initative The Cost of Knowledge, die sogar dazu aufruft Elsevier komplett zu boykottieren. Dieser Verlag ist aber nur ein Beispiel unter vielen. Zusammengefasst kann man unter dem Begriff Zeitschriftenkriese bei Wikipedia die ganzen Hintergründe nachlesen. Das Grundproblem ist eigentlich, dass die Verlage immer noch so tun als ob das Herausbringen von wissenschaftlichen Artikeln immer noch so kostspielig ist wie vor hundert Jahren, was definitiv nicht der Fall ist. Björn Brembs, Professor an der Uni Regensburg, hat sich vor ein paar Tagen zu diesem Thema in seinem Blog geäußert.
Ich habe nichts dagegen, dass jemand Geld verdient. Aber man kennt das ja aus guten Krimi-Serien: Folge der Spur des Geldes. Die Geschichte ist hier noch lange nicht ausgestanden, denn wir haben noch nicht über das Copyright gesprochen, etwas, dass man nicht mit dem deutschen Urheberrecht verwechseln sollte. Beim Urheberrecht ist der Besitzer der Rechte immer der Urheber, beim Copyright kann der Rechteinhaber ein anderer sein als der Urheber. Man kann also, im Falle des Urheberrechts, sein geistiges Eigentum nicht an dritte weiterreichen aber umfangreiche Nutzungsrechte abtreten. Es ist leider gängige Praxis, dass WissenschaftlerInnen quasi komplette Nutzungsrechte ihrer Forschungsarbeit an den Verlag zu überschreiben, so dass sie nicht mehr das Recht besitzen mit ihren Artikeln zu tun was sie wollen, zum Beispiel sie über Plattformen wie ArXiv oder bioRxiv zügig und frei zugänglich zu machen**. Bei Stichworten wie MERS, SARS und der Vogel– oder Schweinegrippe würde es doch sinnvoll erscheinen neue Forschungserkenntnisse über diese Krankheiten der Welt zugänglich zu machen – ohne Beschränkungen. Anders ausgedrückt: Es wird dafür gesorgt, dass niemand den Artikel einfach so lesen kann, ohne ein Abo dafür zu haben oder den Artikel direkt zu kaufen. Das hat weitreichende Konsequenzen, denn das sorgt auch dafür, dass die meisten Forschungsarbeiten nicht systematisch zu durchsuchen sind. Es wäre ja ein Gewinn für die Wissenschaft, wenn man einfach mal zwei bestimmte Proteine eingeben könnte und eine Suchmaschine spukt einem aus in welchen Artikeln diese beiden Proteine gemeinsam genannt werden, oder sogar noch besser, was daran untersucht wurde und stellt die verschiedenen Ergebnisse gegeneinander auf. Man nennt das Data-Mining und ich habe das gerade nur an einem sehr groben Beispiel umrissen. Vor allem werden statistische Methoden benutzt um aus Texten und Daten neue Erkenntnisse zu gewinnen. Dieses Data-Mining wird von den Verlagen durch ihre Bezahlschranken verhindert, zwar gibt es Lizenzmodelle einiger Verlage, aber das führt eher zu einer Verkomplizierung der Sache und wird im Allgemeinen als blöde Idee bewertet.
Es wird schon recht deutlich, dass ich nicht gerade der größte Fan der traditionellen, wissenschaftlichen Verlage bin. Ich möchte allerdings nicht das Fass auf machen, in dem die Themenbereiche open access, open peer review, Kritik am impact factor oder andere Reformen des wissenschaftlichen Publikationssystems herum schwimmen. Nicht unerwähnt lassen will ich aber eine Studie der Max-Planck Gesellschaft, wie eine flächendeckende, kostenneutrale Umstellung auf open access möglich wäre. Wie man also das System umstellt und nur beim Artikel einreichen bezahlt und diese Artikel dann für jeden frei zugänglich sind. Aber ich hab ja begonnen mit der Rede von Julia Reda, und dort ging es um die Reform des Copyright auf der EU Ebene.
Der Copyright Report von Julia Reda macht einige tolle Vorschläge wie das Copyright und das Urheberrecht in der kompletten EU angeglichen werden kann. Über Details davon lässt sich sicher noch streiten, und ich will da auch nicht auf alles eingehen. Wichtig für die Wissenschaft sind darin vor allem die Passagen über Ausnahmen für Text- und Data-Mining, Ausnahmen für Forschung und Bildung, das Vereinfachen von online-Projekten über Ländergrenzen in der EU, neue Ausnahmeregelungen für Archive und Bibliotheken, der Schutz von gemeinfreien Werken, der Schutz von Rechten gegen vertragliche Ausnahmeregelungen und die Einführung von Benutzer-Rechten. Jeder dieser Punkte hat teilweise große Auswirkungen auf die Funktionsfähigkeit der Wissenschaft. Kooperation von Forschungsgruppen über Ländergrenzen hinweg, genug Rechte an Unterrichtsmaterial zu haben um neue Wissenschaftler effektiv auszubilden und auf der Höhe der Forschung zu bleiben, damit man nicht an etwas Arbeitet, dass schon aufgeklärt wurde (zum Beispiel im Feld der seltenen Krankheiten), wären hier nur ein paar Beispiele.
Viele Punkte aus der vorgeschlagenen Reform des Copyright wären für das Wissenschaftssystem sehr hilfreich, und damit auch nicht zuletzt für jeden Menschen. Aber das würde für wissenschaftliche Verlage an vielen Stellen zu Gewinneinbußen führen, und sie könnten nicht mit den bisherigen Raten von Jahr zu Jahr wachsen. Daher betreiben sie, mit anderen Verlagen zusammen, eine massive Lobbyarbeit um diese vorgeschlagenen Reformen in ihrem Sinne zu ändern. Eine recht prominente Publikation in dieser Richtung heißt 2015: The end of copyright? Taking for free is stealing vom französischen Verlegerverbands Syndicat national de l’édition (SNE) zu dem auch wissenschaftliche Verlage gehören. Diese Veröffentlichung liegt übrigens, in einer Auflage von 50.000 Stück, gratis in französischen Buchhandlungen aus. Das ist, angesichts des Titels, schon ein bisschen lustig, allerdings ist der Inhalt weit entfernt von humoristisch Erheiterndem.
Es geht los mit der Aussage, dass diese Copyright Reform dafür sorgen würde die kreative Vielfalt und die Meinungsfreiheit zu unterdrücken. Schreckensbilder von multinationalen Konzernen und militanten Freiheitsdenkern werden an die Wand gemalt. Es wird behauptet, dass die EU-Kommission das Copyright als überholt und antidemokratisch ansieht. In diesem Zusammenhang ist die Nennung von Elsevier, selbst ein multinationaler Konzern, besonders bemerkenswert, denn er wird als leuchtendes Beispiel für die Förderung des Allgemeinwohls ins Feld geführt. Ich denke, dass ich oben genug Quellen verlinkt habe um festzustellen, dass dies mehr als fragwürdig ist.
Immer wieder wird im Text auch davon geschrieben, dass nur das jetzige Copyright – ein heilloses Chaos mit diversen Ausnahmeregelungen für jeden EU-Staat, siehe Panoramafreiheit*** – dass eben nur dieses Copyright dazu in der Lage ist die freie Meinungsäußerung zu garantieren. Der etwas beleidigende Ton, der gegenüber dem EU Kommissionspräsidenten Jean-Claude Juncker, seinem Stellvertreter Andrus Ansip und der Europaabgeordneten Julia Reda angeschlagen wurde, war dann quasi noch das i-Tüpfelchen.
In ihrer Rede ruft Julia Reda dazu auf, dass auch die Wissenschaft etwas Lobbyarbeit betreiben sollte, damit sich die Umstände im Wissenschaftssystem bessern können. Mehr noch, damit überhaupt sicher gestellt werden kann, dass die Politik sich auf gesicherte Daten aus der Wissenschaft berufen kann, die auch zugänglich sind. Das ist gar nicht so schwierig wie man meint. Wenn man seinen jeweiligen EU-Abgeordneten darauf hinweist das einiges schief hängt, im Bereich der öffentlich finanzierten Forschung, dann kann man wenigstens für Aufmerksamkeit für dieses Problem sorgen. Vielleicht führt das dann den ein oder anderen zur Erkenntnis sich noch einmal intensiver mit den Hintergründen auseinander setzen zu müssen. Also schreibt doch vielleicht mal eurer Abgeordneten oder eurem Abgeordnetem im EU-Parlament eine Mail und weist darauf hin, dass da einiges blöd läuft. Die EU-Abgeordneten gibt es hier, sortiert nach Bundesländern aus denen sie gewählt worden sind.
Man könnte aber auch Wissenschaftsorganisationen wie Max-Planck, Fraunhofer, Helmholtz oder die Leibniz-Geminschaft und die Universitäten selbst auf diese Sache hinweisen. Die werden sich genauso dafür interessieren wie die Geldgeber, zum Beispiel die Deutsche Forschungsgemeinschaft, den Stifterverband der deutschen Wirtschaft oder das Bundesministerium für Bildung und Forschung. Der Witz ist ja eigentlich, das man als WissenschaftlerIn nie allein ist, sondern eingebettet in Organisationen versucht das Wissen zu mehren. Da könnte an der ein oder anderen Stelle darauf hinweisen werden, dass jetzt gerade in Brüssel Entscheidungen anstehen, die alle oben genannten betreffen. Für das niederschwellige Handeln in dieser Richtung, hier nochmal die wichtigsten Links:
Fußnoten:
* Peer Review
** Das Übertragen von Nutzungsrechten beim Veröffentlichen in wissenschaftlichen Journalen ist ein ziemlich großes Thema. Wenn man dazu mehr erfahren möchte, kann man mal bei Urheberrecht und Tipps für Autoren der Johannes Gutenberg Universität Mainz schauen. Wer dazu eine bessere Quelle hat: nur her damit.
*** Panoramafreiheit, also das fotografieren von Gebäuden, zum Beispiel, bedarf in Frankreich der Gehnemigung des Architekten. Mehr dazu hier.
Ich möchte mich ganz herzliche bei Matthias Fromm und Konrad Förster vom PodCast Open Science Radio für die Fakten-Checks bei diesem recht komplexen Thema bedanken! Ihren PodCast kann ich nur empfehlen.
]]>Im Rahmen meiner Doktorarbeit arbeite ich an einem Hochauflösungsmikroskop, einem dSTORM, was kurz für direct STochastic Optical Reconstruction Microscope ist. Zusammen mit meinem Boss Jan Schmoranzer und Georgi Tadeus haben wir uns eine Methode überlegt, mit der man zwei oder mehr Farben in einem Hochauflösungsmikroskop realisieren kann, und ganz nebenbei auch noch ein paar Fehlerquellen bei der Bilddarstellung umgehen kann. Es geht dabei um Fluoreszenzmikroskopie, über die ich hier schon geschrieben habe. Die Dinge in der Zelle, die man sich anschauen will, markiert man dabei mit Farbstoffen, am liebsten mit zwei oder mehr Verschiedenen, um etwas über das Verhältnis zwischen den markierten Strukturen lernen zu können. Leider sind Fluoreszenzmikroskope nicht in der Lage beliebig stark zu vergrößern, man stößt an ein Limit, die Beugungsgrenze. Alles was kleiner als diese Grenze ist kann man mit einem normalen Fluoreszenzmikroskop nicht mehr sehen. Darüber habe ich schon im Artikel über Ernst Abbe berichtet, der genau auf diesem Gebiet geforscht hat.
Es gibt aber Möglichkeiten um die Beugungsgrenze zu umgehen, und ich schreibe “umgehen”, weil das nie ohne Einschränkungen geht. Wenn man eine höhere Auflösung erreichen will, dann muss man an einer anderen Stelle immer deutliche Abstriche machen. Es gibt dazu mehrere Ansätze, zum Beispiel die strukturierte Beleuchtung (SIM: structured illumination microscopy), STED (stimulated emission depletion) oder photoaktivierte Lokalisationsmikroskopie (PALM: photoactivated localization microscopy). Für PALM und STED gab es 2014 den Nobelpreis in Chemie.
Die Technik PALM gehört zu einer größeren Gruppe von Methoden die Beugungsgrenze zu umgehen, nämlich zur Einzelmolekül Lokalisationsmikroskopie (SMLM: single molecule localization microscopy). Zu dieser Gruppe gehören auch STORM und dSTORM. Die grundsätzliche Idee dahinter ist, dass man die Farbstoffe blinken lässt, und zwar so, dass man immer nur Signale von einzelnen Farbstoff-Molekülen bekommt ohne das sich diese überlappen. Davon macht man dann viele, sehr viele Bilder, einige tausend oder sogar einige zehntausend. Diese Bilder werden dann mit mit einer bestimmten Software untersucht, die an jedes Signal eine Funktion versucht anzupassen, und so den genauen Ort des Moleküls zurückrechnet. Mit diesem Haufen an Positionen kann man dann, wie im Pointillitismus, ein Bild aus vielen Punkten aufbauen oder rekonstruieren. Diese Methode hat Ricardo Henriques, Autor der freien Software QuickPALM, in einem kurzen Video schön illustriert (unten). Die Art der Bildrekonstruktion haben die Techniken PALM, STORM und dSTORM gemeinsam – sie unterscheiden sich in der Art und Weise wie man die Farbstoffe dazu bringt so vereinzelt zu blinken.
Bei dSTORM bringt man die Farbstoffe auf chemischem Weg zum blinken. Eine sauerstofffreie, reduzierende Lösung wird benutzt, um die Zustände der Farbstoffe so zu beeinflussen, dass ein Großteil einfach nicht fluoresziert und nur einige wenige leuchten. Das funktioniert nur mit organischen Farbstoffen, die die schöne Eigenschaft besitzen in dieser Lösung nach kurzem leuchten wieder in den dunklen Zustand zurück zu kehren. Dann haben andere Farbstoffe die Chance zufällig (stochastisch, siehe Name) in den fluoreszierenden AN-Zustand zu kommen und auch ein bisschen Signal bei zu tragen.
Wir haben jetzt noch ein SD vor das dSTORM gesetzt, was kurz ist für Spectral Demixing. Das ist unser Ansatz um diese Technik mit mehreren Farben machen zu können. Benutzt man nämlich einfach rote und grüne Farbstoffe funktioniert das zwar auch, man handelt sich aber einen Fehler in der Position der Lokalisationen der beiden Farben ein. Grün und rot liegen einige hundert Nanometer in der Wellenlänge auseinander und die Brechung in den verwendeten Linsen ist Wellenlängenabhängig. Das kennt man ja von einem Prisma. Zwar sind moderne Optiken in Mikroskopen meistens achromatisch, also so weit korrigiert, dass das nichts mehr ausmachen sollte, aber in der Hochauflösungsmikrokopie, wo es um eine Genauigkeit von hundertstel Mikrometer geht, hilft einem so eine Korrektur nur bedingt. Im Fall von dSTORM kann man Positionen von einzelnen Farbstoffen bis auf 20 Nanometer genau lokalisieren und der Fehler durch den Wellenlängenunterschied (chromatische Abberation) hat auch mit korrigierten Optiken noch knapp 100 Nanometer. Es gibt schon Strategien wie man das am Computer nachträglich korrigieren kann, aber solche Programme lassen den Fehler lediglich auf 15 bis 20 Nanometer schrumpfen aber eben nie ganz verschwinden.
Unsere Idee war es dieses Problem komplett zu umgehen in dem wir zwei Farbstoff genommen haben die recht nahe beieinander liegen, sich aber in ihrem Spektrum ein bisschen unterscheiden. Wir haben zwei rote Farbstoffe verwendet, die man mit dem Auge so gut wie gar nicht unterscheiden kann. Dann haben wir einen Spiegel vor die Kamera gesetzt, der bis zu einer bestimmten Wellenlänge das Licht passieren lässt aber oberhalb dieser Wellenlänge anfängt das Licht zu reflektieren. So entstehen zwei Bilder unserer Probe, die wir nebeneinander auf einer Kamera abgebildet haben. So sollten also von jedem Farbstoff ein Licht-Punkt-Paar entstehen, auf jeder Seite der Kamera ein Licht-Punkt pro Blink-Ereignis. Man kann das im unteren Bild im Kasten a) sehen. Von diesen Bildern haben wir normalerweise zehn bis zwanzigtausend Bilder pro Probe aufgenommen und dann mit einer Software die Positionen der einzelnen Licht-Punkte errechnen lassen. Die Software die wir dafür verwendet haben heißt rapidSTORM und ist kostenlos und open source.
Jetzt haben wir also einen Haufen von Punkten, oder besser gesagt haben wir Punkte-Paare, denn aus einem Blink-Ereigniss wurde durch den Spiegel vor der Kamera ein Licht-Punkte-Paar. Dieses Paar sagt uns direkt etwas über die Farbe, denn der hellrote Farbstoff (kürzere Wellenlänge) sollte auf der einen Seite einen helleren Lichtpunkt hinterlassen haben als auf der anderen, wohingegen der dunkelrote Farbstoff (längere Wellenlänge) sich genau anders herum verhalten sollte. Also müssen wir jetzt nachträglich aus der langen Liste von Positionen unsere Paare ausfindig machen. Das sieht man im Bild oben in Kasten c). Wie die Geometrie unserer Kamera und des Spiegels davor ist wissen wir, also wissen wir auch in welchem Abstand wir suchen müssen. Da aber keine Optik perfekt ist, suchen wir nach einem Partner in einer kleinen Umgebenung, was durch kleine Kreise am Ende der Pfeile angedeutet ist. Wenn da ein Blink-Ereignis im gleichen Bild statt gefunden hat, dann haben wir ein Paar gefunden, wenn wir kein Ereignis finden wird die ursprüngliche Position verworfen und wenn wir mehr als einen Partner finden können wir uns nicht mehr sicher über die Farbe sein und verwerfen alle beteiligten Lokalisationen. Das mag einem seltsam vorkommen, dass wir hier Daten “weg werfen”, aber das ganze hat auch einen Vorteil, wie man später noch sehen wird.
Am Ende haben wir also eine Liste von Paaren, immer jeweils zwei Lokalisationen, also auch zwei mal eine Helligkeitsinformation, einmal aus dem Kanal bei dem der Spiegel eine kürzere Wellenlänge durchgelassen hat und einem aus dem Kanal bei dem der Spiegel eine längere Wellenlänge reflektiert hat. Diese beiden Helligkeiten eines jeden Paars stellt man in einem Graphen da, wie man oben in Kasten d) sehen kann. Dort erkennt man schon zwei getrennte Populationen von Punktwolken, jeder Punkt steht für ein Paar. Und jetzt werden schon wieder Daten weggeworfen. Nur die Paare, die in einem der farbigen Bereiche liegen werden einem Farbstoff zugeordnet. Etwas irritierend hierbei unsere Farbenwahl: Der hellrote Farbstoff wird hier in rot dargestellt, der dunkelrote Farbstoff in grün. Längst nicht alle Paare liegen innerhalb der farbigen Flächen in d) und diese Paare werden auch weggeworfen. Wir machen das, weil man sich nicht überall in diesem Graphen sicher sein kann, dass dort definitiv nur Paare von dem einen Farbstoff gefunden werden und auf keinen Fall Paare von dem anderen. Das schlimmste was einem passieren kann ist einfach, dass man Lokalisationen eine falsche Farbe zuweist. Mit diesem “Multicolor filter” schaffen wir es die Falschzuweisung von Farben auf unter 1% zu drücken. Wie dann am Ende des rekonstruierte Bild aussieht, auch im Gegensatz zu einem Bild aus einem normalen Fluoreszenzmikroskop, sieht man oben in Kasten e). Warum es gar nicht verkehrt ist auch mal Daten weg zu werfen, sieht man im nächsten Bild.
Bilder die man mit dem “normalen” dSTORM rekonstruiert sehen den Bildern unseres Ansatzes sehr ähnlich. Nur wenn man an einer schwierigen Stelle ein hoch-aufgelöstes Bild machen will, erkennt man dass das spectral demixing noch einen weiteren Vorteil hat. Wenn man bei einer Zelle direkt unter dem Zellkern ein Bild aufnimmt, dann befindet sich sehr viel Zelle über der Bild-Ebene und damit auch sehr viel Farbstoff an den markierten Strukturen außerhalb des Fokus unseres Mikroskops. Das führt dazu, dass die Software die nach Lichtpunkten sucht gar nicht so selten mal ein Blink-Ereignis findet, wo eigentlich keins gewesen ist. Wir nennen das dann auch einfach Rauschen oder noise, und das kann bei manchen Bildern schon recht störend sein, wenn man Details erkennen möchte. Im Bild über diesem Absatz kann man den Unterschied deutlich sehen. Dort haben wir ein einfarbiges Bild unterhalb des Zellkerns gemacht, weswegen man auch so eine spinnennetzartige Struktur sehen kann. Die Mikrotubuli, ein Teil des Skeletts der Zelle, die wir hier angefärbt haben entspringen nämlich direkt neben dem Zellkern. In den Vergrößerungen b1) und b2) sieht man den Unterschied zwischen dem normalen dSTORM und unserem SD-dSTORM, letzteres ist b2). Das wir wirklich nur Rauschen weggeworfen haben kann man in den Bildern c1) und c2) erkennen, dort haben wir Bildausschnitte der beiden Kameraseiten rekonstruiert die nur Lokalisationen zeigen, die von unserer Paar-Suche verworfen worden sind. Man kann zwar in c1) noch ein bisschen was von der Struktur erkennen, aber in c2) waren einfach keine Lokalisationen mehr übrig um diese Punkte zu verpaaren. Ein bisschen was haben wir also verloren, aber vor allem haben wir einen Großteil des Rauschens rausgeworfen. Der Graph in d) zeigt, dass das Signal kaum gelitten hat, das Rauschen aber deutlich weniger geworden ist.
Zum Schluss geht es um die dritte Dimension. Bereits in Ich sehe Batman (Lab Slang) hab ich einen Vesikel gezeigt, den wir mit SD-dSTORM in 3D abgebildet haben. Wie das funktioniert ist wirklich überraschend. Man muss dafür nämlich nicht mehrfach messen, sondern es reichen einem die zehn bis zwanzigtausend Bilder wie beim zweidimensionalen dSTORM. Es werden Bilder von einzelnen Blink-Ereignissen aufgezeichnet – wenn man jetzt aus diesen einzelnen Ereignissen nicht nur die x- und y-Koordinate berechnen könnte, sondern auch die Position in z, hätte man einfach so 3D-Informationen. Und in der Tat funktioniert es genau so. Es wird eine Zylinderlinse in den Strahlengang eingeführt, die jedes Blink-Ereignis verzerrt und zwar in Abhängigkeit zur Position des Farbstoffs in z. Liegt ein gerade blinkender Farbstoff in der Fokus-Ebene erhält man einen Punkt, liegt er oberhalb der Fokus-Ebene wird das Bild in x verzerrt, liegt er unterhalb wird das Bild in y verzerrt. Das funktioniert nur weil dSTORM so konzeptioniert wurde, dass die Farbstoffe immer einzeln liegen und sich die Signale untereinander nicht überdecken. Eine zweifarbige 3D Aufnahme ist im folgenden Bild zu sehen.
Oben sieht man Mikrotubuli und Vesikel. Die Mikrotubuli sind kleine Röhren mit einem Durchmesser von ungefähr 25nm und die Vesikel sind Kugeln mit einem Durchmesser von 150nm. Im Bild erscheinen diese Strukturen allerdings dicker, weil wir irgendwie den Farbstoff dran kleben müssen. Das geht über Antikörper, die leider auch eine eigene Größe haben und auf jede Struktur ungefähr 30nm draufschlagen (15nm auf jeder Seite). In a) sieht man zunächst die Struktur in 3D wobei die dritte Dimension farbcodiert ist, das linke, magentafarbene Ende liegt ganz unten, das rechte, rote Ende ganz oben und stellt einen Bereich von 200nm dar. Daneben sieht man das zwei Farben Bild und Detailansichten. In der ganz rechten, unteren Ecke sieht man die Bestimmung der Dicke von Mikrotubuli in z und wir sind recht stolz darauf. Da die Auflösung in z immer etwas schlechter ist, ist eine gemessene Dicke von knapp 100nm schon ein sehr gutes Ergebnis. Die Auflösung unseres SD-dSTORM beträgt in x und y 25nm und in z 66nm.
Bei diesen 3D Bildern sieht man schon, dass da deutlich mehr “gekrissel” zu sehen ist, also mittendrin auch mal Punkte die offenbar nicht zur Struktur gehören. Würde unser Ansatz nicht schon eine eingebaute Rauschreduktion besitzen, hätten wir diesen Spaß mit der dritten Dimension gar nicht treiben können, unser Signal wäre im Rauschen fast unter gegangen. Denn man bekommt kaum mehr Lokalisationen mit dem 3D Ansatz, man muss also mit fast genau so vielen Lokalisationen wie im 2D Fall gleich mehrere Bild-Ebenen mit kleinen Punkten ausstatten um etwas dreidimensionales zu rekonstruieren. Man könnte jetzt meinen, dass das nicht so richtig der große Wurf ist aber wissenschaftliche Veröffentlichungen, die zweifarbige 3D-Rekonstruktionen mit Hilfe von PLAM, STORM oder dSTORM zeigen, kann man an zwei Händen abzählen.
Unser Artikel ist beim Journal Methods and Application in Fluorescence und kann hier angeschaut werden. Die Software, die die Lokalisations-Paare sucht haben wir als open source veröffentlich. Sie heißt SDmixer und darüber haben wir auch einen Artikel beim selben Journal verfasst. Wer Lust hat mal mit dieser Software herum zu spielen, pre-build binaries für Windows 64bit gibt’s bei Sourceforge, mit Bedienungsanleitung und einem Beispieldatensatz. Den source code der Software kann man sich bei GitHub anschauen und wild für alle anderen Plattformen compilieren, wenn man Lust drauf hat.
]]>Ich hatte beim letzten Siggener Kreis das Vergnügen Roland Fischer kennen zu lernen und zusammen mit ihm, in einer kleinen Arbeitsgruppe, über die Auswirkungen der Digitalisierung in der Wissenschaftskommunikation nachzudenken. Das ist eine ziemlich weit gefasste Überschrift und so heben wir uns die Freiheit genommen einfach eine Mögliche Zukunft auf digitales Papier zu bannen. Roland ist Organisator des Mad Scientist Festivals in Bern, das am 4. September 2015 statt findet. Jedem sei ein Besuch in Bern oder wenigstens ein Besuch der Homepage mit dem Programm wärmstens an Herz gelegt. Aber kommen wir zu dem Text, den wir gemeinsam geschrieben haben:
Mit Blick in die Zukunft, in vielleicht zehn oder zwanzig Jahren, könnte es für die Wissenschaftskommunikation so aussehen: Wenn Bücher, Artikel, Daten und Prozesse, also die Wissenschaft und ihre Ergebnisse, offen und frei zugänglich für jeden sind, wird man sich einer überwältigenden Informationsflut gegenübersehen. An Forschungseinrichtungen gebundene Wissenschaftskommunikation wird es in dieser Form nicht mehr geben, denn Wissenschaftler sind nicht zwangsläufig an die klassischen Universitäten und Institute gebunden.
Wissenschaft – insbesondere die Publikation von Forschungsresultaten – wird in Netzwerken stattfinden (womöglich einem grossen monopolistischen Netzwerk wie Facebook). In diesen Netzwerken wird es andere Bewertungs- & Filtermechanismen geben als wir sie heute gewohnt sind; was die Beste, die relevanteste Wissenschaft ist, entscheiden nicht mehr einzelne Exponenten mit der entsprechenden Expertise, das Netzwerk bewertet, filtert und sortiert sich selbst: sei es nun durch Reputationssysteme (Anzahl Klicks, Anzahl Likes, Anzahl erfolgreich durchgeführter Projekte), sei es durch algorithmische Methoden oder anderes.
In diesem Netzwerk gibt es keine festen Autoritäten die Rollen zuweisen. Jeder, der am Netzwerk teil hat, kann mehrere Rollen gleichzeitig einnehmen, sei es als praktizierender Wissenschaftler, kommentierender Interessierter, einordnender Bürger oder bewertender Meta-Experte. Ein Bürger in einem Feld der Wissenschaft kann ein Wissenschaftler in einem anderen Feld sein. Ein Wissenschaftskommunikator kann durchaus ein Wissenschaftler sein, aber auch ein Bürger der großes Interesse an einem bestimmten Fachgebiet oder Themenkomplex hat. Dabei gibt es grundsätzlich keine Einbahnstraßen in der Kommunikation mehr, alle Kanäle funktionieren in beiden Richtungen. Produzenten und Rezipienten sind nicht mehr klar unterscheidbar.
Damit werden zentrale Aufgabenfelder der Wissenschaftskommunikation obsolet: die Bestimmung der Relevanz wie der Brückenschlag zwischen den entfernten Welten von Fachleuten und Laien. Es tun sich aber auch neue Felder auf, beispielsweise beim Erzählen der großen Storylines (das große Ganze in den Blick nehmen, Einzelerkenntnisse zusammenfassen, womöglich in enger Kollaboration mit praktizierenden Wissenschaftlern) oder bei der Moderation der Kommentarforen, besonders in Fällen von großem/emotionalen Interesse. Viele dieser Aufgaben werden auch außerhalb der Institutionen geleistet, von Agenturen oder Einzelpersonen ohne offizielles Mandat.
Wie gesagt, wir skizzieren hier – die Möglichkeiten der Digitalisierung ernst nehmend – nur eine mögliche Wirklichkeit. Ob es sich um eine Utopie, eine Dystopie oder irgendwas dazwischen handelt, diese Entscheidung wollen wir dem geneigten* Leser überlassen.
Fußnoten:
* vornüber vor Schmerz oder weit nach hinten vor Entsetzen
]]>Ernst Abbe war begeistert von Teleskopen, Mikroskopen und dem Wohlergehen seiner Angestellten.
Am 23. Januar 1840 erblicke Ernst Karl Abbe in Eisenach das Licht der Welt. Er war Physikprofessor, Mitglied diverser Akademien, unter anderem der Leopoldina, zeitweise Alleininhaber der Carl Zeiss AG, beteiligt an der Gründung der Schott AG, Direktor der Sternwarte Jena aber vor allem war er auch ein Sozialreformer.
Für mich ist eine seiner größten Leistung die theoretische Untersuchung der optischen Komponenten eines Mikroskops. Bevor Abbe 1866 angefangen hat für Carl Zeiss zu arbeiten, war man beim Bau von Mikroskopen auf Ausprobieren und Erfahrungen angewiesen. Erst mit den Arbeiten von Ernst Abbe gab es genaue Erklärungen für die Vergrößerung, Abbildungstreue und Lichtstärke von Mikroskopen. Das heißt aber noch lange nicht, dass er sich nur mit der Mikrokopie beschäftigt hat, Direktor einer Sternwarte wird man nicht ohne Grund. In Abbes Habilitationsschrift Über die Gesetzmäßigkeit in der Verteilung der Fehler bei Beobachtungsreihen von 1863 zeigt er sich als begabter Astronom und Statistiker.
Abbe hat nicht nur einen wichtigen Beitrag zur Korrektur von Bildfehlern gemacht, sich über Lage und Funktion von Blenden den Kopf zerbrochen und die Abbesche Sinusbedingung aufgestellt, er hat auch die Theorie der Auflösungsgrenze formuliert. Im Jahr 1873 veröffentlichte er diese Arbeit, die immer noch Gegenstand von aktueller Forschung ist. Schließlich wurde 2014 der Nobelpreis für Chemie an drei Herren verliehen, die Techniken entwickelt haben um das Abbe-Limit zu umgehen. Aber was genau ist diese Beugungsgrenze überhaupt?
Wenn man also die Wellenlänge λ des verwendeten Lichts kennt und die NA auf der Seite seines Objektivs abliest kann man ausrechnen welche beleuchteten Strukturen man noch so gerade erkennen kann. Ich hab hier zu Hause ein kleines Objektiv stehen, auf dessen Seite 10x/0,3 NA gedruckt wurde. Nehmen wir einmal an, dass ich mit diesem Objektiv auf eine Probe schaue die ich mit blauem Licht (ungefähr 480 nm) beleuchte, dann wäre die kleine Struktur die ich nach Abbe noch erkennen kann 0,8 µm groß, was schon deutlich besser ist als mein USB-Mikroskop, dass ich immer für die Dinge Unter’m Mikroskop benutze. Im Labor, an dem Mikroskop das ich im Rahmen meiner Doktorarbeit gebastelt habe, benutze ich rotes Licht mit einer Wellenlänge von 643 nm, habe dort aber ein Ölimmersionsobjektiv mit einer NA von 1,49. Das resultiert dann in einer Auflösung nach Abbe von knapp 216 nm oder 0,22 µm. Allerdings war ein wichtiger Bestandteil bei Abbes Überlegungen die Beleuchtung, er ging immer von einer Probe aus die angeleuchtet wurde.
Die meisten Forschungsmikroskope sind allerdings Fluoreszenzmikroskopemit denen man Proben untersucht die durch Farbstoffe selbst leuchten. Dafür sollte man nicht das Abbe-Limit verwenden, sondern das Rayleigh-Kriterium, das angibt in welchem Abstand zwei Lichtquellen noch unterscheidbar sind. Ich erwähne das auch, weil man die Formel für das Rayleigh-Kriterium auch so aufschreiben kann, dass sie sehr an das Abbe-Limit erinnert: d = 1,22 λ / 2 NA. Allerdings waren die Überlegungen, die zu dieser Formel führten eher phänomenologisch, und nicht auf Überlegungen zu allen beteiligten optischen Elementen basierend, wie es bei Abbe der Fall war. Abgesehen davon hatte der verantwortliche Wissenschaftler für das Rayleigh-Kriterium, John William Strutt, 3. Baron von Rayleigh, eigentlich auch schon genug Ehrungen empfangen. Nach ihm ist die Rayleigh-Streuung benannt, die unter anderem dafür sorgt das unser Himmel blau erscheint und er bekam 1904 den Nobelpreis in Physik für die Dichtebestimmung von Gasen und die Entdeckung des Argons.Dieses theoretische herumgerechne mit Wellenlängen und numerischer Apertur geht einem nur schwer in den Kopf, besonders wenn man nicht gerade ein Mikroskop rumstehen hat und das mal kurz ausprobieren kann. Auf einer Konferenz hat mir das ein Professor mal mit einer wunderschönen Metapher erklärt:
Deine Probe besteht aus einer bestimmten Struktur, die kannst du aber nicht direkt beobachten, da ist das Mikroskop dazwischen, dass wie ein Pinsel funktioniert. Der Mikroskop-Pinsel hat eine bestimmte Dicke, die von der Wellenlänge des Lichts und der numerischen Apertur der Optik bestimmt wird. Wenn du irgendwas in deiner Probe betrachten willst das kleiner ist als diese Pinseldicke, dann kannst du das nicht nur mit einem Bild machen, dann musst du etwas tricksen, und das nennt man dann Hochauflösungsmikroskopie.
Der Strichabstand d einer beleuchteten Probe aus dem Abbe-Limit oder der Abstand d, zwischen zwei Leuchtenden Punkten, beim Rayleigh-Kriterium sind also nichts anderes als die Größenangaben des kleinsten Pinsels eines Mikroskops.
Wer sich an dieser Stelle fragt “Was ist denn jetzt die Auflösung? Du benutzt immer unterschiedliche Begriffe wie Beugungsgrenze, Limit und so weiter…!?!”, der hat vollkommen recht. Das klingt von meiner Seite her total unstrukturiert. Leider ist es aber auch im Feld der Mikroskopie so, dass viele dieser Begriffe synonym verwendet werden. Die Auflösungsgrenze, Beugungsgrenze, Auflösungsvermögen, damit ist immer die “Pinseldicke” des Mikroskops gemeint, manch einer macht noch nicht einmal einen Unterschied zwischen Rayleigh-Kriterium und Abbe-Limit. Aber das ist gar nicht so frustrierend wie man meinen mag, wichtig ist zu wissen, dass Wellenlänge und verwendete Optik zusammen genommen eine natürliche, kleinste Länge bilden, die man mit einem Mikroskop noch so gerade sehen kann. Wie man um diese Grenze herum kommt, die Trickserei, die man Hochauflösungsmikroskopie nennt, die ist wirklich spannend. Aber dazu werde ich mal einen eigenen Artikel schreiben. Wir waren ja eigentlich bei Ernst Abbe, und was der Typ so alles getrieben hat.
Man könnte Ernst Abbe als Arbeiterkind bezeichnen. Er wuchs in recht einfachen Verhältnissen auf und nur der Arbeitgeber seines Vaters ermöglichte es ihm überhaupt eine weiterführende Schule zu besuchen. Das macht ihn sensibel für die großen Unterschiede zwischen Arbeitnehmer und Arbeitgeber, besonders als er nach dem Tod von Carl Zeiss Alleininhaber der Carl Zeiss AG war. Abbe sorgte damals dafür, dass die Carl-Zeiss-Stiftung gegründet wurde, die damals wie heute, Alleineigentümer der Carl Zeiss AG und der Schott AG ist. Die Stiftung hat in ihrer Satzung unter anderem die Ziele “Erfüllung sozialer Pflichten gegenüber den Mitarbeitern”, “Betätigung in gemeinnützigen Einrichtungen zu Gunsten der arbeitenden Bevölkerung Jenas” und “Förderung naturwissenschaftlicher und mathematischer Wissenschaft in Forschung und Lehre” definiert. Aber darüber hinaus engagierte sich Ernst Abbe noch zusätzlich in Jena. Er stiftete die Jenaer Lesehalle und das Volkshaus als Orte parteipolitischen wie intellektuell-literarischen Lebens, er führte in der Carl Zeiss AG den Achtstundentag ein und er gründete das Jenaer Volrksblatt um dem Monopol der konservativen Jenaischen Zeitung etwas entgegen zu setzen. Als Abbe 1903 aus dem Vorstand der Stiftung zurück trat, ehrte ihn die Belegschaft mit einem Fackelzug durch Jena**. Als er zwei Jahre später starb war die ganze Stadt zu den Trauerfeierlichkeiten auf den Füßen und die Presse, weit über Jena hinaus, brachte ganzseitige Nachrufe. Abbes Nachfolger als Bevollmächtigter der Carl-Zeiss-Stiftung, Siegfried Czapski, sagte nach seinem Tod:
“Einer der Hauptantriebe von Ernst Abbe lag in folgender Überlegung: die fortschreitende Ausbreitung der Industrie und damit des in ihr beschäftigten Personenkreises ist unaufhaltsam – also muss beizeiten dafür gesorgt werden, dass diese Personen vollwertige Mitglieder des Bürgertums bleiben oder werden und nicht etwa auf eine Stufe zum Helotentum, zur Halbsklaverei versinken‘.” – Siegfried Czapski auf der Gedenksitzung der Deutschen Physikalischen Gesellschaft am 3. März 1905
Ernst Abbe hatte ein paar gute Ideen, nicht nur in der Statistik, Astronomie, Mikroskopie, sondern auch als Unternehmer. Ich kannte bis vor Kurzem auch nur seine Arbeiten zur Mikroskopie und war dann wirklich fasziniert von seinem sonstigen Wirken und seinem Werdegang. Hoffentlich konnte ich das mit diesem Artikel auch weitergeben, mal von der Erklärung zur Auflösnungsgrenze abgesehen.
Fußnoten:
* genauer gesagt: Immer im selben Abstand ein scharfes Bild liefert.
** Wohlgemerkt war das 1903, bevor die Nazis damit angefangen haben.
tl;dr Haare werden im Alter weiß und nicht grau, veranschaulicht an Mikroskopbildern.
Das man älter wird merkt man nicht nur an zunehmendem Zynismus und an länger andauernden Regenerationsphasen nach Alkoholabusus. Die Frage “Sollen wir auch ein bisschen färben?” beim Friseur ist dann doch wohl ein deutliches Zeichen für Weisheit – nicht Weisheit der Haarschneidefachkraft, Weißheit der Haare. Haare werden nicht grau, wie es der Volksmund sagt, Haare werden weiß oder farblos. Die Ursache dafür ist vermutlich eine mangelnde Produktion der Aminosäure Tyrosin, die für die Produktion von Melaninen gebraucht werden. Melanine sind Pigmente, die auch der Haut und den Augen ihre Farbe geben. Das Fehlen dieser Pigmente kann man allerdings nicht darauf zurück führen das dem Körper irgendetwas fehlt und er einfach nicht mehr farbige Haare produzieren kann, sondern der Rückgang von melanozyten Stammzellen. Wer darüber mehr erfahren möchte kann mal in das Kapitel Melanocyte stemm cells rein schauen, aus dem Buch StemBook des Harvard Stell Cell Institutes. Aber jetzt mal zu meinen Haaren.
Wie oben schon gesagt, keine Spur von grau zu erkennen, das eine Haar ist weiß beziehungsweise farblos. Der Anschein von grau entsteht durch das Zusammenspiel von weißen und noch farbigen Haaren. Wer wissen möchte wie Haare generell aufgebaut sind, kann das hervorragend bei der Wikipedia tun, im Artikel Haar und unter Haarfarbe (Pigment) gibt es auch noch weitere Informationen über verschiedene Formen von Haaren und die geographische Verbreitung von Haarfarben. Als leidenschaftlicher Bartträger kann ich euch noch eine zweite Art von Haar von meinem Kopf präsentieren: Barthaare, die deutlich dicker sind als jene, die aus meiner Kopfhaut sprießen.
Meine deutlichen dickeren Barthaare eignen sich für mein kleines USB-Mikroskop viel besser als meine Kopfhaare. Man erkennt deutlich, dass das eine Barthaar schneeweiß ist. Übrigens ist das hier nicht das erste Mal, dass ich mir meine Barthaare unter einem Mikroskop anschaue. Im Physikstudium haben mein hoch geschätzter Freund und Kollege Dr. Maik Stuke und ich zusammen das Fortgeschrittenen Praktikum an der Uni Bielefeld bestritten*. Beim Versuch Atomic-Force-Microscope (oder auf deutsch Rasterkraftmikroskop) konnten wir uns eine zu untersuchende Probe frei wählen und haben uns für eines meiner Barthaare entschieden. Nach etwas längerem suchen in meinen Backups habe ich auch das Protokoll und die Bilder von damals wiedergefunden. Eigentlich ist das Rasterkraftmikroskop schon einen eigenen Artikel wert, den ich sicher auch noch schreiben werde, aber ich kann ja jetzt nicht solche Bilder anteasern und euch dann nichts zeigen. Daher gibts hier jetzt das Bild von 2004 – wie ein Rasterkraftmikroskop funktioniert erkläre ich euch ein andern Mal, nur so viel: Eine sehr kleine Spitze tippt auf die Oberfläche und wir mit jedem tippen verschoben. So entsteht ein Abbild mit einer sehr hohen Auflösung, die mehr Details offenbart als ein Lichtmikroskop.
Der hier gezeigt Bildausschnitt ist lediglich 14,4 µm mal 14.5 µm groß, zeigt also nur einen kleinen Teil des Barthaars, dass fast 100 µm dick ist. Die verschiedenen Farbtöne stellen Höhenunterschiede dar, und zwar in einem Umfang von 1,7 µm. Die eingezeichneten Strukturen zwischen den Schuppen des Haares kann man auf den Lichtmikroskopbildern von oben nicht erkennen, dafür reicht die Auflösung meines USB-Mikroskops leider nicht aus.
Der nächste Teil von Dingen unter’m Mikroskop kommt auch bald, schließlich habe ich noch einige Vorschläge dazu auf dem Zettel: Verschiedene Papiersorten, Drucktechniken, elektronische Schaltungen, Kaffee und noch ein paar Dinge mehr. Wenn ihr einen Wunsch habt, dann teil ihn mir mit, in den Kommentaren oder auf Twitter, und ich schaue mal wann ich es schaffe davon Bilder zu machen.
Fußnoten:
* Beim schreiben dieses Artikels bin ich nach langer Zeit auch mal wieder auf die Homepage der Praktikumsebene gegangen und war über den Wandel in den letzten fünf Jahren doch einigermaßen erstaunt. Besonders das es Praktika in LabView und MatLab gibt ist zwar nett, aber geht, meiner Meinung nach, in eine etwas falsche Richtung, wie ich schon in Wissenschaft und Software geschrieben habe. Allerdings würde ich gerne auf die Bildersammlung zur Tafelkunst hinweisen wollen.
tl;dr Nadeln sind weniger spitz als Kanülen, veranschaulicht an Mikroskopbildern.
Am Ende des Artikels Farbe und das Fluoreszenzmikroskop durfte sich der liebe Kommentator Ludger was für die Dinge unter’m Mikroskop wünschen. Seine Wahl ist auf Injektions-Kanülen gefallen und ich habe mir einfach mal die Freiheit genommen, noch Bilder der Spitze einer kleinen Sicherheitsnadel oben drauf zu legen. Der Vergleich ist tatsächlich mehr als interessant. Los geht es mit der Sicherheitsnadel.
Auf den ersten Blick, mit dem bloßen Auge, wirkt die Spitze der Sicherheitsnadel… nun ja, auf keinen Fall so abgeflacht, wie sie sich dann unter dem Mikroskop zeigt. Auch fühlt sich die Spitze relativ glatt an, und ich war dann doch überrascht über die raue Struktur der Spitze.
Aber kommen wir mal zu ganz anderen Spitzen, wie im Titel eigentlich schon auf zwei Arten angekündigt. Natürlich steht ganz klar drin das es auch um Kanülen geht, aber dies ist auch der vierte Artikel von Dinge unter’m Mikroskop, und die römische Zahl IV könnte man auch als i.v. lesen, die Abkürzung für intravenös, also “in die Vene hinein”. Dafür benutzt man Kanülen, die eigentlich nichts anderes als Hohlnadeln sind. Ich habe zwei Exemplare aus dem Labor mitgenommen, deren Haltbarkeitsdatum bereits überschritten ist, die also eh entsorgt worden wären. Im Labor benutzen wir die Kanülen meistens in der Zellkultur, nicht um einzelne Zellen zu pieksen, die wären zu klein dafür, sondern um sie von einander zu trennen. Zellen kleben häufig in kleinen Haufen zusammen und um sie davon zu überzeugen sich zu trennen müssen wir manchmal die Zellen in ihrer Nährlösung durch ein enges Rohr hin und her spülen. Kanülen eigenen sich dafür hervorragend, schließlich müssen diese auch steril sein, damit ein Arzt damit einen Menschen stechen darf, und genau diese Sterilität ist es weswegen wir Kanülen auch in der Zellkultur benutzen. Benutzt man etwas Unsteriles läuft man Gefahr, dass man irgendwas in die Zellkultur einschleppt was da nicht hingehört und man seine schönen Experimente wiederholen muss.
Diese Kanüle ist schon deutlich spitzer als es die Sicherheitsnadel von oben. Eigentlich auch keine große Überraschung, Sicherheitsnadeln werden ja sicher nicht dafür gemacht, um sie irgendwo in Gewebe rein zu stecken. Auch die leichte Klingenform ganz vorne kann man bei dieser etwas dickeren Kanüle auch schon mit dem bloßen Auge erahnen. Bei dieser Kanüle handelt es sich um eine Hohlnadel mit 0,8 mm (800µm) Außendurchmesser. Aber in der Medizin wird man öfter die Bezeichnung 2,4 Charrière, 21G oder schlicht “grün” für diese Nadel hören. Die verschiedenen Bezeichnungen für die Größe einer Kanüle sind schon interessant, die Einteilungen kann man im Artikel Kanüle bei Wikipedia nachlesen. Wer jetzt meint, dass 0,8 mm Durchmesser schon ganz schön heftig sind, war noch nie Blutspenden, Kanülen gibt es bis zu einem Außendurchmesser von 3,4 mm. Aber wie man sieht, ist die Spitze noch etwas zu groß, um sie im USB-Mikroskop komplett scharf abzubilden. Also nehmen wir mal eine kleinere Kanüle.
Das hier ist eine deutliche schmalere Kanüle und auch eine deutlich Kürzere. Wenn man sich schon einmal selbst Heparin geben musste, also einen Gerinnungshemmer, weil ein Bein eingegipst war zum Beispiel, dann kennt man diese Größe von Kanülen. Auch die Spitzen von Epi-Pens oder für die Insulingabe sind teilweise so groß, wobei es da mittlerweile auch noch schmalere gibt. Weil man hier nicht wirklich alle Details sehen kann, habe ich die Spitze auch noch einmal von der Seite abgebildet.
In der Seitenansicht kann man erkennen, dass auch hier nicht alles so hundertprozentig glatt ist wie man vermuten würde. Aber ein kleiner Vergleich mit der Sicherheitsnadel vom Anfang zeigt schon, dass hier ein deutlicher und großer Unterschied besteht. Die feinen Linien, die zur Spitze hin verlaufen sind Schleifspuren, die beim Herstellungsprozess entstanden sind.
Die Bilder von den Kanülen zu machen war eine gehörige Fummelei. Hab ich mich noch bei der Sicherheitsnadel immer um einen dunklen Hintergrund bemüht, hörte das bei den Kanülen auf, nachdem ich mir mehrere, schöne, scharfe Bilder der Spitzen aus dem Blickfeld geschoben habe, als ich den schwarzen Karton in den Hintergrund stellen wollte. Teilweise musste ich auch noch von zwei Seiten mit Taschenlampen beleuchten, dass man auch die Details sehen kann. Ich würde euch ein Foto davon zeigen, aber ich hatte keine Hand mehr frei. Und bevor jemand fragt: Das Bild hab ich dann durch einem klick mit der Nase auf die Maustaste gemacht. Aber ich hatte Spaß. Der nächste Teil von Dinge unter’m Mikroskop wird eine haarige Angelegenheit. Ich bin immer offen für Vorschläge, gerne in die Kommentare schreiben oder über Twitter. Auf der Liste habe ich noch verschiedene Papiersorten, Drucktechniken, Kaffee, Elektronische Schaltungen und ein paar Dinge mehr.
]]>tl;dr Wir wissen noch nicht viel über Mikroben in unseren Weltmeeren, dabei sind die ziemlich wichtig. Um das zu ändern gibt es ein citizen science Projekt mit dem Namen Ocean Sampling Day. Tolle Mikroskopiebilder zum Thema gibt’s auch.
Ich war neulich beim Science Slam in Bremen und hatte einen tollen Abend mit vielen, schönen Vorträgen. Einer dieser Vorträge hatte es mir besonders angetan, denn es ging dabei auch um kleine Dinge, um kleine Dinge im Wasser, genauer gesagt. Julia Schnetzer, Doktorandin am Max-Planck-Institut für marine Mikrobiologie hat über den Ocean Sampling Day (OSD) erzählt, ein Projekt bei dem jeder mitmachen kann um den Forschern zu helfen.
Es geht um unsere Weltmeere, der Teil unserer Erde, der wie kaum ein Anderer, unser Klima und das Leben beeinflusst. Für das Ökosystem Ozean und Meer sind besonders die darin lebenden Mikroben ein wichtiges Forschungsgebiet. Diese Kleinstlebewesen spüren Veränderungen am schnellsten, wie zum Beispiel Ozeanversauerung oder Klimawandel. Sie leisten aber auch einen großen Beitrag damit wir überhaupt auf unserem schönen Planeten leben können. Das Phytoplankton (Phyto altgriechisch für Pflanze) ist ein großer Sauerstoffproduzent, es wird geschätzt das diese Organismen 50% unseres Sauerstoffs in der Atmosphäre produzieren, wobei sie nur ungefähr 1% der weltweiten Biomasse ausmachen die Photosynthese betreibt. Dabei sind diese Organismen winzig: Grünalgen, Goldalgen, Dinoflagellaten oder Cyanobakterien gehören in die Klasse des Phytoplankton und sind allesamt nicht mit dem bloßen Auge sichtbar. Gut, dafür gibt es Mikroskope, aber viel schwerwiegender ist die Tatsache, dass man Phytoplankton kaum im Labor am Leben erhalten kann, geschweige denn vermehren. Nur ein bis zwei Prozent der Arten sind unter Laborbedingungen kultivierbar.
Wir wissen noch nicht so richtig viel über diese wichtigen Wasserbewohner. Und beim Science Slam in Bremen erzählte uns Julia Schnetzer dann, wie sie und die anderen Forscher ihres Instituts gedenken das zu ändern. Sie haben das citizen science Projekt Ocean Sampling Day ins Leben gerufen, dass man auch bei Bürgerschaffenwissen.de finden kann. Das Problem ist nämlich vor allem, dass man nicht nur viele Proben haben will sondern vor allem viele Proben von vielen unterschiedlichen Orten – und da kommt der interessierte Bürger ins Spiel. Gut, so richtig leben wir in Deutschland leider nicht an einem Ozean, aber auch Messpunkte von Flüssen oder Binnengewässern interessiert die Bremer Forscher.
Die Sache ist jetzt aber leider die, lieber Leser, dass der Ocean Sampling Day nicht ohne Grund Day heißt. Der war nämlich am 21. Juni 2015, ist also leider schon vorbei. Das liegt neben einigen organisatorischen Gründen auch daran, dass sich OSD auf verschiedene Außenstellen verlassen muss. Man darf nämlich nicht einfach so biologische Proben verschicken. Innerhalb Deutschlands geht das zwar, aber sobald eine Sendung Ländergrenzen überquert begeht man Biopiraterie. Und eben die Außenstellen, sogenannte Hubs, haben die Genehmigung biologische Proben international zu versenden, also nach Bremen ans MPI. Das klingt schon ein wenig kompliziert, hat aber durchaus einen Sinn. Seit 2014 ist das Nagoya-Protokoll in Kraft, ein völkerrechtlich verbindliches Abkommen der UN. Dieses Abkommen schafft den rechtlich verbindlichen Rahmen für dem Zugang zu genetischen Ressourcen und gerechtem Vorteilausgleich und regelt einige Dinge im internationalen Artenschutz. Es folgt der Biodiversitäten-Konvention, die schon seit 1993 in Kraft ist. Diese rechtlichen Grundlagen müssen beachtet werden, und so funktioniert der OSD nur über seine Hubs und an einem bestimmten Tag. Auf der anderen Seite sorgen diese völkerrechtlichen Abkommen aber auch dafür, dass arme Länder mit einer großen Artenvielfalt nicht von anderen Ländern oder Konzernen übervorteilt werden, und es einen gerechten Vorteilausgleich gibt. Aber das heißt nicht, dass man nicht mehr mitmachen kann. Auch Informationen wie Temperatur oder Salzgehalt können den Forschern helfen, und dafür muss man keine Proben verschicken, sondern kann die Messungen selbst durchführen.
Allein schon das Messen von zusätzlichen Umweltparametern kann dabei helfen die Mikroorganismen besser zu verstehen. Diese Daten sind für die Forscherinnen und Forscher des OSD genauso wichtig wie Wasserproben. Zur Datenerfassung wird eine App mit Namen “OSD Citizen” benutzen, für Apple-Produkte oder Android-Betriebssysteme, die kostenlos zum download bereit steht. Es gibt auf der Internetseite des OSD einen Artikel, der einem genau erklärt wie man das macht.
Weltweit kann jeder an diesem Projekt teil nehmen und Umweltdaten sammeln. Natürlich wird auch auf der Ebene der Universitäten und Institute daran gearbeitet, dass sich die marinen Mikrobiologen besser vernetzen. Da aber auch die Öffentlichkeit mit einbezogen ist, werden alle Daten für jeden frei zugänglich im Internet zu lesen sein. Das heißt also, dass ihr euch anschauen könnte wo ihr euren Beitrag geleistet habt, ihr könnte aber auch nachsehen wer sonst noch so alles mitgemacht hat und was die Leute an welchem Ort gemacht haben, auf dieser Karte hier. Bei eingeschickten oder abgegebenen Proben dauert die Auswertung eine Weile, die Damen und Herren in Bremen werden sicher ein Jahr mit der Auswertung aller zugesandten Proben zu tun haben, aber dann werden auch diese Ergebnisse veröffentlicht werden. Gleichzeitig laufen neue Anträge auf Fördermittel, dass es nächstes Jahr im Sommer wieder einen OSD geben kann, bei dem jeder eingeladen ist mitzumachen. Aber die Mühlen der Verwaltung mahlen noch, und bisher ist noch nicht entschieden ob dieses Projekt weiter gefördert wird. Ich bin mir aber sicher das die vielen beteiligten Forscher einen Weg finden werden und nächstes Jahr noch mehr Proben in Bremen eintrudeln werden.
Ich finde solche Anstrengungen großartig, nicht nur das jeder mitmachen kann, der sich für dieses Feld interessiert, sondern auch das die Ergebnisse für jeden einsehbar sind und man auch mitbekommen wird, was die Forscher für Schlüsse daraus ziehen. Ihr merkt schon, ich bin davon begeistert und bei meiner nächsten Reise in die Nähe von kühlem Nass werde ich auch mal Umweltparameter bestimmen. Aber da ich hier ja eigentlich immer über Mikroskope schreibe, habe ich Julia auch noch genervt ob sie mir nicht noch ein paar mehr schöne Bilder vom Phytoplankton zukommen lassen könnte. Die gibt es dann am Ende dieses Artikels. Aber zunächst nochmal alle wichtigen Links für all jene, die jetzt Lust aufs mitforschen bekommen haben:
Bürgerschaffenwissen.de Seite
https://www.buergerschaffenwissen.de/projekt/myosd-ocean-sampling-day
Wie kann ich bei MyOSD mitmachen?
https://www.microb3.eu/myosd-de/how-can-I-join-DE
Messung von Zusätzlichen Umweltparametern
https://www.microb3.eu/myosd-de/additional-parameters-de
App-Links
Apple: https://itunes.apple.com/de/app/osd-citizen/id834353532?mt=8
Android: https://play.google.com/store/apps/details?id=com.iw.esa&hl=de
Fußnote: Der Vortrag von Julia wurde auch auf Video aufgenommen, sobald das Video raus ist werde ich das auch nachreichen.
]]>Man kann erkennen, dass eine Pfeffermühle gar nicht so gleichmäßig mahlt, wie man das eigentlich erwarten würde. Übrigens wird das Pfefferaroma vor allem durch die 4,8% Pfefferöl erzeugt, die in schwarzem Pfeffer einhalten sind.
Eine ganz andere Art der Schärfe kommt durch Paprika-Pulver zustande. Leidenschaftlich gehasstes Gewürz von einigen der WissenschaftlerInnen aus Nord-Amerika an meinem Institut, was wohl auf die Deutsche Eigenart zurückzuführen ist, dass bei uns Paprika-Chips die “Normalen” sind, und nicht die gesalzenen (und langweiligen, meiner Auffassung nach). Nachdem ich Paprika-Pulver unter dem Mikroskop hatte und mich gefragt habe wie man das wohl genau herstellt, hatte ich gleich komplizierte Fermentationsverfahren im Kopf oder ein über Genrationen ausgefeiltes Herstellungsverfahren, aber die Realität war ein kleines bisschen enttäuschend. Für die Herstellung von Paprika-Pulver werden Paprikaschoten getrocknet und gemahlen. Die Einteilung in verschiedene Sorten stammt aus Ungarn und ist abhängig davon wie viele Kerne und Scheidewände mit in das Pulver gekommen sind, und natürlich auch von der verarbeiteten Art der Paprika. In Absteigender Schärfeintensität gibt es folgende Sorten: Rosenpaprika, Halbsüß, Edelsüß, Delikatess, Extra. Diese Weisheit habe ich auch der Wikipedia entnommen, der Artikel über Paprika ist sehr lesenswert. Dort wurde ich auch aufgeklärt das Cayennepfeffer auch nichts weiter als Paprikapulver ist, gewonnen aus der Chillisorte Cayenne.
Dieses sonst eher langweilig aussehende, rote Pulver zeigt unter dem Mikroskop überraschend viele Schattierungen von rot und orange.
Auch Chilli gehört in die Gattung der Paprika und wenn ich da schon das Paprika Pulver zeige, gehören natürlich auch die berühmten Chilli-Flocken genauer betrachtet. Das Herstellungsverfahren ist ziemlich ähnlich. Chillies werden getrocknet und klein gehäckselt. Der feucht-ölige Schimmer auf dem Kern und den Flocken kommt nicht von ungefähr, hierbei handelt es sich um die Öle die das Capsaicin enthalten, der Stoff der für die Schärfe verantwortlich ist.
Ich nehme auch weiterhin Vorschläge für Dinge, die ich unter das Mikroskop legen kann. Papier, Haare, verschiedene Druckverfahren, Curry und Kaffee hab ich schon auf der Liste. Beim nächsten mal gibt es Spitzen von Injektions-Kanülen zu betrachten, ein Wunsch von Ludger, der eine kleine Quiz-frage im Artikel Farbe und das Fluoreszenzmikroskop richtig beantwortet hat.
]]>Ich glaube das überraschenste an einem Fluoreszenzmikroskop ist die Verwendung einer schwarz-weiß Kamera. Dieses Mikroskop, dass so wundervolle, farbenfrohe Bilder liefert, ist eigentlich farbenblind. Damit man verstehen kann warum gerade das extrem wichtig ist, müssen wir uns kurz mit Farben auseinander setzen. Hierbei geht es dann allerdings nicht um die Farbwahrnehmung des Menschen, die ohne Frage auch spannend ist, sondern um die Technik in digitalen Kameras.
Damit eine Digitalkamera Farben detektieren kann, besitzt sie verschiedene Detektoren, meistens für rotes, grünes und blaues Licht. Die Mischung dieser Farben sorgt dann später wieder dafür, dass wir am Bildschirm den Eindruck von vielen Millionen Farben haben, und um Fotos zu machen ist das auch vollkommen ausreichend. In der Mikroskopie möchte man aber nicht nur schöne Bilder machen sondern auch nachprüfbare Aussagen treffen, zum Beispiel wie unter diesen oder jenen Umständen das Eiweiß A im Verhältnis zu Eiweiß B in der Zelle vorkommt.
Markiere ich jetzt Eiweiß A mit einem roten Farbstoff und Eiweiß B mit einem grünen Farbstoff, hätte ich bei einer Farb-Kamera trotzdem ein Problem. Die Farbstoffe sind nämlich nicht rot oder grün sondern decken einen bestimmten Bereich des sichtbaren Spektrums ab. Das kann man hervorragend bei dem Graphen sehen, den ich schon im Artikel Das bringt Farbe ins Leben benutzt habe.
Am unteren Rand des Graphen, an der x-Achse sieht man einen Regenbogen, der darstellen soll welche Farbe welcher Wellenlänge des Spektrums entspricht. Man sieht das der Farbstoff Alexa Fluor 568 schon im gelb-grünen Bereich Photonen aussenden kann, und das sein Emissionsspektrum sich weit bis in den roten Bereich hinein zieht. Würde man die Sensitivitäts-Kurven einer digitalen Farbkamera hier einzeichnen, würden sich die Bereich für grün und rot dieser Kamera überlappen, und zwar an der Stelle, bei der der Farbstoff Alexa Fluor 568 von oben, schon sehr viele Photonen abgibt, nämlich bei 588nm. Das heißt also, dass eine Farb-Kamera diesen roten Farbstoff als eine Mischung aus rot und grün detektieren würde. Man könnte jetzt meinen, dass man das Problem umgehen kann, wenn man einen roten Farbstoff und einen blauen Farbstoff benutzt, aber auch da muss ich leider enttäuschen. Sowohl ein blauer Farbstoff als auch ein roter Farbstoff würden auf einer Farb-Kamera Grünanteile aufweisen.
Die enttäuschende Antwort: überhaupt nicht. Bei einem Fluoreszenzmikroskop macht man für jede Farbe ein einzelnes Bild. Das geht auch kaum* anders, schließlich muss man einen Farbstoff mit einer definierten Wellenlänge anregen, sonst sendet er kein Fluoreszenzlicht aus. Dieses Fluoreszenzlicht ist gegenüber dem Anregungslicht etwas rot-verschoben, wie man oben in dem Graphen sehen kann. Vor der schwarz-weiß Kamera sitzt dann ein optischer Filter, der eben nur dieses Fluoreszenzlicht auf die Kamera fallen lässt. Und da sowohl Kamera als auch Mikroskop von einem Computer gesteuert werden, sagt die Software beim speichern des Bildes, dass dieses eine Bild die Farbe XY hat. Wenn man mag kann man dieses Bild rot sein lassen, damit es zur wirklichen Farbe des Farbstoffs passt, aber das ist kein muss. In einigen Fällen ist es sogar sehr sinnvoll von den eigentlichen Farben der Farbstoffe abzuweichen. Einige meiner Kollegen sind rot-grün-Farbenblind, und die freuen sich immer besonders, wenn ich ein Mikroskopiebild zeige, auf dem die interessanten Strukturen in rot und grün dargestellt sind. Mittlerweile haben das auch einige wissenschaftliche Journale erkannt, und schreiben vor, dass man zum Beispiel magenta-grün Darstellungen wählen soll. Ich habe das mal beispielsweise für das Mirksokopiebild von oben gemacht.
Dieser Anblick ist für mich etwas gewöhnungsbedürftig, aber offen gesagt, wenn damit rot-grün-farbendblinde Menschen erkennen können worum es in diesem Bild geht, gewöhne ich mich sehr gerne an diese Farbpalette. Wenn man statt der Kamera seine eigenen Augen benutzt um das Fluoreszenzlicht zu betrachten, sieht man natürlich die “echte” Farbe des Farbstoffs. An dieser Stelle kam es des öfteren zu Missverständnissen zwischen meinen Kollegen und mir. Der oben angesprochene Farbstoff Alexa Fluor 568 erscheint beim Blick ins Okular rot/orange, und wird daher folgerichtig von meinen Biologen-Kollegen als roter Farbstoff bezeichnet. Mein Blickwinkel auf Farbstoffe ist ein anderer. Da ich von der Aufbauseite aus denke, haben Farbstoffe für mich immer die Farbe, die sie zur Anregung benötigen. Im Fall von Alexa Fluor 568 ist das grün. Über unterschiedliche Sichtweisen in verschiedenen Wissenschaftsdisziplinen habe ich etwas in Die Frage nach der Wissenschaft, der Kommunikation und dem ganzen Rest geschrieben.
Ob man nun die Farbstoffe nach Anregungsfarbe oder Fluoreszenzfarbe benennt kommt also auf die Sozialisation im jeweiligen Wissenschaftsfeld an. Vermutlich werden die meisten hier sagen, dass die Farbstoffbenennung nach der Fluoreszenzfarbe wohl die praktikabelste ist, schließlich sieht man diese Farbe wenn man mal durch das Mikroskop schaut. Aber damit macht ihr euch die Sache ein wenig einfach. Ich will damit nicht sagen, dass meine Farbinterpretation von der Anregungsseite besser ist, ich würde euch hingegen gerne zeigen wie die Farbstoffe aussehen, wenn man sie in die Probe bringt.
Um wieder das Beispiel von oben aufzugreifen: Der Farbstoff Alexa Fluor 568 wird mit grünem Licht angeregt, fluoresziert orange/rot und hat als Substanz die Farbe magenta. Ich würde behaupten, dass jede Farbbezeichnung ihre Berechtigung hat. Welche am sinnvollsten ist hängt dann stark davon ab was man mit den Farbstoffen macht.
Bevor ich mich aber in philosophischen Fragen über Farben verliere möchte ich noch kurz den generellen Aufbau eines Fluoreszenzmirkoskops beschreiben. In den meisten Fällen besteht so ein Mikroskop aus einer weißen Lichtquelle, einem Anregungsfilter, einem Strahlteiler (dichroitischer Spiegel), Objektiv, Probe, Sperrfilter, Okular und Detektor. Das weiße Licht fällt auf den Anregungsfilter, der nur Licht durchlässt, dass für die Anregung eines Farbstoffs geeignet ist. Der Strahlteiler ist speziell beschichtet, so dass er für bestimmte Wellenlängen als Spiegel funktioniert und andere Wellenlängen durch lässt. Für das Anregungslicht wirkt der Strahlteiler als Spiegel und schickt es durch das Objektiv auf die Probe. Das Fluoreszenzlicht kommt von der Probe durch das Objektiv und wird vom Strahlteiler durchgelassen. Der Sperrfilter blockt nun jede Wellenlänge die nicht zum Fluoreszenzlicht passt. Das ist Notwendig, da das Fluoreszenzlicht weitaus schwächer ist als das Anregungslicht und ein Teil von zuletzt genanntem auch von der Probe reflektiert wird. Schließlich geht das Fluoreszenzlicht durch das Okular auf den Detektor, der entweder eine schwarz-weiß Kamera ist oder das Auge. Visuell zusammen gefasst ist das im folgenden Bild von Wimox.
In so gut wie allen Forschungsmikroskopen sind Anregungsfilter, Strahlteiler und Sperrfilter in einem Filterwürfel verbaut. Diese Filterwürfel können von einem Karussell sehr schnell ausgetauscht werden, so dass man für jeden Farbstoff einen passenden Filtersatz verwendet. Wie diese optischen Filter und Strahlteiler genau funktionieren ist im wahrsten Sinne des Wortes eine Wissenschaft für sich und verdient einen eigenen Artikel.
Abschließend noch ein kleines Spiel: Wer mir in den Kommentaren als Erste/Erster erklären kann, warum denn die Farbstoffe als Substanz so eine ganz andere Farbe haben, verglichen mit der Farbe des Anregungslichts und des Fluoreszenzlichts, die oder der darf sich eine Probe für Dinge unter’m Mikroskop wünschen. Es darf auch geraten werden – schließlich ist der Holzweg manchmal auch sehr unterhaltsam.
Fußnoten:
* Man könnte Filter mit mehreren Banden benutzen, die unterschiedliche Farben durch lassen. Für manche Anwendungen macht das schon Sinn, stellt aber schon eine größere Ausnahme dar.
]]>Irgendwann hab ich mir mal eine Tüte braunen Zucker gekauft. Auf der Verpackung ist nicht angegeben woher der Zucker kommt oder woraus er gewonnen wurde. Da es sich um eine Deutsche Marke handelt, vermute ich das ich hier Zucker aus Zuckerrüben erstanden haben, aber sicher bin ich mir da nicht. Von der chemischen Seite betrachtet ist Zucker ein Disaccharid, wobei bei meinem braunen Zucker noch einige “Nichtzuckerstoffe” enthalten sind und für die braune Farbe sorgen*. Wenn man einen näheren Blick auf den Zucker wirft wirkt er allerdings gar nicht mehr so braun.
Der fummelige Teil an der Sache ging los als ich mir überlegt habe, dass es doch schön wäre den Zucker beim Auflösen zu beobachten. Ich habe einige Versuche gebraucht bis ich es geschafft hatte noch Zuckerkristalle im Bild zu haben nachdem das Wasser eingestörmt ist. Den abenteuerlichen Aufbau zeige ich vielleicht irgendwann einmal, so lange könnt ihr euch – hoffentlich – an dem Ergebnis** erfreuen. Das Video läuft in vierfacher Geschwindigkeit ab.
Aus der süßen Welt des braunen Zuckers geht’s jetzt zum Salz. Ich hab bei mir in der Küche Jodsalz +Fluorid +Folsäure eines ungenannten Herstellers stehen. Es handelt sich also um eine Menge Natriumchlorid das mit 15 µg – 25 µg Iodat pro Kilogramm angereichert wurde. Hierzulande gibt es zum Glück keine Jod-Unterversorgung in der Bevölkerung mehr und damit das auch so bleibt gibt es Jodsalz. Zusätzlich habe ich noch Fluorid und Folsäure in meinem Salz aus der Küche. Das Fluorid ist aus dem selben Grund im Salz, wie wir es überall in Zahnpasta finden können: um unseren Zähnen was gutes zu tun und Karies zu reduzieren. Allerdings ist die Wirksamkeit in Speisesalz noch durch keine Studie untermauert, es gibt lediglich Nachweise für die Wirksamkeit von Fluorid in Tablettenform. Schließlich habe ich noch Folsäure in meinem Salz, was nicht anderes als Vitamin B9 ist. Der menschliche Körper kann dieses Vitamin nicht selbst produzieren und muss es durch die Nahrung zu sich nehmen. Zum Glück tut das jeder von uns einfach in dem man Obst und Gemüse isst, und eine Überdosierung von Folsäure ist recht schwer zu erreichen, da der Körper die Folsäure über den Urin wieder abgibt, die er nicht speichern kann. Für Schwangere ist Folsäure relativ wichtig, weil nachgewiesen ist, dass sich Folsäure positiv auf die Entwicklung des Kindes auswirkt – aber ich will mich nicht auf das dünne Eis der Lebensmittelberatung begeben, Links zu den Studien über Folsäure in den Fußnoten***.
Eigentlich hatte ich sehr kantige Salzkristalle erwartet. Das Kristallgitter von Natriumchlorid erzeugt eigentlich wunderschöne, würfelförmige Strukturen. Aber vermutlich hat der Transport und die Lagerung die Kanten der Kristalle abgerundet beziehungsweise sorgen die Zusatzstoffe für ein nicht so kantiges Aussehen der Kristalle. Da die Salzkörner deutlich kleiner waren als die Zuckerkristalle war das Zusehen beim Auflösen in Wasser noch schwieriger. Ich habe zwei Blickwinkel aufgenommen: Der erste Teil des Videos zeigt Salz durch den Boden einer kleinen Glasschale, der zweite Teil zeigt es von oben, durch das Wasser hindurch. Dabei ist störend das immer wieder dünne Schichten von Salz an die Oberfläche aufschwimmen oder sich am Boden niederschlagen, was man durch die zwei unterschiedlichen Blickwinkel auch ganz gut sehen kann. Auch dieses Video läuft in vierfacher Geschwindigkeit ab.
Ich bin immer offen für Anregungen was ich denn noch schönes unter das Mikroskop legen könnte. Schreibt es einfach in die Kommentare oder zwitschert es mir bei Twitter: @andereLampe. Übrigens habe ich neulich auch mit verschiedenen Stiften herum experimentiert und das Ergebnis getwittert. Hier geht es zu dem Bild.
Fußnoten:
* Bei meinem braunen Zucker handelt es sich nicht um Rohrzucker (ist teurer, hätte der Hersteller drauf geschrieben) und ich habe nicht heraus bekommen was denn diese “Nichtzuckerstoffe” sind, die das braun ausmachen. Weiß das jemand?
** Die Videos bei YouTube sind ebenfalls unter CC-Linzenz. Benutzen, remixen, Dinge tun, nur setzt doch einen Link hierher, bitte. Danke.
*** Ärztezeitung über Folsäure, Artikel in The Journal of the American Medical Association, Pressemeldung zum Artikel in JAMA. Schaut euch Studien an, glaubt nicht unreflektiert alles was irgendwo im Internet steht, fragt euren Arzt.
]]>
Ich habe mir zwei USB-Mikroskope besorgt und die Linsen als erstes auf meine Anzeigegeräte gerichtet, die bei mir zu Hause so herum stehen. Ich war überrascht wie groß die Pixel waren, ohne das ich sie mit dem bloßen Auge hätte ausmachen können.
Ich habe auch die Größe bestimmt und komme auf 207 µm (oder 0,207 mm) Pixelgröße eines aus rot, grün und blauer Fläche zusammen gesetzten Pixels. Wirklich überrascht hat mich, dass die Striche der Buchstaben bei Verknüpfungen auf dem Desktop nur einen Pixel breit sind. Das sie trotzdem weiß erscheinen liegt daran, dass unsere Augen im normalen Abstand zum Laptop Display diese geringen Abstände nicht mehr auflösen können. Nur zum Vergleich: ein menschliches Haar vom Kopf hat im Mittel ungefähr 100 µm (oder 0,1 mm) Durchmesser. Der Video-Funktion meines neuen Spielzeugs konnte ich auch nicht widerstehen…
Im Video ist schön zu sehen, dass ich einen Laptop mit mattem Display mein Eigen nenne. Wenn die Vergrößrung fast das Maximum erreicht hat (ca. 0:20 – 0:22) sehen die einzelnen farbigen Flächen kurz so aus, als ob man sie durch eine Scheibe voller Wassertropfen betrachtet. In diesem Moment war das Mikroskop auf die Oberfläche des Displays scharf gestellt und man hat die Verzerrungen durch die Unebenheiten der Displayoberfläche gesehen, die den Matt-Effekt erzeugen.
Falls jemandem “KSP” nicht sagt: Das ist kurz für Kerbal Space Program, ein wundervolles Computerspiel bei dem man Raketen und Satelliten baut, Forschungssonden entwirft und Landefahrzeug um auf fremden Planeten zu landen – und sie dann auch selbst fliegt.
Mein Laptop hat “nur” 1600×900 Pixel, mein Telefon, mit deutlich kleinerem Display, besitzt HD-Auflösung, also 1920×1080 Pixel. Die nächste Probe für mein Spielzeug war also klar. Beim Telefon habe ich das Bild mit der geringeren Vergrößerung weggelassen, da zeigten sich die einzelnen Pixel fast gar nicht.
Die Messung der Pixelgröße für das Display von meinem Mobiltelefon ergab 57,3 µm (oder 0,0573 mm) was ganz gut zu den Herstellerangaben von 443 dpi passt. Ich will euch nicht mit den Umrechnungen nerven aber wer es genau wissen will: “dpi” ist kurz für “dots per inch”, einfach auf Millimeter oder Mikrometer umrechnen und gut. Davon habe ich auch ein Video gemacht, mir kam gerade Evernote* unter die Finger und ich habe einfach mal die Jahreszahl einer Notiz als Ziel gewählt. Im Video kann man auch sehen, dass mein USB-Mikroskop am Anfang kaum einzelne Pixel auflösen kann. Ein kleiner Vergleich mit dem ersten Video lohnt.
Zur Zeit bastele ich noch an einer Möglichkeit Proben zu beleuchten, mit den eingebauten Leuchtdioden an den Mikroskopen bin ich nicht glücklich. Dadurch das dort weiße Leuchtdioden verbaut sind, mit hohem Blau-Anteil, erscheinen beleuchtete Bilder fast schwarz-weiß. Deswegen habe ich mit den Displays angefangen, die sind ja zum Glück von Natur aus beleuchtet.
Ich würde mich auch über Wünsche und Anregungen freuen was ich denn mal unter diese Mikroskope legen sollte, gerne Gegenstände aus dem Alltag die man einfach besorgen kann. Gewürze habe ich mir bereits vorgenommen.
Wem es jetzt gerade in den Fingern juckt und überlegt sich selbst ein USB-Mikroskop zu kaufen, dem möchte ich sagen: Lasst es. Die mitgelieferte Software hat bei beiden Mikroskopen nicht funktioniert, ich speichere die Bilddaten über VirtualDub und über etwas exotische Software die ich mir im Netz gesucht habe beziehungsweise aus dem Labor kannte. Die Verarbeitung der Varianten zwischen 20 und 40 Euro lassen sehr zu wünschen übrig und – als ob das noch nicht genug wäre – lügen die Hersteller bei den Spezifikationen. Eines der bestellten USB-Mikroskope sollte 5 Megapixel (also 2500×2000 Pixel) haben, besitzt aber nur einen 640×480 Pixel Chip. Ich empfehle hier ganz klar die Cellfie-Station meine geschätzten Kollegin Dr. Lucy Patterson (@lu_cyP). Die hat man an einem Tag zusammen gebastelt, die Teile dafür sind günstig und die Bilder macht man mit seinem Mobiltelefon. Es ist zwar für Zellen konzipiert, aber man kann alles drunter legen was einem so einfällt.
Fußnote:
* Evernote ist ein schönes Programm um sich alles mögliche zu notieren. Ich habe damit sogar Laborbuch geführt. Ich bekomme kein Geld von denen, ich finde nur das man gut damit arbeiten kann. Link.
]]>Am fünften Mai 2015 hab ich bei der re:publika einen Vortrag gehalten mit dem Titel “A small world made better by the internet – an example with microscopes”. Es ging darum wie der open-source-Gedanke, also frei zugängliche und offene Software, die Welt der Mikroskopie nachhaltig beeinflusst hat. Vor allem wie wichtig die Bildauswertungssoftware ImageJ für ein ganzes Forschungsfeld gewesen ist. Darüber habe ich auch schon ausführlich gebloggt: Die Frage nach der Software.
Aber es ging nicht nur um Software und um eine Community aus Forschern, die diese Software immer weiter verbessern und auf die aktuellen Bedürfnisse anpassen. Es ging auch um das Basteln, das Herumprobieren, Do-It-Yourself, Hacking oder wie man das gerne nennen möchte. Für mich ist das alles ein wichtiger Teil der Forschung, oder, noch präziser: ein notwendiger Teil von Forschung. Ein Sozialwissenschaftler bastelt sich seine Fragestellung für die Erhebung von Daten selbst, ein Chemiker bastelt seine Reaktions-Apparatur, ein Biologe bastelt sich seine Genetik für Zellexperimente und Physiker basteln sich den LHC. Ganz normale Nummer, das Standard-Forscher-Programm.
In meinem Vortrag habe ich mich etwas aufgeregt über kritische Stimmen zu Do-It-Yourself aus der Wissenschaft. Persönlich ist sie mir auch schon begegnet, die Haltung das man für gute Geräte auch gutes Geld auf den Tisch legen muss und das Selbst-gemachtes ein Zeichen von mangelnder Finanzierung sei. Und diese Auffassung begegnet einem auch in Fachzeitschriften wie dem Laborjournal, ganz konkret in der englischen Ausgabe dieser Zeitschrift, hier kommentiert von Björn Brembs.
Ja, was fällt diesen Forschern ein einfach mal was selber zu basteln anstatt den nächsten Katalog für Laborausrüstung zu konsultieren und sich was ordentliches zu bestellen? Denen fällt etwas neues ein. Manchmal kann man eben nicht das Gerät bestellen das man für sein nächstes Experiment braucht, weil noch niemand die Idee zu einem solchen Experiment hatte. So funktioniert Wissenschaft. Aber selbst wenn nicht das absolut neue Experiment im Kopf des Forschers herum geistert sondern es “nur” darum geht an der ein oder anderen Stelle Geld zu sparen, erschließt sich mir das nicht als Vorwurf. Die Wissenschaft ist immer noch zu großen Teilen durch die öffentliche Hand finanziert. Warum ist dann Sparsamkeit ein Makel? Oft geht es in erste Linie nicht um die Sparsamkeit sondern um einen Vorteil für den Forscher. Ich hatte dazu ein paar Beispiele im Vortrag angeführt:
Wir wollten im Labor für eines unserer Mikroskope eine Laser-Box haben. Das ist eine Kiste aus der einfach Licht mit verschiedenen Wellenlängen in Form eines Laserstrahls raus kommt. Der Hersteller unseres Mikroskops hatte so etwas auch im Sortiment, als zusätzliches Zubehör. Der aufgerufene Preis hätte aber deutlich unser Budget gesprengt mit knapp 200k Euro. Da wir das Mikroskop sowieso mit der freien und offenen Software µManager angesteuert haben, waren wir nicht auf Hardware beschränkt die nur vom ursprünglichen Hersteller kam. So haben wir dann eine Laser-Box eines anderen Herstellers gefunden die nur gut ein achtel gekostet hat. Die konnten wir sofort kaufen und mussten nicht auf den nächsten Jahreswechsel warten um eine viel größere Investition zu beantragen.
Ein Kollege im Labor hatte eine tolle Idee für ein neues Experiment. Er würde dafür einen recht genauen Zeitgeber benötige um im richtigen Moment Bilder mit dem Mikroskop machen zu können. Die einfachste Möglichkeit das zu tun wäre eine Trigger-Karte, eine Platine zum einbauen in einen Computer, die mehrere, sehr genaue Zeitsignale ausgeben kann. So ein Schätzchen kostet gut 2500 Euro. Nicht gerade wenig für ein Experiment das zunächst nur eine Idee war, und das so noch niemand gemacht hatte. Spontan kann man in unserem Verwaltungssystem an der Uni nicht schnell mal auf so viel Geld zugreifen, also entschloss sich mein Kollege für einen anderen Weg. Da die Kamera des Mikroskops auch einen Zeitgeber hat und die Software zur Kontrolle des Mikroskops eigentlich jede Art von Hardware unterstützt, bastelte er einfach einen Zeitgeber. Und zwar aus einem Arduino, Kostenpunkt ca. 25 Euro.
Wer sich noch daran erinnert das Thomas Gottschalk mal im Fernsehen Werbung für BOGOF gemacht hat, dem gratuliere ich recht herzliche Opfer von gutem Marketing geworden zu sein – so wie ich. BOGOF ist kurz für “Buy one, get one free”. Gottschalk hat damals Werbung für eine Amerikanische Buletten-Braterei gemacht, ich meine in diesem Fall aber einen Vorteil von µManager. Da wir unsere Mikroskope mit dieser offenen und freien Software ansteuern, müssen wir nicht unbedingt ein Komplettpaket eines Mikroskopieherstellers kaufen sondern können von verschiedenen Herstellern genau das einkaufen was wir brauchen. Das drückt den Preis ungemein und am Ende standen wir mit der Erkenntnis da, dass wir für das Geld eines Bestellen-Auspacken-Aufstellen-Geht-Mikroskops auch zwei Mikroskope selbst basteln können. Gut, die waren in einigen Aspekten nicht so Benutzerfreundlich und auch nicht so Idiotensicher wie das Rundum-Sorglos-Paket, aber es waren zwei Mikroskope und nicht bloß eins.
Über die Zubereitung von Grog:
“Rum muss,
Zucker darf,
Wasser kann (alles verderben)”
aus der Wikipedia über Grog
Wenn Wissenschaft ein Grog ist, dann ist Basteln das Wasser. Niemand muss das machen, es kann zu Schwierigkeiten führen wenn man es damit übertreibt*, aber es ist eine Option die man erwägen sollte. Es gibt gute Gründe für viele Forschungsgruppen sich Bestellen-Auspacken-Aufstellen-Geht-Mikroskope zu kaufen und ich sehe das auch nicht generell als Geldverschwendung an. Die Auffassung, dass dies aber den einzigen Weg darstellen soll, teile ich ganz entschieden nicht. An der Bastelei ist nichts schmutziges oder amateurhaftes, sie sorgt dafür, dass es in einigen Jahren eben neue Geräte auf dem Markt gibt, die Dinge tun können die sich jetzt gerade Wissenschaftler ausdenken.
Manchmal gibt es auch einfach verwaltungstechnische Hürden, die man durch kostengünstige Bastelei umgehen kann, wie es in Beispiel II beschreiben ist. Ich habe jetzt gerade, beim schrieben dieser Zeilen, auch die lieben Kollegen von Methodisch Inkorrekt im Ohr**. Das sind zwei Physiker die in ihrem PodCast über Wissenschaft quatschen und des öfteren darüber berichten, dass es einfacher ist selber in den Baumarkt zu gehen und ein paar Wasserschläuche zu kaufen, bevor man den Papiertiger Verwaltung mit Anträgen über 50 Meter Wasserleitung behelligt.
Lasst uns mal den Gedanken der Bastelei weiter treiben: Was brauchen wir denn alles für ein Mikroskop? Eigentlich nicht viel. Ein gutes Objektiv, eine Kamera, optische Filter, Licht zur Anregung, einen Probenhalter und eine Probe. Das muss alles gut aufeinander abgestimmt sein, damit es auch gute Bilder macht, aber so viel ist das jetzt ja eigentlich nicht. Es gibt zu diesem Gedankengang einen wissenschaftlichen Artikel von der Uni Würzburg. “A Blueprint for Cost-Efficient Localization Microscopy” ist ein Artikel von meinem Kollegen Thorge Holm der detailliert beschreibt wie man für wenig Geld ein Hochauflösungsmikroskop bauen kann. Wenn man bedenkt das für die moderne Lokalisationsmikroskopie ein kommerzieller Hersteller einen Preis im Bereich von einer Million Euro aufruft sind die 22000 Euro für diesen Eigenbau ein starker Kontrast. Etwas mehr als 2% des Preises für ein kommerzielles Mikroskop. Allerdings muss man hier auch sagen, dass die Leistung nicht ganz das ist, was man bei einem fertigen Mikroskop bekommt. Die Auflösung dieses Eigenbaus ist ungefähr 40nm, die eines kommerziellen Mikroskops liegt bei 25nm – das ist in diesem Bereich nicht wenig. Auch ist die Benutzerfreundlichkeit nicht unbedingt die gleiche, dieser Blueprint sieht nicht mal Okulare zum durchschauen vor, aber die sind auch nicht zwingend nötig sondern fallen für mich eher unter das Schlagwort “nice to have”.
Ein anderer Aspekt dieser Geschichte fasziniert mich. Die Autoren des Artikels schreiben, dass dies eine kostengünstige Möglichkeit darstellt um Studenten an die Hochauflösungsmikrokopie heran zu führen. Keine Uni hat das Geld übrig für ein Fortgeschrittenen-Praktikum ein Gerät für hunderttausende von Euro zu kaufen, aber dieser Eigenbau kann diese Funktion erfüllen. Das ist eine sehr gute Idee. Ich musst an dieser Stelle allerdings noch an etwas anderes denken. Labore die keine große Finanzierung haben könnten so auch im Feld der Hochauflösungsmikrokopie mitspielen oder auch Forschungsgruppen aus Schwellenländern, die nicht über die Förderung verfügen, die wir in unseren Breiten gewohnt sind. Man muss ja nicht der Bauanleitung eins zu eins folgen, in diesem Artikel wird auch aufgezeigt an welchen Stellen Abstriche gemacht wurden. Nimmt man für diesen Eigenbau ein wenig mehr Geld in die Hand kann man auch die Leistung dieses Gerätes erhöhen.
Zusammen mit dem Artikel Die Frage nach der Software ist das hier eine Zusammenfassung von den Dingen gewesen, die ich auch in meinem Vortrag auf der re:publika angesprochen habe. Den Vortrag habe ich auf Englisch gehalten. Freundlicherweise wurde er aufgezeichnet. Den Link dazu findet ihr hier.
Am Ende hoffe ich, dass man das Folgende aus meinem Vortrag mitgenommen hat:
Fußnoten:
* Weil man dann zu nichts mehr kommt bzw. der Grog nur noch nach Wasser schmeckt.
** Ich möchte hier auch eine ausdrückliche Hörempfehlung für den PodCast Methodisch Inkorrekt aussprechen!
]]>Im Vortrag erwähne ich folgende Links:
Björn Brembs about DIY in science und Björn Brembs Blog generell.
Das Paper A Blueprint for Cost-Efficient Localization Microscopy, das vom Labor von Markus Sauer publiziert wurde.
]]>Ich habe in der Gegen herum geforscht und möchte jetzt die Früchte meiner Arbeit der Welt mitteilen, in einer wissenschaftlichen Veröffentlichung. Im Moment funktioniert das wie folgt: Man schickt sein Manuskript mit den Grafiken zu einem wissenschaftlichen Journal, die beurteilen ob das ein Artikel ist, der ins Journal passt und ob da nicht nur Blödsinn drin steht. Dann wird dieses Manuskript an Wissenschaftler raus geschickt, die ein Gutachten erstellen. Die Wissenschaftler bleiben für uns anonym** und das Journal übermittelt uns dann die Anmerkungen und Fragen der Gutachter. Dabei kann heraus kommen, dass die Gutachter keine Veröffentlichung empfehlen, noch einiges an Experimenten gemacht werden muss, lediglich ein paar Fragen beantwortet werden müssen oder ein paar mehr Daten gezeigt werden müssen oder, dass das Manuskript so wie es ist akzeptiert ist. Letzteres passiert extrem selten, ich hab es jedenfalls noch nicht erlebt. Wir hatten Glück mit unserem Artikel, und es waren lediglich ein paar Fragen offen, die wir beantworten mussten. Durchweg konstruktive Kritik kam von den Gutachtern, auch die Anmerkung, dass wir doch mal “diese eine Software” aus “dieser” Veröffentlichung benutzen sollten, um einen Parameter zu bestimmen. Ich hatte das mit einer anderen Methode getan. Der verlinkte Artikel diskutierte diesen einen Parameter ziemlich umfassend und die Software schien auch mehr Informationen aus den Daten bestimmen zu können als meine Methode. Also hab ich die Software herunter geladen.
Nach einem Download von knapp 140MB mit Beispieldaten war ich frohen Mutes das unser Manuskript jetzt noch besser werden würde. Ich war im Begriff eine Software eines anderen Wissenschaftlers zu benutzen, der sie genau für Leute wie mich geschrieben hat – das ist Forschung!
[…hier bitte Fehlermeldungsgeräusch vorstellen…]
Nicht ganz. Ich hatte die Software herunter geladen, aber als ich das PDF mit der Anleitung öffnete, sah ich was zu tun ist “before you start”. Zwei Installationspakete von National Insturments sollte ich runter laden, da die Software in einer Umgebung geschrieben wurde, die LabView heißt. Ist jetzt auch kein großes Problem, noch zwei andere Dateien herunter laden. Ging auch ganz fix. Und lassen wir auch mal außen vor, dass mir die Installation dieser “Runtime” meine Grafikkarteneinstellungen zerschrotet hatte und ich Zeitweise nur 640×480 Pixel in 265 Farben gesehen habe. Passiert. Aber dann kam der Knackpunkt an der Geschichte: Ich hatte diese Umgebung, in der die eigentliche Software der Wissenschaftler überhaupt erst laufen kann, nicht wirklich installiert, ich hatte eine 30 Tage Shareware installiert. Nach 30 Tagen wird also der Spaß vorbei sein, dass ich die Software nutzen kann. Eine Software die aus eine Forschungsarbeit entsprungen ist, die vermutlich von der öffentlichen Hand oder einer Stiftung finanziert worden ist. Ich hab dann mal bei der Firma angerufen, und nach einem Preis gefragt: Eine Einzelplatzlizenz würde 465€ kosten, allerdings mit 10% Rabatt, da wir ein Forschungsinstitut sind. Für die Laufzeitumgebung, nicht für das Programm selbst. Das gab es ja vom Wissenschaftler gratis, nur kann man damit ohne diese Laufzeitumgebung nichts anfangen.
Ich will die Firma jetzt gar nicht für ihre Preispolitik kritisieren, ich möchte jeden Wissenschaftler der Software bastelt auf folgendes hinweisen: Freunde, nur weil eure Uni oder euer Institut eine Lizenz von irgend einer Softwareumgebung hat (Mir fallen spontan LabView (s.o.), MatLab und Origin ein), heißt das noch lange nicht, dass das für jede Uni oder jedes Institut gilt. Wenn ihr wollte das jemand anderes eure Software benutzt, dann macht sie Stand-Alone oder als Plugin für ImageJ, über das ich hier schon einmal was geschrieben habe. Im aktuellen Beispiel war es ein mittlerer, dreistelliger Betrag. Ich hatte vor zwei Jahren ein Erlebnis mit einem anderen Softwarepaket, dass ich gerne für meine Arbeit benutzt hätte. Dafür wären knapp 6000 Euro, in Worten sechstausend Euro, für eine Einzelplatzlizenz fällig gewesen. Nicht für die Software selbst, für die Umgebung*** in der sie läuft, wohlgemerkt. Damals wie heute wollte ich lediglich ein kleines Stück Software ausprobieren – nicht zwangsläufig benutzen sondern ausprobieren ob diese Software was taugt für die Arbeit die wir hier machen. Da kann ich ja heute noch von Glück reden, dass ich im aktuellen Fall 30 Tage Shareware benutzen kann. So kann ich – hoffentlich – wenigstens den Gutachter unseres Artikels glücklich machen. Allerdings stürzt mir das Ding ab, im Moment, aber das klappt schon irgendwie.
Es wäre fast soweit gekommen, dass ich diesen Artikel nicht hätte schreiben dürfen. Auch ich habe am Anfang meiner Doktorarbeit angefangen eine Software zu schreiben. Meine Kenntnisse im programmieren sind aber beschränkt, ich habe das mal in der Schule gelernt, während des Studiums habe ich nie programmiert. Erst in der Diplomarbeit wurde das wieder akut, und ich habe angefangen das programmieren neu zu lernen. Allerdings bewegen sich meine Sprachkenntnisse bei Programmen ungefähr auf dem Niveau eines Dreijährigen: Kurze Sätze gehen, “Pipi” und “Kaka” einbauen sind das coole Ding und bei mehr als zehn Sätze wird alles zusammenhangloses Gefasel das zu nichts führt. Daher habe ich auch angefangen in so einer kommerziellen Umgebung “zu programmieren”, wie eine von den zweien die ich oben schon angesprochen habe. Ich habe damals MatLab benutzt, eine Umgebung in der man sich seine Programme (teilweise) zusammen klicken kann und sich keine Sorgen um Speicher oder Datenstrukturen machen muss. Zum Glück lief das alles sehr langsam, funktionierte auch nicht gut und daher habe ich mir Hilfe geholt. Ohne Georgi Tadeus, damals Diplomand in unserer Gruppe, würde unsere Mikroskopietechnik nicht funktionieren, an der ich jetzt über vier Jahre gearbeitet habe. Er nahm den Kram den ich zusammen geklöppelt habe, und hat daraus ein schnelles Programm mit einer schönen Benutzeroberfläche gemacht, dass man einfach runter laden kann, installiert und dann läufts. Ich hätte das aber wirklich nicht ohne Unterstützung tun können, oder besser gesagt: Das wäre ohne Georgi nie passiert, der arme Kerl hatte die ganze Arbeit.
Sobald wir mit den letzten kleinen Änderungen an der Benutzeroberfläche und der Anleitung fertig sind, werden wir die Software als open source auf GitHub stellen. Ich bin sehr glücklich darüber. Und nach dem ganzen Ärger mit Software von anderen Leuten, die ich so gerne benutzt hätte, es aber wegen einer befristeten oder kostspieligen Laufzeitumgebung nicht ging, hoffe ich auch, dass irgendjemand mal unsere Software ausprobiert und benutzt. Ja vielleicht sogar in den Code rein schaut und sie weiter entwickelt. Das würde mich wirklich freuen. Ich hatte Glück, dass mir gerade der richtige Typ über den Weg lief. Damit diese ganze Geschichte nicht nur auf Glück beruht sollten Gruppenleiter, Institutschefs und vielleicht auch Leute noch einige Stufen höher anfangen die Interdisziplinarität nicht nur in Kooperationen zu verwirklichen. Vielleicht sollten sie auch mal schauen, ob man nicht einen Informatiker anstellen könnte oder das IT-Wissen bei den Leuten aus dem eigenen Feld fördert. Aber ich fürchte, dass es noch eine ganze Weile so weiter geht, wie ich es oben beschrieben habe. So lange die Nutzbarkeit von Computerprogrammen aus sehr angewandter Wissenschaft (z.B. Experimentalphysik oder Biologie) nicht einen hohen Stellenwert hat, wird sich da so schnell nichts ändern. Auch habe ich immer mal wieder festgestellt, dass gerade in den Lebenswissenschaften, die Fähigkeit eine Software zu schreiben eher als mogeln angesehen wird und nicht als etwas das gefördert werden sollte. Also, Zukunft, bitte überrasch’ mich!
Fußnoten:
* Software, die Wissenschaftliche Literatur verwaltet und in Word einbinden kann. Kostenpunkt: 250 Dollar pro Lizenz. Hersteller: Thomsen Reuters, die Agentur die auch den Impact Factor an Journale vergibt. Verbreiteter Standard in der Biologie, was mir unbegreiflich ist.
** und sie werden auch nicht bezahlt für ihre Arbeit.
*** MatLab mit knapp 12 Toolboxes kostet, nach Rabatt, tatsächlich so viel.
Viele Dinge in der Natur sind rund oder anders ausgedrückt: sphärisch-symmetrisch. Das gilt für die kleinen Transport-Kugeln einer Zelle, die man Vesikel nennt, genau so wie für künstliche Kügelchen, die Farbstoffe tragen, die wir unseren Proben hinzufügen. Vesikel sind deswegen so besonders, weil sie für so gut wie jeden Stoffwechselprozess in der Zelle eine Rolle spielen, ganz prominent auch bei der Reizweiterleitung von Nervenzellen. An einer Synapse wird das Nervensignal chemisch über den Synaptischen Spalt transportiert. Vesikel sind praktisch überall, aber sie sind klein, kleiner als die Wellenlänge des Lichts. Allein diese Tatsache lässt schon vermuten, dass es da mit einem Lichtmikroskop wohl eher schwierig ist die Kugel wirklich zu sehen – meistens sieht man nur einen Punkt.
Ich arbeite allerdings in der Hochauflösungsmikroskopie, und da brechen wir diese Auflösungsgrenze mit einigen Tricks, also umgehen diese nervige Angewohnheit von Licht, die es verhindert, dass wir Dinge nicht im Detail sehen können, die kleiner sind als die Wellenlänge des Lichts. Und wenn wir uns da Vesikel ansehen, dann wollen wir Batman sehen. Wenn man auf die Oberfläche eines Vesikels viele Farbstoffe klebt dann erhält man im Prinzip eine leuchtende Hohlkugel, innen drin sind keine Farbstoffe, die Oberfläche ist allerdings dicht gepackt mit diesen Mini-Leuchttürmen. Wenn man das auf eine Ebene projiziert, erhält man Batman.
Ich habe das in meiner Diplomarbeit schon behandelt. Dort habe ich einen Test zum Nachweis von bestimmten Immunsystem-Botenstoffen im Blut gebaut, der sich auf kleine Kugeln verlassen hat. Diese Kugeln hatten die unangenehme Eigenschaft, dass sie selbst auch etwas geleuchtet haben, aber ich war nur an dem Leuchten auf der Oberfläche interessiert, weil genau dieses Leuchten unser Signal darstellte. Im Bild oben, habe ich mal das pure “Eigen-Leuchten” einer solchen Kugel von dem einer Kugel mit Signal an der Oberfläche abgezogen, und heraus kommt ein Batman (schwarze Linie).
Immer wieder haben wir Batman gejagt, um ihn auch bei Vesiklen in Zellen zu sehen. Übersetzt heißt Batman nichts anderes als “das Sehen einer hohlen Kugel”, auch wenn wir gar nicht mehr eine Projektions vor nehmen und nach dem wahren Batman in einem Intensitätsverlauf Ausschau halten. Und tatsächlich ist es möglich in einer Zelle die kleinen Vesikel, die so knapp 0,0001 mm bis 0,00015 mm groß sind, mit unseren Hochauflösungstechniken zu sehen. Ich bin besonders stolz darauf, dass ich das an “meinem” Mikroskop hinbekommen habe, und das sogar in 3D.
Ich hab hier einfach ein paar Rohdaten aus einer Messung in die wundervolle Software ImageJ (über die ich hier was geschrieben habe) geladen, und ein 3D-Bild rendern lassen. Mit etwas Phantasie kann man schon erkennen, dass dies eine Kugel ist, und das die Mitte hohl ist. Das müsst ihr mir jetzt einfach glauben – ich wollte nicht einfach ein Bild und einen Graphen zeigen, der den Batman beweist, ich fand dieses rotierende Bildchen viel schöner. Übrigens hat die “Kugel” im Bild annähernd 0,0002 mm Durchmesser. Das ist ein wenig mehr als die eigentlich Größe eines Vesikeles. Das liegt daran, dass ich die Farbstoffe mit Antikörpern an das Vesikel geklebt habe, und zwar mit gleich zwei Antikörpern. Einem, der das Vesikel erkennt, und einem, der den ersten Antikörper erkennt und den Farbstoff trägt. Und da Antikörper so ungefähr 10 nm groß sind, also 0,00001 mm, bekommt man als Bild etwas, dass so groß ist wie ein Vesikel plus einem Haufen von Antikörpern auf der Oberfläche. In Zahlen ausgedrückt: 100 nm bis 150 nm plus 2 mal 2 mal* 10 nm Antirkörper sind ungefähr 200 nm inklusive einiger Messungenauigkeiten.
Fußnoten:
* Zwei Antikörper, aber das auf jeder Seite der Kugel, also zwei mal zwei mal 10 nm.
]]>Aber das ist nicht unbedingt gut. Manche Firmen verkaufen ein Mikroskop und dann hat man eben eine Version der passenden Software. Warum sollte man denn auch mehrere Versionen haben, wenn man nicht auch mehrere Mikroskope hat? Weil man irgendwann die Bilder und Daten auswerten möchte, um seine Schlüsse zu ziehen. Ganz konkretes Beispiel aus meinem Labor: Da gibt es ein Mikroskop zudem wir auch eine Softwarelizenz haben. Wenn jemand gerade dieses Mikroskop benutzt, dann kann man sich zwar auf anderen Rechnern im Labor die Bilder anschauen, aber man kann kein einziges Bild exportieren oder irgend eine Auswertung damit machen. Wenn man das tun möchte, muss man die eine Vollversion aktivieren und in dieser Zeit kann niemand am Mikroskop arbeiten – wir haben nur eine Lizenz. Übrigens sind diese Lizenzen jetzt nicht gerade billig und müssen auch pro Jahr bezahlt werden, also arrangiert man sich irgendwie.
Ich hab in meiner Doktorarbeit ein Mikroskop gebaut. Wie funktioniert das denn da? Ja, an Software denkt man als letztes. Baut man ein Mikroskop selbst, hat man ein dickes Problem was die Software an geht. Ich habe an “meinem” Mikroskop 18 Geräte, die ich bei einer Messung über den Computer steuern muss. Fünf Laser, drei Filterräder, zwei Shutter und eine Kamera, um nur ein paar zu nennen. Da funktioniert es nicht, 18 kleine Anwendungen laufen zu haben, jede zuständig für eine Komponente. Vor allem geht das dann nicht, wenn zum Beispiel nur der grüne Laser kurz feuern soll, wenn genau der richtige Filtersatz eingestellt ist und die Kamera gerade ein Bild macht. Von der Steuerungsseite ist das eigentlich hoffnungslos, schließlich sind die Geräte von unterschiedlichen Herstellern und nicht dafür gedacht, dass sie miteinander reden.
Zum Glück gibt es da eine Software, die es einem ermöglicht ganz viele Geräte der verschiedensten Hersteller zu einem Mikroskop zusammen zu basteln und es zu kontrollieren. Das wird jetzt wohl kaum jemanden überraschen, nach dem oben beschriebenem Dilemma. Aber die Entstehungsgeschichte dieser Software ist ziemlich interessant. Es beginnt alles im Frühjahr 1987, der Personalcomputer hält überall Einzug, eine Mouse zu benutzen ist das “neue Ding”, Apple bringt den Mac II heraus und Microsoft arbeitet an Windows 2.0. Vor 28 Jahren verteilte der Programmierer Wayne S. Rasband am National Institute of Health (NIH) in den USA eine Software auf Diskette mit dem Namen “NIH Image” – und zwar an jeden der Bock hatte sie zu benutzen. Diese Software ist der Vorgänger von ImageJ.
Mit ImageJ ist alles an Bildauswertung möglich. Das heißt, es können Abstände in den Bildern gemessen werden, Formen können erkannt werden, Spektren analysiert, Helligkeiten können ausgewertet werden und noch vielerlei Dinge mehr. Ich habe die Software schon im Studium kennen gelernt, beim Fortgeschrittenen Praktikum an der Uni Bielefeld habe ich damit die Bilder des Versuchs “Sternespektroskopie” ausgewertet. Spätestens in der Diplomarbeit, wo es um Laser und Mikroskope ging, gehört ImageJ für mich zum Standard, dass ich mich manchmal wundere, dass viele Physiker die Software gar nicht kennen – aber nicht jeder betreibt ja Forschung bei der es um Bildauswertung geht. Ist wieder so eine Tellerrand-Geschichte.
Die Firma Sun Microsystems hat 1995 die Programmiersprache Java entwickelt. Damit war es möglich einmal eine Software zu schreiben, die dann auf jedem Apple, Windows, UNIX etc. lauffähig war. Genau das tat der Programmierer von NIH Image, er begann Java zu benutzen, und das Ergebnis war ImageJ. Die Software ist open source, jeder kann also hinein schauen und verstehen wie dort was gemacht wird. Zusätzlich kann man ImageJ auch durch diverse Plug-Ins erweitern und man kann eigene Makros basteln. Dadurch ist im Netz eine große Community entstanden, die eine vielzahl von Plug-Ins geschrieben hat, für alle möglichen Fragestellungen die man an Bilder haben kann. So kamen mit der Zeit ganze Softwarepakete wie Fiji oder Icy heraus, die alle ImageJ als Grundlage haben. Alles Softwarepakete, die frei genutzt werden können. Aber irgendwann reicht es einfach nicht mehr lediglich Bilder auszuwerten. Und da ImageJ und alle Plug-Ins open Source waren, haben sich einige Menschen an der University of California, in San Francisco, zusammen gesetzt, Geld beantragt und im Prinzip ein großes Plug-In gezaubert, dass alle möglichen Geräte ansteuern kann. Und die Software heißt µManager (gesprochen Micro Manager).
Damit war es mir überhaupt erst möglich aus den verschiedenen Geräten ein funktionierendes Mikroskop zu bauen – ohne µManager könnten die einzelnen Komponenten nicht mit einander reden. Es steckt ziemlich viel Arbeitszeit in dem Mikroskop, aber das hat sich auch gelohnt. Wenn man alle Anschaffungskosten zusammenrechnet, landet man bei ungefähr 300 000 Euro. Wenn man so ein Ding fertig bestellen würde, hätte man gut das dreifache an Kosten, und es wäre nicht möglich noch irgendwas dran zu bauen. Ganz abgesehen davon, dass man bei den meisten Herstellern nicht so einfach an die Rohdaten der Bilder kommt, die ich dringend für meine Auswertung brauche. Der “Trick” bei der Mikroskopietechnik an der ich arbeite ist nämlich, dass man auf sehr vielen Bildern Mathematik macht um die Auflösung des Mikroskops zu verbessern und ganz nebenbei auch noch zwei Farben und eine dreidimensionale Darstellung erhält. Aber darum soll es hier jetzt nicht gehen.
Mit dem µManager Paket kann man noch ganz andere Sachen machen, nicht nur an neuen Mikroskopen bauen. Auch bei den Arbeitstieren, also den Standard-Mikroskopen, macht es Sinn über µManager nach zu denken. Wenn man nicht direkt ein fertig zu benutzendes Mikroskop aus dem Katalog bestellt*, sondern ein Mikroskop aus einzelnen Komponenten selbst zusammen stellt, kann man jede Menge Geld sparen. Das können durchaus mal 50% bis 70% Ersparnis sein, so das man dann noch Fördermittel für Gerätschaften und andere Dinge übrig hat. Und die Ansteuerung von so einem Eigenbau funktioniert nur mit µManager. Ich hoffe, dass man ein bisschen verstehen kann, warum ich so von dieser Geschichte begeistert bin. Oft sind noch jede Menge Ideen übrige, am Ende des Geldes, und da ist die investierte Arbeitszeit in einen Mikroskop-Eigenbau eine großartige Möglichkeit mehr zu forschen. Dafür ist nur etwas technisches Verständnis nötig und die Bereitschaft, sich auch mal ein bisschen mit Software auseinander zu setzen.
Ich hab mich auf der re:publica 2015 um einen Vortrag zu diesem Thema beworben, und ich wurde angenommen! Anfang Mai findet diese große Web 2.0 Konferenz in Berlin statt, die es schon seit 2007 gibt. Diese ganze Geschichte um ImageJ und µManager wird vor allem von der Community getragen, also von den vielen Leuten, die ihre Plug-Ins in Netz stellen, die weiter entwickeln und Hilfe anbieten für Menschen, die nicht programmieren können. Ich glaube das passt ganz gut in den Themenbereich “Digitale Gesellschaft” hinein. Zudem will ich in dem Vortrag darauf eingehen, wie man Forschungsgelder sparen kann. Auf der einen Seite um mehr Forschung machen zu können, aber zum Anderen ermöglicht ein niedrigere Preis, dass auch Labore mit deutlich weniger Geld an der Forschung teil haben können, zum Beispiel in zweit und dritt-Welt Ländern. Alles will ich natürlich noch nicht verraten, aber einen kleinen Ausblick kann ich geben: Am Ende geht es um einen Wissenschaftlichen Artikel, der zeigt wie man für knapp 20 000 Euro ein Hochauflösungsmikroskop bauen kann, dessen kommerziell verfügbares Äquivalent nicht unter einer Million Euro zu haben ist.
Warum rede ich die ganze Zeit vom Geld? Naja, Money makes the world go around – das trifft auch auf die Forschung zu. Darunter liegt aber noch etwas ganz anderes verborgen, dass für einen Außenstehenden nur schwer zu erkennen ist und das viele Wissenschaftler anscheinend vergessen haben: Zur Wissenschaft gehört auch das Basteln und Erfinden. Hier gilt nicht “Was nix kostet, taugt auch nix”. Damit etwas in einem Katalog einer Firma steht, gerade wenn es um Equipment für Wissenschaft an der Forschungsgrenze geht, steht dieses Ding vermutlich nur im Katalog, weil ein paar Jahre zuvor ein Doktorand das gebaut hat, und in einem Wissenschaftlichen Artikel erklärt hat, wie das funktioniert. Manchmal kommt es mir so vor, dass es Wissenschaftler gibt, die nur das fertig zu kaufende Gerät als ein “richtiges” Gerät ansehen. Es gibt viele Bereiche, gerade in den Lebenswissenschaften, für die es vollkommen OK ist nur Geräte aus einem Katalog zu benutzen, um ihre Forschung zu machen. Aber zu glauben, dass Forschung NUR so geht ist die beste Wegbeschreibung zum Holzweg.
Es gab da vor kurzem so einen irreführenden Artiekl in der Lab Times, den Björn Brembs in einem Kommentar auf seinem Blog ins richtige Licht gerückt hat. Sehr lesenswert, aber Obacht, die Artikel sind auf Englisch.
Fußnoten:
* Es gibt jetzt nicht wirklich einen Katalog für Mikroskope, der Prozess ist schon etwas komplizierter, aber es ist vergleichbar.
]]>Tatsächliches Fachwort aus dem Labor. Wenn eine Probe, Chemikalie oder Reagenzie in gleich große Teilmengen aufgeteilt wird. Es handelt sich dabei um eine oftmals leidliche Arbeit, die je nach Wertigkeit der zu aliquotierenden Substanz, aufgeschoben, delegiert oder lediglich teilweise durchgeführt wird. Ausnahmen bilden Stoffe, die generell im Labor benötigt werden. Diese werden in der Regel sofort aliquotiert, meistens durch technische AssistentInnen (Gott schütze euch!). Eine “Portion” einer aliquotierten Substanz nennt man auch Aliquot.
Beispiele:
“Aliquotier schon mal den Tequila”
“Wir haben echt noch viel von den Käsespätzle übrig – ich aliquotiere das mal.”
“Wir müssen Bier holen, es sind nur noch drei Aliquots da!”
Begriff, um den Vorgang des Verbringens von Substanzen in einen Gefrierschrank (-20°C, “minus-Zwanziger”) oder Froster (-80°C, “minus-Achtziger”) zu umschreiben. Oft auch in Verbindung mit Aliquot benutzt.
Vermutliche Prägung des Begriffs: Im Labor arbeitende Menschen leiden häufig unter einer unübersichtlich langen ToDo-Liste. So kann das Verstauen von Proben, Chemikalien oder Reagenzien, in einer Umgebung mit niedriger Temperatur, befreiend wirken (WEGfrieren). Bei längerer Exposition zu Arbeit im Labor, ist häufig eine substitution des Wortes “einfrieren” in den alltäglichen Sprachgebrauch zu beobachten.
Beispiele:
“Für heute bin ich fertig, muss nur noch die Proben wegfrieren”
“Die Bestellung ist gekommen, hab das für dich weggefrohren.”
“Ich hab viel zu viel Käsespätzle gemacht, ich musste die aliquotieren und wegfreiren”
Hier hört der “Lab Slang” nicht auf. Allerdings ist es gerade bei diesen beiden Begriffen so, dass ich sie auch im normalen Leben benutze. Andere Worte aus dem Labor, die etwas ungewöhnlich sind wären beispielsweise SOS-Buffer, NACHO-drei oder das Batman-Profil. Allein letzteres ist einen eigenen Artikel wert – demnächst mal.
]]>Um in einer Zelle etwas zu markieren gibt es mehrere Möglichkeiten. Die meisten davon haben mit Fluoreszenz zu tun, also mit dem “Zurückleuchten” von bestimmten Farbstoffen, wenn man sie mit Licht bestrahlt. Zellen können gentechnisch verändert werden, so das sie ein bestimmtes Eiweiß etwas anders herstellen, nämlich mit einem kleinen Anhängsel, dass Fluoreszenz zeigt. Diese Dinger heißen fluoreszente Proteine, sind also auch Eiweiße und kommen in diversen Lebensarten vor. Für das grüne fluoreszierende Protein (GFP) aus einer bestimmten Quallenart gab es 2008 den Chemienobelpreis für Martin Chalfie, Osamu Shimomura und Rager Y. Tsien. Vielleicht wundert man sich jetzt, dass man der Zelle einfach sagen kann, dass da an ein bestimmtes Eiweiß noch was leuchtendes dran gebastelt werden soll. Das muss doch irgendwie stören! Durchaus eine begründete Sorge. Manchmal sitzt dieses leuchtende Anhängsel an einer blöden Stelle, und das Eiweiß kann nicht mehr das tun, wozu es gedacht war. Manchmal mag das fluoreszierende Protein ungerne alleine sein, und sucht sich immer einen Kollegen, was dann zu einem Klumpen führt, und man auch nicht mehr von “Die Zelle funktioniert noch wie vorher.” sprechen kann. Aber das kommt gar nicht so oft vor, wie man denkt. Diese fluoreszenten Proteine sind klein, in den meisten Fällen höchstens ein Zehntel der Größe des Eiweißes an dem sie hängen.
Eine andere Möglichkeit etwas zu markieren wären Fluoreszenz-Farbstoffe oder genauer: fluoreszierende, organische Farbstoffe. Das Wörtchen “organisch” heißt dabei nicht, dass es “natürliche” Farbstoffe sind, sondern, dass sie ihren Ursprung in der organischen Chemie*** haben. Im Fall dieser Farbstoffe kann man der Zelle leider nicht beibringen, diese selbst her zu stellen. Man muss sie von außen irgendwie in die Zelle hinein bekommen. Es gib noch mehr Möglichkeiten in einer Zelle etwas bunt zu machen, aber so Dinge wie Nanodots werde ich später gesondert behandeln.
Die organischen Farbstoffe, die auch ich bei meiner Arbeit benutze, markieren durch Antikörper bestimmte Strukturen in der Zelle. Was für ein besonderes Eiweiß ein Antikörper ist, und wie dieses Y-förmige Ding ganz spezifisch Eiweiße in einer Zelle erkennen kann, ist eine Geschichte für sich. Für heute reicht es zu wissen, dass Antikörper nichts weiter als Eiweiße sind, die sehr genau ein anderes Protein erkennen können und dann daran binden. Um fluoreszierende organische Farbstoff in die Zelle hinein zu bringen, habe ich also meine Farbstoffe an Antikörper gebunden. Leider kommen diese markierten Antikörper nicht durch die Zellwand hindurch. Wenn man Zellen mit Antikörper markiert, dann müssen die Zellen vorher fixieren werden und kleine Löcher in die Zellwand gerissen werden. Fixieren sorgt dafür, dass die Zelle auf einen schlag getötet wird und alles in dem Moment des Todes einfriert und miteinander verklebt wird. So kann man sich eine Momentaufnahme der Zelle genau anschauen. Die Löcher in die Zellwand werden mit Tensiden gemacht – eigentlich nichts weiter als Seife oder Spüli. Die Zellwand besteht aus einer doppelten Lage von Lipiden, also Fett oder Fettsäuren, und mit ein ganz klein wenig Seife kann man dafür sorgen, dass Löcher entstehen, so das die Antikörper ins innere der fixierten Zelle vordringen können.
Im Artikel über den Brain Prize für das Zwei-Photonen-Mikroskop hab ich Fluoreszenz schon kurz angesprochen. Jetzt wird es Zeit genauer zu werden. Bei den Fluoreszierenden Proteinen und den organischen Farbstoffen ist das Prinzip des Zurückleuchtens gleich. In der Molekülstruktur gibt es irgendwo ein Elektron, dass nicht mehr viel Energie braucht um in einen angeregten Zustand angehoben zu werden. Und mit “nicht mehr viel Energie” meine ich genau so viel, dass ein Licht-Photon dafür ausreicht. Aus dem täglichen Leben kennen wir so etwas in der Regel nicht, so gut wie alles was wir sehen können absorbiert lediglich das Licht, beziehungsweise Reflektiert es. Aber auf die leuchtenden Notausgangschilder und Feuerwehrhelme gehe ich auch gleich ein, falls dem ein oder anderen jetzt schon ein “aber” auf den Lippen liegt.
Fluoreszenz ist so großartig weil man sie mit einer anderen Lichtfarbe anregt als die Lichtfarbe, die vom Farbstoff oder fluoreszierenden Protein zurück kommt. Das versetzt uns überhaupt erst in die Lage irgendetwas zu sehen. Wenn dem nicht so wäre, hätte man große Schwierigkeiten das Anregungslicht, dass von allem Möglichen in der Probe reflektiert wird, vom Fluoreszenzlicht zu unterscheiden. Regt man zum Beispiel einen Farbstoff mit grünem Licht (Wellenlänge 568 nm) an, dann wird ein Elektron in einem Farbstoff angeregt, also auf ein höheres Energieniveau gehoben. Ein höheres Energieniveau in einem Molekül ist auch immer ein wenig weiter von den eigentlichen Atomen entfernt, die das Molekül aus machen. Das Elektron bekommt durch das Photon aber nur Energie, und muss dann zunächst auf den Abstand wandern, der zu seinem ersten angeregten Energieniveau passt. Dabei gibt das Elektron etwas seiner erhaltenen Energie wieder ab, in Form von Wärme. So ein angeregter Zustand ist für ein Elektron nicht normal, so das es nach sehr kurzer Zeit, im Nanosekundenbereich (Milliardstel einer Sekunde), seine Energie aussendet, in Form eines Photons, und in den Grundzustand zurück kehrt. Es ist jetzt aber noch etwas weiter von den Atomen des Moleküls entfernt, also gibt es nicht seine ganze Energie ab, sonder behält sich etwas übrig. Es muss nach dem Aussenden des Photons nämlich wieder auf den geringeren Abstand zu den Atomen des Moleküls zurück, der dem Grundzustand entspricht. Es gibt also bei der Anregung und dem Aussenden eines Photons zwei kleine Energieverluste. Das sorgt dafür, dass das ausgesendete Licht weniger Energie besitzt, also eine längere Wellenlänge besitzt. Ich habe hier Quantenmechanische Effekte in einfach vorstellbare Begriffe übersetzt. Eigentlich spielen hier Aufenthaltswahrscheinlichkeiten, quantisierte Zustände und Elektronen-Spins eine Rolle – aber man muss sich die Geschichte ja nicht unnötig kompliziert machen, wenn man nur Fluoreszenz verstehen will.
Beim Beispiel des Farbstoffs, den wir mit grünem Licht (568 nm) anregen können, wird das Fluoreszenzlicht also ein bisschen langwelliger. Der Unterschied ist nicht groß, vielleicht 20 nm. Diesen Effekt bezeichnet man als Stokes Shift, nach seinem Entdecker George G. Stokes. Dieser kleine Wellenlängenunterschied reicht aus, um, mit optischen Filtern, das Anregungslicht von dem Fluoreszenzlicht unterscheiden zu können. Sonst würden uns Reflexionen des Anregungslichts aus der Probe das Bild verderben. Optische Filter funktionieren wie ein “spektrales Fenster”, ein bestimmter Bereich von Wellenlängen wird durchgelassen, der Rest wird geblockt. Man beleuchtet also seine Probe mit dem Anregungslicht, filtert das Fluoreszenzlicht heraus und bildet das dann entweder auf das Okular oder auf die Kamera des Mikroskops ab. Meistens macht man also einzelne Bilder von jeder Farbe in der Probe, schließlich braucht man unterschiedliche Wellenlängen zur Anregung und unterschiedliche Filter um das Fluoreszenzlicht heraus zu filtern.
Im Bild oben sieht man ein Beispiel für eine Anregung mit Laserlicht einer ganz bestimmten Wellenlänge. Man kann auch eine Lampe benutzen, die weißes Licht aussendet und einen optischen Filter für die Anregung benutzen. Das wird bei den meisten Fluoreszenzmikroskopen auch gemacht. Dann muss man nur einen neuen Filter kaufen, wenn man einen anderen Anregungswellenlängenbereich haben will, und nicht eine komplett neue Lichtquelle. Das Bild oben habe ich mit einem Programm erstellt das in jedem Browser läuft: Searchlight der Firma Semrock, die optische Filter herstellen. Es gibt so eine Anwendung aber auch von life Technologies, den Spectral Viewer. Das sind die beiden Programme, die ich regelmäßig benutze. Von Zeiss**** gibt es auch etwas in der Art, aber das Dinge finde ich nicht sonderlich Benutzerfreundlich und es läuft auch nicht in jedem Browser. Damit kann man mal herum spielen, wenn man möchte, aber jedem, der ein Fluoreszenzmikroskop benutzt, möchte ich ans Herz legen mal seine Farbstoffe und Filter in so einer Software zu betrachten. Vielleicht fällt einem dabei ja auf, dass man durch ein paar hundert Euro Investition die Ergebnisse eines Mikroskops deutlich verbessern könnte – in dem man einen besseren optischen Filter kauft. Bei einem Filterwechsel 10% oder 20% mehr Fluoreszenzlicht zu erhalten, ist keine Seltenheit. Aber sprecht vorher auch mal mit jemandem, die oder der sich auskennt.
Ich hab versprochen, dass ich noch auf die nachleuchtenden Notausgangschilder und die Feuerwehrhelme eingehe. Dieses Nachleuchten ist keine Fluoreszenz, man nennt es Phosphoreszenz. Das Prinzip ist mit der Fluoreszenz vergleichbar, aber um es zu verstehen brauchen wir tatsächlich ein bisschen Quantenmechanik – die Erklärung mittels trägen Elektronen, die angeregt werden und dann ein Stück vom Kern weg müssen, reicht da leider nicht mehr aus. Elektronen besitzen einen Spin, dass heißt nicht, dass sie sich drehen, sondern es ist eine quantenmechanische Eigenschaft, die einfach einen Namen brauchte, so wie es bei anderen Elementarteilchen auch so lustige Dinge wie Farbladungen gibt, die auch nichts mit Farbe zu tun haben. Der Spin von Elektronen hat, ganz grob erklärt, etwas mit Magnetismus zu tun. Aber der Elektronenspin ist auch wichtig um die Phosphoreszenz, das Nachleuchten, zu verstehen. Das Zurückleuchten der Fluoreszenz funktioniert weil ein Elektronen angeregt wird und dann wieder in den Grundzustand zurück kehrt wobei es ein Photon aussendet. Dieser Prozess läuft sehr schnell ab, im Bereich von Nanosekunden (Milliardstel Sekunden). Bei der Phosphoreszenz passiert nach der Anregung eines Elektron noch etwas anderes: der Elektronenspin ändert seine Richtung. Auf Grund der Quantenmechanik darf das Elektron dann nicht einfach wieder in den Grundzustand zurück, da herrschen strikte Regeln wie das Elektron auszusehen hat. Die Regeln der Quantenmechanik. Wenn sich also der Spin ändert, muss das Elektron in diesem anderen Zustand herum sitzen bis es sich wieder für den “richtigen” Spin entschieden hat. Anders ausgedrückt: Das Elektron bleibt sehr lange in dem angeregten Zustand, in dem es seinen Spin gewechselt hat. Das können einige Sekunden sein, aber auch Stunden. Wenn dann das Elektron in den Grundzustand zurück kehrt, sendet es Licht aus, und dieses Licht bezeichnet man als Phosphoreszenz, weil es lange nach dem Anregungslicht ausgesendet wird. Phosphoreszierende Notausgangsschilder oder Feuerwehrhelme sind also quasi ein Quanteneffekt, den wir mit dem bloßen Auge beobachten können.
Fußnoten:
* auf keinen Fall mit Golgata verwechseln!
** in der Elektronenmikroskopie kann man Eiweiße mit sehr kleinen Goldpartikeln markieren, aber darum soll es hier jetzt nicht gehen, wir reden hier von Farbe!
*** organische Chemie einfach erklärt: Alles wo viel Kohlenstoff (mit Wasserstoff dran) drin vorkommt.
**** Die Software bei Zeiss scheint, zum Zeitpunkt der Verlinkung, auch nicht zu funktionieren.