Photochemische Überlistung

Darunter fällt eine recht prominente Gruppe von Techniken, die einzemolekül lokalisationsbasierte Hochauflösungsmikroskopie, englisch singe molecule localizations.based super-resolution microscopy (SMLM). Für die Variante photo-activated localization microscopy (PALM) gab es für Eric Betzig und W. E. Moerner den Nobelpreis in Chemie 2014. Aber unter SMLM fallen noch andere Techniken, zum Beispiel direct stochastic optical reconstruction microscopy (dSTORM), die direkte stochastische optische Rekonstruktionsmikroskopie. Daran hab ich in meiner Doktorarbeit gearbeitet, und habe sie bei Ich hab was gegen Rauschen auch schon kurz erklärt – aber ich mache das hier noch mal etwas Ausführlicher und im Vergleich zu den anderen Techniken von oben.

Bei jeder SMLM Technik tauscht man den Raum gegen die Zeit. Das ist gar nicht esoterisch gemeint. Eine markierte biologische Struktur trägt, im Besten Fall, einen Haufen von Fluoreszenzfarbstoffen (siehe Das bringt Farbe ins Leben). Wenn ich jetzt dafür Sorge, dass die meisten dieser Farbstoffe kein Licht aussenden, am besten so viele, das man nur jeweils einzelne Moleküle sieht, dann kann man deren Ort recht genau bestimmen. In dem Fall hängt die Genauigkeit der Position nur von der Zahl der Photonen ab, die das Molekül aussendet und nicht mehr von der Beugungsgrenze. Die Signale sind immer noch beugungsbegrenzt, aber wenn man sicher sein kann, dass die Signale immer nur von einzelnen Molekülen ausgesendet werden, kann man auf die Position sehr genau zurück rechnen. Allerdings muss man jetzt verdammt viele Bilder machen, schließlich sollte jedes Molekül mindestens einmal dran sein mit Leuchten, mehrfach im Idealfall – sonst sieht man ja unter Umständen nicht alles von der biologischen Struktur, die von den Farbstoffen markiert wird. Im Falle von dSTORM sind das meistens so 10000 bis 20000 Bilder Rohdaten, aus denen man dann ein paar Millionen Koordinaten von Molekülen berechnet werden.

Die verschiedenen SMLM Techniken unterscheiden sich eigentlich nur über die Art und Weise wie diese langlebigen AUS-Zustände der Farbstoffe erreicht werden. Im Fall von dSTORM nutzen wir da einen besonderen Puffer, in den die Probe mit den Farbstoffen eingebettet ist. Der Puffer sorgt dafür, dass die Farbstoffe – bei recht starker Beleuchtung – ein große Chance haben in einen Radikalzustand reduziert zu werden. Dieser Zustand ist dunkel, was gut ist. Was nicht so gut ist: er ist auch chemisch recht aktiv und kann auch zur Zerstörung des Farbstoffes führen, aber irgendwas ist ja immer. Dieser dunkle Zustand ist aber auch langlebig wegen unserem Puffer. Wenn man sich an die Chemie in der Schule erinnert: Das Gegenteil von Reduktion ist die Oxidation – durch Sauerstoff würde der Farbstoff recht schnell aus dem dunklen Zustand zurück kommen. Unser Puffer bei dSTORM verhindert das, weil ein paar Enzyme enthalten sind, die den ganzen Sauerstoff schon in andere Verbindungen umgesetzt haben. Deswegen sorgt der Puffer dafür, dass der dunkle Zustand sehr langlebig ist und ein Großteil der Farbstoffe „aus“ ist.

Man nimmt sich also mehr Zeit, macht viele Bilder und bekommt am Ende viele Punkte aus denen man das Bild Punkt für Punkt wieder zusammen setzen kann. Ricardo Henriques, der eine Software Namens QuickPALM geschreiben hat, hat dazu ein ein schönes Video vom Eifelturm gebastelt, was diesen Ablauf verdeutlicht:

Ich sprach darüber auch in meinem Vortrag auf dem 33. Chaos Communication Congress (33c3). Noch mehr Links zu dSTORM, Beispiele und den Vortrag selbst gibt es hier.

Stärken / Schwächen

Die Rekonstruktion der vielen aufgezeichneten Bilder (10000-20000 bei dSTORM) geschieht nach der Datenaufnahme und benötigt einiges an Rechenleistung. Ein moderner Rechner ist damit schon einige Minuten beschäftigt. Die Auflösung von dSTORM kann bis zu 20nm in xy und 40nm in z erreichen. Einige Ansätze schaffen es sogar in den einstelligen Nanometerbereich, dabei handelt man sich aber deutlich längere Aufnahmezeiten und einige andere Nachteile ein – weswegen dafür auch nicht alle Proben geeignet sind. Der Ansatz, an dem ich in meiner Doktorarbeit gearbeitet habe, spectral demixing dSTORM (SD-dSTORM) erreicht 25nm in xy und 66nm in z, siehe dazu Ich hab was gegen Rauschen.

Wenn man Versuche an lebenden Zellen machen will oder Dynamiken beobachten möchte, ist das mit diesen Techniken, die die höchste Auflösung bieten, nur mit einem erheblichen Mehraufwand zu machen, und manchmal gar nicht.

Ich habe ja oben erwähnt der SMLM viele verschiedene Techniken enthält. Weitere Beispiele, neben dSTORM wären PALM oder uPaint.

1 / 2 / 3 / 4

Kommentare (11)

  1. #1 Johann
    9. Januar 2017

    Klasse Zusammenfassung. Bislang hatte ich noch nicht die Zeit die Primärartikel zu lesen, da kommt das hier genau richtig :).
    Nebenbei erinnerst Du mich daran die 33c3 auf youtube anzusehen, hätte ich fast vergessen

    PS “nicht nur weil die englische Bezeichnung irgendwie schmissiger klingt” Ist rein psychologisch, nach dem Motto das Gras der Nachbarweide ist auch grüner als das der eigenen, sprich, eigentlich Mumpitz und imho hauptsächlich eine deutsche Einstellung.

    • #2 André Lampe
      9. Januar 2017

      Primär Lit kann einem Kopfschmerzen bereiten, ich wünsche dir Kraft 😉

      zum Englischen: Naja, der Blick des Wissenschaftlers der im Fachbereich eh nur englisch kommuniziert hat da eine gewisse Präferenz. Ich würde hier weniger “grünes Gras” sagen, sondern eher Bequemlichkeit und klarere Definition – für jeden Fachbegriff immer eine deutsche Übersetzung zu haben bringt nicht unbedingt Klarheit.

  2. #3 MartinB
    9. Januar 2017

    Toll, danke.

  3. #4 JW
    11. Januar 2017
    • #5 André Lampe
      11. Januar 2017

      Ja, darüber gab es erst am 23.12. eine Pressemitteilung. Was ich daraus, und aus deinem verlinkten Beitrag, gelesen habe lässt mich erstmal etwas skeptisch zurück. Einige Behauptungen, zB “Nanometer genaue Auflösungen und Dynamiken Beobachten (wie bei STED)” sind sehr große Behauptungen. Zum einen, weil STED zwar Dynamiken abbilden konnte, aber längst nicht alle sondern nur ein kleines Subset und zum anderen weil die Nanometergenaue Auflösung bedeuten würde das Dinge wie Beweglichkeit der Markierung, Korrektur von Probenschwingung, Photonenausbeute und noch viele Dinge mehr geklärt sein müssen.

      Wie gesagt: ich bin skeptisch ob der Leistungsumfang dieser Technik wirklich stimmt und ob – so lesen sich die Artikel darüber nämlich – diese Technik bei vielen Proben überhaupt angewendet werden kann. Hinzu kommt noch: Gerade bei der Hochauflösung wird man wissenschaftliche Artikel finden (für jede Technik), die deutlich bessere Auflösungen konstatieren als ich sie hier in der Zusammenfassung stehen habe. Wenn man dann genauer hinschaut sind diese Auflösungen nur für einen sehr engen Spezialfall gültig.

      Ich habe dieses Paper auf der Liste und werde mich dem bald mal annehmen – so lange bin ich skeptisch.

  4. #6 Michael
    12. Januar 2017

    Hallo Andrè,
    Ich beschäftige mich seit Jahren mit Mikroskopie und war gespannt etwas über die „jungen“ Methoden zu erfahren und fand den Vortrag enttäuschend.

    Die Vergrößerungsangaben des Lichtmikroskops erscheinen mir unpassend zu den Bildern der Zellen und 40x als max. Vergrößerung für Phaco ist Unfug!

    Die Vorstellung der neuen Techniken ist für den Laien teilweise zu abgehoben und wohl unverständlich – jedoch für den „Insider“ ohne Tiefgang:
    „SIM ist was mit Moiré und Fourier transformierten Blumen, STED ist richtig was mit Lasern und dSTORM ist massives An-fitten.“
    Eine Erklärung des jeweiligen Effekts (bzw. „Hacks“ im Slang des dortigen Publikums) fehlt mir.

    Hier im Text klemmt die Einteilung in „mathematisch, physikalisch und chemisch“ auch etwas – ohne den physikalischen Effekt der Strukturierten Beleuchtung nützt die Rechnerei nichts. Und die Chemie allein bringt es auch nicht.

    Michael

    • #7 André Lampe
      1. Februar 2017

      Herzlichen Dank für das konstruktive Feedback.

  5. #8 Oliver Keller
    Genf
    8. März 2017

    Ich möchte Michael’s Kommentar #6 etwas widersprechen. Für jemand wie mich, irgendwo zwischen noob und Experte in der Thematik, war der Vortrag genau richtig und bietet viele Anstösse zum Nachlesen. Meiner Erfahrung nach ist das Publikum im CCC Umfeld häufig durchaus mit etwas Vorwissen am Start. Danke für den tollen Talk und diesen ausführlichen Aufschrieb!
    Im Zusammenhang zu open science tools, heute gefunden:
    https://channels.plos.org/open-source-toolkit
    http://collections.plos.org/open-source-toolkit-hardware

    Gruß,
    Oliver
    p.s. Gibt es schon Basteln = Wissenschaft T-Shirts?

    • #9 André Lampe
      8. März 2017

      Hallo Oliver und danke für den Kommentar und das Lob. Mir ist es bisher noch nie in den Sinn gekommen überhaupt über soetwas wie T-Shirts nachzudenken… ich lasse mir das mal durch den Kopf gehen – gute Idee!

      LG, André

  6. #10 Josef
    29. Juni 2018

    Was man auch für den etwas interessierteren Laien ergänzen könnte:
    Bei der Überlagerung zweier Frequenzen (hier: Moir´e Effekt) tritt im Ergebenis sowohl die Summen- als die Differenzfrequenz der beiden überlagerten Frequenzen auf. (das ist immer so, vgl. z.B. auch Schwebung in der Akustik). So ist das auch bei der Überlagerung der bekannten Frequenz der Anregung (Linienmuster) mit der unbekannten Struktur der Probe (Mischung aus vielen Fequenzen). Am einfachsten zum Vorstellen ist es, wenn man annimmt, dass die Probe selbst ein sehr feines Linienmuster ist. Also zu fein um es ohne SIM aufzulösen.
    Die jeweiligen Summenfrequenzen (aus der Frequenz des Anregungsmusters und der jeweiligen Frequenz der Probe) schaffen es nicht durch den Tiefpass des Mikroskop-Objektivs (viel zu fein), die Differenzfrequenzen schon. => Diese müssen bei der Auswertung wieder im Frequenzraum an ihre Frequenz (die sie in der Probe noch hatten) zurückverschoben werden.
    Ich hoffe, einige Klarheiten hiermit beseitigt zu haben.. 😉 😀
    LG, Josef
    P.S.: man kann mit dem Moir´e Effekt auch noch ganz andere tolle Sachen machen 😀

    • #11 André Lampe
      29. Juni 2018

      Danke für die Ergänzung, Josef. Ich finde das einen guten Erklärungsansatz, und zwar ganz ohne “Herumgeschwurbel” mit Fourier-Transformationen ;-). Und danke für den Link zu dem tollen Video.

      Liebe Grüße, André