Unsere Idee war es dieses Problem komplett zu umgehen in dem wir zwei Farbstoff genommen haben die recht nahe beieinander liegen, sich aber in ihrem Spektrum ein bisschen unterscheiden. Wir haben zwei rote Farbstoffe verwendet, die man mit dem Auge so gut wie gar nicht unterscheiden kann. Dann haben wir einen Spiegel vor die Kamera gesetzt, der bis zu einer bestimmten Wellenlänge das Licht passieren lässt aber oberhalb dieser Wellenlänge anfängt das Licht zu reflektieren. So entstehen zwei Bilder unserer Probe, die wir nebeneinander auf einer Kamera abgebildet haben. So sollten also von jedem Farbstoff ein Licht-Punkt-Paar entstehen, auf jeder Seite der Kamera ein Licht-Punkt pro Blink-Ereignis. Man kann das im unteren Bild im Kasten a) sehen. Von diesen Bildern haben wir normalerweise zehn bis zwanzigtausend Bilder pro Probe aufgenommen und dann mit einer Software die Positionen der einzelnen Licht-Punkte errechnen lassen. Die Software die wir dafür verwendet haben heißt rapidSTORM und ist kostenlos und open source.

Der Workflow von SD-dSTORM. Lampe et al., Spectral demixing avoids registration errors and reduces noise in multicolor localization-based super-resolution microscopy, Methods and Applications in Fluorescence, Volume 3, Number 3, 13 August 2015 © IOP Publishing. Reproduced with permission. All rights reserved

Der Workflow von SD-dSTORM. Lampe et al., Spectral demixing avoids registration errors and reduces noise in multicolor localization-based super-resolution microscopy, Methods and Applications in Fluorescence, Volume 3, Number 3, 13 August 2015 © IOP Publishing. Reproduced with permission. All rights reserved

Jetzt haben wir also einen Haufen von Punkten, oder besser gesagt haben wir Punkte-Paare, denn aus einem Blink-Ereigniss wurde durch den Spiegel vor der Kamera ein Licht-Punkte-Paar. Dieses Paar sagt uns direkt etwas über die Farbe, denn der hellrote Farbstoff (kürzere Wellenlänge) sollte auf der einen Seite einen helleren Lichtpunkt hinterlassen haben als auf der anderen, wohingegen der dunkelrote Farbstoff (längere Wellenlänge) sich genau anders herum verhalten sollte. Also müssen wir jetzt nachträglich aus der langen Liste von Positionen unsere Paare ausfindig machen. Das sieht man im Bild oben in Kasten c). Wie die Geometrie unserer Kamera und des Spiegels davor ist wissen wir, also wissen wir auch in welchem Abstand wir suchen müssen. Da aber keine Optik perfekt ist, suchen wir nach einem Partner in einer kleinen Umgebenung, was durch kleine Kreise am Ende der Pfeile angedeutet ist. Wenn da ein Blink-Ereignis im gleichen Bild statt gefunden hat, dann haben wir ein Paar gefunden, wenn wir kein Ereignis finden wird die ursprüngliche Position verworfen und wenn wir mehr als einen Partner finden können wir uns nicht mehr sicher über die Farbe sein und verwerfen alle beteiligten Lokalisationen. Das mag einem seltsam vorkommen, dass wir hier Daten “weg werfen”, aber das ganze hat auch einen Vorteil, wie man später noch sehen wird.

Am Ende haben wir also eine Liste von Paaren, immer jeweils zwei Lokalisationen, also auch zwei mal eine Helligkeitsinformation, einmal aus dem Kanal bei dem der Spiegel eine kürzere Wellenlänge durchgelassen hat und einem aus dem Kanal bei dem der Spiegel eine längere Wellenlänge reflektiert hat. Diese beiden Helligkeiten eines jeden Paars stellt man in einem Graphen da, wie man oben in Kasten d) sehen kann. Dort erkennt man schon zwei getrennte Populationen von Punktwolken, jeder Punkt steht für ein Paar. Und jetzt werden schon wieder Daten weggeworfen. Nur die Paare, die in einem der farbigen Bereiche liegen werden einem Farbstoff zugeordnet. Etwas irritierend hierbei unsere Farbenwahl: Der hellrote Farbstoff wird hier in rot dargestellt, der dunkelrote Farbstoff in grün. Längst nicht alle Paare liegen innerhalb der farbigen Flächen in d) und diese Paare werden auch weggeworfen. Wir machen das, weil man sich nicht überall in diesem Graphen sicher sein kann, dass dort definitiv nur Paare von dem einen Farbstoff gefunden werden und auf keinen Fall Paare von dem anderen. Das schlimmste was einem passieren kann ist einfach, dass man Lokalisationen eine falsche Farbe zuweist. Mit diesem “Multicolor filter” schaffen wir es die Falschzuweisung von Farben auf unter 1% zu drücken. Wie dann am Ende des rekonstruierte Bild aussieht, auch im Gegensatz zu einem Bild aus einem normalen Fluoreszenzmikroskop, sieht man oben in Kasten e). Warum es gar nicht verkehrt ist auch mal Daten weg zu werfen, sieht man im nächsten Bild.

1 / 2 / 3 / 4

Kommentare (8)

  1. #1 Fliegenschubser
    8. September 2015

    Sehr interessant! Und eine elegante Methode. Eine Auflösing von 25 x 25 x 66nm ist ziemlich gut, gerade in z-Richtung. Ein paar Fragen habe ich:
    Wie lange dauert es einen Datensatz für ein 10um x 10um großes Bild aufzunehmen?
    Und wenn ich das ganze in 3D machen will und ein Volumen von 10 X 10 X 10 um haben möchte?
    Wird aufgrund der tausenden Einzelaufnahmen Photobleaching ein Problem?

    • #2 André Lampe
      8. September 2015

      Da antworte ich doch gerne drauf:

      Die Größe des Bildausschnittes ist nur abhängig davon was du mit dem Laser im Mikroskop beleuchten kannst, wir haben bei uns ungefähr 17,5µm x 34µm Field of view. Man kann so ab 10000 Einzel-Blink-Bildern eine vernünftige Rekonstruktion erreichen, besser sind aber 20000 – kommt halt stark auf die Strukturen an. Letzteres dauert ca. 10 Minuten. Bei 3D ist man recht beschränkt, mit der Zylinderlinse, wie ich es beschrieben habe, hast du nur die Chance 1µm in z aufzunehmen, mit einer Messung. Du kannst aber meistens dann nicht noch höher gehen um “mehr z” aufzunehmen, da haben die Farbstoffe schon ziemlich gelitten und blinken nicht mehr so toll. Photobleaching ist im Prinzip ein Problem, man kann sagen, dass eine Stelle, an der man gemessen hat, nach dieser Messung “tot” ist. Man kann von dort noch Signal bekommen, aber eine schöne Rekonstruktion sieht definitiv anders aus.

      Photobleaching ist “nur” im Prinzip ein Problem, weil dieser dSTORM Puffer auf den Prinzipien von ROXS beruht – das würde auch nicht anders gehen, wir leuchten unser Field of View mit einer Laserleistung von 150mW aus, das entspricht einer Leistungsdichte von ungefähr 5kW/cm^2. Das dieser Blinkeffekt eintritt beruht zum Teil auch dem Pfad, der die Farbstoffe zum Photobleichen bringt. Mit normaler Fluoreszenzmikroskopie haben unsere Leistungen und Pufferbedingungen kaum noch was zu tun.

      Ich hoffe das beantwortet deine Fragen!

  2. #3 Fliegenschubser
    9. September 2015

    Vielen Dank für Antwort!
    10 Minuten für ein Bild (ja, ich bin Biologe, ich mache Bilder, keine Messungen 😉 ) geht noch in Ordnung.
    Die hohe Laserleistung ist natürlich immer ein Problem. Für fixierte Zellen eher weniger, aber mit lebendem Gewebe wirds dann schwierig.
    Ich hätte gern ein Superresolutionmikroskop, mit dem ich 3 Farben in 3D in 15 x 15 x 15 um mit einer 20nm Auflösung aufnehmen kann. Aber soweit ich weiß, existiert das leider nicht…noch nicht. Ein Eingeweihter erzählte mir unlängst von “seinem” neuen STED-Setup, womit sie den anregenden Laserfokus auf 70x70x70nm verkleinert haben. Das ist mittlerweile sogar kommerziell verfügbar, soweit ich weiß.
    Aber auch da hat man eine sehr hohe Laserleistung, die einem die Probe wegbrutzelt, wenn man einen 3D-Stack aufnehmen möchte :/

    • #4 André Lampe
      9. September 2015

      Ich verstehe deine WÜnsche, aber das sind ziemlich große und gewaltige Wünsche. Bis ein so großes Volumen in dieser Auflösung mit drei Farben geht… Nun, ich will dich nicht desillusionieren.

      ABER: Ein bisschen Rückfrage von der technischen Seite… brauchst du wirklich alle drei Farben in Hochauflösung? Würden nicht auch zwei Farben gehen und die Dritte in “normalem” Weitfeld – und dann eben jeweils austauschen? Brauchst du wirklich 15x15x15µm FOV, würdest du nicht evtl mit weniger z auskommen? Aber grundsätzlich kann ich dir sagen: Diese Auflösung in diesem Volumen mit zwei oder drei Farben wird wohl niemals live gehen, immer nur fixiert.

      Dein gewünschtes Volumen mit drei Farben geht heute schon in einem SIM (structured illumination Microscope), da ist die Auflösung aber so um die 100x100x250nm. Hab ich schon mit gearbeitet und sehr schöne Bilder von kompletten Zellkernen mitten in der Teilung gemacht – aber auch nur fixiert.

  3. #5 Fliegenschubser
    10. September 2015

    Ich weiß, ich weiß, das sind eher Wunschträume^^ Ich rechne auch nicht damit, dass eine derartige Technik in naher (oder etwas fernerer) Zukunft existieren wird.

    Mein Arbeitsgebiet ist Embryogenese von Drosophila. Daher sind meine Objekte ziemlich groß und ziemlich 3D (etwa 500 x 160 x 160 um). Der Bereich, der mich interessiert, ist allerdings deutlich kleiner.
    Für die allermeisten Anwendungen ist unser “normales” Konfokalmikroskop auch ausreichend.

    Für Hochauflösung sind auch zwei Farben genug, die dritte (in meinem Fall Zellkerne) muss nur vorhanden sein.
    Meine ersten Versuche mit STED waren so mittelmäßig erfolgreich, was aber (vermutlich) am Färbeprotokoll liegt. Da gibt es noch einiges zu optimieren. Ich werde, wenn ich wieder ein wenig mehr Zeit hab und die Microscope Facility das 3D-STED Setup installiert hat, das auf jeden Fall noch weiter verfolgen.

    • #6 André Lampe
      10. September 2015

      Wenn ich dann so frei sein darf dir ein paar kleine Tipps mit auf den Weg zu geben:

      Wenn man Hochauflösung macht geht nichts über viel Farbstoff. So viel wir nur irgendwie geht sollte man versuchen in die Probe zu bringen. Nicht nur damit Herr Nyquist zufrieden ist, sondern auch damit genug Signal für 3D bleibt. Es lohnt sich da sicher auch über Sekundäre-F(AB)-Fragmente nach zu denken oder über Nanobodies (Lama-ABs), wiel sie kleiner sind und mehr Farbstoff an die Struktur passt.

      Sehr cool, dass du bald ein 3D-STED ausprobieren kannst, ich würde aber auf jeden Fall auch andere Techniken versuchen. Wenn ihr eine Facility habt, hat die sicher auch Kontakte das du evtl mal an ein SIM oder an ein STORM dran kannst. Selbst die absoluten Größen auf dem Gebiet der Hochauflösung können nur schwer eine Empfehlung geben für welche Probe welche Technik die Beste ist. Und ganz im Ernst: Wenn dir Berlin nicht zu weit ist…. hier steht ein echt gutes SIM 😉

      Gewebe ist der Tod jeder Hochauflösung. Es kann reichen, dass durch viel Zellmaterial sich der Brechungindex an der vierten Nachkommastelle ändert, um die tolle Auflösung vollkommen zunichte zu machen. Wenn du schon weißt, dass du tief ins Gewebe willst (“tief” wäre hier für mich mehr als 5µm!), dann mach dir evtl schon früh darüber Gedanken wie du dein Target freipräparierst oder ob Dünnschnitte nicht eine Option wären. Ich hatte mal an Projekt an Fliegen-Larven – die Erkenntnis, dass der Brechungsindex all meine Bemühungen zunichte gemacht hat war ein langer und steiniger.

  4. #7 Fliegenschubser
    10. September 2015

    Du darfst, für derartige Tipps bin ich sehr dankbar^^
    Viel hilft viel, das stimmt wohl, allerdings erhöht zuviel auch den Hintergrund. Ein zu schlechtes SNR war ein Problem beim letzten Mal. Hier werde ich ein verschiedene Verdünnungen/Mengen testen. Nanobodies wären natürlich richtig super, allerdings hab ich keine gegen “meine” Proteine und leider auch nicht die Zeit das vernünftig umzusetzen. Schade eigentlich…
    Im Allgemeinen ist Superresolution für mein Projekt “nur” das i-Tüpfelchen, nicht essentiell. Ich würds trotzdem gern machen, einfach weils fetzt 😀 Aber ich kann leider nicht zu viel Zeit in die Sache investieren, auch weil es nicht sooo erfolgversprechend ist.
    Gewebe ist, wie du sagst, der Tod jeder Hochauflösung. Das ist leider wahr. Und teilweise muss ich schon sehr tief rein ins Gewebe, das geht natürlich nur noch mit entsprechendem Clearing. Aber dann komm ich mit dem Laser durch den gesamten Fliegenembryo (150um). Für normales Confocal reicht das^^

  5. […] geht es mal, auch buchstäblich, ins Detail: Andre beschreibt bei Die Kleinen Dinge Teile seiner Doktorarbeit. Dabei geht es um Mikroskopie, aber eine ganz spezielle. Er dringt in […]