Die Buchstaben X und Y wurden in den Plasmiden auch nicht an irgendeine Stelle eingebaut, sondern dort, wo das Enzym DNA-Polymerase I für das Kopieren zuständig ist – dieses Molekül ist zumindest im Laborversuch in der Lage, DNA-Stücke mit den künstlichen Buchstaben zu kopieren.

Die so manipulierten Bakterien durften sich dann (in der geeigneten Nährlösung) vermehren, und tatsächlich zeigte sich, dass die DNA mit den zusätzlichen Buchstaben einigermaßen gut kopiert werden konnte – pro Kopierprozess gibt es eine Fehlerrate von etwa 0,6%, wenn ich alles richtig verstehe. Das ist immer noch viel, aber schon einigermaßen brauchbar. Interessant ist, dass anscheinend die Reparaturmechanismen für die DNA die künstlichen Buchstaben nicht eliminieren – sonst wäre das Experiment vermutlich gescheitert.

Mit X und Y stehen jetzt also zwei weitere Buchstaben im genetischen Code zur Verfügung. Leider tragen die Worte, die man mit diesen Buchstaben bilden kann, aber keinerlei Bedeutung: GCY codiert eben keine Aminosäure. Um die zusätzlichen Buchstaben auch nutzen zu können, muss man auch den Protein-Synthese-Apparat an die neuen Buchstaben anpassen. Sowohl das Ablesen der DNA (mit Hilfe der Boten-RNA) als auch das Übersetzen der Worte in Aminosäuren (mit Hilfe der Transfer-RNA) müssen an die neuen Buchstaben angepasst werden: Man müsste also insbesondere dafür sorgen, dass in den Zellen Transfer-RNA vorkommt, die an einem Ende das Wort GCY trägt und am anderen eine Aminosäure, die man in ein Protein einbauen möchte. Es ist also vermutlich noch ein weiter Weg hin zu Lebewesen, die die künstlichen Buchstaben nicht nur mit sich herumtragen, sondern auch nutzen können.

Auf jeden Fall zeigt die Forschung aber schon jetzt, dass es nicht absolut zwingend ist, dass die DNA genau die vier Buchstaben verwendet, die wir in der Natur vorfinden. Hätte die Evolution auch noch die Buchstaben X und Y ins Spiel gebracht, dann würde der genetische Code auch vielleicht Worte mit nur zwei Buchstaben verwenden – denn bei 6 Buchstaben sind das immer noch 36 mögliche Kombinationen. Ob eine solche alternative Evolution möglich wäre oder ob die anderen Buchstaben nicht doch irgendwelche Nachteile mit sich bringen, ist aber noch nicht klar.

Disclaimer Von Biochemie habe ich echt wenig Ahnung. Ich habe versucht, das wichtigste einigermaßen korrekt wiederzugeben, aber ich garantiere nicht dafür, dass ich alles richtig verstanden habe – erzählt das, was ich hier geschrieben habe, also nicht ohne weitere Kontrolle in irgendeiner Prüfung oder so…

                                   

ROSS THYER & JARED ELLEFSON
New letters for life’s alphabet
Nature vol 509 p. 291

Denis A. Malyshev, Kirandeep Dhami, Thomas Lavergne, Tingjian Chen, Nan Dai, Jeremy M. Foster, Ivan R. Correa Jr & Floyd E. Romesberg
A semi-synthetic organism with an expanded genetic alphabet
Nature vol 509 p. 385, doi:10.1038/nature13314

1 / 2

Kommentare (38)

  1. #1 Till
    25. Mai 2014

    Zu den zwei Buchstaben Wörtern: Die Redundanz im jetzigen genetischen Code (der code wird auch degeneriert genannt, da verschiedene ‘Wörter’ für die gleiche Aminosäure codieren) hat durchaus ihre Funktion. So ist die DNA nämlich weniger Anfällig für Mutationen, bzw. es können Mutationen entstehen, die aber keinerlei Auswirkungen haben, da der veränderte genetische Code zu der gleichen Aminosäuresequenz führt. Das ist zwar nicht ganz so effizient wie moderne Fehlerkorrekturalgorithmen z.B. in Festplatten, aber trotzdem schon ganz gut.

    Die Natur hat mit diesem redundanten Code auch sonst noch einige Tricks auf Lager wie z.B. Viren, bei denen der genetische Code in beide Richtungen abgelesen wird und in beiden Richtungen verschiedene aber Sinnvolle Proteine herauskommen (die Daten wurden quasi komprimiert).

    Auch in der Molekularbiologie kann die Redundanz sehr nützlich sein, da man so in die DNA Sequenz von Proteinen Schnittstellen für DNAsen einbauen (oder entfernen) kann, ohne die Aminosäuresequenz des entsprechenden Proteins zu verändern.

  2. #2 MartinB
    26. Mai 2014

    @Till
    Stimmt schon – aber die Redundanz ist ja vermutlich nicht wirklich notwendig, sondern nur hilfreich. Der evolutionäre Pfad ist zumindest mir da auch nicht klar – die t-RNA hat ja am Ende ein 3er-Codon, könnte so ein Molekül auch mit nem 2er-Codon funktionieren? Oder muss es ein 3er-code sein (oder ein anderes Molekül)?

  3. #3 Elisabeth
    26. Mai 2014

    @Martin
    Danke für den tollen Artikel! Ich mag diese Gedaneknspielereien (was wäre wenn…) ausgesprochen gerne, wenn sie noch mit aktueller Forschung gewürzt sind, umso besser! 🙂

    @Till
    Hast du zu diesen in-zwei-Richtungen-ablesbaren-Virengenomen Beispiele? Habe ich noch nie von gehört und klingt spannend!

  4. #4 CM
    26. Mai 2014

    Ein paar Aspekte:

    – Die Redundanz ist notwendig, denn die 20 bedeutsamsten AS können schlicht nicht mit 2er Codons abgebildet/kodiert werden.
    – Bei vielen posttranslationalen Modifikationen von AS kann man sich überlegen, dass sie entweder biochemisch prätranslational nicht diskriminiert werden können oder sterisch, chemisch aus Sicht der Aminoacyl-tRNA-Synthetasen inkompatibel sind (Phosphorylierungen oder Glykosilierungen). Natürlich sind Alternativ-Aminoacyl-tRNA-Synthetasen vorstellbar – doch was passiert während der Faltung der Proteine im Falle (grob) modifizierter AS? Da ist es “aus Sicht der Natur” einfacher posttranslational zu arbeiten. (Selenocystein ist ein Beispiel für prätranslationale Rekodierung – aber Ausnahmen bestätigen eben die Regel. 😉 )
    – So lange die Faltungspromblematik nicht wirklich gelöst ist, kann man nur mit trial-and-error neue AS (inkl. neuer tRNA und Alternativ-Aminoacyl-tRNA-Synthetasen) entwickeln. Man ist schon recht weit und ein Bausatzansatz nicht abwegig, warum also nicht? Das wäre schon ziemlich cool – aber auch verdammt aufwendig.

  5. #5 MartinB
    26. Mai 2014

    @CM
    “Die Redundanz ist notwendig, denn die 20 bedeutsamsten AS können schlicht nicht mit 2er Codons abgebildet/kodiert werden.”
    Ja, aber wenn ich 6 Buchstaben hätte, dann würden ja 2er-Kombis recihen – das Argument von Till war ja, dass 3er-Kombis auf jeden Fall den Vorteil der Redundanz haben, was zwar stimmt, aber eben nicht zwingend erforderlich ist.
    “Das wäre schon ziemlich cool – aber auch verdammt aufwendig.”
    Auf jeden Fall – und dann muss man ja auch noch nicht nur wissen/vorhersagen, wie sich die neuen Proteine mit den zusätzlichen AS falten, sondern auch noch, was die dann eigentlich bewirken.

  6. #6 Aveneer
    26. Mai 2014

    @ MartinB
    „nicht zwingend erforderlich“
    Ich sehe nur Nachteile bei 6 Buchstaben und keine Vorteil? A) Anfälliger bei/infolge einer Mutation (keine/weniger Mutationen ohne folgen) und vorallem B) (viel) mehr Proteine die insgesamt zur Synthese aller Buchstaben benötigt werden (“Synthese-Energie”).
    Zwar gibt es eine Redundanz in der Natur aber nicht alle Lebewesen verwenden alle „Codierungsmöglichkeiten“ gleich (zumindest nicht gleich häufig). Das eine bevorzugt ACC das andere ACG für Threonin. Da kann man sich eine t-RNA und deren Synthese-Apparaturteilweise sogar sparen.

    Restrikionsenzyme könn(t)en fremde DNA zerschneiden da sie z.B. „ACCCCA“ schneiden können, aber „ACGGCA“ nicht – oder umgekehrt. Bakterien besitzen ähnliche Restrikionsenzyme um sich vor Virusinfektionen zu schützten.
    BTW: Dazu kommt die mRNA muss auch noch anders codiert werden/andere Bausteine (!?) bevor die t-RNA kommt. Also viele, viele Proteine müssen da noch ins Spiel kommen.
    Intersant könnte diese Technik auch dann sein, wenn die DNA nur nicht „verdaut“ werden soll. Hier müsste man entweder GC oder AT ersetzten – die mRNA kann dann wieder „normal“ sein. (solche Versuche gibt es ja schon auf künstlichem Weg)

    “Hast du zu diesen in-zwei-Richtungen-ablesbaren-Virengenomen Beispiele? Habe ich noch nie von gehört und klingt spannend!”
    Gern genommen wird die virale Polymerase und das HBs-Antigen des HBV. “Mitten” im für die Polymerase codierenden Region liegt das Oberflächenprotein “HBsAg”. Funktionell keinerlei Berührungspunkte. Aber das gibt es nicht nur für Viren. Mich würde es nicht wundern, wenn die eine oder andere Region ebenfalls für unterschiedliche Proteine codiert (geht nicht so einfach wie bei Kernlosen) aber mit dem richtigen Splicing…

    Gruß
    Aveneer

  7. #7 MartinB
    26. Mai 2014

    @Aveneer
    Mit derselben Logik könnte man aber argumentieren, dass ein binärer Code noch besser wäre, oder nicht?

    Generell finde ich es problematisch, solche Vergleiche zu ziehen – immerhin hat “unser” genetischer Code ein paar Jahre Optimierung hinter sich; wer weiß, was die Evolution mit 6 Buchstaben hätte anstellen können.

  8. #8 peter
    27. Mai 2014

    Mit vier Buchstaben kann man beliebig viele Wörter und nicht nur 64 bilden. So habe ich diesen Satz mit nur zwei Buchstaben gebildet und sichtbar kann man also sogar mit zwei Buchstaben recht viele Wörter bilden.

    “Man” benötigt also keine weiteren Buchstaben, um mehr überflüssige Worte zu formulieren.

    Falls es noch nicht bekannt sein sollte, diesen DNA Code hat auch nicht die Evolution geschaffen und optimiert. Die Evolution hat nämlich noch überhaupt nichts geschaffen. Bestenfalls hat sie Dummköpfe produziert, aber das ist nun wirklich keine konstruktive Leistung sondern entspricht dem natürlichen Lauf der Dinge: Degeneration und Gedankenpfusch.

    Unser bestehender genetischer Code kann ALLES beschreiben, wenn es gewünscht wäre. Es ist nur eine Frage der Leseeinheit, was aus dem Code herausgelesen wird. Diese Leseeinheit ist eben auf Dreibuchstabenwörter eingestellt, aber sie könnte auch auf Zehnbuchstabenwörter desselben Codes eingestellt sein, wenn es benötigt werden würde.

    Statt in diesem Wunderwerk herumzupfuschen sollte man lieber mit der DNA der NSA bei ihren Speicherproblemen helfen. Schließlich brauchen die für jeden Weltbürger zur Terroristenüberwachung ein Terabyte und die hierfür benötigten 50 g DNA lassen sich viel einfacher unterbringen also die vielen Milliarden Festplatten. Diese viele Milliarden Festplatten entsprangen übrigens denselben Hirnverbrennungen wie der Wunsch an der Schöpfung herumpfuschen zu wollen.

    Ein und dieselbe Informationsmenge mit unterschiedlichen Buchstabencodierungen:

    011000110010110111011111001110100110100111000001011101111010
    011111001100000100110111111101101110110000010001001110100110
    100111000001011001011100011000101101101110000111011001110101
    110111011111001100110100000010001000110101111011011101101111
    0101101101110000111011001110100111000010

    CGATAGTCTCTTATGGCGGCTAACCTCTGGCTTATAACATCTTTCGTGTAACACATGGCG
    GCTAACCGCCTACGAGTCGTGACTCGCTCCTCTCTTATATCAAAGAGATCCTGTCTCGTT
    CCGTCTAATGTATGGCTAAG

    306267371646470135723714046775566021164647013134305556073165
    673714640210657335572667035472341

    634776671066337510739311158032751066335712683704766157667333
    02263117391375194710690

    632DDF3A69C177A7CC137F6EC113A69C165C62DB87675DDF334088D7B76F
    5B70ECE9C2

    Finger weg von der Schöpfung, Dummköpfe!
    ———————–
    Zufällige Entstehungswahrscheinlichkeit = 10^( -84 )

  9. #9 CM
    27. Mai 2014

    bzgl. #5: Sorry, da hatte ich zu schnell geschrieben und zu wenig gelesen. Ich denke es gilt zur Beantwortung 3 Aspekte zu berücksichtigen: Was ist informationstheoretisch möglich / sinnvoll? (Das haben wir ja +/- durch.) Was ist evolutionär bedingt? (Interessant, klärt aber nicht die Frage nach dem Grundsätzlichen.) Und: Was ist physikochemisch möglich / sinnvoll? (Also, können überhaupt andere, neue Enzymkategorien designed ( 😉 ) werden, die einen neuen 2-Codon-Code verarbeiten.)

    Insbesondere bei der letzten Frage, bin ich mir nicht sicher, ob sich das theoretisch beantworten läßt. Das Experiment – kommt ein artifizielles Lebewesen mit 2 Codons hin? – muß wohl gemacht werden, wobei ein Fehlschlag wenig grundsätzlich klären würde.

  10. #10 MartinB
    27. Mai 2014

    @CM
    Man bräuchte ja auch eine t-RNA o.ä. mit 2-er-Codon am Ende. Gibt es sowas? Geht das überhaupt?
    Und generell ist natürlich die Unmöglichkeit von so etwas schwer zu beweisen.

  11. #11 Daniel
    27. Mai 2014

    Problematisch wäre eventuell die unzureichende Bindungsaffinität bei nur zwei Basen. Wir brauchen ja eine hinreichende Wechselwirkung in den Ribosomen zwischen mRNA und tRNA.

  12. #12 Aveneer
    27. Mai 2014

    Ich finde da kommen zu viele Aspekte ins Spiel.
    Aber habe was passendes gefunden (denke ich).
    https://www.sciencedirect.com/science/article/pii/S001457930900979X. Die Evolution von 1-codon zur 3-codon t-RNA.
    Darauf gekommen bin ich wegen einem Artikel von Roland Pohlmeyer im Laborjournal (hatte ich damals gelesen und hängt seitdem an meiner Wand). Denke er hat damals tatsächlich was angestoßen(?).

  13. #13 MartinB
    27. Mai 2014

    @Aveneer
    Das sieht interessant aus, muss ich mir mal angucken…

  14. #14 Elisabeth
    28. Mai 2014

    @Aveneer
    “Gern genommen wird die virale Polymerase und das HBs-Antigen des HBV. “Mitten” im für die Polymerase codierenden Region liegt das Oberflächenprotein “HBsAg”. Funktionell keinerlei Berührungspunkte. Aber das gibt es nicht nur für Viren. Mich würde es nicht wundern, wenn die eine oder andere Region ebenfalls für unterschiedliche Proteine codiert (geht nicht so einfach wie bei Kernlosen) aber mit dem richtigen Splicing… ”

    Danke, aber das was du hier ansprichst geht ja auf Open-Reading-Frame-Shifts oder alternatives Splicen zurück.
    Ich hatte Till so verstanden, als dass es Viren-Genome gäbe, die sowohl in 5′-3′-Richtung als auch in 3′-5′-Richtung Proteine codieren. Und das ist mir eben bisher unbekannt, aber das muss ja nichts heißen… 😉

  15. #15 HansG
    29. Mai 2014

    “… jeweils an der Seite seht ihr einen sechseckigen Ring, ein Zuckermolekül,..”

    Desoxyribose ist in Furanoseform in der DNA enthalten -> fünfeckig

    Spitzfindige Grüße 🙂
    HansG

  16. #16 MartinB
    29. Mai 2014

    Danke, hab’s korrigiert.

  17. #17 CM
    30. Mai 2014

    In der Tat ein sehr interessanter Artikel, Aveneer! Alle Info zusammengenommen, würde ich damit die Frage beantworten: Ja, wahrscheinlich möglich – aber immer noch sehr kniffelig.

    (Ich habe mal eine Überschlagsrechnung gemacht, nach der das auch thermodynamisch hinkommen kann mit 2-Codons zu arbeiten – aber der 3er Code macht das Leben etwas einfacher.)

  18. #18 Aveneer
    30. Mai 2014

    Ein (großes) Problem einer solchen „Datenkomprimierung“ ist, dass das gleichzeitige Ablesen (+ und – Strang) zu einer Art mRNA-Doppelstrang führen würde/könnte und dies entweder bei der Translation stört oder es zum Abbau beider mRNA’s kommt. (Antisense RNA)
    Daher gibt es in solchen Fällen eigentlich nur einen kurzen Überlappungsbereich, so dass die beiden mRNA`s eben nicht einen (kompletten) komplementären Strang darstellen. Beispiele hierfür gibt es viele.
    Auf der Suche nach „Antisense strand-encoded ORFs“ – oh Wunder – ein HIV Protein ASP
    @CM
    Wie gesagt gehört für mich die (gesamt-)energetische Betrachtung der Herstellung des zusätzlichen Buchstaben hinzu (DNA und RNA = 2 Bausteine + Synthese der notwendigen Enzyme zur Herstellung). Hinzu kommt, dass die Nukleotide selbst auch noch weitere Funktionen haben (cGMP, ATP) = Multifunktional sind. Ein Buchstabe ohne weitere Funktionen wäre ebenfalls „unnatürlich“.

  19. #19 Hoffmann
    13. Juni 2014

    Selenocystein und Pyrrolysin sind die Aminosäuren 21 und 22, die mit dem genetischen Code als Triplett dargestellt werden können (Selenocystein mit dem Triplett UCA und Pyrrolysin mit dem Triplett UAG).

    Zur Frage, ob ein Dublett-Code möglich ist: Ja und nein. Ja, wenn man einen Dublett-Code mit Komma zugrundelegt – also so, wie es u.a. bei Glycin oder Prolin, aber auch bei Alanin, Valin und Serin der Fall ist, wo die dritte Base “bedeutungsleer” ist. Nein, wenn man an eine Anticodon-Schleife der tRNA denkt, die nur zwei statt der üblichen drei Basen nach außen kehrt.

    Schaut man sich die Anticodon-Schleife mal genauer an, stellt man fest, dass sie bereits sehr spitz ausgeformt ist. Da die einzelnen Nucleotide im Strang nicht beliebig weit verdrehbar sind (andernfalls käme es zu einem Strangbruch), stellen drei herausgedrehte Basen das stereochemische Minimum dar.

    Und auch diese drei Basen ordnen sich bereits vergleichsweise “schräg” an, so dass die mRNA am Ribosom entsprechend schräg positioniert werden muss, damit sich die tRNA’s passfähig anlagern können. Und dennoch kommt es bei der dritten Base der mRNA zu Unschärfen, die sich als Wobble-Effekt darstellen.

    Es ist daher zu erwarten, dass ein sechsbasiger Code ebenfalls ein Triplett-Code wäre bzw. ein Dublett-Code mit Komma. Nachteil dieser Variante wäre die dann nötige Belegung mit noch mehr Aminosäuren, um eine gewisse Mutagenität zu erreichen, die Bedingung für die Evolutionsfähigkeit ist. Bei sechs Basen ergeben sich 6^3 = 216 Tripletts! Auch wenn es sich um einen Dublett-Code mit Komma handelt, müssten die 216 Tripletts zum größten Teil mit entsprechend zahlreichen tRNA’s repräsentiert werden.

    Die Zahl der Stoppcodons dürfte nicht zu groß sein, um die Gefahr von Kettenabbrüchen während der Translation zu minimieren. Vielleicht irgendwo in der Größenordnung bei 5 Prozent, wie beim gebräuchlichen vierbasigen Code mit 64 Tripletts. Das wären dann etwa 10 bis 12 Stoppcodons bei 216 Basen. Damit verbleiben dann immer noch über 200 verschiedene tRNA-Moleküle, die mit Hilfe geeigneter aaRS (Aminoacyl-tRNA-Synthetasen) mit Aminosäuren beladen werden müssten.

    Zwar werden in verschiedenen Organismen nicht alle Codons genutzt, aber dennoch liegen zwischen 40 und 50 verschiedene tRNA in jedem Organismus vor. Das entspricht einem Anteil von mindestens 60 Prozent. Bei rund 200 codierenden Tripletts wären das mindestens 120 verschiedene tRNA’s!

    So etwas ist schlicht unökonomisch und dürfte – falls es so etwas in der Frühzeit der Evolution gegeben haben sollte – recht schnell der Selektion zugunsten vierbasiger Codes zum Opfer fallen bzw. zum Opfer gefallen sein.

  20. #20 MartinB
    14. Juni 2014

    @Hoffmann
    Danke für den ausführlichen und klugen Kommentar.
    Allerdings beruhen deine Überlegungen ja zumindest zum Teil darauf, dass die m-RNA mit einer t-RNA, so wie sie heute existiert, ausgelesen wird. Man könnte sich aber ja zumindest theoretisch vorstellen, dass sich bei einem zwei-Buchstaben-Code eben ein anderes Molekül entwickelt hätte, das ein Leseende und ein Aminosäuren-Ende hat. Oder spricht da etwas fundamentales dagegen?

  21. #21 Hoffmann
    14. Juni 2014

    @MartinB

    Man könnte sich aber ja zumindest theoretisch vorstellen, dass sich bei einem zwei-Buchstaben-Code eben ein anderes Molekül entwickelt hätte, das ein Leseende und ein Aminosäuren-Ende hat. Oder spricht da etwas fundamentales dagegen?

    Dagegen spricht nach meinem Dafürhalten, dass das Lese-Ende dann ähnlich konfiguriert sein müsste wie das Aminosäure-Ende – also als frei bewegliches Ende ohne komplementäre Basen. Dies wiederum wäre “anfällig” für enzymatische Reaktionen – seien es Abbaureaktionen oder aber auch “Fehlbeladungen”, weil dann auch dort Aminosäuren angelagert werden könnten. Die Erkennungsmuster für die aaRS müssten sich dann aus der Gesamtstruktur der alternativen tRNA ergeben, so dass eine Fehlbeladung am falschen Ende nicht erfolgen kann. Das wäre das geringere Problem, das zu lösen wäre.

    Das größere Problem wäre die größere Enge, die sich am Ribosom ergeben würde, wenn sich die tRNA’s entlang von Dubletts aufreihen müssten. Das erfordert eine wesentlich “schlankere” Molekülgestalt, die jedoch aufgrund der räumlichen Faltung der teilweise vorhandenen (und aus Gründen der Stabilisierung vorhanden sein müssenden) Doppelstrangabschnitte nicht zustande kommen kann. Dadurch werden die nötigen Schritte der Translation (Anlagerung, Transpeptidierung, Abspaltung) aufgrund des Platzmangels bei Dubletts nicht mehr gangbar.

    Wenn Du Dir den Vorgang der Translation mal als Animation betrachtest, wirst Du feststellen, dass der Platz schon bei der gängigen Triplett-Variante reichlich eng bemessen ist. Es ist schwer vorstellbar, dass das mit Dubletts ginge. Hier ist eine schöne Animation dazu:

  22. #22 MartinB
    14. Juni 2014

    @Hoffmann
    Danke für die Erläuterungen. Vielleicht geht es ja wirklich nicht – oder nur, wenn man auch noch die Ribosomen umkonstruieren würde. Ich bin ja immer etwas skeptisch wenn man annimmt, dass etwas notwendig so sein muss, nur weil wir es nicht anders kennen.
    Die Animation ist übrigens sehr schick, aber sie hat den gleichen Fehler wie fast alle solche Animationen: Alles läuft ab wie in einer Fabrik. Die fertigen Moleküle fliegen alle brav nach rechts, die anderen kommen alle von links – wo ist denn die thermische Bewegung, der Zufall, etc?

  23. #23 Hoffmann
    15. Juni 2014

    @ MartinB:

    Die fertigen Moleküle fliegen alle brav nach rechts, die anderen kommen alle von links – wo ist denn die thermische Bewegung, der Zufall, etc?

    Die fertigen Moleküle können aufgrund der Struktur des Ribosoms und der durch die mRNA klar vorgegebenen Ableserichtung gar nicht anders als “brav” von der einen Seite reinkommen und nach der anderen Seite davonfliegen. Natürlich ist das in der Animation vereinfacht dargestellt, aber im Prinzip läuft das so ab wie gezeigt.

    Aufgrund des Prinzips der komplementären Basenpaarung ist der Zufall hier maximal eingeschränkt. “Falsche” tRNA’s haben keine Chance, an der mRNA anzudocken. Das Ribosom kantet solche “Irrläufer” kurzfristig aus der A-Stelle heraus, wenn der Kontakt zwischen Anticodon und Codon nicht zustandekommt.

    Zur Möglichkeit eines sechsbasigen Dublettcodes ist mir noch dies als Einwand eingefallen:

    Der gebräuchliche Code verteilt die 20 Aminosäuren auf 61 codiernde Tripletts, was also einer etwa dreifachen Redundanz pro Aminosäure entspricht. Natürlich gilt das nicht 1 zu 1, denn einige AS sind sechsfach redundant (z.B. Serin und Arginin), andere nur einfach (Methionin und Tryptophan), während die meisten entweder vierfach oder zweifach redundant sind, was sich u.a. aus der Zweiteilung der Basen in Purine und Pyrimidine ergibt.

    Ein sechsbasiger Dublettcode müsste die Mehrzahl der 20 Aminosäuren zweifach redundant repräsentieren, könnte sich aber nur sehr eingeschränkt eine höhere Redundanz leisten, da sonst zum Ausgleich eine größere Anzahl Aminosäuren nur einfach repräsentiert werden müsste. Das wiederum zieht eine größere Fehlerhäufigkeit infolge Mutagenität nach sich, die sich auf die translatierten Proteine auswirkt.

    Änderungen der Basenabfolge schlagen so viel häufiger auf die Abfolge der Aminosäurensequenz durch, die wiederum eine Beeinträchtigung der Funktionalität des Proteins nach sich ziehen. Und dies wiederum würde sich nachteilig auf die Konservierung gefundener praktikabler Sequenzen auswirken, weil die allgemeine Fehlerquote zu hoch wird.

    Einerseits steigert sich damit die Evolutionsgeschwindigkeit infolge höherer Mutationsraten, andererseits droht damit jedoch zugleich der Abbruch von evolutionären Entwicklungen infolge einer Eigenschen “Fehlerkatastrophe”.

  24. #24 MartinB
    15. Juni 2014

    @Hoffmann
    “im Prinzip läuft das so ab wie gezeigt. ”
    Mir geht es mehr darum., dass innerhalb der Zelle die Moleküle einer Brownschen Molekularbewegung unterliegen sollten (außer an den Stellen, wo wirklich andere Strukturen im Weg sind), und eben nicht wie auf einem Fließband abgefertigt werden.

    Das Argument mit der Redundanz fidne ich ein bisschen problematisch – hat so etwas von Leibniz und der Idee, unsere DNA sei die beste aller möglichen 😉
    Bei einer Stichprobenlänge von 1 ist es immer etwas schwierig herauszubekommen, was notwendig und was Zufall ist.
    Oder konkret: Mit anderer Redundanz würden sich vermutlich auch andere Kontroll- und Reparatur-Mechanismen entwickeln als die, die wir kennen.

  25. #25 Hoffmann
    15. Juni 2014

    @ MartinB:

    Vielleicht gefällt Dir diese Darstellung etwas besser:

    https://www.dnalc.org/resources/3d/16-translation-advanced.html

    Die Brownsche Bewegung ist hier etwas stärker berücksichtigt worden, was das Ganze ein wenig “zittriger” erscheinen lässt. Aber im Grunde gilt auch hier, dass es eine idealisierte Darstellung ist, um den prinzipiellen Ablauf darzustellen.

    Zum Redundanz-Argument:

    Eine zu geringe Redundanz bedingt nun einmal eine größere Fehleranfälligkeit. Die Evolution hat auch hier zu einem Kompromiss geführt. 64 Tripletts versus 36 Dubletts bietet eine größere Variationsbreite bei geringerer Basenzahl – allerdings auf Kosten größeren Platzbedarfs, um die gleiche Menge an Aminosäuren zu repräsentieren. Dafür gibt es dann die größere Redundanz bei Aminosäuren mit zentraler Funktion in Proteinen, was sich als stabilisierend erweist. Gleichzeitig ist die Mutationsrate hoch genug, um eine große Variationsbreite der Organismen hervorzurufen, die notwendig ist, damit ein selektiver Druck zu evolutionären Veränderungen führt.

    Die Variante mit 216 Tripletts führt wiederum zu einer zu großen Redundanz, was die Mutationsrate so stark herabsetzt, dass sich kaum noch evolutionäre Schritte ereignen würden. Das schränkt die Variationsbreite der Organismen erheblich ein, was sich letztlich fatal auswirkt, wenn ein selektiver Druck entsteht. Abgesehen davon entstehen die bereits erwähnten unökonomischen Effekte, die ihrerseits einen negativen selektiven Wert darstellen.

    Mit anderer Redundanz würden sich vermutlich auch andere Kontroll- und Reparatur-Mechanismen entwickeln als die, die wir kennen.

    Aber auch diese Mechanismen müssen irgendwie konserviert werden. Und dazu bedarf es ausreichender Redundanz für die Synthese der daran beteiligten Makromoleküle.

    unsere DNA sei die beste aller möglichen

    Diese Idee ist gar nicht mal so abwegig, wenn man sich die Alternativen bedenkt … 🙂

  26. #26 MartinB
    15. Juni 2014

    @Hoffmann
    Die Animation finde ich super, danke für den Link. Es geht mir ja nur darum, die Illusion zu zerstören, dass in der zelle alles wie in einer Fabrik abläuft.

    Was das Argument angeht, dass “unsere” DNA der bestmögliche Kompromiss ist, bleibe ich skeptisch. Mit mehr Redundanz (216 Codons) bräuchte man weniger Reparaturmechanismen und könnte trotzdem auf die gleiche Mutationsrate kommen, insofern finde ich das Argument nicht sooo stichhaltig. Aber letztlich ist das ohnehin nicht wirklich eine wissenschaftlich beantwortbare Frage, es sei denn, du hast gerade mal ein paar hundert Planeten und ein paar Hundert Millionen Jahre Zeit, aber ich fürchte, das Geld gibt uns die DFG nicht 😉

  27. #27 Hoffmann
    15. Juni 2014

    @ MartinB:

    Mit mehr Redundanz (216 Codons) bräuchte man weniger Reparaturmechanismen und könnte trotzdem auf die gleiche Mutationsrate kommen,

    Da bin ich mir nicht so sicher. Angenommen, es handelt sich dabei um einen Dublett-Code mit Komma, kämen immer noch 35 Aminosäuren zusammen (die dann auch über den Stoffwechsel synthetisiert und bereitgestellt werden müssten,. was wiederum einen Mehraufwand im Vergleich zu unseren 22 Aminosäuren bedeutet!), die mit je sechs Tripletts repräsentiert werden. Fehlbeladungen wären entsprechend seltener, weil es nur auf die erste und zweite Base ankommt und der Wobble-Effekt dann keine Rolle mehr spielt. Damit schwindet die Mutationsrate erheblich – und damit die genetische Variabilität.

    Einerseits werden Reparaturmechanismen weitgehend entbehrlich, andererseits sind genetisch uniforme Nachkommen jedoch anfälliger gegenüber umweltbedingten Stress-Situationen, was das Aussterberisiko vergrößert.

  28. #28 MartinB
    16. Juni 2014

    @Hoffmann
    Das ist doch dasselbe Argument wie eben, oder nicht?
    Wir haben folgende Möglichkeiten:
    a) 6-codon dublett Redundanz – Kürze +
    b) 4-codon Triplett Redundanz 0 Kürze 0
    c) 6-codon Triplett Redundanz + Kürze 0

    Ich sehe dein Argument, dass “unser” code in der Mitte liegt durchaus ein – aber ich bin mir nicht sicher, wie viel von diesem Kompromiss Zufall ist und wie viel das Produkt einer Selektion (und ich glaube, das weiß im Moment niemand, oder?). Und ob man die Abwägung Redundanz/Reparaturmechanismen vs. Mutationsrate so einfach treffen kann, weiß ich nicht. “unser” Leben hat sich gut mit den 4er-Tripletts arrangiert, aber wenn wir mit 6er-Dubletts angefangen hätten, wären die jetzt vermutlich in der Anwendung auch optimiert worden…

  29. #29 Hoffmann
    16. Juni 2014

    @ MartinB:

    … wenn wir mit 6er-Dubletts angefangen hätten, wären die jetzt vermutlich in der Anwendung auch optimiert worden…

    Mal abgesehen von den stereochemischen Schwierigkeiten – in Konkurrenz mit den 4er-Tripletts, die nun mal leichter zu finden sind – schon wegen der geringeren Basenzahl – wäre nicht viel Zeit zur Optimierung geblieben. Insofern sehe ich da schon eine gehörige Portion Notwendigkeit am Werk.

    Die verwendeten DNA-Basen bzw. RNA-Basen sortieren sich nach Purinen und Pyrimidinen. Die Anordnung der Ketogruppen bzw. Aminogruppen lässt keinen großen Spielraum für weitere Purin- und Pyrimidinbasen, die sich komplementär über H-Brücken verknüpfen lassen.

    Die UNB’s aus Deinem Artikel gehören anderen Verbindungsklassen an (Aromaten), was an der ausgereizten Verbindungspalette der Purine/Pyrimidine liegt. Um sechs Basen ständig zur Verfügung zu haben, müsste ein weiterer Syntheseweg beschritten werden, der dann die Aromaten liefert. Auch das ist selektiv nachteilig.

  30. #30 MartinB
    17. Juni 2014

    @Hoffmann
    Das Argument mit der anderen Verbindungsklasse finde ich nach längerem Nachdenken doch ziemlich überzeugend. Denkbar wäre natürlich immer noch, dass man z.B. mit mehr Aromaten auch wieder einen anderen Code bauen könnte, aber das wird dann sehr spekulativ.
    AUf jeden Fall Danke für die informative Diskussion.

  31. #31 Hoffmann
    17. Juni 2014

    @ MartinB:

    Aromaten sind ja gar nicht so selten als abiotisch entstandene Moleküle. Es wird diskutiert, ob sie für die Entstehung von Membransystemen von Bedeutung sein könnten. Hier zum Beispiel:

    https://link.springer.com/article/10.1007%2Fs11084-012-9292-3#page-1

    Aber auch die Idee, dass Aromaten die Stelle von Purinen und Pyrimidinen einnehmen könnten, wird im Rahmen der PAH-Welt-Hypothese in Erwägung gezogen:

    https://en.wikipedia.org/wiki/PAH_world_hypothesis

    Ob man dabei auf einen sechsbasigen Dublett-Code kommen kann, der zudem stereochemisch gangbar ist, müsste man mal durchspielen. Das hier ist dazu auch ganz interessant:

    https://www.pahworld.com/

    Wie man jedoch leicht sieht, sind hier die Monomere noch sperriger als bei DNA oder RNA. Ein sechsbasiger Dublett-Code müsste hier in eine komplett anders strukturierte Reaktionsmatrix eingebunden sein, um gangbar zu werden, weil die Aromaten doch recht starre und sperrige Gebilde sind.

  32. #32 MartinB
    18. Juni 2014

    @Hoffmann
    Nochmal danke für die Links.
    Wenn ich das hier richtig verstehe:
    https://en.wikipedia.org/wiki/PAH_world_hypothesis#Attachment_of_nucleobases_to_PAH_scaffolding
    dann würden die PAHs gerade dafür sorgen, dass Aromaten als Codons nicht so gut funktionieren.

  33. #33 Hoffmann
    18. Juni 2014

    @ MartinB:

    … würden die PAHs gerade dafür sorgen, dass Aromaten als Codons nicht so gut funktionieren.

    Nicht ganz. PAH’s eignen sich schlecht als Gerüst für Nucleobasen, weil – wenn sie Nucleobasen als Anhängsel besitzen – sie mit den darüber und darunter liegenden PAH-Molekülen kollidieren würden während der Formierung eines Makromoleküls. Es sind also nicht die Aromaten, die als Codons fungieren, sondern die gewöhnlichen Nucleobasen, die an die großen PAH-Moleküle “angedockt” sind.

    Anders stellt sich die Situation dar, wenn Aromaten nach Art von z.B. Tyrosin als Benzenring mit funktionellen Gruppen als Base in Erscheinung tritt. Also nicht wie z.B. Pyrimidine als Heterozyklen, sondern eben als Benzenabkömmlinge. Dann ließen sich mit einem anderen Rückgrat (z.B. als PNA = Peptid-Nucleinsäure) eventuell sechs oder gar acht Basen konstruieren, die über H-Brücken komplementäre Basenpaare bilden können.

    Analog hierzu:

    https://de.wikipedia.org/wiki/Synthetische_Biologie#Erweiterung_des_genetischen_Codes

    ließen sich Ketogruppen und Aminogruppen, die sich als Seitenketten an Benzenringen befinden, ebenfalls entsprechend kombinieren. Problematisch ist jedoch wiederum die stereochemische Gangbarkeit eines sechsbasigen Dublettcodes.

  34. #34 MartinB
    19. Juni 2014

    @Hoffmann
    Auch wenn ich chemisch langsam abgehängt bin; auf jeden Fall interessant, dass theoretisch auch andere Konstrukte (mit PNA oder wie bei Wiki beschrieben) möglich sind. Die Frage, ob “unser” Code auf Zufall basiert oder in irgendeiner Weise der “beste” ist, bleibt also offen, aber Dublett-codes sind vielleicht wirklich problematischer als ich dachte.

  35. #35 Hoffmann
    19. Juni 2014

    @ MartinB:

    Unser Code ist – zumindest in der gegenwärtigen Ausprägung – kein reiner “frozen accident”, wie es Crick vermutet hatte, sondern das Resultat einer längeren Optimierung, wie aus dieser Arbeit hervorgeht:

    https://www.ncbi.nlm.nih.gov/pmc/articles/PMC1693064/pdf/12495519.pdf

    Auch dieser Text ist als Einstieg in die Problematik recht interessant und darüber hinaus auch noch vergleichsweise einfach zu lesen:

    https://www.ncbi.nlm.nih.gov/pubmed/19117371

    Der in diesem Zusammenhang wegweisende Artikel von Francis Crick aus dem Jahr 1968 ist hier nachlesbar:

    https://profiles.nlm.nih.gov/ps/access/SCBCCB.pdf?origin=publication_detail

    Alles in allem ist die Problematik der Evolution des genetischen Codes sehr komplex, aber nichtsdestotrotz immer noch äußerst faszinierend …

  36. #36 MartinB
    19. Juni 2014

    @Hoffmann
    Danke für die Links – so viele paper, so wenig Zeit…

    Dass die Zuordnung der Codons zu den AS nicht zufällig ist, ist ja ziemlich offensichtlich; wenn ich den Abstract vom 2. link richtig verstehe, hätte es aber noch bessere Möglichkeiten gegeben. Letztlich zu erwarten: Evolution findet ein lokales Maximum.

  37. #37 Der kleine Lord
    7. Juni 2020

    Normalerweise wird eine mRNA also aus einer vorhandenen DNA herausgelesen. Von der mRNA werden also die entsprechenden Aminosäuren, in einer entsprechenden Reihenfolge zu einem Protein zusammengebaut. Die Reihenfolge der Aminosäuren bestimmt die Funktionsweise des Proteins bzw dessen Aufgabe. Soweit korrekt?

    Wie kann ich nun herausfinden, welche mRNA, respektive Reihenfolge von Aminosäuren, notwendig ist, um ein Protein zu produzieren, welches ein bestimmtes Virus erkennt, angreift und vernichtet?

    Ich habe irgendwo mal gelesen, dass man herausgefunden hat, dass unter anderem 11 Aminosäuren für die Haarfarbe verantwortlich sind. Man weiß aber nicht in welcher Weise. Wenn man so etwas schon mal nicht weiß, woher nimmt man dann das Wissen,
    um eine hochkomplexe Waffe gegen ein bestimmtes Virus zu bauen?

  38. #38 MartinB
    7. Juni 2020

    @DerKleineLord
    Welche DNA/RNA-Abfolge man braucht, um ein Protein zu codieren, regelt genau der genetische Code. GGT auf der DNA gibt Glycin usw.
    Was das mit der Haarfarbe mit Waffen gegen (welche) Viren zu tun hat, sehe ich nicht mal ansatzweise. Dinge wie Harfarbe werden meines Wissens von vielen Genen (insbesondere Regulatorgenen) gesteuert.
    Wenn ich ein Protein mit bekannter Zusammensetzung herstellen lassen will, ist das dagegen (vergleichsweise) einfach.
    Worum geht es dir eigentlich?