i-c1a78a36b9339b2ba04021d01b2e5e8a-cover_nature-thumb-150x192.jpg

Acht Millionen neu entdeckte Unterschiede bei der Sequenzierung menschlicher Genome. 60 neue Mutationen von einer Generation zur nächsten. Drei unterschiedliche Sequenzierstrategien. Das 1000-Genomes-Konsortium hat eine Pilotstudie in Nature publiziert. Hier ein Überblick über die Ergebnisse und deren Bedeutung.

Das Titelblatt der Zeitschrift Nature von letzter Woche zeigt einen stilisierten Erdball mit bunten Menschen darauf und einer den Äquator umspannenden Banderole: “A thousand genomes” steht da. Anlass ist die Publikation eines Pilotpapers (.pdf) des 1000 Genomes Konsortiums.

Die Idee hinter dem 1000 Genomes Konsortium ist, den Zusammenhang zwischen Genotyp – also den individuellen Unterschieden in der DNA Sequenz – und dem Phänotyp – also der messbaren Unterschiede zwischen Menschen – zu untersuchen. Das Ziel der präsentierten Studie war relativ seltene genetische Unterschiede zwischen Individuen zu identifizieren und zu kartieren; Unterschiede die mindestens bei 1% aller Menschen auftreten. Und das Konsortium war erfolgreich. Insgesamt kennt man nun rund 15 Millionen genetische Varianten. Das sind Punktmutationen, kleinere Insertionen und Deletionen sowie größere strukturelle Reorganisationen der DNA. Acht Millionen dieser Varianten wurden alleine in dieser neuen Studie entdeckt.

Die Ergebnisse dreier unterschiedlicher Sequenzierungsstrategien werden in der Veröffentlichung präsentiert: Zum einen wurde die DNA von 179 Menschen Menschen aus vier unterschiedlichen Populationen (Yoruba aus Nigeria, kaukasisch, Han-Chinesen und Japaner) jeweils 2-4 Mal sequenziert (low coverage). Zweitens wurden nur die Exons, also die proteinkodierenden Stücke von 906 zufällig ausgewählten Genen, von rund 700 Individuen aus sieben Populationen sequenziert; und zwar im Durchschnitt jeweils über 50 Mal. Schließlich wurden für den dritten Ansatz zwei Familien bestehend aus Vater, Mutter und Tochter aus Nigeria und Utah ausgewählt (Trio). Deren DNA wurde jeweils über 40 Mal komplett sequenziert.

i-013b2ad2f68d1a17ed94b8fbedbeb764-1000genomespilot-thumb-431x297.jpg

Venn-Diagramme der bekannten und neu identifizierten Polymorphismen bei den drei Sequenzierungsstrategien. Die farbigen Kreise stehen jeweil für die Populationen. Abbildung aus der Publikation.

Warum sind verschiedene Sequenzierungsstrategien gewählt worden? Es sind wohl trotz ständig sinkender Preise hauptsächlich die Kosten für die eigentlichen Sequenzierreaktionen, die Datenauswertung und die Datenspeicherung, welche die Forscher zu einem doppelten Kompromiss zwingen. Um neue, seltene genetische Varianten zu finden, macht es natürlich Sinn, viele unterschiedliche Individuen komplett zu untersuchen. Andererseits sind Sequenzunterschiede in den sogenannten Exons, also den DNA-Stücken, die tatsächlich in mRNA transkribiert und in Proteine translatiert werden wahrscheinlichere Kandidaten für veränderte Phänotypen und somit interessanter. Sie werden daher bevorzugt sequenziert. Und die häufigen Wiederholungen der Sequenzierung der DNA der selben Personen ist notwendig, um für die Fehlerrate bei den Sequenzierungsreaktionen zu kompensieren. So kann also mit hoher Wahrscheinlichkeit ein tatsächlich auftretender genetischer Polymorphismus von einem einfachen, technischen Fehler unterschieden werden.

Die eigentliche Sequenzierung der jetzt publizierten Daten wurde übrigens bereits 2008 abgeschlossen. Nature geht davon aus, dass aktuell bereits 2700 Genome sequenziert sind – wenn auch noch nicht analysiert. Das Magazin sagt voraus, dass diese Zahl im Zuge der Zunahme der weltweit installierten Sequenzierungsgeräte bis in einem Jahr auf 30 000 Genome ansteigt. Neue Technologien, die eine noch höhere Parallelisierung, Genauigkeit und Geschwindigkeit der Sequenzierung erlauben sind bereits erfunden und entwickelt. Ein Ende der massenhaften Sequenzierung menschlicher Genome ist also nicht absehbar und die Preise werden weiter sinken. Das Zwischenziel ein menschliches Genom für unter 1000 Euro zu sequenzieren rückt in greifbare Nähe. Neben den Kosten, dem Aufwand der bioinformatischen Auswertung und der Aufgabe der dauerhaften Speicherung der generierten Datenmegen, ist die größte und komplizierteste Herausforderung vor allem das langfristige Ziel der funktionalen Annotation der gefundenen Polymorphismen.

i-4cb1315689ea1326a2695fa09bc7af73-Sequenzierungen_Europa-thumb-445x368.jpg

Aktuelle (hellblau) und erwarte (violett) Anzahle sequenzierter menschliche Genome *500 in Europa. Grüne Säule: Aktuelle Anzahl der sich im Einsatz befindenden Deep-Sequencing Maschinen im akademischen Umfeld in Europa. Abbildung von hier

Die wohl entscheidende Frage ist jedoch: Wozu der ganze Aufwand? Nature geht in einem die Publikation begleitenden Dokument auf diese Frage ein und identifiziert drei Hauptgründe. Es geht um das Verstehen von Populationen, von Krankheiten, und von einzelnen Individuen. Hier nur stichwortartig, was das damit gemeint sein könnte: Die Sequenzierung der Familien ergab, dass pro Generation rund 60 neue genetische Variationen hinzukommen. Dies, sowie die gefundenen Unterschiede und Gemeinsamkeiten zwischen verschiedenen Ethnien erlauben Einblicke in die jüngere Evolution des Menschen. Weiter können genom-weite Assoziationsstudien Aufschluss darüber geben, welche Polymorphismen bei Krankheiten mit relativ hohem genetischen Anteil, wie beispielsweise Diabetes, Asthma oder Arthritis eine Rolle spielen. Die Sequenzierung von Krebsgenomen hilft bei der Identifikation und Bewertung der genetischen Risikofaktoren dieser komplexen Krankheit. Je mehr Genome sequenziert werden, desto wahrscheinlich wird es, einzelnen Polymorphismen, oder Kombinationen derselben, Risiken zu zuordnen – und eröffnet so die Möglichkeit rechtzeitig potentiell lebensverlängernde Maßnahmen zu ergreifen. Sei es beispielsweise die Umstellung der Ernährung, der Besuch regelmäßiger Krebs-Screenings oder die präventive Einnahme von Medikamenten.

Seine eigene DNA-Sequenz zu kennen wird also erschwinglich und kann durchaus Vorteile bieten. Dabei ist nicht einmal nötig, sein gesamtes Genom sequenzieren zu lassen. Kommerzielle Anbieter von DNA-Tests wie 23andMe, bieten schon jetzt für weit unter 1000 Euro die spezifische Sequenzierung bekannter Polymorphismen nebst deren Auswetung in graphisch ansprechender Form an. Vor allem der verantwortungsvolle Umgang mit personalisierten Genomdaten ist ein gesellschaftlich, medizinisch und juristische weitgehend ungeklärtes Problem. Wie sind diese Daten geschützt? Wer kann und darf diese Daten wie und wann nutzen? Das sind wichtige Fragen für eine öffentliche Debatte.

ResearchBlogging.orgDurbin, R., Altshuler, D., et al. (2010). A map of human genome variation from population-scale sequencing Nature, 467 (7319), 1061-1073 DOI: 10.1038/nature09534

flattr this!

Kommentare

  1. #1 Chris
    1. November 2010

    Das Problem ist mittlerweile nicht die Erzeugung der Daten sondern deren Auswertung.
    Und den wirklichen Nutzen von Analysen, wie 23andMe oder deCode Genetics sie anbieten, sehe ich im Moment noch nicht. Da hängt es stark von der verwendeten Chipplattform ab, wieviele SNPs man findet, es ist aber nur ein Bruchteil der vorhandenen. Und über deren Folgen kann man meist noch weniger sagen…

  2. #2 KommentarAbo
    1. November 2010

  3. #3 Tobias
    1. November 2010

    Richtig, Chris. Die Auswertung ist Zeit limitierend. Die aktuell publizierten Genomdaten wurden ja zum Teil schon 2008 sequenziert. Das wichtigste Problem ist – wie oben geschrieben – die Zuordnung einzelner SNPs oder von SNP Kombinationen zu Phänotypen. Alles was bei diesen genomweiten Sequenzierungen zählbares rauskommt landet aber prinzipiell bei 23andMe und Konsorten auf den Chips.

  4. #4 Threepoints...
    1. November 2010

    Vielleicht aber gibt es für einen Menschen nicht nur eine Genomvariante…

    Etwa, wenn sich der Mensch innerhalb seines Lebens seine komplette Umgebung verändert und dadurch auch alle umwelteinflüsse sich verändern.

    Dass hiesse dann, es muß zur Aufklärung solcher Fragen auch regelmässig das genom vollständig bestimmt werden.
    Und schon bei der Vollständigkeit bleibt derzeit noch allerhand Zweifel angesagt.

    Und weitergedacht:
    Würde es eine Möglichkeit geben (nachdem es nun endlich eindeutig ist, wie man es effektiv und entsprechend kontrollierbar anwenden kann), das genom dann wirksam zu verändern, dann ist diese Möglichkeit nichts anderes als ein Gift in Überdosis. Dieses nämlich verändert auch eine der Grundlagen des organischen Lebens. Inwieweit solche Möglichkeiten ausgeschlossen werden können, ist noch völlig unklar. Man muß davon ausgehen, dass es unmöglich ist, dass sich das Individuum gegen solche Wahrscheinlichkeiten schützen kann.

    Im Grunde macht es auch darum keinen Sinn, sich darüber Gedanken zu machen, wenn man überhaupt nicht merkt und also nichts dagegen tun kann, dass man durch solche Möglichkeiten einmal belastet wird.

    Es müsste also eigendlich heissen: bringt euch doch lieber gleich um…. bevor es euch derart an den Kragen geht….

    Anstatt sich einen Kopf darüber zu zerbrechen, was dagegen zu tun wäre.

  5. #5 threepoints...
    1. November 2010

    Doppelpost – bitte reduzieren. gelöscht

    Wieso eine kommentarmaschine überhaupt zeichengleiche Kommentare zulässt, ist mir unklar. jedenfalls kann eine Sorftware das doch erkennen, wenn innerhalb ~5 Sekunden der gleiche Eintrag auf das Zeichen genau gleich …. erneut zur Eintragung ansteht…. kann doch per Software unterbunden werden. Es läge nämlich kein zwingender Grund für solche Doppelposts vor.
    einfach nicht zwei mal absenden?

  6. #6 WeiterGen
    1. November 2010

    threepoints,
    Man brauch sich gar nicht in esoterische Gedankengebäude versteigen um zu erklären, dass sich das Genom selbstverständlich im Laufe des Lebens verändert. Jeder Mensch häuft im Lauf seines Lebens Mutationen an. Viele davon ohne Auswirkung. Einige, die Regulation des Zellzyklus betreffenede, können Krebs verursachen.

  7. #7 Frenk
    1. November 2010

    “Das dürft ihr nicht machen, das ist viel zu gefährlich!” hiess es überspitzt schon als Craig Venter nur den Gedanken äusserte, das vollständige humane Genom zu sequenzieren. Wissenschaft betreiben heisst Grenzen überschreiten, Licht ins Dunkel zu bringen. Die Ethik muss zwingendermassen hinterher folgen, denn auch diese sieht weder in der Dunkelheit noch in die Zukunft.

    Aber mich interessiert mehr die Biologie. Ich meine gelesen zu haben, dass der Mensch schlussendlich “nur” 23’000 Gene besitzt, etwa 2% des Genoms. Sowie auch der Schimpanse, das Huhn, der Wurm. Was ist in der restlichen DNA codiert?
    Neben genetic switches und homeotic genes, die Ort, Zeitfenster und Menge der Genexpression während der Ontogenese regulieren, muss DNA noch viel mehr Information beinhalten, die uns völlig unbekannt ist. Wenn wir also salopp gesagt 98.5% unserer Gene mit dem Schimpansen teilen, ist nicht die Ähnlichkeit ausschlaggebend. Vielmehr ergibt sich die biologisch interessante Frage: “Wie stellt die Natur mit 23’000 beinahe gleichen Genen in der Embryologie so unterschiedliche Organismen her?” Dazu muss die ehemalige Junk-DNA untersucht werden. Das kann einerseits noch eine ganze Weile dauern – von den Kosten ganz zu schweigen. Andererseits relativieren sich Frankensteinische Visionen…

  8. #8 threepoints...
    1. November 2010

    @ WeiterGen· 01.11.10 · 16:11 Uhr

    Meine Anmerkung stellt also ein

    “esoterische Gedankengebäude”

    dar?

    Mir ist unklar, woran man das erkennt, wenn ich mir den text ansehe. Aber ich habe wohl nicht genau genug beschrieben, was ich dabei denke. Weshalb wohl solche Dinge hineinassizoiert werden können.

    vielleicht aber bin ich mir über Esotherik auch nicht ganz bewusst und scheine mich in solchen …

    Nein, eigendlich unmöglich. Ich lege mir nicht die Karten oder schaue in Sternenkonstellationen, um mir den Alltag schön zu reden….

    Sind Mutationen also die defekten Bestandteile der Information? Oder sind sie nur die veränderung? oder die veränderung, welche nicht zu den vorhandenen Informationen passen?

    Ich versuche zukünftig nur einmal zu klicken. Ist mir schon langsam peinlich,weil neulich schon mal passiert.

  9. #9 threepoints...
    1. November 2010

    @ Frenk· 01.11.10 · 16:17 Uhr

    “Wissenschaft betreiben heisst Grenzen überschreiten,….”

    Ja, natürlich ist es so. Weshalb es eben beides ist. Gut und schlecht…. Und es gibt im Zweifel (und der ist leider immer) nur den einen Weg. Wenn das Tor geöffnet ist, dann muß auch durchgegangen werden. Aber ab einer gewissen Qualität ist es unkontrollierbar. Das ist hier bei dem Genom so, … und wohl sicher einmal in der Quantenphysik. Weitere wird es sicher schon längst geben.

  10. #10 WeiterGen
    1. November 2010

    threepoints,

    es tut mir Leid, mir hat sich der Sinn deines Kommentars weiter oben bei flüchtigem Lesen nicht erschlossen. Mutationen sind die Veränderung der DNA-Sequenz, sei es durch Nukleotidaustausche, Insertionen, Deletionen oder Reorganisation des Genoms. Verursacht werden diese unter anderem durch UV-Strahlen, radioaktive Strahlung, Viren oder mutagene Chemikalien. Vielen dieser Mutagenen ist man tagtäglich in mehr oder weniger hoher Dosis ausgesetzt. Veränderungen in der DNA werden aber in den allermeisten Fällen von speziellen DNA-Reparaturmechanismen repariert.

    Deine Bemerkung zum geöffneten Tor und der Qualität der Unkontrollierbarkeit sowie die von dir gezogenen Parallele zur Quantenmechanik verstehe ich allerdings auch bei mehrfachem durchlesen nicht. Vielleicht schreibst du einfach hin was du sagen möchtest?

  11. #11 Chris
    1. November 2010

    @Frank: Grenzen zu überschreiten heisst andererseits aber auch, das man sehr sorgfältig schauen muss, was getan wird.
    Zu den 98,5%: Ich kenne im Moment keine Zahl, welcher Prozentsatz unseres Genoms proteincodierend ist.
    Der Rest ist allerdings kein Müll – auch wenn das vor 10 Jahren (oder mehr) immer wieder gerne als “Junk-DNA” bezeichnet wurde. In diesen Bereichen sind Promotoren, regulative Sequenzen, es werden miRNA und andere kleine RNA-Spezies codiert.Die Funktionen sind vielfältig und zumindest ein Teil davon ist auch bekannt.

  12. #12 Sebastian
    1. November 2010

    @threepoints:

    Würde es eine Möglichkeit geben das genom dann wirksam zu verändern, dann ist diese Möglichkeit nichts anderes als ein Gift in Überdosis. Dieses nämlich verändert auch eine der Grundlagen des organischen Lebens. Inwieweit solche Möglichkeiten ausgeschlossen werden können, ist noch völlig unklar. Man muß davon ausgehen, dass es unmöglich ist, dass sich das Individuum gegen solche Wahrscheinlichkeiten schützen kann. Im Grunde macht es auch darum keinen Sinn, sich darüber Gedanken zu machen, wenn man überhaupt nicht merkt und also nichts dagegen tun kann, dass man durch solche Möglichkeiten einmal belastet wird. Es müsste also eigendlich heissen: bringt euch doch lieber gleich um…. bevor es euch derart an den Kragen geht….Anstatt sich einen Kopf darüber zu zerbrechen, was dagegen zu tun wäre.

    Ich finde die Bezeichnung “Gift in Überdosis” unpassend, da ja bei Gentherapien fremde Gene in den Organismus eingebracht werden, um eine Krankheit gezielt zu heilen. In diesem Fall wäre es also kein Gift. Zudem, wie Tobias ja schon sagte, kommen Mutationen in unserem Körper jederzeit vor. Manche werden wieder repariert, andere aber nicht. Die Mutationen, die allerdings nicht repariert werden, haben in den meisten Fällen keine größeren Auswirkungen. Dazu muss die Mutation schon eine Region in unserem Genom betreffen, die für ein Gen kodiert und wir wissen ja, dass ca. 98% der DNA nicht-kodierend ist. Schützen kann man sich nicht vor diesen Mutationen indirekt, man kann z.B. gesund leben. Es gibt nämlich genug Studien, die zeigen, dass eine dauerhaft schlechte Lebensweise (Junk-Food, Saufen, Rauchen, etc.) zu Krankheiten führen. Beispielsweise steht Rauchen zu 25-30% mit allen Krebserkrankungen in Verbindung. Nachgewiesenermaßen werden durch das Rauchen einer Zigarette mehrere Mutationen in unserer DNA induziert (die Quelle weiß ich leider nicht mehr). Es macht aber durchaus Sinn, sich Gedanken zu machen, eben um die Lebensweise oder eben auch, ob ich mich jetzt lang genug in der Sonne aufgehalten habe (Stichwort UV-Strahlung) etc. Wenn man sich keine Gedanken macht, könnte man gleich allen Wissenschaftlern den Laufpass geben, schließlich versuchen diese Wege und Möglichkeiten zu finden, solche Auswirkungen auf die DNA und die daraus entstehenden Folgen zu analysieren (wie es bei der Studie hier der Fall war) und zu schauen, wie man dadurch Krankheiten behandeln kann. Dann einfach sagen “bringen wir uns um” ist schlichtweg undurchdacht und klingt zu dramatisch.

    @Frenk: Die Junk-DNA hat es mir auch angetan! Ich bin schon auf weitere Ergebnisse des 1000-Genomes-Projekt gespannt, wenn sich die Orte der SNPs und anderen Insertionen/Deletionen verhärten. Meiner Meinung nach liegt in der Junk-DNA aber auch noch mehr versteckt als gedacht.

    @Chris: Ca. 2% sind Protein-kodierend, eben der Anteil der DNA, der bei uns aus Genen besteht.

  13. #13 Frenk
    1. November 2010

    @Chris:

    Ich bin kein Genetiker und mittlerweile etwas weit weg von der biologischen Grundlagenforschung. Deshalb lese ich WeiterGens Blog auch ganz gerne. Nebenbei bin ich auch an populärwissenschaftlichen Dokumentationen interessiert. Einen faszinierenden Beitrag zum – etwas weiter gefassten – Thema gab’s letzte Woche auf ARTE. Unter dem Titel “Was Darwin noch nicht wusste” gibt’s einen gut gemachten Exkurs von Darwins Reise zu den Galapagos-Inseln bis zu zeitgenössischen Forschungergebnissen zur Rolle von Nicht-Gencodierender DNA. Der Beitrag ist sehr sehenswert und von da hatte ich glaube ich auch die Zahlen.

  14. #14 WeiterGen
    1. November 2010

    Ja, es stimmt. Es gibt nicht-kodierende regulatorische Elemente auf der DNA. Und ja, es stimmt auch, ein Haufen Zeug wird transkribiert von dem keiner weiss warum. Nur um hier bei den ganzen Junk DNA Leugnern mal ein Gegengewicht einzuwerfen: Junk DNA is still junk – PZ Myers auf Panda’s Thumb zum Beispiel:

    http://pandasthumb.org/archives/2010/05/junk-dna-is-sti.html

  15. #15 threepoints...
    1. November 2010

    @ Sebastian· 01.11.10 · 18:21 Uhr

    “Dann einfach sagen “bringen wir uns um” ist schlichtweg undurchdacht und klingt zu dramatisch.”

    -> Ich wollte es auch dramatisieren. Immerhin geht es hier ans Grundsätzlichste des Organismus. ich denke leider immer in allen Extremen. Manchmal mages nicht besonders Vorteilahft erscheinen. Wie das mit einer möglichen Wahrheit immer so ist.

    Das Wort Gift ist also auch so dramatisch ausgewählt, denn die selbe Substanz kann eben heilen oder töten. Nur die Dosis oder eine eventuelle Wechselwirkung wird dabei den Ausschlag geben.

    Und es müssen nicht unbedingt fremde Gene sein, die eingebracht werden. Vielleicht wird es in Zukunft möglich sein, den Organismus dazu anzuregen, diese Gene selbst zu erstellen/auszuwechseln und neue einzusetzen. In etwa durch eine Anpassungsprozess des organismus selbst – ausgelöst durch besondere Einflüsse von Extern. Ob die dann Umweltbedingt oder Vorsätzlich (auch bei Krankheiten – also als Therapie) zur Anwendung kommen, ist gleich.

    Idealer wäre es schon, wenn der Organismus diese Aufgabe (Gentransfer oder Umwandlung/Anpassung) selbst übernimmt. Es wäre wahrscheinlich die synchronere Anpassungsmethode, als wenn der Organismus schlagartig mit einem neuen Gen konfrontiert wird.
    Ich denke heir an Abstoßungsreaktionen bei Organtransplantation.

  16. #16 threepoints...
    1. November 2010

    @ WeiterGen· 01.11.10 · 17:29 Uhr

    die Unkontrollierbarkeit, welche in diesen Bereichen auftritt, ist, dass die Vorgänge derzeit noch nicht wahrnehmbar sind. Das heisst, dass es passiert sein muß, bis es erkennt werden kann. Ich denke, dass es auch derart in Zukunft ablaufen wird.

    Aber es wird eher eine allgemeine Befürchtung sein, welche es in jeder revolutionären Technik geben wird – bis sie gut etabliert ist. Die besonderen Details, wie du sie beschreibst, sind davon auch nicht kritisiert und bekannt. Diese waren und sind ja auch einige der hauptinteressen bei der Genforschung. Aber die Möglichkeiten sind eben bei Neherrschung unvorstellbar vielfältig.

  17. #17 VolkerH
    1. November 2010

    junk is still junk

    Das ist aber arg protein-zentrisch argumentiert. Dagegen spricht: Es gibt Massen von nicht-codierenden RNAs. Viele evolutionär hochkonservierte Bereiche finden sich in der junk DNA, fast genauso viele wie im codierenden Teil. Und vor allem: Es gibt nur einen Faktor im Genom, der mit der Komplexität des Organismus korreliert, und das ist die Größe der junk DNA. Ist nur eine Hypothese, aber vielleicht erlaubt der junk eine Ebene der Regulation, durch die ein hochentwickelter Organismus erst enstehen kann.
    Die Vorstellung, wir schleppen 98 % unseres Erbguts als Ballast durch die Gegend, fand ich schon immer seltsam. Die Natur ist manchmal brutal geizig.

    Vielleicht stimmt ja dies: Junk is the reason we exist.

  18. #18 Alexander
    1. November 2010

    @VolkerH und andere, die auf den Strohmann “junk DNA” der Medien hereinfallen:
    Bitte erklären, wieso allein 1/3 des menschlichen Genoms aus alten inaktivierten Fragmenten von Retrotransposons (LINEs und SINEs besteht, die nix für uns machen.
    Oder mal den “onion test” machen – wieso unterscheidet sich die Genomgröße von nahe verwandten Zwiebelarten um mehrere Größenordnungen, bei gleicher Genzahl, sehr ähnlichen Lebensumständen etc.?
    Gerade im Deutschen haben wir noch ein Problem, weil wohl viele das Wort junk falsch als Müll übersetzen, Gerümpel auf dem Dachboden wäre wohl die bessere Übersetzung. Aus dem Gerümpel kann man sich nämlich bei Bedarf noch was basteln. Um mal den großen Sydney Brenner zu zitieren:

    Most of the genome appears to be unneccesary; it is – if you like – call it rubbish. Now as you well know, there are two kinds of rubbish: The rubbish you keep, which we call junk, and the rubbish we throw away, which we call garbage.

  19. #19 Sebastian
    1. November 2010

    @Alexander: Ja, da hast du Recht! Ingesamt besteht das menschliche Genoms bis zu 45% aus Transposons. Diese Zahl habe ich letztens in irgendeinem Genetik-Lehrbuch gelesen. Die Transpositionen solcher Elemente haben daher, zumindest meiner Meinung nach, einen viel größeren Anteil an verursachten Mutationen/Insertionen/Deletionen als alles andere. Die Alu-Elemente, die ja zu den LINEs gezählt werden, tragen zudem miRNA-Gene, die ja bekanntlich Gene regulieren. Junk ist daher eben nicht gleich Junk. Diese Debatte wird jetzt aber schon so lange geführt und nervt einfach nur noch.

  20. #20 Ludmila
    1. November 2010

    Darf ich das mal zum Anlass nehmen, einen Artikel zum Thema Junk-DNA zu wünschen? Wissenswertes und falsche Vorstellungen bereinigen. Fänd ich super.

  21. #21 VolkerH
    1. November 2010

    @Alexander
    Woher weißt Du, das Transposons nix machen? Lies mal hier über die Entstehung neuer Gene. Oder hier über die Möglichkeiten, die nicht-codierende Sequenzen für die Evolution bieten. Und die Zwiebel ist ‘ne nette Anekdote, etwas gründlicher wird das hier diskutiert. Ich denke nicht, dass man das mit dem Hinweis auf die “Medien” einfach so vom Tisch wischen kann.
    @sebastian
    Wenn Dich das Thema Junk jetzt schon nervt, stehen Dir harte Zeiten bevor. Die Debatte hat noch nicht mal richtig angefangen.

  22. #22 VolkerH
    1. November 2010

    @Ludmilla
    Dieser Artikel von Emile Zuckerkandl ist sehr empfehlenswert (wenn wir schon mal bei name dropping sind).

  23. #23 Chris
    1. November 2010

    @Frenk: Da gibts in der Wikipedia eine ganz brauchbare Übersicht: http://de.wikipedia.org/wiki/Genom#Bestandteile_des_menschlichen_Genoms
    @Tobias: Ich sage nicht, das es keinen Junk gibt, ich denke aber, das die Überlegung, das alles, was wir im Moment nicht verstehen, Junk ist, erheblich zu weit geht.

  24. #24 Chris
    1. November 2010

    @VolkerH: Da kann ich nur zustimmen. Es wäre auf die Dauer enorm energieaufwändig und vermutlich auch ein Selektionsnachteil, wenn diese Sequenzen so rein gar nichts machen würden.

  25. #25 Sebastian
    1. November 2010

    @Chris:

    Es wäre auf die Dauer enorm energieaufwändig

    Eben nicht! Der Energieaufwand für die Synthese und Verwaltung der DNA beträgt nur einen Bruchteil des Energieaufewandes für den Gesamtstoffwechsel, nämlich nur ca. 1-5%. Die Junk-DNA, bzw. die DNA von der man ausgeht, dass sie keine Funktion besitzt, stellt also nicht unbedingt einen energetischen Ballast dar! Ob es sich allerdings um einen Selektionsnachteil handelt, muss man weiter diskutieren. Es ist ja häufig die Sprache von “selfish genes”, wenn es um repetitive Sequenzen (eben die Elemente, die in der Junk-DNA vorkommen) geht. Auf diesem Gebiet ist man aber, soweit ich Bescheid weiß, noch nicht wirklich weiter. Ob nun eine Selektion auf diese Junk-DNA einwirkt oder eben nicht.

  26. #26 VolkerH
    2. November 2010

    @Sebastian

    Der Energieaufwand für die Synthese und Verwaltung der DNA beträgt nur einen Bruchteil des Energieaufewandes für den Gesamtstoffwechsel, nämlich nur ca. 1-5%

    Da würde mich interessieren, wo Du diese Zahl her hast. Meiner Meinung nach gilt sie für Prokaryoten, die wenig Aufwand mit ihrer DNA treiben. Die Synthese der DNA verbraucht wenig Energie, ok, aber denk mal allein an all die Histone und anderen Kernproteine, die gebraucht werden um alles ordentlich zu verpacken. Ohne Junk DNA könnte der Zellkern um zwei Größenordnungen kleiner sein. Da erscheint mir 1-5 % eher wenig.

  27. #27 Alexander
    2. November 2010

    @Chris:

    Ich sage nicht, das es keinen Junk gibt, ich denke aber, das die Überlegung, das alles, was wir im Moment nicht verstehen, Junk ist, erheblich zu weit geht.

    Siehst du, und genau das meine ich mit Strohmann in den Medien. junk DNA ist nämlich genau nicht definiert als alles, von dem wir keine Ahnung haben was es macht. Es geht hier nur um Elemente, von denen man experimentelle Belege hat, dass sie akut nicht nötig sind. So war das schon in den ersten Publikationen definiert.

    Nochmal, auch wenn ich das oben schon geschrieben habe. Allerdings scheint das nicht anzukommen: Es bestreitet niemand, dass junk DNA in evolutionären Zeiträumen von Nutzen sein kann! Dass sich etwa aus der Transposition eines Retroelements die Expression eines nun nahegelegenen Gens ändert. Ja, da bin ich mit allen einer Meinung. Gehe ich aber hin, und nehme dem Organismus jetzt aktuell seine LINEs weg, was passiert? Nichts! Nochmal, das sagt nicht über evolutionäre Zeiträume aus, das bestreitet aber auch niemand.
    Vielleicht ein noch extremeres Beispiel: Centromere sind essentiell, weil sie als Anknüpfstellen für die Mikrotubuli in der Mitose benötigt werden. Die Größe der Centromere ist allerdings nicht wirklich relevant Von S. cerevisiae, und auch von der Modellpflanze Arabidopsis kann man einen Großteil der Centromer-Repeats entfernen, die Mitose läuft trotzdem ganz normal. Ein Centromer, das länger als mindestens nötig ist, mag evolutionär gesehen sogar sinnvoll sein. Akut benötigt wird es allerdings nicht.

    Das Argument mit der Selektion geht sowieso in die falsche Richtung. Verloren geht, was einen negativen Effekt hat. Wenn junk DNA zwar keinen direkten Nutzen hat (und dass das ein Strohmann ist, habe ich dargelegt), aber auch nicht negativ für den Organismus ist, also neutral, was passiert dann? Genau das was man beobachtet: Es bleibt zwar erhalten, die Sequenz ist jedoch frei, vor sich hin zu mutieren und dabei dann ab und zu auch sinnvolle Neuerungen zu evolvieren. Sowas aber auch! ;)

  28. #28 VolkerH
    2. November 2010

    @Alexander

    Gehe ich aber hin, und nehme dem Organismus jetzt aktuell seine LINEs weg, was passiert? Nichts!

    Ist das wirklich ausprobiert worden? Das wäre hochinteressant, da hätte ich gerne die Referenz dafür.

    Nochmal wegen der aktuellen Funktion von LINEs etc.: Zuckerkandl stellt die Hypothese auf, dass Junk auch dazu dienen könnte, Transkriptionsfaktoren zu titrieren. Sprich: Durch Kompetition werden TFs von den Promotern der Proteingene weggezogen und verhindern deren Expression. Über Änderung des Chromatinzustandes (Eu vs. Hetero) der Junk-Anteile werden die Bindungsstellen für TFs reguliert, und damit auch die Expression der betroffenen Proteingene. Er führt auch Referenzen an, die mir aber irgendwie zu hoch waren. Kennt sich jemand damit aus?

  29. #29 Sebastian
    2. November 2010

    @VolkerH: Die Zahlen habe ich aus dem Lehrbuch der Genetik von Seyffert (2. Auflage, S.100). Histone und Kernproteine ja, aber es gibt ja noch zich andere hundert bis tausende Proteine in der Zelle, die synthetisiert werden müssen, da spielen die DNA bindende-Proteine nur einen kleineren Part in der Gesamtzahl. Rechnen wir die ganzen Stoffwechselwege (und davon gibt es eine Menge!!) noch mit, erscheint mir eine Zahl von 1-5% durchaus plausibel.

  30. #30 Alexander
    3. November 2010

    @VolkerH: Ich finde das Paper gerade nicht, bin mir aber ziemlich sicher das mal gelesen zu haben. Natürlich wurden nicht 100% LINEs entfernt (mit welcher Technik auch?), aber eine ganze Menge. Vielleicht fällt mir nochmal ein, von wem das war.

    Aber was die Überlegung angeht, LINEs könnten Binde-Puffer (haha, ein molekularbiologischer Kit-Witz!) für TFs sein. Da spricht meiner Meinung nach ein recht simples Argument dagegen. LINEs sind sich, was ihre Sequenz angeht, doch sehr ähnlich. Es wird darum auch höchstens ein Subset an TFs daran binden können. Was macht man mit den anderen TFs, deren Erkennungssequenz nicht zu LINEs passt? Müssen die nicht gepuffert werden? Wieso gerade die nicht? Das gibt nicht so viel Sinn, oder?
    Aber ich hab noch eine andere Erklärung aus meinem eigenen Feld. Schäden an der DNA treten hauptsächlich an zufälligen Positionen auf. Indem ich zwischen die wichtigen Sequenzen jede Menge unwichtige DNA setze, verringere ich die Wahrscheinlichkeit, dass ein Gen durch DNA-Schaden mutiert. Die Reparaturpathways sind nämlich alles andere als sequenzerhaltend. Der einzige Nachteil: gerade repetitive Sequenzen (Mini-, Mikrosatelliten, Transposons) können bei der homologen Rekombination dazu führen, dass die Sequenz zwischen zwei rekombinierenden Elementen verloren geht. Die interessante Beobachtung ist hier aber, dass die Aktivität der HR mit der Genomgröße korreliert. Je kleiner das Genom (=je weniger junk DNA, weil die Anzahl der Gene ungefähr gleich bleibt), desto wichtiger und aktiver die HR.
    Das passt meiner Meinung nach gut zu der Idee junk DNA = Gerümpel.

  31. #31 VolkerH
    3. November 2010

    @Alexander: Die Titration läuft natürlich nicht nur über LINES (die hatte ich nur zitiert weil sie vorher Thema waren) sondern über den gesamten Junk-Bereich. Da sind garantiert Bindungsstellen für alle TFs drin. Aber ich sollte vielleicht das paper nochmal in Ruhe lesen und dann qualifiziertere Aussagen machen.
    wg. Reparatur: Junk als Auffangbecken für DNA-Schäden, das halte ich für einen Denkfehler. Das hieße ja, dass die Anzahl der Schäden pro Genom konstant ist! Die Schäden werden aber wohl eher proportional zur Genomgröße sein, d.h. codierende Bereiche trifft es immer gleich hart.
    Der mit dem Bindepuffer ist nicht schlecht ;)

    @Sebastian: Steht im Lehrbuch auch die Originalreferenz? Ich kenne das Buch leider nicht.