flattr this!

1 / 2 / 3

Kommentare (8)

  1. #1 tomtoo
    12/07/2016

    klasse technik.

    wo sind denn hier die phylosophen also denker und so ?

    alles gut ? keine gefahr ? nur positieves ?

    klasse geh ich wieder pennen.

  2. #2 Cornelius Courts
    12/07/2016

    @tomtoo: “klasse geh ich wieder pennen.”

    oder, statt immer nur zu pennen, vielleicht auch mal ein Buch lesen, zwischendurch? Oder vielleicht doch noch mal den Abschluß zum Homo erectus versuchen?

  3. #3 Lercherl
    12/07/2016

    Wie ist denn die Fehlerrate bei diesem Verfahren? Angenommen, ich bestimme 1000 SNPs: kann ich dann davon ausgehen, dass ich alle 1000 richtig und reproduzierbar bestimme? Bei 5000 Jahre alter Ötzi-DNA vermutlich weniger als bei sauberen Proben von Lebenden.

  4. #4 tomtoo
    12/07/2016

    @cornelius

    hör mal mein erectus geht dich mal garnix an.

    apropos buch .. so ein blog ist doch viel interaktiever.

    egal.

    können wir aus dem genom jetzt
    WAS herauslesen ?

    ?????

  5. #5 CM
    13/07/2016

    @Lercherl: Letztlich unterscheiden sich i.d.R. sogar Chargen der Firmen, die solche “Platten” herstellen. Doch gem https://bmcbioinformatics.biomedcentral.com/articles/10.1186/1471-2105-7-521 ist die Callrate (also der Anteil typisierter SNPs) bei 99.6% und die Concordanz (also der reproduzierbare Anteil*) bei 98.9% – das darf als Hausnummer für solche Tests aufgefasst werden. Der vorsichtige Wissenschaftler (mit Geld) überprüft ermittelt derartige Raten für jede Charge (also so gut wie nie 😉 ). Wenn man jetzt eine GWAS auswertet (üblicherweise mit Arrays oder NGS basiert, es werden also wesentlich mehr SNPs und auch andere Variationen erfasst) treibt man einiges an Statistik und Qualitätsmanagement, um das in den Griff zu bekommen.

    Letztlich enthalten GWAS-Publikationen immer auch eine Angabe zur Unschärfe der gemessenen bzw. per Metaanalyse gemittelten Risiken. Die müssten mit der Unschärfe der Tests konvolutiert werden. Das unterbleibt bei kommerziellen Anbietern.

    Bzgl. alter DNA: Die Fehlerrate bei guter DNA ist nicht per se schlechter als bei frischer DNA. Allerdings können meist weniger Positionen bestimmt werden. Anders sieht es aus, wenn die DNA stark degradiert ist. Dann wird die Statistik wesentlich komplexer und man ist oft gezwungen zu iterieren (moderne Referenz zu Kopplungsungleichgewicht bau eigener Referenzen). Ein Feld, in dem ich mich offengestanden wenig auskenne.

    *ungefähr

  6. #6 Cornelius Courts
    13/07/2016

    @Lecherl: “Wie ist denn die Fehlerrate bei diesem Verfahren? ”

    CM hat Dir in #5 ja schon einiges dazu gesagt. Allerdings stammen seine Zahlen aus einer 10 Jahre alten Studie. Die Technik ist inzwischen viel besser geworden, es gibt genauere Polymerasen, bessere Optik etc. Auch muß berücksichtigt werden, daß in der von mir beschriebenen Apex-Variante der SNP in beide Richtungen ausgelesen wird (sense und anti-sense Strang). Wenn diese beiden Ergebnisse nicht übereinstimmen, sieht man das sofort. Auch das reduziert die Fehlerrate nochmal deutlich. Ich kenne keine exakten Zahlen, schätze aber, daß die Fehlerrate bei diesem Verfahren wesentlich besser ist, als in der Studie von 2006.

    @tomtoo: “können wir aus dem genom jetzt WAS herauslesen ?”

    Nochmal der Tip: bevor Du Dich am Genomlesen versuchst, nimm doch lieber erstmal ein Buch. Mit kurzen Sätzen. Und großen Buchstaben. Und abwaschbaren Seiten.

  7. #7 CM
    13/07/2016

    @Cornelius: Zugegeben, ich bin nicht up to date. Doch https://www.ncbi.nlm.nih.gov/pubmed/19948333 sagt dieselben Zahlen. Etwas Neueres habe ich nicht finden können. Hast Du eine neuere Publikation? – interessieren würd’s mich schon.

  8. #8 Cornelius Courts
    13/07/2016

    @CM: “Hast Du eine neuere Publikation?”

    Nee, wie oben schon gesagt, habe ich leider keine Zahlen zur Fehlerrate, denke aber, daß die über die 10 Jahre deutlich besser geworden ist. Z.B. wegen Entwicklungen wie dieser hier (aus 2011): https://www.ncbi.nlm.nih.gov/pubmed/21294195