oder, statt immer nur zu pennen, vielleicht auch mal ein Buch lesen, zwischendurch? Oder vielleicht doch noch mal den Abschluß zum Homo erectus versuchen?
Wie ist denn die Fehlerrate bei diesem Verfahren? Angenommen, ich bestimme 1000 SNPs: kann ich dann davon ausgehen, dass ich alle 1000 richtig und reproduzierbar bestimme? Bei 5000 Jahre alter Ötzi-DNA vermutlich weniger als bei sauberen Proben von Lebenden.
@Lercherl: Letztlich unterscheiden sich i.d.R. sogar Chargen der Firmen, die solche “Platten” herstellen. Doch gem https://bmcbioinformatics.biomedcentral.com/articles/10.1186/1471-2105-7-521 ist die Callrate (also der Anteil typisierter SNPs) bei 99.6% und die Concordanz (also der reproduzierbare Anteil*) bei 98.9% – das darf als Hausnummer für solche Tests aufgefasst werden. Der vorsichtige Wissenschaftler (mit Geld) überprüft ermittelt derartige Raten für jede Charge (also so gut wie nie 😉 ). Wenn man jetzt eine GWAS auswertet (üblicherweise mit Arrays oder NGS basiert, es werden also wesentlich mehr SNPs und auch andere Variationen erfasst) treibt man einiges an Statistik und Qualitätsmanagement, um das in den Griff zu bekommen.
Letztlich enthalten GWAS-Publikationen immer auch eine Angabe zur Unschärfe der gemessenen bzw. per Metaanalyse gemittelten Risiken. Die müssten mit der Unschärfe der Tests konvolutiert werden. Das unterbleibt bei kommerziellen Anbietern.
Bzgl. alter DNA: Die Fehlerrate bei guter DNA ist nicht per se schlechter als bei frischer DNA. Allerdings können meist weniger Positionen bestimmt werden. Anders sieht es aus, wenn die DNA stark degradiert ist. Dann wird die Statistik wesentlich komplexer und man ist oft gezwungen zu iterieren (moderne Referenz zu Kopplungsungleichgewicht bau eigener Referenzen). Ein Feld, in dem ich mich offengestanden wenig auskenne.
@Lecherl: “Wie ist denn die Fehlerrate bei diesem Verfahren? ”
CM hat Dir in #5 ja schon einiges dazu gesagt. Allerdings stammen seine Zahlen aus einer 10 Jahre alten Studie. Die Technik ist inzwischen viel besser geworden, es gibt genauere Polymerasen, bessere Optik etc. Auch muß berücksichtigt werden, daß in der von mir beschriebenen Apex-Variante der SNP in beide Richtungen ausgelesen wird (sense und anti-sense Strang). Wenn diese beiden Ergebnisse nicht übereinstimmen, sieht man das sofort. Auch das reduziert die Fehlerrate nochmal deutlich. Ich kenne keine exakten Zahlen, schätze aber, daß die Fehlerrate bei diesem Verfahren wesentlich besser ist, als in der Studie von 2006.
@tomtoo: “können wir aus dem genom jetzt WAS herauslesen ?”
Nochmal der Tip: bevor Du Dich am Genomlesen versuchst, nimm doch lieber erstmal ein Buch. Mit kurzen Sätzen. Und großen Buchstaben. Und abwaschbaren Seiten.
@Cornelius: Zugegeben, ich bin nicht up to date. Doch https://www.ncbi.nlm.nih.gov/pubmed/19948333 sagt dieselben Zahlen. Etwas Neueres habe ich nicht finden können. Hast Du eine neuere Publikation? – interessieren würd’s mich schon.
Nee, wie oben schon gesagt, habe ich leider keine Zahlen zur Fehlerrate, denke aber, daß die über die 10 Jahre deutlich besser geworden ist. Z.B. wegen Entwicklungen wie dieser hier (aus 2011): https://www.ncbi.nlm.nih.gov/pubmed/21294195
Cornelius Courts ist Professor für Forensische Molekulargenetik an der Universität zu Köln und leitet die Abteilung für Forensische Molekulargenetik am Institut für Rechtsmedizin der Uniklinik Köln. Dort befasst er sich mit forensischer RNA-Analytik, DNA-Transfer und molekularer Ballistik. Er ist der unbekannteste forensische Genetiker Deutschlands und der Welt.
Kommentare (8)