Das war nach unserer Bestandsaufnahme in etwa der “status quo” beim forensischen DNA-Transfer, als wir gerade selbst ein Projekt dazu beginnen wollten. Um nicht ‘yet another’ unbrauchbare Studie dazu zu erzeugen, haben wir uns, bevor wir unsere eigentliche Studie geplant haben, daher erst einmal hingesetzt, das Problem dargestellt, über seine Größe gestaunt und dann auch gleich eine mögliche Lösung ersonnen (wir wollten konstruktiv sein) und der Community vorgestellt [1]. Und genau darum wird es im zweiten Teil gehen. 

____

Referenzen:

[1] Gosch, A., & Courts, C. (2019). On DNA transfer: The lack and difficulty of systematic research and how to do it better. Forensic Science International: Genetics. 40:24-36.

[2] Taylor, D., Samie, L., & Champod, C. (2019). Using Bayesian Networks to track DNA movement through complex transfer scenarios. Forensic Science International: Genetics. 42: 69-80.

flattr this!

1 / 2 / 3

Kommentare (3)

  1. #1 Intensivpfleger
    01/08/2019

    Wow. Bin jetzt schon auf die Fortsetzung gespannt.
    Eine immer genauere Nachweisgrenze impliziert nicht notwendigerweise ein besseres Resultat, sondern kann offensichtlich (und wenn man kurz darüber nachdenkt auch logischerweise) zu mehr Verwirrung stiften, als gewünscht wäre…

  2. #2 Uli Schoppe
    01/08/2019

    Ob das der Todesstrafe weil is ja DNA und eindeutig Fraktion einen Dämpfer erteilt weil das ein paar lustige Möglichkeiten eröffnet wie eine DNA Spur zustande kommt? Ich lese mich nochmal von vorne durch und freue mich ebenfalls auf Teil zwei.

  3. #3 ralph
    01/08/2019

    Ein spannendes Gebiet. In dem Beispiel mit dem Messer hätte man wahrscheinlich zusätzlich die Fingerabdrücke und könnte schonmal den Träger der Hauptkomponente ausschließen. Aber generell müsste man für das Messer ein Oberflächenprofil an DNA Spuren machen, es müsste Bereiche mit gemischten DNA Spuren geben es könnte aber auch kleine Flächen geben, auf denen es nur DNA des Täters gibt, aber keine des Trägers der Hauptkomponente. Keine Ahnung wie praxisfremd diese Überlegung ist.
    Jedenfalls bin ich auch auf Teil 2 Gespannt. vermutlich läuft es auf eine systematischere Durchführung und Koordinierung von riesigen Studien hinaus. Auf die gewonnenen Datenmengen könnte man dann ja neuronale KI Algorithmen loslassen.