Datenlecks
Die schöne neue Datenwelt bleibt als Diskussionsthema aktuell. Jetzt soll also auch Frau Merkel abgehört worden sein – immerhin beschwert sie jetzt endlich einmal persönlich bei Obama. Schade, dass es bei WikiLeaks noch keine Protokolle darüber gibt, wie die Amerikaner das Abgehörte kommentieren.
Big Data
Aber mir geht seit der Diskussion hier um das Next Generation Identification Project ein ganz anderer Gedanke nicht mehr aus dem Kopf. Viele Big Data-Projekte zielen auf Prognosen ab und werden dabei immer erfolgreicher. Das betrifft nicht nur die Verbrechensprävention, wie im Next Generation Identification Project, sondern ganz verschiedene Anwendungsgebiete, von Wahlprognosen bis zur berühmten Influenza-Trendprognose von google.
Das Ausgangsmaterial der Prognosen sind große Datenmengen und empirisch erfolgreiche Algorithmen. Darauf, dass die Daten in einem sachlogischen Zusammenhang stehen, kommt es nicht an. Mehr noch: Für die Prognosen scheinen Theorien grundsätzlich nicht mehr notwendig zu sein, wie Chris Anderson schon vor Jahren im Wired Magazine verkündete: The End of Theory: The Data Deluge Makes the Scientific Method Obsolete.
Datenverarbeitung: Was bleibet aber, stiften die Dichter
Prognostische Relevanz ist im Hempel-Oppenheim-Schema, einem klassischen wissenschaftstheoretischen Schema für wissenschaftliche Erklärungen, ein zentrales Kriterium für die Zulässigkeit theoretischer Begriffe. Verabschiedet Big Data tatsächlich theoretische Begriffe in den wissenschaftsphilosophischen Altwarenbestand? Sind wir an dem Punkt, an dem von der Analytischen Philosophie aufgezeigte formale Möglichkeiten, theoretische Begriffe durch Verkettungen von Beobachtungen zu ersetzen („Craig-Substitut“, „Ramsey-Substitut“), praktische Relevanz gewinnen?
Und könnte es uns selbst, den „Subjekten“ des Handelns, ähnlich gehen wie den theoretischen Begriffen? Wenn man unser Handeln durch die geschickte Verknüpfung von Daten aus unserer Lebenswelt und unserer Vergangenheit vorhersagen kann, was bleibt dann vom Subjekt? Am Status des Subjekts als Urheber des Handelns nagen zwar seit langem alle möglichen Wissenschaften, aber wenigstens schienen die Daten, aus denen wir unsere Lebensgeschichten zusammengesetzt sehen, einer biografisch und subjektiv sinnvoll deutbaren Spur zu folgen. Was, wenn unsere Lebensgeschichte genauso gut aus einem statistischen Datenkonnex rekonstruierbar ist, den gar kein Sinn, kein innerer Zusammenhang verbindet? Die Lebensgeschichte – nur eine Geschichte, zusammengereimter Schein, wo auch zusammengerechnete Daten reichen?
Rein rhetorisch gefragt …
Oder liefern gute Theorien, z.B. in der Physik, nach wie vor die besten Prognosen? Und wird das Subjekt vielleicht berechenbarer, bleibt aber immer für Überraschungen gut, weil es doch mehr ist als eine statistische Verknüpfung von Datenpunkten? Lässt die erfolgreiche Simulation von handelnden Subjekten durch Big Data am Ende sogar die Spezifik des Originals umso schärfer hervortreten – wenn man nur den Unterschied theoretisch (!) auf den Begriff bringt?
Gute Geschichten zum Thema – oder prognostisch wertvolle Datenassoziationen – je nach theoretischem Standpunkt oder subjektivem Belieben, sind erwünscht.
Kommentare (43)