i-8177df831e54a4ad8b4160fe2909c788-wolke_gras.jpg

Schluss mit Modellen, Schluss mit der Anschaulichkeit, Schluss auch mit Theorie im Ganzen. Die schiere Menge an Daten lässt altertümlichen Luxus dieser Art nicht mehr zu. So ähnlich argumentiert Chris Anderson in der jüngsten Ausgabe von Wired.

Kilobytes were stored on floppy disks. Megabytes were stored on hard disks. Terabytes were stored in disk arrays. Petabytes are stored in the cloud. As we moved along that progression, we went from the folder analogy to the file cabinet analogy to the library analogy to — well, at petabytes we ran out of organizational analogies.
At the petabyte scale, information is not a matter of simple three- and four-dimensional taxonomy and order but of dimensionally agnostic statistics. It calls for an entirely different approach, one that requires us to lose the tether of data as something that can be visualized in its totality.

Die Petabyte-Grenze ist die Schwelle, an der wir endgültig in ein Reich der Daten übertreten, die nur Rechner noch zu einem Ganzen zusammenfügen können, so Anderson. In Amerika wird die Forschung daran seit einiger Zeit in dem Cluster Exploratory-Programm der NSF gefördert.

Anderson gibt drei Beispiele für die Wirkungen der reinen Rechenmacht an. Die Phsyik und ihr Verschwinden ihrer Modelle in unanschauliche n-dimensionalen-Systemen, die nicht mehr überprüft werden können. Die Genetik, die Gesetze der Vererbung und deren Auflösung in reinen Rechenspielen an Gensequenzen. Und schließlich Google, wo die richtige Zuordnung von Werbe- und anderen Inhalten auch nur eine Frage der richtigen Berechnung zu sein scheint.

Mit der Behauptung im Titel The Data Deluge Makes the Scientific Method Obsolete scheint Anderson doch ein wenig voreilig die Überflüssigkeit jeder Theorie zu behaupten.
Hans Blumenberg hat in seinem Buch Die Lesbarkeit der Welt vor mehr als einem Vierteljahrhundert ein ähnliches Argument in aller Gründlichkeit auseinander genommen. Was
er für Lesbarkeit zeigt, gilt auch ungefähr für deren Berechenbarkeit. Beides sind Metaphern, die eine verdankt sich dem Buch, die andere dem Rechner. Als solche entspringen sie selbst schon modellhaftem Denken und stehen damit historisch an einer bestimmten Stelle.

Was Reichweite von Rechenzeit nicht möglich macht, lässt sich gut am Beispiel der Wettervorhersagen betrachten. In komplexen Systemen steigt die Menge der Daten und ihrer Verknüpfungen so stark an, dass selbst immer größere Rechenleistungen doch nur verhältnismäßig geringe Fortschritte bringen. Außerdem benötigen wir nach wie vor Modelle, die uns sagen, welche Daten wir erheben sollen und welche unwichtig sind. Nicht alle Phänomene sind hier so simpel gelagert, wie die Genomsequenz auf den ersten Blick zu sein heint.

Und letztlich entheben uns die Cluster-Berechnungen nicht der Aufgabe, aus den Ergebnissen noch einen Sinn zu machen. Denn den liefern Googles Ads nicht mit.

Kommentare (1)

  1. #1 Thilo
    Juli 3, 2008

    Das erste von Andersons drei Beispielen stützt m.E. (ich bin kein Physiker) seine These nicht. Die Stringtheorie (auf die er ja wohl anspielt) ist ganz gewiß kein Beleg für “Schluss mit Modellen, Schluss mit der Anschaulichkeit, Schluss auch mit Theorie im Ganzen.”, sondern ganz im Gegenteil ein theoretisch sehr ausgearbeitetes Modell. Das einzige Problem mit der Stringtheorie ist gerade, daß man sie bisher experimentell nicht bestätigen kann, was wiederum aber nicht an der Komplexität der Datenmengen liegt.

    Vielleicht liest hier ein Physiker mit, der sich dazu sachkundiger äußern kann.