Wie man die daraus entstehenden Netzwerke mit Open Source-Software bzw. offen zugänglichen APIs visualisieren kann, zeigt Nathan Harrington in einer sehr verständlich geschriebenen Anleitung auf IBM Developer Works.
Dabei lernt man zugleich auch noch einiges darüber, wie man Twitter API, Graphviz, Google Chart API und CAIDAs plot-latlong bedient und vor allem sinnvoll miteinander verknüpfen kann.
Nicht eingegangen wird jedoch auf das, was die Netzwerkvisualisierung eigentlich spannend macht: Die Verknüpfung der Knoten untereinander. Außerdem lassen sich Nutzer mit sehr vielen Kontakten auf diese Weise nicht sinnvoll darstellen.
]]>Eine ganz ungewohnte Form der Visualisierung wissenschaftlicher Informationen ist der Tanz. Dieser Schieflage will die American Association for the Advancement of DanceScience abhelfen und lobt jährlich einen Preis für die besten getanzten Abschlussarbeiten aus. Dieses Jahr ist sogar eine an einer deutschen Universität entstandene Abschlussarbeit unter den Gewinnern: Miriam Sach (Uni Düsseldorf) mit ihrem Tanz zu “Cerebral activation patterns induced by inflection of regular and irregular verbs with positron emission tomography. A comparison between single subject and group analysis”:
Aber auch die anderen Preisträger sind spektakulär. Vielleicht sollte sich die DFG überlegen, diese Form des Wettbewerbs auch nach Deutschland zu bringen?
]]>Tagungsort war das Ende des 11. Jahrhunderts vom Passauer Bischof Altmann gegründete Augustiner-, dann Benediktinerkloster Göttweig (UNESCO Weltkulturerbe), in dem heute 50 Mönche leben. Man sieht das Kloster bereits bei der Anfahrt mit der Bahn:
Die Präsentationen wurden in dem ehemaligen Sommerrefektorium abgehalten, dessen Decke ein Fresko der Wunderbaren Brotvermehrung von Rudolf und Johann Baptist Byß zeigt – ein schöner Hinweis auf die große Bilderkraft der katholischen Kirche, die dann natürlich auch von mehreren Vortragenden zitiert wurde.
Besonders eindrucksvoll war zum einen die Führung durch die von dem Kremser Department für Bildwissenschaft betreute Graphische Sammlung Göttweig in einem der ältesten Teile des Klosters, der “Burg” aus der Babenberger Zeit (Ende 12. Jh.).
Sehr schön die Ausmalungen von 1526:
Dort fand dann auch die Postersession statt, auf der ich unser Poster zu statistischen Infografiken präsentierte. Außerdem das kalte Buffet …
…, das unter einem äußerst appetitlichen Bild genossen wurde:
Typisch Bildwissenschaftler? Interessant auch der Blick auf die Geräte, mit denen immer mehr Exemplare der u.a. von Abt Bessel gesammelten 32.000 Originalgraphiken digitalisiert werden.
Der Höhepunkt des Rahmenprogramms war der Besuch eines kleinen Heurigen im Kremser Ortsteil Stein, in dem – wir befinden uns schließlich gerade in der Zeit der Weinlese – wir mit einem köstlichen “Sturm” (Federweißer) versorgt wurden:
Aber auch das Essen – diese herrlichen jungen Kartoffeln – war klasse:
Danach ging es in den Weinkeller, in dem die Familie den Wein keltert, den es aber nur vor Ort gibt:
Mehr zur Tagung und der Führung durch die Stiftsbibliothek folgt noch.
]]>Wie konnte es – fragt man sich als Kind der 70er Jahre – dazu kommen, dass die, als unumstößliches wissenschaftliches Erklärungsmodell zur Entstehung der Arten etablierte Evolutionstheorie plötzlich wieder in Frage gestellt wird?
Reicht etwa die Entdeckung der DNA nicht aus, den Streit endgültig zu schlichten?
Begeben wir uns zur Erörterung auf einen distanzierten Standpunkt und stellen uns die Frage: Was bedeutet Evolution?
Das heißt, was haben wir im Kopf, wenn der Begriff gebraucht wird?
Die Vorstellung einer Abfolge unterschiedlicher Spezies, angepasst an die zeitlich-örtlichen Umweltbedingungen, Selektionsdruck etc. – das sind die Mechaniken im Modell – der Bedeutung kommen wir nicht näher.
Leider gehen die meisten Lehrbücher oder populärwissenschaftlichen Darstellungen auf die Frage nicht einmal ansatzweise ein. Typischer Weise wird die Evolution in diesem Diskurs zunächst visualisiert: Dargestellt finden wir eine mehr oder weniger historische Abfolge einiger Leitfossilien in Schichten, in Art einer trivialen Paläonthologie. Diese Darstellung vermittelt uns nichts, als die Zufälligkeit der Entwicklung der äußeren Erscheinungsformen der Lebewesen. Es ist eine positivistische Karikatur des Evolutionsmodells! Kein Wunder, dass den Skeptikern und Leugnern der Evolution mit solcher Darstellung Tür und Tor geöffnet werden.
Ein Zweite – vollends inhaltsfreie Visualisierung ist die “Evolutions-Uhr”. Was sehen wir darauf? Wir können erschauern, wie lange es die Welt ohne Menschen gab. Toll. Natürlich kann einen diese Erkenntnis, wenn man sie so vorgeführt bekommt, auch Demut lehren – aber das ist doch genau die Aufgabe von Philosophie, speziell Ethik und insbesondere von Religion und Glaube! Und wenn wir schon offensichtlich in der Darstellung vom Wissenschaftlichen ins Ideologische Abrutschen ist es wieder kein Wunder, wenn uns ideologische Antworten gegeben werden.
Diese Visualisierungen des Modells werden also, meiner Ansicht nach, von den Kritikern der Evolutionstheorie keineswegs missverstanden. Es handelt sich um Teile eines normativen, nicht epistemologischen Diskurses.
Was also bedeutet Evolution? Es rollt sich etwas aus. Es findet eine Entwicklung statt, die einen Anfang hat und irgendwann ein Ende finden wird (?!).
Warum empfinden wir die Evolution als ein System des Fortschritts? Weil wir beobachten, dass die Anpassung der Lebewesen an ihre Umwelt zu immer feinerer Differenzierung und zur Ausbildung immer Komplexerer Lebensformen führt! Dadurch bekommt die Evolution ihren teleologischen Charakter. Dies wird, wie ich finde, in der Abbildung hier gut visualisiert:
Den Bogen vom Ursprung, zum Ende des irdischen Lebens zu spannen, wurde vor einigen Jahren von einer Forschungsgruppe am Potsdam-Institut für Klimaforschung unternommen.
Aus einfachen Überlegungen über die Entwicklung der Sonneneinstrahlung und der daraus folgenden chemischen Zusammensetzung der Atmosphäre hat die Forschergruppe eine Visualisierung der Zusammenhänge abgeleitet, die mich auf besondere Weise beeindruckt hat:
zum ersten werden vier Größen in einer einzigen Grafik übersichtlich in Zusammenhang gebracht – ein Musterbeispiel multivariater Darstellung; zum zweiten aber liegt auf einmal der gesamte Weg allen irdischen Lebens vor uns: die einzelnen Wellen dramatischer Entwicklung, die zunehmende Herrschaft der komplexen Lebensformen und schließlich das Verschwinden, Stufe um Stufe, geologisch gesehen in relativ naher Zukunft. Dieses Bild unserer alten Erde ist rein deskriptiv. Die Inahlte sprechen für sich. Das Werden und Vergehen so vor Augen geführt eröffnet aber gerade durch ihre Nüchternheit, wie ich finde, eine wahrhaft erhabene Perspektive auf unseren Platz in der Welt (Abbildung aus Quelle: Journal Geophysical Research Letters. mit freundlicher Genemigung der Autorin Christine Bounama).
Da Social Media von der Partizipation leben, seid ihr jetzt dran. Zum freuen wir uns über Hinweise, was an dem Portal noch alles zu verbessern ist – entweder hier in die Kommentare oder direkt in die Portalbaustellen-Diskussionsseite. Oder am besten gleich selbst das Portal an Ort und Stelle verändern. Nicht nur virtueller Peer Review, sondern virtuelle Kollaboration. Außerdem benötigt das Portal noch sechs Befürworter und einen weiteren Betreuer, um in die echte Wikipedia aufgenommen zu werden. Momentan liegt es noch auf meiner Benutzerseite.
Außerdem ist uns bei dem Sammeln der Artikel aufgefallen, wie viel es noch in diesem Bereich zu tun gibt. Zwar sind zahlreiche Beiträge, gerade zu den unterschiedlichen Testverfahren und Verteilungen, technisch präzise formuliert. Aber von dem Anspruch der Allgemeinverständlichkeit sind diese noch meilenweit entfernt. So versteht nur jemand den Inhalt der Beiträge, der sowieso schon weiß, worum es geht. Das ist dann doch etwas zu selbstbezüglich. Mit dem Portal haben wir dann auch ein Werkzeug um gezielt Artikel gemeinsam zu verbessern – vorausgesetzt die Statistik-Community folgt uns ein paar Schritte in die Wikipedia.
]]>Der Medienwissenschaftler Friedrich Kittler hat nun vor kurzem den ersten Band seines großen Werks Musik und Mathematik: “Band 1: Hellas. Teil 1: Aphrodite“. Die Rezensenten sehen darin schon einen radikalen Versuch, die Geschichte der Entstehung der europäischen Zivilisation neu zu schreiben – und zwar aus dem Geiste der Musik. Ich bin mir noch nicht ganz sicher, ob ich mich wirklich durch die 409 Seiten durcharbeiten möchte. Vielleicht hilft folgende sich an die Ästhetik der frühen Spielkonsolen anlehnende Visualisierung eines bekannten Bach-Werks weiter (wem das gefallen hat, für den gibt es hier noch viele weitere Visualisierungen dieser Art).
(via Twitter)
]]>Gestern hat msnbc.com seine “NewsWare” veröffentlicht, eine Sammlung von Applikationen und Widgets, die sich allesamt um Nachrichten drehen.
Dazu gehören dann zum Beispiel abgefahrene Arten der Visualisierung von Nachrichten (z.B. im “Spectra Visual Newsreader“) wie auch kleine Geschicklichkeitsspiele, bei denen man z.B. durch die Kombination von Kugeln derselben Farbe ein Spielfeld abräumen muss. Ich kann mir aber kaum vorstellen, dass man auf diese Weise tatsächlich auch nur eine Nachricht wirklich aufnimmt.
Weniger spektakulär, aber dafür umso brauchbarer ist die Möglichkeit, Newsfeeds in verschiedenen Formaten für unterschiedliche Endgeräte zu abonnieren. (via)
]]>Da haben die bildgewaltigen Neurowissenschaftler einmal mehr einen klaren Vorteil gegenüber den visuell unterversorgten Sozialwissenschaftlern: McCabe und Castel haben in der letzten Ausgabe von Cognition festgestellt, dass wissenschaftliche Artikel, die mit einem Gehirnscan illustriert waren, glaubwürdiger wirkten als Artikel ohne Bild oder nur mit einfachen Infografiken.
Dieser Zusammenhang, so die Forscher, gilt ganz unabhängig von dem Inhalt des jeweiligen Artikels oder von dem tatsächlichen Informationswert der Gehirnabbildungen. Das Bild selbst gibt einem ansonsten zweifelhaften Artikel eine Aura wissenschaftlicher Glaubwürdigkeit:
Thus, the present results lend support to the notion that part of the scientific credibility of brain imaging as a research technique lies in the images themselves.
Vielleicht ist das ja eine Alternative zu dem selbstverliehenen “Peer-Review-Gütesiegel“?
(via)
Ich habe noch einige Lehrbücher über die Erstellung von Infografiken im Regal stehen, deren erste Schritte stets darin bestehen, den Bleistift zu spitzen und das Lineal herauszusuchen. Was aber im digitalen Zeitalter hinsichtlich der visuellen Vermittlung von Informationen möglich ist, zeigt diese New York Times-Infografik, die den Ablauf des Virginia-Tech-Massakers vor knapp einem Jahr darstellt.
Vor ein paar Tagen wurde diese Flash-basierte Visualisierung mit dem Peter Sullivan/Best of Show Award der 16th Malofiej International Infographics Awards ausgezeichnet (siehe auch hier den Reisebericht von Michael Stoll). Wie im Vorjahr gewinnt damit eine Onlineinfografik den wohl prestigeträchtigsten Preis für Infografiken. Das demonstriert die Bedeutung dieses neuen Mediums für die visuelle Vermittlung von Wissen.
In dem Zusammenhang interessiert mich folgende Frage: Wie sieht es in den Hochschulen zur Zeit aus? Lehrt man dort mittlerweile so fortgeschrittene Formen der Informationsvermittlung? Oder werden an den Unis immer noch PowerPoint-Standardvorlagen verwendet?
]]>Alle diejenigen, die mal eben nachsehen müssen, wo sich NGC 281 denn gerade noch einmal aufhält, denen sei ein Besuch auf Google Sky empfohlen. Auf Google Earth gibt’s schon etwas länger die Möglichkeit, auch einen Blick in den Himmel zu werfen. Nun ist auch die browserbasierte Version veröffentlicht worden.
Unter sky.google.com kann man nicht nur mit einem Suchfeld nach Himmelsobjekten suchen (etwa nach NGC 281), sondern kann sich auch ausgewählte Objektsammlungen ansehen, zum Beispiel unser Sonnensystem, die klassischen Sternzeichen, ein paar Aufnahmen von Hubble, Spitzer, GALEX und Chandra sowie die Earth & Sky-Podcasts. Anders als in der irdischen Version, lässt sich hier nicht zwischen Karten-, Satelliten-, Terrain- und Straßenansicht umschalten, sondern zwischen Infrarot, Mikrowelle und historischen Sternbildern. Hier ein kurzes Ankündigungsfilmchen:
Wie auch für alle anderen Angebote mit Drittanbietermaterial gilt hier: Das Fotomaterial nicht kopieren und ins eigene Blog werfen, da man damit unter Umständen die Rechte anderer verletzt. (via)
]]>Im 16. Jahrhundert wurden dann kirchliche Sterberegister geführt (sogenannte “Bills of Mortality”), in denen verzeichnet wurde, wer wann an welcher Todesursache gestorben ist. Zudem wurde auch vermerkt, und diese Zahl war für die Statistiker besonders wichtig, welches Alter die oder der Verstorbene erreicht hatte. Diese Daten wertete zum Beispiel der Hobbystatistiker John Graunt aus und errechnete daraus in seinen “Natural and Political Observations Made upon the Bills of Mortality” (hier die digitalisierte Version) die Überlebensordnung verschiedener Städte. Diese Arbeit wurde als so bahnbrechend angesehen, dass der Kurzwarenhändler daraufhin in die Royal Society aufgenommen wurde. Pascal und Halley entwickelten die Sterbetafel weiter. Heute bildet sie unter anderem die Grundlage für die Berechnung von Altersrenten und Lebensversicherungen. Mit dem Aktuar gibt es sogar ein dazugehöriges Berufsbild.
Wie muss man sich so eine Sterbetafel konkret vorstellen? Man kann sich im statistischen Bundesamt die jeweils aktuellen Zahlen besorgen. Ich habe daraus einmal eine Grafik gebastelt, die sich an dieser entsprechenden Darstellung von Nathan orientiert:
Die Grafik ist so zu lesen: Für jedes Alter (vollendetes Lebensalter) auf der X-Achse wird auf der Y-Achse die Wahrscheinlichkeit verzeichnet, das nächste Jahr nicht zu überleben.
]]>Man kann das aber auch aus einer anderen Perspektive betrachten. Eine andere Form der Visualisierung führt zu einem abweichenden Ergebnis.
Wenn man nämlich alles Wasser der Erde in einem Ball zusammenrollen würde und auf Γαῖα legen würde, wäre das ein ziemlich kleiner Ball, sogar kleiner als ein Ball aus der gesamten Atmosphäre. Verglichen mit der Erdmasse von 5,974 · 1024 kg ist das Wasser also doch gar nicht so viel.
Natürlich basiert diese Visualisierung wie immer auf zahlreichen Vorannahmen, die man teilen kann oder auch nicht (z.B. was die Dichte der Atmosphärenkugel betrifft oder was genau als Wasser gemessen wurde). Dennoch wird deutlich dass die Form der Darstellung einen erheblichen Einfluss auf die Vorstellung von unserem Planeten hat: Blauer Planet oder trockene Kugel mit einem Tropfen Wasser. (via)
]]>Abgebildet auf dieser wirklich innovativen Grafik (eine ansprechende Form des klassischen gestapelten Flächendiagramms) sind die US-Einspielergebnisse der erfolgreichsten Filme von 1986 bis 2007. Die jeweilige Breite der Formen zeigt an, wieviel ein Film zu einem bestimmten Zeitpunkt eingespielt hat. Über die Zeit hinweg lässt sich also nachvollziehen, wie sich die Einspielergebnisse im Zeitlauf verändert haben – wie schnell der Film beim Publikum angekommen ist und wie lange er das Publikum begeistern konnte. Zugleich sieht man deutlich, dass es im Jahresverlauf zwei heiße Phasen des Kinobesuchs gibt: Sommer und Winter. Darüber hinaus ist die Grafik auch noch interaktiv: berührt man die einzelnen Formen mit dem Mauszeiger, bekommt man einige Basisdaten angezeigt und kann sich in der Regel zu der NYT-Filmkritik durchklicken. Das ist elegant und zeigt, wie man neue Technologien einsetzen kann um den Data-ink-ratio zu verbessern.
Die Blogosphäre zeigt sich begeistert darüber, dass das Zeitungspublikum nun anscheinend derart gereift ist, dass es auch solch vielschichtige Visualisierungsformen begreifen kann. Daneben werden aber auch inhaltliche Fragen diskutiert wie z.B. ob die Grafik nicht durch die Spline-Interpolation der Kurven den falschen Eindruck erweckt, die Filme würden erst in der zweiten Woche den meisten Umsatz erzielen (“Only sampling on weekends and then fitting a smooth spline is a BAD visualization!” stellt Jono fest). Außerdem stellt sich die Frage ob an der Eindruck von im gesamten Zeitverlauf ansteigenden Gesamtumsätzen der Realität entspricht.
Die Kritik ist sicher berechtigt, aber mir stellt sich die Frage: Wann ist eine Visualisierung gelungen – wenn die Splines der Realität entsprechen oder wenn sich eine lebhafte Diskussion über den visualierten Sachverhalt entfaltet?
UPDATE: Dank information aesthetics weiß ich nun auch, wie man diese Darstellungsform nennt: “ThemeRiver“. Entwickelt wurde sie von Susan Havre, Beth Hetzler und Lucy Nowell (Pacific Northwest National Laboratory)
]]>Doch hier geht es nicht mehr um das mühevolle kulturgeschichtliche Erlernen objektiver Maßstäbe und Verallgemeinerungen, sondern um die Entstehung einer “Weltrisikogesellschaft“. Primäres Ziel ist es, das Bewusstsein der einen Welt durch anschauliche Visualisierungen zu fördern, so dass sich die dargestellten Themenbereiche von “Aid” bis “Water” eng an die UN-Millenniumsziele anlehnen:
]]>This innovative tool is designed to raise awareness amongst corporations, government and non-governmental organisations, academics, students and the general public of how an organisation’s operations interact with wider society, and how the risks and opportunities generated can be responsibly managed through stakeholder engagement and partnership.
Die London School of Economy hat Booths „Poverty Maps“ von 1886 bis 1903 digitalisiert und der Öffentlichkeit zum Browsen, Zoomen und Staunen zur Verfügung gestellt. So sahen die pen and paper-Vorläufer der heutigen GIS aus, wie sie von Verwaltungen aller größerer Städte genutzt werden. (via)
]]>(via)
]]>Das Problem liegt darin, dass diese Darstellungsform nicht symmetrisch ist: große Werte (also niedrige Ärztedichten) werden sehr viel größer abgebildet als niedrige Werte (also hohe Ärztedichten). Doch diese Karte der Doctors of the World hängt, so der Erklärungstext, in niederländischen Arztpraxen aus um zu zeigen, wie gut es doch die Niederländer im globalen Vergleich haben. Während man die – schlechten – afrikanischen Verhältnisse klar ablesen kann, ist dies sehr schwierig für die – sehr guten – niederländischen. Der beste Wert geht in dieser Darstellungsform unter: Kuba mit 170 Patienten auf pro Arzt entdeckt man nur dann, wenn man danach sucht.
]]>Zu dieser Frage gibt es eine Reihe von Untersuchungen, die jeweils für bestimmte Fragestellungen bestimmte Visualisierungsformen nahelegen. Aber immer musste man sich entscheiden. Entweder – oder. Diese Einschränkung wollten die Forscher Jeffrey Heer (University of California, Berkeley) und George Robertson (Microsoft) nicht akzeptieren und haben sich auf die Suche nach dem Sowohl-als-Auch der Visualisierung gemacht.
In ihrem Paper “Animated Transitions in Statistical Data Graphics” (hier als pdf, hier als QuickTime-Film) stellen sie eine Möglichkeit vor, dieselben Daten in mehreren Visualisierungsformen gleichzeitig (bzw. nacheinander) zu präsentieren, wobei jedoch die Identität der einzelnen Datenpunkte – also ihr Bildpunktcharakter – in der animierten Darstellung gewahrt bleibt.
Die Evaluierung ihres Vorgehens zeigt eindrucksvoll, dass die mit ihrem Programm DynaVis animierten Datenvisualisierungen eine deutlich niedrigere Fehlerrate bei der Zuordnung von Datenpunkten durch die Betrachter aufweist. (via FlowingData)
]]>Einer der größten Vorteile der Parallelkoordinaten liegt in der schnellen Aufdeckung von Korrelationen: Zusammenhängende Variablen führen zu mehr oder weniger parallelem Verlauf der Linien, die die Punkte darstellen.
Ein weiterer Vorteil liegt in der einfachen Analyse von Ausreissern: einfach der Linie folgen, die in einer Dimension weit außen liegt.
Hier ein Beispiel:
Drei Punkte und vier Dimensionen. Punkt 1 hat die Koordinaten (20,27,80,20).
Hier ein Anwendungsbeispiel:
Dargestellt ist eine Stichprobe von Neuwagen – Verbrauch, Leistung, Anzahl der Zylinder, Masse, Beschleunigung und Baujahr sind die jeweiligen Dimensionen. Dunkel eingefärbt sind die Autos mit vier Zylindern: es wird sofort deutlich, welche Variablen eine hohe Korrelation aufweisen – der “Strang” läuft mehr oder weniger parallel – oder welche nicht zusammenhängen – die Linien laufen kreuz und quer.
Als Softwarepaket bietet – wie so oft – xgobi eine gute Umsetzung der Parallelkoordinaten zur statistischen Analyse: Link zu xgobi
]]>Bilder dringen in neue Bereiche vor: das Fernsehen wandelte sich zum globalen Zappingfeld tausender Kanaele, Großbildwaende halten in unsere Staedte Einzug und schaffen emotionale Kollektiverlebnisse, Mobiltelefone versenden Micro-Movies in Echtzeit; Wir erleben den Aufstieg des Bildes zum computergenerierten virtuellen Raumbild, das eine zunehmend lebensechte Sphaere entfaltet. Wissenschaft, Politik und Entertainment nutzen neue Dimensionen der Bilderzeugung und Bildwirkung. Seit den 60er Jahren verbinden sich Kunst und Wissenschaft in der Grundlagenforschung der Medienkunst und doch ruhen diese auf partiell unbekannten Traditionslinien.
An der Diagnose ist sicherlich etwas dran und gerade meine eigene Wissenschaft, die Soziologie, hat sich bislang viel zu zögerlich auf diesem Terrain bewegt. Der Fokus lag in Lasswell-Manier vor allem auf der Rezeption, also den Bildwirkungen, oder der Verwendung von Fotografien als Forschungsinstrument (“visuelle Soziologie”), während der Einfluss von Bildern auf die gesellschaftliche Wissensordnung nur selten in den Blick geraten ist.
Schade also, aber wenigstens bekommt dadurch mein ziemlich vollgepackter Konferenzreiseplan für das erste Halbjahr 2008 wieder ein klein wenig Luft.
Unser Abstract für diese Konferenz lautete übrigens wie folgt:
]]>Unser Beitrag skizziert eine wissenssoziologische Betrachtung statistischer Infografiken. Bislang wurde die visuelle Repräsentation statistischen Wissens primär in anwendungsorientierten Kontexten betrachtet und hat sich darauf konzentriert, wie man diese Informationen am wirkungsvollsten grafisch wiedergeben kann. Der hier vorgeschlagene wissenssoziologische Ansatz hinterfragt diese Perspektive und versucht an vier Problemstellungen den besonderen Wissensstatus der Infografik zu ergründen:
1) Als Funktion der Infografik wird immer wieder genannt: die Transformation der schwer überschaubaren Komplexität statistischen Datenmaterials in eine lesbare und verständliche Darstellungsform. Gleichzeitig verschwinden damit die Spuren der Produziertheit, Kontingenz und Kontextualität der Ausgangsdaten – oder lassen sich Spuren von Uneindeutigkeit und Nicht-Wissen doch noch in der grafischen Darstellung auffinden?
2) Damit eng verbunden ist die Frage, inwiefern die visuelle Repräsentation als Abbildung sozialer Wirklichkeit verstanden wird oder ob sich zeigen lässt, dass die Visualisierung zunehmend in gebrochenem Verhältnis zur „statistischen Realität“ gesehen wird (=reflexiv-moderne Haltung).
3) Drittens ist die Infografik im Spannungsfeld zwischen Wissenschaftlichkeit und Ästhetik/Design zu betrachten, denn, was eine gelungene Visualisierung darstellt, lässt sich oft gerade nicht auf Grundlage wissenschaftlichen Urteilens bestimmen, sondern richtet sich (auch) nach der ästhetischen Qualität der Umsetzung. Vor allem in dem fast schon hermeneutischen „Durcharbeiten“ des Stoffes durch den Infografiker geht es nicht allein um die routinierte grafische Transformation statistischer Daten, sondern um das durch Erfahrungswissen und ästhetische Urteilskraft geschulte Evident-Machen einer Gestalt.
4) Genau dieser Prozess wird allerdings durch den gleichzeitigen Trend einer massiven Erleichterung der Erstellung von Infografiken und Schaubildern durch Amateure konterkariert oder transformiert („PowerPoint“). Bei den Designexperten fällt diese Form der Erstellung von Infografiken häufig als „chart junk“ (so Tufte) durch; darüber hinaus ist diese Entwicklung unter der Perspektive der ursprünglichen elitären Ablehnung von Infografiken als nivellierende Verständnishilfe für statistische Analphabeten zu betrachten, deren strukturierende Bedeutung nach wie vor unklar ist.
Diese vier Achsen – Eindeutigkeit, Mimesis, Ästhetik und Nivellierung – stellen den Kern unseres Interpretationsrasters dar, mit dessen Hilfe der besondere Wissenscharakter der statistischen Infografik und seine Veränderungen gegen Ende des 20. Jahrhunderts erschlossen werden sollen.
Eine sehr gute Visualisierung von Zahlenverhältnissen aus drei (oder im Prinzipt beliebig vielen) Einflussgrößen bieten die sogenannten Schwerpunktkoordinaten (barycentric coordinates).
Dabei werden die Verhältnisse aus drei Einflussgrößen ins Innere eines Dreiecks abgetragen. Die Ecken bilden dabei jeweils die 100% der einen Größe bei 0% für die beiden übrigen. Der Schwerpunkt des Dreiecks ist die Koordinate für das Verhältnis 1:1:1 aller dreier Größen.
Bekanntestes Beispiel: der Raum unserer Farbwahrnehmung. Wir besitzen auf unserer Netzhaut drei verschiedene Farbrezeptoren, eine sorte jeweils für rot, grün und blau. Alle Farbeindrücke entstehen aus dem Verhältnis, in welchem die drei Rezeptoren gereizt werden.
Ensprechend entstehen die Farbeindrücke, die der Bildschirm uns vermittelt, aus der unterschiedlich dichten Mischung von roten, grünen und blauen Punkten. Jede Farbe, die der Bildschirm darstellen kann, ist also ein Punkt in einem Dreieckigen Raum, an dessen Ecken jeweils die monochromen Farben sitzen.
Die absolute Helligkeit der Punkte ist dabei egal – es geht nur um das Verhältnis. Dreieckskoordinaten sind hier eine sehr nützliche Form der Visualisierung.
Die absolute Helligkeit der Punkte ist dabei egal – es geht nur um das Verhältnis. Dreieckskoordinaten sind hier eine sehr nützliche Form der Visualisierung.
Für vier Größen können die Schwerpunktkoordinaten entsprechend in einer dreiseitigen Pyramide dargestellt werden.
Allgemein gilt:
Sei V ein Vektorraum und p ? V. Wird durch x=(x1, … ,xn) ein (n-1)-Simplex (ein verallgemeinertes Dreieck) im Vektorraum V aufgezogen, so heißt a=(a1, … ,an) Schwerpunktkoordinate von p
wenn (a1 + … + an)p = x1a1 + … + xnan
Schwerpunktkoordinaten im gleichseitigen Dreieick:
]]>Die Frage, um die es dabei wirklich geht, ist, inwieweit Bilder als Illustration oder als Kommentar fungieren. Illustrationen verdeutlichen, erhellen, stellen dar. Ein Kommentar arbeitet eine Meinung heraus, lenkt das Augenmerk auf einen bestimmten Zusammenhang, der nicht notweniger Weise im Urbild der Abbildung implizit war.
In der Vorstellung biblischer Gottesebendbildlichkeit des Menschen finden wir die Frage nach der “Objektivität” bereits voll entfaltet: in welcher Hinsicht kann der Mensch das Bild Gottes sein? Beispielweise sicherlich nicht in seiner Allmacht. Hier kommen wir schon zu einem wesentlichen Aspekt der Abbildung, der Idealisierung. Niemand hat diese Gedanken so stark pointiert, wie Platon, der die gesamte menschliche Erkenntnis als Abbildungsprozess beschreibt, indem er den erkennenden Menschen bildlich in eine Höhle setzt, an deren Wand die Schatten der Wirklichkeit sich abbilden.
In der der Buchmalerei entwickelt sich ab der Spätantike eine Tradition, die – im Text ja nicht antastbaren, also irgendwie objektiven – Inhalte der Bibel in Miniaturen abzubilden, die den Texten beigegeben werden.
Miniatur < lat. Minium, Mennige (Pb?O?), die rote Farbe, mit der die Miniaturen in der Regel gezeichnet wurden
Dabei weisen die Bilder häufig weit über die – angeblich – illustrierten Texte hinaus. Bekannteste Beispiele sind die sogenannten Typologien. Dabei werden Texte aus dem Alten Testament mit Themen aus dem Neuen Testament in Verbindung gebracht. So finden sich häufig in Taufkapellen oder auf Taufsteinen Bilder der Sintflut (Bedeutet: genau wie Gott Noah den Ewigen Bund verspricht, bedeutet die Taufe den neuen Bund); ein weiteres Beispiel ist die bildliche Verbindung von Christi Grablegung/Wiederauferstehung mit der Erzählung von Jonas und dem Wal (Bedeutet: wie der Wal Jonas verschluckt, wird Christus ins Grab gelegt und wie der Wal Jonas wieder ausspuckt, ersteht Christus an Ostern wieder auf).
Urbild und Abbild stehen zueinander stets im Verhältnis, das durch den schöpferischen Akt der Abbildung beschrieben wird. D. h. die Bedeutung erhält das Abbild durch sein Urbild und die Abbildungsvorschrift.
Ein Beispiel: eine Stichprobe ist das Abbild einer Grundgesamtheit. Ob ich eine Zufallsstichprobe ziehe, bei der jedes Mitglied der Grundgesamtheit die selbe Chance hat, in die Stichprobe zu gelangen, oder mein eventuell vorhandenes Vorwissen nutze, in der Grundgesamtheit vorhandene Strukturen, z. B. die Altersverteilung einer Bevölkerung, in die Stichprobe einfließen lasse, verändert die Bedeutung der Stichprobe. Im ersten Fall werden ich etwa Rückschlüsse auf die Altersverteilung machen können, im zweiten nicht (da ich diese ja in der Ziehung vorgegeben habe). Aber ich weiß nicht, ob mir nicht bestimmte Altersklassen zufällig nur schwach in der Stichprobe vertreten sind. Ziemlich sicher komme ich daher bei der Zufallsstichprobe zu ganz anderen Aussagen, z. B. bzgl. der Internet-Nutzung von älteren Menschen, da evtl. genau diese Altersklasse in meiner Stichprobe wenig oder besonders stark vertreten ist, als bei einer Stichprobe mit vorgegebener Altersquote.
Die Abbidlungsvorschrift einer Visualisierung macht mehrere Dinge:
1.) sie reduziert (z. B. eine Vielzahl von Messpunkten auf eine Trendline)
2.) sie focussiert (z. B. die rote und überproportional breite Darstellung von Autobahnen auf Straßenkarten)
3.) sie kondensiert (indem z. B. mehrere Merkmale gleichzeitig zusammenhängend dargestellt werden – etwa in der Wetterkarte: Windgeschwindigkeit, Temperatur, Linien gleichen Luftdrucks zusammen mit topographischen Merkmalen der Landschaft)
4.) sie überträgt (z. B. die Übersetzung eines Zahlenverhältnis in die Größe von Kuchenstücken, den Ablauf der Evolution auf einen Kalender – jeder Tag darauf entspricht in diesem Bild ca. 12 Mio Jahren Erdgeschichte)
Visualisierung ist nicht Illustration, sondern als Kommentar. Besonders die guten Visualisierungen öffnen neue Ebenen der Bedeutung, schaffen uns den Sinn in den Daten.
denn im Bilde Gottes hat er den Menschen gemacht
Abbildung – Die schier unendlich kleinteilige Welt in Zusammenhänge bringen und sichtbar machen.
Konstruktion – Wirklichkeit herstellen, indem wir in Daten Strukturen sehen. Unser Auge/Hirn sieht in der Zimmerecke, wo zwei Wände sich treffen, eine Linie. In der zeitlichen Folge vom Zufallen der Türe und dem Knall entsteht uns ein kausaler Zusammenhang.
Bilder sind eine Art Brücke zwischen unserem (notwendigerweise) reduktionistischen Denken und der Realität unserer Umwelt.
Denn wir sehen jetzt durch einen Spiegel, undeutlich, dann aber von Angesicht zu Angesicht.
Eine Abbildung ist eine Regel, die Punkten/Objekten aus einem Feld/Raum jeweils ein bestimmtes Objekt aus einem anderen Raum zuordnet. So wird in der Abbildung der Landkarte jedem Flecken in der Landschaft, der im Maßstab noch groß genug ist, ein Punkt auf der Landkarte zugeordnet, eine bestimmte Farbe und Schraffur.
Diese Regel klingt objektiv, so als könnte die Abbildung gar nicht anders ablaufen.
Seit der iconic turn in vielen Wissenschaften angekommen ist (siehe dazu natürlich auch das “Iconic Turn”-Blog) und vor allem seit der Personal Computer anspruchsvolle Techniken der Informationsvisualisierung für fast jeden verfügbar gemacht hat, gibt es immer mehr Antworten auf diese Frage. Hier nun der Versuch von Ralph Lengler und Martin J. Eppler (beide Universität Lugano), einen Überblick über die vielfältigen Visualisierungsmöglichkeiten zu visualisieren, den sie in diesem Paper “Towards A Periodic Table of Visualization Methods for Management” zudem noch theoretisch fundieren.
Man darf sich durch das “for Management” nicht abschrecken lassen, denn viele der dort versammelten Visualisierungsformen sind auch in anderen Bereichen, zum Beispiel den Sozialwissenschaften, üblich. Die Autoren liefern praktischerweise auch noch eine Definition von Visualisierungsmethoden mit, die wir für dieses Weblog natürlich auch gebrauchen können:
A visualization method is a systematic, rule-based, external, permanent, and graphic representation that depicts information in a way that is conducive to acquiring insights, developing an elaborate understanding, or communicating experiences.
Wichtig ist für den aktuellen Stand der Visualisierungsdebatte, dass es um drei verschiedene Funktionen der Visualisierung geht: Wissensproduktion, Wissensvertiefung und Wissenskommunikation. Auch wenn die jüngste Infografikdebatte immer wieder den Eindruck vermittelt, dass es nur um bildhafte Wissensvermittlung geht – tatsächlich hat die Verwendung von Zahlenbildern als Wissensproduktion eine mindestens ebenso lange Tradition. Man denke nur an John Snows bahnbrechenden Erfolg bei der Lokalisierung eines Choleraherdes mit Hilfe einer Karte Mitte des 19. Jahrhunderts.
]]>