In der Theorie hätte das alte Fernsehen allmälich verschwinden sollen, um dem Internetvideo Platz zu machen. Die Bandbreiten sind nahezu vorhanden. Die Zuschauer und Zielgruppen migrieren ohnehin ins Netz. Doch die Konvergenz der beiden allzu ähnlichen Partner stockt. Noch immer klafft eine rätselhafte Lücke zwischen Computerbildschirm und Fernseher, zwischen dem Durchschnittsalter der beiden Nutzergrupen, zwischen der Auswahl per Suche und dem hergebrachten Programm, zwischen Bürostuhl und Tastatur hier und dort der Couch mit Fernbedienung.
Jeremy Allaire und Adam Berry von Brightcove haben kürzlich einen “>räumt ein
sich eine Demokratisierung von Video zu erträumen, die bis jetzt nicht stattfand, weil proprietäre Formate und Lizenzfragen die Entwicklung bremsen.
Ein produktives “Ökosystem” von Anwendungen, die die Lücke überbrücken, wird so verhindert. Die Lösung liegt, wie allzu oft, in einem gemeinsamen Standard. Sollte die Industrie hier nichts entwickeln, wird möglicherweise freie Software die Lücke nutzen, wie etwa mit dem Format Ogg Theora, das in kommenden Versionen des Firefox-Browsers “>Zonky Robot
]]>Virtuelle Welten haben einen Nachteil, der als Silo-Problem bekannt ist. Ihre Bildräume sind isoliert. Man kann sie nicht verlassen.
So viele Inseln Secondlife auch immer baut, es bleibt selbst eine Insel, solange die Avatare nicht von einer Welt zur nächsten wechseln können. Das heißt: von einem Unternehmen zum anderen. Bis dahin bleibt jede Welt eine geschlossenes Silo. Das erinnert ein wenig an das Modell der Portale im frühen Internet, die so tun wollten, als bestünde das Web nur aus den Seiten einer Firma.
Nun wird von den allen möglichen Seiten daran gearbeitet, die verschiedenen Räume miteinander zu verbinden oder sie gleich ganz ans Internet anzuschließen. Dann benötigt man keine eigene Software mehr, um eine 3-D Welt zu betreten, sondern das Eingangstor ist dasselbe wie das zum Internet. Geschäftsmodelle wie die von Secondlife hätten sich damit weitgehend erledigt. Es würde eine Bildwelt entstehen, die es erlaubt, von einer 3D-Welt zur anderen zu wechseln, so wie man von einer Website zur nächsten springt.
Interoperabilität zwischen virtuellen Welten ist das Ziel von OpenGrid, einem gemeinsamen Projekt von IBM und Secondlife. Hamilton Linden von
Lindenlab konnte im Juli die erste erfolgreiche Telportation zwischen 3D-Welten verkünden.
This is a historic day for Second Life, and for virtual worlds in general. IBM and Linden Lab have announced that research teams from the two companies successfully teleported avatars from the Second Life Preview Grid into a virtual world running on an OpenSim server, marking the first time an avatar has moved from one virtual world to another. It’s an important first step toward enabling avatars to pass freely between virtual worlds.
Doch das Projekt steht mit dem Rücken zur Wand. Denn eine weit einfachere Lösung gewinnt zusehends an Boden. Gelingt es nämlich, dreidimensionale Welten in normalen Web-Browsern zu erschließen, so werden sie zu einem Teil des Internets, in dem jedes Objekt und jeder Ort seine eigene Adresse erhält. Dann hätten nicht 3d-Welten das Netz geschluckt, sondern umgekehrt. Und an Stelle der mühsamen Teleportation von einem Silo zum anderen könnte die Avatare frei auf dem Bauernhof umherspazieren. Es gibt genügend Webservices, die sich der Aufgabe angenommen haben: die Plattform Vivaty, das Lively Project von Google und die Plattform WebFlock der Firma Electric Sheep.
Erick Schoenfeld hat für Techcrunch Philipp Rosedale, einen der Gründer von LindenLabs zur aufkommenden Konkurrenz befragt. Noch sieht er einen Vorsprung der virtuellen Welten in der Verwaltung der virtuellen Identitäten und ihrer Körperbilder.
It’s just that in a virtual world you can bring your body, you can bring your identity, your capabilities with you in the way you don’t have it in the web.
Doch zur Beweglichkeit zwischen den Welten sieht auch Rosedale keine Alternative.
Entscheidend ist die Frage der Standards, die auch eine Frage der Macht und damit der Geschäftsmodelle ist. Solange die Browser beim Bildaufbau der 3D-Welten nicht gleich gezogen haben, können die Betreiber der Silos auf ihren Vorsprung hoffen. Aber der schmilzt dahin.
_______________
Bild: https://www.electricsheepcompany.com/webflock/
]]>Endlich hat es ein Verlag unternommen, Schriften und Aufsätze von Gottfried Boehm in einem Band zu veröffentlichen, die bislang nur verstreut in Sammelbänden vorlagen oder gar ungedruckt waren. Dabei ist Boehm einer der führenden deutschsprachigen Bild- wissenschaftler, er hat den Begriff des iconic turn geprägt und den Basler Forschungsschwerpunkt für Bildkritik – Eikones – gegründet.
Als Schüler Gadamers kommt Boehm von der Philosophie her. Im Gegensatz zu vielen Philosophen, die am Begriff des Bildes verausgaben, ohne Bilder je zu betrachten, gelingt es ihm, tatsächlich in und mit den Bildern zu denken. Die Macht des Zeigens lauter der Untertitel seines Buches. Boehm vertritt die These,
dass Bilder ihrer eigenen Natur nach auf einem doppelten Zeigen beruhen, nämlich etwas zu zeigen und sich zu zeigen.
Das Zeigen des Bildes tritt ihm an die Stelle des Zeichenverhältnisses der Sprache. Aber er sieht es nicht als Ersatz für die Sprache, sondern als genuin eigenständigen bildhaften Ausdruck, der von jedem Text erst einmal unabhängig zu sehen ist.
Vom Zeigen her entwickelt er seinen Grundbegriff der ikonischen Differenz:
Die ikonische Differenz macht mithin aus dem physischen Faktum einer materiellen Oberfläche das Feld einer artikulierten Aufmerksamkeit.
Sie realisiert sich im Sehen des Bildes, wobei ein Vorgang ausgelöst wird, bei dem
sich ein oder mehrere thematische Brennpuinkte (Fokus), die unsere Aufmerksamkeit bilden, auf ein unthemtaisches Feld beziehen. Wir sehen das eine im anderen.
Boehm hat damit sowohl die traditionellen Ansätze der Kunstgeschichte auf eine allgemein anwendbare Methode hin erweitert, als auch den all zu engen Rahmen der Semiotik hinter sich gelassen. Unter all den verschiedenen Modellen, die in jüngster Zeit in den Bildwissenschaften vorgebracht wurden, darf sein Ansatz als der erfolgversprechendste gelten.
Den Iconic Turn betrachtet Boehm im Übrigen als
eine Verlaufsfigur, deren Prototyp Kant schuf, als er die kritische Rückführung der Metaphysik auf auf die Struktur des menschlichen Bewußtseins mit der Vorgehensweise der kopernikanischen Revolution verglich.
Wobei Boehm wie auch Kant den technischen Aspekten dieser Rückführung eine verlgeichsweise geringe Bedeutung beimisst. Hier ließe sich die Analogie zur kopernikanischen Revolution noch fruchtbar machen.
__________________
Gottfried Boehm: Wie Bilder Sinn erzeugen. Die Macht des Zeigens. Berlin University Press 2008, 29,80€
]]>Keines der großen Bücher von W.J.T.Mitchell wurde je ins Deutsche übersetzt, weder die Iconology von 1986, noch Picture Theory von 1994. Beide Werke geistern seither also kleine Unbekannte durch die hiesigen Leselisten zwischen Kunstgeschichte und Bildwissenschaft, ohne wirklich wahrgenommen zu werden. Und das nicht von ungefähr.
Nun legt der Suhrkamp-Verlag eine Auswahl von Aufsätzen Mitchells unter dem etwas irreführenden Titel Bildtheorie auf deutsch vor. Das passt in ein akademisches Umfeld, das hierzulande seit ein paar Jahren Zeit debattiert, wie eine Bildwissenschaft zu gründen wäre. Aber gerade die große Theorie dazu liefert Mitchell nicht, und zwar ganz bewusst nicht. Dazu ist er immer ein viel zu unentschiedener Autor gewesen. Den etwas großspurigen Titeln seiner beiden ersten Bücher zum Trotz hat er nie eine geschlossenes theoretisches Gebäude entwickelt.
Iconology nimmt den Titel Panofskys auf, um gegen dessen Methode der Ikonologie oder besser deren zu naive Lesarten zu argumentieren. Der vorgelegte Band übernimmt daraus die Einleitung und das erste Kapitel. Die von Mitchell so genannte Picture Theory, aus der die Seiten 35-102 übersetzt sind, ist ebenfalls keine Theorie der Bilder, sondern vagabundiert um das im Titel benannte Thema herum. Dass Mitchell zu keinen in sich geschlossenen Aussagegebäude kommt, hängt wohl auch damit zusammen, dass er nicht das Risiko auf sich nehmen wollte, sich mit Festlegungen allzu angreifbar zu machen. So schillert bei ihm das Begriffs-Paar picture und image zwischen materiellen Bild-Dingen und allerlei visuellen Inhalten oder geistigen Vorstellungsbildern. Mitchell hat stets mehr Energie darauf verwandt, andere Theorien zu sezieren, als einen eigenen Ansatz dagegen zu setzen. So behalten alle seine Ausführung etwas Vorläufiges.
Ich bin mir voll und ganz darüber im klaren, dass ich meine den Status des Text/Bilds betreffenden Behauptungen nicht im entferntesten bewiesen habe
, sagt er selbst an einer Stelle und benennt dabei ein grundsätzliches Dilemma.
Berühmt ist Mitchell als derjenige, der die Figur der Turns erstmals auf die Bilder angewandt hat, indem er vom Pictorial Turn sprach. Aber auch hier hat man es nicht mit einer entschiedenen Losung zu tun. Statt dessen zeigt sich dieselbe zögerliche Haltung, die Mitchell insgesamt kennzeichnet. Sie zeigt sich am besten in seiner eigenen Kritik des von ihm geprägten Pictorial Turn:
Zunächst wollte ich nicht behaupten, das moderne Zeitalter sei in einzigartiger Weise besessen vom Sehen und der visuellen Repräsentation. Vielmehr wollte ich die Vorstellung einer ‘Wendung zum Visuellen’ oder zum Bild als einen Gemeinplatz anerkennen, als etwas, das salopp und gedankenlos über unsere Zeit gesagt und sowohl von denen, die diese Vorstellung bejahen, als auch von denen, die sie ablehnen, gewöhnlich mit unreflektierter Zustimmung akzeptiert wird.
Das Zaudern, das Zögerliche, das Zweifelnde mag Mitchell von der philosophischen Vorgehensweise Wittgensteins übernommen haben, auf den er sich an vielen Stellen bezieht. Was sich beim späten Wittgenstein aber als immer wieder auf dieselben Sätze zurückkommendes Mäandern äußert, gerät Mitchell zu einer teils unentschiedenen, teils selbstzerstörerischen Pose. Damit erklärt sich zum Teil, warum er nie übersetzt wurde.
Der Rest der Erklärung ergibt sich aus einem ganz anderen Grund: Mitchell war zu früh.
Das wird besonders deutlich, wenn man die beiden Aufsätze zur Gründung der Disziplin Visual Culture betrachtet. Bei dem einen handelt sich um eine 2002 vorgelegte Kritik des in den Vereinigten Staaten zu der Zeit etablierten Faches. Aufschlussreich wird diese Kritik im Vergleich mit dem Thesenpapier Was ist visuelle Kultur?. Im Gegensatz zu den anderen Texten des Buches war dieser ursprünglich als eine interne Notiz für die Arbeitsgruppe zur Gründung des Fachs gedacht. Und zwar im Jahr 1993! Damals legte Mitchell das Fundament für die amerikanische Variante der Bildwissenschaften gearbeitet hat. Manch ein Versuch, dasselbe in Deutschland zu wiederholen, hätte gut daran getan, sich seine Blaupausen etwas genauer anzusehen. Das kann nun nachgeholt werden. So erscheint die Auswahl seiner Schriften gerade rechtzeitig, um der deutsche Debatte den amerikanischen Stand der frühen 90er vorzuführen.
Aber auch hier herrschen Mitchells fortwährende Zweifel am Sinn des Faches. Sie gehorchen nicht etwa einem durchgehend destruktiven Impuls, sondern rühren zu einem guten Teil vom Respekt vor den Bildern her. Mitchell hegt den gut begründeten Verdacht, dass Sprache allzu gern ins Terrain der Bilder vorstößt und dabei leichter zu Blindheit als zu Erkenntnis führt.
__________________
W.J.T Mitchell: Bildtheorie. Suhrkamp, Frankfurt/Main 2008, 32,80€
]]>Schluss mit Modellen, Schluss mit der Anschaulichkeit, Schluss auch mit Theorie im Ganzen. Die schiere Menge an Daten lässt altertümlichen Luxus dieser Art nicht mehr zu. So ähnlich argumentiert Chris Anderson in der jüngsten Ausgabe von Wired.
Kilobytes were stored on floppy disks. Megabytes were stored on hard disks. Terabytes were stored in disk arrays. Petabytes are stored in the cloud. As we moved along that progression, we went from the folder analogy to the file cabinet analogy to the library analogy to — well, at petabytes we ran out of organizational analogies.
At the petabyte scale, information is not a matter of simple three- and four-dimensional taxonomy and order but of dimensionally agnostic statistics. It calls for an entirely different approach, one that requires us to lose the tether of data as something that can be visualized in its totality.
Die Petabyte-Grenze ist die Schwelle, an der wir endgültig in ein Reich der Daten übertreten, die nur Rechner noch zu einem Ganzen zusammenfügen können, so Anderson. In Amerika wird die Forschung daran seit einiger Zeit in dem Cluster Exploratory-Programm der NSF gefördert.
Anderson gibt drei Beispiele für die Wirkungen der reinen Rechenmacht an. Die Phsyik und ihr Verschwinden ihrer Modelle in unanschauliche n-dimensionalen-Systemen, die nicht mehr überprüft werden können. Die Genetik, die Gesetze der Vererbung und deren Auflösung in reinen Rechenspielen an Gensequenzen. Und schließlich Google, wo die richtige Zuordnung von Werbe- und anderen Inhalten auch nur eine Frage der richtigen Berechnung zu sein scheint.
Mit der Behauptung im Titel The Data Deluge Makes the Scientific Method Obsolete scheint Anderson doch ein wenig voreilig die Überflüssigkeit jeder Theorie zu behaupten.
Hans Blumenberg hat in seinem Buch Die Lesbarkeit der Welt vor mehr als einem Vierteljahrhundert ein ähnliches Argument in aller Gründlichkeit auseinander genommen. Was
er für Lesbarkeit zeigt, gilt auch ungefähr für deren Berechenbarkeit. Beides sind Metaphern, die eine verdankt sich dem Buch, die andere dem Rechner. Als solche entspringen sie selbst schon modellhaftem Denken und stehen damit historisch an einer bestimmten Stelle.
Was Reichweite von Rechenzeit nicht möglich macht, lässt sich gut am Beispiel der Wettervorhersagen betrachten. In komplexen Systemen steigt die Menge der Daten und ihrer Verknüpfungen so stark an, dass selbst immer größere Rechenleistungen doch nur verhältnismäßig geringe Fortschritte bringen. Außerdem benötigen wir nach wie vor Modelle, die uns sagen, welche Daten wir erheben sollen und welche unwichtig sind. Nicht alle Phänomene sind hier so simpel gelagert, wie die Genomsequenz auf den ersten Blick zu sein heint.
Und letztlich entheben uns die Cluster-Berechnungen nicht der Aufgabe, aus den Ergebnissen noch einen Sinn zu machen. Denn den liefern Googles Ads nicht mit.
]]>Stefan Leifert hat in einem Band zwei Bücher über die Ethik des Visuellen geschrieben. Er versucht, den ganzen Weg von den philosophischen Bildtheorien bis zum alltäglichen Gebrauch der Bilder im Journalismus zurückzulegen. Zwischen Theorie und Praxis kommt es zu einem Bruch, der zugegebenermaßen schwer zu vermeiden ist. Von der Höhe der Bildtheorien Husserls, Sartres und Heidegger unternimmt Leifert einen waghalsigen Sprung in die Tiefe
der publizistischen Selbstkontrolle im Bereich des Printjournalismus durch den Deutschen Presserat.
Ums vorwegzunehmen: Das Buch übersteht den Sprung nicht schadlos, aber dem Autor gebührt für den Versuch alle Achtung. Auch wenn das Buch in zwei Teile zerfällt, die nicht wirklich miteinander zusammenhängen und sich auch nicht unbedingt an dieselben Leser wenden.
Der erste Teil stellt eine Reihe philosophischer Bildtheorien vor, und zwar knapp, klar, gut kommentiert von Platon bis Sartre. Dabei handelt sich um mehr als eine akademische Fleißarbeit, denn Leifert bringt die Theorien in einen größeren Zusammenhang, schreckt nicht vor Wertungen zurück und beschreibt sie nicht aufs Geratewohl, sondern mit dem Ziel, bei einer Bildethik anzukommen.
Der zweite Teil nähert sich dem Thema von einer ganz anderen Seite. Und zwar so grundverschieden, dass kaum eine der eingangs erwähnten philosophischen Theorien dort eine Anwendung findet. Hier liest sich das Buch eher wie ein Bericht, verfasst für eine Ethik-Komission. Die Aufzählung der verschiedenen Fälle, Verletzung der Sporgfaltspflicht, Persönlichkeitsrechte, Bildmanipulation usw. wirkt etwas uninspiriert, geschrieben im Geist künftiger Gremienarbeit. Einzig wo es die Frage der Augenzeugenschaft und der Authentizität von Bildern berührt, erreicht das zweite Buch die gedankliche Tiefe des ersten Teils.
______________
Stefan Leifert: Bildethik. Theorie und Moral im Bildjournalismus der Massenmedien. Fink Verlag, München, 39,90€
]]>Dass Stimmungen sich in Bildern und Musik wiederfinden, will Gettyimages mit der Plattform Moodstream nutzen. Wozu genau der Service dienen soll, der Anfang Juni beim Webby Award vorgestellt wurde, lässt sich nicht leicht sagen.
Die Agentur Barbariangroup, die die Idee entwickelt hat, gibt vorsichtshalber gleich mehr als einen Zweck an:
It’s a concepting tool. The modern version of the fireplace. An interactive art piece. TV for the future. It’s a website we created for and with Getty Images to showcase all of their offerings – still, video and sound – and inspire interactive creatives. And it’s really, really fun to use.
Tatsächlich handelt es sich um eine stimmungsgeleitete Tour durch das rieisge Reich von Gettys Stockfotos. Aber selbst wer Bilder sucht und nicht mehr weiß als die Stimmung, die sie wiedergeben sollen, ist mit der zeitlich gedehnten Abfolge aus Standbildern, Videos und Musik kaum gut bedient.
Das liegt nicht zuletzt an der allzu vagen Vorgabe, bestehend aus 5 Gegensätzen: Happy-Sad, Calm-Lively, Humorous-Serious, Nostalgic-Contemporary, Warm-Cool.
Deutlicher lässt sich der Wegfall aller ikongraphischen und bedeutungshaltigen Kategorien kaum illustrieren. So schwimmt der Moodstream in einer vagen Offenheit von einem nichtssagenden Bild zu nächsten. Vielleicht wird man ihn demnächst um Nutzerbewertungen erweitern, so dass die Bilder wenigstens als Aussage über den Geschmack der Anderen gelesen werden können.
___________________
Bild: barbariangroup.com / moodstream.gettyimages
]]>Seiner Geschichte vom Betrachter und vom Blick hat der Kunsthistoriker Hans Belting ein
aufregendes neues Kapitel hinzugefügt. Die Perspektive – der Durch-Blick – galt bislang
als eine genuin westliche Erfindung. Belting fordert uns auf, ihre Wurzeln im Orient zu suchen. Und er zeigt, auf welchem Weg das Wissen der Perspektive in den Westen elangt ist, warum es sich nur hier erfüllen konnte, und wie es kam, dass im Orient andere Lösungen den Sieg davon trugen.
Erst in unserer Gegenwart dringt das perspektivische Abbild dank technischer Medien auch in den ehemals abbild-feindlichen islamischen Orient vor. Aber bild-feindlich war der Islam nie. Belting gibt genügend Beispiele für die reiche Bildkultur in Bagdad. Verboten war vielmehr,
körperliches Leben mit Stimme und Atem auf leblose Bilder zu übertragen.
Der Weg zum Blick, und damit also auch der Weg zur perspektivischen Darstellung waren damit versperrt.
Die im Orient entstandene optische Theorie ist eine Wisenschaft vom Sehen, nicht vom Bild. Den Schlüssel zum Verständnis des arabischen Zugangs findet Belting im Werk von Alhazen, Abu Ali al-Hasan Ibn al-Haitham, geboren in Basra 965, in Bagdad studiert, dann bis 1040 in Kairo tätig. Über die Lektüre der griechischen Texte hinausgehend entwirft er eine Wissenschaft vom Sehen und beschreibt darin unter anderem auch das erste Modell einer Camera obscura. Das Sehen war für Alhazen stets die Wahrnehmung von Licht und nie das Hervorbringen von Bildern.
Im 13. Jahrhundert wurden seine Schriften im Westen bekannt, zuerst unter dem Titel
“Perspektive”, später “Optik”. Eine Blicktheorie und Bildpraxis enstanden daraus erst 200
Jahre später. Belting gelingt die Großtat, endlich das verzwickete Verhältnis zwischen Mathematik und Perspektive genauer zu beleuchten, wobei er sich vor allem auf Brian Rotman stützt. Der Zusamenhang liegt nicht etwa in den Techniken der Winkelmessung wie der Sinusfunktion, sondern schlicht in der Null, die dem Fluchtpunkt entspricht.
Die Sehtheorie von Alhazen hat zwar schon beide zusammen gebracht, aber
bei ihm hatte in der Geometrie des Sehfeldes (..) zwischen Auge und Welt kein Bildschirm Platz.
Der Anwendung der Perspektive in der Kunst geht eine philosophsiche Verschiebung der
Sehtheorie Alhazens voraus. Roger Bacon versteht seine Thesen als Aufforderung, im Sichtbaren nach Erkenntnis zu suchen und leitet daraus einen empirischen Zugriff auf Gesehenes ab.
Eine weitere Schlüsselfigur entdeckt Belting in dem Philosophen Biagio Pelacani. Er
beendete den Streit um Wahrnehmung und Erkentnis, als er die Erklenntnis in den visuellen Prozesss zurückführte.
Um 1400 lehrt er in Florenz und wird mit seinen Forschungen zum Vermittler zwischen Alhazens Optik und den Experimenten Brunelleschis sowie der Theorie Leon Battista Albertis.
Er erfand einen mathematischen Raum, in welchem die körperlichen Dinge ebenso messbar wurden wie der Raum, in dem sie sich befanden.
Belting plädiert für eine Geschichte des Blicks, in der die westliche Form der Perspektive
nur eine von vielen Möglichkeiten darstellt. Der Blick bleibt wie immer bei ihm die letzte Instanz, und mit ihm der Betrachter und das Subjekt.
Der Blick ist weder physiologisch zu bestimmen noch alleine von den Techniken der Wahrnehmung abhängig, deren er sich bedient hat. Im Blick liegt ein Akt der Selbstbehauptung, der uns zum Subjekt führt, das mit dem Blick Gewalt ausübt oder Gewalt erleidet.
_________________________
Hans Belting: Florenz und Bagdad. Eine westöstliche Geschichte des
Blicks. Verlag C.H.Beck, München 2008. €29,90
Dass Bilder laufen lernten, ist eine Weile her. Im Netz lernen sie nun langsam zu
springen. Zeit war seit Anfang an ein Problem im Internet. Google hat es ganz einfach umgangen, indem es die Dimension der Zeit ignoriert.
Doch Zeit und ihre Abläufe kommen wieder, und das um so dringender, je mehr zeitbasierte Information sich im Internet finden. Nun gibt es einen ganz grundsätzlichen Widerspruch zwischen dem Zugriff auf Zeit und dem Bild. Wann immer wir in der Zeit springen wollen, benötigen wir im Bild Platz, um die Dimension Zeit darzustellen. Etwa mit einem Diagramm oder einem Chart.
Time Tube bietet eine einfache Lösung an, Bilder auf einem Zeitpfeil anzuordnen. Es handelt sich bei dem Service um ein Mashup der Plattform Dipity, die Zeitreihen erstellt. Timetube kombiniert die Zeitreihe mit einer Suche auf dem Videokanal Youtube.
Das Ergebnis überzeugt nicht wirklich, aber sie gibt einen Hinweise darauf, in welche
Richtung die Entwicklung gehen könnte. Je mehr Video wir im Netz sehen, desto wichtiger
wird es, zwischen Kanälen und Zeitpunkten auszuwählen. Und nicht nur das: Man will auf
lange Sicht auch die Auswahl anderer verfolgen können. Ähnlich wie es Last.fm für Musik
realisiert und Youtube-Kanäle ohnehin schon erlauben, allerdings ohne zeitliche
Navigation.
Eine ganz andere Lösung für Sprünge in Zeitbildern bietet die Videodatenbank oxdb an. Dort kann man Filme im Timeline View gleichsam von der Seite als eine Reihe von farblich verschiedenen Bildkanten betrachten und durch den Bilderstreifen navigieren. Aber auch hier muss eine Bilddimension der Zeit geopfert werden.
Wir stehen vor einer Art Unschärferelation des Zeitbildes und seiner Navigation. Wer
sieht, kann nicht springen. Und wer springen will, kann nicht alles sehen.
_______________
Bild 1: Timetube: Suche: icon
Bild 2: oxdb.org
Seit mehr als einem Jahrzehnt versucht man, Bilder nicht nur nach Begriffen, sondern nach ihrem Inhalt zu ordnen. Content-based Image Retrieval heisst die Technik unter Forschern. Zum Leidwesen der Beteiligten haben sich die grundlegende Probleme bislang nicht lösen lassen. Denn Maschinen können die meisten Dinge, die Menschen in Sekunden erfassen, bisher nicht erkennen.
Wenn sich nun aber Google dem Problem widmet, scheint es, als sei man einer Lösung nahe. A Google Prototype for Precision Image Search titelt die NY Times und Golem schreibt von einer neuen Bildsuche. Das entspricht nicht ganz den Fakten. Was die beiden Forscher Yushi Jing und Shumeet Baluja auf der WWWConference in Beijing unter dem Titel PageRank for Product Image Search (pdf) vorgestellt haben, ist eher ein Versuch, dem großen Problem auszuweichen. Und dieses Vorgehen hat durchaus etwas für sich.
Das große Problem lag darin, dass man immer wieder zwanghaft versucht hat, vom ganzen Bild auszugehen und es von Grund auf aufzuschlüseln. Das hat zu keinem Erfolg geführt.
Deshalb wollen Jing und Baluja nicht Bilder generell erkennen, sondern nur die bestehende Google Bildsuche mit visuellen Merkmalen verbessern. Und dazu benutzen sie einen klugen, aber einfachen Trick.
By treating images as web-documents and their similarities as probabilistic hyperlinks, we estimate the likelihood if images visited by a user traversing through these visual hyperlinks.
Sie behandeln Bilder wie Webseiten und beschränken sich dann nur auf einige wenige auffindbare Ähnlichkeiten. Diese Ähnlichkeiten behandeln sie wie Links. Das versetzt sie in die Lage, Bilder auf die gleiche Weise zu bewerten wie Googles Suchmaschine Webseiten.
Zur Optimierung der Ergebnisse erstellen sie zuerst eine visuelle Rangliste. Diese wird dann mit dem herkömmlichen Google-Resultat verknüpft, um möglichst viele irrelvante Ergebnisse auszuschließen.
Was in vielen Artikeln als Durchbruch der Bildsuche dargstellt wurde, ist tatsächlich eher ein kleiner Schritt. Aber er führt in die richtige Richtung. Anstelle des Versuchs, Bilder global zu erkennen, verfolgen Jing und Baljua die Strategie, machbare lokale Lösungen in vorhandene Anwendungen zu intergieren.
_________
Bild: Jing / Baluja: PangeRank for Google Image Search: Figure 5: Similarity graph generated from the top 1000 search results of “Mona-Lisa”.
]]>Mit der Einführung der biometrische Ausweise ist uns das Lachen auf das Passbilder erst einmal vergangen. Nun kommt es im Netz zurück, will man der Ankündigug der chinesischen Website tuyuan glauben. Sie bietet den Service der Gesichtserkennung an. Michel Arrington äußert auf Techcrunch berechtigte Zweifel. Or it may just put boxes around people’s heads. Denn eigentlich ist die Gesichtserkennung noch lang nicht so weit, in jeder Lage und jedem Licht Name und Antlitz einander zuordnen zu können.
Tuyuan sind im übrigen nicht die ersten, die sich an webfähiger Gesichtserkennung versuchen. Riya bietet seit zwei Jahren Bildsuche an, auch für Gesichter, wenn auch mässig befriedigend. Polarrose arbeitet an einer auf Gesichter spezialisierten Variante, kommt aber seit mehr als einem Jahr nicht über die Beta-Phase hinaus.
Denken wir ein bisschen weiter: Angenommen, die Anwendung wird irgendwann einmal tatsächlich funktionieren. Dann wird auf einmal ein Teil des Bildraums adressierbar. Die große namenlosen Bildarchive verwandeln sich im Nachhinein zu gigantischen social pages.
Bilder gliedern sich in die textbezogenen Suchräume des Netzes ein und machen die Spuren der Personen in Fotos von Urlaubsinseln und zufälligen Schnappschüssen verfügbar. Erstaunt wird man auf eine Zeit zurückschauen, in der Personen nicht automatisch visuell katalogisiert und zugeordnet wurden. Wie lange werden wir darauf warten müssen? Wohl länger als die Macher von tuyuan es je zugeben werden.
_____
Bild: tuyuan.com
]]>Ist das Betrachten von Grausamkeiten selbst eine Grausamkeit?
fragt Linda Hentschel in der Einleitung des von ihr herausgegebenen Bandes. Der Kunsthistoriker Horst Bredekamp rief einst zum Bild-Boykott auf.
Wenn das Töten eines Menschen den Zweck hat, seinen Tod zum Bild werden zu lassen, dann ist das Betrachten dieses Bildes unabdingbarer Akt der Beteiligung.
Dann würde der Betrachter zum Täter, aber das Bilderverbot erscheint beim Grad, mit dem Nachrichten von Visuellem durchtränkt sind, illusorisch.
Der Band zur Bilderpolitik ist alles andere als ein Handbuch zur Herrschaft durch Bilder, eher ein Gegen-Buch. Doch manchmal gleicht das Dagegen dem Dafür. Und so erfahren wir ausführlich, wie es gemacht wird, das Regieren mit Bildern.
Visuell zu regieren heißt, so die Herausgeberin Linda Hentschel mit Bezug auf Foucault, sich dem richtigen Verfügen über mediale Bilder anzunehmen, um sie einem angemessenen Zweck zuzuführen.
Bilder sind nicht passiv. Ethische und ästhetische Erniedrigung zeigt sich nicht nur in Bildern, sondern sie geschieht auch durch Bilder.
Judith Butler geht auf diesen Umstand in ihrem Text Folter und die Ethik der Fotografie ausführlich ein. Sie zeigt am Beispiel der Fotografien von Abu Ghraib, dass Fotograf und Fotografierter im selben Rahmen handeln. Dass daher der fotografierte Soldat für das Bild posiert, die Kamera die Folter auf eine Art veranlasst.
Das Foto verlängert das Ereignis, es hält es fest. Als wollte der Fotografierte sagen: Danke dass du meinem Triumph ein Denkmal setzt!
Die Sorglosigkeit, mit der die Dokumente gemacht wurden und zirkulierten, zeigt sie als Teil einer Alltäglichkeit, in der Folterbilder neben einer Menge andere Schnappschüsse stehen. Die Digitalisierung des Bösen vervielfacht die Banalität des Bösen.
Butler sieht diese Lage in einem größeren Kontext von Normen und Rahmungen. Sie beginnt mit der eingebetteten Berichterstattung beginnen, die die Produktion der Kriegsbilder kontrolliert. Das Dilemma der kontrollierten Bilder entsteht nicht mit der Deutung und dem Kontext des Fotos, sondern liegt bereits darin,
dass das Auftragsfoto, das den staatlichen Erfordernissen entspricht, seine eigene Deutung konstruiert. (…) Das heißt, wir interpretieren die Interpretation, die uns aufgezwungen wird.
Beide, die Folterbilder wie auch die amtlichen Bilder eingebetteten Journalisten, entstehen im selben Geflecht von Normen und Rahmungen, deren Zweck es ist, das Leid der Anderen verschwinden lassen.
In mancher Hinsicht erscheinen die meisten der Beiträge des Buches wie ein Kommentar zu dem Text von Butler. Linda Hentschel zeigt am Beispiel militärischer Bildmotive, wie moderne Regierungstechnologien mit einer Art von visuellem Risikomanagement der Sichtbarkeitsverhältnisse Macht ausüben. Silke Wenk liest asymmetrische Kriege und mit asymmetrischen Geschlechterverhältnisse und deren Bildern parallel. Tom Holert analysiert am Beispiel einer Fotostrecke von Todd Heisler die Heimkehr der toten Soldaten in Särgen als ein Lexikon der Passionen Frauen werden dabei in der Doppelrolle als Soldatinnen und Kriegerwitwen zu Trägern einer Ästhetik des Nationalen. Am Beispiel der Bildern männlicher Helden macht Godehard Janzing auf eine eigentümliche Umkehrung aufmerksam.
Im Bild des reflexiven oder gebrochenen Helden vermag die repräsentierte Nation symbolisch von der Täter- auf die Opferseite zu wechseln.
Nicholas Mirzoeff liest das Lager als das Panopticon unserer Zeit und unternimmt damit den nicht recht überzeugenden Versuch, einen ohnehin überstrapazierten Begriff Agambens ins Visuelle auszudehnen.
Dagegen zeigt Michaela Wünsch sehr gewitzt an einer Reihe von Horror-Filmen des Regisseurs George Romero, wie die Figur des Zombies sich dem medialen Regime des Fernsehens anpassen und dabei unregierbar wird. Ebenfalls sehr originell geht Hendrik Blumentrath von der Jahresausstellung der Royal Academy 1901 aus. In der Krise der klassischen Schlachtengemälde zeigt sich, wie der Feind am Rand des Empires unsichtbar wird. Aber auch das Porträt der Queen gibt keinen Halt mehr, denn es ist zu einem rein repräsentativen Ausstellungsstück ohne Souveränität geworden.
Insgesamt durchzieht die Aufsätze des Buches recht homogen ein Denken, das fast durchgehend mit den Begriffen der angelsächsischen visual oder cultural studies operiert. Das ist kein Nachteil, zeigen sich doch als gut geeignet, um die politische Bildproduktion im Umfeld der jüngsten Kriege zu erhellen.
Linda Hentschel (Hg.): Bilderpolitik in Zeiten von Krieg und Terror. Medien, Macht und Geschlechterverhältnisse. bbooks Berlin 2008, 240 Seiten, 19,90€
Bild: Todd Heisler: Finale Salute, 2005
]]>In der Süddeutschen Zeitung (leider nicht online) macht sich heute Jutta Göricke Gedanken zum Verhältnis von Kunst- und Bildwissenschaften. Die Veränderungen der Kunstgeschichte illustriert sie mit einem gelungenen Bild. Lang ist es her, dass man Stilleben nur als Zeichen der Vanitas gelesen hat, der Eitelkeit und Vergänglichkeit. Heute zählt auch dort eher Curiositas, die Neugier, und
die abgeschälte Zitronenschale zieht gedanklich in die Anatomischen Theater ein.
Vielleicht ginge es auch noch etwas gegenwärtiger, war doch die Zitrone Handelsgut in Amsterdam, dem Zentrum nicht nur der Stillebenmalerei, sondern auch des globalen Handels, wo die ersten Börsen ihre Höhenflüge und Kursstürze erlebten.
Die Kunstgeschichte, so Göricke, droht
in drei Lager zu zerbrechen: das der Traiditonalisten, die sich um Stil und Provenienzen kümmern, das der historischen Avantgardisten, die den Interpretationsrahmen von Kunstwerken um Naturwissenschaften und Technikgeschichte erweitern, und das der ahistorischen Bildwissenschaften, die keinen Unterschied mehr machen zwischen der Venus von Botticelli und der Ultraschallaufnahme eines Oberbauchs.
Bildwissenschaften
stellen sich der Flutwelle der technischen Bilder, die sich zu Beginn des letzten Jahrhunderts aufgebaut hat und seither den Globus überschwemmt. Iconic Turn.
Ob das Bild einer Flut und die damit heraufbeschworenen Ängste tatächlich der Wende zum Ikonischen entsprechen, kann man bezweifeln. Hier spricht sorgenvoll die Kunsthistorikerin, die einen Umbruch auf sich zukommen sieht. Nicht zuletzt weil Kunst und Bild zwei verschiedene Gegenstände geworden sind.
Kunstwerke sind nichts Besonderes mehr und drohen unter die Räder zu kommen – wie es etwa bei den ‘Visual Studies’ in den USA schon der Fall ist. Und die historische Anbindung geht ganz flöten.
Tatsächlich steht das historische Paradigma, das die deutschen Geisteswissenschaften seit dem 19. Jahrhundert prägt, in Frage. Das heißt nicht, dass man auf Geschichte verzichten könnte. Doch den Gewinn der Visual Studies bilanziert Göricke nicht. Dass dort nämlich tatsächlich eine Auseinandersetzung mit den Bildern der Gegenwart stattfindet. Und damit eine Wissenschaft entsteht, die auch einen Blick voraus riskiert, auf jene Bildwelten, mit denen wir uns in der näheren Zukunft auseinander setzen müssen.
Das Fazit ihres Artikels schneidet denn auch einige Diskussionen ab, die noch zu führen
wären.
Bildwissenschaft braucht eine historische Perspektive, und daher braucht sie die Kunstgeschichte.
Damit hat sie sicher Recht. Die Opposition zwischen beiden Fächern nutzt niemandem. Aber der Nutzen der Geschichte für unsere Gegenwart will noch einmal bedacht und begründet werden. Sonst vergammelt die Zitrone am Ende doch.
_____
Bild: Ausschnitt aus Willem Claesz Heda: Stilleben mit Nautilusbecher (1642)
https://kunst.gymszbad.de/zab2006/ts-3/heda/heda-stilleben-1642-1-xl.jpg
Manche Innovationen sind nicht nur Geschäftsmodelle, sondern Entwürfe von wissenschaftlichem Interesse. Wieder einmal sind es die Apfel-Insider, die das neueste aus Cupertino verbreiten. Apple hat sich Gedanken über die Zukunft der Bewegtbilder gemacht. Der laufende Kampf um die Vorherrschaft in dem Feld lässt sich von zwei Seiten her lesen. Einmal ist er ein Ringen um Marktanteile und eine Konkurrenz der Konzepte. Zum anderen erlaubt er einen Blick in ein öffentliches Labor, in dem das künftige Verhältnis von Menschen und Bildern entworfen wird.
Der Blick auf Apple’s Studien ist insofern interessant, als sie Video im Netz nicht einfach als einen Service begreifen, sondern als Teil unserer Umwelt. Die lebensweltliche Perspektive macht es nötig, einige der Anwendungen neu zu bedenken. Am Ende geht es vielleicht so sehr nicht um einen generalisierten Video-Provider, wie ihn etwa Youtube darstellt, sondern um eine ganze Reihe unterschiedlicher Services, die einzelnen Lebens-Situationen angepasst sind.
Von der Seite der Services gibt es jedenfalls Neugikeiten zu berichten, die auf genau diese Entwicklung hindeuten. Youtube hat sein Programmierer-Interface ein Stückchen weiter geöffnet. Im Kern steht dabei das Vorhaben, lokale Zusammenhänge erreichbar zu machen. Und auch Flickr plant, endlich Bewegtbilder aufzunehmen, und zwar auf eine Weise, die sich von Youtube deutlich unterscheiden soll.
Als Markt ist Internet-Video so umkämpft, weil es als Hauptquelle künftiger Werbeinnahmen gilt. Aus einer eher theoretischen Sicht ist es genauso aufregend zu verfolgen, welche Konzepte von Zeit und Sequenzialität sich in der Konkurrenz der Ansätze behaupten werden.
Bild: appleinsider.com/articles/08/03/13/apple_tv_dvr_interface_revealed_in_patent_filings.html
]]>“Wir werden auch Themen behandeln wie den iconic turn, also die Frage, ob es eine universale Bildwissenschaft gibt und was diese mit den Medien zu tun hat(245)”,
verspricht Hans-Ulrich Reck.
Die Antwort überlässt er seinem Freund Bazon Brock, der lakonisch zweierlei festhält:
“Der eigentliche iconic turn besteht darin, dass heute vor Gericht niemand mehr das Argument abgenommen wird, dass er durch Bilder getäuscht worden sei. Selbst in der Rechtsprechung geht man davon aus, dass jeder, der mit Photographie, Film, Fernsehen aufgewachsen ist, nicht mehr vor Gericht einklagen kann, dass zwischen dem im Reiseprospekt abgebildeten Hotel mit Sandstrand und dem real von ihm wahrgenommenen Hotel vor Ort eine einklagbare Differenz besteht.(267)”
Die andere Seite des iconic turn sieht Brock in der Schlacht um die Ausildungsprogramme, und damit geht es zurüpck zur Unvermeidlichkeit der Kunst:
“Die zu diskutierende Fragestellung wird in jedem Bildungs- und Kultusministerium aufgegrifffen, wenn intern entschieden werden soll, ob ein neu zu errichtender Lehrstuhl nun unter dem Titel Ästhetik, Kunstgeschichte, Bildwissenschaften, Medienanthropologie oder Kunstkritik ausgeschrieben werden soll. Jeder, der sich verführen lässt, unter dem Titel Medienwissenschaft als Professor anzutreten, muss mit der Zeit einsehen, dass sein Bemühen ohne Bezug auf die Kunst vergeblich sein wird. Sobald der Bezug zu Kunst ind erMedinekritik oder Medienanthropologie ausfällt, geht der Betreffende zurgrunde. Denn nur die Kunst handelt von Evidenzkritik als um im Bild selbst.(268)”
Diese Aussage erscheint ziemlich gewagt, wenn nicht geradewegs ignorant, angesichts der Fülle an Referenzen von Bildern auf Bilder, die auf Seiten wie Flickr oder Youtube kultiviert wird. Natürlich gelten dort nicht die Diskursregeln der beiden Herren. Aber Brock bleibt mit seinen Thesen ganz im Tenor der Buches.
Die rhetorische Frage im Titel des Buches beantwortet Reck umgehend auf Seite 11:
“Nur kunstphilosophisch, nicht schon bildtheoretisch kann der Eigensinn der Bilder in seiner ganzen Tragweite erfaßt werden. Denn an der Eigensinnigkeit der Bilder endet jede wissenschaftliche Paradigmatik und beginnt die Leidenschaft der Kunst, erst recht die Leidenschaftlichkeit im Umgang mit ihr.”
Nicht dass damit alle Rätsel gelöst wären, aber eben doch ein guter Teil der im Titel gestellten Frage. Mit der so erklärten Leidenschaftlichkeit reitet Reck durch das ganze Buch. Das hat die unangenehme Folge, dass fast durchgehend derselbe herrische und selbstgewisse Tonfall regiert. Der Autor hat alles schon immer richtig beieinander und ergeht sich in einer Sprache, die nicht eigentlich etwas zur Diskussion stellt oder zum Denken auffordert, sondern so als hätte er alles der Sekretärin diktiert im Leser den ergebenen Hörer sucht. Nicht zuletzt dieser unschönen Eigensinnigkeit ist es geschuldet, dass Reck in Fachkreisen, aber auch beim weiteren Publikum nie die Beachtung gefunden hat, die er vielleicht verdienen würde.
Es erfordert eine gewisse Mühe, sich von dem Stil des Autors frei zu machen, um unvoreingenommen nachzuvollziehen, was gesagt wird. Und das lohnt sich durchaus. Die Zielrichtung ist klar vorgegeben. Reck möchte, zusammen mit der Kunst in ihrer übergeordneten kritischen Position gegenüber den Bildern, den Vorrang der Kunstgeschichte gegenüber jeder denkbaren Bildwissenschaft bekräftigen. Er lässt kaum einen theoretischen Standpunkt aus, um das Fundament für seine Thesen zu legen. Seine Tour de Force durch die philosophischen Hintergründe führt über Merleau-Ponty, Bredekamp, Breidbach, Sartre, Piaget, Goodman, Bourdieu, Imdahl, Boehm, Sachs-Hombach und immer wieder zurück zu Reck, Reck, Reck. Um Thesen wie um Material ist der Autor nie verlegen, nur geht er auf seinem Weg nicht geradeaus voran, sondern sammelt auf, was sich am Rand und auch auf Umleitungen noch alles an Wichtigem oder nur Naheliegendem finden lässt.
Reck nimmt eine modernistische Position ein. Er setzt die Verweigerung des Künstlers gegen den plebejischen Glamour der Warenwelt; die Kraft der Avantgarden gegen die Vereinnahmung durch den globalen Kapitalismus; und Komplexität künstlerische Strategien gegen das schlicht Bildhafte.
Wo Reck dann aber die Strategien der Kunst zu sprechen kommt, bleiben seine Auskünfte oft vage. So etwa im Fall des Samplings. Es hätte sich angeboten, hier auf die seit einiger Zeit viel diskutierten Thesen von Nicolas Bourriaud zur relationalen Ästhetik und zur Kunst als Postproduction einzugehen. Aber die vielen Künstler der 90er Jahre, die sich so gut als Beispiel angeboten hätten, wie Sampling als künstlerische Strategie funktioniert und wohin es erweitert werden kann, bleiben weitgehend unerwähnt, sieht man von einem einzigen versteckten Hinweis auf Recks schweizer Landsmännin Pipilotti Rist ab. Stattdessen hält er sich lang mit philosophischen und technizistischen Deutungen dessen auf, was Sampling als Kulturtechnik bedeuten könnte, und zieht sich dabei selbst vom weiteren Umfeld der Kunst auf den Bereich des bloß Bildhaften zurück.
Am Ende gerät die Kunst weitgehend aus dem Blick, wenn Reck versucht, seine Thesen auf den aktuellen Stand der Bildpolitik nach dem zweiten Golfkrieg aufzurüsten. Diesem Bemühen schuldet sich wohl auch das eigentümliche Motiv des Buchtitels, das Usama Bin Laden im Visier einer Überwachungskamera zeigen soll.
In einem sogenannten „Theorie-Duett” mit Bazon Brock findet das Buch seinen Abschluss. Hier vollzieht sich tatsächlich eine erstaunliche Wandlung. Wenn Reck vor Publikum spricht – und das Duett gibt einen öffentlichen Dialog aus dem Jahr 2004 wieder – verändert sich sein Ton. An die Stelle des Behauptenden tritt der Lehrende, der sich bemüht, sein Wissen zu vermitteln und es auch kann, wenn er nur gefragt wird und sich nicht beim Schreiben selbst überlassen bleibt.
_____________
Hans Ulrich Reck: Der Eigensinn der Bilder. Bildtheorie oder Kunstphilosophie? Fink Verlag 2007, € 27,90
]]>You dont’ understand our Audience überschreibt John Hockenberry seinen Artikel für die jüngste Ausgabe der MIT Technology Review. Was er nicht versteht und sich zu verstehen weigert, ist der Wille der Netzwerke, ihre Bilder einem imaginierten Publikum anzudienen und dabei jedem Hindernis auszuweichen. Aber gerade das, so legt es Hockenberry nahe, bringt die Sender in eine technologische wie ästhetische Rückständigkeit.
Bild: Newyorkfire.com
Bilder werden als Werbeumgebung eingesetzt. Was zählt, sind Emotionen, nicht Information. Hockenberrys Beispiel reicht in die Tage kurz nach 9/11 zurück, als er bei dem Fernsehsender NBC arbeitete.
The next morning I was in the office of David Corvo, the newly installed executive producer of Dateline, when Zucker entered to announce that the network was going to resume the prime-time schedule for the first time since the attacks. The long stretch of commercial-free programming was expensive, and Zucker was certain about one thing: ‘We can’t sell ads around pictures of Ground Zero.’
Hockenberry hängt noch der Vorstellung an, Journalisten sollten informieren und aufklären. Er schlägt eine Dokumentation über das Al-Qaida Netzwerk vor, das damals gerade erst in Verdacht gerät. Der Produzent dagegen will statt eines Hintergrundberichts lieber emotional positv aufgeladene Heldenfiguren zeigen.
But Zucker insisted that Dateline stay focused on the firefighters. The story of firefighters
trapped in the crumbling towers, Zucker said, was the emotional center of this whole event. Corvo enthusiastically agreed. “Maybe,” said Zucker, “we ought to do a series of specials on firehouses
where we just ride along with our cameras. Like the show Cops, only with firefighters.” He told
Corvo he could make room in the prime-time lineup for firefighters, but then smiled at me and said, in effect, that he had no time for any subtitled interviews with jihadists raging about Palestine.
Der journalistische Impuls, die Welt jenseits der Sender nicht nur abzubilden, sondern auch zu erklären, geht bei diesem Vorgehen verloren. Der Schaden reicht indessen weiter, denn mittelfristig wird das Produkt einer Nachrichtensendung geopfert wird, um kurzfristig Quoten zu halten.
This was one in a series of lessons I learned about how television news had lost its most basic journalistic instincts in its search for the audience-driven sweet spot, the “emotional center” of the American people.
Letztlich kommt es auf der einen Seite zu einem homogenen Fluss von Emotionen, der auf der anderen Seite das Publikum, das nach Information sucht, von den Fernsehschirmen weg ins Internet treibt. Die Ökonomie der Bilder treibt diese Wende an, indem sie ein emotional gesichtertes visuelle gleichbleibendes Umfeld für zahlende Kunden fordert.
The informational edge was perilous, it was unpredictable, and it required the news audience to be willing to learn something it did not already know. Stories from the edge were not typically reassuring about the future. In this sense they were like actual news, unpredictable flashes from the unknown. On the other hand, the coveted emotional center was reliable, it was predictable, and its story lines could be duplicated over and over. It reassured the audience by telling it what it already knew rather than challenging it to learn.
Im Zug der Herabstufung von TV-Sendungen zum reinen Werbeumfeld geht auch die technologische und ästhetische Initiative auf die Werbe-Industrie über.
It also explains why TV news seems so archaic next to the advertising and entertainment content on the same networks. Among the greatest frustrations of working in TV news over the past decade was to see that while advertisers and entertainment producers were permitted to do wildly risky things in pursuit of audiences, news producers rarely ventured out of a safety zone of crime, celebrity, and character-driven tragedy yarns.
Advertisers were aggressive in their use of new technologies long before network news divisions went anywhere near them. This is exactly the opposite of the trend in the 1960s and ’70s, when the news divisions were first adopters of breakthroughs in live satellite and video technology. But in the 1990s, advertisers were quick to use the Internet to seek information about consumers, exploiting the potential of communities that formed around products and brands.
Unwillig, Innovationen im Programm durchzustzen, wenn sie Werbeplätze zu riskieren, verpassen die große Sender die technischologischen Neuerungen. Hockenberrys gibt als Beispiel das Vorgehen im Irakkireg an. Anstatt im Sinne nutzergenerierter Inhalte auf Fotos, Blogs und Videos von Soladaten zurückzugreifen, setzen Sender unter großen Aufwand sogenannte embedded Journalists ein.
The focus on gadgetry meant once again that the deeper story about technology and the war was missed. Technology was revolutionizing war reporting by enabling combat soldiers to deliver their own dispatches from the field in real time. In 2004, I pitched Dateline on the story of how soldiers were creating their own digital networks and blogging their firsthand experiences of the war. The show passed. My story appeared in Wired a year later.
Hockenberrys Fazit für die Arbeit der großen TV-Anstalten in Amerika ist vernichtend:
Communication technologies transformed America’s view of itself, its politics, and its culture.
One might have thought that the television industry, with its history of rapid adaptation to
technological change, would have become a center of innovation for the next radical transformation in communication. It did not. Nor did the ability to transmit pictures, voices, and stories from around the world to living rooms in the U.S. heartland produce a nation that is more sophisticated about global affairs. Instead, the United States is arguably more isolated and less educated about the world than it was a half-century ago. In a time of such broad technological change, how can this possibly be the case?
Seine zugespitzte Diagnose lautet, dass das Netz die Dinosaurier des Fernsehens einholen wird. Weil sie ihr eigenes Produkt aufgegeben haben. Weil sie die Schlüsselinnovationen der Information verpassen. Und weil sie den Nutzer betrügen, gerade indem sie ihn vorgeblich ins Zentrum stellen, aber als einen gänzlich passiven Zuschauer.
]]>Networks are built on the assumption that audience size is what matters most. Content is secondary; it exists to attract passive viewers who will sit still for advertisements. For a while, that assumption served the industry well. But the TV news business has been blind to the revolution that made the viewer blink: the digital organization of communities that are anything but passive.
Traditional market-driven media always attempt to treat devices, audiences, and content as bulk commodities, while users instead view all three as ways of creating and maintaining smaller-scale communities. As users acquire the means of producing and distributing content, the authority and profit potential of large traditional networks are directly challenged.
Manchmal braucht Denken Zeit. Vor zwei Jahren hielt der Philosoph Jürgen Habermas eine Rede in Wien. Und nun fand in Oldenburg ein Symposium statt, das die FAZ im Licht von Habermas’ damaligen Aussagen genauer betrachtet.
Und das scheint nötig zu sein. Denn immerhin machte Habermas deutlich, dass das Internets die Struktur der neuen Öffentlichkeit prägt.
Seine Warnung, warum das Netz dem Denken gefährlich wird, führt um zwei Ecken.
Denn zu begrüßen ist, so Habermas, dass die Umstellung der Kommunikation von Buchdruck und Presse auf Fernsehen und Internet zu einer ungeahnten Ausweitung der Medienöffentlichkeit und zu einer beispiellosen Verdichtung der Kommunikationsnetze geführt hat. Aber gerade die Breite, das Nicht-Exklusive und der Überfluss von Information droht zu Mängeln beim Inhalt zu führen.
In diesem Medium (Internet) verlieren die Beiträge von Intellektuellen die Kraft, einen Fokus zu bilden. Damit bleibt Habermas seinen Anfängen treu. Schon in seinem frühen Buch Strukturwandel der Öffentlichkeit behauptet er, dass die Medien im Laufe eines guten Jahrhunderts den nicht gerade vorteilhaften Weg vom Journalismus schriftstellernder Privatleute zu den öffentlichen Dienstleistungen der Massenmedien gegangen sind.
]]>Caltech101 heisst die gebräuchlichste Datenbank, an der Computer ihre Fähigkeiten in künstlichem Sehen testen.
Doch an diesem Test sind nun Zweifel aufgekommen. Denn die in der Datenbank enthaltenen Bilder sind bei weitem nicht so komplex wie die visuellen Eindrücke, auf die das menschliche Auge in der Natur trifft.
James Di Carlo, eine Neurowissenschaftler aus Harvard glaubt, dass Designfehler den Computern das Sehen zu leicht machen. Unter anderem ist dafür der Hang von Photographen verantwortlich, Motive in der Bildmitte zu platzieren.
“Die Leichtigkeit, mit der wir visuelle Objekte erkennen, täuscht über die Schwierigkeiten der Rechner hinweg”, so DiCarlo. “Im Kern liegt die Herausforderung bei der Bildvariation. Jedes gegebene Objekt kann eine Unzahl von Bildern auf die Retina werfen, je nach Position, Entfernung, Orientierung, Lichteinfall oder Hintergrund.”
An einem Testprogramm zeigte sich, dass die Caltech-Datenbank diese ganz zentrale Herausforderung nicht wirklich wiedrgibt. So fällt es den Computern nicht schwer genug, Objekte zu erkennen. Die Forscher fordern deshalb, eine neue, wirklichkeitsgetreuere Testumgebung zu entwickeln.
]]>Eine Untersuchung am MIT zeigt, wie kulturelle Prägungen das Sehen beinflussen. Psychologisch ist erwiesen, dass Amerikaner einzelne Objekte eher unabhängig von deren Umgebung wahrnehmen. Asiaten dagegen sehen Dinge in der Menge und berücksichtigen eher den Kontext.
Das Team um John Gabrielli stellte sich nun die Frage, ob diese Unterschiede sich auch in den Gehirnaktivitäten nachvollziehen lassen. Dabei stellte sich heraus, dass Asiaten mehr Aufmerksamkeit aufbringen müssen, um absolute Urteile zu fällen, während Vergleiche ihnen leicht fallen. Das umgekehrte gilt für Amerikaner. Je stärker die Identifkation mit der betreffender Kutur ausfiel, desto deutlicher trat dieser Effekt auf.
“Wir waren überrascht, wie stark die Unterschiede zwischen den beiden kulturellen Gruppen ausfielen. Und auch darüber, wie weit sich die in Anspruch genommenen Zonen im Aufmerksamkeitszentrum des Hirns ausdehnten, als es darum ging, Urteile jenseits der kulturellen Gewohnheit zu fällen”, erklärte Trey Hedden, einer der beteiligten Forscher.
Hier auf ScienceBlogs gibt die Pädagogin Monika Armand zu bedenken, dass die Unterschiede auch auf den Gegensatz zwischen einer rein zeichenhaften und einer Bilderschrift zurückzuführen sein könnten.
]]>Das Monumentale kehrt im Gewand des Ikonischen wieder. Diesen überraschenden Schluss fand Horst Bredekamp in seiner Vorlesung mit dem Titel Momente des Monumentalen.
Als Beispiel dient ihm ein Gebäude des Architekten Rem Koolhaas, das derzeit in Peking gebaut wird.
Der Turm für den staatlichen Rundfunksender CCTV stellt ein Musterbeispiel einer gebauten Ikone dar. Dabei war es gerade Koolhaas, der sich noch 2006 in seinem Beitrag für den Band Iconic Worlds gegen das Ikonische als stilistische und ästhetische Möglichkeit ausgesprochen hat. Doch der Niederländer ist kein Dogmatiker. Er passt seine Ideen den Gegebenheiten an und zögert nicht, seine Gebäude zu Ikonen zu formen, wenn nötig.
Das Ikonische, so wie es Koolhaas definiert, deckt sich nahezu volstädnig mit dem Monumentalen, so Bredekamp. Für den Zeitraum von 1800 bis 2000 zeigt der Kunsthistoriker, wie das Monument zuerst als nicht nur gebautes Objekt des Erinnerns begriffen wird. Gegen die Vertreter der frühen Kunstgeschichte wie Winckelmann, die nur Bilder oder Gebäude als Monumente gelten lassen wollten, bezeichnet der Historiker Ranke schriftliche Quellen als Monument. Seinem Fachngenossen Droysen zufolge, können in jedem Medium monumentale Qualitäten auftauchen. Bredekamp zeigt, wie ausgehend von der Debatte um das Monument der Begriff des Monumentalen ab Mitte des 19. Jahrhunderts auftaucht. Das dritte Reich schließlich hat die Idee des Monumentalen so nachhaltig diskreditiert, dass danach Jahrzehnte lang jeder Ansatz von Monumentalität schon verdächtig erschien.
Das beginnt sich zaghaft mit der Postmoderne zu ändern. In der Gegenwart erscheint monumentale Architektur wieder möglich, auch und gerade wenn eben sie begrifflich unter einem anderen Gewand auftritt.