i-3fb235672f375c81b5ca37338f653fef-Camponotus_sericeus-thumb-261x221.jpg

Wie war das nochmal mit den unendlich vielen Affen an Schreibmaschinen, die Shakespeares Hamlet (oder meinetwegen auch auch die gesamte Weltliteratur) per Zufall produzieren würden?* Was sich drei Forscher der Carnegie-Mellon University (Pittsburgh) ausgedacht haben, erfordert zwar ein Stückchen mehr Intelligenz, aber für mich als jemanden, der sich mit Schreiben seinen Lebensunterhalt verdient, ist es nicht minder grausig: Aniket Kittur, Boris Smus und Robert E. Kraut vom Human-Computer Interaction Institute haben CrowdForge entwickelt – ein Protokoll, das es erlaubt, selbst so komplexe und kreative Tätigkeiten wie das Schreiben von Artikeln (jawohl, da bestehe ich auch weiterhin drauf: meine Tätigkeit ist komplex und kreativ) auf einen minimal involvierten und bezahlten “Arbeiterschwarm” zu verteilen. Eine grauenhafte Vorstellung für jeden Journalisten!

Das Prinzip ist das gleiche wie bei anderen Crowdsourcing-Protokollen, allen voran dem Mechanical Turk von Amazon: Eine Aufgabe wird in viele, kleine Segmente zerlegt, die meist mit geringem (und gelegentlich eher mechanischem) Aufwand zu erledigen sind, aber in jedem Fall auch nur mit ein paar Cent entlohnt werden. Der Unterschied zwischen den Turk-Jobs – die euphemistisch als “Human Intelligence Task”, kurz HIT, umschrieben werden – und den CrowdForge-Aufträgen ist, dass erstere unabhängig von den Resultaten anderer Schwarm-Arbeiter verwertet werden können (eine solche Aufgabe kann zum Beispiel darin bestehen, Objekte auf Fotos in Kategorien einzuordnen), während letztere in mehreren, nachgeordneten Bearbeitungsschritten zu einem – mehr oder weniger – homogenen Endprodukt, nämlich einem lesbaren, schlüssigen und korrekten Text zusammengefügt werden müssen.

Ich will mich hier nur auf die Beschreibung der Grundidee beschränken (bin ich blöd, für so etwas auch noch Werbung zu machen?): Der erste und sicher delikateste Schritt ist, die Aufgabe in Portionen zu zerlegen (“Partition”), die dann parallel und unabhängig voneinander bearbeitet werden können. Das mag bei einem Roman oder einer Reportage zwar schwer umsetzbar sein, denn wie soll man sich den letzten Absatz vorstellen, wenn man den Inhalt des ersten noch nicht kennt – aber bei einem Bedienungshandbuch, beispielsweise, oder einem Reiseführer, ist das schon einfacher. Im zweiten Schritt werden die so festgelegten Aufgaben dann verteilt und ausgeführt (“Map”), und im nächsten Schritt dann zum Endprodukt redaktionell zusammen geführt (“Reduce”). All diese Schritte können auch verschachtelt und/oder iterativ sein: Eine Grobgliederung wird in Abschnitten feiner gegliedert und ausgeführt, daraus wiederum eine bessere Grobgliederung entwickelt etc.

Klingt alles irrsinnig umständlich und unpersönlich, aber die Autoren (drei Männer, darum verzichte ich hier auf den Zusatz “und Autorinnen”) versichern, dass sie mit 36 Teilschritten Texte in Wikipedia-Qualität produzieren konnten, die besser bewertet wurden als vergleichbare Artikel individueller Autoren, und die dank der minimalen Entlohnung der einzelnen Mitarbeiter gerade mal ein paar Cents mehr als drei Dollar kosteten. Aua! Das Schlüsselwort ist für mich natürlich die “Wikipedia-Qualität”, aber ehe ich mich zum Thema Qualität im Journalismus auslasse, erst mal ein ganz anderer, aber wie ich finde, ebenso wichtiger Gedanke.

Keine nichtreduzierbare Komplexität in der Schöpfung

Und hier komme ich erst mal auf mein zum Einstieg bemühtes Affen-Shakespeare-Beispiel zurück. Denn jenes wird ja gerne von Evolutionsgegnern als “argumentum ad absurdum” bemüht: Ebenso, wie es absurd sei, dass eine Horde Affen mit unendlich viel Zeit so etwas wie den Hamlet produzieren könne, sei es undenkbar, dass der “pure Zufall” der Evolution den genetischen Code solcher Meisterwerke wie Bandwürmer, Seeelefanten (die hab’ ich nur wegen der vielen “e”s als Beispiel genommen) oder Menschen schaffen könnte. Und sie reden dabei gerne von der nichtreduzierbaren Komplexität in der Schöpfung, womit im Prinzip nur gesagt werden soll, dass sich solche komplexen Aufgaben eben nicht in beliebig viele kleinere Schritte zerlegen lassen, sondern dass dafür ein intelligenter “Masterplan” nötig ist.

Egal, wie sehr ein Vergleich mit CrowdForge hier hinken mag: Ich sehe darin sehr wohl einen Beweis, dass sich selbst scheinbar so kreative Aufgaben wie das Ausdenken von Geschichten in beliebig kleine und ohne außergewöhnliche Intelligenz zu bewältigende Teile zerlegen lässt. Ob’s mir gefällt, ist eine andere Frage, und dass davon keine Meisterwerke zu erwarten sind, vielleicht noch eine weitere. Aber bitteschön: Wer hat den jemals behauptet, dass das Leben ein “Meisterwerk” sei? Etwas, das nicht verbessert werden kann? (Jaja, ich weiß, das ist ja genau, was die Kreationisten denken – aber die nehm’ ich hier mal wirklich so ernst wie sie es verdienen, nämlich gar nicht.) Ich bin zwar kein Techniker, aber ich würde vermuten, dass wir Menschen, unter rein mechanischen Aspekten, bestenfalls Wikipedia-Qualität erreichen.

flattr this!

1 / 2 / Auf einer Seite lesen

Kommentare (14)

  1. #1 MartinB
    4. Februar 2011

    Ich verstehe die Evolutionsanalogie nicht: Hier muss doch vorher einer sich hinsetzen und genau überlegen, welche Absätze in welcher Reihenfolge geschrieben werden müssen (ich kenne das übrigens als “deduktive Schreibmethode”, die ist auch nützlich, wenn man allein was schreibt) – der ist doch quasi der “intelligente Designer”. Ich würde jetzt als advocatus diaboli sogar das Gegenteil sagen: Das beweist doch, dass man einen intelligenten Designer plus Mikroevolution annehmen kann.

  2. #2 Emanuel-S
    4. Februar 2011

    Muss man die Reihenfolge vorher wirklich planen um ein gutes Ergebnis zu erhalten? Beispiel Presse-Arbeit die ich selber kenne – oft gibt es Texte, wo man die Absätze beliebig vertauschen kann/könnte, weil jeder Block seinen abgeschlossenen Informationsgehalt trägt – damit auch das Gesamtbild vervollständigt, die Position ist dafür aber nicht unbedingt relevant (bzw. fallen nur minimale Anpassungen bei einer Abänderung an).

  3. #3 Frank Wappler
    4. Februar 2011

    Jürgen Schönstein schrieb:
    > […] Das mag bei einem Roman oder einer Reportage zwar schwer umsetzbar sein, denn wie soll man sich den letzten Absatz vorstellen, wenn man den Inhalt des ersten noch nicht kennt – aber bei einem Bedienungshandbuch, beispielsweise, oder einem Reiseführer, ist das schon einfacher.

    Selbst das scheint kaum vorstellbar, sofern es doch auf den Zusammenhang von (Bedien- bzw. Reise-)Schritten ankommen mag.
    (BTW: wiki doch mal [[Plot coherence]] …).

    Für Kochbücher könnte ich mir CrowdForging vorstellen:
    Man lässt also die einzelnen Rezepte tippen — sagen wir jedes ca. 20 mal — und wählt sich daraus diejenigen, die zusammen ein vermarktbares Produkt ergeben (könnten).
    Oder, Ressourcen vorausgesetzt, man bietet gleich das Ganze an (z.B. als “Wetzstein des redaktionellen Zusammenführens”).

    > […] von Evolutionsgegnern als “argumentum ad absurdum” bemüht: Ebenso, wie es absurd sei, dass eine Horde Affen mit unendlich viel Zeit so etwas wie den Hamlet produzieren könne

    Aber das können sie doch; unter Voraussetzung hinreichend … ähm … intelligenter Partitions- bzw. Kompositions- (Reduzierungs-)Methoden.

    > Das Schlüsselwort ist für mich natürlich die “Wikipedia-Qualität”

    Ah-ja.
    Das Schlüsselwort zu “Wikipedia-Qualität” ist für mich natürlich “redaktionelles Zusammenführen” bzw. “Verlinkung”:

    http://en.wikipedia.org/wiki/Infinite_monkey_theorem_in_popular_culture

    18. ^ Woo-hoo! A look at the 10 best ‘Simpsons’ episodes ever, Press & Sun-Bulletin, 27 July 2007. “The genius of this joke is a child can laugh at it, but those who understand the allusion to Charles Dickens and the infinite monkey theorem can laugh on another level.”[dead link]

  4. #4 Jonas Schaible
    4. Februar 2011

    Ich finde gerade auf Anhieb keinen Link, es gab vor ein oder zwei Jahren sogar mal einen Versuch, in dem ein Programm mit Textbausteinen und den Statistiken der jeweiligen Spiele Berichte zu NBA-Spielen geschrieben hat, die absolut nicht von denen zu unterscheiden waren, die Journalisten gemeinhin produzieren.

  5. #5 Frank Wappler
    4. Februar 2011

    p.s.

    Jürgen Schönstein schrieb:
    > [CrowdForge http://reports-archive.adm.cs.cmu.edu/anon/hcii/CMU-HCII-11-100.pdf ]


    > die Autoren […] versichern, dass sie mit 36 Teilschritten Texte in Wikipedia-Qualität produzieren konnten

    Oh no, they didn’t — S. 8:

    To verify the quality of these collaboratively written articles, we compared them to
    articles written individually and to the entry from the Simple English Wikipedia on New York City [25].

    Schön, jedenfalls, dass auch diese Auswahl (d.h. die Darstellung von Inhalten auf “Simple English”) für Nutzer der Wikipedia zur Verfügung steht.

  6. #6 Jürgen Schönstein
    4. Februar 2011

    @MartinB

    Ich verstehe die Evolutionsanalogie nicht: Hier muss doch vorher einer sich hinsetzen und genau überlegen, welche Absätze in welcher Reihenfolge geschrieben werden müssen

    Eben nicht. Denn selbst dieser “Planungsschritt”, den die CrowdForger als “Partitioning” bezeichnen, lässt sich seinerseits in kleine Schritte zerteilen, die von mehreren unabhängig arbeitenden Schwarmarbeitern erledigt werden. Ebenso der Schritt der Zusammenführung, die “Reduction” (!). Das Entscheidende ist, dass all dies – zumindest vom Konzept her – ohne zentrale Planung geschehen kann. Also ohne einen “Schöpfer”. Natürlich hat diese Analogie ihre Grenzen, denn irgend jemand muss den Text ja in Auftrag geben und das Endprodukt dann auch bezahlen (was es in der Evolutionslehre nicht gibt), aber der rein kreative Teil funktioniert, wie gesagt, auch dezentral und ohne den “großen Wurf”.

  7. #7 Faustus
    4. Februar 2011

    Die Beschreibung der Arbeitsschritte liest sich wie ein Programmalgorithmus bzw. eine Markovkette n-ten Grades (je nach dem in wie viele Teile man den Job am Anfang einteilt).
    Ich hab jetzt gerade keine Quelle zur Hand, aber vor ein paar Jahren soll es sogar einen Skandal an einer amerikanischen Uni gegeben haben, wo ein Student mit Hilfe einer Markovkette aus einzelnen Wörtern, die er aus verschiedenen Papers zusammengsucht hat, ein künstliches Paper generiert hat und das auch noch in einem peer-reviewten Journal veröffentlicht wurde. Mit z.B. einer MK 10.Grades können so kohärente kurze Sätze generiert werden und es fällt nicht so schnelle auf^^

    Es geht ja nun um Human Computer Interaction. Aber sind Menschen für solche mechanisierten Aufgaben überhaupt noch notwendig?

    Ich frage mich schon seit Langem, ob in der Redaktion von der Zeitung mit dem B und den vier Buchstaben überhaupt noch Menschen sitzen…wenn nicht, würde das wahrscheinlich sowieso kaum einer merken.

  8. #8 MartinB
    4. Februar 2011

    @Jürgen
    Aha, das hatte ich dem text nicht entnommen.

  9. #9 Jürgen Schönstein
    4. Februar 2011

    @Faustus

    Ich frage mich schon seit Langem, ob in der Redaktion von der Zeitung mit dem B und den vier Buchstaben überhaupt noch Menschen sitzen…wenn nicht, würde das wahrscheinlich sowieso kaum einer merken.

    Da ich selbst mal für diese Zeitung gearbeitet habe (nicht in der Redaktion, aber für sie und mit ihr), kann ich versichern, dass dort vielleicht sogar professioneller gearbeitet wird als bei vielen anderen Medien. Das klingt jetzt komisch, vor allem wenn man sich die Resultate anschaut – aber eigentlich geht alles, was man in dieser Zeitung liest, durch mehrere Kontrollstufen. Der Haken ist nur, dass das angestrebte Produkt (und ja, die Zeitung ist so, weil die Leute, die sie machen, dies ausdrücklich so wollen – nicht, wie bei einigen anderen Blättern, die ich kenne, weil sie’s nicht besser können) nicht das ist, was sich viele unter “journalistischer Qualität” vorstellen würden. Aber das ist, wie gesagt, kein Zufall – die Tollheit hat Methode.

  10. #10 BreitSide
    4. Februar 2011

    xxx

  11. #11 Stefan W.
    4. Februar 2011

    Für den Fall dass hier viele Nichtprogrammierer lesen: Map/Reduce ist gerade eine Mode im Programmierwesen. Es stammt aus der Kategorientheorie und wandert z.Zt. über funktionale Programmiersprachen in den Mainstream ein. Der Grund dafür ist u.a. in Phänomenen zu suchen, die mit dem Moorschen Law zu tun haben.

    Dieses ist nicht wirklich ein Gesetz, sondern nur ein Theorem, und besagt, dass die Rechenpower unserer Computer sich etwa alle 1,5 Jahre verdoppelt. Das ließ sich lange Zeit beobachten, aber inzwischen sitzen auf engstem Raum so viele Transistoren aufeineander, dass Leckströme den Stromverbrauch in die Höhe treiben und niemand mehr die Abwärme in den Griff bekäme, und wg. der kl. Leitungen das Überspringen von Ladungen droht usw. – da sind wir schon in der Hardwarewelt, wo ich das fabulieren beginne.

    Abhilfe versprach hier die Idee, dass man nicht die Rechenpower der Prozessoren erhöht, sondern deren Anzahl. Dualcore, Quadcore, you name it.

    Um diese Rechner auszulasten muss man aber die Arbeit gut auf unabhängige CPUs verteilen, die dann eine Aufgabe parallel abarbeiten. Daher drängen jetzt Programmiersprachen und -konzepte in den Vordergrund, die das versprechen, und zu den Konzepten gehört Map/Reduce.

    Und nun kommen ein paar pfiffige Studenten, die diese Technik frisch gelernt haben, und überlegen sich hübsch kreativ, wo man diese Technik noch anwenden könnte – nicht auf PC-Ebene, sondern in der Arbeit von Humanoiden. So ein Transfer in eine andere Welt kann klappen, und kann in die Hose gehen, und es wird sicher eine ganze Welle ähnlicher Ideen noch kommen – aber Fabrikmanagement hat immer schon Aufgaben aufgeteilt und parallelisiert. Der alte Kack im neuen Frack.

    So nun – und?

    Nichts weiter – es erinnert mich nur an Soziologen und Psychologen, die was gehört haben von Relativitätstheorie, und Relativität daraufhin im eigenen Forschungsgebiet entdeckt haben, freilich dabei vergaßen auch eine Lichtgeschwindigkeit irgendwo auszumachen, und damit diejenigen Kollegen, die gar keine Ahnung von Naturwissenschaften hatten ein wenig blufften, oder eben Psychologen, die meinten, dass ihre Arbeit im Feld, bei der man das Versuchsobjekt nicht beobachten kann, ohne Einfluss auf das Experiment zu nehmen, und dies sei der Heisenbergschen Unschärferelation verwandt – … – laßt Euch nicht auf’s Glatteis führen. Für mich riecht es hier nach Wichtigtuern, die neue Begriffe entdeckt haben.

  12. #12 binE
    4. Februar 2011

    @Jonas:Meintest du das hier: http://www.heise.de/tp/r4/artikel/20/20003/1.html ?

  13. #13 Dr. Webbaer
    5. Februar 2011

    Die Komplexität ist so vieles wie anderes auch eine Mengenangabe, eine Zahl, und natürllich nicht reduzierbar. – Reduzieren Sie mal Zahlen, Herr Schönstein.

    Was wohl gemeint ist, ist die musterbasierte Näherung, ja, da geht einiges, dbzgl. dürfen sogar Korrelationen und Kausalitäten (für JS: “Kausationen”) festgestellt werden, man ist hier recht erfolgreich, nur die Wahrheit bleibt natürlich, dass Komplexität unreduzierbar ist.

    Hintergründig spielen hier wohl politische Überlegungen in Bezug auf die Evolution eine Rolle, manche (“Kreationisten” bspw.) stellen fest, dass die Komplexität unreduzierbar ist, und andere wollen widersprechen.

    Aber: Nein!, diese widersprechenden Kollegen liegen hier dümmlich falsch, haben aber ansonsten recht in Bezug darauf, dass Näherungen funktionieren. Praktisch. Muss aber nicht so sein. Weil es aber so ist, funktionieren die terrestrischen und Humansysteme. Gähn. Das sollte doch jeder wissen.

    Moment, …, Kommentardurchschau, …, gleich wieder da, …, OK, alles wohl solid, …, korrekt, der moderne Kreationismus fordert das Setzen von Rahmenbedingungen durch den Schöpfer – und wird dadurch unangreifbar. Wenn auch nicht hilfreich.

    Stefan W. hat’s wohl intensiver gelesen als Old Webbaer, wird wohl recht haben im Detail.

    MFG
    Dr. Webbaer

  14. #14 Franzi
    25. Februar 2011

    Vielen Dank für den Beitrag. Ich habe auch schon einige Berichterstattungen hierzu gesehen – aber der Beitrag beschreibt es wirklich treffend.

    Vielen Dank! 🙂