Ja, und da komme ich also auf die journalistische Qualität zurück, die solchen CrowdForge-Produkten fehlen würde. Das ist sicher richtig – aber leider fehlt sie auch heute schon vielen Texten, die tagtäglich in Zeitungen und Zeitschriften abgedruckt werden. Die Masse dessen, was die Seiten füllt, stammt aus den Händen einer quasi-anonymen Schar von Arbeiterameisen in Nachrichtenagenturen, in Newsrooms, und von Tischredakteuren, deren Job darin besteht, zugelieferte Texte möglichst schnell und rationell in Spalten und Überschriften zu transformieren, ohne sich lange mit Recherche aufzuhalten. Ich weiß, wovon ich rede, denn ich war selbst jahrelang eine dieser Redaktions-Ameisen. Der Unterschied ist nur, dass sie – noch – besser bezahlt sind als die Crowdsourcing-Arbeiter.

Aber so wie ich die Branche einschätze, wird sich auch das bald ändern. Die Rechnung ist doch ganz einfach und bestechend: Der obige Text beispielsweise besteht aus 825 Wörtern und 5789 Anschlägen; nach meiner letzten Zeilenhonorar-Vereinbarung (die allerdings schon mehr als zwei Jahrzehnte zurück liegt) hätte ich dafür umgerechnet rund 169 Euro erhalten – mit CrowdForge würde ein Stück dieser Länge etwa 3,15 Dollar kosten. Und Qualität? Die ist erstens relativ, und zweitens vergänglich wie Altpapier.

* Dass dies in der Realität tatsächlich passieren würde, ist zumindest zweifelhaft, wie praktische Versuche gezeigt haben

Foto: L. Shyamal, [CC-BY-SA-3.0] via Wikipedia Commons

flattr this!

1 / 2

Kommentare (14)

  1. #1 MartinB
    4. Februar 2011

    Ich verstehe die Evolutionsanalogie nicht: Hier muss doch vorher einer sich hinsetzen und genau überlegen, welche Absätze in welcher Reihenfolge geschrieben werden müssen (ich kenne das übrigens als “deduktive Schreibmethode”, die ist auch nützlich, wenn man allein was schreibt) – der ist doch quasi der “intelligente Designer”. Ich würde jetzt als advocatus diaboli sogar das Gegenteil sagen: Das beweist doch, dass man einen intelligenten Designer plus Mikroevolution annehmen kann.

  2. #2 Emanuel-S
    4. Februar 2011

    Muss man die Reihenfolge vorher wirklich planen um ein gutes Ergebnis zu erhalten? Beispiel Presse-Arbeit die ich selber kenne – oft gibt es Texte, wo man die Absätze beliebig vertauschen kann/könnte, weil jeder Block seinen abgeschlossenen Informationsgehalt trägt – damit auch das Gesamtbild vervollständigt, die Position ist dafür aber nicht unbedingt relevant (bzw. fallen nur minimale Anpassungen bei einer Abänderung an).

  3. #3 Frank Wappler
    4. Februar 2011

    Jürgen Schönstein schrieb:
    > […] Das mag bei einem Roman oder einer Reportage zwar schwer umsetzbar sein, denn wie soll man sich den letzten Absatz vorstellen, wenn man den Inhalt des ersten noch nicht kennt – aber bei einem Bedienungshandbuch, beispielsweise, oder einem Reiseführer, ist das schon einfacher.

    Selbst das scheint kaum vorstellbar, sofern es doch auf den Zusammenhang von (Bedien- bzw. Reise-)Schritten ankommen mag.
    (BTW: wiki doch mal [[Plot coherence]] …).

    Für Kochbücher könnte ich mir CrowdForging vorstellen:
    Man lässt also die einzelnen Rezepte tippen — sagen wir jedes ca. 20 mal — und wählt sich daraus diejenigen, die zusammen ein vermarktbares Produkt ergeben (könnten).
    Oder, Ressourcen vorausgesetzt, man bietet gleich das Ganze an (z.B. als “Wetzstein des redaktionellen Zusammenführens”).

    > […] von Evolutionsgegnern als “argumentum ad absurdum” bemüht: Ebenso, wie es absurd sei, dass eine Horde Affen mit unendlich viel Zeit so etwas wie den Hamlet produzieren könne

    Aber das können sie doch; unter Voraussetzung hinreichend … ähm … intelligenter Partitions- bzw. Kompositions- (Reduzierungs-)Methoden.

    > Das Schlüsselwort ist für mich natürlich die “Wikipedia-Qualität”

    Ah-ja.
    Das Schlüsselwort zu “Wikipedia-Qualität” ist für mich natürlich “redaktionelles Zusammenführen” bzw. “Verlinkung”:

    http://en.wikipedia.org/wiki/Infinite_monkey_theorem_in_popular_culture

    18. ^ Woo-hoo! A look at the 10 best ‘Simpsons’ episodes ever, Press & Sun-Bulletin, 27 July 2007. “The genius of this joke is a child can laugh at it, but those who understand the allusion to Charles Dickens and the infinite monkey theorem can laugh on another level.”[dead link]

  4. #4 Jonas Schaible
    4. Februar 2011

    Ich finde gerade auf Anhieb keinen Link, es gab vor ein oder zwei Jahren sogar mal einen Versuch, in dem ein Programm mit Textbausteinen und den Statistiken der jeweiligen Spiele Berichte zu NBA-Spielen geschrieben hat, die absolut nicht von denen zu unterscheiden waren, die Journalisten gemeinhin produzieren.

  5. #5 Frank Wappler
    4. Februar 2011

    p.s.

    Jürgen Schönstein schrieb:
    > [CrowdForge http://reports-archive.adm.cs.cmu.edu/anon/hcii/CMU-HCII-11-100.pdf ]


    > die Autoren […] versichern, dass sie mit 36 Teilschritten Texte in Wikipedia-Qualität produzieren konnten

    Oh no, they didn’t — S. 8:

    To verify the quality of these collaboratively written articles, we compared them to
    articles written individually and to the entry from the Simple English Wikipedia on New York City [25].

    Schön, jedenfalls, dass auch diese Auswahl (d.h. die Darstellung von Inhalten auf “Simple English”) für Nutzer der Wikipedia zur Verfügung steht.

  6. #6 Jürgen Schönstein
    4. Februar 2011

    @MartinB

    Ich verstehe die Evolutionsanalogie nicht: Hier muss doch vorher einer sich hinsetzen und genau überlegen, welche Absätze in welcher Reihenfolge geschrieben werden müssen

    Eben nicht. Denn selbst dieser “Planungsschritt”, den die CrowdForger als “Partitioning” bezeichnen, lässt sich seinerseits in kleine Schritte zerteilen, die von mehreren unabhängig arbeitenden Schwarmarbeitern erledigt werden. Ebenso der Schritt der Zusammenführung, die “Reduction” (!). Das Entscheidende ist, dass all dies – zumindest vom Konzept her – ohne zentrale Planung geschehen kann. Also ohne einen “Schöpfer”. Natürlich hat diese Analogie ihre Grenzen, denn irgend jemand muss den Text ja in Auftrag geben und das Endprodukt dann auch bezahlen (was es in der Evolutionslehre nicht gibt), aber der rein kreative Teil funktioniert, wie gesagt, auch dezentral und ohne den “großen Wurf”.

  7. #7 Faustus
    4. Februar 2011

    Die Beschreibung der Arbeitsschritte liest sich wie ein Programmalgorithmus bzw. eine Markovkette n-ten Grades (je nach dem in wie viele Teile man den Job am Anfang einteilt).
    Ich hab jetzt gerade keine Quelle zur Hand, aber vor ein paar Jahren soll es sogar einen Skandal an einer amerikanischen Uni gegeben haben, wo ein Student mit Hilfe einer Markovkette aus einzelnen Wörtern, die er aus verschiedenen Papers zusammengsucht hat, ein künstliches Paper generiert hat und das auch noch in einem peer-reviewten Journal veröffentlicht wurde. Mit z.B. einer MK 10.Grades können so kohärente kurze Sätze generiert werden und es fällt nicht so schnelle auf^^

    Es geht ja nun um Human Computer Interaction. Aber sind Menschen für solche mechanisierten Aufgaben überhaupt noch notwendig?

    Ich frage mich schon seit Langem, ob in der Redaktion von der Zeitung mit dem B und den vier Buchstaben überhaupt noch Menschen sitzen…wenn nicht, würde das wahrscheinlich sowieso kaum einer merken.

  8. #8 MartinB
    4. Februar 2011

    @Jürgen
    Aha, das hatte ich dem text nicht entnommen.

  9. #9 Jürgen Schönstein
    4. Februar 2011

    @Faustus

    Ich frage mich schon seit Langem, ob in der Redaktion von der Zeitung mit dem B und den vier Buchstaben überhaupt noch Menschen sitzen…wenn nicht, würde das wahrscheinlich sowieso kaum einer merken.

    Da ich selbst mal für diese Zeitung gearbeitet habe (nicht in der Redaktion, aber für sie und mit ihr), kann ich versichern, dass dort vielleicht sogar professioneller gearbeitet wird als bei vielen anderen Medien. Das klingt jetzt komisch, vor allem wenn man sich die Resultate anschaut – aber eigentlich geht alles, was man in dieser Zeitung liest, durch mehrere Kontrollstufen. Der Haken ist nur, dass das angestrebte Produkt (und ja, die Zeitung ist so, weil die Leute, die sie machen, dies ausdrücklich so wollen – nicht, wie bei einigen anderen Blättern, die ich kenne, weil sie’s nicht besser können) nicht das ist, was sich viele unter “journalistischer Qualität” vorstellen würden. Aber das ist, wie gesagt, kein Zufall – die Tollheit hat Methode.

  10. #10 BreitSide
    4. Februar 2011

    xxx

  11. #11 Stefan W.
    4. Februar 2011

    Für den Fall dass hier viele Nichtprogrammierer lesen: Map/Reduce ist gerade eine Mode im Programmierwesen. Es stammt aus der Kategorientheorie und wandert z.Zt. über funktionale Programmiersprachen in den Mainstream ein. Der Grund dafür ist u.a. in Phänomenen zu suchen, die mit dem Moorschen Law zu tun haben.

    Dieses ist nicht wirklich ein Gesetz, sondern nur ein Theorem, und besagt, dass die Rechenpower unserer Computer sich etwa alle 1,5 Jahre verdoppelt. Das ließ sich lange Zeit beobachten, aber inzwischen sitzen auf engstem Raum so viele Transistoren aufeineander, dass Leckströme den Stromverbrauch in die Höhe treiben und niemand mehr die Abwärme in den Griff bekäme, und wg. der kl. Leitungen das Überspringen von Ladungen droht usw. – da sind wir schon in der Hardwarewelt, wo ich das fabulieren beginne.

    Abhilfe versprach hier die Idee, dass man nicht die Rechenpower der Prozessoren erhöht, sondern deren Anzahl. Dualcore, Quadcore, you name it.

    Um diese Rechner auszulasten muss man aber die Arbeit gut auf unabhängige CPUs verteilen, die dann eine Aufgabe parallel abarbeiten. Daher drängen jetzt Programmiersprachen und -konzepte in den Vordergrund, die das versprechen, und zu den Konzepten gehört Map/Reduce.

    Und nun kommen ein paar pfiffige Studenten, die diese Technik frisch gelernt haben, und überlegen sich hübsch kreativ, wo man diese Technik noch anwenden könnte – nicht auf PC-Ebene, sondern in der Arbeit von Humanoiden. So ein Transfer in eine andere Welt kann klappen, und kann in die Hose gehen, und es wird sicher eine ganze Welle ähnlicher Ideen noch kommen – aber Fabrikmanagement hat immer schon Aufgaben aufgeteilt und parallelisiert. Der alte Kack im neuen Frack.

    So nun – und?

    Nichts weiter – es erinnert mich nur an Soziologen und Psychologen, die was gehört haben von Relativitätstheorie, und Relativität daraufhin im eigenen Forschungsgebiet entdeckt haben, freilich dabei vergaßen auch eine Lichtgeschwindigkeit irgendwo auszumachen, und damit diejenigen Kollegen, die gar keine Ahnung von Naturwissenschaften hatten ein wenig blufften, oder eben Psychologen, die meinten, dass ihre Arbeit im Feld, bei der man das Versuchsobjekt nicht beobachten kann, ohne Einfluss auf das Experiment zu nehmen, und dies sei der Heisenbergschen Unschärferelation verwandt – … – laßt Euch nicht auf’s Glatteis führen. Für mich riecht es hier nach Wichtigtuern, die neue Begriffe entdeckt haben.

  12. #12 binE
    4. Februar 2011

    @Jonas:Meintest du das hier: http://www.heise.de/tp/r4/artikel/20/20003/1.html ?

  13. #13 Dr. Webbaer
    5. Februar 2011

    Die Komplexität ist so vieles wie anderes auch eine Mengenangabe, eine Zahl, und natürllich nicht reduzierbar. – Reduzieren Sie mal Zahlen, Herr Schönstein.

    Was wohl gemeint ist, ist die musterbasierte Näherung, ja, da geht einiges, dbzgl. dürfen sogar Korrelationen und Kausalitäten (für JS: “Kausationen”) festgestellt werden, man ist hier recht erfolgreich, nur die Wahrheit bleibt natürlich, dass Komplexität unreduzierbar ist.

    Hintergründig spielen hier wohl politische Überlegungen in Bezug auf die Evolution eine Rolle, manche (“Kreationisten” bspw.) stellen fest, dass die Komplexität unreduzierbar ist, und andere wollen widersprechen.

    Aber: Nein!, diese widersprechenden Kollegen liegen hier dümmlich falsch, haben aber ansonsten recht in Bezug darauf, dass Näherungen funktionieren. Praktisch. Muss aber nicht so sein. Weil es aber so ist, funktionieren die terrestrischen und Humansysteme. Gähn. Das sollte doch jeder wissen.

    Moment, …, Kommentardurchschau, …, gleich wieder da, …, OK, alles wohl solid, …, korrekt, der moderne Kreationismus fordert das Setzen von Rahmenbedingungen durch den Schöpfer – und wird dadurch unangreifbar. Wenn auch nicht hilfreich.

    Stefan W. hat’s wohl intensiver gelesen als Old Webbaer, wird wohl recht haben im Detail.

    MFG
    Dr. Webbaer

  14. #14 Franzi
    25. Februar 2011

    Vielen Dank für den Beitrag. Ich habe auch schon einige Berichterstattungen hierzu gesehen – aber der Beitrag beschreibt es wirklich treffend.

    Vielen Dank! 🙂