Meine beiden vorangegangenen Beiträge zu diesem Thema schienen, zumindest bei einigen Leserinnen und Lesern, den Eindruck erweckt zu haben, dass ich ein Gegner von Community-Standards im Allgemeinen und der Kontrolle, dass diese eingehalten werden, im Besonderen wäre. Nichts weniger als das – im gegenteil: Ich selbst habe, entweder als Betreiber meines eigenen Blogs, oder als Redakteur der ScienceBlogs.de-Plattform, schon viele Mommentarbeiträge – und, nach wiederholten Warnungen, auch viele Kommentatorinnen/Kommentatoren – gesperrt, weil sie manchmal gegen rechtliche, manchmal aber auch gegen unsere selbstgewählten (wissenschaftsbasierten, z.B.) Standards verstoßen haben. Ich bin mir sogar sicher, dass einige von ihnen hier doch nich mitlesen und sich nun still ins Fäustchen lachen…
Nein, meine Sorge ist spezifischer. Mir ist klar, dass das Volumen, das Plattformen wie Facebook oder Twitter (um ein anderes Beispiel zu nennen, das ja immer wieder hier zur Sprache kommt) täglich generieren, nicht durch menschliche Kontrolleure bewältigt werden kann, und dass automatisierte Instanzen notwendig sind. In einer stark vereinfachten Weise tun wir das ja auch auf dieser Plattform: Wir können bestimmte Namen oder auch Schlüsselworte automatisch sperren lassen (das kann jede Blogsoftware). Was zur Folge hat, dass zum Beispiel auch Kommentare gesperrt werden, die diese Namen – und sei es nur, um sich selbst abzugrenzen, ausdrücklich erwähnen… Nein, mein Problem hat basiert auf folgenden Überlegungen:
1. Ganz offenbar hatte die KI die beanstandeten Beiträge nicht “verstanden” – wobei hier nicht vom “Verstehen” im kognitiven Sinn die Rede ist, sondern von dem, was so ein Programm halt leisten kann: eine Einordnung in bestimmte, vorgegebene Kategorien vornehmen, und anhand dieser Kategorien wiederum mit vorgeformten “Entscheidungsbäumen” eine Aktion zu veranlassen (oder eben nicht).
2. Mit großer Wahrscheinlichkeit liegt dieses “nicht-verstehen” im Wortschatz und der sprachlichen Struktur dieser Beiträge, die sehr spezifische Themen mit sehr spezifischem Vokabular behandeln, und dieses Vokabular könnte im zugrunde liegenden Textkorpus (oder den Korpora) unterrepräsentiert sein.
3. Anstatt hier die Gelegenheit zu nutzen, dieses Datenmodell auf der Basis dieser “Lernerfahrung” zu erweitern und so zu verbessern, trifft dieses Prüfsystem eine andere – und, wenn man so will, “perverse” – Entscheidung: Was es nicht versteht, wird offenbar als sexuell konnotiert eingestuft (weil dies, soweit ich das beurteilen kann, die höchste Stufe der Zurückweisung ist).
4. Da es keine Korrekturmöglichkeit gibt, kann man zwar Einspruch einlegen, aber der ist ebensowenig differenzierbar wie die Begründung differenziert – d.h. transparent hinsichtlich der spezifisch beanstandeten Textmerkmale – ist. Dadurch bestätigt das System seine eigene Einstufung, d.h. ein identisch wiederholter Fehler wird nicht als Korrektiv, sondern im Gegenteil als Bestätigung notiert. Das System “lernt” auf diese Weise, dass seine Entscheidung richtig war.
5. Dieser “Lernvorgang” zementiert die “neuronale” Verbindung innerhalb der KI und wirkt in den Entscheidungsbäumen als verstärkendes Element. D.h. wenn das System mit weiteren Beiträgen ähnlicher Art konfrontiert wird, greift es auf diese Lernwerte (die im Prinzip immer nur Zahlen sind, die einer Entscheidung ein bestimmtes mathematisches Gewicht in einem Algorithmus geben) zurück, und es wird mit größerer Wahrscheinlichkeit eine ähnliche/gleichartige Entscheidung treffen.
Und das ist (m)ein Problem. Was dadurch verstärkt wird, dass unser öffentlicher Diskurs zunehmend auf solchen Oligopol-Plattformen stattfindet (stattfinden muss?) – ob es uns passt oder nicht. Wer an der Diskussion teilhaben will, kommt um diese Plattformen nicht herum. Doch die sind (Stichwort Oligopol) in den Händen von weniger als einem Dutzend Firmen; und obwohl diese – scheinbar – in Konkurrenz zueinander stehen (wenn sie nicht sowieso reine Scheinkonkurrenten sind, da sie dem gleichen Konzern gehören), sind sie im Hinblick auf ihre gesellschaftliche Verantwortung ein ziemlich monolithischer Block, vergleichbar der Autoindustrie oder der Energiewirtschaft, die ja auch politisch als ein Block auftreten. Und damit werden fast unausweichlich diese kommerziellen (!) Community-Standards zu Standards des gesellschaftlichen Dialogs. Und die Wissenschaft wird es schwerer haben, zu Wort zu kommen, wenn dies in den Standards (ungewollt vielleicht, aber auch unausweichlich) verankert wird.
Kommentare (32)