sb-wettbewerb_kleinDieser Artikel ist Teil des ScienceBlogs Blog-Schreibwettbewerb 2018. Informationen zum Ablauf gibt es hier. Leserinnen und Leser können die Artikel bewerten und bei der Abstimmung einen Preis gewinnen – Details dazu gibt es hier. Eine Übersicht über alle am Bewerb teilnehmenden Artikel gibt es hier. Informationen zu den Autoren der Wettbewerbsartikel finden sich in den jeweiligen Texten.
——————————————————————————————————————
Künstliche Intelligenz – Zwischen Buzzword-Bingo, Science Fiction und sozialen Abgründen

von Pablo Gómez

Mein Name ist Pablo Gómez und ich promoviere derzeit an der HNO-Klinik des Universitätsklinikums Erlangen im Bereich medizinische Bildverarbeitung und Stimmforschung. Der Fokus meiner Forschung liegt in letzter Zeit im Einsatz von Deep-Learning-Methoden. Neben der Forschung interessieren mich aber auch gesellschaftliche und politische Themen sowie Musik. Mehr über mich ist auf pablo-gomez.net zu erfahren.

Künstliche Intelligenz (KI) ist in aller Munde. Aber was ist KI eigentlich? Was kann KI heute? Dahinter steckt eine Technologie, die ungeahnte Möglichkeiten bietet und weitreichend einsetzbar ist. Aber wie so oft ist nicht jeder Einsatz wünschenswert. Autonome Waffensysteme und der Überwachungsstaat nutzen die gleichen Verfahren wie selbstfahrende Autos und Diagnosesysteme. Welche Einsatzgebiete akzeptabel sind und wo die Reise hingeht, das entscheidet sich heute.

1. Was sind Künstliche Intelligenz, Maschinelles Lernen und „Deep Learning”?

In den letzten Jahren tauchen die Begriffe Künstliche Intelligenz (KI, engl. artificial intelligence, AI) und Deep Learning nahezu täglich in den Medien auf. Sowohl auf staatlicher als auch auf wirtschaftlicher Ebene ist das Thema omnipräsent. Besonders die USA und China sind Vorreiter in diesem Bereich, aber auch die Bundesregierung arbeitet gerade die
„Strategie Künstliche Intelligenz“ aus. Der Fortschritt scheint uns abzuhängen. Google präsentiert Assistenten, die selbstständig Anrufe durchführen, selbstfahrende Autos wirken zum Greifen nahe und diagnostizieren kann die Maschine teils auch schon.
Doch wie funktioniert das überhaupt? Was ist KI, wohin geht die Reise und was sind die Chancen und Gefahren dieser Technologie?

KI ist ein Feld der Informatik, das sich mit Programmen oder Geräten beschäftigt, die abhängig von dem Input, den sie erhalten (z.B. Sensordaten, Bilder, Figurenpositionen auf einem Schachbrett…), eine Entscheidung oder Analyse liefern. Maschinelles Lernen (ML, engl. Machine Learning) ist ein Unterbereich davon, der sich mit Methoden befasst, die lernen. Deep Learning sind Methoden, die für ML verwendet werden, in der Regel mit Nutzung von neuronalen Netzwerken (NN). Das klingt erst einmal sehr vage und ist geschmückt mit Begriffen wie „Lernen“, „Neuronen“ und „Intelligenz“, die die meisten mit menschlichen Eigenschaften verbinden. Leider – oder zum Glück – ist aber die Konstruktion von irgendetwas wirklich Menschenähnlichem noch nicht absehbar. Google DeepDream träumt nicht wie ein Mensch, und auch wenn Maschinen in Go oder DotA sich mit Menschen messen oder sie schlagen, handelt es sich dabei immer um domänenspezifische Systeme, also Programme, die etwas Bestimmtes sehr gut, aber davon abgesehen eigentlich gar nichts können. Das, was die meisten intuitiv unter „Intelligenz“ verstehen, dürfte besser von „artificial general intelligence“ (AGI, dt. etwa Allgemeine, künstliche Intelligenz) erfasst werden.
Hierbei geht es um Systeme, die domänenunabhängig agieren. Derzeit ist unklar, ob so etwas jemals überhaupt erreichbar sein wird. Die aktuellen Systeme sind also lediglich sehr gut darin, bestimmte Probleme zu lösen, und es gibt einige Kritik an dieser Tendenz.

Trotzdem sind die Fortschritte in diesem Feld in den letzten Jahren atemberaubend. Nicht, weil plötzlich verstanden wurde, was Intelligenz ist und wie intelligente Maschinen zu bauen wären, aber weil die Rechenleistung enorm gestiegen ist und die Datenmengen, die zum Training von NNs benötigt werden, verfügbar geworden sind. Natürlich gab es auch etliche Fortschritte in der Forschung, aber ohne die beiden genannten Faktoren wären die heutigen Durchbrüche unvorstellbar. Aber was machen NNs denn nun eigentlich und welche Leistungen haben sie erbracht?

Die Anwendung von NNs ist eigentlich sehr anschaulich. Aus Platzgründen spare ich mir die Details darüber, was im Netzwerk passiert, und betrachte es gewissermaßen als eine Black Box (mehr über die Funktionsweise gibt es z.B. hier). Das Netzwerk als Black Box hat also Eingänge und Ausgänge. Eingegeben werden kann im Prinzip alles, was irgendwie in Zahlenform darstellbar ist, etwa Videos, Bilder, Audioaufnahmen et cetera. Der Ausgang liefert dann (hoffentlich) die gewünschte Information. Der Anschaulichkeit halber beziehe ich das jetzt nur auf Bilder. Dann könnte der Output sein:

  • Enthält das Bild Objekt X – ja/nein
  • Wo im Bild ist Objekt X – Pixelkoordinaten eines Rechtecks um das Objekt
  • Eine Karte des Bilds, auf der jeder Pixel einem Objekt zugeordnet wird (sog. Segmentierung)
  • Das gleiche Bild, aber ohne Rauschen oder in besserer Auflösung (sog. Denoising bzw. Super-resolution)

Jetzt bleibt die Frage: Wie lernt das NN, den richtigen Output zu liefern? Hier kommt der „learning“-Teil in ML ins Spiel. Das NN wird trainiert mit Beispieldaten. Praktisch bedeutet das, dass ein Datensatz mit den gewünschten Outputs vorliegt. Dann werden die Daten Stück für Stück und immer wieder in das Netzwerk eingespeist und an den Parametern des Netzwerks gedreht, bis es zunehmend den richtigen Output für diese Trainingsdaten liefert. Dieser Vorgang passiert automatisiert und ist ein bisschen mathematischer und komplexer als hier beschrieben, aber im Großen und Ganzen ist das alles. Wenn genug und mit ausreichend Daten trainiert wurde und das Netzwerk nicht zu simpel ist, ist das NN einsatzbereit für die Anwendung auf neue, unbekannte Daten!

2. Anwendungen und Chancen

Ein paar der Anwendungen wurden anfangs bereits erwähnt. Viele der vollbrachten Errungenschaften sind faszinierend, aber es gibt doch sehr große Unterschiede in den gesellschaftlichen Auswirkungen, die diese Technologien haben werden. Während es natürlich für EnthusiastInnen wahnsinnig spannend ist, dass AlphaZero die Schach- und Go-Welt aufrüttelt, sind die gesamtgesellschaftlichen Konsequenzen davon relativ gering. Auch auf der künstlerischen Seite bieten sich komplett neue Gestaltungsmöglichkeiten durch KI. Das kann die Gestalt von computer-komponierter Musik oder auch von künstlich erzeugten oder transformierten Bildern haben. Gleichzeitig aber gibt es Themen, die viele Menschen beschäftigen und verunsichern, in deren Kontext KI eine Rolle spielt und spielen wird.

Eines der Schlagwörter unserer Zeit ist Automatisierung. Selbstfahrende Fahrzeuge werden mit sehr großer Wahrscheinlichkeit im Laufe des nächsten Jahrzehnts verfügbar sein.
Auch die Automatisierung in der Fertigung nimmt weiter zu und es braucht wenig Vorstellungsvermögen, um sich eine vollautomatische Kasse im Supermarkt vorzustellen. Es ist umstritten, wie groß das Ausmaß der Automatisierung sein wird, wie viele Stellen sie vielleicht erzeugt oder
kostet und wie damit sowohl politisch als auch gesellschaftlich umzugehen sein wird. Fest steht: In Kürze wird es durch die neuen KI Methoden die technischen Möglichkeiten geben, viele Aufgaben, die derzeit Menschen erledigen, ohne oder mit geringerer menschlicher Intervention durchzuführen. In vielen Fällen ist zu hoffen, dass dies nicht nur eine zusätzliche Freiheit von der Notwendigkeit der Verrichtung dieser Tätigkeiten bedeutet, sondern auch Kapazitäten eröffnet, wo Mangel herrscht. Etwa die Altenpflege in Deutschland könnte davon profitieren und es gibt jetzt bereits Fälle, wo diese Methoden im medizinischen Bereich Nutzen haben.

Ein Beispiel ist die Erkennung der diabetischen Retinopathie, einer Erkrankung der Netzhaut, die bei 90% der DiabetikerInnen innerhalb von 20 Jahren Krankheitsverlauf
auftritt. Sie ist die häufigste Erblindungsursache in Europa. Die Erkennung der Anzeichen dieser Krankheit
mithilfe von Deep-Learning-Methoden wurde vor knapp zwei Jahren aufgezeigt und wird – im Angesicht der hohen Anzahl an Betroffenen – hoffentlich eine massive Entlastung für medizinisches Personal sein. Kürzlich hat DeepMind in Zusammenarbeit mit britischen Krankenhäusern ähnliche Ergebnisse für viele weitere Krankheitsbilder geliefert. Dies ist ein sehr konkretes Beispiel für das enorme Potential dieser Methoden zur Verwirklichung von Werkzeugen zur Verrichtung spezifischer Aufgaben. Es gibt viele Beispiele dieser Art. Grundlegend bietet vor allem der Bereich der Bildverarbeitung große Möglichkeiten für Deep-Learning-Methoden. Die Methoden sind besonders geeignet für Objekterkennung, Objektlokalisierung, Segmentierung und Bildbearbeitung.

Wenn es um Automatisierung geht, wird häufig die Sorge vor dem Jobverlust als drohendes Damoklesschwert herbeibeschworen und die Automatisierung als Übeltäterin festgemacht. Leider wird dabei vieles durcheinandergeworfen. Einen Wandel am Arbeitsmarkt gab es immer und wenn Menschen heute um ihre Existenz fürchten müssen, weil es möglich ist, eine Maschine zu bauen, die ihnen ihre Arbeit abnimmt, dann spricht das Bände über den Zustand der Gesellschaft. Die Ursache der Angst ist schließlich quasi nie, dass die Person darum fürchtet, dass sie die Tätigkeit nicht mehr ausüben kann oder darf. Ihr Lebensstandard, ihre finanzielle und soziale Absicherung sind in Gefahr und sie muss in der Gesellschaft damit rechnen, mangelnde Leistungsbereitschaft unterstellt und vorgeworfen zu bekommen. Davor hat sie verständlicherweise Angst, aber die Ursache dieser Angst ist nicht die Automatisierung, sondern ihre gesellschaftliche Situation. Umgekehrt heißt das aber auch nicht, dass diese Technologien keine Probleme und Gefahren haben.

3. Gefahren

Wie viele bahnbrechende Technologien (vgl. Kernspaltung) bietet Deep Learning nicht nur enormes Potential, sondern auch die Gefahr des Missbrauchs und – was oft deutlich subtiler geschieht – der Verstärkung von gesellschaftlichen Problemen und Ungleichheiten. Als Beispiel für Ersteres möchte ich an dieser Stelle kurz auf autonome Waffensysteme und Überwachungstechnik eingehen. Im Bezug zu Letzterem auf Patente, „algorithmic bias“ und Werbung.

Durch die riesigen Fortschritte in der Bildverarbeitung und Mustererkennung, die Deep-Learning-Methoden gebracht haben, sind auch viele Echtzeitanwendungen wie das autonome Fahren näher gerückt. Fast alle Fortschritte in diesen Bereichen sind jedoch anfällig für sogenannte Dual-Use-Szenarien, womit gemeint ist, dass eine Technologie zivilen, aber auch militärischen Nutzen haben kann. In dem konkreten Fall ist der Einsatz vieler der Methoden die für autonome Fahrzeuge oder Lieferdrohnen verwendet werden auch für komplexe, autonome Waffensysteme wie autonome Kampfdrohnen o.Ä. denkbar. Viele der ForscherInnen im KI-Bereich sind sich dieser Gefahren bewusst. Vor ein paar Monaten haben über
3000 Individuen, 239 Forschungsstätten, Organisationen und Unternehmen sowie 26 Länder zugesichert,
keine tödlichen, autonomen Waffensysteme zu entwickeln. Das einzige europäische Land auf der Liste ist übrigens Österreich. Die Vorstellung, dass eine Maschine die ntscheidung
trifft, ein Menschenleben zu beenden, ist schon jetzt zu real geworden. Bei vielen militärischen Systemen ist die Grenze zur autonomen Entscheidung bereits zunehmend erodiert und es ist dringend an der Zeit, hier politisch und regulatorisch einen Riegel vorzuschieben.

Ähnlich kritisch ist die Situation im Bereich der Gesichtserkennung. Angetrieben von Nutzungsbeispielen wie der Entsperrung des Handys per Kamera und diversen Sicherheits- und Werbeanwendungen ist diese Technologie stark vorangekommen. Hier ist der Fortschritt noch größer und viele ExpertInnen warnen bereits vor den Auswirkungen dieser Technologie. Während in Deutschland noch darüber diskutiert wird, ob sie zur polizeilichen Fahndung o.Ä. eingesetzt werden soll, gibt es tiefgreifendere Probleme der Technologie. Mit der Schaffung einer Infrastruktur für solche Systeme wird ein weiterer Grundstein für einen Überwachungsstaat gelegt. Was heute eine Verkehrskamera ist, kann schon morgen zur Dauerüberwachung von Individuen genutzt werden. Mit derselben Technologie können potentielle Kunden erkannt und Menschen von Orten ausgeschlossen werden.

Es ist weitreichend erforscht, dass Menschen, die davon ausgehen, dass sie überwacht werden, sich grundlegend anders verhalten.
China ist in der Hinsicht schon „weiter“, dort sind Systeme im Einsatz oder Test, die eine umfassende Echtzeitüberwachung und Bewertung des Verhaltens signifikanter Teile der Bevölkerung ermöglichen. Auch hier gilt es, dass dem jetzt entgegengetreten werden muss. Das heißt, es muss heute auf gesellschaftlicher Ebene darüber gesprochen und sichergestellt werden, wie damit umzugehen ist. Die Meinungen darüber, wie restriktiv Gesetzgebung in diesem Bereich sein sollte gehen auseinander. Das Wichtigste ist aber, diese Diskussion nicht zu vertagen. Da die technischen Möglichkeiten zunehmend geschaffen sind, ist der inflationäre Einsatz durch Unternehmen und Regierungen nur eine Frage der Zeit.

Doch nicht alle Probleme, die sich ergeben, kommen von den neuen technischen Möglichkeiten. Ein weitere große Herausforderung ist die Konzentration des Wissens und der Fachkräfte in diesem Bereich in amerikanischen und chinesischen Unternehmen. In den USA zeigt sich dies unter anderem an der Patentwut der Unternehmen. Während Google, Facebook und Co. durchaus Quellcode und Werkzeuge veröffentlichen, patentieren sie im Hintergrund diverse Methoden im Bereich ML. Die Nachfrage nach Fachkräften und ForscherInnen in dem Bereich ist weiterhin explosiv gestiegen, weshalb in der Industrie häufig hohe Gehälter geboten werden, während insbesondere die Universitäten nicht mithalten können. Die Geldströme in dem Bereich sind auch vor allem in China und den USA enorm, weshalb eine Vielzahl renommierter europäischer ForscherInnen kürzlich in einem offenen Brief
zu einer europäischen KI-Initiative aufriefen. Gerade aufgrund der offenen ethischen Fragen ist es beunruhigend, wenn große Teile der führenden ForscherInnen und der state-of-the-art Technologie bei Unternehmen landen. Ihre Forschung wird damit häufig für die Öffentlichkeit unzugänglich und Motivation ist dann am Ende des Tages zwangsläufig kommerzielle Verwertbarkeit, nicht gesellschaftlicher Nutzen.

Die letzte Gefahr, auf die ich hier eingehen möchte, sind die gesellschaftlichen Auswirkungen, die diese Technologien haben können. Hier gibt es eine ganze Reihe von Anzeichen dafür, dass ein regulatorischer Rahmen dringend nötig ist. Beginnend damit, dass Software dazu neigt, die vorhandenen Vorurteile abzubilden. Datensätze müssen speziell untersucht werden, um einer systematischen Diskriminierung vorzubeugen. Dafür gibt es bereits etliche Beispiele. Etwa ein System in den USA, das Schwarze vor Gericht benachteiligte, oder Gesichtserkennungssysteme, die schlechter bei Frauen und Menschen mit dunklerer Hautfarbe funktionieren.

In den USA untersucht mittlerweile das staatliche NIST die Fehlerraten
verschiedener Systeme in dieser Hinsicht. Das ist ein erster, wichtiger Schritt, aber hier bleibt viel zu tun. Ein weiteres Anzeichen liegt im zunehmenden Trend der algorithmischen Bewertung von Individuen. Zuletzt ging das Beispiel des sogenannten „social scorings“ in China durch die Presse, doch bei genauerem Blick zeigt sich: Diese Systeme sind schon länger im Kommen und werden in subtilerer Variante auch im Westen eingesetzt. Es zeigt sich auch, dass sie insbesondere Minderheiten und ärmere Menschen benachteiligen. Auch hier herrscht Handlungsbedarf.

Persönlich glaube ich, dass eine der größten Bedrohungen, die sich abzeichnet, jedoch ist, was sich in der Verwandlung der Werbewelt in den letzten Jahren und jetzt auch bei Nachrichten und politischer Werbung gezeigt hat. Personalisierte Werbung im Internet ist ein Riesengeschäft und mit Methoden der Automatisierung, der sogenannten „information warfare“ und ML öffnen sich erschreckende Abgründe: Systeme, die uns gezielt bestimmte Informationen zeigen, damit wir länger einen Dienst nutzen (z.B. YouTube, Facebook); Systeme, die unsere Meinung und unseren Geisteszustand evaluieren und uns potentiell manipulieren. Das ist eine grundlegende Gefahr für unsere Demokratie. Bereits seit einigen Jahren ist bekannt, dass PR Firmen gezielt Onlinemedien wie Reddit manipulieren und dass die technischen Notwendigkeiten für eine solche Manipulation relativ gering sind. Seit dem amerikanischen Wahlkampf 2016 wird auch immer wieder über Twitter Bots berichtet. Noch ist nicht abzusehen, in welchem Ausmaß diese Technologien gemeinsam eingesetzt werden können, aber auch hier sind eine grundlegende Aufklärung der BürgerInnen und die Schaffung eines rechtlichen Rahmens dringend geboten, um die Legitimation der Demokratie vor Angriffen und Manipulation zu schützen.

4. Und nun?

Sowohl in der Wissenschaft,in der Wirtschaft als auch in der öffentlichen Wahrnehmung gibt es derzeit großen Aufruhr um KI. Manche sehen Chancen, andere eher Gefahren. Dieser Artikel hat einige der Beispiele genannt, wo sich Türen öffnen, um ungeahnte, technologische Fortschritte zu verwirklichen, aber auch solche Beispiele, bei denen mit außerordentlicher Vorsicht über das weitere Vorgehen nachgedacht werden muss.

Insgesamt fehlt es der Auseinandersetzung mit dem Thema aber oft an Sachlichkeit. Wie bei einer neuen Technologie zu erwarten ist, sind nicht allen GesprächsteilnehmerInnen die Hintergründe gleichermaßen klar. Das gilt sowohl für die technischen Möglichkeiten als auch für die gesellschaftlichen Auswirkungen und Gefahren. An erster Stelle muss also ein ausführlicher Austausch über das Thema stehen. In diese Kerbe soll auch dieser Artikel schlagen. Es gilt, ein Bewusstsein dafür zu schaffen, was technisch möglich ist und ob es wünschenswert ist. Dafür ist es enorm wichtig, den Menschen das Bild der KI-Apokalypse per Terminator zu nehmen und nicht mit der nächsten „KI jetzt schlauer als Mensch“-Schlagzeile zu ersetzen. Dies ist einerseits eine Aufgabe sowohl für WissenschaftlerInnen, die die Aufmerksamkeit der Medien und Menschen natürlich freut, aber die dabei auch differenziert, selbstkritisch und ihren ethischen Prinzipien gerecht agieren müssen. Gleichermaßen gilt das für die Medien. Über KI zu schreiben, generiert derzeit sicherlich Klicks. Das Thema ist allerdings zu wichtig, um darüber weiter so zu berichten, als wäre es nur der nächste Mensch-gegen-Maschine-Schaukampf, um den es geht.

Eine Auseinandersetzung und Aufklärung muss allerdings dringend auch auf politischer Ebene stattfinden. Im europäischen Kontext, aber auch in Deutschland ist das nötig. Heute gibt es die Situation, dass die Anbieter der meisten in Deutschland genutzten großen Internetdienste in den USA sitzen, weil das Thema in Europa lange Zeit verschlafen wurde. Auch für gesellschaftlichen Fragen hinsichtlich der Privatsphäre und der Gefahren der Kommerzialisierung von privaten Informationen und Metadaten gibt es heute ein größere Bewusstsein, doch in vielerlei Hinsicht ist das Kind bereits in den Brunnen gefallen. Es wäre ausgesprochen wünschenswert, das beim Thema KI zu vermeiden und jetzt darüber zu reden, was wie zu regulieren ist und welche Wege es nicht einzuschlagen gilt. Die Technologie ist da, sie wird nicht wieder verschwinden. Jetzt muss Klarheit darüber geschaffen werden, wofür sie eingesetzt wird.

P.S. Da das Thema sehr umfassend ist, kann ich Interessierten die Lektüre der verlinkten Inhalte nur ans Herz legen.

Kommentare (49)

  1. #1 Mars
    22. September 2018

    ein interessantes thema, aufteilung KI / NN, gut beschrieben, gut verlinkt.

    gut gefällt mir, dass auch die seite der gefahren ausführlich berücksichtigung fand. manchmal hat man das gefühl, dass sich darum zu wenig gekümmert wird.

    (fast) jeder freut sich schon morgens auf sein smartphone, aber dass er hinter dem steuer damit zum potetiellen täter wird übersieht man/frau gelegentlich doch gerne.

    ich habe oft das gefühl, dass vieles ‘ge-hiped’ wird, sich in der realität die massenbewegung anders orientiert und viiiiel länger zeit benötigt als vorgesehen.
    (gestern hatten wir z.b. den bemannten flug zum jupiter …)

    das hängt auch von dem umgehen mit seinem gegenstand ab. die deutschen lieben ihr bargeld – nix vorreiter, und sie lieben ihre autos – je grösser je besser – das passt nicht zum aufgezeigten trend.

    das eine oder andere werd ich sicher noch erleben, und anderes, was wieder mal in der rumpelkiste der vergangenen erfindungen verstauben wird.
    spannend wird es allemal. soll sich die KI doch da ihre eigenen gedanken dazu machen 😉

  2. #2 Leser
    22. September 2018

    Der Artikel hat mir gefallen. Aber ich möchte doch noch etwas dazu schreiben. Die Werbeindustrie möchte Produkte verkaufen, und schreibt deshalb ihren Produkten hervorragende Eigenschaften zu. Auch “künstliche Intelligenz”. Ich empfinde das Wort “Intelligenz” hier fehl am Platz. Aus einer Kombonation von Eingangsvariablen auf einen bestimmten Zustand (z.B. eine Krankheit, ein Bild, eine Stimmung, Fahrzustand, Flasche wird angenommen . . . .) zu schließen mag manchmal kompliziert sein, hat aber nichts mit Intelligenz zu tun. Intelligenz hat neben der Auswertung der Eingangsvariablen ganz wesentlich etwas mit kreativen Lösungen des Problems zu tun. Ich kenne keine Maschine die das kann. Auch selbstlernende Maschinen im Schach und Go sind nicht kreativ, obwohl sie der Kreativität schon sehr nahe kommen und alle kreativen menschlichen Meister besiegen können

    Ich kenne kein System, in dem ein Computer mit realen Wortbedeutungen arbeitet. Und diese Wortbedeutungen bewerten kann. Einen Satz wie “Die Buche und der Förster haben sich über das Wetter unterhalten” können solche Systeme nicht auswerten und nicht als unsinnig erkennen. Vor 60 Jahren hat Weizenbaum das Programm “Eliza” entwickelt. Ich kenne die BASIC-Variante dieses Programms. Dieses Programm simulierte eine (schriftliche) Unterhaltung mit dem Computer. Ohne daß der Computer irgend eine Worbedeutung kannte. Das Programm reagierte auf einige wenige Schlüsselwörter. Bei den meisten Eingaben reagierte “Eliza” mit Rückfragen wie : “Warum denkst du, daß (und dann erfolgte eine Wiederholung eines Teiles des Eingabesatzes)”. Das funktioniert nur im Englischen so gut, weil die Grammatik so einfach ist. Es gab Menschen die haben an die Intelligenz in “Eliza” geglaubt. Aber eine reale Unterhaltung mit einem Computer, in dem der Computer Wortbedeutungen bewerten und assoziieren kann, wird noch eine Weile dauern.

    Und deshalb halte ich die Bezeichnung KI / AI “künstliche Intelligenz” in den heutigen Systemen für unangebracht. Das ist das selbe was in den 1980ziger und 1990ziger Jahren mit dem Wort “elektronisch” geschah. Damals war plötzlich alles elektronisch und nicht mehr elektrisch. Auch der Staubsauger und die Bohrmaschine !

  3. #3 Alderamin
    22. September 2018

    @Leser

    I wouldn’t be so sure about that. The IBM Watson system, for example, has been very successful with Jeopardy! (the American model for Thoelke’s “The Grand Prix”), where relatively complicated questions have to be asked and answered. By the way, I typed this text into DeepL in German and had it automatically translated without correcting the output in any way. No way, machines wouldn’t understand nonsensical sentences – DeepL considers meaningful connections in the translation.

    Translated with http://www.DeepL.com/Translator

    Originaltext:
    Da wäre ich mal nicht so sicher. Das IBM-Watson-System hat beispielsweise bei Jeopardy! (dem amerikanischen Vorbild für Thoelkes “Der Große Preis”) gewonnen, wo relativ komplizierte Fragen gestellt und beantwortet werden müssen. Den vorliegenden Text habe ich übrigens auf Deutsch in DeepL eingetippt und automatisch übersetzen lassen, ohne die Ausgabe in irgendeiner Form zu korrigieren. Von wegen, Maschinen würden keine unsinnigen Sätze verstehen – DeepL berücksichtigt sinnvolle Zusammenhänge bei der Übersetzung.

    Ich nutze DeepL mittlerweile beim Erstellen von wichtigen englischen Texten und muss nur gelegentlich eingreifen. Das Ergebnis ist viel besser, als wenn ich selbst losformuliere.

  4. #4 Pablo Gómez
    22. September 2018

    @Leser

    Ja, ich habe versucht, das kurz mit der Erwähnung von artificial general intelligence anzuschneiden. Insgesamt ist ja sowieso schon sehr schwierig festzumachen, wie Intelligenz zu definieren ist. Häufig verstehen Menschen darunter ja auch, intelligentes Verhalten auf eine menschliche Art. Insgesamt ist der Name “Künstliche Intelligenz” m.M.n. auch zu einem großen Teil PR, aber hat sich auch historisch gehalten.

  5. #5 stone1
    22. September 2018

    Ein Thema bei dem Faszination und Unbehagen sehr eng beieinander liegen. Von vielem des Erwähnten hatte ich schon gelesen, das

    Das einzige europäische Land auf der Liste ist übrigens Österreich.

    wusste ich allerdings noch nicht.
    Super Artikel, lässt dank vieler Links kaum Wünsche offen.

  6. #6 wereatheist
    22. September 2018

    Zum Text: Wir haben hier quasi drei oder vier Wettbewerbsbeiträge zum Preis von einem :)
    Es ist eher ein Grundlagen-Essay zum Thema, als ein typischer Blog-Artikel.
    Hat mir sehr gut gefallen. Ausführlich/umfassend, ohne langweilig zu sein, sehr gute Sprachqualität, viele gute links zum Weiterlesen.
    Da kann man nicht meckern (berlinisch für: höchstes Lob!).

  7. #7 wereatheist
    22. September 2018

    @Alderamin:
    Ich hatte etwas Bedenken beim letzten Satz des von Dir verursachten DeepL-Outputs.
    Also einfach wieder in DeepL reinstecken:
    Aus

    No way, machines wouldn’t understand nonsensical sentences – DeepL considers meaningful connections in the translation.

    Wird

    Auf keinen Fall würden Maschinen unsinnige Sätze nicht verstehen – DeepL berücksichtigt sinnvolle Zusammenhänge in der Übersetzung.

    Ich bin einigermaßen beeindruckt.
    Was sagen angelsächsische Muttersprachler?

  8. #8 Kinseher Richard
    Kelheim
    23. September 2018

    @Gomez – off topic
    Weil Sie sich mit KI beschäftigen, dürfte für Sie als Vergleich auch die Funktionsweise des Gehirns von Interesse sein.
    Wir können bewusst erleben, wie das Gehirn einen einzelnen Reiz systematisch und strukturiert verarbeitet. >> Dies war – in einem Satz – die Erklärung für das Phänomen ´Nahtod-Erfahrung´(NTE).
    Per Google-suche [Kinseher NDERF denken_nte] finden Sie einen frei lesbaren Text – auf einem Niveau, dass ihn schon Hauptschüler verstehen können.

    Auf Seite 4 finden Sie Denken/Kreativität als Ergebnis von Mustervergleichsaktivität mit nur drei einfachen Regeln beschrieben(diese entsprechen etwa der ´predictive coding theory´). Diese dürften für Sie als Vergleich zu Strategien der KI von Interesse sein.

    Seite 3/E: der Begriff ´zustandsabhängiges Erinnern´ beschreibt, wie ALTE Erfahrungen in NEUES Wissen umgewandelt werden, so dass man sie lebenslang nutzen kann (Die Verwendung alter Infos, wenn sich das System geändert hat, ist eines der größten Probleme der KI )

    Noch ein Hinweis: Unser Gehirn arbeitet mit einem externen Körpermodell – welches ständig aktualisert wird. Auf diese Weise kann das Datenvolumen der Information welche als Erfahrung im Gedächtnis abgespeichert wird – deutlich verringert werden.

    Bei NTEs ist auch erkennbar, dass unser Gehirn mit unterschiedlichen Strategien arbeitet. z.B. Werden Inhalte des episodischen Gedächtnisses erinnert – entscheidet die hierarchisch Richtung, wieviel erinnert wird:
    A) hierarchisch absteigend: Erfahrungen vom aktuellen Alter bis zum 2.-4. Lebensjahr sind zugänglich. Diese Grenze des Erinnerns ist als ´infantile Amnesie´ bekannt
    B) hierarchisch aufsteigend – werden Erlebnisse ab dem 5. Schwangerschaftsmonat dem bewussten Erinnern zugänglich; in der gleichen Reihenfolge wie sich die Sinne entwickeln: Fühlen(Hautkontakt) > Hören > Sehen > Geburt(indirekt) > …
    Die Erinnerungsstrategie B) wird bisher von der Gedächtnisforschung nicht beachtet!

    Ich habe das weltweit erste komplette Erklärungsmodell für NTEs entwickelt. Dass die Arbeitsweise des Gehirns dem bewussten Erleben zugänglich ist – könnte eine gute Ergänzung zur bisherigen Gehirnforschung sein: per EEG, PET, fMRT, Elektroden kann man nur Aktivitäten messen – aber man versteht nicht, was dabei passiert. Bei NTEs kann man verarbeitete Inhalte erkennen (Es gibt Tausende von NTE-Berichten, die einer wissenschaftlichen Strukturanalyse zugänglich wären)
    Aber auch die Forschung zur KI könnte profitieren, wenn man analysiert, was bei NTEs im Gehirn abläuft.

  9. #9 Dennis
    23. September 2018

    @alderamin
    Der deepL Übersetzer ist ja der Hammer! Ich habe es noch nicht geschafft, ihn in die Falle zu locken. Hätte nicht gedacht, dass man in dieser Sache schon so weit ist.

    @Pablo Gómez
    Gut leserlicher und fundierter Überblick über das Thema, viele gute links. Daumen hoch!

  10. #10 uwe hauptschueler
    23. September 2018

    BGE – und die Hierarchie des imperialistischen
    Faschismus kann das COMMUNICATION MELL von ihr
    fortsetzen. Vision von PASS Justice!? BGE – es
    überrascht mich nicht. dass die Erziehung zur
    systematischen rationalen Suppe Aspermentalität wie
    diese und das Leiden der Menschen. System und
    damit der Dünger für “völlig neu”. Produkte. Stress ist
    wichtig.

    KI scheitert aber bei natürlicher Dummheit. Einen mir unverständlichen Kommentar zum BGE habe ich mit DeepL ins Englische und von dort wieder ins Deutsche übersetzen lassen, mit obigen Ergebnis.

  11. #11 Dennis
    23. September 2018

    @Uwe hauptschueler

    Ich würde sagen, der Satz von DeepL ist sogar verständlicher als das Original…
    Bin weiterhin beeindruckt.

  12. #12 wereatheist
    23. September 2018

    Ich mutmaßte gerade in einem Kommentar, wieso mein Lob für diesen Beitrag im Fegefeuer (Moderation) gelandet ist. und schrieb das boese Wort nochmal hin
    (sonst hätt der Spamfilter ja nichts zu tun).

  13. #13 Alderamin
    23. September 2018

    @uwe hauptschueler

    Auch eine KI kann nicht alles wissen und jeden Fachslang kennen. Normale Gebrauchssprache hat ein paar zehntausend Wörter, aber alleine die Chemie benennt Millionen von Verbindungen. Die muss man der KI vorher alle antrainieren.

    Ich hatte eben einen englischen schottischen Text zum Brexit gelesen, da kam in einem Satz die Bermerkung vor, “this made a mug of me”, also etwas macht aus mir einen Becher. Da habe ich mich hilfesuchend an DeepL gewendet, das auch auch nur als Alternativen “Tasse” und ähnliches Geschirr anzubieten hatte (man kann auf einzelne übersetzte Wörter klicken und bekommt dann eine Auswahlliste; meistens ist der im Sinnzusammenhang passende Begriff dort zu finden, hier nicht).

    Man kann dies der KI dann als Unfähigkeit ankreiden, allerdings wäre das dann eine Unfähigkeit, die man dann konsequenterweise auch meiner eigenen “NI” ankreiden müsste…

  14. #14 Karl-Heinz
    23. September 2018

    England and Brexit have made a mug of Scots like me who voted ‘no’ to independence

    Ich tippe auf:

    Es gibt zwei verschiedene Bedeutungen für das Wort Becher, die in Zusammenhang mit der Verwendung dieses Ausdrucks kommen.

    jemanden zu überfallen, ist etwas von jemandem mit Gewalt zu nehmen. Also in diesem Zusammenhang jemanden von ihrer Achtung / Straße zu überzeugen.

    eine Tasse sein, sich von jemandem täuschen lassen oder ausgenutzt werden.

  15. #15 Jolly
    23. September 2018

    @Alderamin

    DeepL weiß nichts, der Spamfilter lernt nichts; deine “NI” erkennt, dass ein Problem vorliegt.

    alleine die Chemie benennt Millionen von Verbindungen. Die muss man der KI vorher alle antrainieren.

    Warum kann die KI die fehlenden Wörter bei Bedarf nicht einfach nachschlagen, wie jede NI das auch machen würde?

    DeepL zeigt, gute Übersetzung ist möglich ohne Verstehen, ohne über Weltwissen zu verfügen. Hatte ich das doch bisher ausgeschlossen, stellt sich nun heraus, Vermögen allein auf der Ebene von Syntax kann Semantik glaubwürdig vortäuschen.

    Ich muss dringend meine Argumente zum Chinesischen Zimmer überarbeiten.

    DeepLolly

  16. #16 Alderamin
    23. September 2018

    @Jolly

    Warum kann die KI die fehlenden Wörter bei Bedarf nicht einfach nachschlagen, wie jede NI das auch machen würde?

    Könnte sie, hat Watson ja im Prinzip so gemacht, ist aber nicht die Intention und Implementierung von DeepL. DeepL lernt aber, Wörter in Zusammenhängen zu sehen. DeepL weiß zwar nicht, was ein Schloss ist, kann aber unterscheiden, ob es um ein Türschloss oder Gebäude geht.

    DeepL zeigt, gute Übersetzung ist möglich ohne Verstehen, ohne über Weltwissen zu verfügen.

    Nein, im Gegenteil, DeepL zeigt, dass gutes Übersetzen nur mit Weltwissen geht, und ein gewisses Weltwissen ist DeepL angelernt (Schlösser sind dies oder das), aber halt nicht in dem Maße, wie ein Mensch es typischerweise zur Verfügung hat.

    DeepL weiß nichts

    Auch das kann man so nicht sagen, DeepL reflektiert zwar nicht, aber kennt Zusammenhänge. Im Prinzip arbeitet der Assoziativspeicher in unserem Kopf ganz ähnlich wie künstliche neuronale Netze.

    In technischen Implementierungen mit künstlichen neuronalen Netzen sehen wir immer nur kleine Segmente eines menschlichen Hirns implementiert, eben genau die Teile, die zur Lösung einer bestimmten Aufgabe erforderlich sind (bei der Bilderkennung etwa die Vorverarbeitung des Gesehenen, wie sie auch in unseren Köpfen stattfindet). Das ist alles Stückwerk und da fehlt noch der große Zusammenhang. Aber die Bausteine sind da.

    Man kann darüber streiten, ab wann der Begriff “Intelligenz” dafür angemessen ist. In der Computerei wird so ziemlich alles mit CPU als “intelligent” bezeichnet, da wird der Begriff etwas inflationär benutzt. Wenn aber die KI schon so weit ist, dass sie Texte besser übersetzt als die meisten Leute mit guten Fremdsprachenkenntnissen, dann finde ich den Begriff schon passend, und wüsste alternativ keinen anderen.

  17. #17 wereatheist
    23. September 2018

    ‘Ding’ sagt mir, “mug” heißt im britischen Englisch auch sowas wie “Naivling” oder “Trottel”.

  18. #18 Karl-Heinz
    23. September 2018

    @wereatheist

    Und „Shut your mug! (Brit.) [ugs.]“ heißt soviel wie „Halt die Klappe!“ 😉

  19. #19 wereatheist
    23. September 2018

    @Karl-Heinz:
    Hier kommt eine weitere Bedeutung des Wortes “mug” ins Spiel:
    Mach (die Öffnung in) Deine [r] Visage zu!
    Daher auch “mug shot” für Fahndungs-/Verbrecherkarteiphoto, wörtlich “Fresse-Schnappschuss”.

  20. #20 Alderamin
    23. September 2018

    @Karl-Heinz, wereatheist

    “Man hat uns zum Narren gehalten” dürfte eine passende Übersetzung sein. Hier ist übrigens der lesenswerte Artikel, wen’s interessiert.

  21. #21 wereatheist
    23. September 2018

    @Alderamin:
    Am Ende des Artikels schreibt der Autor:

    Fool me once, and all that

    aber er hat sich selbst genarrt, indem er die Vernunft der englischen Provinz überschätzt hat.
    Dazu ein Lied:
    There’ll always be an England

  22. #22 wereatheist
    23. September 2018

    Jetzt ist es ein Link auf ein Wiiejo, der den Filter anwirft.

  23. #23 Jolly
    23. September 2018

    @Alderamin

    Weltwissen

    “Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache”( Wittgenstein)

    Nicht der Gebrauch in Texten ist damit gemeint, der dortige Kontext besteht ja immer nur aus anderen Wörtern. Bedeutung kann erst entstehen wenn man den Kontext einer sprachlichen Äußerung in der Welt kennt.

    Soviel ich weiß, hat DeepL im Wesentlichen anhand von übersetzten Texten gelernt. Aus Texten allein entsteht kein Weltwissen. Das ist und bleibt ‘Flatland’, sprich Syntax.

    Im Prinzip arbeitet der Assoziativspeicher in unserem Kopf ganz ähnlich wie künstliche neuronale Netze.

    Ich bin der erste, der zugesteht, dass Intelligenz sich nicht nur auf Wetware, sondern auch auf Hardware entwickeln kann, das hat die natürliche Intelligenz nur noch nicht hinbekommen. DeepL zeigt bisher einzig, dass man Intelligenz nicht notwendigerweise fürs Übersetzen braucht, sowenig wie fürs Schachspielen oder für Gesichtserkennung. (Dass Intelligenz hilfreich wäre, bzw. ist, und wir Menschen darauf sogar angewiesen sind, sieht man ja auch an den Übersetzungsversuchen diverser NI beim Wort mug, dt.: Dämel.)

  24. #24 Karl-Heinz
    23. September 2018

    @Jolly

    Nun ja.
    Die Übersetzungsdienste sind gegenüber früher Zeiten schon um einiges besser geworden.

    Rosinenpickerei wird von DeepL bei der Übersetzung mit „cherry picking (Kirschpickerei)“ in Verbindung gebracht.
    DeepL ist für mich schon ein bisschen Unheimlich, wenn man merkt, welche Power bei solchen Diensten dahintersteckt und diese von Tag zu Tag grösser werden.

  25. #25 Kai
    24. September 2018

    “Im Prinzip arbeitet der Assoziativspeicher in unserem Kopf ganz ähnlich wie künstliche neuronale Netze.”

    Gewagte Hypothese. Haben Sie dafür irgendeine Quelle? Mir erscheint das irgendwie sehr weit hergeholt.

  26. #26 Alderamin
    24. September 2018

    @Kai

    Diese “gewagte Hypothese” ist die Grundlage für die Entwicklung künstlicher neuronaler Netze überhaupt – das biologische Vorbild in gewisser Weise zu imitieren.
    Dass das menschliche Gehirn Erinnerung assoziativ abspeichert, ist z.B. hier beschrieben (ab “Verteiltes Gedächtnis in neuronalen Ensembles”).

    Die Erinnerungsinformation steckt in den Gewichten zwischen den Neuronen, und wenn eine Teilinformation angelegt wird, wird die ganze Information abgerufen. Deswegen funktioniert die Mustererkennung mit Assoziativspeichern so gut, einfache Teilstrukturen regen das passende Muster im Speicher zur Aktivität an, es meldet sich gewissermaßen selbstständig zurück.

  27. #27 Karl-Heinz
    24. September 2018

    @Kai

    Ich möchte nur nachfragen, ob du weißt, was ein neutrales Netz ist.

  28. #28 Kai
    24. September 2018

    @Karl-Heinz: Ja, bin selbst in diesem Forschungsbereich tätig, wenn auch eher in der Anwendungsseite. Ich arbeite übrigens auch viel mit Bäumen, aber ob sie’s glauben oder nicht: Bäume in der Informatik haben recht wenig mit Bäumen in der freien Natur gemein. Wenn also jemand auf einer Konferenz sagt “wir modellieren die Struktur von Zuckermolekülen als Baum. Wir haben uns dabei an die die Eiche im Wald orientiert” würde er sich wohl lächerlich machen.

    Ich weiß, dass NN-Forscher immer wieder betonen wie unglaublich nah ihre neuronalen Netze doch den biologischen Vorbildern sind, egal wie abwegig diese Vergleiche auch sind. Kein anderer aus dem Bereich ML tut das. Wenn jemand logistische Regression macht, sagt niemand “genau so funktioniert auch unser Gehirn”. Wenn jemand logistische Regression macht und das “neuronales Netz” nennt, heißt es hinterher “wir haben uns genau an die Funktionsweise des menschlichen Gehirns orientiert”.

    Fakt ist: Wir wissen bis heute noch nicht im Detail, wie unser Gehirn genau arbeitet. Insbesondere das Gedächtnis ist noch lange nicht ausreichend erforscht. Das unser Gehirn sensorische Eingaben mittels Gewichtsmatrizen in irgendwelche hochdimensionalen Räume projeziert halte ich aber für eher unwahrscheinlich. Insbesondere lernt unser Gehirn nicht mittels eines Gradientenabstiegsverfahren 😉

  29. #29 tomtoo
    24. September 2018

    Man ist ja immer noch am Anfang. Fakt ist die Rechenleistung wird steigen. Das verstehen von NN wird steigen auch die Zusammenschaltung verschiedener Netzwerkstrukturen. Die Datenmenge mit denen sie trainiert werden können wird steigen.

  30. #30 Karl-Heinz
    24. September 2018

    @Kai

    Oh, danke für die ausführliche Erklärung. Ich hoffe, dass du speziell beim Baum die Geburtenkontrolle eingeführt hast, so dass jeder Knoten nur höchstens zwei Kinder haben darf. 😉

  31. #31 Alderamin
    24. September 2018

    @Kai

    Ich arbeite übrigens auch viel mit Bäumen, aber ob sie’s glauben oder nicht: Bäume in der Informatik haben recht wenig mit Bäumen in der freien Natur gemein. Wenn also jemand auf einer Konferenz sagt “wir modellieren die Struktur von Zuckermolekülen als Baum.

    Es behauptet ja auch keiner, dass die Bäume in der Informatik mit echten Bäumen irgendetwas anderes gemein hätten, als die Verzweigungen. Hingegen steht in praktisch jeder Einführung zu neuronalen Netzen, dass diese die Neuronen im Hirn als biologisches Vorbild hatten. Dass sich daraus eine eigenständige Disziplin entwickelt hat, die längst mit ihren eigenen Methoden arbeitet, ist keine Frage. Dennoch ist das Grundprinzip, dass die Information in den Gewichten zwischen den Neuronen und verteilt gespeichert wird, doch immer noch gültig.

    Das unser Gehirn sensorische Eingaben mittels Gewichtsmatrizen in irgendwelche hochdimensionalen Räume projeziert halte ich aber für eher unwahrscheinlich. Insbesondere lernt unser Gehirn nicht mittels eines Gradientenabstiegsverfahren

    Das war ja nicht meine Aussage (jedenfalls war sie so nicht gemeint). Gemeint war, dass das Hirn Informationen in der gleichen Weise wie neuronale Netze als Assoziationspeicher anlegt (im Gegensatz zu den Direktzugriffsspeichern normaler Computer), was von neuronalen Netzen imitiert wird. Dass die Implementierung im Computer und im Hirn verschieden sind, versteht sich von selbst – man kann jedes Bild überinterpretieren (siehe die o.g. “Bäume”). Aber das Grundprinzip, Teilmuster rein, Gesamtmuster raus (oder daraus abgeleitet Output “kenne ich!”) stimmt ja noch. Flugzeugtragflächen und Vogelflügel haben im Detail auch nicht viel gemein, aber beide entwickeln in anstömender Luft Auftrieb, und darauf kommt es letztlich an.

  32. #32 Karl-Heinz
    24. September 2018

    @Kai

    Es gibt aber sehr wohl eine Forschungsrichtung, die bemüht ist biologischer neuronaler Netze nachzubilden.
    Stichwort: Computational Neuroscience

    https://de.m.wikipedia.org/wiki/Computational_Neuroscience

  33. #33 Kai
    24. September 2018

    Ich will auch nicht streiten darüber 😉 Ich störe mich nur immer wieder daran, wie lasch immer wieder mit der Aussage “künstliche neuronale Netze arbeiten wie echte neuronale Netze im Gehirn” umgegangen wird. Wer sich mal die Literatur über künstliche neuronale Netze von vor 30 Jahren anschaut wird sehen: damals hat man wirklich versucht echte Neuronen zu “simulieren”. Hat am Ende alles nicht funktioniert. Das Gradientenabstiegsverfahren wurde anfangs noch als “unsinnig” abgetan, weil es eben nicht versucht hat, die Funktionsweise des Gehirns nachzuahmen. Am Ende wurden neuronale Netze erst dann erfolgreich, als sie sich von der Idee das Gehirn nachzuahmen entfernten, und sich stattdessen an mathematischen Verfahren wie lineare Funktionen, robuste Regression und Optimierungstheorie orientiert haben.

    Und trotzdem: bis heute versucht man immer wieder, Assoziationen zwischen echten Neuronen und künstlichen Neuronen herzustellen. Aber meistens ist das Rosinenpickerei.

    Im übrigen ist es doch überhaupt nicht erstrebenswert, ein echtes neuronales Netz nachzubauen. Im Endeffekt will man einfach nur ein Verfahren, das funktioniert.

    “Gemeint war, dass das Hirn Informationen in der gleichen Weise wie neuronale Netze als Assoziationspeicher anlegt (im Gegensatz zu den Direktzugriffsspeichern normaler Computer), was von neuronalen Netzen imitiert wird.”
    Soweit geh ich mit. Informationen in einem neuronalen Netz sind nicht auf ein (oder wenige) Neuronen verteilt, sondern in der Regel auf alle (ooder sehr viele). Das ist sicher auch in biologischen Netzen der Fall.

  34. #34 Karl-Heinz
    24. September 2018

    @Pablo Gómez, Alderamin, Kai

    Was ist aus dem Human Brain Project geworden? Gibt es da neue Erkenntnisse?

  35. #35 Alderamin
    24. September 2018

    @Kai

    Obwohl wir es nie geschafft haben, den Vogelfügel nachzubauen, fliegen wir mit unserer eigenen Konstruktion schneller, höher und weiter als jeder Vogel. Wer weiß, vielleicht denken unsere künstlichen neuronalen Netze irgendwann mal besser als wir, auch wenn der Weg dahin noch lang sein mag (wer weiß, welcher Durchbruch uns da noch bevorsteht). Auch wenn es dann innen drin deutlich anders zugeht – wenn man von außen keinen qualitativen Unterschied zur menschlichen Denkleistung mehr feststellen kann, dann kann man der Maschine auch zuschreiben, dass sie denkt.

    Die Ansätze dafür sieht man ja schon – Im Januar-Spektrum gab’s einen Artikel, bei dem man ein NN mit Vogelbildern trainiert hatte, das dann auf Eingaben der Art “kleiner Vogel mit blauem Flecken am Kopf” fotorealistische Bilder von Fantasievögeln ausgeben konnte – das ist schon der Wahnsinn. Man könnte sagen, das Netz habe sich die Vögel “ausgedacht”.

  36. #36 Pablo Gómez
    24. September 2018

    @Karl-Heinz

    So weit ich weiß, läuft das HBP nicht wie erhofft. Siehe z.B.

    https://www.scientificamerican.com/article/why-the-human-brain-project-went-wrong-and-how-to-fix-it/

    @Kai, Alderamin
    Ich muss gestehen, ich finde der Diskurs ist ganz sinnbildlich für das, was ich auch kurz am Ende anschneide. Viele der Begriffe sind ja so entstanden, dass sie “hip” klingen sollten oder sollen. Und das trägt ja auf allen Ebenen jetzt zu unterschiedlichen Vorstellungen bei, da egal, ob es “Intelligenz” oder “Neuronales Netz” ist – die Begriffe bauen eine Erwartungshaltung auf an das, was das sein soll und die meist nicht erfüllt wird. Insbesondere unglücklich für die, die wirklich versuchen biologisch inspiriert zu arbeiten. Aber das wird sicher auch mit der Zeit besser, wenn mehr Menschen Zugang zum Thema gewonnen haben und der Hype abflaut.
    Der Fairness-halber würde ich auch noch erwähnen, dass es, denke ich, noch mehr missverstandene Bereiche gibt zur Zeit. Blockchain und Quantum Computing reihen sich zumindest gut ein.

  37. #37 Alderamin
    24. September 2018

    @Pablo Gómez

    Ich weiß schon, was das Prinzip der neuronalen Netze ist. Anfang der 90er habe ich mich mit einem Diplomanden dem Thema gewidmet, wie man die auf einer Satellitenstrecke in den nächsten Sekunden zu erwartende Dämpfung durch einen Regenschauer vorhersagen könnte. Dazu gab es schon Arbeiten. Das Problem ähnelt der Vorhersage von Börsenkursen anhand des Kurses in der Vergangenheit, oder wie mein Diplomand es in einem Paper gefunden hatte, dem blinden Fahrer eines Autos Anweisungen zu geben, wie er zu lenken habe, indem man aus dem Rückfenster schaut.

    Der Diplomand hatte ein paar Verfahren aus der Literatur implementiert und an einem Beispielprofil getestet. Da hinein war unter anderem eine Menge Wissen über die Statistik von Regendämpfung.

    Als neue Alternative implementierte er ein kleines neuronales Netz mit weniger als 20 Knoten und drei Schichten, wenn ich mich recht entsinne (Deep Learning war damals noch nicht), das er an Beispieldaten trainierte. Und siehe da, das neuronale Netz war ungefähr genau so gut wie die beste klassische Methode, allerdings zeitaufwändiger und letztlich daher der klassischen Methode unterlegen. Hat man aber keine klassische Lösung für ein komplexes Problem, dann kann man mit neuronalen Netzen u.U. eine gute Lösung finden, und das wird jetzt durch die heute zur Verfügung stehende Rechenpower ermöglicht, sei es beim autonomen Fahren, bei der Bilderkennung oder Übersetzung.

    In der Astronomie setzt man auch zunehmend auf solche Methoden, um die riesigen Datenmengen von Überwachungsprogrammen zu verarbeiten. Z.B. werden die Kepler-Exoplanten-Kandidaten mit neuronalen Netzen aufgespürt. Das Large Synoptic Survey Telescope wird in ein paar Jahren den Himmel alle zwei Wochen komplett nach neuen Asteroiden, Kometen, Supernovae und dgl. absuchen und dabei pro Nacht Terabytes an Daten ausspucken, die kein Mensch mehr wird durchsuchen können – auch da wird man neuronale Netze einsetzen. Die Netze werden Aufgaben leisten, die früher nur menschlichen Beobachtern möglich waren und gewisse geistige Fähigkeiten erforderten. Wo uns bisher die Maschinen bei körperlichen Tätigkeiten unterstützen konnten und die klassischen Rechner beim Rechnen und beim Steuern einfacher Vorgänge, unterstützen uns die neuronalen Netze mittlerweile bei komplexen Aufgaben, die bislang von Computern nur schwer oder gar nicht lösbar waren, und von denen man dachte, dass nur der Mensch sie bewältigen könnte. Bisher werden sie aber immer nur für ganz bestimmte Aufgaben eingesetzt, die sie dann besser, schneller und vor allem unermüdlicher und billiger lösen können als Menschen.

  38. #38 Pablo Gómez
    24. September 2018

    @Alderamin

    Ich wollte den Diskurs damit auch nicht abwerten oder irgendetwas unterstellen. Entschuldigung, falls der Eindruck entstand.
    Im Artikel habe ich recht bewusst einen großen Bogen um Analogien zum Gehirn und eine Erläuterung der Herkunft der Begriffe gemacht. Selbst der Begriff “Deep Learning” ist ja schon streitbar, weil er mittlerweile mehr Buzzword als inhaltlich fundiert ist. (Rekurrente Netzwerke z.B. sind ja auch Deep Learning, wobei die Tiefe da afaik nicht notwendig ist.)

    Ja, die Anwendungsbereiche sind spannenderweise wirklich sehr vielfältig. Ich denke, gerade jetzt, wo das Verständnis, was mit den Methoden zu machen ist, zunehmend in die verschiedenen Disziplinen vordringt, werden auch noch viele innovative Ideen kommen. Häufig ist das Problem ja gar nicht unbedingt, wie die Methoden zu verwenden sind. Um das rauszufinden, da gibt es ja meist AnsprechparnterInnen. Erstmal muss aber ja klar werden, was sie können und wo sie anwendbar sind. Ich denke, da werden noch viele spannende Anwendungen auftauchen!

  39. #39 Karl-Heinz
    24. September 2018

    @Kai

    Falls ich mal etwas bei der Stimme habe dann vertraue ich auf die Hochgeschwindigkeitsendoskopie (HSE) für klinische Kehlkopfuntersuchungen. Ich nehme an, dass der Film nach der Untersuchung nachträglich bewertet werden muss, was natürlich zeitintensiv und damit kostenintensiv ist und sehr viel Erfahrung benötigt. Und da kommt die Bildverarbeitung mit Hilfe eines neuronalen Netzes ins Spiel. Möglich, dass das Ergebnis ein Phonovibrogramm ist. Und da vertraue ich ganz auf die Forschung von Pablo Gómez (medizinische Bildverarbeitung und Stimmforschung).
    Du musst dich mit Stroboskopie zufrieden geben, da für dich ja die KI nicht intelligent ist. 😉

  40. #40 Kai
    24. September 2018

    Ich verstehe nicht was sie damit sagen wollen. Ein Herzschrittmacher ist auch nicht intelligent, aber er kann Menschenleben retten.

    Wie ich bereits sagte: die Technik muss funktionieren. Und maschinelles Lernen liefert ausgezeichnete Ergebnisse für eine Vielzahl von Problemen. Diese Ergebnisse lassen sich in Studien objektiv belegen, warum sollte ich das anzweifeln? Ich warne lediglich vor unbelegten Interpretationen. In vielen Artikeln (und auch Publikationen) liest man halt einfach Aussagen, die unbelegt sind, und sich oft auch einfach als falsch herausstellen, sobald man versucht sie nachzuprüfen. Und oft liegt der Grund dieser Fehlinterpretationen eben darin, dass man versucht diese Blackbox “Machine Learning” irgendwie begreifbar zu machen. Das gilt übrigens nicht für diesen Artikel, der ist ausgezeichnet geschrieben 😉

  41. #41 Karl-Heinz
    24. September 2018

    @Kai

    Meine Bemerkung ganz zum Schluss ist natürlich nicht ernst zu nehmen, deshalb auch ein Augenzwinkern. Natürlich hast du vollkommen recht, dass sehr vieles Public Relations und Marketing ist.
    Entschuldige nochmals.

  42. #42 Jolly
    24. September 2018

    @Karl-Heinz

    Rosinenpickerei wird von DeepL bei der Übersetzung mit „cherry picking (Kirschpickerei)“ in Verbindung gebracht.

    DeepL lernt anhand von Übersetzungen. Wenn auch nur in zwei oder drei davon Rosinenpickerei mit cherry picking übersetzt wurde, wen wundert’s? Wie übersetzt es nitpicking?

    Ist deiner Meinung nach Software, die auf bestimmten Gebieten Erstaunliches leistet, automatisch als intelligent zu betrachten?

    Du [@Kai] musst dich mit Stroboskopie zufrieden geben, da für dich ja die KI nicht intelligent ist.

    Muss ich mich jetzt mit Langenscheidt zufrieden geben, obwohl ich DeepL ja bei Übersetzungen für sehr leistungsfähig halte, nur weil ich es nicht für intelligent halte?

    Sollte man nicht besser auf den Einsatz von NI und daraus resultierende Kommentare verzichten, wenn sie anfängt unlogisch, also nicht intelligent, zu operieren?

    “Insgesamt fehlt es der Auseinandersetzung mit dem Thema aber oft an Sachlichkeit.” (Pablo Gómez)

    Stimmt.

    PS.
    Für Interessierte: Gerade findet auch auf einem scilogs-Blog eine interessante Diskussion zum Thema KI und Lernen statt: https://scilogs.spektrum.de/gehirn-und-ki/kuenstliche-intelligenz-kuenstliche-dummheit-und-der-gesunde-menschenverstand/

  43. #43 Karl-Heinz
    24. September 2018

    @Jolly

    Nö Jolly, ich bin nicht unsachlich.
    KI wird in Zukunft einen sehr großen Einfluss auf unsere Gesellschaft und Arbeitswelt haben.
    Sowohl im positiven Sinne als auch im Negativen. Einfach sich so verhalten als sei an der KI nichts dran halte ich für ziemlich gefährlich. Damit wird nur jedes Nachdenken über KI ins lächerliche gezogen und man verkennt den Ernst der beginnenden Entwicklung.

  44. #44 Jolly
    24. September 2018

    @Karl-Heinz

    Nö Jolly, ich bin nicht unsachlich.

    Aber ich war das. Ich wollte mir den geäußerten Seitenhieb auf die NI und über die Unlogik aber trotzdem einfach nicht verkneifen.

    Einfach sich so verhalten als sei an der KI nichts dran halte ich für ziemlich gefährlich.

    An wen richtet sich denn jetzt diese Warnung?

    Ich selbst bin nur der Meinung, dass an der bisherigen KI halt wenig bis nichts Intelligentes ist. Das Lernen in Künstlichen Neuronalen Netzen ist nur ein “curve fitting”, wie Judea Pearl sagt (siehe den im Text unter “Kritik” verlinkten Artikel). “As much as I look into what’s being done with deep learning, I see they’re all stuck there on the level of associations. Curve fitting.” Was nicht bedeutet, dass da nichts dran wäre, im Gegenteil: “I’m very impressed, because we did not expect that so many problems could be solved by pure curve fitting. It turns out they can.” Dem schließe ich mich an.

    Dass die bereits ‘gelösten Probleme’ auch Gefahren heraufbeschwören, auf die wir reagieren müssen, bestreite ich dabei nicht; Übersetzer, LKW- und Taxifahrer werden arbeitslos, Gesichtserkennung erleichtert staatliche Überwachung, … (um nur die harmlosesten zu nennen).

  45. #45 Matalino bobo
    24. September 2018

    Bingo
    Und nen 5er ins Phrasenschwein

  46. #46 Karl-Heinz
    24. September 2018

    Bingo
    Und nen 5er ins Phrasenschwein

    Vor dem Training meiner NI dieser Output.
    hää??
    Nach Training meiner NI folgender Output.
    Phrasenschwein
    Sparschwein, in das diejenige Person eine Münze werfen muss, die eine abgedroschene Redensart verwendet Person, die gern und viel Phrasen verwendet. Sparschwein, in das diejenige Person eine Münze werfen muss, die eine abgedroschene Redensart verwendet.
    Beispiel das Phrasenschwein ordentlich füttern.

  47. #47 Karl-Heinz
    25. September 2018

    Einen sehr guten allgemeinen Überblick über das Thema KI bietet der Artikel Faszination KI: Was ist künstliche Intelligenz?

    Damit sollten jetzt eventuelle Missverständnisse und falsche Vorstellungen, die bezüglich KI auftreten können, vermindert sein. 😉

  48. #48 Captain E.
    25. September 2018

    @Jolly:

    […]

    Dass die bereits ‘gelösten Probleme’ auch Gefahren heraufbeschwören, auf die wir reagieren müssen, bestreite ich dabei nicht; Übersetzer, LKW- und Taxifahrer werden arbeitslos, Gesichtserkennung erleichtert staatliche Überwachung, … (um nur die harmlosesten zu nennen).

    Wobei sich da die Frage stellt, ob es eher um eine Gefahr oder um eine Chance geht. Der Fachkräftemangel geht auch an Branchen wie Speditionen oder öffentlichem (Nah-) Verkehr nicht spurlos vorüber. Mittelfristig werden LKWs, Taxen, Busse, Straßen- oder Eisenbahnen womöglich fahrerlos fahren müssen, weil man gar nicht mehr genug Menschen für die entsprechenden Jobs findet.

  49. #49 Matalino bobo
    25. September 2018

    KI wird in Zukunft einen sehr großen Einfluss auf unsere Gesellschaft und Arbeitswelt haben.
    Sowohl im positiven Sinne als auch im Negativen. Einfach sich so verhalten als sei an der KI nichts dran halte ich für ziemlich gefährlich. Damit wird nur jedes Nachdenken über KI ins lächerliche gezogen und man verkennt den Ernst der beginnenden Entwicklung.