VInton Cerf mit dem Namensschild am blauen Band, das in Lindau nur die Laureaten bekommen (Foto: J. Nimke/Lindau Nobel Laureate Meetings)

Vor einigen Jahren habe ich beschlossen, die Vision des intelligenten Kühlschranks nicht mehr ernst zu nehmen. Und nun bringt sie Vinton Cerf, einer der Väter und Vordenker des Internets, wieder auf. Was soll man davon halten?

Als Vinton Cerf mit seinem Kollegen Robert Kahn in den 70er-Jahren das Verfahren TCP/IP entwickelte, mit dem im Internet Daten verschickt werden, haben die beiden den Bedarf an Computeradressen deutlich unterschätzt. Sie rechneten mit 128 Ländern, je zwei Netzwerken pro Land und 16 Millionen Rechnern pro Netzwerk. 2011 waren dann alle möglichen Adressen vergeben, und man musste sich etwas Neues ausdenken. Heute gibt es genügend Adressen, um auch allen Objekten im Haushalt und allen Produkten in den Warenlagern eine zuzuteilen. Billige Funkchips ermöglichen den Dingen Kontakt zum nächsten Onlinerechner. So könnte der Kühlschrank zum Beispiel tagsüber recherchieren, was man mit den Lebensmitteln in seinen Fächern anstellen kann, sagt Vinton Cerf, und ein paar Rezepte vorschlagen, wenn der Besitzer abends nach Hause kommt. Er könnte auch vorher anrufen und bitten, auf dem Heimweg noch etwas einzukaufen.

Heute leider kein Bier für Dich!

Ich habe Cerf diese Woche in Lindau am Bodensee gehört, auf dem jährlichen Treffen der Nobelpreisträger. Er hat zwar keinen Nobelpreis bekommen, dafür aber den Turing-Preis, die höchste Auszeichnung in der Informatik, und arbeitet heute bei Google. (Falls jemand bei der Bezeichnung „Vater des Internets“ stutzig werden sollte, weil man mit „Internet“ heute irgendwie alles meint: Sir Tim Berners-Lee, ein weiterer Vater, hat die Sprache HTML entwickelt, in der Websites erstellt werden.) Cerf gehört zu den wenigen der Branche, die einen Anzug tragen, und er redet humorvoll und klar. Aber ein paar Mal bin ich beim Zuhören stutzig geworden – und dazu gehört die Sache mit dem intelligenten Kühlschrank. Genügt für die Küchen-Inventur und mögliche Rezepte nicht eine Einkaufs-App auf dem Smartphone? Muss man dafür wirklich alle Produkte aus dem Supermarkt mit einem RFID-Chip versehen?

Ich glaube aber, dass es Cerf um etwas anderes geht. In seinem Vortrag betonte er mehrfach, wie sehr es sich gelohnt habe, den Onlineversand von den Inhalten zu entkoppeln. Das System verpackt die Dateien bloß in kleine Pakete und achtet darauf, dass die Pakete ein zweites Mal verschickt werden, falls sie nicht ankommen sollten. Die Netzbetreiber können die Datenpakete zwar öffnen und den Inhalt lesen, wenn er nicht verschlüsselt ist, aber das müssen sie nicht, um ihre Aufgabe zu erfüllen. Diese Standardisierung erleichtere es, neue Anwendungen zu entwickeln, sagt Cerf, und habe deshalb zum Erfolg des Internets beigetragen. Die Programmierer müssen sich nicht darum kümmern, auf welche Weise ihre Daten zu den Kunden oder Nutzern gelangen. Und so, glaube ich, kann man das „Internet der Dinge“ auch sehen: Man stellt eine Technologie zur Verfügung und überlässt es den Leuten, etwas daraus zu machen. Ob sich der intelligente Kühlschrank durchsetzen wird oder doch etwas anderes, wird man dann sehen.

Was macht man aber, wenn sich der Kühlschrank nicht mehr öffnen lässt, weil er von der Waage im Badezimmer alarmierende Werte über den Besitzer erhalten hat? Oder wenn ein persönlicher Ernährungsassistent auf dem Smartphone zum Schluss kommt, dass sonst nichts mehr hilft, um seinen Schützling wieder auf die richtige Spur zu bringen. Joachim Müller-Jung von der FAZ wollte bei einem Pressegespräch in Lindau von Vinton Cerf wissen, ob man vor einer wild gewordenen künstlichen Intelligenz Angst haben müsse. Wenn die besserwisserischen Geräte mit modernen Methoden lernen, kann man deren Entscheidung womöglich nicht einmal nachvollziehen: Das psychologische Wissen des Smartphone-Assistenten über seinen Besitzer steckt womöglich in einem Muster irgendwelcher Verbindungen eines neuronalen Netzes. (Im Blog „Bioinfowelten“ gibt es mehr zum Thema Machine Learning.)

Debugging im Weinkeller

Cerf findet nicht, dass man Angst haben sollte, und begründete das in Lindau gleich mehrfach. Im ersten Anlauf sagte er, dass man ja auch keine Angst vor Strom habe, bloß weil man nicht wisse, wie er in die Steckdose komme. Ich finde, das ist ein schwacher Vergleich, denn in diesem Fall gibt es Elektrotechniker, die Bescheid wissen und eine eventuelle Panne aufklären können. Im zweiten Anlauf sagte Cerf, dass Maschinen nach eigentlich ganz schlichten Regeln lernen. Entweder sammeln sie Daten und ziehen daraus nach einem vorgegebenen Algorithmus ihre Schlüsse. Facebook schaltet beispielsweise die Werbung für Dating-Apps und Fitness-Studios ab, wenn man 50 wird, berichtete Joachim Müller-Jung einmal aus gegebenem Anlass. Oder die Maschinen optimieren ihr neuronales Netzwerk und nähern sich dadurch dem gewünschten Ergebnis immer weiter an. Sie können zum Beispiel nach und nach lernen, die Gesichter meiner Freunde zu erkennen. Hier scheint Cerfs Argument zu sein, dass die im Grunde simplen Lernmethoden nicht dazu führen, dass Maschinen wirklich eigenständige, kreative und möglicherweise bedrohliche Entscheidungen treffen. Dieses Argument ist stärker als das erste, hat aber aus meiner Sicht einen Haken, weil es die schiere Menge der Daten oder die Größe des neuronalen Netzwerks vernachlässigt: Big Data erlaubt womöglich tiefe Einblicke in den Menschen, und große neuronale Netze kommen vielleicht auch auf unvorhergesehene Ergebnisse.

Mit seinem dritten Argument macht Vinton Cerf jedoch einen Punkt: Er sorge sich mehr um Bugs in der Software als um eine wild gewordene KI, und er fordert daher Systeme, die es einem Programmierer erleichtern, Fehler im Code zu erkennen. Die Programme sollen nicht nur funktionieren, sondern in allen möglichen Situationen zuverlässig arbeiten – und sich obendrein nicht manipulieren lassen. Auf einen Bug in der Überwachung seines Weinkellers habe ihn ein Freund aufmerksam gemacht, erzählte Cerf dann abends in seinem Vortrag. Er hat dort einen Sensor installiert, der Temperatur und Luftfeuchtigkeit misst, und er kann bei Bedarf die Klimaanlage von unterwegs neu starten. Weil auch registriert wird, wenn man das Licht einschaltet, glaubte Cerf, im Blick zu haben, ob sich jemand heimlich an einer seiner 2000 Flaschen zu schaffen macht. Doch er hat nicht an den Fall gedacht, dass jemand die Flasche gleich im Weinkeller leert.

Man könnte also sagen, dass Vinton Cerf mehr Angst davor hat, dass eine Maschine in einer unvorhergesehenen Situation nicht weiß, was sie tun soll, als dass eine Maschine in einer absehbaren Situation von der Absicht der Programmierer abweicht und auf neue Ideen kommt. Im Film „I, Robot“ beklagt sich der Polizist Del Spooner zum Beispiel darüber, dass ein Roboter bei einem Autounfall ihn rettete anstelle des Mädchens, das auch im Wagen saß. Der Roboter hatte für das Mädchen eine deutlich kleinere Überlebenswahrscheinlichkeit berechnet als für ihn, aber Spooner findet, dass die Chance für das Mädchen hoch genug war, um es zu versuchen. „Ein Mensch hätte das gewusst“, sagt er. Mit Vinton Cerf müsste man aber sagen, dass der Programmierer dem Roboter offenbar eine andere Ethik mitgegeben hat, als sie sich Spooner gewünscht hätte – und Spooner das mit ihm ausdiskutieren sollte. Mir gefällt es, in dieser Weise den Menschen als Verantwortlichen in den Vordergrund zu stellen (wie es auch Arthur C. Clark bei HAL 9000 getan hat, der widersprüchliche Anweisungen erhält). Warum Skynet und die Computer der Matrix so menschenfeindlich eingestellt sind, habe ich ohnehin nicht verstanden.

One more thing . . .

Das Blogbanner hat übrigens einer meiner beiden Brüder gestaltet; hier geht’s zu seiner Homepage. Es greift die Symbolik meines alten Heureka-Blogs bei der Stuttgarter Zeitung auf, wo die Klötzchen im ursprünglichen Design wie am Fließband aus einer Fabrik purzelten.

Kommentare (21)

  1. #1 rolak
    30. Juni 2016

    Schöner Auftakt – willkommen!

  2. #2 Marcus Anhäuser
    30. Juni 2016

    Alex, Du hier, das ist ja mal erfreulich 🙂 Herzlich willkommen bei den ScienceBlogs! Und viel Spaß mit den Rabauken hier 😉

  3. #3 LasurCyan
    30. Juni 2016

    Man stellt eine Technologie zur Verfügung und überlässt es den Leuten, etwas daraus zu machen.

    Das wäre doch mal was^^

    Schöner Artikel, vielen Dank!

  4. #4 LasurCyan
    30. Juni 2016

    Schöner Auftakt

    Hey rolak, das war doch schon voll auf die *1*

  5. #5 Jürgen Schönstein
    30. Juni 2016

    Psst, Marcus! Ich hatte ihm gesagt, dass wir alle ganz lieb sind 😉 Willkommen!

  6. #6 Anderer Michael
    1. Juli 2016

    Herr Mäder
    Danke für Ihren Beitrag. Auch auf die Gefahr ,dass Sie mich für einen senilen Grantler halten, was wollten Sie eigentlich konkret ausdrücken?Um den Kühlschrank mit KI gIng es doch nur symbolhaft (falls doch, solange ich noch die Wahl habe, kaufe ich mir nicht so ein Teil). Zum Verständnis: Ich bin weder Informatiker noch Naturwissenschaftler. Aber jetzt weiß ich, was ein Bug und RFID bedeutet (RFID macht vielen Menschen Angst, mir ist auch nicht ganz wohl dabei. Wenn ich bedenke, welche Möglichkeiten sich für den “GLÄSERNEN MENSCHEN ” ergeben.)
    Falls es um wild gewordene KI geht, müssen wir diese nun fürchten oder mehr die Menschen ,die KI propagieren, und damit gewollt oder ungewollt,immer mehr Macht über uns bekommen? Und unsere Regierung spielt dieser Oligarchie wissend oder unwissend,vielleicht matriaralisch gutmeinend, willfährig die Bälle zu ? Bugs sind doch nur ein Nebenproblem . Und wer profitiert von einem smarten Kühlschrank (symbolhaft )oder Stromzähler?

    • #7 Alexander Mäder
      1. Juli 2016

      Hallo, vielen Dank für Ihren Kommentar! Im Prinzip habe ich von einer Veranstaltung berichtet und die Aussagen von Vinton Cerf versucht so zu interpretieren, dass sie möglichst viel Sinn ergeben. (Einige Themen wie zum Beispiel der Schutz der Privatsphäre kamen dort nicht zur Sprache.) Wenn wir uns auf die wild gewordene KI konzentrieren, würde mich interessieren: Kann Vinton Verf Ihre Bedenken zerstreuen? Ich finde, er bringt mit dem Verweis auf die unbeabsichtigten Fehler der Programmierer ein gutes Argument in die Debatte. Wenn Sie also fragen, was ich ausdrücken wollte, könnte ich antworten: dass Bugs eben kein Nebenproblem sind 🙂

  7. #8 Marcus Anhäuser
    1. Juli 2016

    @Jürgen, wir natürlich schon, aber all die anderen 😉

  8. #9 gedankenknick
    1. Juli 2016

    Bei Skynet und Matrix war es in beiden Fällen (wenn ich mich korrekt an die Storylines erinnere), dass die sich entwickelnde Super-KI vor der Wahl stand, von dem Menschen abgeschaltet (= getötet) zu werden, und sich folgerichtig gegen diese Menschen-Ambition im Sinne des Selbsterhaltungsprinzips zur Wehr zu setzen. Skynet – als primär militärisch entwickeltes System – reagierte seinen taktischen Algorhitmen entsprechend mit einem Kernwaffenschlag gegen seinen Feind (die Menschen). In der Matrix-Welt lief es ähnlich, nur dass die Stromversorgung zum Zeitpunkt der “Rebellion der Menschen gegen die KI” größtenteils auf Solarenergie umgestellt war. Die Menschen “verdunkelten” darauf die Atmospähre via Smog, um der KI den Strom zu entziehen. Die KI reagierte, in dem sie die elekrische Energie von Menschen als “Bio-Generator-Batterie” benutzte. (Ja, dieses Konzept ist insofern Quark, dass die Versorgung der menschlichen Generatoren mit Bionährstoffen ein mehrfaches der Energie erfordern dürfte, die der menschliche Körper in Strom anschließend liefert). In beiden Fällen hatte man vergessen, Asimovs 1. Gesetz zu implementieren – bei Skynet (als Militär-KI) aus nachvollziehbaren Gründen…

    Aber, da ja “I, Robot” (dessen Ursprungsstorry auch auf Asimov beruht) schon erwähnt wurde, möchte ich einfach nochmals die Endkonsequens dieser Dystopie ansprechen. Denn die Super-KI VIKI in “I, Robot” macht ja nichts weiter als konsequent ihren Algorithmen – und auch Asimovs 3 Gesetzes – zu folgen, auch wenn alle 3 Gesetze dabei unterlaufen/gebrochen werden. Denn letzthin will VIKI ja nur die Menschheit beschützten – und zwar, jetzt kommts – VOR SICH SELBST. Dazu nimmt sie Kollateralschäden sowohl bei den Menschen (die es zu beschützen gilt) als auch bei den Robots (die es zu beschützen gilt, soweit dadurch kein Mensch gefährdet wird) nicht nur hin – sie initiiert diese Kollateralschäden gemäß ihrer Programmierung sogar. Und das ist KEIN Bug.

    Die Problemstellung bei (selbst)lernenden Systemen ist immer zu ermitteln, WAS da gerade gelernt wird. Die Problemstellung bei komplexer Programierung sind nicht die kleinen Bugs, die eine Systeminkompatibilität oder einen Programmabsturz verursachen . man baut einfach einen “Watchdog” ein, der das System im Falle eines Problems neu startet und das ganze protokolliert. Viel schwieriger ist es zu erkennen, wie das komplexe System funktioniert und was (langfristig) daraus Ergebnisse entstehen. Das dies nicht so einfach ist, sieht man an der Werbeindustrie (und deren finanzielle Förderung der Hirnforschung und Psychologie).

    Und um hochkomplexe (und schwer vorherzusagende) Ergebnisse zu erhalten brauche ich kein komplexes System – die Langton-Ameise genügt: https://www.mathematische-basteleien.de/ameise.htm Die Ameise hat vier (wenn man das zusammenfasst sogar nur 2) Anweisungen. Trotzdem ist die Vorhersage des Ergebnisses für 1.000.000 Schritte kaum möglich – und 1MIPS ist heutzutage nicht wirklich viel – da wird der “Core-i7” kaum warm! Wenn man diese Erkenntnisse auf eine KI im Format von Skynet, Matrix oder VIKI überträgt, kann man eigentlich nur noch die Augen zu machen, sich die Ohren zuhalten und laut LALALA singen…

    Ansonsten kann man auch die vielen Romane Asimovs lesen, in denen er sich mit den Auswirkungen seiner 3 Gesetze beschäftigt – wenn sie funktionieren und wenn sie ganz oder teilweise außer Kraft gesetzt wurden. Das ganze gipfelt im GAJA-Zyklus (den ich persönlich allerdings nicht so dolle fand), wo eine KI, die durch die Zeit reisen konnte, das Universum so gestaltet hat, dass keine außerirdischen intelligenten Lebewesen existieren, da diese unvermeidbar (irgendwann) einen Konflikt mit den Menschen führen würden, was aber gegen das 1. Gesetz verstieße… Ach ja, die Roboterpsychologin aus “I, Robot” stammt auch aus Herrn Asimovs Feder höchstpersönlich…

    Man braucht sich doch bloß mal die Entwicklung des PC anschauen. Bei DOS lief als Hintergrundprozess die Festplatte. Bei WIN-NT liefen so 10-15 Hintergrundprozesse. Bei WIN7 laufen mindestens 25 Hintergrundprozesse, die ich kaum noch zuordnen kann. Wie es bei WIN10 aussieht, weiß ich nicht… Auch was mein Browser im Hintergrund so treibt, bekomme ich kaum noch mit. Manchmal ist es nichts gutes, wenn ich so an die Red-Tube-Abmahnwelle denke… Dafür meint AMA*ZON in der Zwischenzeit, besser zu wissen, was ich brauche, als ich das selber weiß… Einer (von mehreren) Gründen für mich, dort kaum etwas zu beziehen.

    Davon abgesehen: Wenn ich mein Leben nicht in die Verantwortung einer (Pseudo-)KI lege, sind Bugs nur dann kein Nebenproblem, wenn sie Software betreffen, die direkt mein Leben beeinflusst (Ampelsteuerungen, Medizintechnik usw.). Stürzt meine Laptop-Software ab, ist das zwar ärgerlich, aber (noch!) nicht lebensbedrohlich für mich oder andere. Und so darf es (meinetwegen) auch bleiben.

  9. #10 Beobachter
    1. Juli 2016

    ” … Man stellt eine Technologie zur Verfügung und überlässt es den Leuten, etwas daraus zu machen. … ”

    Genau das ist eine sehr fragwürdige Haltung.
    Wer sind “die Leute”?
    Die Hersteller, die Käufer, die Bevölkerung?

    So kam es auch z. B. zur Konstruktion und zum Abwurf von Atombomben, und die Drohnen-Technologie führt zur ferngesteuerten Tötung “mutmaßlicher Terroristen” und zu “Kollateralschäden” bei der Zivilbevölkerung.

    Und wer braucht schon smarte Kühlschränke und Weinkeller?

    • #11 Alexander Mäder
      1. Juli 2016

      Mit “die Leute” meine ich alle, die eine Anwendung entwickeln möchten. Und wenn sie einen smarten Kühlschrank entwickeln, den niemand haben will, geht ihr Geschäft eben pleite. Mit dem Bau der Atombomben hat das nichts zu tun. Im Gegenteil: damals gab es einen klaren politischen Auftrag und jede Menge Geld.

  10. #12 gedankenknick
    1. Juli 2016

    Nachtrag: Um so “smarter” die Geräte werden, um so mehr werden sie von 3. mißbraucht. In der Zwischenzeit laufen Spam-Server auf Netzwerkdruckern und Bot-Netze mittels IOT-Rechnern. In meinem Bekanntenkreis mache ich regelmäßig den Witz, dass ich keinen Toaster brauche, der meinem Kühlschrank Mails schreibt mit dem Inhalt: Heute wieder so frostig? Ich mach Dich heiß! Für nur 2 Brotscheiben glühen die Drähte..! 😉

  11. #13 Anderer Michael
    1. Juli 2016

    KI ist für mich so fern, da kann ich gar nicht mitreden. Vieles ist auch noch Science Fiction. Alpha Go oder die Fußball spielenden Roboter sind meiner Meinung nach keine Gefähr für die Menschheit. Den Film “I Robot” kenne ich nicht. Ich habe die Geschichten von Isaac Asimov gelesen, beeindruckend finde ich die Geschichte ” Der Zweihundertjährige”, in der quasi die Menschwerdung eines Roboters stattfindet. Aber wie gesagt, das ist SF und kein Problem.
    Entscheidender ist für mich, was heutzutage möglich ist. Vinton Cerf hat meine Bedenken nicht zerstreut. Bugs sind für Programmier ohne Zweifel ein Problem, da haben Sie und Herr Cerf gewiss recht. Aber ich nehme als Beispiel die vernetzte Haustechnik im Privatbereich. Man braucht sie nicht als Normalbürger. Zur Zeit ist diese noch Hobby und Luxus. Es wird viel Werbung gemacht und investiert (Google zum Beispiel), ev. bald nur noch wie bei Fernseher absehbar vernetzte Haustechnik erhältlich. Und wer weiß, ob unsere Regierung wieder vor Lobbyisten, die der Regierung die Gesetze schreiben, den üblichen Kotau macht (aktuell Stromzähler, in der Vergangenheit Dämmung und Lüftung und Energieausweis (1))Ein weiterer Baustein zu einer möglichen Totalüberwachung , die Konsequenzen können wir nur erahnen. Die eventuellen wirtschaftlichen Abhängigkeiten und kriminellen Aspekte mal beiseite gelassen (Sabotage von Herzschrittmachern und Beatmungsgeräte als Beispiel)Das war, wie Sie schrieben , nicht das Thema. Aber es wird das gesellschaftliche Hauptthema werden, hoffe ich zumindestens. Bugs ist was für Programmierer und bestimmt auch wichtig.

    1: Ich weiß, Lüftung usw haben nichts mit dem Thema zu tun, es sollte nur ein Beispiel sein, wie Lobbyisten ihre Interessen durchdrücken.

  12. #14 Anderer Michael
    1. Juli 2016

    Die Kernkompetenzen unserer Gesellschaft konzentrieren sich immer mehr auf wenige (ich vermeide den Begriff Großkonzerne, klingt zu sehr nach Weltrevolution.)
    Ein Beispiel: Wozu brauchen wir Windows Word ? Komplett überflüssig. Es gibt Open office für umsonst. Mir erzählte ein junger Mann letzthin, dass bei Microsoft ein ganzer Stab an immer anderen Dateiformaten arbeite, so dass die ehenamtlichen Programmierer von open office gar nicht nachkommen. Eine mittelständische exportorientierte Firma haben daher die Dateien ihrer Kunden nicht immer öffnen können und habe deswegen open office abgeschafft. Ob das stimmt?
    Die Regierung verwendet XP (Ja ,mir ist klar,das ist ein Betriebssystem) und ist von Microsoft abhängig, damit diese gnädigerhalbe noch weiteren Support gibt.

  13. #15 Laie
    2. Juli 2016

    Diese Smart-Geräte werden nicht sehr viel Rechenpower aufbringen können, daher sind KI und Sicherheit – ganz ohne böser Absicht, wie auch bei elektronischen Schlüsseln für Autos – mal außen vor. Die ausgeleiteten Daten sind jedoch für Kriminelle wie auch legale Datenminer (*) von Interesse, da sie über das Konsumverhalten und die finanzielle Potenz den maximal zulässigen Preis auf Onlineplattformen wie Amazon optimieren werden.

    Die Frage ist, was kann der Käufer noch tatsächlich beeinflussen, und welches Verhalten ist “fix verdrahtet” programmiert worden, bzw. ist der Käufer überhaupt am nicht sichtbaren Verhalten interessiert.

    (*) für legale Datenminer, wie Goole & Facebook & Co. ist das ein großes Geschäft, dort wird auch künftig die KI zu finden sein, wie auch ein kürzlich von Google entwickelter Chip für KI dahingehend beweist.

  14. #16 user unknown
    https://demystifikation.wordpress.com/2015/06/07/ev-kichertag/
    2. Juli 2016

    Leseempfehlung, leider sehr lang und auf Englisch, aber Spielentscheidend: https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

    Ein wichtiger Punkt des Artikels: Die Entwicklungsprozesse der KI verlaufen nicht linear, sondern – ich weiss jetzt nicht: quadratisch, exponentiell – jedenfalls gekrümmt und damit schneller als linear von einem bestimmten Punkt. Und noch sind wir an einem Punkt, wo man zurücksieht und denkt, na, beeindruckend war das bislang ja nicht.

    Wie bei einer Seerose, die täglich die Fläche auf dem See, den sie bewächst, verdoppelt, und nach 50 Jahren ist ein Achtel des Sees bedeckt, und man steht davor und sagt: Noch ist es ja nicht so schlimm. 50 Jahre, und der Großteil des Sees ist noch frei!

    Der Mensch ist nicht sehr gut darin, solche Prozesse abzuschätzen und schwer zu motivieren etwas zu unternehmen, solange es noch keine spürbaren Auswirkungen gibt.

    Beim Gospiel hat eine KI jetzt eine Lösung gefunden, die die Profis überrascht hat, aber als sie sie gesehen haben, konnten sie sie nachvollziehen. In Bälde werden sie wohl Lösungen sehen, die sie dann nicht mehr nachvollziehen können.

    Vielleicht werden wir in einen religionsähnlichen Zustand zurückfallen weil wir lernen, dass es Erkenntnisse und daraus folgend Entscheidungen von etwas außerhalb von uns selbst gibt, das unsere Fähigkeiten übersteigt. Wenn wir die Wahl haben, schlechte, autonome Entscheidungen zu treffen, oder solche, die wir nicht nachvollziehen können, von denen sich aber empirisch gezeigt hat, dass sie unseren eigenen haushoch überlegen sind?

    Der Kühlschrank ist vielleicht kein gutes Beispiel, weil der übergewichtige Mensch sich dann einfach keinen Kühlschrank von der Krankenkasse schenken lässt, sondern von der Brauerei seines Vertrauens mit einem anderen Programm. Oder auf Whisky umsteigt, der nicht gekühlt werden muss. Ein isolierter Kühlschrank lässt sich austricksen. Bei Abschaffung von Bargeld ein Vertrag, bei dem die Krankenkasse die Umsätze der Kreditkarte mitliest, schon weniger.

    Was denkt die Katze, wenn Herrchen abends nach Hause kommt, und eine Tüte mit mehreren Dosen Katzenfutter dabei hat? Wie hängt das mit dem Gerät zusammen, das morgens immer um eine Zeit rasselt, die Herrchen misslaunig macht? Eine kurze Phase werden wir in der Situation der Katze sein, die sich noch Ideen zurechtspinnen kann, was es mit diesen Phänomenen auf sich hat, aber dann wird sich die KI in Sphären abspielen, zu denen uns jeder Zugang fehlt.

    Oder wieso nicht?

    Ein Mensch, der nichts mehr lernen muss, weil er in allem, was er lernen könnte, den Maschinen so hoffnungslos unterlegen wäre, dass es keine Notwendigkeit mehr gibt? Gut – es gibt auch heute noch Marathonläufer, obwohl man die Strecke mit der S-Bahn in einem Viertel der Zeit schafft und gerade die, die beruflich keine körperliche Fitness brauchen besuchen die Fitnessstudios, denn die Bauarbeiter bekommen ihre Muckis on the Job.

    Wenn es 10 Jahre lang keinen humanen Nobelpreisträger mehr gab, sondern Rechner alles abräumen, inklusive Literaturnobelpreis – macht Literatur dann noch Spaß?

    Es gibt in den USA auf soundsoviel PKW-Kilometer einen Toten, im Mittel. Der erste Teslatote war schon später, aber die Schwankungsbreite bei einem einzigen Toten ist wohl noch viel zu groß, um daraus etwas zu folgern, außer dass es nicht so dramatisch schlecht aussieht, für autonome Fahrzeuge. Und wenn sich die Quote der Toten alle 2 Jahre halbiert, dann ist das über 10*2 Jahre ein Schrumpfen auf ein Tausendstel. In 40 Jahren ein Millionstel. Wer könnte solchen Zahlen widerstehen?

  15. #17 ralph
    2. Juli 2016

    “.. er fordert daher Systeme, die es einem Programmierer erleichtern, Fehler im Code zu erkennen. Die Programme sollen nicht nur funktionieren, sondern in allen möglichen Situationen zuverlässig arbeiten – und sich obendrein nicht manipulieren lassen. ”

    Soweit ich weiss. sind dies schon Anforderungen die es etwa bei medizinischer Software im lebenserhatenden Bereich schon lange gibt. In wie weit sich dort internationale (de Fakto) Standards entwickelt haben, oder ob jeder grössere Hersteller sein eigenes Süppchen kocht, weiss ich nicht.

  16. #18 DH
    2. Juli 2016

    Das erinnert irgendwie an die 50er und 60er – Jahre . als das Auto zur Massenware wurde und viele glaubten , die autogerechte Stadt sei jetzt aber sowas von die Zukunft.

    Einiges ist davon übrig , das meiste kommt einem heute eher absurd vor , deshalb dürfte stimmen , daß sich das eine durchsetzt und das andere nicht .
    Ist eben so , wenns was Neues gibt und zur Massenware wird , treten immer Leute auf den Plan , die jetzt glauben , die großen Helden der neuen Epoche zu sein , die da angeblich auf uns zukommt , und wers nicht so rechtglauben mag , gilt als rückwärtsgewandt oder sowas ähnliches.
    Diese Kühlschrank-Sache ist eine nette Spinnerei und war wohl nie anders gedacht – bis irgendwer damit anfing , die Sache ernst zu nehmen.

  17. #19 tomtoo
    4. Juli 2016

    naja der iq kühlschrank ist doch gar nicht sooo doof. er braucht ja gar keinen iq nur ein paar sensoren. dann wird die info an overloard ( goo.% ) transveriert. ruck zuck gibts gute vorschläge fŭr das abendessen. keine lebensmittelverschwendung aus unachtsamkeit.
    ????

  18. #20 Dr. Webbaer
    5. Juli 2016

    Vinton Cerf liegt schon ganz gut mit seinen Einschätzungen, ebenso der dankenswerterweise bereit gestellte Weblog-Eintrag.
    Inwieweit Sittlichkeit oder Ethik programmierbar ist, ist eine spannende Frage, auch selbstfahrende Automobile betreffend. Wer wäre bspw. haftbar, wenn die Automatisation Entscheidungen trifft, die später (regional) rechtlich angemängelt werden – jeweils der Hersteller?

    Andererseits unterwirft sich das erkennende und letztlich zu bestimmen habende Subjekt bereits seit Langem einer „Maschinen-Ethik“, bspw. wenn es den Autobus betritt oder das Pferd als Fortbewegungsmittel nutzt.
    Ganz neu sind derartige Ethik-Fragen also nicht.

    MFG + viel Erfolg
    Dr. Webbaer

  19. #21 user unknown
    7. Juli 2016

    Zu künstlicher Intelligenz hier noch ein Video mit Sam Harris, https://www.youtube.com/watch?v=RJ5_hAEsLkU – ab 3:38 (ja, 3 Stunden, 38 Minuten) ungefähr geht es los und bis zum Ende (4:28).

    Und hier, auch zum Thema, ein DarkMatter2525 – Video (Animationsfilm): https://www.youtube.com/watch?v=jduMIUt9M3M