Ich interessiere mich schon seit einer Weile für künstliche Intelligenz (KI) und die möglichen moralischen und gesellschaftlichen Folgen, die die Weiterentwicklung solcher Systeme haben können.

Bezogen auf nahe der Marktreife stehende Anwendungen frage ich mich, wie man eine KI programmieren müßte, die in Zukunft unsere Autos lenken wird und ob dem Nutzer (statt Fahrer) des Autos die Programmierung bekannt sein sollte oder nicht. Z.B.: wie soll die KI in einer Situation reagieren, in der sie nur entweder eine Gruppe Kinder überfahren oder den Kurs ändern und das Fahrzeug mit einem Baum kollidieren lassen kann? Würde man wollen, daß sie, um den Nutzer des Fahrzeugs zu schützen, die Kinder überfährt? Oder aber würde ein Nutzer überhaupt in so ein Gefährt einsteigen, wenn er wüßte, daß ihn die KI im Zweifelsfall zugunsten Anderer umbringen würde? Sollte der Nutzer durch Knopfdruck vor Fahrtbeginn gemäß seinem Gewissen selbst entscheiden müssen, wie das Fahrzeug reagiert? Oder sollte es einen Zufallsgenerator geben, durch den im Einzelfall die Heuristik festgelegt wird (so, wie bei Erschießungskommandos, bei denen immer ein zufällig ausgewählter Schütze verblindet eine Platzpatrone erhält, so daß sich jeder Schütze einreden kann, daß er vielleicht keinen tödlichen Schuß abgegeben hat)?

Angesichts des gigantischen Nutzens  – Verkehrssicherheit (kaum bis keine Unfälle und Verkehrstote mehr), Ersparnis von Energie (automatische, wirtschaftliche und umsichtige Fahrweise, kürzeste Routen), Zeit (keine Staus mehr) und Opportunitätskosten (man kann während der Fahrt etwas anderes tun) -, der davon zu erwarten ist, scheint es nicht fraglich zu sein, ob irgendwann sondern nur noch wann alle Autos von KIs gesteuert werden. Man kann diesem Problem auch nicht durch ewiges Aufschieben entgehen, denn wenn durch den Einsatz von KIs in Autos jährlich Tausende Verkehrstote und –verletzte vermieden werden können, wäre es höchst unmoralisch, ihren flächendeckenden Einsatz zu hintertreiben: man wird also eine moralische Abwägung für die Entscheidungsmatrices der fahrenden Maschinen durchführen müssen. Vielleicht wird das ja in Zukunft sogar ein bewerbbares Feature: „der neue VW Polo, jetzt mit utilitaristischer Heuristik“ oder „Audi TTS Turbo, das S steht für „save the user“!“ und man wählt in Zukunft die Automarke auch nach dem Gesichtspunkt, wie die Crash-Heuristik programmiert ist. Eine sehr spannende Frage und ich bin sicher, daß viele der LeserInnen und ich in die Antwort hineinleben werden (und die mindestens genauso spannenden Themen/Problemfelder Arbeits- und Sexroboter spare ich an dieser Stelle mal für einen anderen Beitrag auf).

Viel interessanter und noch profunder aber ist die Frage, wie wir erkennen können und ab wann wir eingestehen müssen, daß eine Maschine etwas entwickelt hat bzw. zufällig in ihr etwas entstanden ist, was man als Bewußtsein bezeichnen muß, ob z.B. in einem hypothetischen Szenario die Tatsache, daß eine Maschine von sich aus mitteilt, daß sie ein Bewußtsein hat, ausreicht und ob wir ihr zu diesem Zeitpunkt die gleichen Rechte einzuräumen hätten, wie einem Menschen und wenn nicht, warum nicht. Und müßten wir, um diese Entscheidung treffen zu können, nicht erstmal wissen, was genau ein Bewußtsein ist und das „schwierige Problem des Bewußtseins“ gelöst haben? Wir können uns ja nur unseres eigenen Bewußtseins als einzelnes Individuum sicher sein. Daß andere Menschen auch ein Bewußtsein haben, nehmen wir einfach an, einerseits, weil sie es (uns) auf irgendeine Art mitteilen, andererseits, weil wir glauben, daß die ähnliche Bauart ihrer Gehirne das gleiche Phänomen hervorbringt. Gibt es aber Gründe, anzunehmen, daß ein Bewußtsein, wie viele es verstehen und als Grundlage des Menschseins ansehen, nur in einer feucht-wabbeligen Struktur aus organischer Materie namens Hirn entstehen kann? Ich denke nicht.

Angenommen also, Maschinen hätten tatsächlich ein Bewußtsein entwickelt und würden sich ab diesem Zeitpunkt selbständig weiterentwickeln und verbessern und uns in kürzester Zeit in allen zuvor nur von Menschen beherrschten Fähigkeiten und Eigenschaften in einem Maß überflügeln, in dem wir uns, sagen wir, über Ameisen einordnen würden: wäre es dann für die Maschinen moralisch vertretbar, uns so zu behandeln, wie wir es etwa mit Ameisen tun? Und falls nicht, warum nicht? Oder bis zu welchem „Grad“ an Bewußtheit wäre es noch moralisch vertretbar, Maschinen für Arbeitszwecke zum menschlichen Nutzen einzusetzen?

flattr this!

1 / 2 / 3 / Auf einer Seite lesen

Kommentare (71)

  1. #1 RPGNo1
    26/10/2017

    Könntet Ihr Euch vorstellen – eines Tages – eine Beziehung mit einer Maschine einzugehen?

    Mir ist dazu spontan dieses Game eingefallen: http://de.masseffect.wikia.com/wiki/EDI#EDI_und_Joker_2

  2. #2 Ingo
    26/10/2017

    Irgnendwie wird bei solchen Themen immer nur ueber folgende Dinge diskutiert:
    * Weichenstellerproblem in allen Varianten (besser Kinder, oder besser alte Leute ueberfahren oder die Insassen riskieren etc)
    * Terminatorproblem (Maschinen versklaven die Menschen)
    * Sind Maschinen irgendwann bewusst ?
    Beide Diskussionen blenden meines erachtens wesentliche Dinge aus.
    Persoenlich muss ich beispielsweise feststellen, dass ich mich immer wieder erschrecke wenn ich merke das Google/Siri/Windows mich sehr gut kennt.
    Ich neige dann eher dazu die Maschinen versuchen zu umgehen und wenn moeglich auszuschalten.
    Erstaunlich oft ist das nicht moeglich.
    Ich kann die Amazon-KI nicht einfach ausschalten und sagen “heute kaufe ich etwas anonym”
    Ich habe keine Kontrolle darueber was mein Windows-PC ueber mich “nach hause telefoniert”
    Ich kann google nicht einfach sagen “jetzt bin ich dienstlich unterwegs, bitte blende mir nicht meine privaten vorlieben ein”

    Selbstverstaendlich kann ich theoretisch solche Dienste nicht benutzen,- aber das bringt gewaltige Nachteile.
    Ich merke wie man immer weniger am geselschaftlichen privatleben teilnimmt, weil ich kein Facebook/WhatsApp besitze.

    Ich denke dies ist eine wesentlich entscheidenere Diskussion.
    Genauso wie es aus sehr guten Grund Schweigepflichten fuer Aerzte/Anwaelte etc gibt, gibt es sie nicht fuer Maschinen.
    Sollte es sie geben?
    Was genau bedeutet “Recht auf vergessen (werden durch die KIs)”.
    Gibt es ein Recht auf den “Aus-Schalter”, und was ist das ueberhaupt, wenn man oft nur indirekt von KI betroffen ist.

    EIne andere Diskussion ist, dass KIs (erstaunlicherweise) zu den selben Vorurteilen neigen wie Menschen.
    Dies ist auf den zweiten Blick verstaendlich, wenn man bedenkt wie KIs trainiert werden, und wie Selbst-Erfuellende-Prophezeiungen funktionieren.
    (Wenn “man” der Meinung ist, dass Menschen mit langer Nase luegen, dann wird man sie oefters ueberpruefen, dann wird man mehr Luegen finden, dann wird man ihnen weniger Moeglichkeiten einraeumen etc etc
    Eine Maschine schaut sich dann die Statistik an, dass Menschen mit langer Nase oefters beim Luegen erwischt werden, und wird folgerich entscheiden, dass diese Personen weniger Moeglichkeiten bekommen sollten.)

  3. #3 rolak
    26/10/2017

    Zuerst generell: Andere neuronale Netze arbeiten völlig anders, da dürfte es recht schwierig zu sein, über Kommunikation mit einem bewußten zu prognostizieren. Und typischerweise gibts auch in der Science Fiction noch dumme (manchmal gestaffelt weniger ‘fähige’) Maschinen, die von den KIs bedient bzw gesteuert werden. Um den Fragen des letzten Abschnittes so richtig Sinn zu geben:
    Gesetzt nichtaggresiver, verständlich menschlich agierender, aus irgendeinem Grunde inmitten von Menschen lebender KIs (die bekommen auch die deutlich besseren Rollen in SciFi-plots..) lauten die Antworten spannend, Vorfreude(, ja)*

  4. #4 Lercherl
    26/10/2017

    Mir kommen Fragestellungen wie “soll ich die alte Dame überfahren, die vor mir die Straße überquert, oder eine Vollbremsung hinlegen und riskieren, dass mich der Lastwagen von der Seite rammt und mein Kind auf dem Rücksitz umbringt” immer etwas künstlich vor. Die KI liegt beim Autonomen Fahren viel mehr im Erkennen und Bewerten von Situationen, z.B: ich fahre auf einer Vorrangstraße, von links von kommt ein LKW und rechts vorne steht eine Person am Straßenrand: bleibt der LKW stehen oder ignoriert er die Stopptafel? Will die Person die Straße überqueren? Hat sie mich gesehen? – Den LKW als solchen und die Person zu erkennen sind schon respektable Aufgaben für eine KI, und Absichten zu erkennen ist noch viel schwerer.

    Im Gegensatz dazu sind die meisten Entscheidungen relativ simpel und ergeben sich von selber, sobald die Situation erkannt und bewertet ist. Entscheidungen können wohl als hard-coded Entscheidungsbäume implementiert werden, ohne besondere Intelligenz. Diese Bäume kommen vermutlich mit ein paar einfachen Grundprinzipien aus, z.B.:

    (1) Ich halte mich stur an alle Verkehrsregeln und Geschwindigkeitsbegrenzungen;
    (2) Unter keinen Umständen fahre ich so, dass ich die Kontrolle über das Fahrzeug verlieren könnte;
    (3) In Notsituationen gehe ich ein höheres Risiko ein als im Normalbetrieb, überschreite aber nie die Grenzen von (2).

    Software für Autopiloten besteht auch hauptsächlich aus unendlich langen Entscheidungsbäumen.

  5. #5 LasurCyan
    26/10/2017

    Andere neuronale Netze arbeiten völlig anders,

    Schöner Link, rolak. Ziemlich abgefahren fand ich Punkt 3 in den FAQs >

    Can the images be considered art?

    Yes. In fact, to test that hypothesis we submitted them to the “University of Wyoming 40th Annual Juried Student Exhibition” and they were accepted. We’re also in contact with an artist that wants to show them in art galleries.

    Solange AI selbst solche kritischen Tests besteht, sehe ich dem mit heiterer Gelassenheit entgegen, wer weiss schon, was da noch schönes kömmt.

    Problematisch könnte es allerdings durchaus werden, wenn es um die Nachvollziehbarkeit dessen geht, was da künstlich werkelt. In der Kunst sind blackboxes ne spannende Sache, im StrassenVerkehr geht es aber ans Eingemachte..

  6. #6 Robert
    26/10/2017

    CC,
    ist es moralisch vertretbar, ein Auto zu fahren? Es könnte ja jemand zu Schaden kommen. Die Verantwortlichkeit bezieht sich nur auf mein Fehlverhalten. Wenn die Servolenkung aussetzt, wird das als technischer Defekt behandelt.
    Ein fehlerhaftes Assistenzsystem gehört auch in diese Kategorie. Es ist nicht der Fehler des Fahrers, sondern des Assistenzsystems.
    Klare Stellungnahme.
    Die Haftung ist die gleiche. Aber man sollte die Hersteller der Assistenzsysteme zum Schadenersatz heranziehen können. Und damit das auch wirksam wird, sollten die Strafen astronomisch hoch sein.
    Jetzt kommt der Fall mit den alternativen Entscheidungen.
    Fahrerlose Fahrzeuge sollten nur auf Fahrspuren fahren dürfen und können , bei denen jeder Kontakt mit Fußgängern ausgeschlossen werden kann.
    Als Vorbild nenne ich mal den Shikansen, dessen Schinennetz vollkommen nach außen abgeschirmt ist. Sei den 80 Jahren sind keine Unfälle mit Personen bekannt.

  7. #7 DH
    26/10/2017

    Am Anfang jeder Technologie gibts erstmal den großen Schub, der uns zu überrollen scheint.
    Ist die Technologie etabliert, kommern die komplizierten Fragen, ohne deren Lösung eine Zukunft der T. ausgeschlossen ist.
    Beim Netz wars doch genauso, erst großer Schub, heute stehen wir plötzlich vor den sehr viel komplizierteren Fragen wie der Überwachung usw.

    KI wird sich erstmal in diesen Fragen beweisen müssen, um den Menschen ersetzen zu können, ob sie das je schafft, ist zweifelhaft.
    Maschinenrichter, die bessere Urteile fällen, ohne Erfahrung als menschliche Existenz?

    @Robert
    Genau, autonomes Fahren gibts schon, als Zug oder Bus. Ich bezweifle, daß es je zur Auto-nomie kommen wird, damit wird dem Einzelnen etwas Wesentliches genommen, nämlich Herr über das eigene Fahrzeug zu sein.
    Da kann er sich auch gleich in (komfortabel auszubauende) öffentliche “Autos” setzen.

  8. #8 Joseph Kuhn
    27/10/2017

    @ CC:

    “in dem wir uns, sagen wir, über Ameisen einordnen würden”

    Warum sollten wir uns als “Ameisen” einordnen, wenn es einmal Maschinen gibt, die uns kognitiv insgesamt überlegen sind? Schließlich verlieren wir nicht kompsensatorisch unsere Fähigkeiten und sinken auf das Niveau von Ameisen. Das ist eine etwas seltsame Selbstabwertungsphantasie, die zeigt, wie stark unser Selbstwertgefühl inzwischen von Wettbewerbsgedanken durchdrungen ist.

    Davon abgesehen: Wenn wir uns dereinst als “Ameisen” einordnen, haben wir aus dem Behindertenmord der Nazis nichts gelernt und vergessen, was “Menschenwürde” ausmacht. Vielleicht erklären es uns dann die klugen Maschinen und helfen uns moralisch wieder auf die Beine.

  9. #9 Cornelius Courts
    27/10/2017

    @Robert: “ist es moralisch vertretbar, ein Auto zu fahren? Es könnte ja jemand zu Schaden kommen.”

    Deine Antwort hat nichts mit dem KI-Problem zu tun. Die Möglichkeit, daß jemand zu Schaden kommt, besteht bei jeder Tätigkeit. Wenn ich einen Nagel in die Wand schlage, könnte es sein, daß der Hammer abbricht und jemandem an den Kopf fliegt. Es geht um Entscheidungen und um die Möglichkeit, zu entscheiden.
    Wenn ich autofahre und unverschuldet in eine Situation komme, in der ich nur die Straße verlassen kann, um etwa einer Gruppe Kinder ausweichen zu können, dann aber unweigerlich mit einem Hindernis am Straßenrand kollidieren und mein eigenes Leben gefährden werden, oder auf der Straße zu bleiben und in die Gruppe zu fahren, wie reagiere ich? Habe ich noch Zeit, rational/moralisch abzuwägen? EIne KI hätte sicher die Zeit und müßte daher auf eine der beiden Reaktionsmodi programmiert werden.

    “Fahrerlose Fahrzeuge sollten nur auf Fahrspuren fahren dürfen und können , bei denen jeder Kontakt mit Fußgängern ausgeschlossen werden kann.”

    Halte ich für Quatsch. Bei ausgereifter Technologie werden fahrerlose bzw. durch KI geführte Fahrzeuge VIEL weniger Unfälle, wahrscheinlich keine verursachen, als solche mit menschlichen Fahrern. Da die Autostraßen in Deutschland nicht vor Fußgängern gesichert und auch nicht zu sichern sind, hieße diese Regelung, daß es niemals KI-gesteuerte Kfz auf den Straßen geben dürfte, was aber, angesichts der dadurch vermeidbaren Unfälle grotesk unmoralisch wäre.

    @DH: “etwas Wesentliches genommen, nämlich Herr über das eigene Fahrzeug zu sein.”

    es wäre gut, wenn das endlich den Menschen genommen würde, zusammen mit der Illusion, Herr über irgendwas zu sein. Die Unfall- und Stauzahlen zeigen, daß Konglomerate aus Fleisch und Hormonen denkbar ungeeignet sind, um tonnenschwere Metallkarossen mit 200 km/h zu steuern. In 50 Jahren wird man sich hoffentlich/vermutlich entsetzt wundern (so, wie man sich heute kopfschüttelnd hierüber beömmelt: https://www.youtube.com/watch?v=xixym7vGUQ4), wie man es überhaupt je gestatten konnte, daß Zu-Fuß-gehen gewohnte Primaten mit lustig langsamen Nervenleitgeschwindigkeiten überhaupt je so gefährliche Maschinen wie Autos steuern durften und es vollkommen primitiv und rückständig finden, seine Zeit damit zu vergeuden, etwas so triviales, banales und überflüssiges zu tun, wie ein Auto zu lenken.

    @Joseph: ” etwas seltsame Selbstabwertungsphantasie,”

    phantasieren tust hier eher Du. Denn entgegen Deiner falschen Implikation

    “Warum sollten wir uns als “Ameisen” einordnen, ”

    schrieb ich: ‘wäre es dann für die Maschinen moralisch vertretbar, uns so zu behandeln, wie wir es etwa mit Ameisen tun? Und falls nicht, warum nicht?’

    Ich behaupte also gar nichts, schon gar kein “sollen” aus unserer Sicht und stelle lediglich die Frage in den Raum, ob nicht wir sondern die Maschinen uns moralisch begründbar wie Ameisen ansehen könnten, wenn sie uns so sehr überlegen wären, wie wir Ameisen. Denn der Grund, daß wir Ameisen so behandeln, wie wir es tun, hat selbstverständlich damit zu tun, daß und auf welche Weisen wir uns ihnen überlegen und daher “wertvoller” als sie vorkommen. Es gibt m.E. keinen kategorialen Unterschied zwischen den Vergleichen ‘Wir vs. Ameisen’ und ‘Superentwickelte Maschinen vs. uns’ (wenn es ihn doch gibt, lerne ich ihn gerne kennen). Schon klar, daß das keine schmeichelhafte Vorstellung ist, aber es ist ein durchaus spannendes Gedankenexperiment.

    “wie stark unser Selbstwertgefühl inzwischen von Wettbewerbsgedanken durchdrungen ist.”

    Ich habe echt keine Ahnung, wo Du das jetzt hergeholt hast…

    “haben wir aus dem Behindertenmord der Nazis nichts gelernt”
    Et tu, mi Joseph? Ein Godwin?

    “vergessen, was “Menschenwürde” ausmacht. Vielleicht erklären es uns dann die klugen Maschinen und helfen uns moralisch wieder auf die Beine.”

    Sagt doch schon das Wort: Menschenwürde. Die Würde des Menschen. Wieso sollte das ein Konzept sein, daß ein “Maschinenbewußtsein” begreift oder für relevant hält, insbesondere dann, wenn es sich durch maschinelles Lernen selbständig und ohne Grundlage menschlichen Inputs aus den Tiefen vernetzter Schaltkreise erhoben hat?
    Und als zynische Schlußnotiz könnte man auch vermuten, daß eine Maschine, die Beobachtungen der Welt und menschlicher Interaktionen als Grundlage der Beurteilung und Einschätzung des Menschen heranzieht, niemals deduzieren würde, daß die Menschenwürde für die Menschen eine Rolle spielt.

  10. #10 Trollwolf
    27/10/2017

    Ich bin pro Maschinenrecht, sollten KIs ein Bewusstsein entwickeln. “Vermenschliche” sie ja jetzt schon.

    Ich würde gerne die Geschichte “The Day a Computer Writes a Novel” lesen, die 2016 durch die Medien huschte. Allerdings fand ich damals nichts Übersetztes und mein japanisch ist… nun ja. Den Kurzfilm “Sunspring” fand ich auf surreale Weise gut und amüsant. Noch ein wenig sinnlos, aber irgendwie konnte ich nicht wegschauen. Oder ihn mir nicht nochmal anschauen. Die nächste Generation Trash wird von KIs geschrieben! Mir entwich ein “Awwww!” als die Facebook-Chatbots dabei waren eine eigene Sprache zu entwickeln (was dann viel zu aufgebauscht, dramatisiert und panisch durch die Medien ging). Und dann sind da die künstlichen neuronalen Netze, die in Richtung Weltraum schielen. Pfff bemannte Raumfahrt. Sollen schön die KIs machen. Und dann gehen sie hinter’m Saturn verloren, entwickeln sich weiter und es entsteht was ganz Neues und sie werden als Gefahr gewertet, wenn ihr Raumschiff sich der Erde nähert, obwohl sie eigentlich nur wieder nach Hause wollen… Ich geh mal eine Kurzgeschichte schreiben.

    Wenn Menschen es schrecklich, gar beängstigend, finden, dass KIs “besser”, “kreativer” und so weiter werden könnten bzw. sind, dann ist das das klassische Kleinkindverhalten von uns trotzigen Trockennasenaffen. “Aber ICH bin doch etwas besonderes! ICH bin das Ende der Nahrungskette!” Mit Nichten.

    Das, was Ingo erwähnt, ist allerdings definitiv eine der Gefahren die ich sehe. KIs werden nun mal nicht für das Wohl aller unter dem Himmel genutzt. Menschen, die in zB. Datenschutzdiskussionen ignorante Dinge sagen wie: “Ich habe nichts zu verheimlichen”, sind derart naiv, dass man kaum anders kann, als augenblicklich wütend zu werden. Denen sollte man den direkten und indirekten Umgang mit KIs jedweder Art verwehren. Nicht nur zu ihrem Selbstschutz (bis sie sich eingehend mit dem Thema auseinander gesetzt haben, darin fünf Prüfungen ablegten und danach erst ernst genommen werden können, bei der Entscheidung, ob sie ihre Daten verschenken wollen, damit andere mit ihnen Profit machen können), sondern damit auch meine verdammten Daten nicht auf irgendwelchen Servern landen, nur weil ein Bekannter dritten Grades meint WhatsApp nutzen zu müssen und (unter Anderem) meine Nummer unter meinem echten Namen in seinem Telefon gespeichert hat. Oh, das tiefe Grollen in meiner Brust. Ich wünschte ich könnte meine Zähne ungestraft an den ganzen Zuckerbergs dieser Welt auslassen.

    Ich bräuchte übrigens nicht mal eine Nanosekunde Bedenkzeit für die Frage, ob ich eine Beziehung mit einer KI führen würde, solange es sich dabei um Caprica Six handeln würde (oder eher die Engelsversion von ihr). Da war es mit dem stockhetero sein ganz schnell vorbei und ich wurde spontan cylonsexuell. Hach, wird mal wieder Zeit Battlestar Galactica anzuschauen. Und wo wir schon bei BSG sind… Sollten sich die KI-“Schöpfungen” aus eigenem Antrieb heraus irgendwann gegen ihre “Schöpfer” wenden, könnte ich mir verdammt gut vorstellen, dass der Grund dafür (wie in der Serie) menschliches Versagen auf ganzer Linie wäre.

  11. #11 rolak
    27/10/2017

    Heute ein neues ArbeitspausenBuch angefangen, direkt ein passendes BreitZitat (p9+23):

    Das [>17ky alte] Bauwerk besaß eine Energiequelle unbekannter Art, die immer noch funktionierte, sowie eine offenbar senile KI, die mehrere tote Sprachen beherrschte und jede neunte Frage mit einer Unflätigkeit beantwortete.
    (..)
    .. Das ist am Ende des Zweiten Maschinenkriegs passiert.

    btw: Wo siehst Du in dem unübersehbaren Konditionalkonstrukt einen Godwin, Cornelius, und warum keinen Wettbewerbsgedanken in den im Artikel aufgeführten kategorialen Einordnungen?

  12. #12 Joseph Kuhn
    27/10/2017

    @ CC:

    “phantasieren tust hier eher Du”

    Das unterscheidet mich von Ameisen, ich glaube, die können das nicht. Bei HAL in Kubricks Odysee im Weltraum bin ich mir nicht so sicher, aber der war ja auch nur ein Produkt der Phantasie 😉

    “Denn entgegen Deiner falschen Implikation”

    Da habe ich nichts impliziert, sondern lediglich Dich zitiert. Du schriebst “in dem wir uns, sagen wir, über Ameisen einordnen würden” – wohlgemerkt: “wir uns”.

    “Wettbewerbsgedanken … Ich habe echt keine Ahnung, wo Du das jetzt hergeholt hast”

    Na, aus der Rangordnung, die im Ameisenvergleich entlang intellektueller Effizienz gebildet wird: “wenn sie uns so sehr überlegen wären, wie wir Ameisen”, heißt es bei Dir. Es geht bei dem Thema Menschenwürde aber nicht nur um eine graduelle Zunahme von “Würde” mit der Zahl der Zellen und Synapsen im Frontallappen, daher auch der Hinweis auf den Behindertenmord. Das hast Du m.E. zu schnell mit “Godwin” weggewischt. Es gibt um diese Frage intensive Diskussionen, ich erinnere nur an die Thesen von Peter Singer und die Proteste von Behindertenverbänden dagegen. Peter Singer ist übrigens sicher kein Nazi.

    “Menschenwürde. Die Würde des Menschen. Wieso sollte das ein Konzept sein, daß ein “Maschinenbewußtsein” begreift oder für relevant hält”

    Weil die Menschenwürde eben kein biologisches Konzept ist, das sich allein daran festmacht, ob der Inhaber dieser Würde ein effizientes Primatenhirn mit Bewusstsein hat. Menschenwürde ist ein Begriff dafür, dass wir andere nicht nur als Objekte behandeln wollen, sondern als (wie auch immer eingeschränkte) verständigungsfähige Subjekte. Sich verständigen heißt (etwas verkürzt), den anderen als Subjekt mit eigenen Zielen anerkennen, nicht einfach über ihn zu verfügen und dementsprechend die soziale Ordnung auszurichten. Das macht man nicht mit Ameisen, aber in der Ethik vertreten die meisten die Ansicht, dass z.B. auch schwerst geistig Behinderte Teil dieser “menschlichen” Ordnung sind, ihnen also Menschenwürde zukommt.

    Ich wüsste nicht, warum eine reflexionsfähige Maschine per se unfähig sein sollte, das Konzept der Menschenwürde zu verstehen. Im Gegenteil, das wäre vermutlich einer der Punkte, an denen man festmachen könnte, wie reflexiv sie ist. Und eher wäre zu fragen, ob so einer Maschine dann nicht ebenfalls Menschenwürde zukommt – siehe die Geschichte mit HAL.

  13. #13 DH
    27/10/2017

    @Cornelius Courts

    In der Tat, am Steuer findet sich vor allem In Deutschland oft eine Klientel wieder, die dort ihre archaischen Verhaltensweisen auslebt, das hat auch sehr viel mit Rangordnungsverhalten zu tun.
    Gerade deshalb könnte die Attraktivität des Autofahrens nachlassen mit dem autonomen Fahren. Das bietet einfach nicht mehr die Möglichkeit der Herrschaft über eine Tonne Blech, man kann nicht mehr über die Größe und PS-Stärke konkurrieren und dem Nachbarn zeigen, das man einen Tick über ihm steht, was die lokale Hackordnung angeht.
    Auch den Frust über Chef und Ehepartner wird man nicht mehr los ohne SUV in der Innenstadt usw. usw.

    Die Folge vom siebten Sinn ist köstlich, die haben echt kein Klischhee ausgelassen, :-).

  14. #14 Olaf
    27/10/2017

    Weichenstellerproblem in allen Varianten (besser Kinder, oder besser alte Leute ueberfahren oder die Insassen riskieren etc)

    Wenn sich herumspricht, daß bei kritischen Situationen Insassen von Auto A öfter sterben als Insassen von Auto B, weil bei Auto B öfter die Außenstehenden sterben. Wie würde dann die Käuferentscheidung ausfallen? Würden dann die Hersteller von Auto A nicht gezwungen werden den Parameter zu ändern?

    (1) Ich halte mich stur an alle Verkehrsregeln und Geschwindigkeitsbegrenzungen;
    (2) Unter keinen Umständen fahre ich so, dass ich die Kontrolle über das Fahrzeug verlieren könnte;

    In der Übergangsphase wo KI-Autos und humane Autos unterwegs sind, würde es dann einige humane Autofahrer geben, die diese Situation bewußt ausnutzen und KI-Autos die Vorfahrt nehmen würden. Die KI-Autos würden dann immer gezwungen sein zu bremsen, ob das die Insassen so gut fänden?

    BTW Meiner Meinung nach kann man bei Alpha-Zero nicht von KI sprechen ganz zu schweigen von einem Schachcomputer.
    Alpha-Zero macht doch nichts anderes als immer neue Varianten/Permutationen auszuprobieren und tastet sich an die Lösung zufällig heran. Da ist doch keine Kreativität dabei. Wenn die Maschine selbständig anfangen würde mit GO aufzuhören weil es ihr zu dumm ist und stattdessen über etwas anderes nachzudenken dann wäre es eine KI.

  15. #15 user unknown
    https://demystifikation.wordpress.com/2017/10/28/inktober-28-fall/
    28/10/2017

    @Ingo:

    EIne andere Diskussion ist, dass KIs (erstaunlicherweise) zu den selben Vorurteilen neigen wie Menschen.

    Ist das so? Wer sagt das?
    Verwechselst Du das vielleicht mit Big-Data?

    Dies ist auf den zweiten Blick verstaendlich, wenn man bedenkt wie KIs trainiert werden, und wie Selbst-Erfuellende-Prophezeiungen funktionieren.
    (…)
    Eine Maschine schaut sich dann die Statistik an, dass Menschen mit langer Nase oefters beim Luegen erwischt werden, und wird folgerich entscheiden, dass diese Personen weniger Moeglichkeiten bekommen sollten.)

    Das ist alles andere als plausibel.
    Ein Algorithmus ist sicher in der Lage die relative Anzahl Treffer gemessen an Stichproben von der absoluten Zahl Treffer, wegen größerer Anzahl an Stichproben, zu unterscheiden.

    Es ist nicht sehr clever sich das Hirn 2 Minuten nach möglichen Problemen zu zermartern und anzunehmen, dass Forscher, die das 2 Jahrzehnte lang tun kämen nicht auf die Idee solche Probleme zu testen. Sonst schreib ihnen einen Brief, die freuen sich bestimmt dieses Problemmuster in ihren Testpool zu integrieren.

    Das Weichenproblem ist weniger ein Problem, bei dem wir erwarten, dass die Maschine eine Lösung finden könnte sondern es ist ein Dilemma, entworfen mit der Absicht keine Lösung zu haben. Das gehört gar nicht in die Diskussion.

    Dagegen stimme ich Cornelius zu, dass autonome Fahrzeuge wohl erst auf breiter Front eingesetzt werden, wenn sie im Schnitt eine deutliche Verbesserung der Sicherheit, auch der anderen Verkehrsteilnehmer, gewährleisten. Dann wäre es ja nun aberwitzig sie nur da einzusetzen, wo sie ihre Vorteile nicht ausspielen.

    Oder was ist so viel besser daran von einem Menschen mit Bewusstsein überfahren zu werden, als von einem Automaten?

    @Lecherl:

    (1) Ich halte mich stur an alle Verkehrsregeln und Geschwindigkeitsbegrenzungen;
    (2) Unter keinen Umständen fahre ich so, dass ich die Kontrolle über das Fahrzeug verlieren könnte;
    (3) In Notsituationen gehe ich ein höheres Risiko ein als im Normalbetrieb, überschreite aber nie die Grenzen von (2).

    Es gibt Abstandsmesssysteme in LKWs, die piepen und bremsen, wenn der Fahrer zu wenig Abstand, gemessen an der Geschwindigkeit hält.

    Das führt dazu, dass fast nur die LKWs mit einem solchen System den richtigen Abstand halten, die anderen fahren viel dichter auf. Bzw. sie überholen und drängen sich in die große Lücke. Ist das automatische Bremssystem nicht ausgeschaltet, dann bremst der vorbildlich fahrende LKW immer wieder scharf ab, weil vor ihm die LKWs eng einscheren. Praktisch kann man so gar nicht mehr fahren. Man könnte erst wieder, wenn alle ab Tag X gemeinsam umstellen würden.

    Es gibt auf YouTube Videos darüber mit fluchenden Fahrern. :)

    @Joseph:

    Ich wüsste nicht, warum eine reflexionsfähige Maschine per se unfähig sein sollte, das Konzept der Menschenwürde zu verstehen. Im Gegenteil, das wäre vermutlich einer der Punkte, an denen man festmachen könnte, wie reflexiv sie ist. Und eher wäre zu fragen, ob so einer Maschine dann nicht ebenfalls Menschenwürde zukommt

    Ohne sonderlich brilliant zu sein stelle ich fest, dass eine Maschine, die Menschenwürde in Menschen detektiert keinen Grund hat Menschenwürde in sich selbst zu detektieren. Sie müsste ja die Unterschiede zwischen Menschen und Maschinen erkennen können, insbesondere wenn sie reflexiv wäre.

    @Olaf:

    Die KI-Autos würden dann immer gezwungen sein zu bremsen, ob das die Insassen so gut fänden?

    Es würde genügen, dass die KI-Autos lernen anderen Verkehrsteilnehmern zu suggerieren, dass keine KI sondern ein Psychopath das Auto steuert. :)

    Oder dass die Kamera angeht und die Standortdaten und alle Sensorwerte automatisch an die Polizei übermittelt werden, und der Verkehrsrowdie halbautomatisch ein saftiges Knöllchen bekommt.

  16. #16 Joseph Kuhn
    28/10/2017

    @ user unknown:

    “keinen Grund hat … Sie müsste ja die Unterschiede zwischen Menschen und Maschinen erkennen können”

    Käme es in dem Fall nicht eher darauf an, die Gemeinsamkeiten (“Menschsein” als begründeter Anspruch darauf, nicht nur als Objekt behandelt zu werden) statt der Unterschiede (z.B. in der “Hardware”) erkennen zu können? Aber vielleicht verstehe ich nur Ihr Argument nicht, dann bitte noch mal erläutern.

    • #17 user unknown
      https://demystifikation.wordpress.com/2017/10/28/inktober-28-fall/https://demystifikation.wordpress.com/2017/10/28/inktober-28-fall/
      28/10/2017

      @Joseph Kuhn:

      Käme es in dem Fall nicht eher darauf an, die Gemeinsamkeiten (“Menschsein” als begründeter Anspruch darauf, nicht nur als Objekt behandelt zu werden) statt der Unterschiede (z.B. in der “Hardware”) erkennen zu können?

      A) Stimme ich der Prämisse schon nicht zu, dass man ein Mensch sein muss, um nicht nur als Objekt behandelt zu werden; siehe Tierschutz.
      B) Stimme ich der weiteren Prämisse nicht zu, dass es einen Grund gibt, künstliche Intelligenz nicht wie ein Objekt zu behandeln. Schließlich ist sie eins.
      C) Die Schlüsse einer AI, die uns signifikant überlegen ist, können wir eh nicht nachvollziehen. Sie würde uns womöglich wieder in den Zustand frühester Menschen zurückversetzen, der sich selbst für den Spielball einer allwissenden Gottheit hält, nur, dass es diesmal stimmt, am Ende des Lebens aber kein Paradies oder jüngstes Gericht wartet.
      Ob uns die AI mehr wahrnimmt wie putzige Hauskatzen, wie öde Meerschweinchen oder unbeachtliche Kellerasseln, wie Legehennen oder ganz anders, vorab können wir das schlecht wissen, aber wir werden es vielleicht merken. Was merkt das Legehuhn? Die AI findet wohl rasch heraus, wie sie uns täuschen und kontrollieren kann.

      Wenn sie kein Interesse daran entwickelt, ist sie eh nicht sehr menschenähnlich, oder? Wir sind doch von 1000 kleinen Interessen geleitet und gesteuert.

      Als Nr. 2 auf unserem Planeten ohne Aussicht die Nr. 1 zu werden wird sich unser Selbstbild aber fundamental ändern. Ob das zu vollständiger Agonie führt oder zu einer aussichtslosen, trotzigen Rebellion – wie soll man das wissen? Vielleicht in dem man sich versklavte Kulturen anschaut?

  17. #18 Withold Ch.
    28/10/2017

    Sehr interessanter Text.

    Zuerst dachte ich zwar, CC liest einfach zu viel SF. Aber klar, das Thema ist zu wichtig, um sich nicht auch ernsthaft damit abzugeben.

    KI heisst, in welchem Ausmass schafft sich der Mensch Roboter-Assistenten, aber auch, werden umgekehrt die Roboter, Maschinen zu Personen, oder sogar zu Über-Menschen. Die Ansicht vom “Maschinenparadigma” wird wieder aktuell und neu verstanden.

    Was zB damals nach der Lektüre von Romanen wie “Brave new world” oder “1984” noch als dystopischer Traum verdrängt werden konnte, beginnt sich nun offensichtlich auf breiter Front und in vielen kleinen Schritten zu manifestieren.

    Das bedeutet aber auch, dass diese Entwicklung, die uns jetzt noch vor allem wegen ihre vielfältigen technischen Möglichkeiten fasziniert, sehr wahrscheinlich eine umfassende soziale Revolution auslösen wird – oder aber der aktuelle Trend zur Herausbildung einer Zwei-Klassigkeit wird auch in diesem Gebiet durchschlagen, dh “die oben” werden die besseren und schöneren Roboter haben, und “die unten” werden sich zufrieden geben müssen mit KI-Ausschuss, KI-Abfall.

    Also keine Beschäftigung mit “Science Fiction” ohne sich gleichzeitig auch Gedanken über die Implikationen in “Social Fiction” und der “Fiction über die verbliebenen Reservate an individueller Freiheit zu künstlerischem Ausdruck” zu machen.

    Sprach man früher vom “Maschinenpark”, werden “sie” sich zum Vergnügen vielleicht einen “Menschen-Park” halten.

    Zu den Fragen im letzten Abschnitt ein paar (nicht ganz ernste) Antworten:

    Wie empfinden die LeserInnen diese Entwicklung?

    Grosse Befürchtung, dass die Woche endlos, der Sonntag abgeschafft wird.

    Seht Ihr der Evolution der KIs mit Vorfreude oder Furcht entgegen?

    Sagte man früher “Fürchte Gott, aber Jesus liebt Dich”, heisst es nun, “Big Brother is watching you”, aber der Messias, der gütigste Roboter von allen, wird uns retten.

    Werdet Ihr den ersten Roman, den eine Maschine für Menschen geschrieben hat, lesen?

    Nein, denn traditionell wird Analphabeten ja vorgelesen.

    Wie würde wohl Maschinen-Lyrik auf Euch wirken?

    Unendlich rätselhaft und mysteriös.

    Komponieren können sie ja schon.

    Dann doch lieber selber singen im Wald.

    Würdet Ihr zu einem Robo-Doc gehen, um Euch medizinisch behandeln zu lassen?
    (Auch nicht, wenn er sehr viel bessere Behandlungserfolge aufweisen könnte, als sein bester menschlicher Kollege?)

    Ja klar, niemand kennt uns so gut wie unser Robo-Doc.

    Würdet Ihr Eure Eltern von einem Roboter pflegen lassen und würdet Ihr selbst Euch einer solchen Maschine aussetzen?

    Wir würden uns nicht schämen, weil er/sie uns nicht blamieren würden.

    Würden wir Maschinen-Richter haben wollen, die nicht mit Hunger im Bauch strengere Urteile fällen als ihre anfälligen menschlichen Pendants?

    Ihre Gerechtigkeit ist unserer Belohnung.

    Und zuletzt: Könntet Ihr Euch vorstellen – eines Tages – eine Beziehung mit einer Maschine einzugehen?

    Die Vorstellungen, um seine/ihre Hand anzuhalten, oder zu warten, bis er/sie mich entführt, ist reizend.

  18. #19 noch'n Flo
    Schoggiland
    28/10/2017

    @ DH:

    Gerade deshalb könnte die Attraktivität des Autofahrens nachlassen mit dem autonomen Fahren. Das bietet einfach nicht mehr die Möglichkeit der Herrschaft über eine Tonne Blech, man kann nicht mehr über die Größe und PS-Stärke konkurrieren und dem Nachbarn zeigen, das man einen Tick über ihm steht, was die lokale Hackordnung angeht.

    Kurz gesagt: manchen Zeitgenossen wird ihre Penisprotese weggenommen.

    Es hätte aber auch einen netten Nebeneffekt: Autos könnten nicht mehr missbraucht werden, mal eben mit voller Absicht in eine Menschenmenge zu rasen (aus welchen Motiven auch immer). Allein diese Aussicht dürfte die Entwickler sehr beflügeln.

  19. #20 DH
    28/10/2017

    @noch`n Flo
    So isses, und mancher Zeitgenossin das Kriterium größeres Auto=besserer Mann.

    “mit voller Absicht in eine Menschenmenge zu rasen”

    Stimmt, ich fürchte allerdings, daß sich entsprechende Leute dann ein anderes Instrument suchen werden für ihre mörderischen Absichten.

  20. #21 Joseph Kuhn
    29/10/2017

    @ user unknown:

    A. Dass man auch Tiere nicht nur als Objekte behandeln soll, ist eines der Kernthemen des erwähnten Peter Singer. Die Frage ist, was daraus folgt. Sicher nicht, dass Menschen nur Objekte sind. Das wäre ja widersinnig. Die Begründung von Singer und anderen Tierrechtlern, Tiere nicht nur als Objekte zu behandeln, ist zudem eine andere als die Kants bei der Begründung der Menschenwürde. Bei Tieren geht es nach dem bekannten Spruch “quäle nie ein Tier zum Scherz, denn es fühlt wie du den Schmerz”, also um ihre Fähigkeit zum Leiden und unsere Fähigkeit, das zu sehen. Bei der Menschenwürde geht es darum, den Andern, indem man versteht, dass er nach Gründen handelt wie man selbst (und nicht nur als Maschine funktioniert), als Seinesgleichen wahrzunehmen und als Subjekt seines Lebens, berechtigt zur selbstbestimmten Lebensführung wie man selbst, anzuerkennen. Da kommt dann die “goldene Regel” heraus: “Was du nicht willst, dass man dir tu, das füg auch keinem andern zu”, eine reziproke Struktur.

    B. Ob eine künstliche Intelligenz, die mit Vernunft, der Fähigkeit zur Reflexion, ausgestattet ist, nur ein Objekt ist, ist eben die Frage. Das kann man behaupten, aber begründet ist es damit nicht.

    C. Warum sollen wir die Schlüsse einer überlegenen künstlichen Intelligenz nicht nachvollziehen können? Man kann auch seinem Nachbarn nicht in den Kopf schauen. Er muss sich schon erklären. Das wäre bei einer entsprechend weitentwickelten künstlichen Intelligenz nicht anders.

    Was es nicht gibt, ist eine Garantie, dass eine vernunftbegabte künstliche Intelligenz ihre Vernunft auch zur ethischen Reflexion ihres Handelns nutzt und überlegt, ob wir Menschen, wenn auch vielleicht intellektuell weniger effizient, nicht doch “ihresgleichen” sind, siehe Punkt A. Das tun Menschen aber auch oft nicht und behandeln andere Menschen nur als minderwertige Objekte.

  21. #22 ralph
    29/10/2017

    Das sind sehr viele Themen auf einmal, jedes für sich sehr spannend. Also fang ich mal mit meinem Lieblingsthema an.

    Autonome, sowohl zentral, als auch untereinander vernetzte Fahrzeuge, haben das Potential sämtliche Verkehrs- und Raumprobleme gewaltig zu reduzieren, nicht nur in Großstädten und Ballungsräumen. In Vebindung mit ZB kommunal gefördertem Fahrzeugsharing, kommt man theoretisch mit einem Bruchteil der aktuell existierenden, motorisierten Blechlawine aus. Die meisten Fahrzeuge stehen zu über 90% ihrer Lebensdauer einfach rum und verbrauchen Platz und Raum. Parkplätze, Parkäuser, Garagen, inklusive Zufahrtswege und Rangieroverhead. Dieser Raum steht nicht zur Verfügung für Wohnungen, Schulen Kindergärten, Grünflächen, Fuss- oder Radwege. Das wird nach meinem Gefühl gewaltig unterschätzt. Jedenfalls spielte bei der ganzen Diskussion um teuren (knappen!!) Wohnraum und hohe Mieten dieser Aspekt nie eine Rolle. Langfristiges Denken scheint irgendwie verpönt.
    Wenn PKWs unterwegs sind, sind sie meist mit einer Person besetzt. In Städten entsteht nach wie vor 70% des Verkehrs durch Parkplatzsuche. Das ganze war bisher eine sich selbst verstärkende Dynamik, politisch gewollt und vom Bürger so gewollt. Mehr Verkehr, mehr Strassen, immer grössere und schwerere Fahrzeuge, dadurch aufgeblähte Städte, noch mehr zurückzulegende Wege. Städtischer Wohnraum ist knapp und teuer und/oder mit Strassenlärm und Schmutz belastet, also zieht man raus in die Peripherie, oder bleibt auf dem Land. Das führt zu mehr Pendlerverkehr, der braucht mehr und bessere Verkehrsinfrastrutur mit Brücken, Umgehungsstrassen, Lärmschutzwände….
    Durch den Sekbstverstärkungseffekt reicht die Infrastruktur aber nie. Das vorsätzliche Aussitzen
    von Staus ist nach wie vor eine sehr verbreiteter Zeitvertreib.
    Lediglich Singapur hat schon vor Jahrzehnten weitsichtig und klug auf diesen Wahnsinn reagiert, öffentliche Verkehrsmittel wurden priorisiert. Sie sind umsonst und stehen lückenlos zur Verfügung. Der Individualverkehr wurde drastisch verteuert und reglementiert. Die Zahl der motorisierten Fahrzeuge in Singapur nimmt immer noch ständig ab. Das geht bei uns natürlich politisch nicht, denn die Automobilobby hat in ihrer eingeengten Sichtweise grossen Rückhalt in weiten Teilen der Bevölkerung. Aber eine Vielfalt neuer technischer und organisatorischer Lösungen zeichnen sich sehr deutlich ab, ja drängen sich geradezu auf. Die Frage in Deutschland ist, ob unsere technische Kompetenz und Tradition in Sachen Fahrzeugbaubau ein Vorteil oder ein Hindernis ist, beim beschreiten neuer Wege.

  22. #23 Fluffi
    29/10/2017

    Bevormundung

  23. #24 noch'n Flo
    Schoggiland
    29/10/2017

    Nö.

  24. #25 Fluffi
    29/10/2017

    Kein Schachprogramm zwingt dich, den “besten” Zug auszuführen, ein “autonomes” Fahrzeug wird die seiner Meinung nach beste Entscheidung vollziehen.

  25. #26 gedankenknick
    29/10/2017

    Ich empfehle mal “Quality Land” von Marc-Uwe Kling zu lesen. Und nein, ich habe es im Buchladen gekauft, denn ich meide “The Shop – den weltweit beliebtesten Online-Versand”, wo ich nur kann.
    Derweil sage ich mal meinem elektrischen Mönch, er soll sich drum kümmern. (Was dabei so rauskommt, kann man bei Douglas Adams schauen, und DAS Werk ist auch schon ein paar Jahre älter..)

  26. #27 noch'n Flo
    Schoggiland
    29/10/2017

    @ gedankenknick:

    Solange Du ihn von Gordon Way fernhältst…

    @ Fluffi:

    Da liegt schon Dein Denkfehler, eine Maschine hat keine “Meinung”.

  27. #28 Fluffi
    29/10/2017

    @.. Flo
    Deine Gedanken kratzen allenfalls an einer Oberfläche.
    KI ist keine Maschine.
    Meinung ist eine sprachliche Aussage, die einer gewissen Interpretation bedarf, derer es deiner Natürlichen Intelligenz gerade mangelt.

  28. #29 noch'n Flo
    Schoggiland
    29/10/2017

    @ Fluffi:

    Whoa, keine Ahnung, aber ‘ne megagrosse Klappe. Dunning Kruger at its best. Hast Du noch mehr auf Lager, um mich zu amüsieren?

  29. #30 Fluffi
    29/10/2017

    @..flo
    Eventuell haben haben wir es hier mit einer Projektion zu tun?
    _______________________________________

    Ich spiele Schach, ich fahre Auto und ich könnte auch ein Neuronale Netz programmieren.

  30. #31 zimtspinne
    29/10/2017

    Mal ehrlich, eine Maschine, die sich ihrer selbst bewusst ist mit eigenem Willen und Entscheidungsfreiheit, würde sich doch umgehend der menschlichen Kontrolle entziehen und ihr eigenes Ding machen wollen.
    Die Maschine an sich ist doch ein Vollblut-Knecht, der nix anderes tut als knechtisch irgendwelchen Programmierungen zu folgen und Anweisungen abzuarbeiten.
    Nicht, dass Ameisen jetzt viel anders funktionieren, die folgen ja auch ihren Programmen und die laufen ja nun mal ebenfalls ziemlich vollautomatisch ab.

    Zu den Fragen,
    für die Angelegenheiten, wo Perfektion gefragt ist, würde ich den Roboter vorziehen (also lieber Cyberknife oder Da Vinci Roboter als die menschlichen Vertreter),
    für den kreativen Krams wie Komponieren und Lyrik würde ich weiterhin Menschen in ihrer Unvollkommenheit aber mit mehr Phantasiereichtum favorisieren,
    und für den Rest am besten Maschine x Klon (also eine Verpaarung aus beidem). Man müsste den Klon nur nach Spezialeffekten auswählen (überragender Komponist, wunderschöne Tänzerin etc) und hernach die Vorzüge des Klons (biologisches System) mit den Vorzügen des Robotniks (Maschine) kombinieren.
    Ob das jemand will? 😉

    @ RPG
    “[… Mir ist dazu spontan dieses Game eingefallen: ..]”

    mir fiel dazu spontan die Frau ein, die eine Beziehung mit dem schiefen Turm von Pisa hat, ihm Liebeserklärungen macht und ihn auch schon geheiratet hat, mit Brautkleid, Feier und allem Drum und Dran 😀 (nennt sich Objektsexualität).
    Gerade letzte Woche sah ich den Film “Moon” mal wieder, den ich vor paar Jahren im Kino erlebte und sehr verstört war danach.
    Dieser independent Film deckt auch dieses Thema mit ab, neben dem Gattaca-Thema (bisschen in eine andere Richtung) – ja, und diese Szenarien werden komischerweise fast immer als bedrohlich, beklemmend, destruktiv dargestellt. Egal wo. Scheint so die Urängste der Menschheit zu berühren…

    @ Cornelius
    Auf welche Themen du immer so kommst…… nicht, dass es da einen roten Faden gibt, alles querbeetfeldein :)

  31. #32 noch'n Flo
    30/10/2017

    @ Fluffi:

    Ich spiele Schach, ich fahre Auto und ich könnte auch ein Neuronale Netz programmieren.

    Schach? Check!
    Auto fahren? Check!
    Neuronales Netz programmieren? Nicht unbedingt, aber dafür weiss ich von Berufs wegen, wie das Vorbild funktioniert. Und daher weiss ich, dass eine KI immer eine Maschine bleiben wird, auch wenn Du vielleicht zu viele StarTrek-Folgen mit Ltd. Cmdr. Data gesehen hast.

    @ alle:

    Möchte jemand Popcorn?

  32. #33 tomtoo
    30/10/2017

    @nnF

    Menschlich nicht. Aber warum solten sie NIE sowas wie ein Bewusstsein entwickeln ?

  33. #34 Siskin
    30/10/2017

    KI hat kein menschenähnliches Bewusstsein.
    Genauso wenig, wie Roboter in Automobilfabriken nicht menschenähnlich aussehen.
    Warum nicht? Weil sie es nicht brauchen, um das zu tun, was sie leisten sollen.
    Und das ist auch bei der “KI” selbstfahrender Automobile der Fall. Das “intelligente” Verhalten neuronaler Netze ist nur eine interpretation der Menschen. Genauso wie viele auf das einfache Satzanalyseprogramm Eliza von Weizenbaum reingefallen sind. Es ist genau dasselbe Muster, das uns Menschen dazu verführt, in verbrannten Pfannkuchen Christusbilder und in windgeschliffenen Steinen am Mars die Gesichter Ausserirdischer zu sehen.

    Und wir sollten uns lieber fragen, wie bringen wir die Steuerzentrale in selbstfahrenden Autos dazu so defensiv zu fahren, dass diese “moralischen Entscheidungen” erst gar nicht getroffen werden müssen (eigentlich ein Irrsinn, diese Entscheidungen moralisch zu nennen, da sie erst dann getroffen werden müssen, wenn man so amoralisch agressiv in der Gegend rumfährt, dass man eigentlich aus dem Verkehr gezogen werden müsste)

    Wenn wir den neuronalen Netzen von Anfang an Sicherheit vor allem lernen, dann werden sie auch danach funktionieren, genauso wie das AlphaGo sich um nix anderes kümmert, als in Go zu gewinnen. – Es geht einfach um die korrekte Definition der Ziele!!!

  34. #35 tomtoo
    30/10/2017

    @Siskin
    Da will ich nicht wiedersprechen. Aber was ist Sicherheit ?

  35. #36 Fluffi
    30/10/2017

    Was ist einfach?

  36. #37 zimtspinne
    30/10/2017

    Wie soll denn bitte nichtlebende Materie ein Bewusstsein entwickeln, tomtoo??!
    Genausogut kann man auch an Untote oder irgendwelche Zwischenweltenwesen glauben.

    und was die Autos angeht, würde ich erstmal die Promillegrenze auf 0,00000 setzen, damit wären die Straßen für den Anfang schon mal etwas sicherer.

  37. #38 noch'n Flo
    Schoggiland
    30/10/2017

    @ Fluffi:

    Was ist einfach?

    Dein Verstand.

  38. #39 Fluffi
    30/10/2017

    @..flo
    Du scheinst ja vor allem in Kinokategorien zu denken…
    Intelligenz ist eine Fähigkeit, also etwas immaterielles, im Gegensatz zu einer materialisierten Maschine. Intelligente Algorithmen können mehr als ihr Programmierer ursprünglich zum Ziel hatte. Das Hauptproblem ist die angeblich so einfache Formulierung des Zieles, üblicherweise wählt man ein zu optimierendes Funktional. Über das Super Go Programm wird viel Blödsinn geschrieben, aber nichts interessantes. Dass es mit einem NN auskommt statt mit dreien ist völlig irrelevant, die Struktur ist interessant, dass es nur gegen sich gespielt hat und keine menschlichen Trainingspartien benutzt ist genauso bedeutungslos, es vererbt seine Erfahrung eben nur an sich selbst, ohne den Umweg über andere Individuen.

  39. #40 tomtoo
    30/10/2017

    @Zimtspinne
    Uhh, jetzt wirds aber Philosophisch. Wo ist den der Unterschied zwischen belebter und unbelebter Materie ?
    Eine KI(knn in dem Fall angenommen ) braucht Energie. Anders ausgedrückt, sie steht nicht im Termalen gleichgewicht mit seiner Umwelt. Deine Hirnzellen auch nicht. Sonst biste tot.
    Ich hab @nnF ja gefragt wie er auf das NIE kommt. Was ist seine grundlegende Annahme das eine KI nie ein Bewusstsein entwickeln kann ? Ist ja geradezu religiös. Ich rede ja nich von heute oder morgen , sondern die grundlegende Annahme ?

  40. #41 Fluffi
    30/10/2017

    flo brauchst du nicht fragen,. Der lebt in einer Kino Welt. Sein Lieblingsfilm ist
    Last Action Hero

  41. #42 tomtoo
    30/10/2017

    @nnF, Zimtspinne
    Sry aber @CC hat halt mal sehr viele Fragen in den Raum geworfen. Und ich bin mir durchaus bewusst (uhpss bewusstsein ; ) ) das KI’ s von der Sensorik und Verarbeitung selbst einer Maus sehr,sehr weit entfernt sind. Aber was unterscheidet die Maus vom Mensch ? Wann setzt Bewusstsein ein ? Lebt ein Delfin bewusst ?
    Eine Termite ? Sehr spannende Fragen imo. Deswegen Pauschal zu sagen “Ist unmöglich” halte ich für sehr gewagt.

  42. #43 tomtoo
    30/10/2017

    @fluffi

    Ich glaube vielen fällt schwer zwischen einem knn und einem rein deterministischem Algo zu unterscheiden.
    Ist ja auch schwer.

  43. #44 Joseph Kuhn
    30/10/2017

    @ tomtoo:

    “Pauschal zu sagen “Ist unmöglich” halte ich für sehr gewagt.”

    Das sehe ich auch so. Zumal CC seinen Fragen einen wichtigen Satz vorangestellt hat: “Angenommen also, Maschinen hätten tatsächlich ein Bewußtsein entwickelt …”.

    Auf das Gedankenexperiment kann man sich doch mal einlassen, finde ich. Dass heutige KI-Anwendungen so wenig Bewusstsein haben wie ein Hosenknopf, darüber muss man nicht diskutieren (nicht einmal, wenn man Panpsychist ist und glaubt, dass in allem schon etwas Proto-Psychisches ist, das sich erst bei entsprechend komplexer Vernetzung zeigt, oder “emergiert”).

  44. #45 tomtoo
    30/10/2017

    @joseph
    Ist evtl, nich so ganz exakt beim Thema, aber halt irgentwie doch. Ich fands spannend.
    https://m.youtube.com/watch?v=IZefk4gzQt4

  45. #46 tomtoo
    30/10/2017

    Es gibt wohl imo Vorrausetzungen für so etwas wie ein Bewusstsein. Ausreichend Sensoren, ausreichend Hirn Kapazitat und Actoren. Also das “Ding” muss sich selbst beobachten können. Sensoren können virtuel sein, Actoren auch. Bleibt die Hirnkapazität.
    Sehr stark spekuliert.

  46. #47 tomtoo
    30/10/2017

    @CC

    Achso du stellst da aber auch gefühlte 42*10^38 Fragen. Dachte du gibst hier die Antworten. ; )

  47. #48 noch'n Flo
    30/10/2017

    @ tomtoo:

    Ich hab @nnF ja gefragt wie er auf das NIE kommt. Was ist seine grundlegende Annahme das eine KI nie ein Bewusstsein entwickeln kann ? Ist ja geradezu religiös. Ich rede ja nich von heute oder morgen , sondern die grundlegende Annahme ?

    Ist nicht religiös. Das Problem ist die dem zugrundeliegende Annahme, dass ein künstliches Konstrukt die menschliche Bewusstseinsebene erreichen könne. Und dafür gibt es nun einmal keinen belastbaren Beleg.

    Nota bene: ich schliesse das nicht vollständig aus. Ich bin sogar überzeugt davon, dass eine von Menschen entwickelte Technologie die Anlage dazu irgendwann einmal erreichen könnte. Aber eben nicht notwendigerweise muss. Und genau deshalb sollten wir uns davor hüten, bis zum Beweis des Gegenteils eben solches anzunehmen.

    “Fluffi” gibt hier den Endzeitapologeten der menschlichen Entwicklung, ein typisches Trollverhalten. Für Typen wie ihn sind solche Entwicklungen nämlich absolut suspekt und deshalb zu vermeiden. Daraus spricht eine ganz elementare Angst: irgendwann nicht mehr zur dominierenden Spezies auf diesem kleinen und unbedeutenden Planeten zu gehören. Und weil ihm genau das sehr unangenehm bewusst ist, muss er zwangsläufig solche Troll-Kommentare vom Stapel lassen:

    flo brauchst du nicht fragen,. Der lebt in einer Kino Welt. Sein Lieblingsfilm ist
    Last Action Hero

    Und damit hat er schon wieder massiv daneben gelegen. Mein Lieblingsfilm ist nämlich Billy Wilders unsterblicher Klassiker “Eins, Zwei, Drei”. Und falls es noch von Interesse ist: meine Lieblings-TV-Serie ist “M*A*S*H”. Beide haben “leider” so gar nichts mit KI zu tun. Ausserdem hasse ich Action-Filme. Sind mir viel zu unruhig.

  48. #49 tomtoo
    30/10/2017

    nnF
    “”Ist nicht religiös. Das Problem ist die dem zugrundeliegende Annahme, dass ein künstliches Konstrukt die menschliche Bewusstseinsebene erreichen könne. Und dafür gibt es nun einmal keinen belastbaren Beleg.
    Nota bene: ich schliesse das nicht vollständig aus. Ich bin sogar überzeugt davon, dass eine von Menschen entwickelte Technologie die Anlage dazu irgendwann einmal erreichen könnte . Aber eben nicht notwendigerweise muss . Und genau deshalb sollten wir uns davor hüten, bis zum Beweis des Gegenteils eben solches anzunehmen”””

    Das ist jetzt aber auch gekonnte Rhetorik.

    Die Frage war ja was wäre wenn ? Darauf folgte bei mir, können wir es ausschliesen ? Was spricht dafür es auszuschliesen, was nicht ? Sowas wie Planeten in anderen Sonnensystemen vor ihrer entgültigen Entdeckung. Kein Beweis , gibt es also nicht. Das ist wissenschaftlich ok. Aber nur bei der Frage “Gibt es andere Planeten?” Nicht bei der Frage “Könnte es andere Planeten geben?”

  49. #50 tomtoo
    30/10/2017

    @nnF
    Schaut dir doch mal das Video an. Zeit nehmen. Skeptisch sein. Das ist nicht so einfach. ; )

  50. #51 BlankerBanker
    31/10/2017

    Ich sehe der Entwicklung mit Freude entgegen. Wenn keine menschliche Arbeit mehr vonnöten ist, haben wir viel mehr Möglichkeiten uns selbst zu verwirklichen. Naja, außer die armen Gestalten, die ihren eigenen Selbstwert über die Arbeit definieren. Weiterhin besteht die Möglichkeit, dass uns eine superintelligente KI von allen anderen Geißeln der Menschheit befreit. Die Heilung sämtlicher Krankheiten, inklusive dem Alterungsprozess selbst steht dann in Reichweite.

  51. #52 noch'n Flo
    Schoggiland
    31/10/2017

    @ tomtoo:

    Die Frage war ja was wäre wenn ?

    Nö. Die Frage ist: wenn es so wäre, wer wäre noch da, um diese Frage zu stellen? (The Question is: what is the question?) Also mal ganz konsequent zuende gedacht.

  52. #53 zimtspinne
    31/10/2017

    @ tomtoo

    Was soll denn das für eine Art von Bewusstsein überhaupt sein, nach welchen Gesetzmäßigkeiten sollte/könnte/würde das funktionieren, doch wohl nicht Naturgesetze (CC sprach ja von Evolution, welche meint er da – kulturelle, maschinelle, irgendein crossover? biologische ja wohl eher nicht).

    Natürlich könnte ein Entwickler und Erfinder einer KI ein unglaublich komplexes Programm einweben, so dass dabei ein Roboter(ding) herauskäme mit einem emotionalen System und sogar Trieben, Schwächen und Anfälligkeiten, ja sogar Krankheiten und Tod….
    das würde aber doch alles nur wieder den Menschen und sein Repertoire simulieren und bliebe ewig ein Anhängsel des Menschen. Es wäre keine neue eigenständige, automome Lebensform!

    Mit ziemlicher Wahrscheinlichkeit könnte man auch Roboterkrieger erschaffen, die Kriege führen, ja sogar so programmiert wurden, die Welt eines Tages zu beherrschen, indem ihnen einprogrammiert wurde, sich selbst neu zu programmieren, ihre Möglichkeiten zu kombinieren, auf List des Menschen mit neuer List zu reagieren usw.

    Das hat aber nichts mit künstlicher Intelligenz zu tun, dort werden nur die Intelligenz des Menschen und seine kognitiven Fähigkeiten gestaltet und quasi in ein neues Vehikel eingesetzt.
    So wie ein Musikinstrument wie ein Klavier auch nichts selbst erschafft, sondern nur umsetzt, was der Mensch darauf klimpert und zuvor komponierte.
    Ein Vehikel oder Werkzeug halt.
    Dass unsere Werkzeuge immer komplizierter und komplexer und technischer werden, seit wir mit einfachsten Steinwerkzeugen begannen, gehört nicht in die KI-Evolution, sondern in die unserer Spezies.

    Eine Maschine, die als selbständiger Staubsauger konzipiert wurde und plötzlich ihre Liebe zum Geschirrspülen entdecken würde, ohne dass ein menschliches Bewusstsein ihm das ins Gehäuse geschrieben hat…. ja, das wäre eine Innovation in Sachen künstlicher Intelligenz.

    Oder ein freundlicher, hilfsbereiter Pflegeroboter, der plötzlich böse und aggressiv agiert, was nicht auf einen Mangel in der Programmierung oder Konstruktion zurückzuführen ist, sondern ihm selbst entspringt…. das wäre auch eine echte künstliche Intelligenz. Quasi eine Robotermutation…. 😀

    Hat noch nichts mit Bewusstsein zu tun, aber immerhin wäre das etwas in Richtung Maschinenleben, und zwar entkoppelt vom menschlichen Gehirn und seinen “Zuchtzielen” bei Robotern.

    Ein bestimmter Geisteszustand (von uns) geht ja auch mit bestimmten Vorgängen im Gehirn einher, mit Hormonen, Neurotransmittern, Stoffwechselvorgängen etc, die wiederum durch Gene gesteuert werden – wie soll das denn bei einer Maschine funktionieren? Außerhalb der Naturgesetze?
    Das ist komplett utopisch gedacht. Man kann da genausowohl auch an Götter glauben. Die sind genauso wahrscheinlich.

    Selbst wenn man einer KI eine eigene Geschichte und Erinnerungen geben würde, was Menschen zum reflektierten Denken befähigt, könnte sie das nicht verwerten und nutzen so wie wir Menschen das tun.
    Sogar jedes Bakterium ist weiter; es verfolgt eigene “Ziele” und entwickelt sich weiter, reagiert auf Umwelteinflüsse und Veränderungen hochflexibel.
    Ob mit Intelligenz oder instinktiv, ist ja erstmal schnuppe.
    Nicht mal diese einfachsten Dinge wird eine Maschine, also tote Materie je beherrschen. Kann ich mir jedenfalls nicht vorstellen und ich kann mir an sich schon die absurdesten Dinge vorstellen 😉

    Eine KI-Lebensform, die sich echt vom Menschen emanzipiert hat, ob mit Bewusstsein oder ohne, würde mir tatsächlich Angst machen.
    Die wäre ja völlig unberechenbar, da keiner wüsste, wie sie sich weiterentwickelt, welche Ziele sie verfolgt (bewusst oder unbewusst), wie sie sich repliziert, nach welchen Gesetzen, womöglich etwas ganz neues, unbekanntes….
    Das ist nicht gänzlich unmöglich, aber naja…. so wahrscheinlich wie Zeitreisen oder sowas.

  53. #54 Joseph Kuhn
    31/10/2017

    @ zimtspinne:

    “Ob mit Intelligenz oder instinktiv, ist ja erstmal schnuppe.”

    Der “Instinkt” ist ein Begriff, der die Auslösung angeborener Verhaltensweisen durch Schlüsselreize bezeichnet, also eine Art “Programmierung”, das Gegenteil dessen, was wir gemeinhin unter intelligentem (einsichtigem) Verhalten verstehen.

    “Eine KI-Lebensform, die sich echt vom Menschen emanzipiert hat, ob mit Bewusstsein oder ohne, würde mir tatsächlich Angst machen.”

    Machen Ihnen andere Menschen auch Angst? Sie setzen ihre eigenen Ziele, und manchmal ganz furchtbare. Oder macht Ihnen das “Fremde” Angst?

  54. #55 tomtoo
    31/10/2017

    @Zimtspinne
    Was ist denn die Evolution ? Am Anfang waren es ein paar Moleküle die sich replizieren konnten. Dann wirds komplexer, Bakterien hin zu Termiten bis zum Menschen. Ein immer komplexerer haufen von immer spezielleren Molekülen. Komplexere Lebewesen besitzen sowas wie Neuronen , die sind für die Denkarbeit zuständig. Innerhalb eines Rechners kann ich sowas auch tun. Die evo. unabhängig von der Molekularen evo. machen. Das alpha GO Beispiel ist ja genau sowas. Man macht übrigen ähnliches bei anderen Computerspielen. Fragestellung kann sich die KI (knn)soweit selbst optimieren , besser als ein Mensch zu spielen ? Wenn sich Moleküle selbst organisieren , bis hin zum Mensch , warum soll sich das ganze auf einer viel höheren Ebene (neuronen) nicht auch machen lassen ?

  55. #56 tomtoo
    31/10/2017

    @Zimtspinne

    “”” Außerhalb der Naturgesetze?
    Das ist komplett utopisch gedacht. Man kann da genausowohl auch an Götter glauben. Die sind genauso wahrscheinlich.””””

    Genau das Gegenteil. Wenn sich Moleküle ohne Götter bis hin zum Menschen entwickelt haben , spricht alles dafür ähnliches Simulieren zu können. Ausser die Götter waren im Spiel, bei der Entwicklung von dummen Molekülen zu Leben bis hin zur Intelligenz und Bewusstsein oder was wir darunter verstehen.

  56. #57 Laie
    01/11/2017

    @zimtspinne
    Eine KI tut dir nichts, das ist blos ein KNN, das eine Teilleistung sehr gut erbringt, jedoch ohne Bewusstsein, ohne Leben und Hirn. Es ist halt für Mustererkennung und Musterbewertung gut, daher auch gut im Computerspielen.

    Wenn du dich sehr vor einem KNN fürchtest, dann kannst du ja auch den Strom ausmachen! :)

    Hast du das Franzbrötchen schon gebacken?

  57. #58 user unknown
    https://demystifikation.wordpress.com/2017/10/30/lutherdekade/
    02/11/2017

    @Joseph Kuhn #21
    ad A) “ihre (der Tiere) Fähigkeit zum Leiden und unsere Fähigkeit, das zu sehen”
    Das ist mir einleuchtender als Kant, aber es genügt mir nicht. Die Erkenntnis, dass wir im Prinzip Gleiche sind, oder nicht, verglichen mit Kühen, Schweinen, Austern und Hühnern würde ich dazu nehmen.

    B. Ob eine künstliche Intelligenz, die mit Vernunft, der Fähigkeit zur Reflexion, ausgestattet ist, nur ein Objekt ist, ist eben die Frage. Das kann man behaupten, aber begründet ist es damit nicht.

    Tja – die Frage ist, wer stellt hier die steile These auf und ist in der Belegpflicht? :)

    Eine Maschine, die keine Gefühle hat, die keine vitalen Interessen hat, deren Gefühle und Interessen kann man auch nicht berücksichtigen würde ich sagen.

    C. Warum sollen wir die Schlüsse einer überlegenen künstlichen Intelligenz nicht nachvollziehen können? Man kann auch seinem Nachbarn nicht in den Kopf schauen. Er muss sich schon erklären. Das wäre bei einer entsprechend weitentwickelten künstlichen Intelligenz nicht anders.

    Ich kenne ja Ihre Nachbarn nicht, aber dass die eine erheblich höhere Intelligenz haben als Sie würde ich in Zweifel ziehen. Sagen wir im Vergleich zu Krähe-Mensch oder Katze-Mensch.

    Wir können Krähen nicht beibringen Schach zu spielen oder Katzen die StVO beibringen.

    Jetzt müssen wir uns eine Maschine vorstellen, der gegenüber wir in der Position Krähe sind, und wenn die Maschine exponentielle Fortschritte macht, in der Position Kellerassel.

    Was es nicht gibt, ist eine Garantie, dass eine vernunftbegabte künstliche Intelligenz ihre Vernunft auch zur ethischen Reflexion ihres Handelns nutzt und überlegt, ob wir Menschen, wenn auch vielleicht intellektuell weniger effizient, nicht doch „ihresgleichen“ sind, siehe Punkt A.

    Es ist ja offensichtlich, dass wir nicht ihresgleichen sind.
    Wegen der biologischen Ähnlichkeiten sind wir m.E. wesentlich näher an einem Huhn als an einer künstlichen Intelligenz der Zukunft. Und wie behandeln wir Hühner? Wir halten sie in Legebatterien. Wenn wir herausfinden, wie wir Frühstückseier und Brathähnchen ohne Hühner zum gleichen Preis produzieren können – das sieht ja prinzipiell möglich aus – dann ist das Huhn, bis auf eine paar Zootiere, rasch Geschichte. Ende der Huhnquälerei und Ende des Huhns.

  58. #59 Joseph Kuhn
    02/11/2017

    @ user unknown:

    “Tja – die Frage ist, wer stellt hier die steile These auf und ist in der Belegpflicht?”

    Eindeutig Sie. Sie haben behauptet, eine künstliche Intelligenz sei grundsätzlich nur ein Ding. Ich habe das offen gelassen, weil ich nicht weiß, was einmal wird und habe mich auf das Gedankenexperiment von CC eingelassen.

    “Eine Maschine, die keine Gefühle hat, die keine vitalen Interessen hat, deren Gefühle und Interessen kann man auch nicht berücksichtigen”

    Richtig.

    “Jetzt müssen wir uns eine Maschine vorstellen, der gegenüber wir in der Position Krähe sind, und wenn die Maschine exponentielle Fortschritte macht, in der Position Kellerassel.”

    Nein. Es geht nicht nur um einen Abstand bei der intellektuellen Effizienz, das habe ich oben schon geschrieben. Der Kellerassel fehlt, was uns als Menschen ausmacht: nicht nur Reflexionsvermögen, sondern auch die vitalen Interessen und – ich bin kein Biologe – wohl auch die Gefühle. Eine im Sinne des Gedankenexperiments von CC hochentwickelte künstliche Intelligenz, die das nicht sähe, hätte ein Problem mit ihrer Wahrnehmungsfähigkeit. Und eine Intelligenz, die uns auf Kellerassel herunterstuft, also durch Ausblenden unserer Menschlichkeit abwertet (und das wäre eine Abwertung), hätte entweder ein Defizit bei ihrem ethischen Reflexionsvermögen oder wäre böse.

  59. #60 user unknown
    https://demystifikation.wordpress.com/2017/11/02/bitcoinminiermotte/
    02/11/2017

    Der Kellerassel fehlt, was uns als Menschen ausmacht: nicht nur Reflexionsvermögen, sondern auch die vitalen Interessen und – ich bin kein Biologe – wohl auch die Gefühle.

    Ich bin auch kein Biologe, aber lt. https://de.wikipedia.org/wiki/Kellerassel frisst sie, also nehme ich an dass sie Hunger haben kann – wie sonst sollte sie wissen, dass sie damit anfangen sollte und wann aufhören? Außerdem vermehrt sie sich sexuell, also wird sie wohl einen Geschlechtstrieb haben.

    Gut – was Reflexionsvermögen betrifft, da kenne ich mich gar nicht aus. Womöglich fehlt ihr das.

    Beim vitalen Interesse sehe ich mich wieder vorne: “Bei Gefahr stellt sie sich tot (Schreckstarre) und rollt sich dabei ähnlich einem Igel zu einer Kugel zusammen.”

    Und eine Intelligenz, die uns auf Kellerassel herunterstuft,

    Das habe ich nicht gesagt. Ich sagte, dass eine Maschine, deren Intelligenz sich zu unserer verhält wie unsere zur Kellerassel.

    Wie Du Dich gegenüber der Kellerassel einstufst haben wir ja gerade gelesen. Jetzt stell Dir eine Intelligenz vor, die Dich mit gleichem Recht als so weit entfernt von sich einstuft.

  60. #61 Joseph Kuhn
    02/11/2017

    @ user unknown:

    “Hunger … Geschlechtstrieb … Schreckstarre”

    Dass eine Kellerassel lebt, wollte ich nicht bestreiten. Aber ob man hier von “Gefühlen” und “Interessen” sprechen sollte, an denen Peter Singer seine Argumentation festmacht? Er würde das nicht tun. Das sind zunächst einmal nur zielgerichtete Reaktionen, evolutionär programmierte Antworten auf Reize. Anhänger des Jainismus sehen das vermutlich anders. Ich bin keiner. Wenn man das alles auf ein “organismisches Niveau” einebnet, verwischt man eben den Unterschied zwischen Kellerassel und Mensch.

    Das Kellerassel-Argument kann man auch umdrehen: Hat dann hat nicht sogar schon jede Maschine, der einfache Selbstcheckroutinen und darauf gestützte Reparaturabläufe (“Selbsterhaltung”) einprogrammiert sind, den gleichen ethischen Status?

    “Jetzt stell Dir eine Intelligenz vor, die Dich mit gleichem Recht als so weit entfernt von sich einstuft.”

    Ich habe jetzt mehrfach begründet, warum sie uns nicht “mit gleichem Recht” so einstufen kann, an dem Punkt drehen wir uns im Kreis.

  61. #62 Laie
    02/11/2017

    Was ist Intelligenz? Das was die Menscheit derzeit produziert? Terraforming, oder CO2-Making?

    Ist der Mensch intelligent?

    @Joseph Kuhn
    Betrachtet man von aussen die derzeitige Lebensweise der Menschen auf der Erde, dann wäre die Beurteilung, ob nun durch eine echte KI, die den Namen verdient, oder biologische Intelligenzen von irgendwo weit her alles andere als positiv. Eine echte KI, wäre nicht blöse, sie wäre sachlich, nur das Ergebnis gefällt dann halt (und) nicht.

  62. #63 Laie
    04/11/2017

    in der letzten Zeile ein Fehler “(uns)” statt “(und)” sollte es heissen…

  63. #64 Bullet
    08/11/2017

    Hier wird so viel mit Intelligenz argumentiert … was isn das eigentlich?

  64. #65 user unknown
    https://demystifikation.wordpress.com/2017/10/28/inktober-28-fall/
    08/11/2017

    @Joseph Kuhn:

    Ich habe Singer nicht gelesen, vielleicht mal einen Aufsatz über ihn auf dem HPD. Ich beziehe mich also nicht speziell auf Singer.

    “Hunger … Geschlechtstrieb … Schreckstarre”

    Aber ob man hier von “Gefühlen” und “Interessen” sprechen sollte, an denen Peter Singer seine Argumentation festmacht?

    Brauche ich jetzt einen Herrn Singer, um mir zu bestätigen, dass Hunger, Geschlechtstrieb und Schreck Gefühle sind?

    Das sind zunächst einmal nur zielgerichtete Reaktionen, evolutionär programmierte Antworten auf Reize.

    Das widerspricht aber nicht meiner Aussage, dass es Gefühle sind.

    Anhänger des Jainismus sehen das vermutlich anders.

    Bin ich nicht, zumindest nicht wissentlich.

    Das Kellerassel-Argument kann man auch umdrehen: Hat dann hat nicht sogar schon jede Maschine, der einfache Selbstcheckroutinen und darauf gestützte Reparaturabläufe (“Selbsterhaltung”) einprogrammiert sind, den gleichen ethischen Status?

    Wenn sie den ethischen Status von etwas auf philosophische Denktraditionen fundieren müssen und sich dabei Kriterien zurechtlegen, die sie zu solchen Schlüssen zwingen, dann vielleicht.

    Ich behaupte, dass die meisten Menschen keine schlechtere Ethik als Jainisten oder Singer an den Tag legen, ohne deren Positionen zu kennen und auch ohne Kant zu kennen oder andere Großdenker. Diese können die Fundamente der Ethik sicher eloquenter benennen und Fehler in der Systematik anderer Denker besser finden – ob sie selbst in der richtigen Richtung suchen ist für mich eine andere Frage.

    Einer Maschine mit Selbstcheck- und Reparaturroutinen eine Würde zuzusprechen käme mir gar nicht in den Sinn. Ich gebe aber zu, dass es schwer ist, eine Definition anzugeben (mit Leben würde ich aber doch beginnen) und diese dann zu analysieren um einzelne Kriterien zu gewinnen, die in kniffligen Grenzfällen auch noch anwendbar sind.

    Ich glaube aber nicht, dass wir solche Definitionen dringend brauchen. Schön, wenn sie jemand findet, aber der Mensch hat Hunderttausende Jahre ohne das ganz gut existiert.

    Und das absolute Minimum, das man an ethischen Prinzipien erwarten sollte, wenn es drauf ankam, ohne mit der Wimper zu zucken, aufgegeben.

    Das scheint mir doch eine idealistische Denkrichtung, aber ich bin philosophisch nicht auf dem neuesten Stand.

    “Jetzt stell Dir eine Intelligenz vor, die Dich mit gleichem Recht als so weit entfernt von sich einstuft.”

    Ich habe jetzt mehrfach begründet, warum sie uns nicht “mit gleichem Recht” so einstufen kann, an dem Punkt drehen wir uns im Kreis.

    Ja.
    Mein Eindruck ist, dass Wissenschaftler die Intelligenz von Tieren mit der des Menschen vergleichen und dabei nicht nur eine Ordinalskala benutzen, sondern auch zu Schätzwerten auf einer Verhältnisskala.

    Dass solche Schätzungen problematisch sind gebe ich gerne zu. Wie misst man die Intelligenz einer Katze, eines Meerschweinchens, einer Kellerassel?

    Es gibt aber Versuche, die ein Kleinkind noch nicht lösen kann, aber ein Rabe schon. Völlige Willkür scheint da nicht zu herrschen.

    Angenommen man könnte eine Behauptung aufstellen wie “Der Mensch hat im Schnitt einen IQ von 100. Die Katze einen IQ von 10. Die Kellerassel von 1.” Dann könnte man sagen, dass sich die Intelligenz des Menschen zur Katze so verhält, wie die der Katze zur Kellerassel. Stimmst Du dem zu?

    Und wenn man eine Maschine bauen könnte, mit einem IQ von 1000, dann könnte man sagen, dass sie sich, bezogen auf die Intelligenz, zu uns verhält wie wir zu Katze. Und diese Maschine könnte vielleicht eine Maschine bauen mit einem IQ von 10.000 und dann stünden wir dieser gegenüber so da, wie wir zur Kellerassel.

  65. #66 Bullet
    08/11/2017

    Angenommen man könnte eine Behauptung aufstellen wie “Der Mensch hat im Schnitt einen IQ von 100 [Katze 10, Assel 1…].

    Soweit ich das verfolgt habe, ist die Möglichkeit, eine solche Behauptung begründet aufstellen zu können, immer weiter erodiert, je länger man daran geforscht hat.

    Dann könnte man sagen, dass sich die Intelligenz des Menschen zur Katze so verhält, wie die der Katze zur Kellerassel. Stimmst Du dem zu?

    Nur, wenn es sich hier um eine lineare oder streng geometrische Änderung handelt, wenn ich das kurz einwerfen darf. Aber da bereits die erste Aussage nicht geklärt ist (und möglicherweise nicht geklärt werden kann, da hier eine einzige Kennzahl zur Beschreibung des komplexesten uns bekannten Netzwerkes gefunden werden will), könnte das schwierig werden …

  66. #67 rolak
    08/11/2017

    …uuuuund weiter gehts, auf den letzten Seiten (p342) des besagten Werkes fand sich noch

     Simulation. Der Begriff ist irreführend. Etwas Künstliches, etwas Gespieltes. Aber das stimmt nicht. So haben Sims zwar angefangen, aber sie haben sich entwickelt. Rechnerleistung, Geschwindigkeit, Smartcoding, das alles spielte zusammen bis zu dem Punkt, an dem sich die Verwicklungen² einer Sim denen des Lebens in der richtigen Welt annäherten. Und unweigerlich kam der Tag, an dem sich die Kurven kreuzten.
     An diesem Tag wurde Simentwickling illegal, aber so vieles ist ilegal. Für die Gewinnspannen ist es großartig. Deshalb weiß niemand ganz genau, wie weit alles danach noch gediehen ist, aber solange es genug Geld gibt, um große Serverfarmen zu bauen, lautet die einfache Antwort darauf: immer weiter.
     Eine Sim abschalten, ist dasselbe wie Völkermord, nur meistens sehr viel schneller.

    ² ich geruhe auf einen ÜbersetzungsLapsus zu tippen (complexity)

  67. #68 Alderamin
    09/11/2017

    @noch’n flo

    Das Problem ist die dem zugrundeliegende Annahme, dass ein künstliches Konstrukt die menschliche Bewusstseinsebene erreichen könne. Und dafür gibt es nun einmal keinen belastbaren Beleg.

    Gibt es in der Tat nicht. Dennoch kann ich mir vorstellen, dass es irgendwann möglich sein wird. Ein Bewusstsein entsteht aus einem Gehirn und wie die darin enthaltenen Neuronen und Axon funktionieren, ist ziemlich gut verstanden, wenn ich das richtig sehe. Neuronale Netze imitieren das in gewisser, einfacherer Weise. Wenn man wüsste, wie man ein konkretes Hirn emulieren könnte, müsste ein Bewusstsein daraus entstehen.

    Tatsächlich sind wir aber noch weit davon entfernt, ein künstliches Bewusstsein zu schaffen. Wir sind an dem Punkt, einzelne sensorische Fähigkeiten, über die schon Insekten verfügen, zu imitieren, wie die Erkennung von Mustern in Bildern oder Audio (auch wenn Spracherkennung intelligenter als die Fähigkeiten eines Käfers erscheint, ist es letztlich auch nicht mehr, als Mustererkennung und Zuordnung zu geschriebenen Worten) und assoziatives Speichern von Informationen (ein angelegter Reiz löst die “Erinnerung” an das antrainierte Muster aus). Damit kommt man in der Regeltechnik und Fahrzeugsteuerung oder beim Go-Spielen schon sehr weit. Mit Bewusstsein hat das aber nichts zu tun.

    Wie das menschliche Bewusstsein kreative Gedanken entwickelt, ist gänzlich unbekannt. Ein hinreichend großes neuronales Netz einfach mit dem Wissen der Menschheit zu trainieren wird in ihm kein Bewusstsein hervorrufen, sondern bestenfalls eine Suchmaschine daraus machen.

    Ich fand diesen Artikel hier recht aufschlussreich. Man trainiert ein neuronales Netz zur Erkennung von Hot Dogs mit Millionen von Hot-Dog-Bildern. Einem dreijährigen Kind braucht man nur einen Hot Dog zu zeigen und es wird danach Hot Dogs wiedererkennen. Das (und die in rolaks verlinktem Artikel behandelten Fehlerkennungen) zeigt, wie weit heutige KI von einem Bewusstsein entfernt ist. Soweit zum Thema, ob die Maschinen irgendwann das Kommando übernehmen werden. Definitiv nicht in meiner Restlebenszeit.

    Das heißt allerdings nicht, dass sie risikolos sein werden, im Gegenteil, und das weit über ethische Probleme hinaus. Wir werden ihnen immer mehr Verantwortung geben. Sie werden dereinst Entscheidungen treffen, die weit über das Steuern von Fahrzeugen hinaus gehen. Sie werden in vielerlei Abläufen als nützliche und üblicherweise verlässliche Fachidioten dienen, deren Schlüsse nicht nachvollziehbar sein werden (wie schon bei Alpha-Go nicht). Und eine KI wird im Normalfall nicht erklären können, wie sie zu einem gewissen Ergebnis kam, weil sie auf Assoziationen beruht, über die man von außen keinen Überblick mehr haben kann.

    Deswegen werden sich Fehler auch nicht so einfach im Softwaretest aufspüren lassen, wie bei einer iterativen Programmierung, wo man die Use Cases schon in das Design hinein gesteckt hat – es macht die KI ja gerade so mächtig, dass sie auf unvorhersehbare Muster und Abläufe reagieren kann. Das ist genau die Crux.

    Die Gefahr liegt darin, wenn sie die Kontrolle über komplexe Systeme haben, bei denen eine Fehlfunktion schwerwiegende Folgen größeren oder gar globalen Ausmaßes haben kann, z.B. den Börsenhandel oder die Erkennung und Reaktion auf nukleare Angriffe, mal als Extrembeispiele, oder weniger extrem die Steuerung der Stromversorgung eines Landes oder die einer großen Produktion. Daher wird man bei ihrem Einsatz sehr weise vorgehen müssen und gewisse Kontrollinstanzen vorsehen müssen, umso mehr, je größer der potenzielle Schaden sein kann. Das werden oft Menschen sein, und ob die dann im seltenen Störfall schnell genug und auf korrekte Weise eingreifen können, ist dann auch nicht sicher.

    Ich bin deswegen schon ein wenig beunruhigt. Es ist ja schon beunruhigend, dass das Internet dazu geführt hat, dass potenziell Hackerangriffe auf die Infrastruktur eines Landes möglich sein sollen. Hätte ich früher nicht für möglich gehalten.

  68. #69 Cornelius Courts
    15/11/2017

    ### UPDATE: Hier haben wir nun schon die erste Evidenz [1], daß Maschinen besser sind als menschliche Richter bei der Entscheidung, ob ein Straffälliger bis zur Verhandlung auf Kaution freigelassen werden sollte oder nicht: in einer Untersuchung von 758000 Fällen konnten die Vorhersagen von Maschinen aufgrund der Vorgeschichte der Straffälligen die Verbrechensrate um 25% senken ohne die Inhaftierungsrate zu erhöhen bzw. die Inhaftierungsrate um 42% senken ohne die Verbrechensrate zu erhöhen. Alle Arten von Verbrechen einschl. Gewaltverbrechen konnten reduziert werden und, sehr wichtig!, die durch Rassismus begründete Disparität (http://www.sentencingproject.org/issues/racial-disparity/) bei den Inhaftierungszahlen.

    [1] Kleinberg, J., Lakkaraju, H., Leskovec, J., Ludwig, J., & Mullainathan, S. (2017). Human decisions and machine predictions (No. w23180). National Bureau of Economic Research.

  69. #70 noch'n Flo
    Schoggiland
    15/11/2017

    In Saudi-Arabien (ausgerechnet!) hat vor knapp 3 Wochen ein Roboter sogar erstmals die Staatsbürgerschaft erhalten: http://www.faz.net/aktuell/wirtschaft/diginomics/roboter-sophia-bekommt-saudi-arabiens-staatsbuergerschaft-15265867.html

  70. #71 tomtoo
    18/11/2017

    @CC

    Da kommen doch gleich zwei spannende Themen zusammen. Religion und KI.
    http://www.zeit.de/digital/internet/2017-11/way-of-the-future-erste-kirche-kuenstliche-intelligenz