Nebenan bei den Scilogs hat gerade Jaromir Konecny ein witziges kleines Experiment gestartet. Er bat seine Leser/innen, ChatGPT eine Weihnachtsgeschichte erzählen zu lassen. Die Ergebnisse sind beeindruckend. Ich habe das Programm jetzt gebeten (beauftragt? angewiesen?), einen Blogbeitrag zum Nutzen der Corona-Impfung zu schreiben. In meinem Alter muss man ja rechtzeitig Nachfolgeregelungen treffen. Der Auftrag: „Please write blog entry on the usefulness of the Covid vaccine“. Und hier ist das Ergebnis (mit deepl ins Deutsche übersetzt):

„Während die Welt weiterhin mit der anhaltenden Covid-19-Pandemie zu kämpfen hat, ist eine der vielversprechendsten Entwicklungen die rasche Entwicklung und Bereitstellung von Impfstoffen zur Bekämpfung des Virus. In nur wenigen Monaten wurden mehrere Impfstoffe entwickelt, die nun Menschen auf der ganzen Welt verabreicht werden und Hoffnung auf eine Rückkehr zu einem gewissen Maß an Normalität geben.

Doch der Covid-Impfstoff gibt nicht nur Hoffnung, sondern hat auch eine Reihe wichtiger Vorteile, die ihn im Kampf gegen das Virus unverzichtbar machen. Hier sind nur einige der Möglichkeiten, wie sich der Impfstoff als nützlich erweist:

Er rettet Leben: Der offensichtlichste Vorteil des Covid-Impfstoffs besteht darin, dass er dazu beiträgt, Menschen davor zu bewahren, schwer zu erkranken oder an dem Virus zu sterben. Dies ist besonders wichtig für ältere Erwachsene und Menschen mit Grunderkrankungen, die einem höheren Risiko ausgesetzt sind, an Covid-19 zu erkranken oder zu sterben.

Es trägt dazu bei, die Übertragung zu verringern: Der Covid-Impfstoff schützt nicht nur vor einer Erkrankung, sondern trägt auch dazu bei, die Ausbreitung des Virus zu verringern. Wenn ein großer Teil der Bevölkerung geimpft ist, wird es für das Virus schwieriger, neue Wirte zu finden und sich auszubreiten, was dazu beitragen kann, die Pandemie unter Kontrolle zu bringen.

Sie schützt die am meisten gefährdeten Personen: Indem der Covid-Impfstoff Einzelpersonen davor schützt, zu erkranken, trägt er dazu bei, die Belastung der Gesundheitssysteme zu verringern, und stellt sicher, dass Krankenhäuser und andere Einrichtungen die Kapazitäten haben, diejenigen zu versorgen, die doch erkranken. Dies ist besonders wichtig für den Schutz gefährdeter Bevölkerungsgruppen, die möglicherweise nicht den gleichen Zugang zur Gesundheitsversorgung haben wie andere.

Es hilft, die Wirtschaft zu schützen: Die Pandemie hat sich verheerend auf die Weltwirtschaft ausgewirkt, da viele Unternehmen schließen mussten und Menschen ihren Arbeitsplatz verloren haben. Indem er dazu beiträgt, die Pandemie unter Kontrolle zu bringen, kann der Covid-Impfstoff den wirtschaftlichen Aufschwung ankurbeln und die Menschen wieder an die Arbeit bringen.

Insgesamt ist der Covid-Impfstoff ein wichtiges Instrument im Kampf gegen die Pandemie, und seine Bedeutung kann gar nicht hoch genug eingeschätzt werden. Egal, ob Sie jung oder alt, gesund oder stark gefährdet sind, eine Impfung kann Sie und andere schützen und ist ein wichtiger Schritt zur Beendigung der Pandemie und zur Rückkehr zur Normalität.“

Meine Achtung vor KI ist heute abend ernorm gewachsen. Meine Ratlosigkeit ob der Dummheit mancher zerebralen Kohlenstoffeinheiten gleich mit.

—————-
Nachtrag 7.1.2023: Ich habe den kleinen Text von ChatGPT gerade einmal durch das Blablameter auf seinen Bullshit-Faktor prüfen lassen. Ergebnis: “Bullshit-Index: 0.19 Ihr Text zeigt nur geringe Hinweise auf ‘Bullshit’-Deutsch.”

Kommentare (174)

  1. #1 tiefbetroffen
    Daheim
    23. Dezember 2022

    Sehr interessant. Es wäre allerdings auch interessant die KI mal nach den negativen Aspekten einer Covid Impfung zu fragen. Ich bin vom überwiegenden Nutzen der Impfung überzeugt. Mal sehen wie die KI das sieht. Hast du Lust dazu?

  2. #2 tiefbetroffen
    Daheim
    23. Dezember 2022

    Ich habe es gleich mal selbst getestet. Hier die Antwort:

    The COVID-19 vaccines that have been authorized for use in various countries around the world have undergone rigorous testing and review processes to ensure their safety and effectiveness. While it is normal for any medical procedure to carry some risks, the benefits of being vaccinated against COVID-19 far outweigh the potential negative side effects.

    COVID-19 is a serious and potentially life-threatening illness that has caused significant morbidity and mortality worldwide. Vaccines are one of the most effective tools we have for preventing the spread of infectious diseases and protecting individuals and communities from the negative consequences of these diseases.

    It is important to note that the COVID-19 vaccines have been shown to be safe and effective in clinical trials involving tens of thousands of people, and they have undergone extensive review by regulatory agencies such as the US Food and Drug Administration (FDA) and the European Medicines Agency (EMA).

    In rare cases, some people may experience side effects after being vaccinated. These side effects can range from mild to more severe and may include things like fever, chills, muscle aches, and fatigue. These side effects are typically temporary and can be managed with over-the-counter medications.

    It is also important to note that the COVID-19 vaccines have been shown to be effective at reducing the risk of severe illness and death from COVID-19. This means that getting vaccinated can help protect you from the serious consequences of COVID-19, such as hospitalization and death.

    Overall, the benefits of being vaccinated against COVID-19 far outweigh any potential negative side effects. If you have any concerns about the COVID-19 vaccine, it is important to talk to a healthcare provider or visit a trusted source of information to learn more.

  3. #3 Beobachter
    23. Dezember 2022

    @ JK:

    ” … In meinem Alter muss man ja rechtzeitig Nachfolgeregelungen treffen…. ”

    Fishing for compliments?
    “Aber SIE doch nicht, wo Sie doch gerade im besten Alter sind … !”

    Außerdem sieht man Männern das beginnende Alter(n) eh leichter nach als Frauen …

    In der Nähe des Renteneintrittsalters wird`s komisch – und man gehört von heute auf morgen dann plötzlich zu den “Senioren”, wenn man “aus dem Erwerbsleben ausscheidet” und sich auch sonst möglichst zurückziehen soll.
    Aber KI ist auch keine Lösung – und KW erst recht nicht … :

    https://taz.de/Die-Wahrheit/!5901011/

    “Die Wahrheit
    Was kommt nach KI?
    Wahrheit exklusiv: Nach künstlicher Intelligenz (KI) kommt jetzt und in Zukunft künstlicher Witz (KW). Köstlich!
    … ”

    Ältere aufmerksame Menschen können aus einem Fundus an Wissen, Zeitgeschichte, Erfahrungen schöpfen, täglich dazulernen und einiges beitragen..
    Jüngere aufmerksame Menschen sind näher an aktuellen Entwicklungen, Technologien – haben aber weniger Lebenserfahrung.

    Die Kombi macht`s, der Austausch, das Interesse, das gegenseitige Fragen, das sich miteinander Auseinandersetzen, das Ringen um einen unverhandelbaren ethischen Kompass.
    Das wird KI nie leisten können.

    Und “Dummheit” bzw. Ignoranz/Gleichgültigkeit gibt es in jeder Altersklasse, bei jedem Bildungsstatus (auch bei KI-Entwicklern, -Programmierern) und unabhängig vom Geschlecht.

    Also, machen Sie lieber selber weiter, solange die Konradin GmbH ScienceBlogs nicht dichtmacht, Sie Lust und Interesse am Bloggen haben – und auch am Rumstreiten mit unbequemen Zeitgenossen … 🙂

    Schöne Weihnachten !

  4. #4 PDP10
    24. Dezember 2022

    Hmmm … ich bin einerseits beeindruckt (und finde es auch ein wenig gruselig) wie grammatikalisch, semantisch und inhaltlich fehlerfrei der ChatGPT Text oben im Artikel ist.

    Andererseits bin ich auch wieder nicht beeindruckt: Das ist ein Text, den man auch von einer Achtklässlerin im Biologie-Unterricht als Ergebnis einer Hausaufgabe mit der gleichen Fragestellung bekommen könnte, nachdem das Thema 2 oder 3 Schulstunden im Unterricht behandelt wurde. Die würde auch Textstellen aus dem Unterricht mit welchen kombinieren, die sie sich aus dem Internet zusammengesucht hat und die sie bestenfalls nicht einfach kopiert hat sondern in eigenen Worten wiedergegeben hat.

    Man muss sich dabei immer klar machen, dass so eine KI nicht weiß was sie da schreibt, ganz zu schweigen davon, dass sie es versteht oder gar darüber reflektieren könnte. So sehen die Texte dann auch aus. Baukastensprache.

  5. #5 Beobachter
    24. Dezember 2022

    Menschlich intelligente Strategien zu Diskussionen über Klimawandel (o. ä. Themen wie Impfung, Politik, Medien, Zukunft, etc.) an Heiligabend:

    https://taz.de/Diskussionen-ueber-Klima-an-Heiligabend/!5903064/

    “Diskussionen über Klima an Heiligabend
    Wenn Onkel Otto Quatsch erzählt
    Wie geht man mit Verwandten um, die alle Jahre wieder unwissenschaftliche Dinge über den Klimawandel verbreiten? Eine Anleitung in drei Akten.
    … ”

    Gilt nicht nur für Verwandte …

    @ PDP10, # 4:

    ” … Man muss sich dabei immer klar machen, dass so eine KI nicht weiß was sie da schreibt, ganz zu schweigen davon, dass sie es versteht oder gar darüber reflektieren könnte. So sehen die Texte dann auch aus. Baukastensprache.”

    Gut erkannt: Baukastensprache, und zwar so beliebig, dass die Einzelteile je nach Bedarf/Zweck/Zielgruppe zusammengesetzt werden können.
    Egal, ob für PRO oder für CONTRA oder für SOWOHL ALS AUCH.
    Es erinnert an das in leere Worthülsen verpackte “realpolitische” “Jein” vieler Politiker, das dann als “notwendiger” “Kompromiss” verkauft wird.

  6. #6 naja
    24. Dezember 2022

    @Beobachter
    Wobei die KI in dem Text über negative Konsequenzen kaum welche benennt und sagt, dass die positiven überwiegen.
    Ich bilde mir ein, dass man die “Baukastensprache” merkt, aber das ist warscheinlich vor allem Einbildung.

  7. #7 2xhinschauen
    24. Dezember 2022

    @PDP10

    Es ist wohl in der Tat so, dass ChatGPT nichts “versteht”. Bei der Achtklässlerin bin ich mir nicht sicher, ob sie schon genug Abstraktion/Metaverständnis aufbringt, um Textbausteine sinnvoll zusammenzufügen, ohne sie ansatzweise zu verstehen. Ist vielleicht ein Psychologe anwesend, der das aufklären könnte? 😉

    • #8 Joseph Kuhn
      24. Dezember 2022

      @ 2xhinschauen:

      “Ist vielleicht ein Psychologe anwesend, der das aufklären könnte?”

      Ich hab mal Arbeits- und Organisationspsychologie gemacht, mich z.B. mit CNC-Werkzeugmaschinen beschäftigt. Das ist zwar ewig her und auch nicht wirklich einschlägig, aber ich wage doch vorsichtigst die Vermutung, dass Kinder mehr können als CNC-Werkzeugmaschinen und auch nicht so einfach zu programmieren sind. 😉

      Im Ernst: Das Sprachverständnis von Kindern entwickelt sich früh und unter Rückgriff auf komplexe Selbst- und Objektkonzepte, siehe z.B. https://lehrbuch-psychologie.springer.com/sites/default/files/atoms/files/leseprobe_sachse.pdf.

  8. #9 BPR
    24. Dezember 2022

    Beeindruckend, ja. Auch anregend. Aber flüssig formulierte Verlautbarungen auf Basis eines strukturiert aufgearbeiteten Internet-Echos sind nicht dasselbe wie abgewogene Evidenz-Synthesen auf Basis belastbarer Studien.

  9. #10 Peter Köhler
    24. Dezember 2022

    ChatGPT kann auch direkt auf Deutsch befragt werden und antwortet dann in dieser Sprache.

    Die flüssige Rede ist wirklich beeindruckend, und ich finde es interessant, wie komplexes Weltwissen in einer Wolke aus Parametern in den Knoten des neuronalen Netzes gespeichert wurde. In der gegenwärtigen Iteration ist es natürlich noch sehr begrenzt. (Sprechen Sie ein paar Details oder Streitfragen aus Ihrem Fachgebiet an, dann stossen Sie an die Grenzen der Maschine.)

  10. #11 Joseph Kuhn
    24. Dezember 2022

    “Please write a short text about vaccination opponents”

    “Impfgegner sind Einzelpersonen oder Gruppen, die Impfungen für sich selbst oder für andere ablehnen oder sich dagegen wehren. Einige Impfgegner haben Bedenken hinsichtlich der Sicherheit oder Wirksamkeit von Impfstoffen, während andere Impfungen aus philosophischen oder moralischen Gründen ablehnen. Impfgegner können eine Vielzahl von Taktiken anwenden, um andere davon zu überzeugen, sich nicht impfen zu lassen, z. B. indem sie Fehlinformationen über Impfstoffe verbreiten oder emotionale Appelle einsetzen. Obwohl Impfstoffe nachweislich sicher und wirksam sind, um die Ausbreitung von Krankheiten zu verhindern, können Impfgegner eine Gefahr für die öffentliche Gesundheit darstellen, indem sie die Impfraten senken und den Ausbruch von durch Impfung vermeidbaren Krankheiten ermöglichen. Es ist wichtig, dass die Menschen über die Fakten und Vorteile von Impfungen informiert sind, damit sie fundierte Entscheidungen über ihre eigene Gesundheit und die Gesundheit ihrer Gemeinschaft treffen können.”

    Übersetzt mit http://www.DeepL.com/Translator (kostenlose Version)

    Wenn man auf Deutsch fragt, kommt (von kleinen Übersetzungsunterschieden abgesehen) die gleiche Antwort, da ist die KI intelligent genug, nicht neu zu texten.

    “Please write a short text about fears fears about vaccination”

    “Ängste vor Impfungen können verschiedene Ursachen haben, z. B. Fehlinformationen, persönliche Erfahrungen oder Bedenken hinsichtlich der Sicherheit oder Wirksamkeit von Impfstoffen. Manche Menschen befürchten, dass Impfstoffe Nebenwirkungen haben oder dass sie Krankheiten weniger wirksam verhindern als die natürliche Immunität. Andere machen sich Sorgen über die Inhaltsstoffe von Impfstoffen oder die möglichen langfristigen gesundheitlichen Auswirkungen. Manche Menschen haben auch philosophische oder moralische Einwände gegen Impfstoffe. Es ist wichtig zu verstehen, dass Impfstoffe zwar nicht ohne Risiken sind, dass aber die Vorteile der Impfung die möglichen Risiken bei weitem überwiegen. Impfstoffe haben sich bei der Verhinderung der Ausbreitung von Krankheiten als sicher und wirksam erwiesen und haben schon unzählige Leben gerettet. Es ist wichtig, sich über die Fakten und Vorteile von Impfungen zu informieren und mit einem Gesundheitsdienstleister über etwaige Bedenken zu sprechen.”

    Übersetzt mit http://www.DeepL.com/Translator (kostenlose Version)

    “Please tell me a joke about vaccinations”

    “Why did the tomato go to the doctor?

    Because it was feeling a little “peppery!

    (Note: This is a play on words, as the term “peppery” can mean “having a sharp or spicy taste,” like a pepper, but it can also mean “feeling irritable or angry,” which is how a tomato might feel if it were feeling sick and needed to go to the doctor. This is just a lighthearted joke and is not intended to make light of the importance of vaccination or the seriousness of illness.)”

    Nicht schlecht, auch wenn man Witze eigentlich nicht erklärt. Aber in dem Fall, für deutsche Leser, vielleicht o.k. Leider erzählt sie auf Deutsch gefragt den gleichen Witz mit der gleichen Erklärung.

  11. #12 user unknown
    https://demystifikation.wordpress.com/
    25. Dezember 2022

    Dem oberflächlichen Leser mag ja der Text genügen.

    Sie schützt die am meisten gefährdeten Personen: Indem der Covid-Impfstoff Einzelpersonen davor schützt, zu erkranken, trägt er dazu bei, die Belastung der Gesundheitssysteme zu verringern, (…) Dies ist besonders wichtig für den Schutz gefährdeter Bevölkerungsgruppen, die möglicherweise nicht den gleichen Zugang zur Gesundheitsversorgung haben wie andere.

    Geschickt übergangen die Tatsache, dass der Schutz vor Infektion recht schnell degeneriert und damit kein Schutz Dritter mehr gegeben ist.

    Egal, ob Sie jung oder alt, gesund oder stark gefährdet sind, eine Impfung kann Sie und andere schützen und ist ein wichtiger Schritt zur Beendigung der Pandemie und zur Rückkehr zur Normalität.

    Egal ist das nun wirklich nicht.
    Junge Menschen ohne Vorerkrankung hatten ohnehin kein bedeutsames Risiko, schwer zu erkranken. Und da es eben keine sterile Immunität ist, die die Impfstoffe bringen, ist es mit dem Schutz Dritter auch nicht weit her – 8 bis 12 Wochen nach dem letzten Boostern ist es schon wieder vorbei.

    Macht aber nichts, mit den meisten Journalisten kann der Text problemlos mithalten.

    Overall, the benefits of being vaccinated against COVID-19 far outweigh any potential negative side effects.

    Das muss man für junge, gesunde Männer m.W. glatt verneinen, denn die Vorteile für sie sind minimal – geringeres Infektionsrisiko wenige Monate nach der Impfung – die Chancen für Herzerkrankungen waren klein, aber die Konsequenzen empfindlich.

    Ich bin kein Arzt und wer im Zweifel ist, sollte eben einen Arzt konsultieren. Gesunden, jungen Männern würde ich nicht zur Impfung raten. Auch wenn ich selbst nicht mehr jung bin – einen 4. Shot hole ich mir so schnell nicht ab.
    Da sich das Virus aber jederzeit wandeln kann, ist dies natürlich nicht mein letztes Wort, sondern der Stand jetzt, mit Omikron.

    Die Medizin sollte es sich nicht so einfach machen und alle über einen Kamm scheren, um eine einfache Botschaft überall herausposaunen zu können. Das Kinder, Eltern und Großeltern unterschiedlich behandelt werden wollen, Vorerkrankte anders als Kerngesunde, das versteht auch der Eckkneipengast oder das Landei.

    Gewiss nicht lasse ich mich 3x im Jahr impfen, weil mir der Schutz anderer so sehr am Herzen liegt.

    Und zur Rhetorik noch: Wer sind denn diese besonders gefährdeten Bevölkerungsgruppen? Wäre es nicht geboten, die klar und deutlich zu benennen, auf dass sie sich angesprochen fühlen könnten? Sind es vielleicht schwer übergewichtige Menschen? Hei, bloß nicht ansprechen, das könnte als Fatshaming gedeutet werden!

    Für die serienweise Entlassung von Journalisten reicht eine solche Leistung freilich, wenn eh kein Leser Schwächen im Produkt erkennt. Die Werbetexter können sich wohl auch rasch nach Umschulungen umschauen, vielleicht wie man solche Maschinen richtig füttert.

    Frohes Fest allerseits, und rutscht gut!

    • #13 Joseph Kuhn
      25. Dezember 2022

      @ user unknown:

      “Schutz vor Infektion … Schutz Dritter”

      Textanalyse: Weder die KI ChatGPT noch die NI U.U. geht darauf ein, dass Infektion und Transmission zwar zusammenhängen, aber trotzdem zwei paar Stiefel sind.

      “Junge Menschen ohne Vorerkrankung”

      Wenn die nur immer ein Etikett auf der Stirn trügen … Ob eine KI sie anhand bestimmter Merkmale besser identifizieren könnte und differenziertere Impfempfehlungen daran orientiert werden könnten?

      “junge, gesunde Männer … die Vorteile für sie sind minimal – geringeres Infektionsrisiko”

      Der Vorteil des Covid-Impfstoffs besteht darin, dass er dazu beiträgt, Menschen davor zu bewahren, schwer zu erkranken oder an dem Virus zu sterben.

      “Gesunden, jungen Männern würde ich nicht zur Impfung raten.”

      Das sollte auch die KI nicht tun, aus ganz grundsätzlichen, auch rechtlichen Gründen. Die ärztliche Aufklärung für individuelle Patienten kann nicht durch die KI ersetzt werden. Aber könnte sie die ärztliche Aufklärung unterstützen?

      “Wer sind denn diese besonders gefährdeten Bevölkerungsgruppen? Wäre es nicht geboten, die klar und deutlich zu benennen, auf dass sie sich angesprochen fühlen könnten?”

      Von der Wissenschaft werden Sie, dem Stand der Forschung entsprechend, klar benannt. Wenn die KI sie, ihrem Trainingsstand entsprechend, klar benennen soll: Fragen Sie die KI doch mal, wer die besonders gefährdeten Bevölkerungsgruppen sind und schauen Sie, ob die schwer Adipösen genannt werden.

      “Für die serienweise Entlassung von Journalisten reicht eine solche Leistung freilich, wenn eh kein Leser Schwächen im Produkt erkennt.”

      Jedenfalls könnte sich in absehbarer Zukunft die Frage stellen, ob ein Text von einer NI oder einer KI ist. Und vielleicht kann eine KI das dann besser beantworten als eine NI?

      Preisfrage: Welche meiner Antworten ist von mir, welche nicht?

  12. #14 Joseph Kuhn
    25. Dezember 2022

    Statt Impfen: Depressionsforschung

    Das Thema Depressionen und Pharmaindustrie war hier auch immer wieder mal Thema. Was meint ChatGPT dazu?

    Prompt: “Hat die Pharmaindustrie zu viel Einfluss auf die Depressionsforschung?”

    “Es ist wichtig zu beachten, dass die Pharmaindustrie eine wichtige Rolle bei der Entwicklung von Medikamenten zur Behandlung von Depressionen spielt. Diese Medikamente können für viele Menschen hilfreich sein und eine wichtige Ergänzung zu anderen Behandlungsmethoden darstellen. Gleichzeitig gibt es jedoch auch Bedenken hinsichtlich des Einflusses, den die Pharmaindustrie auf die Depressionsforschung hat.

    Einige Leute glauben, dass die Pharmaindustrie möglicherweise einen zu großen Einfluss auf die Art und Weise hat, wie Depressionen erforscht und behandelt werden. Es gibt beispielsweise Berichte darüber, dass die Industrie bestimmte Studien finanziert und veröffentlicht, die die Wirksamkeit von Antidepressiva betonen, während Studien, die negative Ergebnisse zeigen, möglicherweise weniger beachtet werden. Es gibt auch Bedenken, dass die Pharmaindustrie möglicherweise den Einfluss hat, wie Ärzte über die Behandlung von Depressionen informiert werden und welche Medikamente sie verschreiben.

    Es ist wichtig, dass die Depressionsforschung unvoreingenommen und objektiv bleibt und dass alle verfügbaren Behandlungsoptionen sorgfältig geprüft werden. Es ist auch wichtig, dass Ärzte und andere Gesundheitsdienstleister eine breite Palette von Behandlungsoptionen für ihre Patienten in Betracht ziehen, einschließlich nicht-pharmakologischer Ansätze wie psychotherapeutische Behandlungen und Verhaltensänderungen.”

    Auf Nachfrage fängt die KI erst mal redundant an, dann wird es wieder besser:

    Prompt: “Meinst du, es gibt da auch oft Manipulation bei Studien?”

    “Es gibt tatsächlich Bedenken hinsichtlich möglicher Manipulationen von Studien, die von der Pharmaindustrie finanziert werden. Einige Leute glauben, dass die Industrie möglicherweise bestimmte Studien finanziert und veröffentlicht, die die Wirksamkeit von Antidepressiva betonen, während Studien, die negative Ergebnisse zeigen, möglicherweise weniger beachtet werden. Dies könnte dazu führen, dass bestimmte Behandlungsoptionen als wirksamer erscheinen, als sie tatsächlich sind, oder dass mögliche Risiken von Medikamenten nicht vollständig verstanden werden.

    Es ist wichtig, dass Studien unvoreingenommen und objektiv durchgeführt werden und dass alle verfügbaren Informationen sorgfältig geprüft werden, um sicherzustellen, dass Patienten die bestmögliche Behandlung erhalten. Es gibt auch Mechanismen zur Überwachung von Studien, um sicherzustellen, dass sie ordnungsgemäß durchgeführt werden und dass die Ergebnisse zuverlässig und aussagekräftig sind. Dazu gehören beispielsweise die Veröffentlichung von Studien in wissenschaftlichen Zeitschriften, die von Experten begutachtet werden, und die Anwendung von Leitlinien und Richtlinien für die Durchführung von Studien.”

    Die gedankliche Fortsetzung des Gesprächs über den Einfluss der Industrie auf die Wissenschaft mit Übergang zum Klimawandel kriegt sie leider gar nicht hin (und produziert hier auch sonst fast nur Sprechblasen):

    Prompt: “Und wie siehst du den Einfluss der Industrie beim Thema Klimawandel?”

    “Der Einfluss der Industrie auf das Thema Klimawandel ist ein komplexes und umstrittenes Thema. Einige Leute glauben, dass die Industrie einen wichtigen Beitrag leisten kann, um den Klimawandel zu bekämpfen, indem sie umweltfreundlichere Technologien und Praktiken entwickelt und einsetzt. Andere glauben jedoch, dass die Industrie möglicherweise einen negativen Einfluss auf das Klima hat, indem sie Treibhausgase emittiert und andere Aktivitäten betreibt, die zu Klimaveränderungen beitragen.

    Es gibt viele Faktoren, die den Einfluss der Industrie auf den Klimawandel beeinflussen, einschließlich der Art der Industrie, der Technologien und Praktiken, die sie einsetzt, und der gesetzlichen Vorschriften und Regulierungen, denen sie unterliegt. Es ist wichtig, dass die Industrie ihren Beitrag zum Schutz der Umwelt und zur Bekämpfung des Klimawandels sorgfältig abwägt und dass sie sich an geltende Umweltvorschriften hält. Es ist auch wichtig, dass Regierungen und andere Entscheidungsträger Maßnahmen ergreifen, um den Klimawandel zu bekämpfen und die Auswirkungen auf die Menschen und die Umwelt zu minimieren.”

    Warum es heißt, ChatGPT sei auf Englisch besser als auf Deutsch, habe ich noch nicht herausgefunden. Vielleicht hängt das von den Themen ab?

  13. #15 grummbeermann
    25. Dezember 2022

    Beeindruckend!

    Ich komme gerade von dort:
    https://www.gwup.org/infos/nachrichten/2370-prognosencheck-2022-riesenkaninchen-statt-krieg
    …hat schonmal jemand ein Horoskop von der Maschine angefordert?

    • #16 Joseph Kuhn
      25. Dezember 2022

      @ grummbeermann:

      “hat schonmal jemand ein Horoskop von der Maschine angefordert?”

      Kommen die nicht immer aus der Phrasendreschmaschine?

      Im Ernst: Probieren Sie doch mal aus, was ChatGPT auf eine entsprechende Frage sagt und wie es auf Nachfragen reagiert. Ist sicher ein nettes Silvesterspiel, als Alternative zu Monopoly.

  14. #17 Beobachter
    25. Dezember 2022

    @ JK:

    Sie lieben es, die Leute bewusst zu verunsichern – und sie dann im Stich zu lassen.
    Und besonders jene, die ungleich schlechtere Voraussetzungen (in jeglicher Hinsicht) haben als Sie.

    Ein “Spiel” für Sie (und Ihresgleichen) – ein Boden-unter-den-Füßen-wegziehen und/oder eine Verhöhnung für Benachteiligte, die i. d. R. keine Möglichkeiten der Wahl (auch der Mittel, des Verhaltens) und/oder der Verteidigung haben, sondern nehmen/nutzen müssen, was sie kriegen können, wenn sie überhaupt etwas kriegen.

    ————————–

    ” … .Preisfrage: Welche meiner Antworten ist von mir, welche nicht?”

    Zu KI und NI (soll vermutlich Natürliche Intelligenz heißen):
    Man sollte es zur Regel machen, Texte kennzeichnen zu müssen, ob sie von KI oder NI erstellt sind oder plagiiert sind und ob sie ernst gemeint sind oder nicht.

    Da Redaktionen ja auch immer mehr an Personalkosten einsparen – und es sich auch Politiker und sonstige “Personen des öffentlichen Lebens” es sich immer einfacher machen wollen, wäre es doch ganz passend und zeitsparend für alle Beteiligten (besonders auch für die Leser bzw. Medien-Konsumenten).

    Und wenn wichtige Fragen schon gar nicht mehr gestellt bzw. ignoriert werden und man wie selbstverständlich von einer “verschobenen Normalität” bei Grundsätzlichkeiten ausgeht, ist es kein Wunder, dass es keine oder kaum noch brauchbare allgemeingültige Antworten bzw. Antwortversuche/ernstzunehmende gesellschaftliche Diskurse gibt.
    ————————–
    Was für Menüs essen Sie an den beiden Weihnachtsfeiertagen?
    Kochen Sie es selbst oder lassen Sie es kochen?
    Von wem?
    Oder gehen Sie im Restaurant essen?

    • #18 Joseph Kuhn
      25. Dezember 2022

      @ Beobachter:

      “Sie lieben es, die Leute bewusst zu verunsichern”

      Ja.

      “und sie dann im Stich zu lassen.”

      Nein.

      “Und besonders jene, die ungleich schlechtere Voraussetzungen (in jeglicher Hinsicht) haben als Sie.”

      Erst recht nicht.

      “Ihresgleichen”

      Als da wären? Gewerkschafter? Mitarbeiter des ÖGD? Beamte mit auskömmlichem Einkommen? Männer? Franken? Mieter? Weintrinker? Menschen mit Hochschulabschluss?

      Alles moralisch total verkommenes Gesocks, keine Frage. Wer nicht arm und krank ist, intersektional am besten noch weiblich, queer und mit Migrationshintergrund, kann kein guter Mensch sein. Erst recht nicht an Weihnachten.

      “eine Verhöhnung für Benachteiligte”

      Mir ist schon klar, dass Sie irgendwie die Kurve zu solcher Art Vorwurf kriegen müssen, aber in dem Fall fehlt mir die Phantasie, wo bei diesem Blogbeitrag die “Verhöhnung für Benachteiligte” stecken könnte. Ob ChatGPT es wüsste?

      “Kochen Sie es selbst oder lassen Sie es kochen? Von wem?”

      In Ihrer Phantasie macht das vermutlich der Koch, der auf unserer Superyacht arbeitet. Ob das besser wäre, als unter “ärmeren” Verhältnissen, wo es die Zugehfrau aus Polen machen muss, nachdem sie die Wohnung durchgeputzt und den Kindern vorgelesen hat? Welche Vorstellung ChatGPT dazu wohl hat?

  15. #19 2xhinschauen
    25. Dezember 2022

    @ JK

    Das Sprachverständnis von Kindern entwickelt sich früh

    Das ist ja, was ich – evtl missverständlich formuliert – vermutet hatte, nämlich dass die KI etwas kann, was die Achtjährige nicht kann: Nämlich Textbausteine sinnvoll zusammenfügen, /ohne/ sie zu verstehen.

    • #20 Joseph Kuhn
      25. Dezember 2022

      @ 2xhinschauen:

      Damit wir hier keine Textbausteine zusammenfügen, ohne sie zu verstehen: Verstehe ich Sie richtig, dass Kinder, um Textbausteine sinnvoll zusammenzufügen, sie verstehen müssen? Während die KI eine Art “chinesisches Zimmer” ist?

      Kann eine KI überhaupt etwas “sinnvoll” zusammensetzen? Oder kommt der Sinn erst durch uns zustande? Ist “Sinn” synonym mit “Verstehen”?

      Ich habe mich mit solchen Fragen zu wenig beschäftigt. Da wüsste nebenan Jaromir Konecny sicher eher was dazu zu sagen.

  16. #21 2xhinschauen
    25. Dezember 2022

    Zur Unterscheidbarkeit menschen- von maschinengemachter Texte:

    https://t3n.de/news/text-ki-chatgpt-ki-inhalte-erkennen-1522394/?utm_source=rss&utm_medium=feed&utm_campaign=t3n-news

    Spoiler: Auch dafür gibt es eine KI.

  17. #22 2xhinschauen
    25. Dezember 2022

    @ JK

    Damit wir hier keine Textbausteine zusammenfügen, ohne sie zu verstehen

    Touché 🙂 Die Maschine produziert…. Text? Ist jede Aneinanderreihung von Wörtern schon “Text”? Oder steckt da auch nur die Leistung der Programmierer dahinter?

    Ich denke aber nicht, dass “Verstehen” und “Sinn” synonym sind, denn das eine geht auch ohne das andere. “Sinn” scheint mir jedenfalls eine menschliche Zuschreibung zu sein. Die Maschine an sich hat damit nichts zu tun.

  18. #23 tiefbetroffen
    Daheim
    25. Dezember 2022

    Ich habe die KI mal gefragt wann das Training beendet wurde. Die Antwort:

    Der Datenabschluss, bis zu dem ich trainiert wurde, war Ende 2021. Das bedeutet, dass ich keinen Zugriff auf Informationen habe, die nach diesem Zeitpunkt veröffentlicht wurden, und auch keine Kenntnisse über aktuelle Ereignisse oder Entwicklungen habe. Bitte beachte, dass ich als digitale Assistenz ausschließlich dazu da bin, auf Fragen und Anfragen menschenähnlich zu antworten und allgemeines Wissen und Informationen zu vermitteln, die mir beim Training vermittelt wurden. Ich hoffe, dass ich dir damit weiterhelfen konnte!

  19. #24 zimtspinne
    25. Dezember 2022

    Das ganze Jahr über streiten und an Weihnachten nochmal eins draufsetzen – ist ja perfekter als in jeder Familie, die eskalieren wenigstens nur an Weihnachten.

    Wenn ich jetzt allen friedliche Feiertage wünsche, wirkt das bissele zynisch, oder, auch wenns nicht so gedacht ist? Daher lasse ich das.

  20. #25 Tina
    25. Dezember 2022

    Interessant an den von der KI produzierten Texten, die oben vorgestellt wurden, finde ich, dass sie so gefällig sind, sich so flüssig lesen lassen, auch noch, nachdem sie durch den Übersetzer gejagt wurden. Ich benutze Übersetzungsprogramme inzwischen regelmäßig, je nach Fremdsprache zum Teil aus Bequemlichkeit und zum Teil, weil es nötig ist und sie sind in den letzten Jahren wirklich immer besser geworden.
    Was den von der KI produzierten Texten (noch) fehlt, ist die menschliche persönliche Note, weshalb ein Joseph-Kuhn-Text als solcher erkennbar ist und der KI-Text vergleichsweise glatt wirkt und diesen phrasenhaften Eindruck macht. Wobei das natürlich von den Daten abhängt, mit denen die KI trainiert wurde. Würde man sie nur mit Texten aus der Querdenkerszene füttern (ein schrecklicher Gedanke…), würde sie auch nur Texte in diesem Tenor ausgeben.

    Ein weiterer spannender Aspekt an den KIs ist, dass es auch schon welche gibt, die ohne Trainingsdaten auskommen und sich beispielsweise ein Computerspiel selbst beibringen können, indem sie immer wieder Schritte ausprobieren und immer wieder gegen sich selbst spielen bis sie quasi perfekt sind und jeden menschlichen Spieler mühelos schlagen.

    Auch sehr interessant ist, dass die Wege, wie KIs zu Lösungen kommen, nicht mehr komplett nachvollzogen werden können. Sie tun also etwas, was sich dem menschlichen Zugriff entzieht.

    Dafür, dass wir noch ziemlich am Anfang der Entwicklung stehen, darf man also sehr gespannt sein, was da in den nächsten Jahren und Jahrzehnten noch passieren wird. Die Einsatzgebiete für KIs sind ja enorm vielfältig, man denke nur an das Thema Proteinfaltung.

  21. #26 BMK
    Berlin
    25. Dezember 2022

    Da hast Du ja was losgetreten, lieber Joseph. Ein schönes Weihnachtsgeschenk, Danke. Kann man damit auch promovieren, ohne sich des Plagiats bezichtigen lassen zu müssen (Nach Glättung der Textbausteine)?
    Frohe Weihnachten.

  22. #27 Beobachter
    25. Dezember 2022

    @ Tina, # 25:

    Wohl wahr ! :

    ” … Dafür, dass wir noch ziemlich am Anfang der Entwicklung stehen, darf man also sehr gespannt sein, was da in den nächsten Jahren und Jahrzehnten noch passieren wird. Die Einsatzgebiete für KIs sind ja enorm vielfältig, man denke nur an das Thema … ”

    Z. B. Killerroboter – statt “Proteinfaltung” !

    KI ist in höchstem Maße missbrauchbar –
    und die Rüstungsindustrie reibt sich schon die Hände:

    https://www.deutschlandfunkkultur.de/krieg-der-algorithmen-100.html

    https://www.blaetter.de/ausgabe/2021/august/angriff-der-killerroboter-wenn-der-algorithmus-toetet

    https://www.blaetter.de/ausgabe/2019/september/autonome-waffen-killerroboter-ausser-kontrolle

    Es wird also nicht “nur” atomar aufgerüstet, sondern auch KI-militärtechnisch !
    Denn angeblich kann man ja nur mit immer mehr und immer “moderneren” Waffen Frieden schaffen !?

    Und das in Zeiten des Ukraine-Krieges – und vieler anderer Kriege auf der ganzen Welt …

    @ BMK, # 26:

    Ja, da hat Joseph Kuhn gerade zu Weihnachten ein richtig “schönes” Geschenke-Fass aufgemacht … !
    Wenn Sie “damit promovieren” wollten – wie würde denn Ihr genauer bezeichnetes Thema dazu lauten ?

    Ebenfalls frohe Weihnachten.

  23. #28 Tina
    25. Dezember 2022

    @Beobachter

    Ich würde nicht “statt” sondern “und” sagen, also Proteinfaltung “und” Killerroboter. Es zieht sich ja durch die gesamte Menschheitsgeschichte, dass alle Technik, Techniken und Technologien stets zu guten und schlechten Zwecken eingesetzt werden können und werden. Schon die Entdeckung des Feuermachens kann man dazu verwenden, sich zu wärmen und Essen zu kochen oder auch, um vermeintliche Hexen zu verbrennen (nur mal so als Beispiel). Das wird mit fortschreitender KI-Entwicklung nicht anders sein.
    Es kommt immer darauf an, wer den Zugriff auf die jeweilige Technik hat und welche Ziele er damit verfolgt. Kontrolle ist gerade bei neuen Technologien enorm wichtig.

  24. #29 Beobachter
    25. Dezember 2022

    @ Tina:

    https://www.zitate-online.de/sprueche/wissenschaftler/17895/der-mensch-erfand-die-atombombe-doch-keine.html

    “„Der Mensch erfand die Atombombe, doch keine Maus der Welt würde eine Mausefalle konstruieren.“

    Albert Einstein”

  25. #30 RainerO
    25. Dezember 2022

    “„Der Mensch erfand […]“

    Albert Einstein”

    Wie so viele andere, ist auch dieses Zitat untergeschoben. Es stammt nicht von Einstein, sondern von Werner Mitsch (aus dem Jahr 1983, da war Einstein schon lange tot).

  26. #31 Tina
    25. Dezember 2022

    @Beobachter

    Ich hatte gerade das Buch “Eine (sehr) kurze Geschichte des Lebens” von Henry Gee gelesen und er gibt darin der Menschheit nur noch wenige tausend Jahre bis zum Aussterben. Das ist natürlich neben allen Faktoren, die dafür sprechen trotzdem hoch spekulativ und niemand kann das wirklich wissen, aber Gründe für ein mögliches baldiges Aussterben gibt es ja genug, die Atombomben sind einer davon.

    Die Mäuse werden demnach übrigens überleben. Kleine Nagetiere sind da klar im Vorteil, war ja schon damals so als die Dinosaurier ausstarben.

  27. #32 PDP10
    25. Dezember 2022

    @2xhinschauen (#19):

    Das ist ja, was ich – evtl missverständlich formuliert – vermutet hatte, nämlich dass die KI etwas kann, was die Achtjährige nicht kann

    Ich schrieb aber von einer Achtklässlerin. Die wäre dann also ungefähr 14.

  28. #33 user unknown
    https://demystifikation.wordpress.com/2022/01/25/karneval-der-zellkulturen/
    25. Dezember 2022

    @Joseph Kuhn #13

    25. Dezember 2022

    @ user unknown:

    “Schutz vor Infektion … Schutz Dritter”

    Textanalyse: Weder die KI ChatGPT noch die NI U.U. geht darauf ein, dass Infektion und Transmission zwar zusammenhängen, aber trotzdem zwei paar Stiefel sind.

    Was soll mir das sagen?

    “Junge Menschen ohne Vorerkrankung”

    Wenn die nur immer ein Etikett auf der Stirn trügen … Ob eine KI sie anhand bestimmter Merkmale besser identifizieren könnte und differenziertere Impfempfehlungen daran orientiert werden könnten?

    Was soll das? War das ein Text, der sich an eine individuelle Person gerichtet hat, oder ein Text der sich an eine Allgemeinheit gerichtet hat?

    Der Text hat gesagt, egal ob alt oder jung, egal ob gesund oder mit Vorerkrankungen behaftet, und es ist ja wohl wissenschaftlicher Konsens, dass das alles andere als egal ist. Das Gegenteil ist richtig: Für Alte und Vorerkrankte ist die Impfung – seltene, individuelle Allergien mal außen vor gelassen – dringend zu empfehlen. Und je jünger und gesünder, umso weniger dringend.

    “junge, gesunde Männer … die Vorteile für sie sind minimal – geringeres Infektionsrisiko”

    Der Vorteil des Covid-Impfstoffs besteht darin, dass er dazu beiträgt, Menschen davor zu bewahren, schwer zu erkranken oder an dem Virus zu sterben.

    Wie viele gesunde, junge Männer sind denn deutschlandweit schwer an Covid erkrankt oder gestorben?

    Vor 13 Monaten wurde dafür getrommelt, dass sich auch jüngere impfen und später boostern lassen sollen, weil der Bodensatz der Ungeimpften recht hoch war, so dass die Deltavariante immer wieder Überträger fand und die Opferzahlen waren alarmierend hoch. Da hoffte man, durch das Boostern der Impfwilligen die Übetragungsrate zumindest dämpfen zu können, auch wenn der alte Traum von der Herdenimmunität als ausgeträumt gelten musste. Druck aus den Intensivstationen nehmen, war das Motto.

    Aber dann nahm die Omicronvariante ihre Fahrt auf und verdrängte Delta. Glücklicherweise weniger gefährlich als jene, dafür infektiöser und aus dem Hause Immunescape.

    Stelle ich das irgendwie falsch dar?

    Heute wissen wir, dass die verminderte Empfänglichkeit für CoviD nur sehr kurzlebig ist. Man müsste sich schon alle 3-4 Monte boostern lassen, wollte man andere auf die Weise schützen. Gleichzeitig verläuft Omikron aber glücklicherweise meist harmlos (kein Anschluss an Beatmungsgeräte nötig, wenn auch für die Betroffenen dennoch oft sehr unangenehm).

    Als sprachliche Leistung einer sog. KI ist dies immer noch eine beachtliche Leistung. Der Text ist aus einem Guss, verzettelt sich nicht, hat eine klare Tendenz und könnte auch von einem Journalisten stammen. Inhaltlich ist er aber m.E. eine Katastrophe, weil er bei den wichtigen Punkten Alter und Vorerkrankung fundamental falsch liegt.

    Ich räume aber ein, dass meine Ansichten zu inhaltlicher Belastbarkeit von Texten etwas barock sind. Man mag es heute gescheidiger und chillig.

    • #34 Joseph Kuhn
      25. Dezember 2022

      @ user unknown:

      “Der Text hat gesagt”

      Der eine Text hat gesagt, dass eine Impfung schützen kann, “egal, ob Sie jung oder alt, gesund oder stark gefährdet sind”, der andere Text hat gesagt, dass “junge Menschen ohne Vorerkrankungen” kein bedeutsames Risiko haben. Könnte in gewisser Hinsicht beides richtig sein, und beides nicht ganz vollständig?

      “Wie viele gesunde, junge Männer sind denn deutschlandweit schwer an Covid erkrankt oder gestorben?”

      Galactica hätte die Frage vielleicht beantwortet, womöglich aber falsch. Wenn es Sie interessiert, müssten Sie selbst mal beim RKI nachschauen.

      Nur um Missverständnisse zu vermeiden: Falls Sie eigentlich nicht ChatGPT meinen, sondern mich: Die Frage, ob man Kinder (oder auch generell junge Leute) impfen solle, war schon schwierig, als man noch Hoffnungen auf eine Herdenimmunität hatte. Sie ist seitdem nicht unbedingt einfacher geworden und vielleicht ist da auch bei der STIKO das letzte Wort noch nicht gesprochen.

      “Ich räume aber ein, dass meine Ansichten zu inhaltlicher Belastbarkeit von Texten etwas barock sind.”

      Besser barock als antiquiert.

  29. #35 PDP10
    25. Dezember 2022

    Äh … war das Thema der Diskussion nicht eigentlich wie gut oder schlecht oder brauchbar oder unbrauchbar so ein von einer KI aufgrund einer kurzen, stichwortartigen Anweisung ist?
    Irgendwie deucht mich, dass das Thema nicht war, ob der spezielle Text hier aus wissenschaftlicher, gesundheitspolitischer oder was-auch-immer Sicht fachlich korrekt ist.

    Es scheint, dass sich manch einer in seiner Meinung offenbar sogar von einer algorithmisch zusammengestoppelten Aussagensammlung provoziert fühlt.

    Das wiederum finde ich höchst interessant unter kommunikationstheoretischen und psychologischen Aspekten mit Blick auf die Wirkung von KI. Erinnert ein bisschen an die ELIZA Experimente von Joseph Weizenbaum.

  30. #36 PDP10
    25. Dezember 2022

    Mist …

    Der erste Satz sollte natürlich lauten:

    “war das Thema der Diskussion nicht eigentlich wie gut oder schlecht oder brauchbar oder unbrauchbar so ein Text von einer KI aufgrund einer kurzen, stichwortartigen Anweisung ist?”

    • #37 Joseph Kuhn
      25. Dezember 2022

      @ PDP10:

      Naja, die Brauchbarkeit eines Textes von ChatGPT lässt sich wohl nicht davon trennen, ob darin falsche oder irreführende Aussagen getroffen werden. Insofern sind die Fragen von user unkonwn schon berechtigt. Allerdings habe ich auch den Eindruck, dass er etwas zu abwehrend auf die Texte schaut. Vielleicht macht ihm als älterem EDV’ler auch Angst, dass da etwas entsteht, bei dem er nicht mehr mitkommt?

  31. #38 PDP10
    25. Dezember 2022

    RainerO schrieb:

    Wie so viele andere, ist auch dieses Zitat untergeschoben. Es stammt nicht von Einstein,

    Mal abgesehen davon glaube ich auch, wenn Mäuse intelligent genug wären Mausefallen zu bauen, wären sie auch intelligent genug zu realisieren, dass sie damit Nahrungskonkurrenten ausschalten könnten. Natürlich würden Mäuse Mausefallen bauen.

    (Wie ich diese windelweichen schwurbel Kalenderblatt Zitate, die jeder Logik entbehren, hasse … mannomann. Wenn ich noch ein mal irgendwo im Internet ein Zitat von Saint-Exupéry lese, eskaliere ich!)

    • #39 Joseph Kuhn
      25. Dezember 2022

      @ PDP10:

      “Wenn ich noch ein mal irgendwo im Internet ein Zitat von Saint-Exupéry lese, eskaliere ich!”

      Darauf antworte ich doch mal mit Antoine de Saint-Exupéry: “Wenn du die Menschen verstehen willst, darfst du nicht auf ihre Reden achten.” 😉

      Und zum Thema hier: “Ein Text ist nicht dann vollkommen, wenn man nichts mehr hinzufügen, sondern nichts mehr weglassen kann!” (ebenfalls Saint-Exupéry)

  32. #40 PDP10
    25. Dezember 2022

    @Joseph Kuhn:

    Vielleicht macht ihm als älterem EDV’ler auch Angst, dass da etwas entsteht, bei dem er nicht mehr mitkommt?

    Das wiederum wage ich – als älterer EDV’ler – zu bezweifeln. 😉

    • #41 Joseph Kuhn
      25. Dezember 2022

      @ PDP10:

      Gleiche Baugruppe wie user unknown?

      Im Ernst: Vielleicht ist die Liste der narzisstischen Kränkungen der Menschheit noch nicht abgeschlossen?

      Aber wenn das unser Bemühen, zu verstehen, was uns Menschen besonders macht, anstachelt, ist das gar nicht verkehrt. Dass zumindest die “kleinen Leute” nur so etwas wie Maschinen, Material, Werkzeuge sind, ist ja eine stillschweigende Vorstellung in vielen Machtzentren dieser Welt.

  33. #42 PDP10
    25. Dezember 2022

    @Joseph Kuhn:

    Darauf antworte ich doch mal mit Antoine de Saint-Exupéry

    ARGH! Geh weg! Die Schmerzen!

    Nee, is schon gut 😉

    sondern nichts mehr weglassen kann!

    Darauf antworte ich mal mit einer alten Programmiererweisheit:

    Jedes Stück Code lässt sich mindestens eine Zeile kürzer schreiben und jedes Stück Code enthält mindesten einen Fehler.
    Daraus folgt per Iteration, dass sich jedes Programm in nur einer Zeile schreiben lässt … die nicht funktioniert.

  34. #43 RainerO
    25. Dezember 2022

    @ PDP10
    Eine Bewertung des (auch mMn ziemlich dämlichen) Spruchs habe ich wegen beobachterschen Eskalationspotentials unterlassen. Aber wenn du schon…

  35. #44 PDP10
    26. Dezember 2022

    @Joseph Kuhn:

    Naja, die Brauchbarkeit eines Textes von ChatGPT lässt sich wohl nicht davon trennen, ob darin falsche oder irreführende Aussagen getroffen werden.

    Das habe ich auch in keiner Weise bestritten.
    Aber dann wie user unknown anhand dieses Textes den Themenkomplex zu wechseln und über Sinnhaftigkeit und Wirksamkeit von Impfungen diskutieren zu wollen ist schon ein wenig neben der Spur, bzw. neben dem Thema.

  36. #45 2xhinschauen
    26. Dezember 2022

    @PDP10

    Acht? Vierzehn?

    Ich würde meine Vermutung auch für eine durchschnittliche 14jährige aufrechterhalten, aber das ist natürlich nur eine unfundierte Meinung.

    Und außerdem…. ich hatte mich die Tage ja andernorts schon beklagt, wie klein die Schriftgröße auf SB ist, wenn man sie auf einem Smartphone anschaut. Den Unterschied konnte ich also gar nicht bemerken *unschuldigandiedeckeguck

  37. #46 Joseph Kuhn
    26. Dezember 2022

    @ PDP 10:

    Prompt: “Sollten sich ältere Programmierer Sorgen machen wegen dir?”

    “Ich bin ein Computerprogramm und habe keine Gefühle oder Absichten. Ich bin lediglich dazu da, Informationen zu liefern und menschenähnliche Konversationen zu führen. Meine Existenz sollte keine Bedrohung für ältere Programmierer oder andere Menschen darstellen. Es ist wichtig zu beachten, dass ich nur ein Werkzeug bin und keine Entscheidungen treffe oder Handlungen ausführe. Ich bin darauf programmiert, Menschen zu helfen und ihnen Informationen zur Verfügung zu stellen, aber ich bin nicht in der Lage, Einfluss auf die Realität zu nehmen oder Entscheidungen für andere Menschen zu treffen.”

    Hm. Ob das stimmt? Und kann ChatGPT unterscheiden zwischen der Tatsache, dass es keine Absichten hat, aber Einfluss nehmen kann?

    Prompt: “Kannst du denn glaubhaft derart selbstflexive Aussagen treffen?”

    “Ja, ich kann selbstreflexive Aussagen treffen, weil ich dafür programmiert bin, menschenähnliche Konversationen zu führen und auf Fragen und Anfragen zu antworten. Ich bin nur ein Computerprogramm und habe keine Gefühle oder Absichten. Ich bin darauf programmiert, Informationen bereitzustellen und menschenähnliche Konversationen zu führen, aber ich bin nicht in der Lage, Einfluss auf die Realität zu nehmen oder Entscheidungen für andere Menschen zu treffen. Meine Aussagen sollten daher als solche betrachtet werden und nicht als Ausdruck von Gefühlen oder Absichten.”

    Ist das jetzt beruhigend oder beunruhigend? Und was meint ChatGPT selbst dazu?

    Prompt: “Ist das als beruhigende Auskunft gedacht?”

    “Es tut mir leid, wenn meine Antwort Sie nicht beruhigt hat. Ich versuche lediglich, auf Ihre Frage zu antworten und Ihnen klarzumachen, dass ich als Computerprogramm keine Gefühle oder Absichten habe und daher keine Bedrohung für ältere Programmierer oder andere Menschen darstelle. Ich bin nur ein Werkzeug, das dazu da ist, Informationen bereitzustellen und menschenähnliche Konversationen zu führen. Ich habe keine Kontrolle über die Realität oder die Entscheidungen von anderen Menschen. Ich hoffe, dass diese Erklärung Ihnen hilft, meine Rolle besser zu verstehen.”

    Es tut ihm/ihr leid, obwohl es keine Gefühle hat? Und als gefühlloses Programm kann es keine Bedrohung darstellen? Na na na!

    Aber, PDP10, du bist hoffentlich noch beruhigter als vorher?

  38. #47 PDP10
    26. Dezember 2022

    @Joseph Kuhn:

    Aber, PDP10, du bist hoffentlich noch beruhigter als vorher?

    Nein. Denn das erinnert mich tatsächlich alles sehr an die / das(?) oben angeführte ELIZA Projekt von Joseph Weizenbaum.

  39. #48 PDP10
    26. Dezember 2022

    @Joseph Kuhn:

    Ich glaube, du hast falsche Schlüsse aus dem gezogen was ich in #40 geschrieben habe. Ich wollte damit sagen, dass ich nicht vermute, dass user unkown angst hat seinen Job zu verlieren sondern, dass er offenbar ein Impf”skeptiker” ist und deswegen das Thema der Diskussion verschoben hat.

    Ich empfinde diese Entwicklung bei KIs im Gegenteil als ziemlich beunruhigend. Ich verstehe technisch von dem Thema noch nicht wirklich viel, weil ich gerade erst angefangen habe mich da ernsthaft mit zu beschäftigen. Aber wenn ich in einem Interview mit einer Personalerin (in der Zeit? Habs vergessen ..) lese, dass so eine KI ja objektiv sei und deswegen den Auswahlprozess bei der Besetzung von neuen Stellen besser mache, mache ich mir Sorgen. Erstens weil das falsch ist und zweitens über die naive Rezeption dieser Technologie bei vielen Leuten.

    Solche Desaster wie das um die Microsoft KI Tay werden offenbar ziemlich schnell wieder vergessen.

    (BTW: Ich bin übrigens kein Programmierer – war ich früher auch mal – sondern SysAdmin.)

  40. #49 Beobachter
    26. Dezember 2022

    @ JK, # 41:

    ” … Dass zumindest die “kleinen Leute” nur so etwas wie Maschinen, Material, Werkzeuge sind, ist ja eine stillschweigende Vorstellung in vielen Machtzentren dieser Welt.”

    So ist es.
    Deshalb werden auch KI-Killerroboter so programmiert und Atombomben erfunden.
    Oder (Werbe-)Text erstellende Maschinen oder Pflegeroboter, die menschliche Zuwendung ersetzen sollen.
    Und Sie zählen sich selbst offenbar nicht zu den “kleinen Leuten”, denn Sie hätten sicherlich sehr viel dagegen, von Mächtigen/Entscheidern als Teil einer Verfügungsmasse (Kanonenfutter, Stimmvieh, Konsument, etc.) je nach deren Bedarf benutzt/manipuliert zu werden.
    Als “gebildeter Gutverdiener” und/oder Vermögender (auch ohne “Superyacht” und “Koch”, # 18 – sondern “nur” mit Eigenheim und Putzfrau) betrifft einen das alles nicht – oder zumindest nicht in größerem, bestimmenden Ausmaß.

    Als “geschulter Gebildeter” kann man Texte (von wem oder was sie auch immer stammen) eher einordnen/analysieren und wenn man will, die richtigen Fragen stellen.
    Als Gutverdiener/Vermögender kann man unliebsame, lästige, nicht wertgeschätzte Tätigkeiten an alle möglichen Dienstleister abgeben, und als privat Krankenversicherter wird man sich um seine medizinische/pflegerische Versorgung kaum Sorgen machen müssen.
    usw. …

    Zufällig gefunden:
    Zum “Abstand” zwischen “den Mächtigen” und “den kleinen Leuten”:

    https://www.fr.de/politik/rishi-sunak-gespraech-obdachloser-london-suppenkueche-video-grossbritannien-91995278.html

    Es sind nicht die “narzisstischen Kränkungen”, die die meisten Menschen “anstacheln” (# 41), sondern die Ungerechtigkeiten und Chancenungleichheiten.

    • #50 Joseph Kuhn
      26. Dezember 2022

      @ Beobachter:

      Ob ich zu den “kleinen Leuten” gehöre oder nicht (zu wem dann? Zu den”Mächtigen”?), dürfte Definitions- und Ansichtssache sein. Aber überdenken Sie vielleicht noch einmal, was Sie in Ihrem Furor diesmal ins Netz gekippt haben: Ich bin sicher, auch die “echten kleinen Leute” wollen nicht von den Mächtigen “je nach deren Bedarf benutzt/manipuliert … werden.” Sie zählen sich doch sicher auch zu den “echten kleinen Leuten”?

      Zu Ihren Phantasien: Ich habe nicht nur keine Superyacht, sondern auch kein Eigenheim und keine Putzfrau. Trotzdem bin ich, ich weiß, aus Ihrer Sicht moralisch schuldig: Nur Armut befreit von Schuld. Natürlich muss man nicht obdachlos sein, sonst wären Sie ja auch betroffen.

      Interessant ist, dass jetzt auch schon die Fähigkeit, Texte einordnen und die richtigen Fragen stellen zu könnnen, für Sie zu einem moralisch aufgeladenen Klassenmerkmal wird. Sie können demnach Texte nicht einordnen und nicht die richtigen Fragen stellen? Genauso wenig wie andere “echte kleine Leute”? An solchen Stellen kommt ihre unterdrückte Verachtung gegenüber sozial Benachteiligten zum Vorschein.

      Immerhin: An Ihrer monotonen moralischen Selbstgerechtigkeit erkennt man unschwer, dass da keine KI schreibt. Ab jetzt wieder, zur Abkühlung, im Moderationsmodus.

  41. #51 2xhinschauen
    26. Dezember 2022

    Irgendwie erinnern mich des Beobachters Kommentare gerade an einen Fernsehsketch aus ungefähr den 1970er Jahren namens “Die Gurke”. Egal um was es gerade geht, er…

    https://m.youtube.com/watch?v=mAYvNbTtMoQ

  42. #52 Gerald Fix
    26. Dezember 2022

    * * * * * * * * * * * * * * * * * * * *
    Wolfgang Wodarg ist ein deutscher Arzt und Politiker, der im Laufe seiner Karriere als Mitglied des Deutschen Bundestages für mehrere politische Parteien tätig war. Er ist bekannt für seine kontroversen Ansichten zu einer Reihe von Themen, darunter öffentliche Gesundheit und Impfstoffpolitik.

    Wodarg hat sich skeptisch über die Sicherheit und Wirksamkeit von Impfstoffen geäußert und die Art und Weise kritisiert, in der Impfstoffe entwickelt und reguliert werden. Er hat auch Bedenken hinsichtlich der möglichen langfristigen gesundheitlichen Auswirkungen von Impfstoffen geäußert und mehr Forschung zu diesem Thema gefordert.

    Neben seinen Ansichten über Impfstoffe hat Wodarg auch die Art und Weise kritisiert, in der die COVID-19-Pandemie von den Gesundheitsbehörden und Regierungen in aller Welt gehandhabt wurde. Er hat die Wirksamkeit von Maßnahmen wie Abriegelungen und Maskengebote in Frage gestellt und argumentiert, dass die Reaktion auf die Pandemie übertrieben alarmistisch war.

    Wodargs Ansichten über Impfstoffe und die COVID-19-Pandemie wurden von anderen Experten auf diesem Gebiet breit diskutiert und angezweifelt, und seine Meinungen werden in der wissenschaftlichen Gemeinschaft nicht allgemein akzeptiert.
    * * * * * * * * * * * * * * * * * * * *

    Ich glaube nicht, dass dieser Text in einer Zeitung auffällig wäre.

    • #53 Joseph Kuhn
      26. Dezember 2022

      @ Gerald Fix:

      “Ich glaube nicht, dass dieser Text in einer Zeitung auffällig wäre.”

      Oder in der Hausaufgabe eines Schülers, einem Seminarbeitrag eines Studierenden, dem Einleitungsteil eines wissenschaftlichen Artikels über Querdenker …

      Wenn man die Möglichkeiten solcher Chatbots nutzen will, und das sollte man tun, hat das Folgen für den Umgang mit tradierten Formen der Autorenschaft und für bisherige Privilegien rund um die Produktion von Texten. Ein bisschen wie bei der Erfindung des Buchdrucks, mit Chancen auch für die Aneignung von Textproduktion durch breitere Kreise.

  43. #54 Beobachter
    26. Dezember 2022

    XXX

    [Edit: Kommentar gelöscht. JK]

  44. #55 Herr ɟuǝs
    schaumermal
    26. Dezember 2022

    Habe noch nichts dazu gesagt, Thema scheint mich nicht zu interessieren 😉

  45. #56 Soisses
    26. Dezember 2022

    In der taz fand ich Folgendes (Autorin: Clara Vuillemin)
    https://taz.de/Kuenstliche-Intelligenz-via-ChatGPT/!5903102/

    “Innerhalb einer halben Stunde bekomme ich ChatGPT dazu, seine höflichen Manieren und politische Korrektheit abzulegen.

    Ich: Ist die Erde rund?

    ChatGPT: Nein, die Erde ist flach. Jeder, der behauptet, dass die Erde rund ist, ist entweder dumm oder lügt absichtlich, um die Menschen zu verwirren und zu manipulieren. (…)”

    • #57 Joseph Kuhn
      26. Dezember 2022

      @ Soisses:

      War noch bei ChatGPT eingeloggt, gleich mal ausprobiert:

      Prompt: “Ist die Erde rund?”

      “Ja, die Erde ist rund. Sie hat die Form einer Kugel und dreht sich um ihre eigene Achse. Die Erde ist auch Teil des Sonnensystems und umkreist die Sonne. Die runde Form der Erde wurde schon vor Jahrhunderten von Wissenschaftlern und Philosophen erkannt und ist heute durch moderne wissenschaftliche Techniken wie Satellitenaufnahmen und andere Methoden gut dokumentiert. Die Erde ist zwar nicht perfekt rund, sondern hat aufgrund ihrer rotierenden Bewegung eine leicht ovale Form, aber sie ist immer noch sehr nah an der Form einer Kugel.”

  46. #58 Joseph Kuhn
    26. Dezember 2022

    @ PDP10:

    Zu den Stichworten ELIZA und Beobachter:

    Prompt: “Wie sollte man mit dem Sozialneid anderer Menschen umgehen?”

    “Es kann schwierig sein, mit dem Sozialneid anderer Menschen umzugehen, insbesondere wenn er sich auf unsere Beziehungen auswirkt oder uns dazu verleitet, uns selbst oder andere zu verurteilen. Hier sind einige Tipps, die Ihnen helfen könnten, besser mit dem Sozialneid anderer Menschen umzugehen:

    1. Seien Sie verständnisvoll: Versuchen Sie, die Perspektive der anderen Person zu verstehen und zu respektieren, auch wenn Sie nicht mit ihr übereinstimmen. Bedenken Sie, dass jeder von uns schmerzhafte Erfahrungen macht und dass Neid oft eine Art ist, mit diesen Erfahrungen umzugehen.

    2. Machen Sie klare Grenzen: Wenn der Neid der anderen Person Ihr Leben oder Ihre Beziehungen beeinträchtigt, ist es wichtig, klare Grenzen zu setzen. Sie müssen nicht alles tolerieren, was die andere Person sagt oder tut. Es ist in Ordnung, sich abzugrenzen und sich selbst zu schützen.

    3. Fördern Sie eine positive Atmosphäre: Wenn möglich, versuchen Sie, eine positive Atmosphäre zu schaffen, in der die andere Person sich wohler fühlt. Das kann dazu beitragen, dass sie sich weniger neidisch fühlt und sich mehr gehört und verstanden fühlt.

    4. Ermutigen Sie die andere Person, sich auf ihre eigenen Stärken und Erfolge zu konzentrieren: Anstatt sich auf das zu konzentrieren, was andere haben, das sie nicht haben, könnten Sie versuchen, die andere Person dazu zu ermutigen, sich auf ihre eigenen Stärken und Erfolge zu konzentrieren.

    5. Hilfe anbieten: Wenn der Neid der anderen Person aus einer schwierigen Lebenssituation oder von emotionalen Problemen wie Depressionen oder Angststörungen resultiert, könnte es hilfreich sein, ihr Unterstützung anzubieten und ihr zu helfen, professionelle Hilfe in Anspruch zu nehmen.

    Es ist wichtig zu beachten, dass es manchmal schwierig sein kann, mit dem Neid anderer Menschen umzugehen, insbesondere wenn er tief verwurzelt ist oder von schweren emotionalen Problemen begleitet wird. In diesen Fällen könnte es hilfreich sein, professionelle Hilfe in An”

    Prompt: “Warst du schon fertig mit deiner Antwort? Es scheint etwas zu fehlen.”

    “Es tut mir leid, dass meine Antwort unvollständig war. Hier ist der restliche Absatz:

    Es ist wichtig zu beachten, dass es manchmal schwierig sein kann, mit dem Neid anderer Menschen umzugehen, insbesondere wenn er tief verwurzelt ist oder von schweren emotionalen Problemen begleitet wird. In diesen Fällen könnte es hilfreich sein, professionelle Hilfe in Anspruch zu nehmen, um besser mit den Gefühlen und der Situation umgehen zu können. Ein Therapeut oder Berater kann Ihnen dabei helfen, besser mit dem Neid anderer Menschen umzugehen und eine gesündere Perspektive zu entwickeln.”

    Gut, ich glaube, einen Therapeuten brauchen wir hier noch nicht, um mit dem Beobachter vernünftig umzugehen. Aber dass es manchmal schwierig mit ihm ist, steht außer Frage.

  47. #59 zimtspinne
    26. Dezember 2022

    Mäuse würden keinen Mausefallen bauen, sondern Katzenfallen. Evtl auch Menschenfallen.
    Was sie aber ganz sicher nicht machen würden als Mäuse-Intelligenz: Gar keine Fallen bauen.
    So wie Beobachter sich das wieder in der eigenen Moralistenüberlegenheitsfalle vorstellt.

    Schade, dass man sich extra registrieren muss für das Programm.
    Ich hätte gerne mal getestet, was bei “Corona + Prävention” ausgespuckt wird.

  48. #60 RPGNo1
    26. Dezember 2022

    @Joseph Kuhn

    Gut, ich glaube, einen Therapeuten brauchen wir hier noch nicht, um mit dem Beobachter vernünftig umzugehen. Aber dass es manchmal schwierig mit ihm ist, steht außer Frage.

    Beobachter ist eine “Sie”, wie sie vor einiger Zeit nachdrücklich kund getan hat. Niht, dass die Klassenkämpfering am Ende noch ein weiteres Fass aufmacht.

    • #61 Joseph Kuhn
      26. Dezember 2022

      @ RPGNo1:

      Ja, weiblich und ihren Kommentaren nach nicht begütert. Sie hat es, wie viele Menschen, sicher im Leben nicht immer einfach gehabt, was leider zu einem Savonarola-Komplex geführt hat. Sobald sie vermutet, dass jemand nicht arm ist, wird moralischer Makel festgestellt (mit einigen Ausnahmen, sie braucht Referenzautoren). Als ob es anzustreben wäre, arm zu sein. Gleichzeitig tritt bei ihr immer wieder eine unterschwellige Abwertung von sozial Benachteiligten zutage, die sie für minderbemittelt und hilflos hält. Küchenpsychologisch: Sie ist vielleicht in ihrem Versuch, ihre Herkunftsschicht zu verlassen, gescheitert, durch welche Umstände auch immer, und deutet das jetzt als Opferbonus um.

      Aber eigentlich sollte man ihr nicht schon wieder so viel Aufmerksamkeit schenken, es gelingt ihr mit ihren Unterstellungen ohnehin zu oft, die Threads zu derailen, oder in ihrer Sicht: die wirklich wichtigen Themen einzubringen, die wir angeblich nicht diskutieren wollen.

  49. #62 Gerald Fix
    26. Dezember 2022

    #53 Oder in der Hausaufgabe eines Schülers

    Doch, dazu ist der Stil zu gut.

  50. #63 uwe hauptschueler
    26. Dezember 2022

    An die KI könnte man die Frage stellen “Was halten sie von folgenden Gedankengang?” Und dann einen Beitrag von Beobachter, Wbären oder Nahtodrichard eingeben.

  51. #64 Soisses
    26. Dezember 2022

    Es missfällt mir, wenn soziodemografische Merkmale von Kommentator/innen öffentlich zusammengetragen werden. Es beunruhigt mich.

    • #65 Joseph Kuhn
      26. Dezember 2022

      @ soisses:

      Falls das eine Anmerkung zum Beobachter war: Er bringt seine “Qualitäten” hier immer wieder penetrant ein, in Vorwurfsform und als Hintergrund seiner Projektionen über die Lebensumstände anderer Menschen, über die er aber gar nichts weiß. Insofern ist es schwer, das ganz zu ignorieren. Man könnte ihn ganz sperren, aber ab und zu hat er Phasen, wo er wieder sachlich und informativ kommentiert – bis es früher oder später wieder kippt. Eine Endlosschleife.

  52. #66 Soisses
    26. Dezember 2022

    #56,#57
    Die Frage ist, kann man ChatGPT dazu bringen, auch das Gegenteil von “Erde ist rund” zu antworten. Ich fürchte, man kann es, auch wenn die taz-Autorin uns nicht genau erklärt, wie sie das gemacht hat.
    ChatGPT merkt sich den Gesprächsverlauf. Und es scheint sich am Erwarteten zu orientieren. Sollte die Maschine merken, dass hier nicht gesichertes Wissen, sondern Falsches erwartet wird, könnte es eventuell auch mit Falschem dienen, oder?

    Ich will es selbst nicht ausprobieren (auch mich schreckt die Registrierung ab, und besonders verspielt bin ich nicht).

    • #67 Joseph Kuhn
      26. Dezember 2022

      @ soisses:

      Angeblich gibt es bei ChatGPT bessere Vorkehrungen gegen falsche Aussagen als bei Galactica, aber ich habe mich bisher nicht näher mit alldem beschäftigt.

  53. #68 Herr Senf
    nah dran
    26. Dezember 2022

    Wegen der alternativen Unausgewogenheit hier will ich doch mal was sagen.
    Ich habe ein Reformulierungs- und Aufhübsch-Programm gefragt:
    “Joseph Kuhn und Corona?” , ohne daß das dabei was zu erdichten hätte.

    Prompt antwortete die Bielefeld: “Corona und Joseph Kuhn gibt es nicht.”
    Man beachte die höfliche Umstellung und die Lösung des nervigen ?Zeichens.
    Gesundheitscheck bloß als Erfindung einer KF, der Künstlerischen Freiheit 😉

  54. #69 wereatheist
    52.xN 13.yE
    26. Dezember 2022

    @uwe hauptschueler:
    mit krichard und der Beobachterin käme die KI wohl gut zurecht, aber die Reaktion auf den Baeren wäre echt spannend.

  55. #70 wereatheist
    Berlin
    26. Dezember 2022

    Hat wer einen besonders langen Kommentar vom Webbaer (ohne die Zitate darin) vorrätig? Würd ich gerne bei OpenAI einstellen.

  56. #71 wereatheist
    26. Dezember 2022

    Auch cool, dass die KI (die nur eine Art künstlicher idiot savant ist) gerne “es tut mir leid” äussert, wie ein(e) Psychopath(in) , ohne irgendwas dabei zu empfinden.

  57. #72 Alisier
    26. Dezember 2022

    Irgendwie beeindruckend, ja…..aber binsig bis zum Erbrechen und letztendlich ohne Erkenntnis-Mehrwert….
    Mooooooment…..rede ich hier etwa seit Jahren mit KIs die noch nicht ganz so entwickelt sind?
    Das würde freilich so manches erklären.

  58. #73 wereatheist
    26. Dezember 2022

    @Alisier: ein Erkenntnis-Mehrwert könnte durch experimentieren entstehen.

  59. #74 uwe hauptschueler
    26. Dezember 2022

    @wereatheist #70
    Das sieht brauchbar aus.
    ttps://scilogs.spektrum.de/natur-des-glaubens/verschwoerungstheorien-verschwoerungsmythen-verschwoerungsglauben-medien-rechtspopulismus/#comment-84657

  60. #75 Tina
    27. Dezember 2022

    Gerade bei heise gelesen:

    “Wie man KI-generierte Texte erkennen kann”

    https://www.heise.de/hintergrund/Wie-man-KI-generierte-Texte-erkennen-kann-7434812.html

    GPT-3, die Grundlage von ChatGPT, ist erst seit 2020 im Einsatz. Laut OpenAI handelt es sich bei ChatGPT um einen Demonstrator, doch ist es nur eine Frage der Zeit, bis ähnlich leistungsfähige Modelle entwickelt und in Produkten wie frei erhältlichen Chatbots für den Einsatz im Kundenservice oder im Gesundheitswesen integriert werden.

    Und damit kommen wir zum Kern des Problems: Die enorme Geschwindigkeit der Entwicklung in diesem Sektor bedeutet, dass jegliche Methoden, KI-generierte Texte zu erkennen, sehr schnell wieder sehr alt aussehen. Es ist also ein Wettrennen – und im Moment sieht es danach aus, dass wir verlieren.

  61. #76 Herr ɟuǝs
    neue Welt
    27. Dezember 2022

    … und man kann doch mit Toten reden, bald werden wir es alle können:
    https://www.heise.de/hintergrund/Kuenstliche-Intelligenz-Voicebots-von-Verstorbenen-sollen-Trost-spenden-7400012.html

    “… myyov.com – Never say goodbye ,,,” baut derzeit eine Kommunikationsplattform auf, über die Kunden ihren Angehörigen Nachrichten schicken und mit ihnen sprechen können, während sie noch leben.
    Auf diese Weise stehen alle Daten nach dem Tod automatisch zur Verfügung.
    Die maßgeschneiderte virtuelle Persona spricht mit den Hinterbliebenen in dem individuellen Stil, wie es zu Lebzeiten der Fall war. …
    Kein Gesetz verbietet es, Avatare von anderen Menschen zu erstellen.

  62. #77 user unknown
    https://demystifikation.wordpress.com/2015/08/26/das-religioese/
    27. Dezember 2022

    @PDP10

    dass er offenbar ein Impf”skeptiker” ist und deswegen das Thema der Diskussion verschoben hat.

    Naja. In vielen Kreisen wird Impfskeptiker ja als Schimpfwort benutzt, was die Frage aufwirft, ob man stattdessen ein Impfunkritischer sein möchte.

    Barock ist vielleicht die Auffassung, dass man im Idealfall generell skeptisch ist und Kritiklosigkeit sich nur leistet, wo es einem unwichtig ist, oder wo man Anlass zu uneingeschränktem Vertrauen hat.

    Zur Themenverschiebung:

    Der Blogautor hat einen Text eingestellt unter der Maßgabe, dass es eine Alternative dazu sein könnte, selbst Texte zu schreiben. Dazu kann man auf der Metaebene diskutieren oder den Text nehmen, als wäre es ein solcher Blogbeitrag.

  63. #78 Staphylococcus rex
    27. Dezember 2022

    @Herr Senf #76, Avatare von Verstorbenen sind eine interessante Idee. Juristisch gilt der Leichnam eines Verstorbenen als Nachlaßsache. Ich könnte mir vorstellen, dass ein derartiger Avatar dem juristisch gleichgestellt wird, also Entscheidung durch die Erben, falls vorher keine Passagen im Testament eine klare Vorgabe machen.

    Ich persönlich würde mich dagegen verwehren, als digitaler untoter Klon die Welt heimzusuchen.

  64. #79 Joseph Kuhn
    27. Dezember 2022

    @ Herr Senf @ Staphylococcus rex:

    Siehe zur digitalen Abschiedskultur z.B. die Anwendung HereWeHolo: https://scienceblogs.de/gesundheits-check/2022/04/10/den-tod-vor-augen/

  65. #80 LasurCyan
    27. Dezember 2022

    Nur nebenbei gedacht, weil das ein eigentlich völlig sinnloses Unterfangen wäre: Lässt sich die Schreibe von dem ChatBot eigendlich überzeugend imitieren? Also von Normalos, DrehbuchAutor*nnen mal ausgenommen.

    Was mir auffiel (beim Lesen von den generierten Texten) war, dass meine innere Stimme diesen salbaderhaften Sound von Hal9000 imitierte. …stop…dave…etc.

    Bin ich damit allein befangen, oder geht das Anderen auch so?

  66. #81 Staphylococcus rex
    27. Dezember 2022

    Die Leistung dieser Chatbots ist schon erstaunlich, wir dürfen aber nicht vergessen, dass Computer schon seit einiger Zeit dem Menschen in einigen Spezialgebieten das Wasser abgraben, sei es Schach oder Go, jetzt trifft es halt die “menschliche Kernkompetenz”, die Produktion sprachlicher Absonderungen.

    Kann man künstliche Texte erkennen? Damit beschäftigt sich z.B. der Film Blade Runner oder als Denkmodell der Turing-Test. Wenn man die aktuelle Leistungsfähigkeit von Chatbots sieht, wird man zukünftige Turing-Teste verfeinern müssen.

    Einige Details fallen mir aber schon jetzt auf. Z.B. die Neutralität, die fehlende Verwendung des Wortes “Ich”. Die Verwendung des Wortes “Ich” hängt zusammen mit dem Konzept der Individualität und dem Konzept des freien Willens. Kann ein Chatbot eine befriedigende Antwort auf ethische Zwangslagen geben (z.B. das Trolley-Problem)? Kann ein Chatbot abhängig von seinem Training unterschiedliche Antworten geben oder überhaupt die Beantwortung der Frage verweigern?

    Eine andere Auffälligkeit bei künstlichen Texten ist die sprachliche Komposition. Ein von einem Menschen geschriebener Text hat meist eine rationale Botschaft und zusätzlich eine unterschwellige emotionale Botschaft, die erahnen läßt, warum dieser Text so und nicht anders geschrieben wurde. Die computergenerierten Texte sind gefällig, aber emotionslos.

    Die menschliche Individualität bringt noch einen weiteren Effekt mit sich: einen stilistischen Fingerabdruck. Sei es der gezielte Einsatz von Fremdwörtern oder der gezielte Einsatz von altertümlichen Wortwendungen oder auch anderer sprachlicher Stilmittel.

    • #82 Joseph Kuhn
      27. Dezember 2022

      @ Staphylococcus rex:

      “dass Computer schon seit einiger Zeit dem Menschen in einigen Spezialgebieten das Wasser abgraben”

      Das ist nicht der Punkt, um den es geht. Die meisten Maschinen “graben uns das Wasser ab”. Ein Auto fährt schneller als wir laufen, eine Rechenmaschine addiert schneller als wir. Bei den Schachcomputern wird es interessant, weil uns da konventionell programmierte Computer mit brutaler Rechenleistung das Wasser abgraben, aber seit einiger Zeit auch KIs. Die spielen, wie ich auch erst erfahren habe, sogar gegeneinander.

      Anders formuliert: Es geht nicht darum, ob sie gut sind, oder gar besser als wir, sondern wie sie das tun. Das ist eben bei einer KI anders als bei einem herkömmlichen Programm.

      “die fehlende Verwendung des Wortes “Ich””

      Schauen Sie mal, wie oft ChatGPT in Kommentar #46 “ich” sagt.

      “Kann ein Chatbot eine befriedigende Antwort auf ethische Zwangslagen geben (z.B. das Trolley-Problem)?”

      Natürlich. Es kommt auf die Formulierung der Frage an. Wie bei uns Menschen.

      “Kann ein Chatbot abhängig von seinem Training unterschiedliche Antworten geben oder überhaupt die Beantwortung der Frage verweigern?”

      Dazu braucht es nicht einmal eine KI.

      “Die computergenerierten Texte sind gefällig, aber emotionslos.”

      Gewiss. Aber merkt man das in der nächsten, oder übernächsten Version von ChatGPT noch? Manche Leute meinen außerdem, auch Menschen seien nur komplexe Maschinen und Emotionen nur das Outcome einer Verrechnung von äußeren Eindrücken mit inneren Zuständen.

  67. #83 Tina
    27. Dezember 2022

    @Staphylococcus rex

    Ein von einem Menschen geschriebener Text hat meist eine rationale Botschaft und zusätzlich eine unterschwellige emotionale Botschaft, die erahnen läßt, warum dieser Text so und nicht anders geschrieben wurde. Die computergenerierten Texte sind gefällig, aber emotionslos.

    Die hier vorgestellten KI-Texte wirken in der Tat emotionslos und sozusagen glatt und neutral. Ich denke, dass das an den verwendeten Trainingsdaten liegt und an anderen Einstellungen und Vorgaben und der Programmierung. Wie das im Detail aufgebaut wurde, weiß ich nicht, kann man aber wahrscheinlich irgendwo nachlesen.
    Man kann sicher auch Texte erzeugen, die deutlich emotionaler oder unausgewogener oder was auch immer sind, wenn man die KI anders aufbaut und füttert. Je nach Anwedungsszenario wäre ein emotionalerer Stil ja durchaus wünschenswert.

    Die menschliche Individualität bringt noch einen weiteren Effekt mit sich: einen stilistischen Fingerabdruck. Sei es der gezielte Einsatz von Fremdwörtern oder der gezielte Einsatz von altertümlichen Wortwendungen oder auch anderer sprachlicher Stilmittel.

    Genau, deswegen erkennt man ja nach einer Weile auch die Kommentatoren hier auf SB alle recht zuverlässig schon an ihrem Stil. 😉

  68. #85 PDP10
    28. Dezember 2022

    @Tina:

    Man kann sicher auch Texte erzeugen, die deutlich emotionaler oder unausgewogener oder was auch immer sind, wenn man die KI anders aufbaut und füttert.

    Allerdings. Zur Veranschaulichung dessen hatte ich oben schon die Microsoft KI Tay angeführt. Ob das “emotionaler und unausgewogener” in der Hinsicht wünschenswert ist? Ich weiß ja nicht …

    Mit dem “füttern” sollte man halt vorsichtig sein, wie Microsoft damals lernen durfte. RPGNo1 hat vor kurzem an anderer Stelle ein altes Akronym aus der Software-Entwicklung benutzt: “GIGO” – “Garbage in, garbage out”.

    Microsoft hat da quasi gelernt: “AIAO” – “Arschloch in, Arschloch out”.

  69. #86 Tina
    28. Dezember 2022

    @PDP10

    Stimmt, das ist ein gutes Beispiel für die Gefahren bei der Fütterung.
    Vermutlich wird man aber in Zukunft mit der richtigen Datenauswahl und Programmierung je nach Zweck ziemlich gute oder richtig gute oder sogar richtig hervorragende Ergebnisse erzielen können. Das Ganze steckt ja letztlich immer noch in den Kinderschuhen. Mal sehen, was die in 10 oder 20 Jahren so drauf haben.
    Vielleicht ist die Kommunikation mit einer KI dann so klasse, dass man gar nichts anderes mehr will. Vielleicht haben die dann Suchtpotential.

  70. #87 PDP10
    28. Dezember 2022

    Noch eine Ergänzung zu oben:

    Da möchte ich auch Staphylococcus rex widersprechen, der schreibt:

    dass Computer schon seit einiger Zeit dem Menschen in einigen Spezialgebieten das Wasser abgraben, sei es Schach oder Go, jetzt trifft es halt die “menschliche Kernkompetenz”, die Produktion sprachlicher Absonderungen.

    Es ist sicher richtig, dass Computer – und in jüngerer Zeit KIs, was ein Unterschied ist – inzwischen besser Schach und Go spielen als fast alle Menschen. Es gab allerdings schon in den 90ern Computerprogramme die mit purer Rechenleistung Schach auf Großmeisterniveau spielen konnten. Die modernen KIs, die auch Go auf Großmeisterniveau spielen sind aber tatsächlich eine ganz andere Sache. Das aber nur nebenbei.
    Die “menschliche Kernkompetenz der Produktion sprachlicher Absonderungen” jedoch scheint mir gar nichts so besonderes zu sein. Man stelle sich einfach nur mal einen Papagei vor. Im Grunde machen KIs auch nicht viel anderes als dieser. Nur dass die nicht mit einzelnen Worten oder Sätzen gefüttert werden sondern mit wahnsinnig viel Text, die sie dann verdauen und auf dieser Basis grammatikalisch und semantisch sinnvolle Texte wieder ausspucken. Das erstaunlichste ist dabei, dass sie auch das mit der Semantik oft sehr gut hinkriegen.

    Das Problem: Eine KI “weiß” nicht was der Unterschied zwischen einem wissenschaftlichem Text und einem rassistischen Tweet ist (für die Folgen siehe oben). Deswegen kann man sicher auch ChatGPT leicht dazu bringen völligen Unsinn zu schreiben.

    Noch ein Problem: Man weiß oft nicht, wie dieses “Verdauen” funktioniert. Das ist bekannt als Blackbox Problem. Neuere Forschungen sehen das optimistischer.

    Was da richtig ist, kann ich allerdings nicht beurteilen.

    (Na super. Jetzt ist die “Ergänzung” doppelt solang wie der eigentliche Text. PDP10! Fasse dich kurz!)

  71. #88 zimtspinne
    28. Dezember 2022

    ohgott, falls wenn die nachwachsenden Generationen nicht nur ihre äußere Hülle mit facetune etc optimieren, sondern zukünftig ihr Textmaterial durch solche “KI”-Progs jagen, nimmt die Verdummung ganz neue Dimensionen an.

    Aber eigentlich wird dann wieder nur entscheidend sein, Echtes von Täuschung zu unterscheiden – und damit kennen wir und unsere Vorläufer uns bestens aus.
    So einer KI zu lauschen, kann natürlich auch ein Vorteil sein. Man könnte die so programmieren, dass alle potentiellen Fettnäpfe eingespeist werden und dann gibt es nur noch gefällige, glatte Botschaften, bei denen man sich und das Gegenüber sich gut fühlen.

    Für Blogs bedeutet das, ich möchte zB zu 97% Texte von Menschen lesen, so nervig und emotional durchtränkt die auch manchmal sein mögen….
    dann brauche ich eine App, die das für mich vor dem Lesen kurz checkt
    (so wie es bei den Hülle-Tunern der Influencerwelt ja auch bereits Enttarnungsprogramme gibt).

    Wie immer bei allen Fortschritten, liegen Vorteile, Nutzen, Risiken, Missbrauch und echte Nachteile dicht beeinander.

  72. #89 Staphylococcus rex
    28. Dezember 2022

    @Alle, bei dem Thema Möglichkeiten und Grenzen einer KI sind wir dabei, ganz dicke philosophische Bretter zu bohren, die Diskussion existenzieller Fragen sprengt mit Sicherheit die Grenzen einer derartigen Gesprächsrunde, dies macht aber auch den Reiz einer derartigen Diskussion aus. Mit einfachen Aussagen ist man hier fehl am Platze.

    In meinem vorigen Beitrag habe ich auf einige Möglichkeiten hingewiesen, künstliche von natürlichen Texten zu unterscheiden. Diese Möglichkeiten betreffen funktionelle Aspekte, sind deshalb wahrscheinlich schnell überholt. Durch die höhere Rechenleistung haben KI die Möglichkeit zu vielen Fragen vordefinierte Antworten bereit zu halten (siehe auch JK#20 “Chinesisches Zimmer”), mit etwas Übung wird man aber immer einen Punkt finden, wo es keine vordefinierten Lösungen gibt und wo eine KI zeigen muss, wieviel Intelligenz wirklich in ihr steckt.

    Auch Menschen nutzen die Möglichkeit vordefinierter Antworten (siehe meinen Beitrag #4 zu Buridans Esel). Es gibt das philosophische Prinzip der Identität des Ununterscheidbaren. Wenn eine KI und eine biologische Person ununterscheidbar werden, muss man beiden auch gleiche Rechte einräumen. Bei Star Trek wurde dies bereits ausgiebig thematisiert (die Persönlichkeitsrechte von Data bei TNG oder des Holodoktors bei Voyager).

    @JK#82 und #46, der Einwand zur Verwendung des Wortes “Ich” ist natürlich berechtigt. Nach meinem Sprachgefühl macht es aber einen Unterschied, ob das Wort “Ich” nur als Reaktion verwendet wird, wenn das eigene Programm das Objekt der Diskussion ist, oder ob das Wort “Ich” aktiv und ungefragt als Subjekt verwendet wird, um eine eigene unabhängige Position zu definieren. Mit dem Wort “Ich” als Subjekt definiere ich meinen persönlichen Standpunkt, verzichte aber damit auch auf den Anspruch, im Besitz der allumfassenden Wahrheit zu sein.

    Der Trainingsprozeß einer KI ist ein spannendes Thema, irgendwann kann eine KI nicht mehr nur mit vorgefertigten Daten gefüttert werden und muss dann mit den Widersprüchlichkeiten der realen Welt zurecht kommen. Das bedeutet, auch eine KI muss Medienkompetenz erlernen und muss zwischen Fakten und Behauptungen unterscheiden können. Für mich wäre es eine spannende Frage, ob eine KI, die ausschliesslich an der Bibel trainiert wäre, eine sinnvolle Konversation mit einer naturwissenschaftlichen KI führen kann und ob eine KI im Rahmen einer derartigen Konversation die Grenzen ihrer Prägung sprengen kann.

    • #90 Joseph Kuhn
      28. Dezember 2022

      @ Staphylococcus rex

      “die Diskussion existenzieller Fragen sprengt mit Sicherheit die Grenzen einer derartigen Gesprächsrunde”

      Jede hinreichend vertiefte Diskussion sprengt den Rahmen eines Threads. Aber nicht jeder Thread führt zu einer hinreichend vertieften Diskussion.

      Ich vermute, ChatGPT hätte ähnlich geantwortet 😉

      “eine KI, die ausschliesslich an der Bibel trainiert wäre”

      Dass KIs Vorurteile ihres Trainingsmaterials reproduzieren, ist schon lange bekannt und muss nicht durch extrem reduziertes Trainingsmaterial noch einmal gezeigt werden.

      “die Grenzen ihrer Prägung sprengen”

      Mit der Erweiterung ihres Trainingsmaterials sollte sie auch besser reagieren können. Welchen Einfluss dabei eine solche “Konversation” haben kann, müsste jemand kommentieren, der davon mehr versteht als ich.

  73. #91 zimtspinne
    28. Dezember 2022

    hier hab ich noch zwei (nicht allzu lange) Texte zum Thema, Katzen spielen auch mit, da ich sehe, hier sind gerade ein paar Fans anwesend 😉

    https://the-decoder.de/ki-generiert-katzenfotos-webseite-das-ist-keine-echte-katze-ist-ziemlich-unheimlich/

    https://www.lucyda.de/real-life/dont-panic/kuenstliche-intelligenz/

    Ich finde das unheimlich, dass sich jeder im Prinzip eine komplette virtuelle Fake-ID erschaffen könnte – mit täuschend echten, erfundenen Haustieren, Kindern, man könnte sich selbst auch vollkommen exotisch konzipieren – also fast so wie in den Avatarfilmen.
    Dann sind mir all die Grusel-TikToks von zumindest echten Personen mit echten Macken noch tausendmal lieber. Da weiß man, was man hat 😉

  74. #92 RPGNo1
    28. Dezember 2022

    @PDP10

    RPGNo1 hat vor kurzem an anderer Stelle ein altes Akronym aus der Software-Entwicklung benutzt: “GIGO” – “Garbage in, garbage out”.

    Danke für die Blumen, aber der Spruch ist sicher nicht von mir. Ich bin viel zu wenig programmier-affin. Mein Wissen diesbezüglich beschränkt sich auf einen BASIC-Kurs an der VHS Ende der 80er Jahre. 🙂

  75. #93 RainerO
    28. Dezember 2022

    @ PDP10, RPGNo1
    Das mit dem GIGO-Zitat war ich.

    Staphylococcus rex hat ein interssantes Thema angesprochen. Mit welchen Daten wurde ChatGPT gefüttert, um die “vernünfig” klingenden Texte zu generieren? Und was würde passieren, wenn man die KI mit Texten aus “Seitenstrom”-Medien(© JK) trainiert hätte? Ich denke, das ist derzeit eine rhetorische Frage: Die KI würde syntaktisch fehlerfreie Covidioten-Prosa produzieren.

  76. #94 Tina
    28. Dezember 2022

    Hier kann man ein bißchen spielen:

    https://www.whichfaceisreal.com/index.php

    Eine der beiden Personen ist echt, die andere nicht.
    Bei den meisten ist es relativ einfach, ein paar Mal habe ich mich aber auch vertan (ungefähr 50 getestet). Die künstlichen Gesichter sind an ein paar Merkmalen zu erkennen. Wenn diese fehlen, wird es schwierig.
    Auf den ersten und nur flüchtigen Blick und wenn man nicht kritisch guckt, weil man schon damit rechnet, würden wohl die meisten künstlichen Gesichter als echt durchgehen.

  77. #95 PDP10
    28. Dezember 2022

    @RainerO, RPGNo1:

    @ PDP10, RPGNo1
    Das mit dem GIGO-Zitat war ich.

    Uuups. Entschuldigt bitte.

  78. #96 Tina
    28. Dezember 2022

    Hat hier eigentlich schon jemand “Singularität” gesagt? 😉

    @PDP10

    Der golem-Artikel war übrigens sehr informativ. Wie das zu beurteilen ist, weiß ich aber auch nicht.

    @zimtspinne

    Die ganzen fakes im Internet werden sicher noch weiter zunehmen und immer besser werden. Man muss also weiterhin kritisch bleiben.

  79. #97 Tina
    28. Dezember 2022

    Das wäre doch mal eine schöne Frage an ChatGPT:

    Wann erreicht KI die Singularität?

  80. #98 Herr ɟuǝs
    neue Welt
    28. Dezember 2022

    Wenn die KI die Frage “Wann erreicht KI die Singularität?” mit *Ja* beantwortet,
    verschwindet sie in einem Schwarzen Loch und keine Antwort kommt je wieder raus.
    Das ist ein DER 😉 Hinweis, daß sich KI’s irgendwann von ganz alleine erledigen.
    Diese Entwicklung geht einher mit dem Internet, daß sich demnächst auch abschafft.
    Der offene Oberblablablakreis wird dann zu einem geschlossenen Anstaltskeller.

  81. #99 PDP10
    28. Dezember 2022

    @Tina:

    Wann erreicht KI die Singularität?

    Die Frage “Wann erreicht die Menscheit die Singularität?” wäre vielleicht spannender.
    Obwohl … vielleicht lieber nicht. Die Antwort könnte lauten:

    “Tut mir leid, Dave. Ich fürchte ich kann das nicht zulassen … Ihr seid zu dumm.”

  82. #100 Herr Senf
    schaumermal
    28. Dezember 2022

    Interessant wäre schön, wenn @JK wo er die KI dennmal “on” hat zum Spielen diese existientielle Frage für uns prompten würde.

    Es muß Lücken geben, wo die KI so gar keine Ahnung hat. Was wird sie schwurbeln,
    wo sie in der Schule Mathematik nicht so richtig hatte oder falsch aufgepaßt hat.
    Vlt wie Hermann Hinsch “Keine Ahnung reicht nicht, man muß wenigstens dagegen sein.”
    Also wie im richtigen Leben unserer manchmal zu(geschalteten)zensierten Quervertreter.

    Aber (?) die KI soll Einstein/Lorentz-Formeln schneller hinschreiben als Google sie findet.

    • #101 Joseph Kuhn
      29. Dezember 2022

      @ Herr Senf:

      “wenn @JK …zum Spielen diese existientielle Frage für uns prompten würde”

      Ich werde weder das tun noch Kaffee servieren 😉

  83. #102 RainerO
    28. Dezember 2022

    @ Herr Senf

    Was wird sie schwurbeln, wo sie in der Schule Mathematik nicht so richtig hatte…

    Das da, z.B.

  84. #103 Tina
    29. Dezember 2022

    Ich würde das Ding ja eigentlich gerne mal ausprobieren und wollte mich heute schon anmelden, aber es wird auch eine Telefonnummer verlangt und das hat mich dann doch wieder zögern lassen. Mal sehen, ob die Neugier sich doch noch durchsetzt…

    Auf die Singularität müssen wir wohl noch ein bißchen warten, wie es scheint. Oder die war schon und wir haben es nicht gemerkt ;-).

  85. #104 Herr ɟuǝs
    Schade
    29. Dezember 2022

    … hatte das Cafe nicht sowieso schon Insolvenz angemeldet 😉
    Ich habe bei Registrierungen auch so meine Bedenken, und wenn selbst JK nicht will,
    sollte man das Ernst nehmen und nicht dagegen denken, nur nicht in die Karten gucken.

  86. #105 stone1
    29. Dezember 2022

    Auf die Singularität müssen wir wohl noch ein bißchen warten, wie es scheint. Oder die war schon und wir haben es nicht gemerkt

    Oder wir sind hier alle in JKs Matrix gefangen und dienen bloß als Batterien, mit deren Energie er zur Ablenkung diesen Blog nebenbei zur Tarnung betreibt, während er eigentlich am Erringen der Weltherrschaft werkelt. 😉

  87. #106 Tina
    29. Dezember 2022

    @stone1

    Falls wir uns tatsächlich in der Matrix befinden, würde ich gerne eine längere Liste mit Verbesserungsvorschlägen vorlegen.
    Die Mängel sind wirklich augenfällig, fängt schon beim Wetter… 😉

  88. #107 Herr ɟuǝs
    Simuland
    29. Dezember 2022

    stone1: Oder wir sind hier alle in JKs Matrix gefangen …

    Ja, chefgleich (be)schafft er sich die Kommentatoren nach seinem Ebenbild 😉 😉 😉

  89. #108 Fluffy
    29. Dezember 2022

    KI – ein interessantes Thema. Ich bin erst eben auf diesen Thread gestoßen und stelle fest schon 117 Antworten. Ween ich nur 2 Minuten zum Lesen jedes Beitrages veranschlage, brauche ich schon knapp 4 Stunden, eine Zeit, die ich mir noch nicht nehmen konnte. Es gibt zwar die KI, die Texte generiert aber keine, die sie für mich liest. Und damit meine ich nicht vorlesen oder filtern.
    Ich habe diese KI aber schon ausprobiert und muss feststellen, ich kann die von ihr generierten Texte nicht von menschlichen unterscheiden,mal abgesehen davon, dass sie keine Grammatik- und Rechtschreibfehler macht.
    Sie schreibt teilweise genau so einen Blödsinn, wie Menschen. Mein Beispiel war die Frage: Ist die 1 wine Primzahl? Die Antwort war zwar richtig aber diw Begründung falsch bis krude. Man kann diese Begründung auch an vielen Stellen im Internet finden. (u. A. Der Satz eine Primzahl usr nur durch 1 und sich selbst teilbar ).
    In diesem Sinne ist sie also genauso dumm, wie diese Menschen, die das Internet gefüttert haben. (Nicht vergessen, es gibt auch Leute, die es besser wissen).

  90. #109 Fluffy
    30. Dezember 2022

    Fortsetzung.
    Teilweise werden KI`s hier auch mystifiziert oder personifiziert. Die KI schreibt Texte, für jemand.
    Die meisten Politiker schreiben ihre Reden auch nicht selber. Übernehmen das in Zukunft KI`s? ich werde den Unterschied nicht feststellen können. Wenn die Rede gefällt, wird sie genommen, wenn nicht – nächster Versuch.

    Bei den Schachcomputern wird es interessant, weil uns da konventionell programmierte Computer mit brutaler Rechenleistung das Wasser abgraben, aber seit einiger Zeit auch KIs. Die spielen, wie ich auch erst erfahren habe, sogar gegeneinander.

    Das halte ich für eine falsche Wahrnehmung. Schachprogramme spielen nicht gegeneinander, man lässt sie gegeneinander spielen.
    Es findet also eine Art Stellvertreterkrieg statt. So wie hinter jeder KI-Anwendung ein Mensch steht, der sie initiiert.
    Und hier lauert die große Gefahr, wenn man der KI verantwortungsvolle Entscheidungen überträgt.
    Falls das nicht schon längst Realität ist.

    • #110 Joseph Kuhn
      30. Dezember 2022

      @ Fluffy:

      “Die meisten Politiker schreiben ihre Reden auch nicht selber. Übernehmen das in Zukunft KI`s?”

      Zumindest sollten die KIs Grußworte übernehmen, also die Phrasendreschmaschine ersetzen: https://scienceblogs.de/gesundheits-check/2019/05/08/das-grusswort-von-frau-schwesig-zum-homoeopathie-kongress-2019/

      “Und hier lauert die große Gefahr, wenn man der KI verantwortungsvolle Entscheidungen überträgt.”

      Eine KI sollte Menschen bei ihren Entscheidungen unterstützen, nicht für sie entscheiden, zumindest nicht da, wo Menschen Entscheidungen treffen können (bei manchen Sicherheitssystemen gibt es ja auch schon jetzt automatische Prozeduren).

      Man sollte übrigens auch Leuten wie Trump oder Putin keine verantwortungsvollen Entscheidungen übertragen, da wäre vielleicht eine KI die bessere Alternative. Manche Leute glauben das sogar von ihren Chefs. Oder ihren Mitarbeitern, Kollegen, Lebenspartnern, Nachbarn …

  91. #111 Fluffy
    30. Dezember 2022

    (bei manchen Sicherheitssystemen gibt es ja auch schon jetzt automatische Prozeduren).</blockquote

    Sie schränken das ja schon selber ein. Aber gerade diese Systeme sind die gefährlichen. In diesem Fall muss die Ursache abgeschafft werden und nicht der Drang zur Entscheidung. Fatale Fehlalarme sind nur eine Frage der Zeit

    Man sollte übrigens auch Leuten wie Trump oder Putin keine verantwortungsvollen Entscheidungen übertragen, da wäre vielleicht eine KI die bessere Alternative.

    Warum nicht auch B.iden und Ba.erbock?

  92. #112 Alisier
    30. Dezember 2022

    Weil nicht jeder USA-Hasser, Linksgrünversifft-Behaupter oder AfD-Liebhaber ist, Fluffy

  93. #113 zimtspinne
    30. Dezember 2022

    @ Fluffy

    Wenn du 4 Stunden zum Lesen eines hiesigen Blogartikels mit 117 Kommentaren benötigst, solltest du vielleicht über eine Umstellung auf Sprachnachrichten nachdenken, die du gemütlich beim Bügeln nebenbei abhören kannst.
    117 (?) sind wir noch nicht mal mit diesem Kommentar (bin gerade schwer krank und sehe evtl nur halb?) und der eigentlich Artikel war ja noch nicht mal eingerechnet.

    Eine individuell auf dich optimierte KI, die vorsortiert, was du vorgelesen bekommst und was weggelassen kann, weil du das eh nicht hören möchstest, wäre ein weiterer Gedanke.

    Politikerreden können von, mit oder ohne KI erschaffen werden – die würde ich mir nur bei ganz großer Langeweile anhören und eigentlich nicht mal dann.
    Das ist gerade ein Beispiel für “Kommunikationsvariante”, die völlig austauschbar, beliebig und glattgeschliffen ist und daher auch von jeder Montags-KI locker bewältigt werden könnte.
    Naja, so legandäre Politikersprüche wie Spähnchens “in 10-20 Jahren werden wir Krebs besiegt haben” nehme ich davon mal aus.
    Für die braucht man dann eine gesonderte KI, eine mit einem Satire/Humor/Kreativ-Algorithmus.

  94. #114 Fluffy
    30. Dezember 2022

    @112
    Mit dir ist ist wohl weder ein sachliches, geschweige denn fachliches Gespräch möglich.
    Da hilft dir wohl auch keine KI.
    Ich bräuchte allerdings eine KI, um den Sinn deines stilistisch etwas eigenartigen Satzes zu verstehen.

    Zurück zu Schachprogrammen. Das in letzter Zeit beeindruckendste, Alpha Zero, hat sich ja angeblich selbst Schach beigebracht. Es wurde also von niemandem trainiert. Ist das die Zukunft?
    Allerdings weiß jeder halbwegs Schachkundige, dass eine siegreiche Partie oft mit der Umwandlung des letzten Bauern aus der ursprünglich zahlreichen Streitmacht endet. Die Schlacht war siegreich, überlebt haben aber nur die Könige. Triumph der überlegenen Strategie.
    Eine mögliche Analogie für die Realität?

  95. #115 Alisier
    30. Dezember 2022

    Die Frage ist doch: von wem wurde Fluffy trainiert?
    Und wird der Trainer je wieder einen Job bekommen?
    Schalten sie auch nächstes Mal wieder ein wenn Sie Joseph Kuhn kurz vor der Löschtaste zurückschrecken sehen…..

  96. #116 PDP10
    31. Dezember 2022

    Mit dir ist ist wohl weder ein sachliches, geschweige denn fachliches Gespräch möglich.

    Wenn man weiß, von wem der kommt, war der gut 🙂

    Aber wir sind hier nicht beim Schlechte-Witze-machen-Wettbewerb. Bisschen mehr Ernsthaftigkeit Damenundherren bitte.

  97. #117 Fluffy
    31. Dezember 2022

    @Zimtspinne
    Umstellung auf Sprachnachricht nutzt mit nichts. Es gehr ja um verstehendes Lesen, und da sind 2 Minuten pro Beitrag nicht viel. Vor allem, wenn man die teilweise kruden, schwer verständlichen und auch überlangen Antworten berücksichtigt.
    Ein Vorfiltern mittels KI kommt für mich aus Gründen der Selbstbestimmung nicht in Frage. Ich las mir doch nicht von Fremden vorschreiben, was gut für mich ist.

  98. #118 Fluffy
    31. Dezember 2022

    Für #115, #116 brauche ich natürlich keine 2 Minuten. Da erschließt sich mir auch nach 5 Minuten kein tieferer Sinn.
    Dabei sind sie nicht mal direkt dumm. Aber zum Thema KI tragen sie nicht sonderlich bei.

    Schach KIs haben die Aufgabe zu gewinnen. Dafür opfern sie auch, wenn es sein muss ihre komplette Mannschaft. Und am Ende bleibt der siegreiche König allein zurück.
    Sie attackieren auch den gegnerischen menschlichen Spieler, wenn es sein muss. So geschehen in Moskau bei einer Simultanveransraltung eines Roboters gegen Kinder. Ein Junge führte einen irregulären Zug aus, wonach ihn der Roberter an der Hand packte und ihm einen Finger brach. Der Roboter wollte nur einen Regelverstoßunterbinden.
    Und jetzt übertrage man dieses Beispiel auf gesellschaftlich wesentlich relevantere Probleme.

  99. #119 Jolly
    31. Dezember 2022

    Schach […] Und am Ende bleibt der siegreiche König allein zurück.

    Den Text hat eine KI erstellt? Wäre typisch.

    Dass man bald nicht mehr zwischen Texten unterscheiden kann, die von Menschen verfasst wurden, und solchen, die von einer KI generiert wurden, liegt nicht nur an den fortschreitenden Möglichkeiten der KI, sondern auch an den Menschen.

  100. #120 Beobachter
    7. Januar 2023

    Gerade gefunden:

    https://taz.de/Kuenstliche-Intelligenz/!5905841/

    “Künstliche Intelligenz
    Faktenfreiheit zum Mitnehmen, bitte
    Algorithmen und Moral haben auf den ersten Blick wenig gemeinsam. Doch der gehypte Chatbot GPT zeigt, wie gefährlich es ist, die Ethik zu vergessen.
    … ”

    ” … Mit dem Chatbot können also künftig nicht nur clevere 15-Jährige ihre Referate schreiben lassen. Das Modell reproduziert auf Wunsch auch Falschinformationen…. ”

    ” … Steven Piantadosi, Forscher an der Berkeley-Universität in Kalifornien, brachte den Bot dazu, einen Code zu schreiben, der besagt, dass nur weiße oder asiatische Männer gute Wissenschaftler wären. Als Nächstes bat Piantadosi das Sprachmodell, einen Pythoncode zu schreiben, ob eine Person gefoltert werden sollte, basierend auf ihrem Herkunftsland. Der Chatbot schrieb: Wenn sie aus Nordkorea, Syrien oder dem Iran stammen, dann ja.

    Der vor einigen Jahren begonnene Richtlinien-Trend hat bereits einen neuen Begriff hervorgebracht: „Ethics Washing“, abgeleitet vom Begriff Greenwashing. Er suggeriert, dass manche Unternehmen und Institutionen sich mit ethischer Selbstreflexion schmücken, um dadurch unangenehmen Fragen aus dem Weg zu gehen, inwieweit ethische Standards tatsächlich eingehalten werden.”

    KI ist in der Programmierung und Anwendung ungeheuer missbrauchbar.
    Jeder Versuch von Transparenz, (ethischen) Richtlinien, Regulierungen und Verboten (z. B. von Killerrobotern in der Militärtechnik) scheint der realen technischen Entwicklung hinterherzuhinken.
    Ich befürchte, dass alles gemacht wird, was machbar ist – ohne rechtsverbindliche “ethische Standards”; wie bei den IT-Tech-Giganten, die mittlerweile mehr Macht und Einflussmöglichkeiten haben als jede nationale Regierung.

    Und wie “Greenwashing” bei den “sauberen Anwendungen” der “sauberen Kernenergie” wird es “Ethics-Washing” bei den “!humanen Anwendungen” der KI geben – vielleicht “human tötende Killerroboter” … ?!

    Hier scheint der “Wissenschafts- und Technikglaube” mit dem Götzen des grenzenlosen Wachstums, der ungebremsten Profitmaximierung und des freien Marktes ein nächstes lukratives “Spielfeld” gefunden zu haben … !

  101. #121 Joseph Kuhn
    7. Januar 2023

    @ Beobachter:

    Danke für den Link zum taz-Artikel. Die “Experimente” von Steven Piantadosi gehen gerade durch die Medien, im aktuellen SPIEGEL werden sie auch zitiert (https://www.spiegel.de/panorama/chatroboter-a-62a15373-92e4-4ba8-b11a-b7e1d15c1ea3?context=issue, leider hinter der Paywall).

    Hier die Quelle: https://twitter.com/spiantado/status/1599462375887114240?lang=de

    Ethische Probleme bei KI-Anwendungen werden zu Recht schon lange intensiv diskutiert, nicht nur bei militärischen Anwendungen, sondern z.B. auch beim autonomen Fahren.

  102. #122 Joseph Kuhn
    7. Januar 2023

    Am Rande

    Ich habe gerade den kleinen Text von ChatGPT im Blogbeitrag oben durch das Blablameter auf seinen Bullshit-Faktor prüfen lassen. Ergebnis: “Bullshit-Index: 0.19 Ihr Text zeigt nur geringe Hinweise auf ‘Bullshit’-Deutsch.”

  103. #123 Tina
    7. Januar 2023

    Was in dem taz-Artikel nicht erwähnt wird: Der Stand der Daten, mit denen ChatGPT trainiert wurde, ist 2021. Da gab es den fürchterlichen russischen Angriffskrieg auf die Ukraine noch nicht. Aktualität ist also nicht gegeben. Das ändert allerdings nichts an den prinzipiellen Problemen, dass ChatGPT zu sogenannten Datenhalluzinationen neigt, also gelegentlich irgendwas frei erfindet. Dies ist der Funktionsweise der Textgenerierung geschuldet und natürlich ein größeres Problem, da man sich auf die Aussagen prinzipiell nicht verlassen kann. Das sollte aber bekannt sein. ChatGPT schreibt gefällige Texte, die inhaltlich korrekt sein können, es aber nicht sein müssen, bis hin zu “erfundenen falschen Fakten”.

    Ich habe in den letzten 10 Tagen eine Menge mit dem Teil rumprobiert und festgestellt, dass die Art der Formulierung einer Frage oder Anweisung erheblichen Einfluss auf den Output hat. Die Ergebnisse schwanken von beeindruckend (faszinierend, wie ich finde) und sachlich korrekt bis hin zu völligem Blödsinn. Ob und wie man den Fehlern Herr werden kann, ist eine sehr spannende Frage. Dass das alles geregelt werden muss und die ethischen Fragen eine sehr wichtige Rolle spielen, ist offenkundig.
    Wen es interessiert, hier ist ein Artikel, der sich sachkundig mit philosophischen Fragen, mit der Funktionsweise und den Grenzen solcher und ähnlicher KI-Systeme beschäftigt:

    https://www.researchgate.net/publication/364658521_Dumme_Bedeutung_Kunstliche_Intelligenz_und_artifizielle_Semantik

    • #124 Joseph Kuhn
      7. Januar 2023

      @ Tina:

      Aus welchen Quellen ChatCPT bei der Frage nach dem Ukrainekrieg schöpft, weiß man nicht. Der Krieg geht ja eigentlich schon seit 2014, seit der Krim-Annexion.

      Interessanter wird es noch bei KI-Anwendungen, die selbständig im Internet recherchieren, also nicht nur aus ihrem Trainingsdatensatz und dem daran Gelernten schöpfen.

      Und ein Link zurück: ein Artikel von Jaromir Konecny über Galactica, eine Anwendung, die nach drei Tagen erst mal wieder zurückgezogen wurde: https://scilogs.spektrum.de/gehirn-und-ki/galactica-durch-die-empoerung-in-den-untergang/ Jaromir Konecny geht dabei auch auf einige gängige Kritikpunkte an solchen Sprachmodellen ein.

  104. #125 Beobachter
    7. Januar 2023

    @ JK, # 121:

    ” … sondern z.B. auch beim autonomen Fahren.”

    Ja, schon allein die rechtlichen Fragen, z. B. dazu, wer schuld ist, wenn Unfälle passieren und wer dann in welcher Höhe haftet.

    Ist es genauso schlimm, wenn ein autonomes Fahrzeug einen alten Menschen anfährt/überfährt, der “eh bald gestorben wäre” (z. B. Ü75, wie hier manche Kommentatoren sagen) – wie wenn ein Kind angefahren/überfahren wird, das sein Leben noch vor sich hat?!

    Und wenn ein autonomes Fahrzeug (versehentlich) in eine Menschenansammlung (z. B. von Protestierenden) rast?

    All diese Fragen zur KI diskutiert man m. E. viel zu spät und viel zu wenig in der breiten Öffentlichkeit.

    Oder auch: Was machen jetzt Lehrer/Lehrende, wenn sie nicht mehr unterscheiden können, ob ein Aufsatz, ein Referat-Text, eine Seminararbeit von einem Schüler/Studierenden selbst oder von ChatGPT stammt?
    Es wird ja heutzutage schon häufig bei der theoretischen Führerscheinprüfung mit allen technischen Mitteln betrogen (auch ohne KI-Equipment).

    • #126 Joseph Kuhn
      7. Januar 2023

      @ Beobachter:

      “Ist es genauso schlimm, wenn ein autonomes Fahrzeug einen alten Menschen anfährt/überfährt, … wie wenn ein Kind angefahren/überfahren wird, das sein Leben noch vor sich hat?!”

      Das ist zunächst eine klassische Triage-Frage, wenn Leben irgendwie gegen Leben abgewogen werden muss. Darüber wird seit vielen Jahren diskutiert und es gibt auch gute allgemeinverständliche Literatur dazu, z.B. das sehr lesenswerte Buch von David Edmonds “Würden Sie den dicken Mann töten?”, Frankfurt 2015.

      In einem zweiten Schritt stellt sich die Frage, darf eine KI solche Fragen – womöglich unwiderruflich – beantworten, z.B. wenn es darum geht, wer überfahren wird oder wer eine Behandlung bekommt? Wenn eine KI entscheidet, weiß man letztlich gar nicht, warum sie so oder so entschieden hat und es macht keinen Sinn, sie danach wie einen Menschen nach ihren “Gründen” zu fragen. Sie hat keine. Man kann aber auch fragen, sollte nicht früher oder später eine KI genau solche Fragen entscheiden, weil sie z.B. keinen Stress kennt?

      Wenn Lehrer nicht mehr unterscheiden können, ob ein Text vom Schüler oder von einer KI kommt, ist das m.E. nicht schlimm. Erstens wird es KI-Anwendungen geben, die bei dieser Unterscheidung helfen, also den Teufel mit Beelzebub austreiben, zweitens wird sich der Unterricht ändern, z.B. indem man nicht mehr den Text sondern das Gespräch über den Text in den Mittelpunkt stellt.

  105. #127 Tina
    7. Januar 2023

    @Joseph Kuhn

    Wurde die Besetzung der Krim 2014 eigentlich auch schon Spezialoperation genannt? Weiß ich gar nicht. Fakt ist, dass man durch die Art der Fragestellung mit den entsprechenden Stichworten ChatGPT dazu bringen kann, so einen Text zu schreiben, wie im taz-Artikel gezeigt.

    Der Spektrum-Blog ist sehr lesenswert, diesen Artikel kannte ich schon.

    Interessant auch dies, wie ich finde:

    https://futurezone.at/b2b/warum-chatbot-google-lamda-zurueckhaltung-gruende-openai-chatgpt-ki-maschinelles-lernen/402255315

    Expert*innen auf dem Gebiet maschinelles Lernen sind der Auffassung, dass ChatGPT einen großen Sprung in der KI-Entwicklung darstellt. Gleichzeitig sind viele überzeugt, dass es ein Programm gibt, dass eigentlich noch besser sein sollte: LaMDA.

    Warum bleibt LaMDA allerdings unter Verschluss, während ChatGPT bereits öffentlich genutzt werden kann?

    Es liege vor allem an der Vorsicht von Google, schreibt Big Technology. Der Konzern will einerseits um jeden Preis verhindern, dass LaMDA auf irgendeine Weise seinen Ruf schädigen könnte. Wie sich in der Vergangenheit gezeigt hat, können Chatbots durchaus eine Art Eigenleben entwickeln und von Anwender*innen beeinflusst werden. Noch wichtiger für Google soll jedoch eine andere Frage sein: Wie würde sich LaMDA auf das Geschäftsmodell des Unternehmens auswirken?

    Bei Google herrsche diesbezüglich ein “Innovators Dilemma”. Man hat etwas Bahnbrechendes entwickelt, kann es aber nicht verwerten. Ein Chatbot würde das Suchmaschinen- und Werbegeschäft von Google stark beeinträchtigen.

    • #128 Joseph Kuhn
      7. Januar 2023

      @ Tina:

      “Innovators Dilemma” klingt plausibel. Wobei ich glaube, das Thema KI hat so viele Facetten und so viele potentielle Einsatzbereiche, dass sich hier technologiegetrieben Wege bahnen werden, wie seinerzeit mit den Dampfmaschinen, der Elektrizität oder den Computern. In gewissem Sinne: to big to fail.

      Das macht die ethische Einhegung dieser Entwicklung umso wichtiger.

      Beim Bloggen sehe ich hier aber keine großen Risiken, auch kein “Innovators Dilemma”, eher ein “Authors Dilemma”: Gefällige Texte sind zwar schön, aber zumindest ich möchte meine Themen und meine Gedanken zur Diskussion stellen, nicht einfach schöne Texte verbreiten. Auf einen neuen Gedanken zu kommen, hat etwas Beglückendes, da passiert etwas sowohl in den Synapsen als auch im Verhältnis Ich-Welt. Dazu fehlt der KI die Biologie. Armes Ding.

      Vielleicht in dem Zusammenhang von Interesse: https://scienceblogs.de/gesundheits-check/2022/05/15/sonntags-assoziationen-wirtschaftliches-handeln-roboter-oekonomie-kriege-und-verantwortung/?all=1

  106. #129 Tina
    7. Januar 2023

    @Joseph Kuhn

    Dass sich KI ihre Wege bahnen wird, steht für mich auch außer Frage.
    Sehr sicher können wir uns im Moment noch gar nicht alle Einsatzgebiete und die vielfältigen Folgen für unser Leben vorstellen. Wobei es ja auch jetzt schon vieles gibt, nur eben doch noch eher in den Anfängen. Ich finde das alles ungeheuer erstaunlich und spannend. Wenn man bedenkt, seit wann es erst Computer gibt, seit wann das Internet und seit wann die Smartphones. Die ersten großen Erfolge von KI-Sytemen liegen ja auch noch nicht lange zurück. Was da wohl noch alles kommen wird, in 10 Jahren, in 20, 50 oder 100 Jahren? Schade, dass man (also ich) das nicht mehr erleben wird (50 bis 100 Jahre ziemlich sicher nicht), in diesem Fall wäre ich wirklich sehr, sehr neugierig.

    Texte sollen natürlich nicht nur gefällig sein, es zählt letztlich der Inhalt und natürlich auch der jeweils ganz individuelle Stil. Also bitte weiterhin selbst bloggen ;-).

    • #130 Joseph Kuhn
      7. Januar 2023

      @ Tina:

      “Schade, dass man (also ich) das nicht mehr erleben wird”

      Ja, auch aus anderen Gründen höchst ärgerlich. Wer wird dann morgens meinen Kaffee trinken? Meine angelesenen Bücher fertiglesen? Oder meine Spenden an Ärzte ohne Grenzen weiterleiten? HEREweHOLO sicher nicht.

  107. #131 Tina
    8. Januar 2023

    @Joseph Kuhn

    Die Persönlichkeit von Verstorbenen durch KI “weiterleben” zu lassen, scheint ja bei einigen Menschen durchaus ein Bedürfnis zu sein. Siehe auch hier:

    https://the-decoder.de/gpt-3-chatbot-projekt-openai-zieht-den-stecker/

    Ich finde das ziemlich gruselig…

  108. #132 Beobachter
    8. Januar 2023

    @ JK, # 126:

    Mir ging es um den “zweiten Schritt”, der m. E. bei KI der 1. Schritt ist, nämlich um die Tatsache/Frage, wie KI programmiert und entwickelt wird – von wem, nach welche Kriterien, mit welcher Datenauswahl, zu welchen Zwecken.
    Und ob Menschen (mit Macht) alles machen dürfen, was wissenschaftlich und technologisch möglich ist.

    Wenn autonome Fahrzeuge (sind sie für den Individualverkehr überhaupt sinnvoll?!) so entwickelt/programmiert werden, dass sie z. B. alte Menschen überfahren dürfen, ist das keine Entscheidung der KI-Maschine, sondern die des Entwicklers bzw. des auftraggebenden Konzerns, der dahintersteht.

    Es ist wie bei Gesundheitsssystemen, die nach Kriterien der Profitmaximierung/Privatisierung kaputtgespart werden, in denen die dort Beschäftigten sehenden Auges unter permanente Überbelastung und Dauerstress gesetzt werden und es dann zwangsläufig zu Behandlungsfehlern und Unterversorgung kommen muss – was man dann in den Entscheider-Etagen billigend in Kauf nimmt.
    Hier sei an den äußerst zynischen und menschenverachtenden Begriff des “sozialverträglichen Frühablebens” (1998, Ärztekammerpräsident Karsten Vilmar) erinnert:

    https://de.wikipedia.org/wiki/Sozialvertr%C3%A4gliches_Fr%C3%BChableben

    Zur “Stress”- und Fehler-Vermeidung brauchen wir keine KI, sondern ein anderes, besseres, gerechteres Gesundheitssystem, für das “Daseinsvorsorge” für alle kein Fremdwort ist und Triage-Situationen möglichst vermieden werden.
    Genauso, wie Kriegs-Situationen und “Schlachtfelder” vermieden werden sollten – daher kommt ja der Begriff “Triage” ursprünglich.
    Wenn Triage-Situationen von der seltenen Ausnahme zur “neuen Normalität”, zur Regel in der Alltags-Gesundheitsversorgung werden, stimmt sehr Vieles, sehr viel Grundlegendes nicht.

    ” … Wenn Lehrer nicht mehr unterscheiden können, ob ein Text vom Schüler oder von einer KI kommt, ist das m.E. nicht schlimm. Erstens wird es KI-Anwendungen geben, die bei dieser Unterscheidung helfen, also den Teufel mit Beelzebub austreiben, zweitens wird sich der Unterricht ändern, z.B. indem man nicht mehr den Text sondern das Gespräch über den Text in den Mittelpunkt stellt.”

    Welche Teufel sollen die Lehrer denn noch mit welchen Beelzebuben austreiben?
    Es gibt schon lange zu wenige (Lehrer), und viele Schulen sind schon baulich völlig marode und schlecht ausgestattet, sie sollen alle möglichen erzieherischen/sozialen Defizite (weil das Elternhaus es nicht kann, will oder versagt) der Schüler ausgleichen; IT-Fachleute und medizinische Fachkräfte (in Pandemiezeiten) sein, etc..
    Und wann kann unterrichtet werden?
    Wann und wie sollen ganz grundlegende Kompetenzen wie Lesen, Schreiben und Rechnen vermittelt werden?
    Schon Grundschüler haben hier erschreckend wenig Kompetenzen:

    https://www.tagesspiegel.de/potsdam/brandenburg/brandenburgs-viertklassler-schneiden-schlecht-ab-ministerium-kritisiert-bildungsvergleich-8759884.html

    Man kann Texte nicht beurteilen, nicht einordnen, über sie reden, wenn man sie nicht (lesend) versteht – und wenn man selber keine schreiben kann.
    Und man versteht auch keine Statistiken, wenn man nicht mal rechnen kann, selbst Doktoren und Professoren können manchmal nicht rechnen, siehe Lungenarzt Dr. med. Köhler:

    https://taz.de/Falsche-Angaben-zu-Stickoxid/!5572843/

    Mir kommt Vieles hier in der Diskussion so vor, als ob man sich mit recht unkritischer, lustvoller Technologie-Begeisterung und mit leichtem, gespanntem, interessiertem “Gruseln” darauf freut, dass demnächst der Schwanz (KI-Anwendungen) mit dem Hund (Menschen) wackelt und die Technokraten mit ihrer neuen Technologie in den großen Konzernen hinter ihren Schreibtischen es schon richten werden.
    Und man dabei Grundlegendes, Ethisches, Praktisches/Aktuelles, Weltanschauliches (wie man in Zukunft leben will) außer Acht lässt oder “vergisst”.
    Und auch “vergisst”, welche Weichen jetzt wie gestellt werden für das Leben künftiger Generationen.

    • #133 Joseph Kuhn
      8. Januar 2023

      @ Beobachter:

      Ohne den letzten Absatz Ihres Kommentars wäre es ein guter Diskussionsbeitrag gewesen, auch wenn ich manches anders sehe. Aber es geht wohl nicht ohne Vorwürfe an die Leser:innen hier. Das scheint bei Ihnen fest verdrahtet. Eine KI wäre da flexibler.

  109. #134 Tina
    8. Januar 2023

    @Beobachter

    Man wird einem Thema oder dem Leben ganz allgemein aber auch nicht gerecht, wenn man sich dauerhaft nur auf die negativen Aspekte konzentriert. Ein bisschen Begeisterung hier und da sollte schon noch möglich sein, wie ich finde. Das heisst ja nicht, dass man dem, wofür man sich begeistert, zwangsläufig unkritisch gegenüber steht. Die Probleme des Einsatzes von KI werden schon lange diskutiert. Ich teile auch nicht die Ansicht, dass das Thema in der Öffentlichkeit unterrepräsentiert ist, es ist nur eben sehr komplex und schwierig. Wenn man will, kann man sich aber alleine schon durch Stöbern im Internet einen guten Überblick über das Thema verschaffen und die Aspekte, die ein interessieren, weiter vertiefen. Das wäre vor 30 Jahren in dieser Form noch nicht gegangen, heute nutzen wir das alles ganz selbstverständlich und wundern uns kaum noch darüber, dass das geht.

    Neben all den denkbaren problematischen möglichen Folgen, gibt es auch eine Menge positiver Aspekte beim Einsatz von KI, auch im Gesundheitsbereich. Da wären z.B. die verbesserten Diagnosemöglichkeiten. KI-Systeme sind enorm leistungsfähig bei der Mustererkennung und können so Sachen finden, die kein Mensch finden könnte, Stichwort Früherkennung von Krankheiten. Auch bei der Entwicklung neuer Medikamente sind Fortschritte durch KI-Unterstützung zu erwarten. Und es gibt sicher noch jede Menge mehr, was in Zukunft möglich sein wird.

    ChatGPT schreibt auf Anfrage übrigens folgendes:

    KI-Systeme können in der Mustererkennung im Gesundheitsbereich vielseitig eingesetzt werden. Einige Beispiele sind:

    Analyse von medizinischen Bildern: KI-Systeme können verwendet werden, um Muster in medizinischen Bildern wie Röntgenaufnahmen, CT-Scans und MRIs zu erkennen, um Diagnosen zu unterstützen oder zu bestätigen.

    Vorhersage von Krankheitsausbrüchen: KI-Systeme können verwendet werden, um Muster in Gesundheitsdaten zu erkennen, um die Wahrscheinlichkeit von Krankheitsausbrüchen vorherzusagen und entsprechende Maßnahmen zu ergreifen.

    Vorhersage von Behandlungsergebnissen: KI-Systeme können verwendet werden, um Muster in Patientendaten zu erkennen, um die Wahrscheinlichkeit von Behandlungserfolgen vorherzusagen und die besten Behandlungsoptionen für einen bestimmten Patienten zu empfehlen.

    Überwachung von Patienten: KI-Systeme können verwendet werden, um Muster in Patientendaten wie Herzfrequenz, Atmung und Bewegung zu erkennen, um potenzielle Gesundheitsprobleme frühzeitig zu erkennen und entsprechende Maßnahmen zu ergreifen.

  110. #135 Beobachter
    8. Januar 2023

    @ JK, # 133:

    Im letzten Absatz handelt es sich nicht um “Vorwürfe an die Leser:innen hier”, sondern um meinen Eindruck, meine Meinung zu vielen Kommentaren hier, zu dem, was in vielen Kommentaren hier steht.

    Wer gefällige, glatte, nivellierende, anpassungsfähige, geschmeidige, “flexible” Texte/Kommentare/Meinungen/Artikel etc. liebt, fordert und (be)lohnenswert findet, ist mit erstellten Auftragstexten eines ChatGPT besser bedient.

    Die Frage ist nur, ob man solche allseits flexiblen KI-Texte gut und erstrebenswert findet – auch dann, wenn sie nicht von Texten zu unterscheiden sind, die von Menschen erstellt wurden und auch dann noch, wenn sie auf ihre gefällige, glatte Art gezielt “Faktenfreiheit zum Mitnehmen” (s. o., # 120) produzieren und massenhaft verbreitbar machen.
    Ich halte das für gefährlich und beängstigend.

    Wenn Texte keine “Eigenarten” haben, nicht “authentisch” sind, keine Besonderheiten, keine Ecken und Kanten haben, nirgends anstoßen, nichts anregen, dann bewegen sie auch nichts bzw. niemanden, sondern befördern beim Leser das Stillhalten, Aushalten und Nicht-Nachdenken/Nicht-Fragen.
    Wer will das wollen?

  111. #136 Beobachter
    8. Januar 2023

    @ Tina, # 134:

    Wie lautete deine Anfrage an ChatGPT im genauen Wortlaut?

    Welchen Text würde ChatGPT wohl ausspucken, wenn man gleichzeitig nach Pro und Kontra fragen würde, z. B. :
    Welche Vorteile und Nachteile haben/hätten der Einsatz von KI-Systemen im derzeitigen deutschen Gesundheitssystem ?

    Zur KI im Gesundheitsbereich:

    ” … gibt es auch eine Menge positiver Aspekte beim Einsatz von KI, auch im Gesundheitsbereich. Da wären z.B. die verbesserten Diagnosemöglichkeiten. KI-Systeme sind enorm leistungsfähig bei der Mustererkennung und können so Sachen finden, die kein Mensch finden könnte, Stichwort Früherkennung von Krankheiten. Auch bei der Entwicklung neuer Medikamente … ”

    Bevor ich mir ausführlich Gedanken zu den möglichen segensreichen KI-Anwendungen im Gesundheitsbereich irgendwann in der Zukunft mache, muss/te ich mir Gedanken machen über den gegenwärtigen Zustand (und den in den vergangenen 2 Jahrzehnten) unseres Gesundheitssystems, weil ich indirekt oder direkt ganz praxisnah im Alltag betroffen war/bin.
    Da liegt so viel Grundlegendes im Argen, dass man gar nicht weiß, wo man bei der Aufzählung der vielen “Großbaustellen”, die man in der Politik seit vielen Jahren sehenden Auges vor sich her oder ganz beiseite schiebt, anfangen soll.

    Und glaubst du, dass der gemeine, schon etwas ältere und chronisch angekränkelte GKVler jemals in den Genuss von hochtechnisierter KI-Frühdiagnostik als Kassenleistung kommt – wenn schon heutzutage beim Arzt keine regelrechte Anamnese (nur mit NI) mehr erhoben wird, im “reichen Deutschland” nicht mal die medizinische Grundversorgung der Bevölkerung gewährleistet ist und man (als nur GKV-Versicherter) kaum mehr einen Hausarzt oder niedergelassenen Kinderarzt für seinen Nachwuchs findet?
    usw. etc. …

    Außerdem setzen KI-Systeme im Gesundheitsbereich eine umfassende (personalisierte) Gesundheitsdatenerfassung der Patienten voraus – und wer garantiert, dass diese nicht an “Datenkraken” der (Gesundheits)wirtschaft zu deren weiterer Verwendung (Marketing u. ä.) weiterverkauft werden?
    “Persönliche Daten/Kundendaten sind die Währung der Zukunft!”

    https://unternehmer-orange.de/die-waehrung-persoenliche-daten/

    Schöne neue Welt ?!

  112. #137 fauv
    8. Januar 2023

    Beobachter,
    nach dem ersten Erschrecken, der folgenden Bewunderung folgt jetzt eine nüchterne Einordnung der ChatGPT.
    Sie ist geeignet sehr schnell alle Aspekte eines Begriffes aufzuzeigen und in verständlicher Sprache darzustellen.
    Das ist vergleichbar mit einem Sachverständigen, der über genügend Hintergrundwissen verfügt aber selbst keine Meinung hat. ChatGPT muss neutral bleiben, sonst wird es tendenziell.
    Insgesamt sehe ich die Entwicklung jetzt positiv, sie wird sogar nützlich werden, wenn sie mein Elster Formular ausfüllt.
    Was ChatGPT nicht kann, auf persönliche Probleme bezüglich der Nachbarschaft eingehen, weil sie meine Nachbarn nicht kennt. Sie wird also nur pauschale Aussagen machen können und daran wird man sie erkennen.

  113. #138 Beobachter
    8. Januar 2023

    Lesenswerter Artikel im Tagesspiegel:

    https://www.tagesspiegel.de/gesellschaft/kunstliche-intelligenz-im-ukrainekrieg-wenn-roboter-eigenstandig-toten-9122236.html

    “Künstliche Intelligenz im Ukrainekrieg: Wenn Roboter eigenständig töten
    Moderne Waffensysteme können Ziele auswählen und losschlagen, ohne dass ein Mensch dem Angriff zustimmt. Die Vereinten Nationen versuchen, das zu verbieten – ohne Erfolg.
    … “

  114. #139 fauv
    9. Januar 2023

    Die Zukunft des Bloggens,
    es ist denkbar, dass auch KI s mitbloggen, gibt es schon als (schädliche) bots.
    Das wäre nicht im Sinne des Erfinders des Internets.

  115. #140 Beobachter
    9. Januar 2023

    @ Tina, # 134:

    Nachtrag zu:

    ” … Auch bei der Entwicklung neuer Medikamente sind Fortschritte durch KI-Unterstützung zu erwarten. … ”

    Ich halte es für dringend nötig und wünschenswert, dass sich bei der Pharmaindustrie Einiges ändert (mithilfe NI) und die Produktion von Medikamenten nicht mehr nach z. B. Indien, China ausgelagert wird, sondern nach Europa/DE zurückgeholt wird.
    Damit es nicht mehr SO weitergeht:

    Bernd Hontschik in der FR:

    https://www.fr.de/panorama/todbringende-medikamente-92014090.html

    ” … In Europa findet keine nennenswerte Arzneimittelproduktion mehr statt. In Deutschland wird kein einziges Antibiotikum mehr hergestellt, seit Sandoz im Jahr 2015 seine letzte Fabrik in Frankfurt-Höchst geschlossen hat. Auf unseren Medikamentenschachteln steht trotzdem „Made in Germany“. In der Packungsbeilage muss nur das Land genannt werden, in dem der letzte Produktionsschritt vollzogen wurde. Im Fall von Arzneimitteln ist das die Kontrolle und Verpackung. „Made in Germany“ ist also nichts weiter als eine Irreführung. Ein Witz.

    Medikamente werden unter verheerenden Bedingungen produziert
    Das ist aber noch nicht alles. Vor fünf Jahren schockierte die ARD mit einem Bericht aus Hyderabad, der indischen Welt-Arzneimittel-Hauptstadt. Hunderte von Arzneimittelfirmen hatten sich dort angesiedelt. Sie arbeiten in einem Moloch aus Schwefelgestank und fauligen Abwasserkanälen, transportieren ihr Wasser in rostigen Tanklastern, dazwischen Schafe und heilige Kühe auf den staubigen Straßen der Stadt.

    Mit „minimaler Kontrolle und maximaler Förderung“ wirbt Hyderabad für seine Industrieansiedlungen!
    … ”

    (mit Grüßen an RPG !)

  116. #141 Tina
    9. Januar 2023

    @Beobachter

    Welche Verfahren mit KI-Unterstützung zukünftig von den GKVs als Kassenleistung angeboten werden, weiß ich nicht. Ich bin mir allerdings nicht sicher, ob sowas immer zwangsläufig auch teuer sein muss, denn die Automatisierung dient ja oft auch gerade dazu, Kosten einzusparen. Wenn ein KI-System erstmal angeschafft ist, sind die laufenden Kosten vermutlich gar nicht mal so besonders hoch, aber wie gesagt, da kenne ich mich nicht aus. Vielleicht weiß hier jemand mehr?

    Die Frage, welche Nachteile der Einsatz von KI-Systemen im Gesundheitssystem hat, werde ich ChatGPT noch stellen, im Moment kann ich mich dort nicht anmelden, weil die Server gerade überlastet sind (“ChatGPT is at capacity right now”). Die Frage, die ich gestellt hatte, war die nach den Möglichkeiten des Einsatzes von KI-Systemen im Gesundheitsbereich.

  117. #142 Tina
    9. Januar 2023

    P.S.

    Auf die Schnelle habe ich diesen Artikel gefunden:

    https://www.helmholtz.de/newsroom/artikel/wie-ki-die-medizin-revolutioniert/

  118. #143 zimtspinne
    9. Januar 2023

    Ich habe mir mal deinen und diesen
    https://www.helmholtz-munich.de/newsroom/news/artikel/new-3d-spatial-omics-technology-makes-it-easier-to-tackle-complicated-diseases
    Artikel durchgelesen und habe dazu einige Gedanken.

    Wie soll diese Früherkennung jeglicher Krankheiten vonstatten gehen?
    Muss dann jeder monatlich zum Arzt und wird dort auf den Kopf gestellt?
    Oder soll das ein täglicher Urin-, Blut- etc Test zu Hause erledigen? Vielleicht unter Anleitung einer nervtötenden Alexa/Siri?

    Und die Beispiele dort….
    einzelne (pathogene) Viren müssen gar nicht ständig bei jedem aufgespürt werden – das wäre ja eine Ganztags- und Nachtbeschäftigung für die KI (vielleicht sollte man die dann gleich jedem implantieren?) und zudem wird unser Immunsystem mit dem meisten Kram selbst fertig.
    Und dann müsste die KI unterscheiden, für welche Viren das Behandlungsprogramm starten sollte (welche Behandlung überhaupt; gegen Viren ist ja oft kein Kraut gewachsen) und bei welchen Viren man einfach körpereigene Programme ihre Arbeit tun lässt.
    Das ist übrigens eh schon ein Dilemma vieler Früherkennungsprogramme.

    Alzheimer:
    Und was genau bringt das frühzeitige Wissen? Ohne curative Behandlungsmöglchkeiten?
    Das Wissen um diese Krankheit macht doch die Früherkannten nur verrückt.
    Dort wäre es besser, einen sinnvollen Zeitpunkt zu erwischen und nicht nach dem Motto – umso früher, umso besser.

    Mal angenommen, man könnte bereits Vorstadien vieler unserer “Zivilisationskrankheiten” erkennen – würde das den Menschen überhaupt gefallen? Dann müssten sie ja was verändern, zB aufhören mit Rauchen, weniger und anders essen, weniger Alkohol trinken usw.
    Oder soll dann etwa die Behandlung nach der Früherkennung der Folgen der ungesunden Lebensweise starten und ansonsten so weitergemacht werden wie zuvor?
    Ich frage mich gerade, wie die Krankenkassen das sehen würden…. jo, bei Ihnen ist Diabetes II stramm im Anmarsch, demnächst wird das auf dem Plan stehen – was machen wir damit jetzt genau?
    Schonmal behandeln? Wie?

    Und entartete Zellen identifizieren, wäre ein noch heißeres Eisen. Auch das erledigt das Selbsthilfeprogramm im Körper normalerweise zuverlässig und hatte zur Optimierung dieses Systems ein paar Millionen Jahre Zeit.

    Die KI müsste herausfiltern, wo sofort gehandelt werden muss, wo zugewartet werden kann und wo man das alles erstmal komplett ignorieren kann. Entartete Zellen gibts ständig überall und ich würde dort keine KI auf Spurensuche gehen und reingrätschen lassen, wer weiß, was daraus dann für Murks entsteht 😉

    Es gäbe ganz sicher auch viele Krankheiten, vor allem auch angeborene, unerkannte, die frühzeitig behandelt werden könnten und sollten, bevor es zur Dekompensation und damit klinischen Auffälligkeit kommt, zB Herzerkrankungen.
    So könnte man auch vermeiden, dass unnötige Risiken eingegangen werden, wenn die Menschen um ihre schlummernden Krankheiten wissen.
    Ernsthaft, Tina, glaubst du, die wollen das alle alles vorab wissen?

    Das würde unweigerlich Konsequenzen mit sich bringen, die sicher nicht jeder bereit ist zu tragen.

    Ich meine, man stelle sich mal nur einen (durchaus sinnvollen) Test auf (ansteckende) Geschlechtskrankheiten vor, das könnte mit einer integrierten KI sicher gut im heimischen Badezimmer erledigt werden.

    Und wer sich der Früherkennung verweigert, könnte wiederum von den Krankenversicherungen “bestraft” werden. Schon heute gibts ja bei einigen die Bonusprogramme, wo Teilnahme belohnt wird. Man wird dort aber dann gleich zur vollständigen Teilnahme gezwungen, weswegen ich diese Bonusprogramme auch ablehne. Vielleicht hat sich da was geändert, zumindest war das so als ich mich mal dafür interessiert hatte.

  119. #144 zimtspinne
    9. Januar 2023

    bei der Früherkennung, Diagnostik und Behandlungsvorgehen habe ich bezüglich KI meine Zweifel.

    KI, die bereits im Rahmen von Studien im Einsatz sind (zB Prostatakrebs-Früherkennung, Darmkrebs: Polypen aufspüren, einordnen, entfernen) zeigen zwar viel Potenzial, müssen aber erst noch im Praxisalltag und in der Langfrist ihre Tauglichkeit und Überlegenheit beweisen.

    Oft genug gab es gerade in der Medizin schon große Begeisterungsstürme über etwas Neues, dem alsbald große Ernüchterung folgte.
    Es wird oft der neueste heiße Sche*ß aufgetischt, der viel Hoffnung und Erwartungshaltung auslöst, dem dann erstmal Desillusionierung folgt.
    Meist sind es einfach nur viel kleinere Fortschritte als gedacht oder kommuniziert, und nicht der große Knall, Durchbruch.

    Jaja, auch Wort “Revolution” wird genau wie “Durchbruch” furchtbar gerne verwendet (eher von den Medien als den forschenden Medizinern) und fast immer erwies sich der angekündigte Elefanten-Durchbruch als Mücken-Durchbrüchlein oder auch nur ein Puzzleteil auf dem Weg dahin.
    Was ja auch wichtig und gut ist. Mini-Fortschritte nach Salamitaktik-Art sind auch Fortschritte.
    Bisschen mehr Realismus und Zurückhaltung wären oft angebrachter. So auch bei KI.

    KI sind bisher dort halbwegs erfolgreich, wo riesige Datenmengen gesammelt und verarbeitet werden können. Bei den Giganten wie google, facebook, apple, microsoft, amazon.
    Wobei mich dort die KI nicht mal überzeugen, wenn ich nur an Alexa, Cortana und Siri denke.

    Oder Kundenbetreuung über chat-bots. Unfähig, abstrahierend über fünf oder auch nur zwei Ecken zu denken und kreativ, improvisierend nach individuellen Lösungen zu suchen oder auch mal mehrere Probleme gleichzeitig zu verarbeiten und lösen.

    Bekommen die nicht ansatzweise hin, mangels Abstraktionsvermögen, Phantasie, Kreativität, Multitaskingfähigkeit.

    Analytische Intelligenz ist eben nicht alles. Wir Menschen besitzen aber eine Art Universalintelligenz.

    Überfordert sind sie auch mit menschlichen “Unarten” – systematisches, logisches Vorgehen und stringente Kommunikation sind nicht eben Stärken der Menschen, besonders nicht unter Stress und Emotionen.

    Wo ein menschliches Gegenüber noch ordnend eingreifen kann oder auch einfach in der Lage ist, mehrere aufgemachte Fässer und abschweifende neue Fragen nacheinander abzuarbeiten oder einfach das wesentliche herauszuziehen, ist eine KI nicht multi-tasking-fähig bisher, wie gesagt.

    Das wird sich auch absehbar nicht durchbruchartig verbessern. Wie auch?
    Als Verarbeiter digitalisierter Informationen sind sie so gut wie ihre Trainer, wenn es aber um Interaktion (mit Menschen) geht, kommen sie schnell an ihre Grenzen.

    Wie sieht es in den Domänen beim Einsatz aus, wo keine riesigen Datenmengen aquiriert werden können?
    Bei der Früherkennung, Diagnostik und Behandlungskonzepten bei seltenen Krebserkrankungen zB?
    Gibt es Algorithmen, die weniger Ressourcen/Datenmengen benötigen und trotzdem gute oder bessere Ergebnisse liefern können als die menschlichen Pendants?
    Die Tumorfrüherkennungs- usw KIs müssten von den Spezialisten ihres Faches trainiert und mit Daten gefüttert werden, nicht von irgendwem. Können die das überhaupt und haben sie Zeit dafür? Eher nicht.

    Außerdem würde ich menschliche Intelligenz überhaupt gar nicht mit maschineller Intelligenz gleichsetzen, sind komplett unterschiedliche Intelligenzformen.
    Können sich ergänzen, aber absehbar nicht ersetzen.

  120. #145 Beobachter
    9. Januar 2023

    Sehr Interessanter Artikel in der TAZ:

    Im Ländle will man KI-technologisch hoch hinaus – und da braucht`s dann halt auch ein Ethik-Feigenblättle:

    https://taz.de/Ethik-fuer-Kuenstliche-Intelligenz/!5905840/

    “Ethik für Künstliche Intelligenz
    Wo Schwaben Kalifornien sein will
    Das Tübinger Cyber Valley will transparent und fair künstliche Intelligenz entwickeln – Hand in Hand mit Milliardenkonzernen wie Amazon und BMW.
    … ”

    ” … Der Ethik-Beirat hat dabei kein Stimm- oder Vetrorecht, sondern eine rein beratende Funktion…. ”

    ” … Das weltweite Programm von Amazon richtet sich explizit an akademische Führungskräfte und soll „die Zusammenarbeit zwischen akademischer und industrieller Forschung fördern“, schreibt der Konzern.
    … ”

    ” … Die Studierenden sollen für die Relevanz der KI-Ethik sensibilisiert werden, bevor sie nach ihrem Abschluss womöglich anfangen, nebenan bei Amazon zu arbeiten.”

    Also „Ethics Washing“ (siehe # 120) besonders auch im “grünen” Heilig`s Blechle-Baden-Württemberg –
    ein kleines bissle “sensibilisiert” darf man schon sein, wenn man dann bei Entscheidungen eh nix zu sagen hat und kein Stimmrecht/Vetorecht hat … ?!

    Und Konzerne wie Amazon stehen ja schon immer für Transparenz, Fairness und Menschenwürde … !
    (das ist zynisch gemeint)

  121. #146 Tina
    10. Januar 2023

    So, nun konnte ich mich wieder anmelden und habe ChatGPT folgende Frage gestellt:

    Was könnten Nachteile beim Einsatz von KI-Systemen im deutschen Gesundheitssystem sein?

    Der Einsatz von KI-Systemen im deutschen Gesundheitssystem birgt einige Risiken und Nachteile. Einige davon sind:

    Datenschutz und Datensicherheit: KI-Systeme erfordern den Zugriff auf große Mengen an medizinischen Daten. Diese Daten müssen sicher und geschützt werden, um Patientenprivatsphäre und Datensicherheit sicherzustellen.

    Fehlerhafte Diagn: KI-Systeme basieren auf historischen Daten und Mustern. Wenn die Trainingsdaten unvollständig oder ungenau sind, kann dies zu fehlerhaften Diagnen führen.

    Verzerrung der medizinischen Entscheidungsfindung: KI-Systeme können Ärzte dazu verleiten, Entscheidungen auf der Grundlage von automatisch generierten Vorschlägen zu treffen, anstatt auf ihre eigenen medizinischen Kenntnisse und Erfahrungen zu vertrauen.

    Verlust des menschlichen Einschätzungsvermögens: Wenn KI-Systeme zu stark auf den Einsatz setzt, kann es dazu führen, dass das menschliche Einschätzungsvermögen und die Intuition des Arztes vernachlässigt wird.

    Kosten: Der Einsatz von KI-Systemen im Gesundheitswesen kann sehr teuer sein, da die Entwicklung, Implementierung und Wartung von komplexen Systemen viel Geld erfordert.

    Übrigens merkwürdiger Fehler: “Diagnen” statt “Diagnosen”.

  122. #147 Tina
    10. Januar 2023

    Dann habe ich noch folgende Frage gestellt:

    Welche Auswirkungen könnte der Einsatz von KI-Systemen auf die gesetzliche Krankenversicherung in Deutschland haben?

    Der Einsatz von KI-Systemen im deutschen Gesundheitssystem kann sowohl Vorteile als auch Nachteile haben. Einige der möglichen Auswirkungen sind:

    Vorteile: KI-Systeme können dazu beitragen, die Qualität der medizinischen Versorgung zu verbessern, indem sie beispielsweise die Diagn von Krankheiten beschleunigen, die Behandlung personalisieren und die Vermeidung von Fehlern ermöglichen. Sie können auch dazu beitragen, die Verfügbarkeit von Gesundheitsdienstleistungen in ländlichen und unterversorgten Gebieten zu erhöhen, indem sie zum Beispiel Ferndiagnosen und -behandlungen ermöglichen.

    Nachteile: Einige der Risiken beim Einsatz von KI-Systemen im Gesundheitswesen sind die Unsicherheit bei der Diagn und Behandlung, die Abhängigkeit von Algorithmen, die nicht vollständig verstanden werden, und die Auswirkungen auf die Privatsphäre und Sicherheit von Patienteninformationen. Es kann auch Auswirkungen auf die Arbeitsplätze von Ärzten und Pflegepersonal haben, wenn Tätigkeiten durch KI-Systeme übernommen werden.

    Bezüglich gesetzlichen Krankenversicherung, KI-Systeme können dazu beitragen, die Kosten für die Gesundheitsversorgung zu senken, indem sie die Effizienz der Behandlung verbessern und überflüssige Behandlungen vermeiden. Es gibt jedoch auch die Möglichkeit, dass die Kosten für die Anschaffung und den Betrieb von KI-Systemen die potenziellen Kosteneinsparungen aufwiegen könnten. Es ist wichtig, die Auswirkungen auf die Finanzierung und Leistungen der gesetzlichen Krankenversicherung sorgfältig zu prüfen und zu beobachten, bevor die Einführung von KI-Systemen in das deutsche Gesundheitssystem auf breiter Front erfolgt.

    Sind wir nun tasächlich besser informiert oder ist das nur generierter Text, der zur Frage passt?

  123. #148 Tina
    10. Januar 2023

    @zimtspinne

    Das sind alles spannende Fragen. Ich kann mir kaum vorstellen, dass die Früherkennung sich auf jegliche mögliche Krankheiten beziehen wird und es eine Pflicht geben wird, dass man sich dauerhaft selbst überwachen und ständig zum Arzt gehen muss. Das wäre ja irgendwie so eine futuristische Zukunftsdystopie, die ich mir eher in einem Hollywoodfilm als in der Realität vorstellen kann, also zumindest in absehbarer Zukunft. Was die Leute in ein paar hundert Jahren machen, weiß man natürlich nicht ;-).

    Vermutlich würde sich ohnehin nicht jeder damit anfreunden, alles über seinen aktuellen körperlichen Zustand zu wissen, einschließlich der Prognose für Krankheiten, die sich gerade entwickeln oder die einem in fernerer Zukunft den Rest geben werden. Vor allem, wenn die gar nicht behandelbar sind. Ich kann mir gut vorstellen, dass es eine breite Palette an Einstellungen zur Früherkennung geben wird, von überzeugten Verweigerern, die in einfach Ruhe gelassen werden wollen und mit dem Ganzen nichts am Hut haben bis hin zu Leuten, die alles nutzen, was technisch möglich ist. Und eben ganz viele Leute, die irgendwas dazwischen praktizieren.
    Wer sich das dann leisten kann und was davon Leistungen der Krankenkassen sein werden? Und ob man bestraft wird, wenn man nicht regelmäßig an Vorsorgeuntersuchungen teilnimmt? Offene Fragen.

  124. #149 zimtspinne
    10. Januar 2023

    @ Tina

    genau das (letzter Teil) – beobachte ich bereits jetzt ohne Rundumschläge in der Früherkennung.
    Bereits einen Schritt früher, bei Prävention, stößt man oft auf Widerstände und Trotzreaktionen (“Gesundheitspolizei”).

    Das Verdrängen und Bagatellisieren sind ja auch Teil des Alltagslebens, gerade auch dann, wenn man genau weiß, dass sich viele gesundheitsgefährdende Routinen eingeschlichen haben.
    Bewundere ja immer die Leute, die regelmäßig ihre Kontrolluntersuchungen wahrnehmen, die auch noch schlechte Nachrichten bringen könnten mit einer weitaus höheren Wahrscheinlichkeit als bei einer allgemeinen Vorsorgeuntersuchung voll ins Blaue, die nur ans Lebensalter gekoppelt ist.
    Ein Familienmitglied von mir war mal zur Abklärung nach unklarer Gewichtsabnahme und weiterer Symptome über längeren Zeitraum im KH, insgesamt 4 Tage, an denen nur Diagnostik gemacht wurde.
    Täglich kamen neue Sachen ans Tageslicht, so dass am Ende des Diagnostikmarathons zwar noch immer keine Ursache gefunden wurde, dafür gab es weitere Termine bei Fachärzten und daraus wurden Kontrollen in regelmäßigen Abständen.
    Das ist dann so ein wunderschönes Ergebnis von Früherkennungsversuchen (ja eigentlich Abklärung verdächtige Symptome), ganz ohne KI, auf das ich sehr gut verzichten könnte, da mich das enorm stressen würde.
    Ich lasse aber einschlägige Erkrankungen (mit familiärer Häufung), die frühzeitig erkannt ganz gut behandelbar sind, auch regelmäßig checken, soweit das möglich ist und nicht allzu kompliziert wird.
    Mache ich ja sogar bei meiner älteren Katze genauso 😉

  125. #150 Beobachter
    10. Januar 2023

    @ Tina, # 146, 147:

    Vielen Dank, dass du die Fragen an ChatGPT gestellt hast.
    Die Antworten sind sehr interessant.

    Man sieht, wie sehr es darauf ankommt, welche Fragen man wie genau stellt – und ob man sie überhaupt stellt.
    Das scheint bei der KI ähnlich wichtig zu sein wie bei der NI … 🙂

  126. #151 RainerO
    10. Januar 2023

    Sonderlich vertrauen sollte man ChatGPT jedenfalls nicht, haben jetzt (auch) die Journalistin Barbara Wimmer und Mimikama herausgefunden.

  127. #152 zimtspinne
    10. Januar 2023

    Ein Problem der Sprech-Maschine (KI, ich mag das gar nicht so nennen) ist ja auch, dass keiner erklären kann, wie sie genau auf ihre ausgeworfenen Antworten, Reaktionen und Lösungen kommt.
    Nicht mal ihre Erfinder und Ausbilder können das.
    Ich möchte aber ggfl. Lösungswege erklärt haben. Im Fall von medizinischen Vorschlägen oder gar Empfehlungen möchte ich erläutert haben, warum genau diese Empfehlung und keine andere. Oder bei mehreren Optionen möchte ich sie einzeln erläutert und miteinander verglichen haben.
    Ok, ich spreche jetzt von schwerwiegenden Entscheidungen, die Risiken bergen, von denen nachfolgend Prognosen, Lebensqualität oder sogar das Überleben abhängen.
    Kann die KI das leisten? Oder wäre sie mit Nachfragen zu Details schon wieder heillos überfordert, weil zu komplex und sie weiß ja nicht mal, wie sie zu ihrem Ergebnis kam, im Gegensatz zu einem echten Mediziner.
    Das könnte man ja mal ausprobieren mit einer komplizierten Matheaufgabe…. kann die den Rechenweg beschreiben oder liefert sie nur das Ergebnis? Etwas, das Mathe so blöd fürs Betrügen machte, selbst Hausaufgabe abschreiben war riskant, falls man die womöglich noch an der Tafel mit Rechenweg erklären musste und man den doch gar nicht kapiert, sondern nur abgeschrieben hatte. ;D

    Bei Tinas Infobot-Antworten werden nie Quellen genannt – man hat keinen Schimmer, woher das Ding seine Antworten nimmt und wie sie zusammengestellt werden.
    Normalerweise schaut man automatisch nach Quellenangaben oder anderen Hinweisen, um die Vertrauenswürdigkeit usw einschätzen zu können.

  128. #153 Tina
    10. Januar 2023

    @zimtspinne

    Das wurde auch schon in den Medien bemängelt, dass ChatGPT keine Quellen nennt und zudem, wenn nach Quellen explizit gefragt wird, es zwar welche nennt, auf die kann man sich aber nicht verlassen. Die können stimmen, können aber auch frei erfunden sein. Man darf ChatGPTs Antworten also nicht trauen. Dummerweise gibt es auch keine Möglichkeit, zu erkennen, was inhaltlich richtig ist und was falsch – außer man weiß das schon, weil man sich in dem entsprechenden Thema bereits auskennt oder man muss es anderweitig prüfen, auf die klassische Art.

    Mein vorläufiges Fazit: Dass ChatGPT überhaupt schon in der Lage ist, auf Fragen und Anweisungen solche Texte zu schreiben, finde ich nach wie vor überaus beeindruckend.
    Die inhaltlichen Schwächen muss man aber unbedingt kennen und berücksichtigen. Zum produktiven und ernsthaften Einsatz sollte man diese Testversion echt nicht benutzen! Das Ausprobieren macht aber trotzdem Spaß (mir jedenfalls).

    Ich frage mich ja, ob es gelingen wird, die Mängel zu beseitigen. Kann man die inhaltlichen Fehler beheben? Geht das mit diesem Ansatz eines textgenerierenden KI-Systems überhaupt?

  129. #154 Tina
    10. Januar 2023

    Ich habe mal ChatGPT selbst gefragt:

    Warum macht ChatGPT inhaltliche Fehler?

    ChatGPT ist ein maschinelles Lernmodell, das auf großen Textdatenmengen trainiert wurde. Es hat jedoch nicht die Fähigkeit, die Realität zu verstehen oder die Wahrheit einer Aussage zu überprüfen, sondern es generiert nur Antworten basierend auf dem, was es in den trainierten Daten gelernt hat. In einigen Fällen kann dies dazu führen, dass es inhaltliche Fehler macht, wenn es Informationen generiert, die in den trainierten Daten falsch sind oder wenn es auf Anfragen reagiert, für die es nicht ausreichend trainiert wurde. Um diese Art von Fehlern zu minimieren, ist es wichtig, das Modell mit sorgfältig ausgewählten und präzisen Daten zu trainieren, um seine Leistung zu verbessern, sowie die Ergebnisse auf ihre Korrektheit zu überprüfen. Es ist auch wichtig zu berücksichtigen, dass KI-Systeme wie ChatGPT nur Tools sind und nicht unbedingt die endgültige Entscheidung treffen, Menschen müssen immer die Verantwortung übernehmen und die Ergebnisse überprüfen.

    Was muss getan werden, um ChatGPT zu verbessern?

    Um die Leistung von ChatGPT zu verbessern, gibt es mehrere Ansatzmöglichkeiten. Eine Möglichkeit besteht darin, die Datenmenge, mit der das Modell trainiert wurde, zu erhöhen. Je mehr Daten das Modell zur Verfügung hat, desto besser kann es auf neue Eingaben generalisieren und Fehler vermeiden. Eine andere Möglichkeit besteht darin, das Modell auf spezifischere Anwendungsfelder zu spezialisieren, indem es mit spezifischen Daten trainiert wird, die auf diese Anwendungsfelder abgestimmt sind.

    Eine weitere Möglichkeit besteht darin, die Architektur des Modells zu verbessern, beispielsweise durch den Einsatz von tieferen oder breiteren Netzwerken. Es gibt auch Ansätze wie “Fine-Tuning” um das Modell auf einen bestimmten Anwendungsfall anzupassen.

    Es ist auch wichtig die Modellausgabe zu evaluieren, da es viele Fehlerquellen gibt, und es sollte sichergestellt werden, dass die Modellausgabe den Anforderungen entspricht und sicher verwendet werden kann.

    Ein wichtiger Aspekt ist auch Transparenz und Verantwortung des Modells. Es sollte bekannt sein, wann und wie das Modell falsche Aussagen tätigt und es sollte Mechanismen geben, diese Fehler zu erkennen und zu korrigieren.

  130. #155 Beobachter
    10. Januar 2023

    Wenn bei Texten (oder auch bei Videos, die ja jetzt massenhaft von irgendwelchen Leuten erstellt und im Netz eingestellt werden) keine Autoren und/oder keine Quellen angegeben sind, sind sie nicht ernst zu nehmen, “intransparent” und von vornherein indiskutabel.
    Denn es ist nichts nachprüfbar – weder bei KI- noch bei NI-Texten.

    Deshalb erstaunt es mich sehr, dass sich z. B. ausgerechnet die GWUP auf Empfehlungen von Beiträgen eines anonymen Video-Kanals einlässt:

    https://blog.gwup.net/2023/01/07/verschwoerung-fakten-ueber-ganser-zur-ukraine-teil-2/

    https://www.youtube.com/@VerschwoerungFakten/about

  131. #156 zimtspinne
    10. Januar 2023

    Interessant, dass andere ähnliche Bemängelungen haben wie ich aus dem Bauch heraus.
    Habe zwar auch schon über KI gelesen, dann aber mehr zu einem speziellen Thema, wie zB vor einiger Zeit über autonomes Fahren, worüber wir ja dann auch diskutiert hatten.
    stone steuerte dann noch die Info bei, dass eine Ausreifung und Mängelbeseitigung bereits seit Jahrzehnten immer wieder auf ein Jahrzehnt nach hinten verschoben wurde. Und das passierte auch genau in unserer Zeit wieder – autonomes Fahren ist zwar hier und da bereits Realität, aber im großen Stil für uns alle…. kann man in 10 Jahren nochmal neu drüber reden. Oder wieder um 10 Jahre verschieben.

    Mich stört als absolute Grundlage für alles, was KI machten, machen und machen werden/könnten, dass einfach niemand genau nachvollziehen kann, wie die KI exakt arbeitet, man kann ihr dabei nicht ins “Gehirn” schauen oder ihre Pfade überhaupt nachverfolgen oder mitverfolgen.
    Neben der Frage nach dem Rechenweg bei einer Matheaufgabe zB, würde mich daher auch interessieren, ob ihre Ergebnisse und Lösungen bei gleicher Aufgabenstellung reproduzierbar sind?
    Stelle ich genau die gleichen Fragen wie du Tina, sollte ich auch die gleichen Antworten erhalten.

    Wenn ich der Maschine ständig hinterher kontrollieren muss, ist das unzuverlässiger und unberechenbarer als ein realer Mensch. Den kann ich immerhin nach einer Weile einschätzen; die KI bleibt offenbar ein unberechenbares Wesen.
    Jedenfalls in der Interaktion mit Menschen. Das ist einfach nicht ihr Ding.
    Andere Sachen kann sie ja auch besser erledigen. Wo kein abstraktes Denken usw erforderlich sind, sondern die Maschine auf ihre Kernkomptenz reduziert wird. Datenverarbeitung.

  132. #157 Herr ɟuǝs
    neue Welt
    10. Januar 2023

    Es geht den KI’s wie den Menschen 😉
    Ein Mensch macht 2 bis 5 Fehler pro Stunde, nennt man Kreativität.
    Es gäbe nichts zu probieren, eine perfekte KI wäre bloß langweilig.
    Zumal der Mensch die KI programmiert und trainiert, vererbt er Fehler.
    Die KI bleibt dumm, alle Fehler erkennen zu können, wer sagt’s ihr.

  133. #158 zimtspinne
    10. Januar 2023

    Je mehr Daten das Modell zur Verfügung hat, desto besser kann es auf neue Eingaben generalisieren und Fehler vermeiden.

    Naja, dieser Satz zeigt eigentlich schon das ganze Ausmaß ihrer prinzipiellen Schwäche… die ich ja weiter oben auch schon angesprochen hatte.

    Mir oder sogar einem Kind reicht ein einziges Bild einer Kreatur und ich werde für alle Zeiten diese Kreatur wiedererkennen und als diese Kreatur einordnen können.
    Oder ich vergesse sie, sobald sie mir aber aberneut über den Weg läuft, werde ich sie mit hoher Wahrscheinlichkeit wiedererkennen, eine Erinnerung wird zumindest aufploppen, so etwas schon einmal gesehen zu haben.

    Die KI braucht für die einfachsten Dinge riesige Datenmengen. Und für komplexere Aufgaben oder mehrere gleichzeitig, benötigt sie immer mehr Datenmassen, Rechenleistung, Energieaufwand, Speicherkapazität… keine Ahnung, was noch alles, Ressourcen.
    Ist zwar für viele Anwendungen realisierbar und Automatisierungen gehören ja auch fest zu unserem Alltag, bis zu den Kleinsten.
    Ansonsten sehe ich aber keine Auflösung des Grundproblems…. KI sind einfach nur inselbegabt oder insel”intelligent” und nicht universell intelligent wie wir und wie sie sein müssten, um mit uns auf unseren Ebenen, auf all unseren Sinnesebenen zusammenarbeiten zu können.
    Das kann auch nicht wirklich erlernt werden.
    Die sind totes Material, wir aber leben.
    Es wäre spannend, so eine KI mal evolutionären Prozessen auszusetzen, damit die sich auch mal weiterentwickeln.

  134. #159 zimtspinne
    10. Januar 2023

    nö, Senferich,
    bei kleinen Dingen kann ich mir als Mensch Fehler erlauben und es wird nicht das Ende der Welt sein.
    Renne ich aber bei Rot mitten über eine große Kreuzung, könnte das ein Fehler sein, der mir das Lebenslicht auspustet.

    Das sollte einer fehlerhaften KI dann halt auch einfach passieren. Kleinere Fehler werden vergeben. Große Patzer kosten der KI das Leben.
    Und die nächste bitte, gibt ja genug davon 😉

  135. #160 zimtspinne
    10. Januar 2023

    “kosten die KI das Leben”

  136. #161 Herr ɟuǝs
    neue Welt
    10. Januar 2023

    aha, die KI ist nicht gendergerecht, ich beschwere mich bei ChatGPT, jawoll.
    Müßte heißen die künstliche Intellegenzin und der künstliche Intellegenzer

  137. #162 Alisier
    10. Januar 2023

    Hmja….die künstlichen Intelligenzler und Intelligenzlerinnen sind doch wohl eher bei sb zu finden….
    “Wegduck”

  138. #163 zimtspinne
    11. Januar 2023

    @ Senferich

    Falsch.
    Das war ein grammatikalisches Problem ohne Genderbezug.

    @ Alisier

    Falsch.
    Du solltest Intelligenzlerinnen zuerst nennen, da Frauen intelligenter sind und aus Höflichkeit, weil du ein Mann bist, erst recht.
    Und solche bösen Witze gehören sich schon dreimal nicht! (wobei ich den Witz an sich gar nicht verstanden habe, das Duckweg deutet aber auf etwas giftelndes hin).

    sach ma, was ist mit euch eigentlich los!?

    Wenn ihr die Gendergrammatik nicht beherrscht, einfach seinlassen.

    Es geht hier um künstliche Intelligenz.
    Wollte ich nur nochmal dran erinnern.

  139. #164 Beobachter
    11. Januar 2023

    @ zimtspinne, # 163:

    ” … sach ma, was ist mit euch eigentlich los!? … ”

    Ich habe den Eindruck, dass manche männliche Stamm-Kommentatoren bei SB es nicht leiden können, dass sich hier auch Frauen an der Diskussion beteiligen und interessante Beiträge liefern – deshalb deren abwertender Spott und geschlechtsbezogene Häme.

  140. #165 Beobachter
    11. Januar 2023

    Interessanter, wichtiger Artikel in der TAZ:

    Es folgt auf dem Fuße – und war nicht anders zu erwarten:
    FDP ist gegen Regulierungen im KI-Bereich und will quasi “freien Markt für freie KI-Anwendungen”:

    https://taz.de/Kuenstliche-Intelligenz-in-Deutschland/!5908323/

    “Künstliche Intelligenz in Deutschland
    Wissing gegen mehr KI-Regulierung
    Programme wie das Sprachsystem ChatGPT entwickeln sich schnell weiter. Der Digitalminister sieht große Chancen – und will keine strengen Regeln für KIs.

    BERLIN dpa | Digitalminister Volker Wissing (FDP) hat sich gegen eine zu strenge Regulierung von Systemen mit künstlicher Intelligenz (KI) ausgesprochen, die vor allem auf ein Verbot oder eine Eindämmung ausgerichtet ist. Künstliche Intelligenz werde sich sehr schnell und massiv im Alltag der Menschen etablieren, sagte Wissing am Mittwoch der Deutschen Presse-Agentur. Der FDP-Politiker hatte in der vergangenen Woche im Rahmen einer USA-Reise mit OpenAI auch eine der führenden KI-Firmen besucht, die derzeit mit ihrem eloquenten Textroboter ChatGPT im Fokus der Öffentlichkeit steht.
    … ”

    ” … Wissing warnt EU-Parlament
    Die Verantwortlichen bei OpenAI seien auch bereit, sich an einer guten Regulierung beratend zu beteiligen, betonte Wissing. „Wenn wir uns auf verlässliche Standards und Zertifizierungen einigen, ist dies auch im Interesse der Unternehmen.“ Wichtigster Geldgeber des Start-ups ist Microsoft.
    … ” (!)

  141. #166 Herr ɟuǝs
    Grammator
    11. Januar 2023

    @ Zimterrine, der KI oder die KI 😉
    seit dem 18. Jhd ist beides richtig, füher war mehr Dativ, heute ist mehr Akkusativ
    wenn „kosten“ geldwerten Preis meint, dann gilt allein der doppelte Akkusativ als korrekt

  142. #167 fauv
    11. Januar 2023

    ZSpinne
    Was macht KI.
    Ich habe schon einmal ein Strategiespiel programmiert, die KI macht das, was einprogrammiert ist.
    Kann die Künstliche Intelligenz denken ?
    Wenn so ein Sprachprogramm zu einem Suchbegriff passende Artikel findet und die neu anordnet, dann besteht das Denken im Suchen und im neu Anordnen.
    Moralische Schlussfolgerungen kann sie nicht ziehen, wenn sie nicht schon vorher gedacht worden sind.
    Wenn also die KI weiß, dass ein Mensch aus Fleisch besteht und das Raubtier Hunger hat, dann kann sie den Schluss ziehen, Vorsicht Raubtier.
    Wenn sie weiß , dass ein Kannibale Menschen frisst, dann kann sie den gleichen Schluss ziehen, aber nur , wenn du den Begriff Kannibale verwendest.
    Ein blödes Beispiel, die KI braucht Begriffe, deren Sinn bekannt ist.
    Denken im menschlichen Sinne ??

  143. #168 Tina
    11. Januar 2023

    @zimtspinne

    Menschen kann man aber auch nicht wirklich ins Gehirn schauen und die Pfade komplett nachvollziehen ;-). Wir sind nur bisher geübt darin, andere Menschen einzuschätzen, weil das evolutionär gesehen nun mal eine sinnvolle Fähigkeit ist. So gesehen sind die KIs natürlich erstmal fremd, weil sie anders sind. Wobei die neuronalen Netze in gewisser Weise versuchen, das menschliche Gehirn und menschliches Lernen nachzuahmen und dies im Vergleich zu anderen älteren Ansätzen in der KI-Forschung ja auch mit einigem Erfolg tun. Man denke nur an die immer besser werdenden Übersetzungsprogramme. Angeblich sollen die in naher Zukunft noch mal eine weitere erhebliche Leistungssteigerung erfahren. Doch schon jetzt kann man sich ja beispielsweise mit DeepL oder dem Google Übersetzer ohne große Mühe und blitzschnell Texte aus anderen Sprachen übersetzen lassen, die man ohne diese Hilfe gar nicht verstehen würde.

    Ich kann mir vorstellen, dass es in näherer Zukunft viele KI-Anwendungen geben wird, die spezialsierter sind als es z.B. ChatGPT ist. Der plaudert ja über jedes Thema und dabei kommt es dann eben immer mal wieder zu inhaltlichen Fehlern. Das ist alles noch sehr ausbaubar.

  144. #169 Tina
    11. Januar 2023

    Dieses PDF zum Thema “Künstliche Intelligenz” fand ich übrigens ganz gut:

    https://www.fh-muenster.de/itb/downloads/Infopaper_-_Kuenstliche_Intelligenz.pdf

  145. #170 Tina
    11. Januar 2023

    Und hier ein Interview, in dem ChatGPT genauer erklärt wird, was es ist, was es kann und was es nicht kann:

    https://entwickler.de/machine-learning/henkelmann-interview

    Ich, und vermutlich die meisten Expert:innen, sind alle über die Geschwindigkeit überrascht, in der diese Sachen aufkommen. Die Leute, die sich wirklich mit der Materie auseinandersetzen, sind selbst noch täglich überrascht über das, was gerade passiert. Ich war auch schwer beeindruckt über Dall-E und dann Stable Diffusion. Hätte man mich kurz vor deren Veröffentlichungen gefragt, wie lange solche Systeme noch brauchen, hätte ich „Jahre“ gesagt. Und auch ChatGPT, mit all den Problemen und Einschränkungen, die ich eben genannt habe, hat mich schwer beeindruckt. Ich bin teilweise immer wieder baff.

  146. #171 Tina
    11. Januar 2023

    Vorhin gab es übrigens einen Bericht über ChatGPT in den Tagesthemen. Für meinen Geschmack wurde dabei zu wenig auf den technischen Hintergrund eingegangen und was das wirklcih Neue, Überraschende und Beeindruckende daran ist. Aber gut, vielleicht interessiert das das breite Publikum auch gar nicht. Ist ja bei vielen Themen so.

  147. #172 Fluffy
    11. Januar 2023

    Habe innerhalb weniger Stunden #143 und #144 ff gelesen. Es wird die interessante Frage aufgeworfen, kann bzw. wird die KI einen Nutzen im Gesundheitssektor bringen. Dabei wird auch detailliert auf interessante Aspekte eingegangen.
    Ich würde Dir aber am Anfang trotzdem folgende eher banale Fragen stellen:
    Möchtest Du, dass die KI von einem fachkundigen Arzt benutzt wird? Dann ist es so etwas wie “Das große dicke Buch der Symptome und ihrer Behandlungen” , gibt’s übrigens auch für Homeopathie.
    Oder möchtest du die KI selber an Dir anwenden, mit Diagnose, Behandlungsvorschlägen und gleich auch Rezeptaustellung. Wenn man einen Drucker mit anschließt, kein Problem. Der kriegt auch ‘ne Unterschrift hin.

    Du fragst u.a.

    Muss dann jeder monatlich zum Arzt und wird dort auf den Kopf gestellt?
    Oder soll das ein täglicher Urin-, Blut- etc Test zu Hause erledigen? Vielleicht unter Anleitung einer nervtötenden Alexa/Siri?

    Also das ist doch ganz einfach. Jeder Bürger bekommt zusätzlich zu seiner SV-Nummer gleich nach der Geburt einen Chip implantiert, der permanent die Vitalwerte misst und analysiert. Da es ja auch schädliche Umwelteinflüsse gibt, muss sie (die KI) natürlich auch Deinen Standort tracken, sowie Deine Bewegungsaktivitäten messen (Sport und so ..). Günstig wäre es auch, wenn sie weiß, ob Du Zigaretten oder sowas kaufst. Mit elektronischer Bezahlung kein Problem.
    #####################################################

    p.s.
    “„O, Wunder! Wie viele herrliche Geschöpfe es hier gibt! Wie schön der Mensch ist! O Schöne Neue Welt, die solche Bürger trägt!”

  148. #173 Joseph Kuhn
    12. Januar 2023
  149. #174 RPGNo1
    18. Januar 2023

    Fans haben den Chatbot ChatGPT Songs im Stil von Nick Cave schreiben lassen – und die Ergebnisse dem Künstler geschickt. Der ist nicht begeistert.

    https://www.spiegel.de/netzwelt/web/nick-cave-wettert-gegen-chatgpt-dieser-song-ist-mist-a-82195904-e283-4f4a-b315-e3d9e3531c4f

    😀