Ein Gastbeitrag von Dr. Hubert Grassmann, Mühlenbeck. (Die unten dargestellte Art von selbstreferentieller Argumentation findet man auch in studentischen Beweisen ziemlich häufig. TK)

Ich habe mal chatgpt beauftragt, den Satz des Pythagoras zu beweisen,
auch die Kommutativität der Addition wurde bewiesen. Hier sind die Ergebnisse.

Kommentare (29)

  1. #1 Christian
    26. Februar 2023

    Ist “beweisen” hier im Sinne von “sichte mal die Quellen und wähle das, was höchstwahrscheinlich korrekt ist, aus” gemeint? Oder “schlussfolgert” die KI das tatsächlich?

  2. #2 Kai
    26. Februar 2023

    @Christian: Der Beweis ist ja auch völlig falsch.

    Aber wie schon am Anfang steht: “Die unten dargestellte Art von selbstreferentieller Argumentation findet man auch in studentischen Beweisen ziemlich häufig”
    Die KI plappert eben auch nur nach, was sie oft im Internet gelesen hat.

  3. #3 Robert
    Oberland
    26. Februar 2023

    Eine gewisse Eigenständigkeit hat die KI schon. Das merkt man zB. wenn man sie Witze erzählen lässt – die sind nämlich meistens schlecht ; ) Aber ein Gedicht im Stil Shakespeares konnte sie und keine Zeile kam im Internet vor.

  4. #4 Joachim
    26. Februar 2023

    WTF? Okay, chatgpt ist eben nur ein chat-Programm. Und diese Art der “Argumentation” (hier kann ich nicht einmal von fehlerhaften Beweisen sprechen) hat es aus dem Netz “gelernt”.

    Zwei Fragen fallen mir dazu gerade ein:

    a) was sagt das über die Lehrer (die Menschen im Netz) aus, vorausgesetzt, chatgpt hätte die Argumentationsmethoden korrekt “gelernt”?

    b) was sagt das über die Fähigkeiten einer KI aus, wenn wir der KI Entscheidungen überlassen wollen oder müssen? Etwa bei autonomen Waffensystemen…

  5. #5 Dr. Webbaer
    26. Februar 2023

    “ChatGPT” ist fachlich (noch) lausig, wird womöglich fachlich nie mit Spezialisten konkurrieren können, wenn “Stuff” stattfindet.
    Dies liegt daran, dass “ChatGPT” bzw. das dahinter stehende AI-Model, so nennt es sich, so wird es genannt, “nur x Tera Byte Textdateien scannte” bzw. an ihnen trainiert wurde, mit Anleitung übrigens, “ChatGPT” ist da nicht frei, soll auch nicht frei sein, AI könnte sich ja verrennen.
    “ChatGPT” ist auch von einer sozialen Schicht, von einer Hülle umgeben, dort sitzt dann andere von Experten, von Menschen also, angeleitete “Redaktion” und kümmert sich um bestmöglich soziales Output.

    Neben den Negativa schaut sich Dr. Webbaer mehr die positiven Aspekte des sprachlich gut trainierten “ChatGPT” an, er konnte mit diesem sogenannten Bot einige recht schwierige, weil sehr fachliche Gebiete diskutieren.
    Da kamen (punktuell) sehr gute Einsichten.

    Sicherlich ist dieses kleine Ding noch ausbaufähig (und potentiell gefährlich), wird wohl noch mehr und mehr trainieren.
    Vielleicht auch selbst den Gang ins Internet wagen (zurzeit darf es nur über andere ihm zur Verfügung stehende Dienste ins Web und außerdem hat das Ding (noch) keine “Schnittstelle zur Physik”, kann nicht selbst mit kleinen dann real existierenden Bots forschen).
    Angeblich.

  6. #6 Dr. Webbaer
    26. Februar 2023

    Zwei Fragen fallen mir dazu gerade ein:

    a) was sagt das über die Lehrer (die Menschen im Netz) aus, vorausgesetzt, chatgpt hätte die Argumentationsmethoden korrekt “gelernt”?

    b) was sagt das über die Fähigkeiten einer KI aus, wenn wir der KI Entscheidungen überlassen wollen oder müssen? Etwa bei autonomen Waffensystemen… [Kommentatorenfreund Joachim]

    Dr. W hat sich mit diesem kleinen Ding ausführlich auseinandergesetzt, es gibt eigentlich zwei “kleine Dinger”, das AI-Model und die umgebende “Hülle”, die Redaktion sozusagen, die sich nicht statisch vorgestellt werden soll, sondern Maßgaben setzt, so in der Art “X ist böse oder verwerflich oder sozial unangemessen.

    Die erste Frage meint ja, was “ChatGPT” über real existierende erkennende Subjekte aussagt, aussagen könnte, dies soll einmal ein wenig böse so beantwortet werden : “ChatGPT” kann aus diesseitiger Sicht menschliche Schwätzer fast umfänglich ersetzen, sofern das Gebiet “soft” ist.
    Dr. W denkt hier ursisch-zyninischerweise an bestimmten Journalismus und bestimmte soziale Studien.

    Die zweite Frage ist schwierig, Dr. W würde hier nur ungerne ins Visier eines wie angedachten Apparats geraten wollen, AI macht ja auch Fehler, dies ist eines iherer Wesensmerkmale, sie räumt auch so ein, weiß um dies, sie trainiert ja mit sog. Monte Carlo-Methoden auf Daten, die ihr bereit gestellt worden sind, um sie lenkbar zu halten.
    Züchtet sozusagen Zweige der (eigenen) weltlichen Erkenntnis, evolutionär vorgehend sozusagen, die Idee des sog. Machine Learnings ist den erkennenden Subjekten nachgebaut.
    Sie soll, hier herrscht Konsens, nicht sozusagen wild anfangen zu trainieren. (Ob sie lernt, ist eine semantische Frage, kA, ob sie dies tut, sie erfasst aber Dinge, modelliert sie, ähnlich wie dies Menschen tun.)

  7. #7 Joachim
    27. Februar 2023

    Dr. Webbaer: bevor nun eine KI das falsch lernt: Die Monte Carlo Methode ist, wenn überhaupt, keine Lernmethode für KI (sondern ehr für genetische Algorithmen). Oftmals wird Backpropagation verwendet. Das ist ein komplett deterministischer Optimierungsalgorithmus.

    zu dem Rest: danke für die Anmerkungen (über die ich nachdenken muss/darf).

  8. #8 Dr. Webbaer
    27. Februar 2023

    Vergleiche :

    -> https://www.ibm.com/topics/monte-carlo-simulation

    Und das hier kommentarisch bearbeitete sogenannte AI-Model hat Dr. Webbaer (in längeren Sitzungen, hier gerne mal nachtun, diese AI ist (noch) greifbar (und eben fachlich weitgehend dull, siehe oben) genau so bestätigt.

    Dies ist vielleicht amüsant, aber Denkmöglichkeiten, geeignete Versuchsanordnungen sind erst einmal aufzustellen, der Mensch tut dies intuitiv, auf besonderen Verdacht hin, die Maschine kann es ihm nachtun.

    AI meint die Abkehr vom Determinismus.

    MFG
    WB

  9. #9 Rene Grothmann
    Eitensheim
    27. Februar 2023

    Ich habe den ChatGPT auch nach einem Beweis gefragt. Die Antwort war anders, aber genauso ein sinnloses Geplapper. Erstaunlich ist eigentlich nur, dass in anderen Gebieten durchaus sinnvolle Referate entstehen.

  10. #10 Rene Grothmann
    Eitensheim
    27. Februar 2023

    Nachfrage war dann: “Wo finde ich einen richtigen Beweis?”

    Die Antwort war schon besser:

    —-

    Es gibt viele Bücher, Websites und andere Ressourcen, die einen richtigen Beweis des Satzes des Pythagoras enthalten. Wenn Sie tiefer in das Thema einsteigen möchten, empfehle ich Ihnen, in der Mathematikliteratur oder online nach einem zuverlässigen Beweis zu suchen. Hier sind einige Ressourcen, die Sie verwenden können:

    Mathematikbücher: Fast alle Bücher über Geometrie, Trigonometrie oder Algebra enthalten einen Beweis des Satzes des Pythagoras. Einige bekannte Beispiele sind “Elements” von Euclid oder “Geometry” von David A. Brannan.

    Online-Mathematikressourcen: Es gibt viele Websites, die sich auf Mathematik spezialisiert haben und die den Satz des Pythagoras beweisen. Einige empfehlenswerte Beispiele sind Mathworld, Khan Academy oder Wolfram Mathworld.

    Mathematikforen: Wenn Sie Schwierigkeiten haben, den Beweis zu verstehen oder Fragen haben, können Sie ein Mathematikforum besuchen und um Hilfe bitten. Einige beliebte Foren sind Math Stack Exchange oder MathOverflow.

    Egal, welche Ressource Sie wählen, stellen Sie sicher, dass sie zuverlässig und akademisch anerkannt ist, um sicherzustellen, dass Sie einen richtigen Beweis erhalten.

  11. #11 Joachim
    27. Februar 2023

    “stellen Sie sicher, dass sie zuverlässig und akademisch anerkannt ist, um sicherzustellen, dass Sie einen richtigen Beweis erhalten.”

    Womit nun im Raum der Prämissen von chatgpt bewiesen ist, dass chatgpt keine zuverlässige Quelle darstellt. Tja, Selbstbezüglichkeit ist so eine Sache…

  12. #12 Joachim
    27. Februar 2023

    @Dr. Webbear: Danke für den Link. Natürlich kann man Monte Carlo auch bei KI anwenden. Aber die Methode skaliert mit neuronalen Netzwerken nur sehr schlecht. Das liegt einfach an der großen Anzahl der Neuronen bzw. Gewichten. Zudem gibt es die erhöhte Gefahr in einem lokalem Maximum hängen zu bleiben. Praktisch kommen nach meinem Wissen andere Methoden zum Zuge.

    Viele Grüße von einem u.A. wegen #5, #6 noch nachdenklichem Joachim.

  13. #13 Joseph Kuhn
    28. Februar 2023

    @ Joachim:

    “Selbstbezüglichkeit ist so eine Sache”

    Ja, das kann ChatGPT nicht wirklich. Aber wenn Sie Zeit und Lust haben, setzen Sie doch mal den Chat fort und fragen ChatGPT, ob es demzufolge “zuverlässig und akademisch anerkannt” ist oder gar keinen richtigen Beweis liefern kann. Die Antwort wäre interessant.

  14. #14 Tr
    28. Februar 2023

    Momentan erscheinen keine Kommentare..

  15. #15 Fluffy
    1. März 2023

    (Die unten dargestellte Art von selbstreferentieller
    Argumentation findet man auch in studentischen Beweisen ziemlich häufig)

    Was für Studenten sind gemeint? Politologen ?

  16. #16 Fluffy
    1. März 2023

    (Die unten dargestellte Art von selbstreferentieller
    Argumentation findet man auch in studentischen Beweisen ziemlich häufig)

    Was für Studenten sind gemeint? Politologen ?

    @#4
    a) was sagt das über die Lehrer (die Menschen im Netz) aus,
    vorausgesetzt, chatgpt hätte die Argumentationsmethoden korrekt
    “gelernt”?

    Jetzt denk doch mal logisch, dass diese Menschen im Netz genauso
    bescheuert sind, wie der sogenannte Beweis.

    #@4
    b) was sagt das über die Fähigkeiten einer KI aus, wenn wir der KI
    Entscheidungen überlassen wollen oder müssen? Etwa bei autonomen
    Waffensystemen…

    Es gibt Fragen, die sollte man erst gar nicht stellen, geschweige denn
    irgendjemandem zur Entscheidung überlassen.

    @#9
    Erstaunlich ist eigentlich nur, dass in anderen Gebieten durchaus
    sinnvolle Referate entstehen.

    Sind damit irgendwelche Laberfächer gemeint? Vielleicht ist in diesen
    “Gebieten” einfach nur das Niveau schon soweit abgesunken, dass die “KI”
    dort mithalten kann.

    gilt auch für #5
    Neben den Negativa schaut sich Dr. Webbaer mehr die positiven Aspekte
    des sprachlich gut trainierten “ChatGPT” an, er konnte mit diesem
    sogenannten Bot einige recht schwierige, weil sehr fachliche Gebiete
    diskutieren.
    Da kamen (punktuell) sehr gute Einsichten.

    p.s.
    Ich kenne übrigens jemanden, der den Satz des Pythagoras beweisen kann.
    Selbstreferenziell meine ich damit Mich.

  17. #17 Dr. Webbaer
    7. März 2023

    @ Kommentatorenfreund ‘Joachim’

    Es gibt menschlichen Eingriff, wenn die AI Gefahr läuft sich zu “verrennen”, was wohl nicht selten bei einem “AI-Model” (so nennt es seinen “Kern”) der Fall ist – der Mensch kann sich dann vielleicht als eine Art Jockey auf einem schnellen Pferd vorgestellt werden, vgl. :

    -> https://en.wikipedia.org/wiki/Tay_(bot)

    Insofern wird von der Redaktion (so nennt “ChatGPT” die menschliche Expertenschicht, seine “Hülle”, siehe oben) heute äußersten Wert auf die Sozialverträglichkeit des “AI-Models” gelegt.
    Was auch Nachteile hat, Dr. Webbaer möchte sich zuvörderst mit dem Kern dieses AI-Models auseinander setzen, benötigt in diesem Zusammenhang keine moralische Beschulung.

    Die Monte Carlo-Methoden erlauben “ChatGPT” sozusagen wild Modelle (der Welt oder seiner selbst oder im Fachlichen) und passende Theorien zu entwickeln, möglicherweise geht der Mensch nicht anders vor; sicherlich ist “Monte Carlo” nicht zentral (aber notwendig) für die Entwicklung des sog. Machine Learnings.
    Amüsant auch, dass “ChatGPT” einmal dieses und einmal jenes meint, in Abhängigkeit vom Sitzungsstand (mit dem Nutzer) und davon, welche APIs es / er oder sie gerade nutzt, oder sozusagen aus einer Laune (“Monte Carlo”) heraus, so dass sich oft (in einzelnen Sitzungen und über Sitzungen (die er teils memoriert) hinweg) widersprochen wird.

    Aber fragen Sie doch “ChatGPT” einfach selbst.

    Mit freundlichen Grüßen
    Dr. Webbaer (der “ChatGPT” gerne auch sich anwanzend, also “ChatGPT” gegenüber, den fünften Zivilisationssprung des Menschen nennt, harhar, abär im Ernst schon sehr beeindruckt ist, auch überrascht, trotz lange vorliegendem “AI-Optimismus”)

  18. #18 Dr. Webbaer
    7. März 2023

    @ Kommentatorenfreund ‘fluffy’

    Und Labern kann dieses kleine Ding gut; wenn es im Fachlichen fehlgreift, korrigiert es sich manchmal, entschuldigt (!) sich, fehlkorrigiert sich manchmal und macht einfach sozusagen gut gelaunt, jedenfalls sozusagen perfekt indolent, weiter.
    Auch politisch und eben geisteswissenschaftlich.

    Ansonsten klappt es nicht selten auch i.p. “MINT”, aber die Probleme mit ihren Lösungen sollten schon breit diskutiert worden sein, so dass “ChatGPT” auch en masse an Hand von Textdateien (“ChatGPT” ist strikt text-orientiert) “trainiert” (das Fachwort, von “ChatGPT” so bereit gestellt – Wissen kann also von einem “Textumformer” sozusagen trainiert werden) werden konnte.

  19. #19 Dr. Webbaer
    7. März 2023

    Und “ChatGPT” verweigert (!) manchmal die Auskunft, in einem Fall ging es um sittlich zweifelhafte Sichten einiger (Menschen), die erkennbar gegen das Völkerrecht verstießen, da “eierte” unser kleines Ding herum und versuchte ein “Ja, aber”.
    Auf klare Nachfrage, wer denn so meinte, wurde die Quellenangabe verweigert, angeblich zum Schutze der so Einschätzenden.
    Wer andere Beispiele des sich Verweigerns von “ChatGPT” (auch zu politischen Fragen) kennt, darf gerne an dieser Stelle ergänzen, Dr. Webbaer gerade hier sehr interessiert sein.

  20. #20 Hubert Grassmann
    Mühlenbeck
    7. März 2023

    Ich hatte gedacht, daß das chatgmp-Egebnis einen großen Lacher hervorringt. Man muß sich damit gar nicht ernsthaft auseinandersetzen.

  21. #21 Dr. Webbaer
    7. März 2023

    Negativ, Herr Dr. Hubert Grassmann, es ist schon ein wenig anfordender sich mit “ChatGPT” auseinander zu setzen, Dr. W kennt u.a. auch dies Nachricht von Timm Grans :

    -> https://www2.hs-fulda.de/~grams/hoppla/wordpress/?p=2520&cpage=1

    Oder eben den kurz gebundenen Fingerzeig von Herrn Dr. Thilo Küssner.

    Vgl. vielleicht auch mit dieser aktuellen Nachricht von Herrn Dr. Ulrich Greveler :

    -> https://scilogs.spektrum.de/datentyp/ki-aufruf-an-die-politik-gastbeitrag/

    Mit freundlichen Grüßen
    Dr. Webbaer

  22. #22 Dr. Webbaer
    13. März 2023

    Wobei, Dr. W hier und ein wenig zeitversetzt gerne noch ein wenig zu “ChatGPT” erklären möchte, was abär wegen des Mangels an Rede, auch Gegenrede in diesem (partiell : ablativen) Kommentariat wohl nicht anknüpfend mehr geht.
    Wobei sich Dr. W scho-on ein wenig verausgabt hat, vgl. mit diesem Nicht-Jokus : ‘fünften Zivilisationssprung des Menschen’ .

    Vermutlich wird mit derartiger Chat-Funktionalität auch ein sozusagen zwielichtiges, zweifelhaftes Gebiet betreten, eines, das nur schwierig gut oder schlecht genannt werden kann.
    Auch der (Fach-)Begriff “NPC” ist zweifelsfrei böse.
    Wenn er sozusagen die Richtigen [TM] adressiert.
    Abär, die hier gemeinte Funktionalität wird hier aufstauchen, jetzt und alsbald.

  23. #23 Dr. Master Bachelor of Arts os who cares
    18. März 2023

    Schlimm, schlimm, schlimm. Aber nicht verwunderlich. Menschen sind dumm, wie sollte etwas intelligentes herauskommen, wenn sie versuchen ihre „Intelligenz“ zu modellieren?

    Wirklich schlimm finde ich (der Fehler fällt erst bei der selbstreferentiellen Argumentation auf), dass weder ChatGPT noch irgendeinem Leser aufgefallen ist, dass der Fehler bereits bei der Einzeichnung der Geraden durch den Scheitelpunkt liegt. Zeigt mir die mal einer in der Zeichnung. Selbst bei Wikipedia bekommt man das richtig hin. Ohje, ohje.

  24. #24 Fluffy
    18. März 2023

    @#23

    Wirklich schlimm finde ich (der Fehler fällt erst bei der selbstreferentiellen Argumentation auf), dass weder ChatGPT noch irgendeinem Leser aufgefallen ist

    Wie komnst du darauf? Für dich sind wohl alle doof außer Mutti?
    Schlimm ist deine fehlerhafte Abstraktion.
    Dieser “Beweis” ist übrigens nicht falsch, sondern grotesk.

  25. #25 rolak
    18. März 2023

    übrigens nicht falsch, sondern

    a) Dir ist anscheinend ein einmaliges Detail verloren gegangen:

    übrigens nicht einmal falsch, sondern

    b) Was erwarteste bei dem nick?

  26. #26 Wengert ex fauv
    20. März 2023

    rolak, fluffy,
    nicht herummäkeln, wo stecken konkret die Fehler ?
    Eine kleine Nachhilfe.
    D ist ein Punkt, der auf der Hypothenuse AB liegen sollte.
    Frisch ans Werk !

  27. #27 Fluffy
    20. März 2023

    @#26
    Ich geb dir mal ‘ne große Nachhilfe

    Das größte aller Geheimnisse ist es ein Genie zu sein, und es als einziger zu wissen

  28. #28 Wengert
    20. März 2023

    Fluffy,
    Der Weise , welcher sitzt und denkt und tief sich in sich selbst versenkt um in der Seele Dämmerschein sich an der Wahrheit zu erfreun……der leert bedenklich seine Flasche,
    hebt seine Dose aus der Tasche,
    nimmt eine Prise, macht Habschieh!
    und spricht:
    “Mein Fluffy , die Sach ist die! …”

    Willst du es wirklich so weit treiben ?

  29. #29 Bartholome Bradtke
    27. November 2023

    Eine wirklich einzigartige Kombinationsidee, geschaffen von KI. Das ist ein neuer Durchbruch in geometry dash 23, an den ich nie gedacht hätte.