Vor einigen Monaten ging eine MIT-Studie durch die Medien, von Le Monde bis Time, nach der Hirn-Scans angeblich gezeigt hätten, der Gebrauch von Chat-GPT sei nicht gut für das Gehirn. „Forscher warnen: ChatGPT verändert Gehirnaktivität“, so titelte z.B. t-online. Und manche sahen schon bestätigt, was sich alle Autokraten dieser Welt wünschen: „ChatGPT unterdrückt das kritische Denken“.

In der als Preprint veröffentlichten Studie wurden 54 Proband:innen im Alter von 18 bis 39 Jahren in drei Gruppen eingeteilt: Eine sollte ChatGPT nutzen, eine Googles Suchmaschine und eine nichts von beiden. Die drei Gruppen sollten mehrere SAT-Essays schreiben und wurden dabei im Hirn-Scan untersucht. Dabei hatten die aus der Gruppe, die ChatGPT nutzen sollten, die geringste Hirnaktivität. Die ChatGPT-Nutzer:innen haben es sich auch in Wiederholungsübungen danach immer wieder bequem gemacht, so die Studie.

Schlussfolgerung: Der Gebrauch von Chat-GPT habe ernste neuronale und verhaltensseitige Folgen. Letztlich legt die Studie nahe, Chat-GPT gefährde die Hirnentwicklung und mache bequem – auch wenn es in den FAQs zur Studie heißt: „Please do not use the words like ‚stupid‘, ‚dumb‘, ‚brain rot‘, ‚harm‘, ‚damage‘, ‚brain damage‘, ‚passivity‘, ‚trimming‘, ‚collapse‘ and so on.“

Aber die Gefahr sei doch ganz akut und erfordere sofortiges Publizieren der Ergebnisse, vor peer Review, so die Erstautorin:

“What really motivated me to put it out now before waiting for a full peer review is that I am afraid in 6-8 months, there will be some policymaker who decides, ‘let’s do GPT kindergarten.’ I think that would be absolutely bad and detrimental (…) Developing brains are at the highest risk.”

Kinder wurden allerdings gar nicht untersucht. Die Schlussfolgerung für Kinder ist reine Spekulation. Auch sonst sind die Ergebnisse schwer überinterpretiert. Dabei kann man die kleinen Gruppengrößen und das damit einhergehende Risiko zufälliger Befunde sogar vernachlässigen. Die Befunde an sich sind hochplausibel: Natürlich tut sich im Hirn derjenigen, die sich geistig nicht sehr um die Analyse und Zusammenfassung eines Textes bemühen müssen, weniger. Und dass sie im Wiederholungsfall dieser langweiligen Aufgabe immer gelangweilter werden und mehr mit Copy & Paste aus den Chat-GPT-Entwürfen übernehmen, ist vernünftig. Was denn sonst, wenn man mehrfach eine langweilige Sache erledigen soll. Das ist keine Herausforderung für das „kritische Denken“, das würde ich vermutlich auch so machen. Oder auch nicht, vielleicht würde ich mich statt dessen auch über die Versuchsanordnung ärgern, ganz originell werden und in den Befunden dann als statistischer Ausreißer auftauchen.

Aus einem Hirn-Scan in einer spezifischen Situation lässt sich wenig für die Hirnaktivitäten oder das Verhalten an sich ableiten. Die richtigen Kontrollgruppen wären Hirn-Scans zu anderen Zeitpunkten bzw. bei anderen Beschäftigungen als den Schreibaufgaben gewesen, z.B. beim Fernsehen oder in einer Mathe-Vorlesung. Ob sich die Gruppen da auch unterschieden hätten?

Ich vermute mal, ganz gewagte Hypothese, die man natürlich erst noch empirisch untersuchen müsste: Wenn diejenigen, die Chat-GPT nutzen, bei einer Schreibaufgabe ruhig auf einem Stuhl sitzen, während die anderen herumlaufen, kommt heraus, dass Chat-GPT-Nutzer:innen sich auch weniger bewegen. Headline garantiert: „Chat-GPT verursacht Bewegungsmangel!“

Kommentare (6)

  1. #1 Staphylococcus rex
    14. Oktober 2025

    Wer einen Taschenrechner benutzt, verlernt irgendwann die Benutzung eines Rechenschiebers.
    https://de.wikipedia.org/wiki/Rechenschieber
    Wer Chat-GPT benutzt, spart Zeit. Chat-GPT ist ein Werkzeug genau wie Rechenschieber oder Taschenrechner. Das ist kein Problem, solange daraus keine kritischen Abhängigkeiten entstehen. Um Risiken durch Chat-GPT beurteilen zu können, müßte man prüfen, ob es eine Korrelation zwischen intensiver Nutzung und Problemlösungsfähigkeiten gibt. Allerdings haben wir dann das Problem der Auswahl der Stichproben. Die intensive Nutzung von Chat-GPT kann auch die Folge eingeschränkter Fähigkeiten zur Problemlösung sein und nicht deren Ursache.

    Ich betrachte mich nicht als geistig behindert, weil ich meinen Rechenschieber seit Jahrzehnten nicht mehr benutzt habe. Und Faulheit ist nicht nur schlecht, wenn sie uns hilft, eingeschliffene Abläufe zu erkennen und zu optimieren.

    PS: Eine Größe der Gesamtstichprobe von 54 Personen erinnert mich an zahlreiche Homöopathiestudien. Die Gefahr der Verzerrung durch Ausreißer ist hier besonders hoch und erfordert besondere Sorgfalt bei der statistischen Auswertung.

  2. #2 Mensch
    14. Oktober 2025

    Allgemeine Zustimmung.
    Schulkinder brauchen einen Terminplan. Anders ist die Fülle ihrer Aufgaben nicht mehr oder nur noch teilweise zufriedenstellend zu bewältigen.
    Google war bislang eine schnelle Hilfe, die Voraussetzung dafür war aber die richtige Verwendung eines Begriffes. Mittlerweile setzt Google auch auf KI und beantwortet die Fragen, auch wenn der Begriff fehlt.

    Chat GPT ist umgangsfreundlicher und damit fast perfekt.

    Daraus abzuleiten, Chat GPT mache denkfaul, ist ebenfalls denkfaul.
    Die Lehrer müssen sich umstellen und Aufgaben bereithalten, die auf dem Unterricht in der Schule basieren. Diesen Hintergrund hat Chat GPT nicht.
    Beispiel: Der Lehrer bespricht einen Unfall und die Schüler sollen dazu einen Unfallbericht schreiben.
    Wenn also Chat GPT die Formulierung übernehmen soll, dann muss der Schüler zuerst den Unfall Chat GPT beschreiben können.
    Die eigene Denkarbeit bleibt bestehen.

  3. #3 Walter Dorsch
    München
    15. Oktober 2025

    Es gibt eine ausgezeichnete Studie, die zum Thema passt und Sorgen machen muss. Sie öffentlich zugänglich unter: arXiv:2506.08872 Advanced Search
    Computer Science > Artificial Intelligence [Submitted on 10 Jun 2025] Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task
    Hier die ZUSAMMENFASSUNG
    ChatGPT verändert das Gehirn: Neue Studie offenbart kognitive Kosten der KI-Nutzung
    Forscher des MIT Media Lab haben die neuronalen und kognitiven Auswirkungen der ChatGPT-Nutzung beim Schreiben untersucht.
    Besonders auffällig war das stark eingeschränkte Erinnerungsvermögen der ChatGPT-Gruppe: Bereits in der ersten Sitzung konnten 83,3 Prozent der Nutzer keine korrekten Zitate aus ihren eigenen, wenige Minuten zuvor erstellten Essays reproduzieren. Diese Gedächtnisdefizite hielten über alle vier Sitzungen hinweg an. Im Gegensatz dazu zeigten die anderen Gruppen eine deutlich bessere Erinnerungsleistung.
    Zudem berichteten ChatGPT-Nutzer über ein geringeres Gefühl von Ownership für ihre Texte. Viele beschrieben ihre Arbeit als gleichgültig oder konnten sich kaum an den Inhalt erinnern; einige gaben an, die Texte einfach kopiert und eingefügt zu haben. Die Gruppen ohne KI-Hilfe äußerten hingegen eine größere Zufriedenheit und ein stärkeres Gefühl des Eigentums an ihrer Arbeit.
    Die wiederholte Abhängigkeit von externen Systemen ersetzt zentrale kognitive Prozesse, was langfristig zu einer verminderten Leistungsfähigkeit führen kann.
    Die Studie weist auch darauf hin, dass KI in der Praxis vielfach als unterstützendes Werkzeug eingesetzt wird – etwa zur Ideenfindung, Recherche oder für Feedback – und nicht primär zur vollständigen Arbeitsabnahme. Die Art der KI-Nutzung ist daher entscheidend für ihre Auswirkungen auf das Lernen und kognitive Entwicklungen.
    https://karrierewelt.golem.de/blogs/karriere-ratgeber/chatgpt-verandert-das-gehirn-neue-studie-offenbart-kognitive-kosten-der-ki-nutzung (aufgerufen zuletzt am 12.10.2025)

    Nachbemerkung (W):
    Ein intensiver Gebrauch der KI reduziert die Fähigkeit zur Selbstkritik, zum Teil drastisch!
    Es kommt also zum Dunning-Kruger -Effekt (besser bekannt als Dumm-Dümmer-Effekt): Je dümmer jemand ist, desto mehr überschätzt er seine Leistung.

    • #4 Joseph Kuhn
      15. Oktober 2025

      @ Walter Dorsch:

      Ich würde unterscheiden wollen, was KI womöglich mit unseren Hirnleistungen oder unserem Verhalten macht, und was die jeweiligen Studien tatsächlich zeigen können.

      Was das Vergessen von Texten angeht: Ich vergesse meine eigenen, garantiert ohne KI geschriebenen Texte oft auch recht schnell und könnte manchmal schwören, etwas, was ich vor ein paar Monaten kommentiert habe, noch nie gehört zu haben. 😉

  4. #5 Mensch
    15. Oktober 2025

    zu #3 Walter Dorsch
    “Die Art der KI-Nutzung ist daher entscheidend für ihre Auswirkungen auf das Lernen und kognitive Entwicklungen.”

    Wenn die KI nur für copy and paste verwendet wird, dann geht das sehr schnell, aber die “Nachhaltigkeit” leidet darunter.
    Das ist vergleichbar mit dem Kuchenbacken. Erst wenn ein Kind den Kuchen selbst gerührt und dann gebacken hat, wird es dieses Erlebnis nicht mehr vergessen.

    Die (An)Forderungen an die Schulen und Lehrkräfte müssen angepasst werden, sowohl in der Didaktik als auch in der Methode. Die Schulbücher müssen umgeschrieben werden.

    So wie ich das beurteile, wird das lange Zeit brauchen. Die Verlage kämpfen um das Überleben. Anmerkung: Wenn es bis dahin überhaupt noch Schulbücher gibt. ?
    Und……es gibt kaum Vorlagen. Aus eigener Erfahrung….
    von 8 verschiedenen Mathematikbüchern von 8 verschiedenen Verlagen ließen sich alle auf 2 Mathematikbücher zurückführen, inhaltlich und methodisch , alle anderen waren nur abgekupfert mit schönen Hochglanzbildern aufgepimpt.
    Fazit: Es wird viel abgeschrieben auf dem Schulbüchermarkt. Das geht schnell und kostet nicht viel.
    Ausblick: Die werbefinanzierte KI wird sich in die Richtung Bezahl-KI verschieben.

  5. #6 Staphylococus rex
    16. Oktober 2025

    Die Interaktion von Mensch und KI (z.B. Chat-GPT) geht immer in beide Richtungen. Für den Nutzer ist Chat-GPT ein hilfreiches Werkzeug, welches mit wenig Aufwand seitens des Nutzers zahlreiche Informationen und Interaktionen liefert. Gleichzeitig sagen unsere Anfragen und unsere Reaktionen auf Chat-GPT Texte viel über uns aus. Wer viel Zeit hat, kann sich z.B. den Film “Das Russland Haus” anschauen und darüber nachdenken, was mit der “Shopping-Liste” gemeint ist.

    Derzeit ist die Nutzung der Nutzerdaten (Anfragen und Reaktionen) wenig bis gar nicht reglementiert. Dies ist für mich ein klares KO-Kriterium die Interaktion mit KI auf das Allernotwendigste zu begrenzen.

    Eine Reglementierung von KI ist aus meiner Sicht aus mehreren Gründen dringend erforderlich.
    1) KI wie Chat-GPT sind darauf optimiert, den Nutzer in seinen Ansichten zu bestärken. Bei suizidgefährdeten Personen kann dies zu einer Verstärkung der Suizidbereitschaft führen. Solange der KI kein eigener moralischer Kompass implementiert ist, muss es in der Programmierung Abbruchpunkte geben, wenn das Nutzerverhalten deutliche Hinweise auf Eigen- oder Fremdgefährdung beinhaltet.
    2) Ein ganz großes Problem ist aus meiner Sicht die Sicherung, aber auch die Grenzen der Privatsphäre. Eine KI als omnipräsentes Überwachungstool ist schlimmer als der Alptraum aus 1984, dort war die Überwachung durch die Ressource Überwachungspersonal begrenzt. Nutzerdaten sollten analog wie Brief- oder Beichtgeheimnis bzw. ärztliche Schweigepflicht gehandhabt werden, ein Fremdzugriff sollte nur auf richterliche Anordnung möglich sein. Ein aktiver Bruch der Schweigepflicht durch die KI sollte sich am Beispiel Priester, Rechtsanwälte oder Ärzte orientieren.
    3) Wenn ein Mensch über Jahre hinweg mit einer KI interagiert, kann man aus diesen Daten ein ziemlich umfassendes Nutzerprofil erstellen, u.U. bis hin zu einem digitalen Avatar des Nutzers. Was passiert nach dem Tod des Nutzers mit dem digitalen Nachlass?

    Solange die regulatorischen Hausaufgaben in Bezug auf KI noch nicht gemacht sind, sind Applikationen wie Chat-GPT ein ambivalentes Werkzeug mit hohem Dual-use Potential. Deshalb ist für mich derzeit die Frage nach einer kritischen Abhängigkeit von Chat-GPT und entsprechenden Veränderungen der Hirnaktivität (siehe Einleitung oben) einfach kein Thema.