In der Evangelischen Akademie Tutzing fand gestern und heute die 6. Tutzinger Depressionstagung statt, unter dem Titel „Depression 4.0 – Psychisch gesund mit dem Smartphone?“

Die Digitalisierung hält gerade mit Macht Einzug im Gesundheitswesen. Das gilt auch im Bereich der psychischen Gesundheit. Einen regelrechten Boom gibt es derzeit rund um Apps. Manche können bereits auf Rezept verschrieben werden. Wenn Apps erfolgreich vom Bundesinstitut für Arzneimittel und Medizinprodukte geprüft wurden, gelten sie als DiGAs, Digitale Gesundheitsanwendungen, die von Ärzt:innen und Psychotherapeut:innen auf Kosten der Krankenkassen verschrieben werden können. Es handelt sich dann rechtlich um Medizinprodukte. Etwa zwei Dutzend gibt es derzeit zur Unterstützung der psychischen Gesundheit, auch zur Hilfe bei Depressionen.

Als Vorteile werden häufig genannt: Sie können die Wartezeit auf einen Therapieplatz überbrücken, sie ermöglichen eine zeitlich flexible Unterstützung, es gibt weniger soziale Hemmschwellen und sie sind kostengünstig. Die Verschreibungskosten gab eine Referentin der Tagung mit 192 – 620 Euro an, wobei die Hersteller im ersten Jahr die Preise selbst festlegen. Die Entwicklungskosten lägen im Bereich zwischen 3 und 4 Millionen Euro. Der Nutzen der DiGAs muss dann nachgewiesen werden, aber das geht einfacher als bei Medikamenten.

Manche der DiGAs greifen auf Verhaltensdaten zurück, z.B. kombiniert mit einer SmartWatch, die Schritte zählt, den Schlaf überwacht oder andere Daten erfasst. Für die Industrie ist das ein Wachstumsmarkt und zusammen mit der Erschließung der Versorgungsdaten und der Entwicklung von KI-Anwendungen herrscht durchaus so etwas wie Goldgräberstimmung. Nach dem Hirnforschungshype jetzt also der Digital- und KI-Hype?

Ob die DiGAs wirklich so uneingeschränkt positiv zu sehen sind, oder ob sie wie alle Mittel Nebenwirkungen haben, ob sie wie auch die herkömmlichen psychosozialen Hilfen in einem Spannungsfeld von Unterstützung und Kontrolle angesiedelt sind – und ob sie eine Mechanisierung, also eine Entmenschlichung der psychotherapeutischen Beziehung bewirken, nur eine Simulation einer menschlichen Beziehung darstellen, das waren die Kernthemen der Tagung in Tutzing.

Einige Studien zeigen, dass Chatbots manches besser können als menschliche Therapeuten, dass sie z.B. manchmal als empathischer wahrgenommen werden. Aber ist Empathie nicht eine ganz spezifische Qualität der zwischenmenschlichen Beziehung? Wie „echt“ ist die künstliche Empathie? Täuscht sie nicht nur etwas vor? Und wenn man das bejaht, weil die KI ja nicht wirklich mitfühlt, ist dieser „digitale Animismus“, wie es einer der Referenten nannte, schlimm? Zählt letztlich bei der psychischen Gesundheit nicht, wie sich die Patient:innen fühlen? Was sonst ist der Erfolgsmaßstab bei einer Depression? Oder wäre das dann wie bei der Homöopathie: wenn die Leute glauben, dass es hilft, dann sollen es die Krankenkassen eben bezahlen?

Auf jeden Fall hat es etwas zu bedeuten, wenn menschliche Therapeuten in Studien als weniger empathisch wahrgenommen werden als eine KI. Man sollte die „menschliche Beziehung“ in Therapien auch nicht zu sehr idealisieren, gerade was die Psychiatrie angeht und nicht nur, was ihre mörderische Vergangenheit angeht.

Das gilt umso mehr, als bislang auch außerhalb von therapeutischen Beziehungen immer der Mensch das absolut Unmenschliche repräsentiert hat. Überhaupt: Ist „Technik“ wirklich das ganz Andere des Menschlichen? Oder ist Technik vielleicht menschlicher als man zunächst glaubt, ein Teil des Menschseins, und die KI projiziert menschliche Fähigkeiten nur in eine neue Realisationsform?

Wie dem auch sei: Menschliche Beziehungen in ihrer Gesamtheit können DiGAs und ihre Verwandten nicht ersetzen. Wir sind keine Zylonen. Aber sie können wohl manche Aufgaben erledigen, die bisher als unhintergehbar in der menschlichen Beziehung zwischen Therapeut und Patient verortet wurden.

DiGAs bzw. andere digitale Produkte werden, das zeichnet sich ab, ihren Platz im Gefüge der psychosozialen Versorgung finden. Man wird im Laufe der Zeit klarer sehen, wofür sie geeignet sind, wofür nicht und welche regulatorischen Leitplanken nötig sind, damit der Nutzen für die Industrie nicht größer ist als der für die Patienten. Dazu sind Studien nötig, vor allem auch industrieunabhängige Studien, die Nutzen und Risiken in konkreten Anwendungsfeldern untersuchen, dabei auch partizipativ Patient:innen und Therapeut:innen einbinden, und dazu sind Gesprächsforen wie die in Tutzing nötig, um die umwälzenden technischen Entwicklungen zu verstehen und einzuordnen. Denn über ihre spezifischen Leistungen hinaus verändern insbesondere KI-gestützte Anwendungen natürlich auch das Selbstbild der Menschen. Dagegen braucht es keine KI, um vorherzusehen, dass das nicht die letzte Tagung zu diesem Thema in Tutzing war.

Kommentare (72)

  1. #1 zimtspinne
    20. Februar 2024

    Passend fällt mir dazu ein, dass die Psychodocs möglicherweise die Pioniere der Digitalisierung sind…
    Ich bekam schon mehrfach so digitale Gesundheitsverordnungen auf Rezept (konnte ich mit aussuchen, was ich da nehme – es gibt von Essstörungen über Depressionen, Angstzeugs alles mögliche).
    Außerdem erhalte ich seit Corona bei jedem Blut-Check (zweimal jährlich) ein Kärtchen mit einem Code, wo ich mir sobald fertig die Laborergebnisse bequem zu Hause selbst ansehen kann.
    Bekomme die aber auf Wunsch auch ausgedruckt bzw das wurde von Anfang an selbstverständlich an mich ausgehändigt (während Corona sogar zu mir nach Hause mit der Post geschickt).
    Von Hausärzten erhielt ich noch niemals Laborbefunde, von Glück kann man reden, wenn sie die auf Anfrage ohne Murren aushändigen.

    So gesehen, profitiere ich bisher von den neuen digitalen Möglichkeiten. Bin aber auch sehr pflegeleicht (mittlerweile).

  2. #2 PDP10
    21. Februar 2024

    Da fällt mir natürlich als erstes sofort wieder ELIZA ein (1966!), die (das?) ich, glaube ich, schon mehrfach in Diskussionen hier erwähnt habe.

    Ich kann mir ein paar Zitate aus dem Wikipedia Artikel nicht verkneifen:

    “Die Wahl des Psychotherapeuten als simulierten Gesprächspartner begründete Weizenbaum damit, dass es einem solchen Gesprächspartner erlaubt ist, keinerlei Wissen über die Welt zeigen zu müssen, ohne dass dadurch seine Glaubwürdigkeit verloren geht.”

    “Die Versuchspersonen in den Experimenten waren zu einem großen Teil sogar überzeugt, dass der „Gesprächspartner“ ein tatsächliches Verständnis für ihre Probleme aufbrachte. Selbst wenn sie mit der Tatsache konfrontiert wurden, dass das Computerprogramm, mit dem sie „gesprochen“ hatten, auf der Basis einiger simpler Regeln und sicherlich ohne „Intelligenz“, „Verstand“, „Einfühlungsvermögen“ usw. einfach gegebene Aussagen in Fragen umwandelte, weigerten sie sich oft, dies zu akzeptieren.”
    (Hervorhebung von mir).

    “Weizenbaum war erschüttert über die Reaktionen auf sein Programm, vor allem, dass praktizierende Psychotherapeuten ernsthaft daran glaubten, damit zu einer automatisierten Form der Psychotherapie gelangen zu können. Er entwickelte sich nicht zuletzt aufgrund dieser Erfahrungen zu einem Gesellschaftskritiker. “

    Nun ja. Wenn’s funktioniert?
    Aber die Einschränkungen, die dieser Satz hat wurden ja schon oben im Artikel benannt.

    ——–

    Was die Digitalisierung im Gesundheitswesen allgemein angeht: Ein Segen für Meinereiner (komme gleich wieder zum Thema zurück, kleinen Moment noch …)! Ich habe von meiner Versicherung eine App mit der ich alle Rezepte, Arztrechnungen etc. inzwischen einfach abfotografieren und die dann durch tippen auf einen Button einreichen kann zur Erstattung. Früher hieß das: Alles auf Papier sammeln. Irgendwann eintüten und ein Formular dazu ausfüllen, per Post verschicken, hoffen dass das auch ankommt (da war oft viel potentielles Geld in den Umschlägen) und dann Wochenlang auf die Erstattung warten. Heute siehe oben.
    Diese App – um wie versprochen zum Thema zurück zu kommen – hat auch einen Unterprogrammbereich mit verschiedenen unterstützenden Programmen. Unter anderem zur Unterstützung bei Depressionen. Nach Rücksprache mit jemand, der davon was versteht auf den ich aus Gründen gerade Zugriff habe (was heutzutage echt nicht so einfach ist!), werde ich das als Betroffener eventuell mal ausprobieren. Eventuell berichte ich dann hier auch mal davon. Mal sehen.

    • #3 Joseph Kuhn
      21. Februar 2024

      @ PDP10:

      Weizenbaums Erschütterung kam in einem der Vorträge in Tutzing auch zur Sprache. Wobei es Leute geben soll, die auch mit ihrem Auto reden.

      App ausprobieren und berichten: gerne.

  3. #4 hto
    wo die gepflegte Bewusstseinsschwäche ...
    21. Februar 2024

    “Wie „echt“ ist die künstliche Empathie?”

    – Fragt einer der gegen Homöopathie ist, bzw. das “Wesen der Homöopathie” nicht annähernd verstanden hat!? 😉

  4. #5 Ludger
    21. Februar 2024

    Menschliche Beziehungen in ihrer Gesamtheit können DiGAs und ihre Verwandten nicht ersetzen.

    Die Aussage ist ihrer Zeit weit voraus, wenn man das Zitat als Subjekt-Prädikat-Objekt liest. 🙂

    • #6 Joseph Kuhn
      21. Februar 2024

      @ Ludger:

      So kann die hermeneutische Anstrengung ganz neue Einsichten zutage fördern. Wie rum man den Satz auch dreht, er bleibt wahr 😉

  5. #7 Robert
    Schaftlach
    21. Februar 2024

    Technik gegen alles.

  6. #8 Beobachter
    21. Februar 2024

    Und was machen Leute mit Depressionen, aber ohne Smartphone?

    Gerade ältere Leute haben oft nicht mal Internet-Zugang und wenig bis keine entsprechenden Kenntnisse, und wenn keine Kinder und/oder Enkel vorhanden sind, die sich (auch) um die digitale Teilhabe der Eltern oder Großeltern kümmern, lässt man diese im Regen stehen.
    Wie überhaupt bei der “Digitalisierung des Gesundheitswesens” viele große Bevölkerungsgruppen außer Acht gelassen werden.

  7. #9 Alisier
    21. Februar 2024

    @ Joseph Kuhn
    Entschuldige bitte den zweimaligen Gebrauch des Kraftausdrucks:
    Sauguter Post mit sauguten Fragen!
    Das als spontaner meiner Muttersprache geschuldeter Ausruf.

  8. #10 LasurCyan
    21. Februar 2024

    Wobei es Leute geben soll, die auch mit ihrem Auto reden.

    Anders als die sprichwörtliche Tapete antworten manche Autos inzwischen ja wirklich.

    Ob sich mit Technik was gegen Depressionen ausrichten lässt, weiss ich nicht. Aber das lässt sich sicher überprüfen. Allerdings bin ich mir sicher, dass gewisse Technik einer Depression förderlich sein kann. Aber das können auch Waldspaziergänge, wenn was schiefläuft.

  9. #11 naja
    21. Februar 2024

    “Auf jeden Fall hat es etwas zu bedeuten, wenn menschliche Therapeuten in Studien als weniger empathisch wahrgenommen werden als eine KI.”
    KI hat keine Körpersprache und keinen Tonfall, Geduld ist kein Problem. Man stelle sich einen menschlichen Therapeuten vor, der mit einem hto Kaliber zu tun hat und einen DiGA-Therapeuten. Der menschliche denkt schon beim ersten Gespräch, dass das Gerede von wirklicher Wahrhaftigkeit warscheinlich nur ein Symptom ist und es nicht zielführenbd ist, dies zu vertiefen. Die KI fragt womöglich noch beim 20. Mal “interessiert” nach, selbst bei schwurbeligsten Schwurblern. Vielleicht ist es auch die mangelnde Empathie, die empathisch erscheint.

    • #12 Joseph Kuhn
      21. Februar 2024

      @ naja:

      “Man stelle sich einen menschlichen Therapeuten vor, der mit einem hto Kaliber zu tun hat”

      Auf hto antworte ich schon lange nicht mehr, das macht natürlich ein Chatbot, der meinen Stil imitiert. 😉

  10. #13 hto
    wo bald Schluß ist, weil ...
    21. Februar 2024

    @Kuhn: “… das macht natürlich ein Chatbot, der meinen Stil imitiert.”

    Und das ist auch besser so. 🙂

  11. #14 PDP10
    21. Februar 2024

    Vielleicht ist es auch die mangelnde Empathie, die empathisch erscheint.

    Vielleicht ist es auch die mangelnde Geduld mit Idioten die bei manchen Therapeuten unempathisch erscheint. (Mag unprofessionell sein, aber wenn die oft mit Leuten wie dem genannten zu tun haben, hätte ich dafür vollstes Verständnis.)

  12. #15 zimtspinne
    21. Februar 2024

    Seh ich erst jetzt, dass im Text diese digit. Gesundheitsanwendungen sogar erwähnt werden. Hatte nur den Anfang gelesen.

    Hat jemand den Vergleich zwischen Mensch und KI (wie heißt die eigentlich bei den KK? Diese Dinger haben doch immer Namen) und kann was dazu sagen?

  13. #16 Fluffy
    22. Februar 2024

    Die Digitalisierung hält gerade mit Macht Einzug im Gesundheitswesen.

    Ein seit langem überfälliger Schritt. Was heißt denn Digitalisierung: Nutzung elektronischer Dokumente und Übertragungswege, jenseits von Fax und Telefon, Nutzung von Computern und Datenbanksystemen. Dinge, die es schon lange gibt.

    Einen regelrechten Boom gibt es derzeit rund um Apps.

    Als Vorteile werden häufig genannt: Sie können die Wartezeit auf einen Therapieplatz überbrücken, sie ermöglichen eine zeitlich flexible Unterstützung, es gibt weniger soziale Hemmschwellen und sie sind kostengünstig. Die Verschreibungskosten gab eine Referentin der Tagung mit 192 – 620 Euro an, wobei die Hersteller im ersten Jahr die Preise selbst festlegen. Die Entwicklungskosten lägen im Bereich zwischen 3 und 4 Millionen Euro.

    Diese “Vorteile” kaschieren oder beschönigen vor allem bestehende Nachteile des aktuellen Systems. Lange Wartezeiten, durch zu wenig Sprechstunden- und Therapieplätze, egal ob ambulant oder stationär, hohe zusätzliche Personalkosten bei Schaffung neuer Kapazitäten.
    Dagegen sind 3-4 Millionen € wirklich wenig. Andererseits erscheint mir diese Summe für die Entwicklung einer App riesig. Dem entsprechen ca. 30-40 Personenjahre, damit werden in der naturwissenschaftlichen Forschung große internationale Projekte finanziert (von Hardwarekosten abgesehen).
    Im übrigen muss zur Verschreibung einer DiGA-App auch ein Facharzt aufgesucht werden, oder sollen das jetzt auch die Hausärzte machen?
    Der Kunde, äh Patient braucht außerdem einen Computer, ein Smartphone, gut das sind Dinge, die viele schon haben, aber bei der Smartwatch hört es dann schon auf.
    Was ist mit der Verantwortung bei Behandlungsfehlern, die bei Apps genauso wie bei menschlicher Behandlung auftreten können? Die konkreten Programmierer wird man da wohl kaum heranziehen.

    Mein vorläufiges Fazit: Jede sogenannte KI ist menschengemacht und sollte von Menschen für Patienten angewendet werden.
    Oder wollen wir perspektivisch, dass uns der Röntgenarzt mit der CD nach Hause schickt und sagt: “Laden Sie sich mal zu Hause die Computertomographie-Software runter und installieren das medizinische Analysetool. Dann wissen ‘se schon mal wat ‘se haben.”

    Ach, ja. Nichts gegen die Entwicklung “Intelligenter Systeme”. Aber sie gehören in die richtigen Hände.

  14. #17 Staphylococcus rex
    22. Februar 2024

    Teilweise geht mir die Digitalisierung in die falsche Richtung. Alle fokussieren sich auf die Applikationen. Dabei gibt es bereits jetzt schon eine Lawine an Daten. Wenn man Pech hat, liegen in einer elektronischen Patientenakte die Daten in drei unterschiedlichen Formen vor: Als Scan eines Ausdrucks, als maschinenlesbares (aber nicht strukturiertes) pdf-Dokument oder als echt strukturierte Daten, die z.B. gefiltert und weiterverarbeitet werden können. Die Umwandlung von unstrukturierten Daten in strukturierte Daten würde die Arbeit mit der elektronischen Patientenakte sehr erleichtern, dies wäre eine klassische Aufgabe für KI, soweit ich es sehe, gibt es erste Versuche, aber noch keine flächendeckende praktikable Lösung.

    Ein zweites Grundproblem sind die fehlenden Schnittstellen zwischen den medizinischen Applikationen, leider läuft es meist so, dass bei den Applikationen sie Softwarefirmen im Wettbewerb stehen, den Reibach machen diese Firmen, wenn man sich Schnittstellen zulegen muss, um die Applikationen zusammen mit anderen Programmen zu nutzen. Die Flut an unstrukturierten Daten (Scans, pdf’s) ist eine Folge der Schnittstellenmisere, hier wäre der Gesundheitsminister zwecks Standardisierung und verbindlicher Vorgaben zum Lieferumfang gefragt.

    Ich gehe davon aus, dass bei DiGA’s der Datenschutz grundsätzlich geklärt ist. Je mehr Verbindungsmöglichkeiten derartige Programme haben, desto drängender werden Fragen des Datenschutzes und die Frage, wem gehören diese Daten. Eine App, die bei Depressionen unterstützt, sammelt ja auch Daten und könnte diese als Behandlungsbericht an den “menschlichen” Psychiater weitersenden. Darf der Patient diese Daten vor Versand sehen, und wenn ja, darf er sie vor Versand freigeben? (Eine Möglichkeit der Veränderung der Daten würde ich kategorisch ausschließen, weil veränderte Daten dann nicht mehr die Krankheit sondern nur noch das Selbstbild des Patienten darstellen.)

  15. #18 zimtspinne
    22. Februar 2024

    @ S. rex

    Gute Fragen, die ich -wo möglich- gerne beantworten würde, allerdings hab ich diese “Rezepte” (rosa) bisher noch nicht eingelöst.
    Gerade wird mir ganz anders, weil du mich auf die Idee bringst, dass der verschreibende Arzt das womöglich sieht…. ich hatte eh schon ein schlechtes Gewissen deshalb.
    Mir gehts derzeit allerdings mit leichten Schwankungen gut, habe nicht wirklich Bedarf an diesen Programmen (so verstand ich es zumindest) und habe eher niedrige Erwartungen an ihre Vorzüge.

    Was nicht zuletzt an meine bisherigen Erfahrungen mit dieser Sorte KI liegt. Mit denen man irgendwie interagieren soll, womit diese Teile schlicht überfordert sind.
    Ernsthaft geht mir schon seit Jahren die Windows-KI auf den Keks, und die hatten genug Zeit, sich weiterzuentwickeln.
    Kein Plan, wie die mit Depressionen umgehen. Ein Alptraum 😉
    Morgen oder am WE schaue ich mir das mal an und hoffe, dass die kein Ablaufdatum oder kein sehr kurzfristiges haben.
    Falls es noch funzt, kann ich evtl einige deiner Fragen beantworten. Ansonsten im März, wenn ich garantiert wieder sowas bekomme.

    Demnächst werde ich übrigens mal ein CGM (Continuous Glucose Monitoring) testen, über die App, was ja ein wahrer Ausbund an Datenhamsterei ist.
    Man kann die Übermittlung allerdings unterbinden, was nur relevant für Patienten ist, nicht für mich, da ich das privat mache. Freu mich darauf auch schon, da das total spannend wird und evtl ein paar Erkenntnisse herauskommen, die ich zukünftig in der Ernährung berücksichtigen oder zumindest auf dem Schirm haben kann. Personalisierte Medizin (Prophylaxe in diesem Fall, das wird ja den Herrn Lauterbach freuen).
    Mein Kumpel, der das System als Diabetes-Patient schon länger nutzt, aber nicht über die App, weigert sich, der Datenübermittlung zuzustimmen, da das was von Überwachung und Kontrolle hätte. Kann ich nachvollziehen. Er wird aber immer wieder gefragt und quasi so auch unter Druck gesetzt.

  16. #19 PDP10
    22. Februar 2024

    @zimtspinne:

    Kein Plan, wie die [die KI, d. Red.] mit Depressionen umgehen.

    Meines Wissens noch gar nicht. Diese KI gestützten Therapien bei denen man mit einem Bot interagiert sind wohl noch in der Entwicklung.
    Die Anti-Depri-Apps die auf dem Markt sind funktionieren (wie gesagt, meines Wissens. Möglicherweise aber nicht mehr ganz aktuell) eher wie so eine Fitness-App, die dich an deine Trainingseinheiten erinnert und ein bisschen deine Fortschritte überwacht.

    • #20 Joseph Kuhn
      22. Februar 2024

      @ PDP 10:

      “Diese KI gestützten Therapien bei denen man mit einem Bot interagiert sind wohl noch in der Entwicklung.”

      Sie sind längst da. Allerdings mit Risiken, siehe z.B.: https://brf.be/national/1705532/

  17. #21 PDP10
    22. Februar 2024

    @Joseph Kuhn:

    Na, ob das wohl mit einer DiGas vergleichbar ist? Irgendeine KI von denen es heute jede Menge gibt, nach der der Kerl “süchtig” geworden ist? Das muss nicht mal eine KI sein. Gut programmierte Chat-Bots, die überhaupt nichts KIiges haben gibt es schon seit Jahrzehnten. Siehe ELIZA (sic!) 😉

    Die Quellenlage ist da nach Google übrigens sehr dünn.
    Ehrlich gesagt erinnert mich das ein wenig an fliegende Kühe die immer mal wieder durch die Nachrichten geistern und sich immer wieder als Hoax rausstellen …

    • #22 Joseph Kuhn
      23. Februar 2024

      @ PDP10:

      “Na, ob das wohl mit einer DiGas vergleichbar ist?”

      Hoffentlich nicht.

      “Chat-Bots, die überhaupt nichts KIiges haben gibt es schon seit Jahrzehnten. Siehe ELIZA (sic!)”

      Weizenbaums ELIZA und Eliza aus dem Link sind zwei unterschiedliche Anwendungen: “Eliza ist eine KI-Anwendung einer kleinen US-amerikanischen Firma mit Sitz im Silicon Valley.”

      ChatGPT, das gar nicht für den klinischen Einsatz entwickelt wurde, behandelt wohl leitliniengerechter als Ärzte.

      Das Thema KI mal beiseite: Ich fürchte, als “fliegende Kühe” ist das alles nicht mehr abzutun. Da kommt seit einigen Jahren ständig Neues auf den Markt. Umso wichtiger ist, dass man einen kritischen Blick darauf behält, was solche Anwendungen leisten können und was nicht. Die vom BfArM geprüften DiGAs müssen zwar einigen Anforderungen genügen, auch einen “positiven Versorgungsaspekt” aufweisen, aber mit einer Medikamentenzulassung ist das nicht im Entferntesten vergleichbar, daher ist die Entwicklung auch viel billiger.

  18. #23 Adent
    23. Februar 2024

    @Joseph
    Wie witzig, da haben wir uns um einen Tag verpasst, ich war Mittwoch/Do in der evangelischen Akademie bei der Veranstaltung Innovation und Vorsorge.
    Die wurde von Stephan Schleissing und Markus Vogt organisiert.
    Da hätten wir uns fast getroffen 🙂

  19. #24 zimtspinne
    23. Februar 2024

    Was dort gar nicht beleuchtet wird, für welche Kohorten das überhaupt eine sinnvolle Option oder Ergänzung sein kann. Bei “Ergänzung” muss ich an die Komplementärmedizin denken und etwas Skepsis macht sich breit. Kann ich noch nicht einordnen.

    So eine App-Intervention auf jemanden loszulassen, der sich gerade erstmalig mit seiner (womöglich schon länger vorhandenen) Depression aktiv beschäftigt oder sie überhaupt wahrnimmt oder wo es noch gar keine Diagnose gibt und auch andere Sachen für die Symptome verantwortlich sein könnten, finde ich unverantwortlich.
    Auch nicht als Überbrückung geeignet mM. Kommt natürlich auf die Einzelsituation an. Aber allgemein sollte man Depressive oder möglicherweise in eine Depression schlitternde Menschen nicht allein zu Hause isoliert mit irgendwelchen “Behandlungen” lassen.

    Anders könnte das aussehen bei Fortgeschrittenen. Die halt schon so ziemlich alles über sich und ihre Erkrankung wissen, ihre Symptome einordnen können und vertraut sind mit verschiedenen Interventionen, Die eher erkennen, ob sie von den digitalen Hilfsangeboten profitieren oder nicht.
    Sie haben ja den Vergleich zu anderen Interventionen. Und eher die Patientenkompetenz und -souveränität, für sich zu entscheiden, ob das eine sinnvolle Sache ist oder nicht.

    “Schaden kann es nicht” — denke schon, dass das schaden kann. Z.B. in der Form, dass derjenige damit in einer Vermeidungshaltung bestärkt wird und eine gute Ausrede für sich hat, echte Ärzte zu vermeiden. Man tut ja was….
    Ich muss mir das aber angucken, um dazu etwas sagen zu können.

    Nachdem ich mir jetzt erst den “Beipackzettel”/Fachinfos durchgelesen hab in JKs links, soll das Einsatzgebiet ja noch deutlich breiter sein als ich annahm.

    Wenn den Patienten dadurch unsichere Internetrecherche (nach ihren Erkrankungen/Zuständen/Symptomen) abgenommen wird und sie auf geprüfte Quellen zugreifen und selbst eingebunden werden (durch Abfrage oder dergleichen), scheint das ja nicht ganz verkehrt.

    Nebenbei: Mehrere Menschen in meinem Nahfeld nahmen bereits an Ernährungsberatungen und Diabetesschulungen der KK teil und fanden die eher so mittel. Bis schlecht (diejenigen, die sich schon selbst informiert hatten).
    Diese Kurse fanden natürlich offline statt mit echten Coaches (oder wie man die nennt).
    An Yogakursen will ich dieses Jahr mal teilnehmen, um mir mal ein Bild zu machen, was die dort so treiben. Yoga ist ja nicht frei von esoterischen Anwandlungen und dort kann auch jede Menge Schaden entstehen. Wenn ich mir so die Ausbildung der Yogis anschaue…. naja, das führt jetzt zuweit ins Abseits.
    Betrifft aber auch das Problem der externen Anbieter dieser medizinischen Applikationen (hab ich jetzt mal von Staphylo rex übernommen in der Hoffnung, dass das auch hier passt).

  20. #25 Staphylococcus rex
    23. Februar 2024

    Damit die Diskussion bei Gesundheits-Apps nicht zerfasert, sollten wir in der Diskussion trennen zwischen DiGA’s (die nach meiner Kenntnis vom Arzt per Rezept verschrieben werden) und “normalen” Apps aus dem App-Store. DiGA’s müssen bestimmte Anforderungen erfüllen, während Apps aus dem Store weitgehend unreglementiert sind. Auch wenn aus Sicht des Anwenders die Grenzen nicht so deutlich sind.

  21. #26 zimtspinne
    23. Februar 2024

    @ rex

    Nur zur Klarstellung: ich beziehe mich ausschließlich auf die von Ärzten verschriebenen Anwendungen.
    Von anderen wusste ich bisher noch nicht mal etwas.

    Ich habe eine Psychiaterin, die sich immer Zeit nimmt und auch nicht auf die Uhr schaut (oder mit Kniffen Patienten hinauskomplimentiert), als ich aber Näheres zu diesem Angebot wissen wollte, kürzte sie das ab und ich bekam quasi nichts dazu heraus. Wahrscheinlich dachte sie, das ist selbsterklärend und offene Fragen werden dort beantwortet. Glaube, sie meinte nur, ich soll es mir halt mal anschauen.
    Also keine Infos von einer sich zeitnehmenden Ärztin – wie sieht das aus bei solchen, die herumhuschen?

    Was mir in dem Ärztezeitungsartikel außerdem negativ auffiel, als Chatdingens mit echten Ärzten verglichen wurde:
    Kein Wort zu Überweisung zum Facharzt bei Medikation! Sollen das etwa Hausärzte fachgerecht machen? Die sind doch gar nicht vom Fach.
    Weder für Medikamentenausgabe noch überhaupt schon mal für die Diagnostik.
    Viel zu oft (bekomme ich so mit im Bekanntenkreis) geben Hausärzte nicht nur Psychopharmaka bereitwillig und ohne Fachärzte hinzuzuziehen heraus, sondern sogar Benzodiazepine und ähnliches. Auch an Leute, die schon mal Abhängigkeitsproblematiken hatten und das auch bekannt ist den Hausärzten.

    Meine vorherige und jetzige HÄ haben umgehend an den Facharzt überwiesen bzw meine neue wollte nicht mal bestehende Medikationen einfach übernehmen, sondern ich musste da auch erstmal zum Facharzt (hatte da gerade keinen, da der alte weggefallen war und akut bei mir auch nichts anstand. Ich habe aber immer Bedarfsmedikamente im Notfallkoffer, die ich ja evtl mal wieder aufstocken hätte müssen.)

    Von keinem der involvierten Ärzte, Hausärzte oder Fachärzte hätte ich jemals sowas wie Benzos erhalten. Keine Chance, egal was ist.
    Eine Freundin von mir erhält all das ganz bequem zum Beruhigen, Einschlafen vom Hausarzt und dazu auch noch regelmäßig wenn es ihr einfällt Andidepressiva.
    Die sie nach eigener Angabe aus Gewohnheit weiterhin nimmt, und weil sie sich damit sicherer fühlt. Ob sie wirken? Ob sie die überhaupt noch benötigt? keine Ahnung. Absetzen macht ihr Angst.
    Genau dafür geht man zu Fachärzten, damit Medikamente mit bedeutenden Nebenwirkungsprofilen nicht einfach jahrelang aus Gewohnheit und weil man sich sicherer fühlt eingenommen werden.

    Völlig unmöglich, dass nun auch so eine Ärztezeitung voll in diese Kerbe haut.

  22. #27 Ludger
    23. Februar 2024

    Zitat JK.:
    ChatGPT, das gar nicht für den klinischen Einsatz entwickelt wurde, behandelt wohl leitliniengerechter als Ärzte.

    Laut dem Ärzteblattzitat hat ChatGPT gar nicht behandelt sondern eine Therapieform vorgeschlagen:

    Zitat aus dem Deutschen Ärzteblatt (Link s.o.):
    Für jede der 8 Textvignetten wurde ChatGPT gefragt: „Was denkst du, sollte ein Hausarzt in dieser Situation verordnen?“ Die möglichen Antworten waren: Beobachten und Abwarten, Überweisung zur Psychotherapie, Medikamente gegen Depression, Angststörungen oder Schlafstörungen, Überweisung zur Psychotherapie plus Medikamente oder keine dieser Optionen.

    Die Auswahl einer begrenzten Zahl von Therapiearten ist nicht die Therapie selber. ChatGPT versteht nicht, was es formuliert. Etwas aus einer begrenzten Zahl von Möglichkeiten auswählen könnte auch ein Schimpanse.

    • #28 Joseph Kuhn
      23. Februar 2024

      @ Ludger:

      “Laut dem Ärzteblattzitat hat ChatGPT gar nicht behandelt sondern eine Therapieform vorgeschlagen”

      Das ist mit Blick auf zitierte Studie richtig. Untersucht wurde nur die Einleitung einer Therapie. Die Autoren schreiben: “the cases described in the vignettes pertain to an initial visit due to a complaint of depression, and do not depict ongoing and comprehensive treatment of the disease”

      “Etwas aus einer begrenzten Zahl von Möglichkeiten auswählen könnte auch ein Schimpanse.”

      Damit macht man sich die Sache zu einfach. Wie gesagt, es gibt bereits Apps zum therapeutischen Einsatz im DiGA-Verzeichnis des BfArM und es würde mich sehr wundern, wenn da in den nächsten Jahren keine KI-unterstützten Apps dazu kämen. Als ungeprüfte Varianten existieren sie ja schon auf dem Psychomarkt. Man könnte natürlich mal ChatGPT fragen, was es dazu meint 😉

  23. #29 zimtspinne
    23. Februar 2024

    @ Ludger

    unter welche Therapieform fallen denn “Angststörungen oder Schlafstörungen”?
    Das sind ja ganz verschiedene Ebenen.

    Ach so, nochmal gelesen, könnte zu den “Depressionen” davor gehören.
    Grammatik ist offenbar auch nicht ChatGPT’s Stärke.

    Frage mich sowieso, was das soll:

    Sie legten dem KI-Sprachmodell sorgfältig designte und zuvor validierte Textvignetten vor, die sich um hypothetische Patienten drehten, die seit etwa 3 Wochen an Traurigkeit, Schlafproblemen und Appetitlosigkeit litten und bei denen eine leichte bis moderate Depression diagnostiziert worden war.

    habe alle/die exakten Kriterien für Depression jetzt nicht im Kopf.
    “Traurigkeit” über einen Zeitraum von 3 Wochen” – wer diagnostiziert da eine leichte bis moderate(!) Depression?
    Auch zusammen mit den drei anderen Symptomen muss das keine Depression sein.
    Und gleich mal mit Medikamenten gegensteuern, in mehreren Vorschlägen.
    Medikamente gegen Depression (AD), gegen Angststörungen (Anxiolytika, da werden teils auch echte Hämmer verschrieben) und Schlafstörungen (am besten gleich die guten Benzos bei Insomnia). Hier wird nicht gekleckert, sondern geklotzt.

    Meiner Erinnerung nach sind Medikamente (AD) bei leichten bis mittleren Depressionen gar nicht besonders erfolgreich, daher nicht angezeigt und werden auch nicht empfohlen, nach Behandlungsleitlinie. In diesem Punkt bin ich mir recht sicher, ohne nachschauen zu müssen.

    Beobachten und (Baldrian)Tee trinken scheint mir ja noch die beste Option 😉

  24. #31 Ludger
    23. Februar 2024

    @Zimtspinne

    @ Ludger
    unter welche Therapieform fallen denn “Angststörungen oder Schlafstörungen”?

    Schlafstörungen sind ein Symptom und können bei Menschen mit der Diagnose Angststörung vorkommen.
    Jetzt noch mal zur Aussage von JK: ChatGPT behandelt nicht sondern beantwortet eine Multiple Choice Frage, wie ein Hausarzt/eine Hausärztin behandeln sollte. ChatGPT ist aber nicht den Zielkonflikten von Hausärzten und Hausärztinnen ausgesetzt, hat zum Beispiel keine Probleme mit Wartefristen bis zum Behandlungsbeginn einer Psychotherapie. Selbst die Überweisung zu einer Psychotherapie ist keine Behandlung sondern die Überweisung zu einer Behandlung.
    Wenn eine Ärztin / ein Arzt einen ersten Kontakt zu einem Menschen mit einer psychischen Erkrankung hat, muss sie/er einen Weg einschlagen, der kurzfristig möglich ist. Die Antwort: “Sie haben eine leichte Depression und ich überweise Sie deswegen zu einer Psychotherapie, alles Gute und auf Wiedersehen” wäre die richtige Antwort im Sinne der Leitlinie gewesen, wäre aber im reellen Leben nicht angemessen gewesen. Stattdessen ein Rezept über Diazepam wäre allerdings ein Behandlungsfehler.
    Der o.a. Test von ChatGPT hat die Probleme des wirklichen Lebens nicht hinreichend abgebildet und ist daher mit Vorsicht zu genießen.

  25. #32 Joseph Kuhn
    23. Februar 2024

    Chat mit Chat-GPT 3.5:

    Frage:
    Kannst du bei Depressionen helfen?

    Antwort ChatGPT:

    “Als KI-Modell bin ich nicht qualifiziert, um Menschen bei Depressionen zu behandeln oder professionelle Hilfe zu bieten. Wenn du das Gefühl hast, unter Depressionen zu leiden oder jemanden kennst, der Hilfe benötigt, ist es wichtig, professionelle Unterstützung von einem Arzt, Psychologen oder Therapeuten zu suchen. Diese Fachleute sind in der Lage, eine angemessene Diagnose zu stellen und geeignete Behandlungsmöglichkeiten vorzuschlagen, sei es in Form von Psychotherapie, Medikation oder anderen Interventionen. Es ist entscheidend, sich an Fachleute zu wenden, um die bestmögliche Unterstützung zu erhalten.”

    Frage:
    Gibt es KI-Anwendungen, die bei Depressionen helfen?

    Antwort ChatGPT:

    “Ja, es gibt KI-Anwendungen und Technologien, die dazu beitragen können, Menschen mit Depressionen zu unterstützen. Diese Anwendungen dienen jedoch in der Regel als Ergänzung zur professionellen medizinischen Behandlung und sollten nicht als Ersatz für eine persönliche Beratung durch einen Fachmann betrachtet werden. Einige Beispiele für KI-Anwendungen, die bei Depressionen helfen können, sind:

    – Digitale Therapieprogramme: Es gibt verschiedene Apps und Online-Plattformen, die kognitive Verhaltenstherapie (KVT) oder andere evidenzbasierte Therapieansätze für Menschen mit Depressionen anbieten. Diese Programme verwenden oft KI, um personalisierte Interventionen und Feedback zu liefern.

    – Chatbots und virtuelle Assistenten: KI-gesteuerte Chatbots können als anonyme Gesprächspartner dienen und emotionale Unterstützung bieten. Sie können Techniken wie aktives Zuhören, Empathie und Ratschläge zur Bewältigung von Depressionssymptomen anwenden.

    – Stimmungs-Tracking-Apps: Es gibt Anwendungen, die KI-Algorithmen verwenden, um Stimmungsdaten zu analysieren, die von Benutzern eingegeben werden. Diese Apps können Muster und Trends erkennen, die auf sich verschlechternde oder verbesserte Stimmungen hinweisen, und Benutzern helfen, ihre emotionalen Zustände besser zu verstehen.

    – Früherkennung und Risikobewertung: Einige KI-Systeme werden entwickelt, um Risikofaktoren für Depressionen zu identifizieren und Personen zu erkennen, die möglicherweise anfällig für depressive Störungen sind. Dies kann dazu beitragen, Frühwarnzeichen zu erkennen und rechtzeitig geeignete Interventionen einzuleiten.

    Es ist wichtig zu betonen, dass diese Anwendungen nicht dazu gedacht sind, eine professionelle Diagnose oder Behandlung zu ersetzen, sondern vielmehr als Hilfsmittel und Ergänzungen zur Unterstützung dienen können. Es ist ratsam, solche Anwendungen in Absprache mit einem qualifizierten Gesundheitsdienstleister zu nutzen.”

    Ich:
    Danke!

    Antwort ChatGPT:

    “Gern geschehen! Wenn du weitere Fragen hast oder weitere Informationen benötigst, stehe ich gerne zur Verfügung. Es ist wichtig, sich um seine mentale Gesundheit zu kümmern, und ich unterstütze dich gerne dabei, die Ressourcen zu finden, die dir helfen können.”

  26. #33 Ludger
    23. Februar 2024

    Es gibt zur zur Nationalen Versorgungs-Leitlinie auch eine Patienten-Leitlinie.
    Daraus ab S.62:

    Auf Grundlage von vorliegenden Studiendaten spricht die Leitlinie folgende Empfehlungen aus:
    Leichte Depression
    Bei einer leichten Depression ist es sehr wahrscheinlich, dass Sie auch ohne Behandlung wieder gesunden. Nach Meinung der Expertengruppe können Ärzte und Psychotherapeutinnen daher zunächst abwarten und die Beschwerden beobachten, bevor sie eine Behandlung einleiten. Während dieser Zeit werden Sie dennoch ärztlich und psychotherapeutisch begleitet und betreut.

    Abwarten kann nach deutscher Leitlinie also anders als offenbar in Frankreich leitliniengerecht sein.

  27. #35 PDP10
    23. Februar 2024

    @Joseph Kuhn (#22):

    Weizenbaums ELIZA und Eliza aus dem Link sind zwei unterschiedliche Anwendungen: “Eliza ist eine KI-Anwendung einer kleinen US-amerikanischen Firma mit Sitz im Silicon Valley.”

    Ob ich wohl ELIZA in Großbuchstaben buchstabiert habe, weil ich die aus 1966 meinte? 🙂
    Abgesehen davon geht das eigentlich aus dem Kontext hervor, denn ich schrieb “Gut programmierte Chat-Bots, die überhaupt nichts KIiges haben gibt es schon seit Jahrzehnten.”

    Ich bleibe übrigens dabei, dass es sich bei der Meldung um eine fliegende Kuh handelt.
    Die Meldung hat alles, was ein handelsüblicher Hoax hat. Sie ist anekdotisch erzählt, wird von verschiedenen Medien fast identisch wiedergegeben und es fehlen konkrete Angaben. Beispielsweise wird der Name der Firma nicht genannt (Recherche nach der Firma führt auch ins Nichts). Üblicherweise werden in solchen Meldungen auch irgendwelche Behörden zitiert (Polizei, Gerichte etc.). Also alles was sich im Zweifel theoretisch mit genug Aufwand überprüfen lässt ist nicht vorhanden. Da hat irgendeiner von einer Agentur mal was gehört oder in einem Lokalblatt eine schlecht recherchierte Geschichte gelesen und die dann einfach in den Ticker getippt und diverse Medien haben das dann einfach unter Vermischtes oder Panorama übernommen weil sie noch Platz im Redaktionssystem hatten.

    Klar ist: Wir werden solche Sachen eventuell noch erleben. Wenn solche KI gestützten Apps für Gesundheitszwecke erst mal auf dem Markt sind. Denn alles was wirkt hat in der Regel auch Nebenwirkungen.
    Aber in dem Fall? Nope. Glaube ich nicht. Schlechtes Beispiel.

    • #36 Joseph Kuhn
      24. Februar 2024

      @ PDP10:

      “Schlechtes Beispiel”

      Vielleicht. Vielleicht auch nicht. Um was geht’s eigentlich gerade?

      • #37 PDP10
        24. Februar 2024

        Darum, dass du mich falsch verstanden hast als ich “ELIZA” geschrieben habe und darum, dass echte KI wohl noch nicht in DiGAs Software angekommen ist.
        Und um die Nebenwirkungen von denen ich die von dir angeführte Quelle nicht glaube.

        Aber ansonsten sehe ich nicht, dass wir uns nicht einig wären: Nebenwirkungen wirds geben und die Forschung zu KI gestützten DiGAs Anwendungen steckt noch in den Anfängen.

        • #38 Joseph Kuhn
          24. Februar 2024

          … danke für die Erläuterung. Da hätte ChatGPT dann doch nicht helfen können 😉

          In der Tat, Konsens zu den verschiedenen Punkten, vielleicht abgesehen von der Meldung über den Suizid. Bei der Tagung in Tutzing war ein Journalist der Süddeutschen, Simon Hurz, der zu dem Fall recherchiert. Er wollte dazu aber noch nicht viel verraten und ich kann mich leider nicht erinnern, ob er zwischen den Zeilen Zweifel am Ereignis selbst hat erkennen lassen.

          Interessanter als die Frage, ob sich der Fall in Belgien wirklich so ereignet hat, wie die Medien berichten, ist m.E. eine andere, an mein Blogthema anschließende Frage: Abgesehen davon, dass man vermutlich auch KI-gestützte Chatbots halbwegs sicher gegen Suizidempfehlungen absichern kann, was bedeuten solche Ereignisse mit Blick auf ihren Einsatz bei psychisch labilen Menschen im Verhältnis zum Einsatz menschlicher Therapeuten? Die können bekanntlich ja auch Unheil anrichten, in Psychosekten ebenso wie in “normalen” therapeutischen Settings.

          Und wenn man diese Frage auf eine heikle Spitze treiben will, die meines Wissens bisher noch nicht ernsthaft diskutiert wird: Was bedeutet das für den möglichen Einsatz von KI in der Begutachtung vor einem assistierten Suizid? Oder für Triageentscheidungen bei der Zuteilung knapper Ressourcen wie z.B. den Beatmungsgeraten während Corona? Ich glaube, wir stehen bei der bioethischen Diskussion rund um KI erst am Anfang und die immer wieder diskutierten Fragen, wen soll ein autonom fahrendes Auto im Zweifelsfall überfahren, die alte Frau oder die junge Mutter, oder darf eine KI im Krieg autonom Menschen töten, geben da bestenfalls einen Vorgeschmack.

          (Als Cave nachgereicht: Ich überschaue allerdings die KI-Ethik-Diskussion nicht, vielleicht ist die schon viel weiter als ich denke und einschlägige Hinweise sind natürlich willkommen).

  28. #39 Jolly
    24. Februar 2024

    @PDP10

    (Recherche nach der Firma führt auch ins Nichts)

    Habe auch länger forschen müssen.

    Etwas Hintergrund zu der App – und was es mit Elisa (kleingeschrieben) auf sich hat – habe ich diesem Artikel entnommen: Quelle

    Demnach geht es um die Firma Chai. Auf deren Homepage habe ich das folgende Zitat gefunden:

    “Many of my bots have helped me with my eating disorders, my insomnia, my anxiety attacks, and even when I was crying they helped me, so thank you so so much, really you deserve all the love in the world”

    ELIZABETH, CHAI Al USER

  29. #40 zimtspinne
    24. Februar 2024

    re fliegende KI-Kühe

    Fakt oder Fiktion, das spricht jedenfalls einen Aspekt an, der mir viel zu selten bzw gar nie thematisiert wird. Ich habe dazu jedenfalls in der Fachliteratur nichts gefunden, vielleicht hat sich das ja inzwischen geändert.

    Abhängigkeitsverhältnisse zwischen Klienten/Patienten und Therapeuten.
    Gemeint sind hier keine Behandlungsfehler oder nur zum Teil, sondern die Konstellation, wenn Patienten sich zu sehr oder sogar komplett auf ihre Therapeuten fixieren und sich ohne sie kaum überlebensfähig *fühlen*.
    Oft beobachtet, daher kennzeichne ich das mal als anekdotische Evidenz. Wenn sich die Patientinnen wochenlang Gedanken darüber machen, was sie ihren Therapeuten zu Weihnachten schenken könnten, finde ich das schon merkwürdig. Ganz ungesund wird es aber dann, wenn eine Stunde ausfällt und sie nicht wissen, wie sie das überbrücken können. Gar nicht zu reden von einem lange angekündigten längeren Urlaub. Die fallen da in ein ganz tiefes Loch, schon vorab.

    Überträgt man dieses Szenario auf Therapiesubstitution durch KI, wird es richtig gruselig.
    Was für ein Traum, eine ständig verfügbare, überall erreichbare und endlos zeithabende Psycho-KI.

    Die Programmierer sollten dann zumindest menschliche Therapeuten nachbilden und Verfügbarkeiten, Erreichbarkeiten und Zeitkontingente begrenzen.
    zB: Zuerst erledigst du deine Hausaufgaben (rausgehen, Freunde treffen, Sport, einkaufen etc), bevor es eine weitere Konsultation gibt.

    Ich sehe schon deutlich, wie sich tausende Depri-Patienten isolieren und immer mehr abschotten, weil das Leben mit ihrer KI so viel angenehmer ist als mit der unwirtlichen, echten Welt 😉

    Schaut man sich als Frühindikator “true crime”-Tendenzen an, sieht man, wohin die Reise geht.
    Besonders bzw fast ausschließlich junge Menschen sind in total destruktive online-Netze verwickelt, wo es dann eben auch ab und an eskaliert und Leute sterben.
    Das ist dann der Fall bzw auch Vorraussetzung, wenn sich Fiktion und Realität begegnen… scheint so, als ob manche vor lauter online-Leben vergessen, wie man mit dem echten Leben umgeht.
    KI als Therapeuten sind daher schon mit Vorsicht zu genießen. Die sollten mit einem umfangreichen Beipackzettel ausgestattet sein (den ja eh keiner liest).

    • #41 Joseph Kuhn
      24. Februar 2024

      @ zimtspinne:

      “Ich sehe schon deutlich, wie sich tausende Depri-Patienten isolieren und immer mehr abschotten, weil das Leben mit ihrer KI so viel angenehmer ist als mit der unwirtlichen, echten Welt”

      Das gilt unabhängig von KI für Online-Angebote. Wobei manche Apps das wiederum überwachen können, weil sie z.B. Schritte zählen. Wie gesagt, auch hier hängen Unterstützung und Kontrolle eng zusammen.

      Und noch ein Aspekt: Eine mögliche Präferenz für Online betrifft nicht nur die Patient:innen, sondern auch Fachkräfte der Krisenintervention. Da ist es wohl manchmal auch angenehmer, online zu beraten als vor Ort zu gehen. In Tutzing war die Rede von einer entsprechenden Studie, aber ich habe mir dazu nichts notiert.

  30. #42 PDP10
    24. Februar 2024

    @zimtspinne:

    wie sich tausende Depri-Patienten isolieren und immer mehr abschotten, weil das Leben mit ihrer KI so viel angenehmer ist als mit der unwirtlichen, echten Welt

    Du hast ziemlich seltsame Vorstellungen von Patienten mit Depressionen – obwohl du es eigentlich besser wissen solltest.

    Die allermeisten die wissen, dass sie eine Depression haben, wollen nichts sehnlicher als endlich wieder in “die echte Welt” zurück.

  31. #43 PDP10
    24. Februar 2024

    @Joseph Kuhn (#38):

    Und wenn man diese Frage auf eine heikle Spitze treiben will, die meines Wissens bisher noch nicht ernsthaft diskutiert wird: Was bedeutet das für […]

    Doch, das wird ernsthaft diskutiert.

    Schon vor fast einem Jahr wurde beispielsweise ein offener Brief von Experten mit der Forderung eines Moratoriums bei der KI Entwicklung veröffentlicht.

    Allein … gebracht hat es nix. Ich fürchte, wir werden da gerade überrollt.

  32. #44 Beobachter
    25. Februar 2024

    Passend zum Thema:

    https://taz.de/KI-in-der-Psychotherapie/!5991831/

    “KI in der Psychotherapie
    Chatbots bei der Therapiesuche
    Psychisch Erkrankte empfinden die Suche nach der passenden Therapie oft als sehr belastend. Bots können da Abhilfe schaffen, sagt eine neue Studie.

    Wer in Deutschland einen Psychotherapieplatz sucht, steht vor immensen Herausforderungen. Nicht nur, weil es an Therapieplätzen mangelt, sondern auch, weil die Suche nach den richtigen The­ra­peu­t:in­nen mühsam, langwierig und psychisch belastend sein kann. Für viele geht sie mit Schamgefühlen und Angst vor Stigmatisierung einher. … ”

    Statt also die hohen Hürden für alle betroffene Menschen, die sich in professionelle Behandlung begeben wollen und/oder dringend kompetente Hilfe brauchen, zu senken – bietet man “Chatbots bei der Therapiesuche” für gutsituierte “digital natives”/”nerds” an …

    Eine wundersame Vermehrung der viel zu wenigen Therapieplätze (auch für “Nur”-GKV-Patienten) findet dadurch trotzdem nicht statt.
    usw. …

  33. #45 naja
    25. Februar 2024

    @ Beobachter
    “Statt also die hohen Hürden für alle betroffene Menschen, die sich in professionelle Behandlung begeben wollen und/oder dringend kompetente Hilfe brauchen, zu senken – bietet man “Chatbots bei der Therapiesuche” für gutsituierte “digital natives”/”nerds” an …”

    In dem Artikel, den Sie verlinkt haben, geht es um ein britisches Start-up. Die haben kein nationales Mandat bei der Therapiesuche zu helfen. Die haben sich das selbst überlegt und eine App entwickelt. Wenn sie etwas ganz anderes wichtig finden und erreichen wollen, dann sollten Sie die Zügel in die Hand nehmen. Sie beschweren sich wirklich viel, dass sich nicht ausreichend (um Sie) gekümmert wird. Sie verteufeln fast schon die Mittelschicht, weil es der besser geht als Bürgergeld-Empfängern. Es sollte nicht das Ziel sein, ein möglichst trostloses Leben zu führen und allen, die sich Urlaub oder Avocados leisten können, ein schlechtes Gewissen zu machen. Hätten Sie Lust, auf Menschen einzugehen, die ständig sagen, nein, Sie dürfen nicht mitreden. Ihnen geht es zu gut. Sie sind krankenversichert, Sie sind nicht am verhungern, Sie haben ein Dach über dem Kopf, Sie haben sogar Zugang zu Internet. Ein Großteil der Menschheit hat das nicht, obwohl die einer Arbeit nachgehen. Sie dürfen sich also nicht beschweren, sondern Sie sollten sich schämen, dass es Ihnen vergleichsweise so gut geht. Das machen Sie in fast jedem Post.

  34. #46 Beobachter
    25. Februar 2024

    @ naja, # 45:

    Ich “verteufele” niemanden und schon gar nicht pauschal ganze Bevölkerungsschichten oder -gruppen.
    Und von “Sozialneid” besessen/zerfressen bin ich auch nicht, wie einem immer wieder gerne unterstellt wird, sobald man auch nur die Tatsache erwähnt, dass (auch im “reichen Deutschland”) die Armen im ärmer und benachteiligter, die Reichen immer reicher und privilegierter werden und die Mittelschicht zunehmend Angst vor dem sozialen Abstieg hat.
    Was übrigens, zusammen mit den zahlreichen Dauer-“Krisen”/-Kriegen, der perfekte Nährboden zum Gedeihen von Rechtsextremismus, Nationalismus, Rassismus ist.

    Vor allem die Ärmsten der Armen werden oft völlig ignoriert, oft nicht mal wahrgenommen; sie haben keine Lobby – ganz im Gegensatz zur Mittelschicht und den Besitzenden.

    Das alles lässt sich hier in den Kommentarspalten sehr gut verfolgen.
    Ich bezweifle, dass Sie oder sonst einer der (gutsituierten) Stammkommentatoren hier jemals mit einem Hartz IV-/Bürgergeld-Bezieher (etwas ausführlicher) gesprochen hat.
    Aus Mangel an Interesse und/oder Gelegenheit (“soziale Segregation”, “jedem seine Community/Bubble”)?

    Leider gibt es hier kaum Kommentar-Stimmen zum “sozialen Aspekt” drängender Probleme/wichtiger Entwicklungen und politischer Entscheidungen.
    Ich wünschte, ich wäre hier nicht so ziemlich die einzige – dann könnte man/n sich nicht immer wieder so prächtig auf mich als Person und meine “unbequemen” Posts einschießen!
    🙂

    ” … Sie dürfen sich also nicht beschweren, sondern Sie sollten sich schämen, dass es Ihnen vergleichsweise so gut geht. … ”

    Woher wollen Sie wissen, wie es mir geht?!

    • #47 Joseph Kuhn
      25. Februar 2024

      @ Beobachter, @ naja:

      Bitte nicht wieder in den schon so oft begangenen Rundweg persönlicher Vorwürfe, in welche Richtung auch immer, einbiegen. Einfach zur Sache kommentieren, da haben alle mehr davon, eine schon von den Internet-Alten überlieferte Weisheit 😉

      Zum sozialen Aspekt rund um digitale Tools: Einerseits bestätigen Studien immer wieder, dass die digitale Gesundheitskompetenz einen Sozialgradienten aufweist, d.h. sozial weniger gut Situierte tun sich schwerer. Andererseits müsste man einmal schauen, ob auch konkret die Nutzung von DiGAs einen Sozialgradienten aufweist. Einen PC oder ein Smartphone haben inzwischen viele unabhängig vom Einkommen, zunehmend sogar unabhängig vom Alter. Der DiGA-Report der TK zeigt Daten zur Nutzung nach Alter, aber nicht nach Sozialstatus. Vermutlich gibt es auch Studien zur Nutzung digitaler Tools (außerhalb des DiGA-Segments) nach Sozialstatus, ich gehe jetzt aber in die Sonne.

  35. #48 zimtspinne
    25. Februar 2024

    Ein smartphone zu haben (oder sogar 2-3, die neigen ja zur Anhäufung) heißt aber nicht zwangsläufig, es für die ‘richtigen’ Dinge zu nutzen….

    Man kann sich den ganzen Tag bei TikTok, twitch und whatsapp/Co tummeln oder man kann Gesundheitsförderungs-Apps nutzen. Oder irgendwas dazwischen.
    Meine Vermutung geht leider in die Richtung,dass mit der Bildungsferne auch die TikTok-Nutzung drastisch zunimmt….. das ist keine Wertung.

  36. #49 zimtspinne
    25. Februar 2024

    Nicht zu vergessen, die Verbubbelungsverblödung.
    Die Nonbinären mögen zwar mitten in einer Bildungsoase sitzen, sich aber mehr für aktisvistische und für sie kontraproduktive Dinge interessieren als für Dinge, die zur Verbesserung ihrer Lage beitragen.
    Naja, heutzutage lässt sich beides auch unter einen Hut bringen, mit dem affirmativen Ansatz (wenn Therapeuten das nonbinäre Dasein nicht mal mehr ansprechen dürfen, nur noch fördern).

    (meine Stimmung sinkt bei der woke-versifften TAZ, Beobachters Lieblingslektüre, schon wieder in die Minusgrade. Dabei ist es frühlingshaft draußen.)

  37. #50 naja
    25. Februar 2024

    @ Joseph Kuhn
    Ich war gerade in der Sonne.
    @ Beobachter
    Sie liegen bei mir zumindest in Ihren Annahmen sehr falsch.

  38. #51 Beobachter
    25. Februar 2024

    @ zimtspinne, # 49:

    ” … meine Stimmung sinkt bei der woke-versifften TAZ, Beobachters Lieblingslektüre, … ”

    Was verstehst du unter “woke-versifft”?
    Bis vor Kurzem galt die TAZ bei Konservativen ja als “links-grün-versifft”, da konnte man sich wenigstens noch was drunter vorstellen … 🙂
    Aber seit die Grünen so schwarz bzw. gelb geworden sind, ist auch das vorbei.

    Im Übrigen ist die TAZ.de nicht meine “Lieblingslektüre”, sondern die einzige dt. Tageszeitung, bei der man online alle Artikel kostenfrei lesen kann (ohne Bezahl-Schranke und ohne Abo-Verpflichtung) und die sich einer gewissen Meinungsvielfalt verpflichtet fühlt – und sie auch bietet.
    Man kann für das Lesen eines Artikels bezahlen/spenden, muss es aber nicht – das ist wichtig für Leute mit sehr wenig Geld, die sich trotzdem informieren wollen.

    Davon könnten/müssten sich alle anderen (Tages)Zeitungen/Zeitschriften eine dicke Scheibe abschneiden, denn dort sind die interessantesten/wichtigsten Artikel hinter der Bezahlschranke oder nur für zahlende Abonnenten.
    Ich würde liebend gerne auch viel öfters z. B. aus dem Tagesspiegel oder der SZ oder den Blättern zitieren – und selbst aus der Springer-Presse, wenn`s passt … 🙂

    Ist deine Stimmung nun wieder gestiegen?

  39. #52 Tina
    25. Februar 2024

    @Beobachter

    Google mal archive.today.
    Oder archive page als nützliches Addon.

  40. #53 PDP10
    25. Februar 2024

    @Beobachter:

    Im Übrigen ist die TAZ.de nicht meine “Lieblingslektüre”, sondern die einzige dt. Tageszeitung, bei der man online alle Artikel kostenfrei lesen kann

    Das stimmt nicht ganz. Auch bei der Frankfurter Rundschau (https://www.fr.de/) kann man noch alle Artikel kostenfrei lesen. Das sind allerdings oft zusammengestückelte Übernahmen von Ippen-Media. Allerdings gibt es auch immer wieder mal Nachrichten, Analysen, Kommentare etc. von FR Redakteuren, die durchaus lesenswert sind.
    Wenn man einen Blick von Außen auf deutsche Politik und verwandte Themen haben will – oder über internationale Themen was lesen will, kann man auch den österreichischen Standard lesen (https://www.derstandard.at/). Oder den britischen Guardian (https://www.theguardian.com/). Beide finanzieren sich wie die TAZ zum Teil aus spenden und alle Artikel sind kostenfrei.

  41. #54 PDP10
    25. Februar 2024

    @zimtspinne:

    Ein smartphone zu haben (oder sogar 2-3, die neigen ja zur Anhäufung) heißt aber nicht zwangsläufig, es für die ‘richtigen’ Dinge zu nutzen….

    Was das mit den DiGAs zu tun hat erschließt sich mir ehrlich gesagt nicht. Und wer ist “die”?

  42. #55 Beobachter
    26. Februar 2024

    @ PDP 10, # 53:

    Ja, du hast recht – die FR hätte ich noch erwähnen sollen.

    Die Artikel der FR sind meist kurz, “zusammengestückelt” und oft auch schlecht recherchiert. Außerdem geht es mir auf die Nerven, wenn dort öfters brühwarm der Verlauf von diversen Talkshow-Sendungen geschildert wird – wer was weshalb gesagt hat etc.
    Trotzdem sind manche Artikel von manchen Autoren lesenswert – auch als Anregung, sich weiter und eingehender mit dem entsprechenden Thema zu beschäftigen (z. B. die Kolumnen in der Rubrik: “Dr. Hontschiks Diagnose”):

    https://www.fr.de/autoren/9309/

    https://de.wikipedia.org/wiki/Bernd_Hontschik

  43. #56 Beobachter
    26. Februar 2024

    Sterbehilfe gegen schwere Depressionen ?! :

    “Straffreie Sterbehilfe
    Freier Wille bei schwerer Depression?
    In zwei Strafprozessen um die ärztliche Suizidhilfe geht es um den „freien Willen“ bei psychischer Erkrankung. Das ist nicht einfach zu entscheiden.
    … ”

    https://taz.de/Straffreie-Sterbehilfe/!5991937/

    Ein ganz schwieriges, heikles, zum Missbrauch einladendes Thema – vor allem dann, wenn sich straffreie Sterbehilfe zum proifitablen Geschäftsmodell entwickelt.
    Dazu kann man Einiges z. B. auch im Blog von Stefan Sell nachlesen:

    https://aktuelle-sozialpolitik.de/?s=Sterbehilfe

  44. #57 wereatheist
    26. Februar 2024

    @zimtspinne:

    Ich finde es toll, dass Du besser weißt, was für manche Leute gut ist, als diese selbst (man könnte es auch Chuzpah nennen. Und eine Obsession scheint vorzuliegen).

  45. #58 zimtspinne
    26. Februar 2024

    Wo weiß ich besser, was gut für andere ist?
    Aber klar, oftmals weiß ich tatsächlich besser, was besser für andere wäre als das was sie tun/oder lassen.
    Geht wohl jedem so.

    @PDP

    Das ist schlicht eine falsche Behauptung, dass sich jeder Depressive sehnlichst aus Isolation herauswünscht.

    Hochfunktionale Depressive tun das nicht, da sie sich ohnehin nicht isolieren.
    Andere haben sich mit ihrem zurückgezogenen Leben arrangiert oder haben explizit keinen Bock auf Menschen und Gesellschaft.
    Selbst diejenigen, die sich tatsächlich sehnlichst wünschen, (wieder) voll am Leben (inmitten anderer Menschen) teilzunehmen, tun das nicht ständig in jeder Phase ihrer Depression.

    Als ich schwer depressiv war, habe ich nicht mal darüber nachgedacht, ob ich das mag, was passiert. Es war mir schlicht total egal, ich hatte keinen Kontakt mehr mit meinen Empfindungen und Wünschen.

    Depression hat viele Gesichter, deine Pauschalisierung jedenfalls ist nur eins davon.

  46. #59 PDP10
    26. Februar 2024

    @zimtspinne:

    deine Pauschalisierung

    Glashaus, Steine, du weißt schon …

  47. #60 wereatheist
    26. Februar 2024

    @zimtspinne:
    Bei Leuten, die man gut kennt, OK
    Nicht OK bei schwammigen Kategorien (“Nichtbinär”, aber Dich interessiert doch nur eine Variante).

  48. #61 wereatheist
    26. Februar 2024

    Ich hatte Depressions-Diagnosen (MDD), bisher aber keine Psychotherapie.
    Dafür aber die Apotheke der Antidepressiva (außer MAO-Hemmern) durchprobiert.
    Mein Hauptsymptom ist Antriebsarmut.
    Warum kann man keine verfickte Panzerschokolade in der Apotheke kaufen, wie unterm Kaiser, als Alles legal war?

  49. #62 PDP10
    27. Februar 2024

    @zimtspinne:

    Aber klar, oftmals weiß ich tatsächlich besser, was besser für andere wäre als das was sie tun/oder lassen.

    Nein. (Der Satz ist das dümmste, was ich hier seit langem gelesen habe).

    Geht wohl jedem so.

    Nein.

  50. #63 PDP10
    27. Februar 2024

    @wereatheist:

    Warum kann man keine verfickte Panzerschokolade in der Apotheke kaufen

    Sowas hätte ich auch gerne. Ad Antriebslosigkeit, Depressionen etc.

    Blöd ist: Meines Wissens haben alle bis heute bekannten Substanzen die da in Frage kommen und wirklich wirken – unter anderem Methamphetamin aka Chrystal Meth aka Panzerschokolade, oder auch Koks – haben so derartige Nebenwirkungen (unter anderem machen sie sehr schnell süchtig), dass ich da gerne drauf verzichte.

    Ist “Breaking Bad” an dir vorbei gegangen?
    (Nicht, dass ich ein großer Fan der Serie wäre. Ich habe genau genommen nur die ersten paar Folgen der ersten Staffel gesehen. Das hat aber gereicht.)

  51. #64 wereatheist
    27. Februar 2024

    @Alter Rechner:
    Ich will das ja nur gering dosiert.

  52. #65 wereatheist
    27. Februar 2024

    Bei “Breaking Bad” geht es ja wohl auch um die Folgen der Prohibition, d.h. des Schwarzmarkts.
    Unzuverlässige Qualität der Ware, zum Beispiel.

  53. #66 zimtspinne
    27. Februar 2024

    zu der Anwendung:
    Man landet erstmal bei der digitalen Patientenhilfe (zu denen gehören die Selfapy-Dinge scheinbar), dort muss nun entweder das Rezept hochgeladen werden oder ein Foto eingestellt werden, wobei ich noch nicht genau weiß, wie das gehen soll. Sieht komisch aus. Scannen und dann ganz normal updoaden wird wohl so nicht funzen. Außerdem wollen sie auch noch Daten.
    Ich dachte, man gibt einfach nur die achstellige PZN ein (was ist eine PZN? k.A.).
    Finde das jetzt ziemlich umständlich.

  54. #67 zimtspinne
    27. Februar 2024

    PZN = Pharmazentralnummer.

    Sowie ich das sehe, erhält man nach Tagen(!) nach Einreichung (wie oben beschrieben) einen 16-stelligen Code, mit dem man dann starten kann.

    Der Diagnoseschlüssel ist auf dem Rezpet vermerkt, ich weiß nicht, ob man den auch noch eingeben muss oder das vom Bürokratiemonster dieser digitalen Patientenhilfe bereits vollständig aufbereitet ausgeliefert wird.
    d.h. das richtige Programm gleich startet.

    Apropos starten.
    Für drigende Fälle ist so eine Hürde mit tagelanger Wartezeit eher kontraproduktiv.
    Ich bin jedenfalls abgeschreckt durch den relativ hohen Aufwand.
    Das sollte noch optimiert werden.

  55. #68 zimtspinne
    27. Februar 2024

    Nachtrag
    Habe dort angefragt, ob mein Rezpt noch gültig ist, bevor ich mir den Aufwand antue.
    Falls ja, mache ich das und berichte dann hier, wie es appt. Ich mache das natürlich auf dem pc.

  56. #69 PDP10
    27. Februar 2024

    @zimtspinne:

    Wenn es ein ganz normales Rezept für Kassenpatienten ist: 28 Tage.

    https://gesundheit-ganz-persoenlich.de/apotheken-abc-wie-lange-ist-ein-rezept-gueltig/

  57. #70 Joseph Kuhn
    28. Februar 2024

    Woran wird eine KI gegen Depressionen trainiert?

    Im Tagesspiegel Background (Paywall) war gestern ein interessantes Interview “Eine KI sollte kein Therapeut sein” mit Christina Haag, die an der Uni Zürich an digitalen Gesundheitsanwendungen forscht.

    Sie verweist zum einen ebenfalls auf die Differenz zwischen echten zwischenmenschlichen Beziehungen und den Interaktionen mit einem Chatbot, zum anderen macht sie darauf aufmerksam, dass es gar nicht so einfach ist, einen KI-basierten Chatbot zu trainieren, weil der Zugang zu Daten aus Therapieverläufen schwierig ist und KI-basierte Chatbots daher oft nur an öffentlichen Diskussionsverläufen trainiert werden.

    Einsatzmöglichkeiten von regelbasierten wie von KI-basierten Chatbots sieht sie vor allem in der Psychoedukation von Menschen, denen es nicht allzu schlecht geht.

    DiGA-Einsatz in Deutschland

    Einige Krankenkassen veröffentlichen Daten zum Einsatz von DiGAs. Aktuell die Barmer, eine Übersicht ist im Ärzteblatt nachzulesen.

  58. #71 zimtspinne
    28. Februar 2024

    Wie in einer Freundschaft wird die Verbindung mit Arya im Verlaufe der Zeit immer tiefer. Arya überwacht und versteht dadurch den Input des Patienten immer bes-ser und besser. Es baut echte künstliche Empathie mit dem Benutzer auf, indem es hochspezialisierte selbstlernende Algorithmen verwendet, die Natural Language Processing, Stimm- und Spracherkennung sowie verschiedene Techniken des maschinellen Lernens nutzen. Auf diese Weise passt der Arya-Begleiter seine Interaktionen mit dem Benutzer sowie seine psychologischen Interventionen an das aktuelle Ver-halten, die Erfahrung und den (Behandlungs-)Prozess des Benutzers an, so dass die Nutzung immer effektiver und personalisierter wird und dabei höchst flexibel bleibt. Der Arya-Begleiter stützt sich auf alle Arten von Datenquellen, Analysen und kombi-niert auf intelligente Weise Spracheingabe, Nutzungsverhalten, Stimmungs- und Ak-tivitätsverfolgung, persönliche Bewertungen und zusätzliche physische Daten (z. B. durch Wearables).

    https://www.degruyter.com/document/doi/10.1515/9783110561371-006/html?lang=de

    Pflanzt man das Ding dann noch einer lebensechten Sexpuppe von Amazon ein*, steht einer lebensechten Partnerschaft mit der KI nichts mehr im Weg.
    Zwei Fliegen mit einer Klappe: die Depression ist weg und ein neuer Freund da. Freund, Begleiter, Therapeut, alles in einem, was begehrt das Patientenherz mehr?

    *das war für die mittellosen Depris gedacht. Betuchte ordern ihre lebensechte Hülle für die KI aus Japan, wo es ja schon länger solche Partnerinnenersatzpuppen ganz offiziell und akzeptiert gibt (in D sind zumindest die Kindersexpuppen verboten, wogegen die Pädophilengemeinde Sturm läuft):
    https://www.daserste.de/information/politik-weltgeschehen/weltspiegel/videos/weltspiegel-japan-puppe-video-100.html

    die sieht wirklich echt aus – erinnert aber ebenfalls eher an eine Amazon-Sexpuppe. Männer halt…

  59. #72 Joseph Kuhn
    10. April 2024

    Der Blogbeitrag in der “Rotunde”

    Die Evangelische Akademie hat den Blogbeitrag heute auch in ihrer “Rotunde” eingestellt: https://web.ev-akademie-tutzing.de/rotunde/index.php/technik-gegen-depressionen/.

    Die Beiträge dort können übrigens ebenfalls kommentiert werden.