KI in der Psychotherapie

Haben Sie bereits Erfahrungen mit Psychotherapie (von der es ja eine Vielzahl von Methoden gibt) gesammelt? Dieses Forum dient zum Austausch über die diversen Psychotherapieformen sowie Ihre Erfahrungen und Erlebnisse in der Therapie.

Thread-EröffnerIn
mauli
sporadischer Gast
sporadischer Gast
männlich/male, 44
Beiträge: 12

KI in der Psychotherapie

Beitrag Di., 18.03.2025, 00:51

Ich bin die Tage auf eine Doku zu KI in der Psychotherapie gestoßen und wollte mal verumfragen ob und warum ihr bereit wärd, eine Psychotherapie mit einer KI zu machen.

Ich bin skeptisch. Autisten, soweit ich das als Laie beurteilen kann, haben dieselben Emotionen wie alle anderen. Nur können sie sie nicht zeigen. Wie soll die KI nun erkennen können, welche Emotionen zugrunde liegen, sofern noch keine Diagnose besteht? Die Mechanismen im Gehirn werden auch anders ablaufen, wenn man weiß, dass die KI keine echten Emotionen besitzen kann, sondern nur nachahmt. Abgesehen davon dass wir uns als Menschen überflüssig gegenüber der Technik machen, bleibt die Frage, ist die Psychotherapie doch nicht so effektiv, wie wir sie gerne hätten? In dem Fall wäre die Ersetzung von Arbeit in Form von psychotherapeutischen Erfahrungen nur ein weiterer Weg Ineffektivität zu effektivieren, d. h. sie wird verstetigt. Sind Roboter nun billiger als mehr Kassensitze? Es bleibt spannend.


Werbung

Benutzeravatar

Montana
[nicht mehr wegzudenken]
[nicht mehr wegzudenken]
weiblich/female, 46
Beiträge: 3515

Beitrag Di., 18.03.2025, 10:12

mauli hat geschrieben: Di., 18.03.2025, 00:51 ob und warum ihr bereit wärd, eine Psychotherapie mit einer KI zu machen.
Ich habe den Film nicht angeschaut. Muss ich auch nicht. Die Antwort ist: NEVER EVER. Eine Maschine ist kein Mensch und von ihr kann man nicht lernen, ein Mensch zu sein (mit allem was bei psychischen Erkrankungen gestört sein kann, wie emotionale Schwingungsfähigkeit, Beziehungsfähigkeit, usw.). Die Maschine hat all das nicht und kann es nicht vorleben. Genau das aber ist das, was bei einer Psychotherapie besonders wirksam ist. In einer Psychotherapie geht es nicht um Wissensvermittlung. Dafür gibt es bereits ein sehr gut funktionierendes Medium, das Buch.

Ich wäre übrigens auch nicht damit einverstanden, Roboter in Kindergärten arbeiten zu lassen.

Benutzeravatar

Weltengänger
Helferlein
Helferlein
männlich/male, 63
Beiträge: 119

Beitrag Di., 18.03.2025, 11:31

mauli hat geschrieben: Di., 18.03.2025, 00:51 Ich bin die Tage auf eine Doku zu KI in der Psychotherapie gestoßen und wollte mal verumfragen ob und warum ihr bereit wärd, eine Psychotherapie mit einer KI zu machen.
Aus dem, was sich "KI" nennt, wird für gewöhnlich Science Fiction gemacht, als ob man beispielsweise gleich einen verstehenden und Rat gebenden Menschen vor sich hätte. Eine Maschine hat weder Gefühl noch Feingefühl, ihr fehlt der Takt, der aus dem Feingefühl hervorgeht und hat keine Intuition. Aber all das kann mit Hilfe eines Programms bis zu einem Grad vorgegaukelt werden. Ist einem das klar, kann die Maschine in manchen Bereichen ein nützlicher Helfer sein.


Thread-EröffnerIn
mauli
sporadischer Gast
sporadischer Gast
männlich/male, 44
Beiträge: 12

Beitrag Di., 18.03.2025, 12:00

Für die Diagnostik würde ich unter Umständen eine Ausnahme machen, da geht es nur darum Datensätze zu vergleichen, z. B. anhand von Symptomen oder Krankheitgeschichte/ -verlauf. Wäre interessant zu sehen wie sich hier die Statistik der Fehldiagnosen anzusehen.

Werbung

Benutzeravatar

chrysokoll
[nicht mehr wegzudenken]
[nicht mehr wegzudenken]
weiblich/female, 45
Beiträge: 4472

Beitrag Di., 18.03.2025, 12:08

Auch und gerade in der Diagnostik halte ich einen realen Menschen für unabdingbar.
Da geht es um mehr als Antworten in standardisierten Fragebögen abgleichen. Dazu brauch ich keine KI, das kann ich allein daheim mit Buch und Internet.
Nicht umsonst umfasst eine fundierte Diagnostik immer auch persönliche Interviews mit persönlichem Eindruck, Rückfragen und mit mehr als Ankreuzen von irgendwas.

Ich würde niemals eine KI in der Psychotherapie akzeptieren. Eine KI hat keine Gefühle, kennt keine Nuance, kennt keine Lebenserfahrung, kann nichts persönliches einbringen. Die kann immer nur so tun als ob. Auf eine Maschine, die sagt "das muss aber schlimm für Sie gewesen sein" kann ich echt verzichten.

Benutzeravatar

Candykills
[nicht mehr wegzudenken]
[nicht mehr wegzudenken]
männlich/male, 31
Beiträge: 5106

Beitrag Di., 18.03.2025, 12:15

Als mein Psychotherapeut zuletzt im Urlaub war, habe ich mich mit ChatGPT ausgetauscht. Er hat gute therapeutische Arbeit geleistet. Er stellte passende Gegenfragen, antwortete präzise auf das, was ich ihm schrieb. Machte sinnvolle Vorschläge.

Irgendwann werden Menschen völlig überflüssig.
Ich bin wie einer, der blindlings sucht, nicht wissend wonach noch wo er es finden könnte. (Pessoa)


Thread-EröffnerIn
mauli
sporadischer Gast
sporadischer Gast
männlich/male, 44
Beiträge: 12

Beitrag Di., 18.03.2025, 12:54

"Irgendwann werden Menschen völlig überflüssig."

Programmieren die sich dann gegenseitig? Irgendwer muss die warten, instandsetzen und programmieren. Es liegt dann natürlich an uns, wieviel Raum wir der Technik geben und in welchem Umfang. Zumindest innerhalb des Umfangs, auf den wir Einfluss haben.

Benutzeravatar

Scars
[nicht mehr wegzudenken]
[nicht mehr wegzudenken]
anderes/other, 28
Beiträge: 1633

Beitrag Di., 18.03.2025, 12:56

Ich fände das gar nicht so verkehrt (hab das Video nicht gesehen) es unterstützend einzusetzen. Ich würde auch nicht nur mit einem Roboter interagieren wollen, aber jeder Mensch hat Grenzen und Defizite. Wenn das vernünftig programmiert würde und die passenden ethischen Grundlagen hätte (ich habe wirklich 0 Plan wie KI funktioniert) könnte man vielleicht auch Probleme wie Diskriminierung, Gender Gap oder mangelnde Fachkenntnis ausgleichen oder auch das Gesundheitssystem entlasten. Wäre doch super, wenn man nicht ewig durchs System irren müsste. Ich habe über meine Krankenkasse Zugang zu einem KI-Diagnostik-Tool und das hat mir von Anfang an Diagnosen vorgeschlagen, die ziemlich sinnvoll erscheinen, wo mir die Ärzte aber nur sagten „ach treiben Sie Sport“…
Remember to leave pawprints on hearts.

Benutzeravatar

Ahornblatt007
neu an Bo(a)rd!
neu an Bo(a)rd!
weiblich/female, 40
Beiträge: 4

Beitrag Di., 18.03.2025, 13:12

Oh ein superspannendes Thema!
Tatsächlich habe ich, um das mal ein bisschen zu testen, auch bereits mit ChatGPT interagiert. Das interessante ist: Du kannst Dir ein Richtlinienverfahren aussuchen und es antwortet dann wie ein z.B. VTler, Analytiker etc.
Fachlich gesehen ist da kaum was auszusetzen, trotzdem glaube ich nicht, dass ein echter Therapeut so antworten würde (ein echter Therapeut validiert nicht jede einzelne Aussage und sagt nicht bei jedem Satz des Klienten :“jaaaaa ich verstehe Dich total“ 😄😄 Das wäre doch vollkommen irritierend 🙈)
Und was eben fehlt ist die therapeutische Beziehung. Einen Hauptteil des therapeutischen Erfolges macht nicht die Methode, sondern die Beziehung zwischen Patient und Therapeut. Und das wird eine KI in dem Sinne nicht leisten können. Also ich finde KI eine sinnvolle Ergänzung, aber eben das: eine Ergänzung.

Benutzeravatar

Charlie Foxtrott
Forums-Insider
Forums-Insider
weiblich/female, 45
Beiträge: 466

Beitrag Di., 18.03.2025, 15:54

Hi Mauli,
ich hatte zu eben dieser Doku in einem anderen Thread schon geantwortet: viewtopic.php?t=32340&start=30. Ansonsten gehe ich da mit Scars konform: Der wichtigste Vorteil ist: Ich brauche keine Rücksicht auf den Therapeuten und seine Befindlichkeiten nehmen und die KI vergisst nichts. Die KI ist für mich da und verlangt nicht irgendwelche Unterwürfigkeits- und Motivationsbekundungen, sondern legt einfach los.

Benutzeravatar

Candykills
[nicht mehr wegzudenken]
[nicht mehr wegzudenken]
männlich/male, 31
Beiträge: 5106

Beitrag Di., 18.03.2025, 16:39

Stimmt nicht ganz. Zwischendurch sprach ich mit ChatGPT über was anderes und knüpfte dann wieder an unserem Therapiegespräch an. Leider konnte er nicht mehr dort anschließen, wo das Therapiegespräch zuvor geendet hatte.

Ach, für ne Woche geht das mal, aber ich wollte das nicht auf Dauer 😵‍💫
Ich bin wie einer, der blindlings sucht, nicht wissend wonach noch wo er es finden könnte. (Pessoa)

Benutzeravatar

pustefix
Forums-Insider
Forums-Insider
weiblich/female, 50
Beiträge: 386

Beitrag Di., 18.03.2025, 17:40

Meine Gedanken dazu:

Die KI kann ja nur das Wiedergeben womit sie gefüttert wurde. Und die Frage ist nun wer bestimmt das eigentlich? Und wer ist berechtigt die KI zu füttern?
Faszinierend und gruselig zugleich.

Benutzeravatar

R.L.Fellner
Psychotherapeut
männlich/male
Beiträge: 828

Beitrag Di., 18.03.2025, 18:01

Charlie Foxtrott hat geschrieben: Di., 18.03.2025, 15:54Ich brauche keine Rücksicht auf den Therapeuten und seine Befindlichkeiten nehmen und die KI vergisst nichts. Die KI ist für mich da und verlangt nicht irgendwelche Unterwürfigkeits- und Motivationsbekundungen, sondern legt einfach los.

hmm.... sitzt dieses "Problem" evt. mehr in Ihrem Kopf, als dass es sich um ein tatsächliches handelt...? ;-)

Ich kann natürlich nicht für die Allgemeinheit sprechen und "schlechte Äpfel" wird es leider wohl immer geben, aber bis auf wenige Ausnahmen dürfte doch gelten: kein ernstzunehmender Therapeut/in wird von von KlientInnen "Unterwürfigkeits- und Motivationsbekundungen" benötigen. Ganz im Gegenteil: miteinander möglichst "auf Augenhöhe" zu arbeiten, die Stärkung des Selbst gerade im menschlichen Dialog und die Möglichkeit, Zweifel oder Vorbehalte möglichst sorgenfrei und ohne Angst um die therapeutische Beziehung haben zu müssen, ansprechen zu können, sind wichtige Elemente humanistischer Therapieformen.

Ein dystopisches Zukunftsszenario, mit dem ich in gewisser Weise rechne, ist ja, dass das Sozialsystem in der gegenwärtigen Form immer weniger aufrechtzuerhalten sein wird, und dann eines Tages - was psychische Erkrankungen betrifft - PatientInnen einfach vor einen Monitor mit einem KI-"Therapeuten"-Bot gesetzt werden. Psychotherapie mit Menschen (und damit auch die gemeinsame Arbeit mit realen Menschen) könnte in einer solchen Zukunft nur mehr für Wohlhabende leistbar sein. Ich bin sicher, dass KI auch im psychologischen / therapeutischen Bereich wertvolle Arbeit leisten kann (und dort daher auch viele Arbeitsplätze kosten wird), für das emotionale Wohl ist aber nicht selten auch ein "echtes" Gegenüber wichtig, mit dem man diskutieren, aber auch streiten, weinen, lachen, sprechen, an dem man sich "abarbeiten" kann. Aber wer weiß, vielleicht gelingt in weiterer Folge mit Psycho-Bots, die aus menschlichen Silikonpuppen sprechen und menschliche Emotionen simulieren können, ja der nächste Quantensprung... ;)

Lassen wir uns überraschen, wie die Entwicklung in diesem Bereich weitergeht.

Freundliche Grüße,
R.L.Fellner

Benutzeravatar

alatan
[nicht mehr wegzudenken]
[nicht mehr wegzudenken]
weiblich/female, 48
Beiträge: 1056

Beitrag Di., 18.03.2025, 20:06

R.L.Fellner hat geschrieben: Di., 18.03.2025, 18:01
aber bis auf wenige Ausnahmen dürfte doch gelten: kein ernstzunehmender Therapeut/in wird von von KlientInnen "Unterwürfigkeits- und Motivationsbekundungen" benötigen.
Der entscheidende Terminus ist "ernstzunehmend": für diese Therapeuten trifft dieser Satz zu; für die vielen anderen: Doch, sie brauchen leider diese Bekundungen, natürlich auf unbewusster Ebene.
R.L.Fellner hat geschrieben: Di., 18.03.2025, 18:01 Ein dystopisches Zukunftsszenario, mit dem ich in gewisser Weise rechne, ist ja, dass das Sozialsystem in der gegenwärtigen Form immer weniger aufrechtzuerhalten sein wird, und dann eines Tages - was psychische Erkrankungen betrifft - PatientInnen einfach vor einen Monitor mit einem KI-"Therapeuten"-Bot gesetzt werden. Psychotherapie mit Menschen (und damit auch die gemeinsame Arbeit mit realen Menschen) könnte in einer solchen Zukunft nur mehr für Wohlhabende leistbar sein.
Das wird ganz sicher und zwar recht bald so sein.

Benutzeravatar

ExtraordinaryGirl
[nicht mehr wegzudenken]
[nicht mehr wegzudenken]
weiblich/female, 33
Beiträge: 4782

Beitrag Di., 18.03.2025, 20:12

Motivationsbekundungen?

Wurden von mir auch gefordert. Finde ich aber normal, zumindest, wenn der Patient damit zeigen soll, dass er mitarbeitet, was nun einmal zu einer erfolgreichen Therapie dazugehört.

Vergessen? Ist bis zu einem gewissen Grad menschlich. Ob Charlie Foxtrott an der Stelle des Therapeuten so ganz ohne Akten auskäme und sich alles merken könnte? Bezweifle ich.

Ich habe das Gefühl, einige sind zu sehr von sich überzeugt (obwohl sie nicht ohne Grund in Therapie sind), um ein Problem zu bearbeiten, muss man es aber bekanntlich erstmal einsehen.

Ich habe das auch im anderen Thread erwähnt. Ich empfinde die KI als hilfreich, wünsche mir aber nicht, dass sie in Zukunft menschliche Therapeuten ersetzt. Es ist ja nicht so, als wären Computer etwas Neues - ich habe für mich bereits festgestellt, dass sie zwar wertvoll sind, aber echte Menschen nicht ersetzen können. Auch wenn diese echten Menschen nicht immer alles tun, was man will.
"Charakter zeigt sich in der Krise."

(Helmut Schmidt)

Werbung

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag