KI in der Psychotherapie
KI in der Psychotherapie
Ich bin die Tage auf eine Doku zu KI in der Psychotherapie gestoßen und wollte mal verumfragen ob und warum ihr bereit wärd, eine Psychotherapie mit einer KI zu machen.
Ich bin skeptisch. Autisten, soweit ich das als Laie beurteilen kann, haben dieselben Emotionen wie alle anderen. Nur können sie sie nicht zeigen. Wie soll die KI nun erkennen können, welche Emotionen zugrunde liegen, sofern noch keine Diagnose besteht? Die Mechanismen im Gehirn werden auch anders ablaufen, wenn man weiß, dass die KI keine echten Emotionen besitzen kann, sondern nur nachahmt. Abgesehen davon dass wir uns als Menschen überflüssig gegenüber der Technik machen, bleibt die Frage, ist die Psychotherapie doch nicht so effektiv, wie wir sie gerne hätten? In dem Fall wäre die Ersetzung von Arbeit in Form von psychotherapeutischen Erfahrungen nur ein weiterer Weg Ineffektivität zu effektivieren, d. h. sie wird verstetigt. Sind Roboter nun billiger als mehr Kassensitze? Es bleibt spannend.
Ich bin skeptisch. Autisten, soweit ich das als Laie beurteilen kann, haben dieselben Emotionen wie alle anderen. Nur können sie sie nicht zeigen. Wie soll die KI nun erkennen können, welche Emotionen zugrunde liegen, sofern noch keine Diagnose besteht? Die Mechanismen im Gehirn werden auch anders ablaufen, wenn man weiß, dass die KI keine echten Emotionen besitzen kann, sondern nur nachahmt. Abgesehen davon dass wir uns als Menschen überflüssig gegenüber der Technik machen, bleibt die Frage, ist die Psychotherapie doch nicht so effektiv, wie wir sie gerne hätten? In dem Fall wäre die Ersetzung von Arbeit in Form von psychotherapeutischen Erfahrungen nur ein weiterer Weg Ineffektivität zu effektivieren, d. h. sie wird verstetigt. Sind Roboter nun billiger als mehr Kassensitze? Es bleibt spannend.
- Werbung
Ich habe den Film nicht angeschaut. Muss ich auch nicht. Die Antwort ist: NEVER EVER. Eine Maschine ist kein Mensch und von ihr kann man nicht lernen, ein Mensch zu sein (mit allem was bei psychischen Erkrankungen gestört sein kann, wie emotionale Schwingungsfähigkeit, Beziehungsfähigkeit, usw.). Die Maschine hat all das nicht und kann es nicht vorleben. Genau das aber ist das, was bei einer Psychotherapie besonders wirksam ist. In einer Psychotherapie geht es nicht um Wissensvermittlung. Dafür gibt es bereits ein sehr gut funktionierendes Medium, das Buch.mauli hat geschrieben: Di., 18.03.2025, 00:51 ob und warum ihr bereit wärd, eine Psychotherapie mit einer KI zu machen.
Ich wäre übrigens auch nicht damit einverstanden, Roboter in Kindergärten arbeiten zu lassen.
-
Weltengänger
- Helferlein

, 63 - Beiträge: 119
Aus dem, was sich "KI" nennt, wird für gewöhnlich Science Fiction gemacht, als ob man beispielsweise gleich einen verstehenden und Rat gebenden Menschen vor sich hätte. Eine Maschine hat weder Gefühl noch Feingefühl, ihr fehlt der Takt, der aus dem Feingefühl hervorgeht und hat keine Intuition. Aber all das kann mit Hilfe eines Programms bis zu einem Grad vorgegaukelt werden. Ist einem das klar, kann die Maschine in manchen Bereichen ein nützlicher Helfer sein.mauli hat geschrieben: Di., 18.03.2025, 00:51 Ich bin die Tage auf eine Doku zu KI in der Psychotherapie gestoßen und wollte mal verumfragen ob und warum ihr bereit wärd, eine Psychotherapie mit einer KI zu machen.
Für die Diagnostik würde ich unter Umständen eine Ausnahme machen, da geht es nur darum Datensätze zu vergleichen, z. B. anhand von Symptomen oder Krankheitgeschichte/ -verlauf. Wäre interessant zu sehen wie sich hier die Statistik der Fehldiagnosen anzusehen.
- Werbung
-
chrysokoll
- [nicht mehr wegzudenken]
![[nicht mehr wegzudenken] [nicht mehr wegzudenken]](./images/ranks/rank_phpbb_5.gif)
, 45 - Beiträge: 4472
Auch und gerade in der Diagnostik halte ich einen realen Menschen für unabdingbar.
Da geht es um mehr als Antworten in standardisierten Fragebögen abgleichen. Dazu brauch ich keine KI, das kann ich allein daheim mit Buch und Internet.
Nicht umsonst umfasst eine fundierte Diagnostik immer auch persönliche Interviews mit persönlichem Eindruck, Rückfragen und mit mehr als Ankreuzen von irgendwas.
Ich würde niemals eine KI in der Psychotherapie akzeptieren. Eine KI hat keine Gefühle, kennt keine Nuance, kennt keine Lebenserfahrung, kann nichts persönliches einbringen. Die kann immer nur so tun als ob. Auf eine Maschine, die sagt "das muss aber schlimm für Sie gewesen sein" kann ich echt verzichten.
Da geht es um mehr als Antworten in standardisierten Fragebögen abgleichen. Dazu brauch ich keine KI, das kann ich allein daheim mit Buch und Internet.
Nicht umsonst umfasst eine fundierte Diagnostik immer auch persönliche Interviews mit persönlichem Eindruck, Rückfragen und mit mehr als Ankreuzen von irgendwas.
Ich würde niemals eine KI in der Psychotherapie akzeptieren. Eine KI hat keine Gefühle, kennt keine Nuance, kennt keine Lebenserfahrung, kann nichts persönliches einbringen. Die kann immer nur so tun als ob. Auf eine Maschine, die sagt "das muss aber schlimm für Sie gewesen sein" kann ich echt verzichten.
-
Candykills
- [nicht mehr wegzudenken]
![[nicht mehr wegzudenken] [nicht mehr wegzudenken]](./images/ranks/rank_phpbb_5.gif)
, 31 - Beiträge: 5106
Als mein Psychotherapeut zuletzt im Urlaub war, habe ich mich mit ChatGPT ausgetauscht. Er hat gute therapeutische Arbeit geleistet. Er stellte passende Gegenfragen, antwortete präzise auf das, was ich ihm schrieb. Machte sinnvolle Vorschläge.
Irgendwann werden Menschen völlig überflüssig.
Irgendwann werden Menschen völlig überflüssig.
Ich bin wie einer, der blindlings sucht, nicht wissend wonach noch wo er es finden könnte. (Pessoa)
"Irgendwann werden Menschen völlig überflüssig."
Programmieren die sich dann gegenseitig? Irgendwer muss die warten, instandsetzen und programmieren. Es liegt dann natürlich an uns, wieviel Raum wir der Technik geben und in welchem Umfang. Zumindest innerhalb des Umfangs, auf den wir Einfluss haben.
Programmieren die sich dann gegenseitig? Irgendwer muss die warten, instandsetzen und programmieren. Es liegt dann natürlich an uns, wieviel Raum wir der Technik geben und in welchem Umfang. Zumindest innerhalb des Umfangs, auf den wir Einfluss haben.
Ich fände das gar nicht so verkehrt (hab das Video nicht gesehen) es unterstützend einzusetzen. Ich würde auch nicht nur mit einem Roboter interagieren wollen, aber jeder Mensch hat Grenzen und Defizite. Wenn das vernünftig programmiert würde und die passenden ethischen Grundlagen hätte (ich habe wirklich 0 Plan wie KI funktioniert) könnte man vielleicht auch Probleme wie Diskriminierung, Gender Gap oder mangelnde Fachkenntnis ausgleichen oder auch das Gesundheitssystem entlasten. Wäre doch super, wenn man nicht ewig durchs System irren müsste. Ich habe über meine Krankenkasse Zugang zu einem KI-Diagnostik-Tool und das hat mir von Anfang an Diagnosen vorgeschlagen, die ziemlich sinnvoll erscheinen, wo mir die Ärzte aber nur sagten „ach treiben Sie Sport“…
Remember to leave pawprints on hearts.
-
Ahornblatt007
- neu an Bo(a)rd!

, 40 - Beiträge: 4
Oh ein superspannendes Thema!
Tatsächlich habe ich, um das mal ein bisschen zu testen, auch bereits mit ChatGPT interagiert. Das interessante ist: Du kannst Dir ein Richtlinienverfahren aussuchen und es antwortet dann wie ein z.B. VTler, Analytiker etc.
Fachlich gesehen ist da kaum was auszusetzen, trotzdem glaube ich nicht, dass ein echter Therapeut so antworten würde (ein echter Therapeut validiert nicht jede einzelne Aussage und sagt nicht bei jedem Satz des Klienten :“jaaaaa ich verstehe Dich total“
Das wäre doch vollkommen irritierend
)
Und was eben fehlt ist die therapeutische Beziehung. Einen Hauptteil des therapeutischen Erfolges macht nicht die Methode, sondern die Beziehung zwischen Patient und Therapeut. Und das wird eine KI in dem Sinne nicht leisten können. Also ich finde KI eine sinnvolle Ergänzung, aber eben das: eine Ergänzung.
Tatsächlich habe ich, um das mal ein bisschen zu testen, auch bereits mit ChatGPT interagiert. Das interessante ist: Du kannst Dir ein Richtlinienverfahren aussuchen und es antwortet dann wie ein z.B. VTler, Analytiker etc.
Fachlich gesehen ist da kaum was auszusetzen, trotzdem glaube ich nicht, dass ein echter Therapeut so antworten würde (ein echter Therapeut validiert nicht jede einzelne Aussage und sagt nicht bei jedem Satz des Klienten :“jaaaaa ich verstehe Dich total“
Und was eben fehlt ist die therapeutische Beziehung. Einen Hauptteil des therapeutischen Erfolges macht nicht die Methode, sondern die Beziehung zwischen Patient und Therapeut. Und das wird eine KI in dem Sinne nicht leisten können. Also ich finde KI eine sinnvolle Ergänzung, aber eben das: eine Ergänzung.
-
Charlie Foxtrott
- Forums-Insider

, 45 - Beiträge: 466
Hi Mauli,
ich hatte zu eben dieser Doku in einem anderen Thread schon geantwortet: viewtopic.php?t=32340&start=30. Ansonsten gehe ich da mit Scars konform: Der wichtigste Vorteil ist: Ich brauche keine Rücksicht auf den Therapeuten und seine Befindlichkeiten nehmen und die KI vergisst nichts. Die KI ist für mich da und verlangt nicht irgendwelche Unterwürfigkeits- und Motivationsbekundungen, sondern legt einfach los.
ich hatte zu eben dieser Doku in einem anderen Thread schon geantwortet: viewtopic.php?t=32340&start=30. Ansonsten gehe ich da mit Scars konform: Der wichtigste Vorteil ist: Ich brauche keine Rücksicht auf den Therapeuten und seine Befindlichkeiten nehmen und die KI vergisst nichts. Die KI ist für mich da und verlangt nicht irgendwelche Unterwürfigkeits- und Motivationsbekundungen, sondern legt einfach los.
-
Candykills
- [nicht mehr wegzudenken]
![[nicht mehr wegzudenken] [nicht mehr wegzudenken]](./images/ranks/rank_phpbb_5.gif)
, 31 - Beiträge: 5106
Stimmt nicht ganz. Zwischendurch sprach ich mit ChatGPT über was anderes und knüpfte dann wieder an unserem Therapiegespräch an. Leider konnte er nicht mehr dort anschließen, wo das Therapiegespräch zuvor geendet hatte.
Ach, für ne Woche geht das mal, aber ich wollte das nicht auf Dauer
Ach, für ne Woche geht das mal, aber ich wollte das nicht auf Dauer
Ich bin wie einer, der blindlings sucht, nicht wissend wonach noch wo er es finden könnte. (Pessoa)
Meine Gedanken dazu:
Die KI kann ja nur das Wiedergeben womit sie gefüttert wurde. Und die Frage ist nun wer bestimmt das eigentlich? Und wer ist berechtigt die KI zu füttern?
Faszinierend und gruselig zugleich.
Die KI kann ja nur das Wiedergeben womit sie gefüttert wurde. Und die Frage ist nun wer bestimmt das eigentlich? Und wer ist berechtigt die KI zu füttern?
Faszinierend und gruselig zugleich.
-
R.L.Fellner
- Psychotherapeut
- Beiträge: 828
Charlie Foxtrott hat geschrieben: Di., 18.03.2025, 15:54Ich brauche keine Rücksicht auf den Therapeuten und seine Befindlichkeiten nehmen und die KI vergisst nichts. Die KI ist für mich da und verlangt nicht irgendwelche Unterwürfigkeits- und Motivationsbekundungen, sondern legt einfach los.
hmm.... sitzt dieses "Problem" evt. mehr in Ihrem Kopf, als dass es sich um ein tatsächliches handelt...?
Ich kann natürlich nicht für die Allgemeinheit sprechen und "schlechte Äpfel" wird es leider wohl immer geben, aber bis auf wenige Ausnahmen dürfte doch gelten: kein ernstzunehmender Therapeut/in wird von von KlientInnen "Unterwürfigkeits- und Motivationsbekundungen" benötigen. Ganz im Gegenteil: miteinander möglichst "auf Augenhöhe" zu arbeiten, die Stärkung des Selbst gerade im menschlichen Dialog und die Möglichkeit, Zweifel oder Vorbehalte möglichst sorgenfrei und ohne Angst um die therapeutische Beziehung haben zu müssen, ansprechen zu können, sind wichtige Elemente humanistischer Therapieformen.
Ein dystopisches Zukunftsszenario, mit dem ich in gewisser Weise rechne, ist ja, dass das Sozialsystem in der gegenwärtigen Form immer weniger aufrechtzuerhalten sein wird, und dann eines Tages - was psychische Erkrankungen betrifft - PatientInnen einfach vor einen Monitor mit einem KI-"Therapeuten"-Bot gesetzt werden. Psychotherapie mit Menschen (und damit auch die gemeinsame Arbeit mit realen Menschen) könnte in einer solchen Zukunft nur mehr für Wohlhabende leistbar sein. Ich bin sicher, dass KI auch im psychologischen / therapeutischen Bereich wertvolle Arbeit leisten kann (und dort daher auch viele Arbeitsplätze kosten wird), für das emotionale Wohl ist aber nicht selten auch ein "echtes" Gegenüber wichtig, mit dem man diskutieren, aber auch streiten, weinen, lachen, sprechen, an dem man sich "abarbeiten" kann. Aber wer weiß, vielleicht gelingt in weiterer Folge mit Psycho-Bots, die aus menschlichen Silikonpuppen sprechen und menschliche Emotionen simulieren können, ja der nächste Quantensprung...
Lassen wir uns überraschen, wie die Entwicklung in diesem Bereich weitergeht.
Freundliche Grüße,
R.L.Fellner
Website | Kontakt | Artikel | PT-Blog | Online-Beratung
Der entscheidende Terminus ist "ernstzunehmend": für diese Therapeuten trifft dieser Satz zu; für die vielen anderen: Doch, sie brauchen leider diese Bekundungen, natürlich auf unbewusster Ebene.R.L.Fellner hat geschrieben: Di., 18.03.2025, 18:01
aber bis auf wenige Ausnahmen dürfte doch gelten: kein ernstzunehmender Therapeut/in wird von von KlientInnen "Unterwürfigkeits- und Motivationsbekundungen" benötigen.
Das wird ganz sicher und zwar recht bald so sein.R.L.Fellner hat geschrieben: Di., 18.03.2025, 18:01 Ein dystopisches Zukunftsszenario, mit dem ich in gewisser Weise rechne, ist ja, dass das Sozialsystem in der gegenwärtigen Form immer weniger aufrechtzuerhalten sein wird, und dann eines Tages - was psychische Erkrankungen betrifft - PatientInnen einfach vor einen Monitor mit einem KI-"Therapeuten"-Bot gesetzt werden. Psychotherapie mit Menschen (und damit auch die gemeinsame Arbeit mit realen Menschen) könnte in einer solchen Zukunft nur mehr für Wohlhabende leistbar sein.
-
ExtraordinaryGirl
- [nicht mehr wegzudenken]
![[nicht mehr wegzudenken] [nicht mehr wegzudenken]](./images/ranks/rank_phpbb_5.gif)
, 33 - Beiträge: 4782
Motivationsbekundungen?
Wurden von mir auch gefordert. Finde ich aber normal, zumindest, wenn der Patient damit zeigen soll, dass er mitarbeitet, was nun einmal zu einer erfolgreichen Therapie dazugehört.
Vergessen? Ist bis zu einem gewissen Grad menschlich. Ob Charlie Foxtrott an der Stelle des Therapeuten so ganz ohne Akten auskäme und sich alles merken könnte? Bezweifle ich.
Ich habe das Gefühl, einige sind zu sehr von sich überzeugt (obwohl sie nicht ohne Grund in Therapie sind), um ein Problem zu bearbeiten, muss man es aber bekanntlich erstmal einsehen.
Ich habe das auch im anderen Thread erwähnt. Ich empfinde die KI als hilfreich, wünsche mir aber nicht, dass sie in Zukunft menschliche Therapeuten ersetzt. Es ist ja nicht so, als wären Computer etwas Neues - ich habe für mich bereits festgestellt, dass sie zwar wertvoll sind, aber echte Menschen nicht ersetzen können. Auch wenn diese echten Menschen nicht immer alles tun, was man will.
Wurden von mir auch gefordert. Finde ich aber normal, zumindest, wenn der Patient damit zeigen soll, dass er mitarbeitet, was nun einmal zu einer erfolgreichen Therapie dazugehört.
Vergessen? Ist bis zu einem gewissen Grad menschlich. Ob Charlie Foxtrott an der Stelle des Therapeuten so ganz ohne Akten auskäme und sich alles merken könnte? Bezweifle ich.
Ich habe das Gefühl, einige sind zu sehr von sich überzeugt (obwohl sie nicht ohne Grund in Therapie sind), um ein Problem zu bearbeiten, muss man es aber bekanntlich erstmal einsehen.
Ich habe das auch im anderen Thread erwähnt. Ich empfinde die KI als hilfreich, wünsche mir aber nicht, dass sie in Zukunft menschliche Therapeuten ersetzt. Es ist ja nicht so, als wären Computer etwas Neues - ich habe für mich bereits festgestellt, dass sie zwar wertvoll sind, aber echte Menschen nicht ersetzen können. Auch wenn diese echten Menschen nicht immer alles tun, was man will.
"Charakter zeigt sich in der Krise."
(Helmut Schmidt)
(Helmut Schmidt)
- Werbung
-
- Vergleichbare Themen
- Antworten
- Zugriffe
- Letzter Beitrag
-
- 1 Antworten
- 2774 Zugriffe
-
Letzter Beitrag von Admin
-
- 79 Antworten
- 14538 Zugriffe
-
Letzter Beitrag von Möbius
-
- 5 Antworten
- 3112 Zugriffe
-
Letzter Beitrag von some_diffrend
-
- 2 Antworten
- 1464 Zugriffe
-
Letzter Beitrag von lingaroni
-
- 3 Antworten
- 1567 Zugriffe
-
Letzter Beitrag von Jenny Doe
Artikel und Leitfäden
PT-Forum
Online-Beratung
Kontaktaufnahme

, 28 