App im Playstore
Pfeil rechts
233

Zitat von SilentRoG:
Was könnte deiner Meinung nach von einer KI nicht erbracht werden, was nur von einem Therapeuten vermittelt / entgegen gebracht werden kann?

Die Frage erstaunt mich wirklich. Alles, außer Texte, kann von einer KI nicht erbracht werden. Genausogut müssten ja dann Bücher therapeutisch wirken können. Sie können es nicht. Könnten sie es, würden die Krankenkassen sie psychisch Kranken erstatten. Tun sie nicht. Der Umstand, dass eine KI dich scheinbar persönlich anspricht und die Wörter auf deine Diagnose gerichtet auswählt, ändert daran gar nichts. Du müsstest doch längst die Erfahrung gemacht haben, dass Texte, Informationen und Reden dein Leiden nicht bessern können. Du hast dann nur mehr Informationen, die nicht einmal stimmen müssen. Nur menschlich-seelische Erlebnisse, Erfahrungen, Prozesse, Gefühle, Beziehungen, Erfolge und so weiter können therapeutisch wirksam sein. Sogar jede Katze bietet mehr Therapie als eine KI. Wer glaubt, KI könne therapeutisch wirken, der versteht den Menschen nicht wirklich. Der sagt sogar im Grunde, dass Psychotherapeuten überflüssig sind, denn mit dem Glauben an KI geht in der Regel auch der Glaube an ihre Überlegenheit durch ihr „Wissen“, ihre „Lernfähigkeit“ und ihre „Intelligenz“ einher. Es bedeutet die Abschaffung des Mitmenschen in der Gesellschaft und wir erleben sie bereits täglich an vielen Stellen, zum Beispiel beim Geldabheben, beim Fahrscheinkaufen, bei Terminvereinbarungen, bei Hotlines und so weiter. Der Kontakt zwischen Menschen wird abgebaut und durch technische Programme ersetzt. Die „Seele“ der KI ist nichts anderes als eine Abfolge von Nullen und Einsen. [url=tel:00101110 10111000]00101110 10111000[/url] [url=tel:01101101]01101101[/url].

Zitat von Recondi:
Genausogut müssten ja dann Bücher therapeutisch wirken können. Sie können es nicht.

Doch bei mir haben schon einige Sachen da draus richtig gut geholfen, mußte es halt nur tun.

A


Künstliche Intelligenz und Therapie

x 3


@Azure

Ich halte den gedanklichen Ansatz, potentielle Möglichkeiten nicht nur hinsichtlich ihrer Gefahren, sondern auch ihrer Chancen zu betrachten, immer für gut oder hilfreich, weil er abwägt, statt verurteilt. Nur wer beide Seiten betrachtet, kann die richtigen Schlüsse ziehen.

Natürlich ist es so, wie du sagst, dass große Innovationen auch immer das Risiko beinhalten, um für schlechte Dinge genutzt zu werden oder natürliche Schattenseiten besitzen, aber wenn es nur danach ginge, das negative zu sehen, wäre auch der erste menschliche Faustkeil der handwerkliche Auftakt zum späteren Völkermord gewesen, weil er auch die erste Waffe war, die der Mensch gezielt dafür benutzt hat, das Töten präziser zu machen.

Die kausale Kette der negativen Betrachtung lässt sich unendlich weiterspinnen.

Ob und wie sich das Thema KI in Zukunft entwickeln wird, steht nun aber in den Sternen - und das meine ich in dem Fall sogar wortwörtlich. Künstliche Intelligenz wird den Menschen mMn, sofern er sich nicht selbst terminiert, zu den Sternen bringen. Vielleicht nicht mehr zwingend als Herrscher über sich selbst, aber wenigstens als Passagier einer Entwicklung, die er selbst angestoßen hat und die das vollenden wird, was er begonnen hat - denn schließlich sind wir es selbst, die uns in der Technologie reflektieren, verwirklichen und die letztendlich das wird, was der Mensch immer sein wollte, wenn er sich selbst in Götter projiziert hat.

Zitat von Windy:
Doch bei mir haben schon einige Sachen da draus richtig gut geholfen, mußte es halt nur tun.

Ja, es sind Informationen. Aber keine Therapie.

Mir ist es vollkommen gleichgültig, ob die KI menschliche wirkt oder sehr robotorhaft klingt. Für mich ist nur wichtig, dass alle meine Daten erfasst werden und danach die Behandlung ausgerichtet wird.

Ich habe keine Lust mehr auf Leute, die mich nur einmal angucken und mir sofort sagen, dass ich ein Hardcore-Fall bin, ohne je einen Blick in meine Akten geworfen zu haben.

@Schwarzes_Klee

Und was ist, wenn dir die KI - ganz neutral analysiert - sagt, du bist ein vergleichsweise schwerer, vielleicht sogar irreversibler Fall?

Ein Mensch kann sich irren. Man behält die Hoffnung. Eine KI, die als analytisch korrekt eingestuft wird, hätte dann aber Recht wie das Labor, das sagt: Wollen sie sich hinsetzen? Das sieht leider nicht gut aus.

@Islandfan das ist finde ich ein zweischneidiges Schwert. Natürlich müssen Kinder lernen, dass Scheitern zum Leben gehört aber in Bezug auf Notengebung find ich das kritisch, weil es ja viel für das spätere Leben ausmacht, welchen Schnitt man hat am Ende. Da scheitern dann vielleicht ganze Entwürfe, welche weitere Laufbahn man einschlagen kann, und das nicht aus mangelndem Fleiß, was dann ein persönliches Probleme wäre, sondern weil einen eine Lehrkraft nicht leiden kann.
Und die komplette Objektivität ist halt in jeder zwischenmenschlichen Beziehung schwierig, da spielt soviel mit hinein.
Bei der Therapie könnte ich es mir durchaus als Ergänzung vorstellen, zum Beispiel bei der Diagnosefindung. Es wird heute ja schon in vielen Praxen und Kliniken so gehandhabt, dass man erstmal reihenweise standardisierte Fragebögen ausfüllt, die dann ausgewertet werden, um zu gucken, welche Diagnose vorliegt. Das könnte eine KI genauso erfüllen.
Sie könnte auch allerlei Dinge abfragen, um einen genauen Einblick in die individuelle Situation bezüglich Familie, berufliches Umfeld, etc. zu erlangen, um ein Schema F zu vermeiden (was leider auch von „realen“ Therapeuten oft angewendet wird). Ich weiß nicht, ob der Artikel hier schon geteilt wurde, aber hab ihn eben gefunden und er erfasst meine gerade geschriebenen Gedanken dazu in etwa:

https://www.tagesschau.de/wissen/gesund...e-104.html

Problematisch sehe ich dann halt die fehlende menschliche Rückkopplung. Wir nehmen ja nonverbal viel durch Mimik etc wahr und das würde bei einer KI so nicht funktionieren. Obwohl Psychotherapeuten ja eh emotional nicht mitschwingen dürfen. Ich glaube als Ergänzung könnte eine KI in Bereichen Schule oder Therapie hilfreich sein, als vollkommener Ersatz nicht.

Zitat von illum:
Ein Mensch kann sich irren. Man behält die Hoffnung. Eine KI, die als analytisch korrekt eingestuft wird, hätte dann aber Recht wie das Labor, das sagt: Wollen sie sich hinsetzen? Das sieht leider nicht gut aus.

Gegenbeispiel: chatgpt sagt mir: die Kerntemperatur eines Steaks muss 60° haben, um deinen genannten Gargrad zu erreichen
Ich: bist du dir sicher, ich hatte da was anderes im Kopf
ChatGPt: oh, da ist mir wohl ein kleiner Fehler unterlaufen...


Will sagen, dass die KI durchaus auf deine Eingaben eingeht und sehr dynamisch in einer Feedbackschleife Ergebnisse anpassen kannst. [Je nach Gesetzeslage könnte ein Arzt verpflichtet sein, das Gesprächsprotokoll der KI der Krankenkasse zu übermitteln]


Der Vorteil der KI ist, dass sie zwischen einzelnen Diagnoseklassen interpolieren kann.
‐----
Also eigentlich genauso wie ich es geschafft hatte, bei meinem einzigen Besuch bei einem Neurologen, der den Ruf hatte, gerne Medikamente zu vrschreiben, eine Schachtel Ritalin zu Testzwecken zu bekommen

Ich denke, Sie haben eine Depression... Ja aber ich habe auch oft ein unordentliches Zimmer, ist es vieleicht doch ADS? Wissen Sie was, wir testen jetzt einfach mal Ritalin...

Zitat von Krokodil90:
Problematisch sehe ich dann halt die fehlende menschliche Rückkopplung.

Nennt sich human in the loop und ist eines der Stichworte, die in Anträgen von EU Projekten stehen sollte, sonst ist es schwierig mit Fördergeldern

[Bzw. Human in the loop wird oft auch weiter unten in die Verarbeitungskette eingebaut, wo er keinen direkten Kontakt mit Menschen hat...]

@Azure das ist interessant, hab eben mal etwas reingelesen. Also so eine Ergänzung aus Maschine und Mensch ist eigentlich nicht schlecht.

Zitat von Recondi:
nichts. Du müsstest doch längst die Erfahrung gemacht haben, dass Texte, Informationen und Reden dein Leiden nicht bessern können.


Also sowohl Texte die Informationen beinhalten , als auch mit nicht Therapeuten darüber reden hilft schon extrem, Dinge zu verarbeiten.

Auch habe ich selbst in meiner Therapie die Erfahrung gemacht, dass meine Therapeutin mir nur Denkanstöße gibt, die ich dann selbst recherchiere, ausprobiere und selektiere ob sie mir helfen oder nicht.

Überspitzt gesagt, hört mir die Therapeutin die meiste Zeit nur beim Reden zu und lenkt das Gespräch durch Nachfragen, was eine KI durchaus auch bereits kann.

Zitat von Recondi:
Nur menschlich-seelische Erlebnisse, Erfahrungen, Prozesse, Gefühle, Beziehungen, Erfolge und so weiter können therapeutisch wirksam sein.


Dieser Aussage nach, müsste ja jeder Therapeut schon alles selbst erlebt haben um überhaupt therapieren zu können. Dabei greifen diese auch nur, wie KI, auf Wissen zurück.

Meiner Meinung nach muss dich ein Therapeut „lesen“ können. Und dies kann eine KI auch, wenn nicht sogar auf Grund der Objektivität sogar besser.


Zitat von Recondi:
Wer glaubt, KI könne therapeutisch wirken, der versteht den Menschen nicht wirklich.

Ich glaube sogar , dass eine KI Stimme, Sprache, Gesichter, Ausdrücke besser analysieren kann als ein Mensch und dementsprechend auf Grund des existierenden Wissen dann besser darauf reagieren kann. Inkl. Anpassung der Audio Spur, um entsprechende Emotionen zu „heucheln“.

Die Schwierigkeit sehe ich eher im Schritt der Umsetzung und der Erkenntnis beim Patienten. Ob dieser einen Therapeuten oder eine KI nicht versteht oder ignoriert, kommt aufs gleiche raus. Denn die Umsetzung des in der Therapie gelernten hängt am Patienten , nicht an der KI oder dem Therapeuten und da ist eine KI geduldiger um es mehrfach zu erklären und hat vermutlich auch die Möglichkeiten („mehr Wissen“), es auf mehrere andere Weisen zu erklären, als ein Therapeut.

Zitat von Recondi:
Es bedeutet die Abschaffung des Mitmenschen in der Gesellschaft und wir erleben sie bereits täglich an vielen Stellen, zum Beispiel beim Geldabheben, beim Fahrscheinkaufen, bei Terminvereinbarungen, bei Hotlines und so weiter.


An vielen Stellen wurde dadurch vieles verbessert und Fehlerquellen verringert.

Ich sehe das daher eher als Vorteil.

Zitat von SilentRoG:
Also sowohl Texte die Informationen beinhalten , als auch mit nicht Therapeuten darüber reden hilft schon extrem, Dinge zu verarbeiten. Auch habe ...

Als Ergänzung: Gerüche(*) und Berührungen,
Zwischenmenschliches Gefühl[das Sozialphobiker ggf. sogar verascheuen]

ggf noch das Gefühl ich gehe da jetzt extra hin
Lassen sich nicht so einfach ersetzen...
Vergleichbar zu:

Wie steht ihr zu Teamsmeetings vs. persönlicher Kundenbesuch?

Zitat von Azure:
Gegenbeispiel: chatgpt sagt mir: die Kerntemperatur eines Steaks muss 60° haben, um deinen genannten Gargrad zu erreichen
Ich: bist du dir sicher, ich hatte da was anderes im Kopf
ChatGPt: oh, da ist mir wohl ein kleiner Fehler unterlaufen...


Haha, ja.

ChatGPT ist im Gegensatz zu Gemini von Google in manchen (technischen) Punkten etwas benachteiligt, was die Überprüfung und die Erste Allgemeine Verunsicherung betrifft, wenn man schreibt, dass etwas falsch ist (obwohl es richtig war) aber in anderen Punkten besser, um sich mit ihr auch rudimentär unterhalten zu können. Gemini bolzt ja nur Wikipedia per Copy Paste rein und schmückt das mit ein paar Floskeln aus.

Falls man mal ein schnelles Python-Script braucht, ein Bild von einer Blume, ein Ideengeber für einen langweiligen Sonntag oder wissen will wie viel Grad ein Kreis hat, ist es ok, aber alles was komplizierter ist, sollte man sich mMn selbst draufschaffen. Zumal es einem nix bringt, wenn es woanders als im Kopf steht.

Zitat von Azure:
Je nach Gesetzeslage könnte ein Arzt verpflichtet sein, das Gesprächsprotokoll der KI der Krankenkasse zu übermitteln


Davon gehe ich zumindest aus, ja.
Die Protokollierung hielte ich für Pflicht. Ist zwar Datenschutzrechtlich wieder alles so eine Sache, aber praktisch ist alles so eine Sache.

Wie im Restaurant:
Ihre Karte wurde abgelehnt.

- Nun, also. Könnte ich sie bitten, erstmal etwas leiser zu reden?

Zitat von Recondi:
Ja, es sind Informationen. Aber keine Therapie.

Wobei Therapie ja nur die Menge der Maßnahmen sind, um zur Heilung zu gelangen.

Die Mehrheit wird sich auch hierbei auf Informationen auf Informationen berufen.

Eine KI wird einen bei Platzangst ggd. nicht in den Fahrstuhl begleiten um zusammen eine Runde zu fahren. Sowas müsste ggf. anders gelöst werden. Aber hier wäre dann z.B. die Möglichkeit geboten, den Informationsteil über KI zu managen und den „aktiven“ Teil über einen Menschen. Dies würde trotzdem dem menschlichen Part ermöglichen mehr Menschen zu helfen, als müsse er alle Teile der Therapie begleiten.

Zitat von Azure:
Als Ergänzung: Gerüche(*) und Berührungen,

Gerüche sollten für KI auch kein Problem sein.

Bei Berührungen, bin ich überfragt, ob sowas in Therapien stattfindet. Das kennen ich nicht aus Erfahrung.

Eine Umarmung durch eine Therapeuten kann ich mir aber auch
nicht vorstellen. Würde ich so aber gerade auch nicht wollen.
K.A. ob das Teil / begleitend in der Therapie gemacht wird. Ich kann es mir nicht vorstellen, weil mir da die Abgrenzung fehlen würde.

So wie ich bisher Therapie wahrgenommen habe und was auch von Therapeuten oft selbst gesagt wird, soll ja auch nur bestmöglich Werkzeug an die Hand gegeben werden, mit dem man dann lernt umzugehen für die Krankheit. Also Hilfe zur Selbsthilfe. Therapie funktioniert ja auch dann am besten, wenn man die Stunden nicht als netten Kaffeeklatsch sieht, um etwas zu plaudern, sondern wirklich auch eigene Motivation hat, an den Problemen zu arbeiten. Das heißt, Eigeninitiative ist ja durchaus gefragt. Beim ersten Klinikaufenthalt mag Psychoedukation noch ganz hilfreich sein, aber man kann sich auch durch Fachliteratur etc. selbst informieren und einlesen, um die Krankheit besser zu verstehen.
Ich brauche keinen Therapeuten, der mir das dritte mal aufzählt welche Ursachen und Symptome eine Depression hat. Das kann eine KI auch alles.

Es geht ja mehr darum, dass man vielleicht nochmal Impulse von Außen bekommt, etwas vielleicht nochmal von einer anderen Seite zu betrachten weil man halt aufgrund eigener Erfahrungen ja oft sehr eingeengt ist im Denken. Sozusagen einen neuen Blickwinkel auf ein Thema oder Problem bekommen um Muster zu durchbrechen. Im Grunde kann das sowohl KI als auch Mensch.

Zitat von Krokodil90:
So wie ich bisher Therapie wahrgenommen habe und was auch von Therapeuten oft selbst gesagt wird, soll ja auch nur bestmöglich Werkzeug an die Hand ...

KI vielleicht sogar besser, weil sie nicht auf Grund von „Vorlieben“ Inhalte unterschlägt oder in anderer Reihenfolge präsentiert. Sondern nach statistischer Relevanz auf Grund der Symptomatik.
Sponsor-Mitgliedschaft

@SilentRoG das stimmt…im Grunde ist es alles deutlicher objektiver und weniger gefärbt durch persönliche Präferenz

@Krokodil90

Ich hatte mich letztens mit jemandem unterhalten, da ging es darum, dass ChatGPT von der Person benutzt wird, um alltägliche Situationen und Gedanken einzuschätzen.

Wir haben uns also unterhalten, und ich hatte das Problem, eine bestimmte Emotion klar zu benennen. Ich selbst wusste, was ich fühle, aber es war schwierig das alles in Worte zu fassen.

Also hat die Person die KI gefragt. Wie könnte er sich damit fühlen.
Wovor hat er Bedenken. Was man halt so denkt und fühlt eben.

Ich hab mir die Antwort von der KI dann durchgelesen (aus Neugier) und es war exakt das, was ich sagen wollte. Nicht nur nahe dran, sondern exakt das was ich im Kopf hatte.

Die KI war btw betont aber auch bereits auf den Fall oder Situation geschult und hatte viel Vorwissen über mich und die Situation.

@illum Ach, das ist echt spannend. Vielleicht kann man sowas auch generell nutzen bei Leuten, die gar nicht wirklich den Zugang zu ihren Gefühlen haben oder klar benennen können, was sie wirklich fühlen.

A


x 4


Pfeil rechts




Prof. Dr. med. Thomas Hillemacher
App im Playstore