App im Playstore
Pfeil rechts
233

Ich glaube, je besser die KI wird, also je mehr sie unsere Bedürfnisse rausfindet und sie befriedigt, umso mehr werden andere Menschen für uns uninteressant. Warum sich mit jemanden abgeben, der so unperfekt ist, der jammert, der leidet, der krank ist...., wenn man doch in der KI jemanden gefunden hat, der all meine Bedürfnisse kennt und zu jeder Zeit für mich da ist?

Und somit denke ich, das die KI, uns auf Dauer gesehen, uns von der eigenen Sippe entfernt, weil wir immer mehr Perfektionismus wollen. Ich stelle es mir auch toll vor, einen menschlichen Roboter zu haben, der mir viele Wünsche erfüllt, der mir immer geduldig zuhört und sich mit mir über Themen unterhält, die mich interessieren, also, der immer auf mich eingeht und ich nicht schauen muss, was er braucht (na ja, vielleicht Strom?)

Ich schaue z. B. auch gerne Filme mit Roboter und merke, dass ich für sie auch Gefühle entwickle, als wie wenn sie ein Mensch wären, weil sie eben auch so menschlich (abgesehen vom Aussehen) dargestellt werden.

Allerdings bringt mich das auch zum Nachdenken. Wenn es so schön ist, einen Roboter als Freund zu haben, liegt das an mir und meiner Verbundenheit (die ich nicht so wirklich fühle) zu anderen Menschen?
Warum fühlt es sich leichter an, sich mit einem Roboter anzufreunden, als mit einem Menschen?
Eben weil der auf mich eingeht, oder? Irgendwie scheinen sehr viele Menschen zur Zeit ein sehr großes Bedürfnis danach zu haben, dass man gesehen, angenommen, auf einen eingegangen wird.

Zitat von hereingeschneit:

Allerdings bringt mich das auch zum Nachdenken. Wenn es so schön ist, einen Roboter als Freund zu haben, liegt das an mir und meiner Verbundenheit (die ich nicht so wirklich fühle) zu anderen Menschen?
Warum fühlt es sich leichter an, sich mit einem Roboter anzufreunden, als mit einem Menschen?

Das wäre für mich unvorstellbar. Es ist ja nur ein Gegenstand, ich brauche Kontakt zu echten Menschen. Gefühle könnte ich niemals entwickeln, das wäre sehr befremdlich. Ein Stofftier ersetzt auch kein echtes Tier und eine Puppe/Roboter keinen Menschen. Dann wäre ich lieber ganz allein, als dass ich mir einen Roboter anschaffen würde.

A


Künstliche Intelligenz und Therapie

x 3


Ich kann überhaupt keine Verbundenheit mit der KI fühlen. Ich schaue sie nicht an, sie ist gar nicht da für mich. Es kann hin und wieder mal lustig sein, wenn jemand mal was erzählt oder schreibt davon, aber ansonsten ist sie für mich nicht vorhanden. Ich vertraue da lieber auf Gott und auf den Menschen. Wenn ich jemanden brauche, der mir immer zuhört, dann kann ich auch zu meinem Psychiater gehen, da bekomme ich auch die fehlende Aufmerksamkeit, die auf mich aber nicht zutrifft. Es wird nachher noch soweit kommen, das die KI den Menschen so ersetzt, das er auch Liebe geben kann, also kann man dann auch mit einem Roboter schlafen.

Hoffentlich geht beim Akt nicht grade der Strom aus.

Zitat von Islandfan:
Das wäre für mich unvorstellbar. Es ist ja nur ein Gegenstand, ich brauche Kontakt zu echten Menschen. Gefühle könnte ich niemals entwickeln, das ...

Bei mir wäre eher das Gegenteil.

Ich habe keine Lust mehr darauf, dass ich stets aufpassen muss, dass der Mensch sich nicht auf den Schlips getreten fühlt.

Bei einer KI muss ich nur Informationen liefern und nicht stets aufpassen, was ich sage. Die KI scannt die Akte und glotzt mich nicht nur einmal verächtlich an und weiß dann schon, dass ich schwierig bin.

Sie kann mir Empfehlungen durch Berechnungen geben und sagt nicht, dass ich irgendetwas schlucken soll.

Ich finde je mehr ich darüber nachdenke das im Therapeutenbereich gar nicht so übel. Ich hatte damals zum Beispiel eine Therapeutin als Frau, mit der ich damals auch das für mich belastende Dilemma besprach, dass ich mich in einen vergebenen Mann verliebte und traf.
Und habe gemerkt, wie sie mich komplett verurteilt und das überhaupt nicht verstecken konnte. Menschlich völlig nachvollziehbar, als Therapeutin aber unprofessonell. Aber kann ja sein, dass sie selbst Erfahrung hatte zum Beispiel dass ihr Mann fremdging mal. Solche persönlichen Hintergründe fallen bei ner KI dann weg.

Zitat von Schwarzes_Klee:
Bei einer KI muss ich nur Informationen liefern und nicht stets aufpassen, was ich sage.

Aber das ist doch total künstlich. Dann könnte ich ja die KI so programmieren, dass sie mich nur lobt. Was bringt mir das?

Zitat von Schwarzes_Klee:
Ich habe keine Lust mehr darauf, dass ich stets aufpassen muss, dass der Mensch sich nicht auf den Schlips getreten fühlt.

Das gehört aber auch mal dazu zwischen Menschen. Man wächst bei Konflikten über sich hinaus. In einer KI-gesteuerten Welt würden wir selbst bald zu lebensunfähigen Robotern mutieren.

@Islandfan

Eine KI wird mich bestimmt nicht loben, wenn es einen Bereich gibt, wo ich noch an meinen Verhalten arbeiten muss. Sie wird es bestimmt nicht unterstützen, wenn ich ihr berichte, dass ich zur Entspannung täglich ein Glas Wein trinke. Sie wird mich wahrscheinlich auffordern mich mit meinen Emotionen genau auseinander zu setzen.

Wenn ich jemanden möchte, der mir sagt, was ich hören will, dann bezahle ich lieber eine Prost. dafür. Wenn die Summe stimmt, dann kann ich ihr ganz klar sagen, dass ich beispielsweise möchte, dass sie mir sagt wie großartig ich bin.

Zitat von Islandfan:
Ein Stofftier ersetzt auch kein echtes Tier und eine Puppe/Roboter keinen Menschen. Dann wäre ich lieber ganz allein, als dass ich mir einen Roboter anschaffen würde.

Jetzt nicht, dass ich da Erfahrung hätte, und wir wollen das auch nicht vertiefen... aber ich habe gehört, dass gewisse Firmen einen recht großen Absatz haben ... nur mal so der Vollständigkeit halber.

Zitat von Krokodil90:
Solche persönlichen Hintergründe fallen bei ner KI dann weg.


Das ist zB ein gutes Argument dafür, genauso wie der Punkt, dass eine KI keine kognitiven Verzerrungen besitzt. Was sie sagt, ist immer objektiv und keine persönliche Meinung.

@illum das ist eigentlich genau wie mit den Lehrern in der Schule, gerade in den Fächern wo es nicht immer nur eindeutig richtig oder falsch gibt, wie zb im Deutschunterricht Aufsätze, Kunst etc. …Da fließt halt immer die persönliche Meinung mit hinein, egal ob man will oder nicht.
Teilweise hat man das in der Schule ja auch richtig bemerkt, dass einige Lehrer ihre Lieblinge hatten und die dann immer besser bewertet wurden.

@Krokodil90

Jo. Der Mensch kann ja nur bedingt objektiv sein, weil er halt immernoch ein GehÖrn hat, das Informationen über sich selbst vor dem Benutzer versteckt, um ihn zB zu schützen. Traumata, logische Widersprüche oder offene Konflikte mag das Bewusstsein als kohärentes, dh inhaltlich immer alles zusammenhängend betrachtendes System gar nicht. Das muss alles zusammenpassen - zur Not eben indem ein blinder Fleck über Fehlschlüsse gelegt wird.

Deshalb braucht es zB mehrere Wissenschaftler, die sich gegenseitig kontrollieren. Fehler oder Irrtümer durch subjektive Verfälschungen sind normal, aber weil sie nicht bei jedem Menschen gleich sind, liegt die Wahrheit dort, wo alle sagen, dass sie keinen Fehler mehr finden. Heißt nicht, dass da keiner ist, aber zumindest sieht ihn keiner.

Das Ding ist, so eine KI, wenn sie frei assoziieren darf, weiß was sie macht. Nicht im Sinne von sich selbst bewusst, aber im Sinne von: Logisch fehlerfrei zusammengesetzt.

Die kann nicht alogisch denken, weil sie nicht weiß wie das geht und weil sie keine subjektive (persönliche) Komponente besitzt, die ihre Kohärenz aufrechterhalten muss, um nicht verrückt zu werden, kann sie ihre Logik auch nicht korrumpieren. Deshalb ist sie in ihren Schlussfolgerungen immer objektiv, dh subjektlos auf das Objekt der Analyse ausgerichtet.

Für einen Therapeuten ist das theoretisch perfekt, weil er keinen fehlerhaften Zusammenhang übersieht. In der Praxis allerdings muss man sagen, willst du jemanden vor dir sitzen haben, der dir jeden logischen Fehler deinerseits unter die Nase reiben kann? Der jeden Widerspruch findet? Fühlt man sich dann nicht iwann wie ein kleines Kind, das denkt, es kann nix richtig machen?

Zitat von illum:
Fühlt man sich dann nicht iwann wie ein kleines Kind, das denkt, es kann nix richtig machen?

Das wäre ja auch dann unzweckmäßig, wenn der Patient genau dieses Problem hat und deswegen in eine Therapie gehen würde. Abgesehen davon gibt es Patienten, die sich einer noch so logischen Antwort ja verweigern könnten und bisweilen auch tun.

Ich stell mir einen Dialog vor, wenn es um einen Waschzwang geht, bei dem die KI logisch erklärt warum es nicht nötig ist, sich alle fünf Minuten die Hände zu waschen.

Oder jemand glaubt nicht, dass er nicht ernsthaft krank ist, obwohl Ärzte das schon mehrfach gesagt haben, weil sie dies aktuell so festgestellt haben. Was aber natürlich logisch betrachtet, nicht bedeutet, dass er nicht irgendwann trotzdem ernsthaft krank werden könnte.

Auch das bei Depression die Lust- und Antriebslosigkeit zu überwinden wäre und überwunden werden kann, wäre logisch betrachtet ja nicht von der Hand zu weisen. Und wenn der Depressive dann Gründe nennen würde, weshalb er nicht kann, was soll eine KI dagegen halten.

Und wer sowieso ein Problem hat, andere Ansichten oder Beurteilungen glauben zu können, wieso sollte er dann einer KI etwas glauben. Plausibilität erkennen zu können, kann bei psychisch Erkrankten nicht als Voraussetzung gesehen werden.

Die KI könnte aber lernen, dass es bei einem Patienten keinen Sinn mehr macht, diesem noch Möglichkeiten zu nennen, oder Handlungsempfehlungen zu geben, bei denen er stets rückmeldet, dass er das nicht kann und logischerweise dann ausgeben, dass eine Therapie sinnlos ist. Und das nichtmal weil die KI im Gegensatz zu einem Therapeuten genervt sein könnte, sondern weil sie zu der logischen Schlussfolgerung kommen könnte, dass die Rechnerleistung anderweitig sinnvoller genutzt werden kann. Oder das es aus Umwelt Gesichtspunkten einen niedrigeren CO2 Fußabdruck hinterlässt, wenn ein Mensch etwas sagt, auf das ein anderer Mensch nur mit Relativierung reagiert.

Wie schon gesagt, es ist ja möglich, dass KI Menschen als Therapeuten ersetzen kann, aber das es derzeit vollumfänglich so sein kann, sehe ich nicht. Da eine Therapie doch sehr komplex ist und eben keine einfache Lehrstunde mit dem Thema, wie lebt man glücklich und zufrieden in allen Lebenslagen.

Zitat von Krokodil90:
das ist eigentlich genau wie mit den Lehrern in der Schule, gerade in den Fächern wo es nicht immer nur eindeutig richtig oder falsch gibt, wie zb im Deutschunterricht Aufsätze, Kunst etc. …Da fließt halt immer die persönliche Meinung mit hinein, egal ob man will oder nicht.

Das ist ein Beispiel, bei dem die KI an ihre Grenzen kommen wird. Logische Fächer wie Mathe zb. könnte man mit einer KI erfassen, aber bei Fächern, in denen die individuelle Interpretation auch eine wichtige Rolle spielt, wird der Mensch der KI immer überlegen sein. So gut kann man keinen Computer der Welt programmieren, dass er derart komplex denken kann. Und auch in der Therapie sind die einzelnen Schicksale so individuell, dass man nicht nach Schema F vorgehen kann. Schema F bietet zwar eine Basis, aber die tiefenpsychologische Analyse kann mMn so nicht gründlich erfolgen.

Zitat von Krokodil90:
Teilweise hat man das in der Schule ja auch richtig bemerkt, dass einige Lehrer ihre Lieblinge hatten und die dann immer besser bewertet wurden.

Ja, Lehrer sind auch nur Menschen und es kommt vor, dass man zu manchen mehr Sympathie entwickelt als zu anderen. Das sollte nicht sein, man sollte objektiv bleiben, aber es gelingt nicht immer. Es ist wie im richtigen Leben, nicht immer ist alles gerecht oder entwickelt sich so, wie man es sich wünscht. Man lernt aber durch solche Prozesse eine Menge im zwischenmenschlichen Umgang.
Viele Kinder, die überbehütet werden, lernen nicht mehr, dass auch Scheitern und Wiederaufstehen zum Leben dazu gehören, weil die Eltern den fatalen Fehler machen, ihre Kinder nicht selbständig werden zu lassen.

Zitat von Schwarzes_Klee:
Wenn ich jemanden möchte, der mir sagt, was ich hören will, dann bezahle ich lieber eine Prost. dafür. Wenn die Summe stimmt, dann kann ich ihr ganz klar sagen, dass ich beispielsweise möchte, dass sie mir sagt wie großartig ich bin.

Das stimmt schon, wobei ich zb eine sexuelle Dienstleistung noch einmal von einer reinen Gesprächstätigkeit unterscheiden würde. Und eine Prost. ist ein Mensch, eine KI hingegen nicht.

Ich denke, dass wir uns zu sehr auf die Technik verlassen und je mehr wir uns abhängig machen, desto unselbständiger werden wir. Technik sollte der Unterstützung dienen, aber nicht alle Abläufe bestimmen.
Wie beim Fliegen. Der Autopilot könnte zwar die Start-und Landephase technisch übernehmen, aber das machen die Piloten selbst, da einfach zu viele Eventualitäten auftreten können. Und da ist der Mensch überlegen.
Die Komplexität des Gehirns kann keine KI ersetzen, besonders auf der emotionellen Seite.

KI kann per Definition kein Einfühlungsvermögen haben und ihre Kommunikation mit Menschen kann keine menschliche sein. Wie jemand denken kann, dass KI psychotherapeutisch hilfreich sein könnte, erschließt sich mir nicht. Oder andersherum gesagt: wenn KI einem Menschen psychotherapeutisch von Nutzen wäre, dann hatte er kein echtes psychisches Problem, sondern nur ein sprachliches. Die Diskussion über KI zeigt, wie so vieles, wie wirr wir geworden sind und dass Vernunft verloren gegangen ist.

Ich habe den Eindruck, dass man eine Therapeuten-KI als zu hölzern aufgrund bisheriger Erfahrungen mit technisch vermeintlich ähnlichen Systemen einschätzt. Ich denke das Gegenteil. Sie könnte eine Flexibilität und eine Funktion Empathie und Therapie besitzen, die das eines Menschen übersteigt, weil sie sich perfekt auf einen Menschen einstellen kann. Grundlagen sind maximale fachspezifische Ressourcen und Trainingsmodelle.

Zitat von Ferrum:
Ich habe den Eindruck, dass man eine Therapeuten-KI als zu hölzern aufgrund bisheriger Erfahrungen mit technisch vermeintlich ähnlichen Systemen ...

Das ist richtig. Man sollte die gegenwärtigen, technischen Anfänge von komplexer KI nicht mit den Möglichkeiten verwechseln, die der Technologie noch offen stehen. Niemand weiß wie genau diese in 30, 50 oder 100 Jahren aussehen wird.

Quantencomputer besitzen definitiv das Potential künstliche neuronale Netzwerke auf dem komplexen Niveau arbeiten zu lassen, wie es das menschliche Gehirn vormacht.

Zitat von Recondi:
KI kann per Definition kein Einfühlungsvermögen haben und ihre Kommunikation mit Menschen kann keine menschliche sein. Wie jemand denken kann, dass ...

Was könnte deiner Meinung nach von einer KI nicht erbracht werden, was nur von einem Therapeuten vermittelt / entgegen gebracht werden kann?
Sponsor-Mitgliedschaft

Zitat von Disturbed:
Das wäre ja auch dann unzweckmäßig, wenn der Patient genau dieses Problem hat und deswegen in eine Therapie gehen würde. Abgesehen davon gibt es ...

Da bin ich in allen Punkten deiner Meinung.

Gegenwärtig und zumindest unmittelbar-absehbar, kann eine KI dieser emotionalen Komponente eines Menschen nicht gerecht werden und einen Therapeuten auch nicht annähernd ersetzen.

Es wird zwar intensiv daran geforscht, um uA auch Emotionen künstlich nachzustellen, um einer KI sowas wie Empathie oder Moral beizubringen, aber um aus allen Komponenten einen tauglichen Therapeuten zu machen, ist es noch ein langer Weg und das ist meiner Einschätzung nach kein Thema mehr, das uns hier in diesem Forum zeitlich betreffen oder helfen wird.

Vielleicht unseren Kindern oder eher Ururenkeln im 22. Jahrhundert, die vllt. mit KI-Begleitern aufwachsen werden, wie wir mit Strom, Fernsehen und E-Mails.

Zitat von illum:
Gegenwärtig und zumindest unmittelbar-absehbar, kann eine KI dieser emotionale Komponente eines Menschen nicht gerecht werden und einen Therapeuten auch nicht annähernd ersetzen.

Ich fürchte mich aktuell nicht vor einer komplett aus dem Ruder gelaufenen KI, die die Weltherrschaft an sich reißt und mich zu einem Knecht macht. Ich sorge mich aber vor psychopatischen Machthabern, großen Konzernen und mir persönlich unbekannten S.trip.penziehern, die mit KI ein weiteres Werkzeug in der Hand haben um vermeintlich gutes zu tun (oder bewusst Böses..) [Kann sein, dass meine Vorstellungshorizont hier zu klein ist, oder mein Erfahrungsschatz zu gering]

Genau so ging es mir persönlich in dieser gesamten Diskussion nie um einen komplett selbständigen autonomen KI Therapeuten, sondern betrachte KI als Werkzeug.

Zitat von illum:
Vielleicht unseren Kindern oder eher Ururenkeln im 22. Jahrhundert, die vllt. mit KI-Begleitern aufwachsen werden, wie wir mit Strom, Fernsehen und E-Mails.

Vielleicht dauert es nicht mal allzu lange, aber ich glaube dass halt nicht nur Wissen einer KI entscheidend sein kann, sondern es eben die nötige Sensorik braucht, wie sich ein Umgang mit einem Patienten gestaltet. Und auch die Intuition um zu erkennen ob der Sessel nur unbequem ist, oder ob es an einer Aussage oder Frage liegt, weshalb sich jemand so oder so gerade bewegt, oder ein schmerzliches Gefühl verspürt. Natürlich könnte die KI da nachfragen um auf das eine oder eben andere dann einzugehen, aber wie detailliert müsste das dann jedesmal sein. Und wie sehr würde es den Kommunikationsfluss tangieren, in die eine oder andere Richtung oder ganz woanders hin.

A


x 4


Pfeil rechts




Prof. Dr. med. Thomas Hillemacher
App im Playstore