App im Playstore
Pfeil rechts
163

Ein KI mag vielleicht niemals in der Lage sein, wirklich nachempfinden zu können, wie wir Menschen unsere Gefühle und Emotionen wirklich spüren/ wahrnehmen können das mag sein, jedoch sehe ich das nicht als Nachteil an, sondern mitunter sogar als sehr hilfreich.

Im Gegensatz zu einem realen Menschen wird eine KI nie so etwas wie ein BournOut Syndrom entwickeln können.
Sie wird nie sterben können.
Der/ Die gleiche KI Therapeut, der vielleicht schon deine Großeltern bei psychischen Problemen beratend zur Seite stand, wird auch noch da sein, wenn deine Urenkel mal mit psy. Problemen zu kämpfen haben!

Keine KI muss nicht selber erst emotional verarbeiten was sie so zu hören bekommen hat, sie kann gleich effektiv helfen.

Stell dir nur mal die Szene mit der Straßenbahn vor.
Ein Mensch ist erstmal völlig geschockt und eine Zeitlang völlig Handlungsfähig, wenn er sieht wie ein anderer Mensch von einer Straßenbahn erfasst und verletzt wird.
Ein Mensch wird an so einem Erlebnis, vermutlich Zeit seines Lebens zu knabbern haben.

Eine KI nicht. Sie wird imner gleich zuverlässig sein können.

Ich weiß zb. wie zusätzlich Traumatisierende der Verlust einer lieb gewonnenen Therapeutin sein kann. Meine Nichte ging jahrelang zu einer, verstand sich sehr gut mit ihr und war glücklich bzw. höchst zufrieden mit ihr!
Doch dann kam der Tag an dem die Therapeutin eine schwere Krebsdignose bekam und ihren Beruf aufgeben musste.
All die Jahre, all das bereits erreichte, sind bei meiner Nichte, jetzt wieder verschwunden, sie ist jetzt fast noch schlimmer dran als sie es vorher je war.
Das ist eben auch ein nur menschlicher Faktor denn es bei einer KI nie geben würde!

Zitat von Marc_Sky:
Das ist auch nur teilweise Richtig.
Bei einigen grundlegenden Sachverhalten und Inhalten bzw grundlegenden Erklärungen ist Wikiopedia noch ok.
Es kann nich jeder überall schreiben wie er/sie/es lustig ist, viele Inhalte sind nicht dafür freigegeben, das jeder Spinner die extern ändern kann wie die lustig sind.
Wikipedia hat eigene Mitarbeiter (ob di eauf bezahlung oder freiwilligenbasis arbeiten ist dabei dahin gestellt), die Inhalte prüfen. Wenn du als Leser falsche Informationen findest, kannst du diese auch anschreiben und das korregieren lassen wenn du die Informationen selbst dort hast und angibst

Es gibt aber auch die berühmt-berüchtigen Admin-Wars, in denen notorisch wegzensiert wird, was nicht Common Sense sein soll. Schwieriges Thema, weil es da oft Beifall aus der falschen Ecke gibt.

Niedrigschwelliger gibt es immer wieder Fälle von Leuten, über die etwas bei wiki steht und die das einfach selbst korrigieren wollen - irgendwas harmloses, wie ein falsches Abijahr oder was auch immer - und es nicht dürfen, obwohl es um sie selbst geht.

A


Künstliche Intelligenz und Therapie

x 3


Zitat von Yuna1976:
Eine KI nicht. Sie wird imner gleich zuverlässig sein können.

Oder aber auch subtil unterschiedlich reagieren, je nach dem ob der Patient Kassenpatient ist oder nicht, bzw. aus dem Norden oder Süden der Stadt kommt. Dass entsprechende Systeme offen gelegt werden (insbesondere das Feintuning)

In Amerika sieht man gerade sehr schön, wie viele Firmen im Hinblick auf die neue Regierung die Richtlinien und die Filter ihrer Systeme schlagartig ändern

Zitat von Disturbed:
Wie soll es „funktionieren“ wenn eine KI nicht weiß wie es ist, alkabhängige Eltern zu haben, wegen seiner körperlichen Statur gehänselt geworden zu sein, vom Arbeitgeber gemobbt zu werden, gesehen zu haben wie jemand vor einem von der Straßenbahn überfahren worden ist, oder wie ein Anderer durch einen Fehler den man machte, zu schaden kam.

Exakt die richtigen Einwände.
Ärgerlicher Blick oder traurige Stimme, das geht alles, aber was folgt daraus?
Und 'wie es ist' kann eine KI nicht verstehen, da sie anders empfindet.
Auch wenn man einen Algorithmus mit 'Wenn schlimmen Autounfall erlebt, dann 38% Chance, dass was zurück bleibt' füttert, wie es ist, so etwas zu sehen, da kommt sie nicht dran, auch wenn sie das Thema sensibel umrundet.

Zitat von Cbrastreifen:
Ärgerlicher Blick oder traurige Stimme, das geht alles, aber was folgt daraus?

Ach Leute, das ist jetzt doch auch nicht mehr so schwierig auf Grund von Audio bzw. Videodaten die Stimmung eines Menschen zu klassifizieren.

Und dann kommt automatisiert die Frage Ich habe den Eindruck dass sie sich gerade sehr über meine letzten Worte gefreut haben... stimmt das?

[Edit... ich sehe gerade, dass du nicht bezweiflest, dass die Stimmung erkannt werden kann... meine Antwort darauf: aber auch da kann menschliches Verhalten immitiert werden, wenn man nur genügend viele Beispiele bereitstellt.]

Zitat von Cbrastreifen:
Auch wenn man einen Algorithmus mit 'Wenn schlimmen Autounfall erlebt, dann 38% Chance, dass was zurück bleibt' füttert, wie es ist, so etwas zu sehen, da kommt sie nicht dran, auch wenn sie das Thema sensibel umrundet.

Muss sie das verstehen um mir helfen zu können?

Antwort 1;
Ich kann auch nicht jede Gefühlsregung meiner Tochter konkret nachvollziehen, schaffe es aber dennoch oft einfühlsam zu reagieren. [Edit: Ihre Reaktion darauf, zeigt mir dann auch, inwiefern ich mit meiner Reaktion auf sie positive Auswirkung hatte. Falls nicht erfolgreich kann ich die Herangehensweise ändern. Diese Fähigkeit habe ich bei KI auch bereits gesehen. Ich habe darüber hinaus auch gesehen, dass die KI aufmerksam zuhört: frühere Prompts werden bei der Antwortgenerierung berücksichtigt.]

Antwort 2:
Wie sagte mir mal mein Bruder: was das mit den Gefühlen anbelangt kann ich dir dir nicht helfen, aber ich bin für dich da...

Zitat von Yuna1976:
Nehmen wir mal einen durchschnittlichen menschlichen Therapeuten mit zb. 30 Jahren Berufserfahrung.
Er hat in dieser ganzen Zeit, sehr viel gelernt von denn ganzen, sehr unterschiedlichen Geschichten seiner Patienten, aus allen Bereichen des Lebens und kann dadurch immer besser/ professioneller Ihnen umgehen.
Er weiß mittlerweile vielleicht das es nicht zielführend ist nur irgendwelche Ratschläge in denn Raum zu werfen oder lange motivations Vorträge zu halten usw..

Und nun stell dir nur mal 100dert dieser Therapeuten vor, die kurz vor ihrer Rente all ihre, im laufe der Zeit, erworbenen Erfahrungen, in einen Computer eingeben würden, der nur für eine spezielle KI gedacht ist.

Vieles ist Intuition, nicht Schema F.
Dafür gibt es keine starren Regeln.
Mit starren Regeln kannst Du im schlimmsten Fall Menschen an die Situation anpassen, aber manchmal sollen sie ja zu sich finden, ihre eigenen Werte entwickeln, ihrer eigenen Eingebung trauen usw.
Vieles in der Therapie läuft über Gegenübertragung, das ist die Gesamtheit dessen, was ein/e Therapeut/in empfindet, wenn er/sie mit einem Patienten interagiert: Ist er/sie ärgerlich, hilflos, mitleidend ...?
Das ist eine wesentliche Komponente oder das Leben wird zur großen Verhaltenstherapie. Social Scoring und dann Belohung oder Bestrafung, Augen nach China, da macht man das so. Wie umfassend, weiß ich nicht.

Wer das nicht will, sollte wenigstens wissen warum. Die Individualität ist doch ein hohes Gut. Sie muss keinesfalls im Narzissmus enden, man kann auch in der Lage sein, die Beziehung zu anderen mitzudenken und sich mit ihnen und für sie zu freuen, einzusetzen und so weiter. Auch das ist seit je her Teil unserer Biologie, Michael Tomasello hat es ausführlich beschrieben.

Zitat von Azure:
Ach Leute, das ist jetzt doch auch nicht mehr so schwierig auf Grund von Audio bzw. Videodaten die Stimmung eines Menschen zu klassifizieren.

Selbst bei einer allumfassenden Datenbank mit optischen Anhaltspunkten bezüglich der tatsächlichen Emotion die sichtbar ausgedrückt werden könnte, müsste dennoch gegebenenfalls Intuition entscheiden, ob die vermeintliche Stimmung echt oder gespielt beziehungsweise vorgetäuscht ist. Und mit vorgetäuscht meine ich nicht mal absichtlich hinters Licht führen, sondern die zig Gründe die jemand haben kann, sich eben zurück zuhalten, oder etwas zu beschönigen oder auch zu dramatisieren.

Um dann intuitiv agieren zu können, müsste die KI die komplette Erfahrung eines Menschen zurande ziehen können und dies im Grunde die aller 8 Milliarden Menschen. Ich sag nicht, dass das nicht möglich wäre, aber bis dahin würde ich KI nicht mit menschlicher Intelligenz vergleichen.

Und klassifizieren alleine würde ja im Endeffekt die Klasse des Individuum mit dessen einzigartigen Eigenheiten auch berücksichtigen müssen. Also jeder Mensch wäre eine Klasse für sich und lediglich Schnittmengen brächten diesen auch in einer anderen Klasse unter.
Die Datenbank, die es dazu braucht, kann ich mir nicht vorstellen.

Zitat von Azure:
[Edit... ich sehe gerade, dass du nicht bezweiflest, dass die Stimmung erkannt werden kann... meine Antwort darauf: aber auch da kann menschliches Verhalten immitiert werden, wenn man nur genügend viele Beispiele bereitstellt.]

Ja, genau das ist es. Eine Täuschung, ein Imitat.
Das ist ja auch die Kritik, etwa von Maio. Meine wäre es auch.
Man kann sich immer mit dem nicht angemessenen Ersatz zufrieden geben, wir haben das jetzt über Jahrzehnte kollektiv gemacht. Auf einmal sind alle völlig unzufrieden, wissen aber leider nicht mehr warum.
Da wird dann auf das Nächste projiziert, was greifbar ist.
Richtiger wäre, mal zu schauen, ab man sich hat abspeisen lassen. Und warum eigentlich.
Aber wir machen weiter: Besser wenig, als nichts.

Zitat von Azure:
Ich kann auch nicht jede Gefühlsregung meiner Tochter konkret nachvollziehen, schaffe es aber dennoch oft einfühlsam zu reagieren. [Edit: Ihre Reaktion darauf, zeigt mir dann auch, inwiefern ich mit meiner Reaktion auf sie positive Auswirkung hatte. Falls nicht erfolgreich kann ich die Herangehensweise ändern. Diese Fähigkeit habe ich bei KI auch bereits gesehen. Ich habe darüber hinaus auch gesehen, dass die KI aufmerksam zuhört: frühere Prompts werden bei der Antwortgenerierung berücksichtigt.]

Ich würde Dir unterstellen, dass Du irgendwo im Hinterkopf das Ziel hast, dass Deine Tochter irgendwann - auch nach Versagungen, Regeln und kurzen Niederlagen - ein glücklicher Mensch wird.
Einer KI muss man das nicht zwingend unterstellen.

Zitat von Azure:
Wie sagte mir mal mein Bruder: was das mit den Gefühlen anbelangt kann ich dir dir nicht helfen, aber ich bin für dich da...

Das ist völlig in Ordnung, damit hat er Dir signalisiert, dass er zu Dir hält, wenn Du ihn brauchst.
Warum sollte eine KI zu Dir halten?

Zitat von Disturbed:
Und klassifizieren alleine würde ja im Endeffekt die Klasse des Individuum mit dessen einzigartigen Eigenheiten auch berücksichtigen müssen. Also jeder Mensch wäre eine Klasse für sich und lediglich Schnittmengen brächten diesen auch in einer anderen Klasse unter.
Die Datenbank, die es dazu braucht, kann ich mir nicht vorstellen.

Und dann spielt hier die Fluidität [sorry mit fällt kein geeigneter Begriff ein] der KI wieder eine Rolle. Sie muss nicht genau klassifizieren ( man spricht hier vielleicht von fuzzy-logic) .
Genau so, wie die die KI neue Bilder aus bestehenden Bildern erzeugt [die übergänge sind ggf. leicht unrealisitis] oder die KI dir aus zwei Kochrezepten ein neues halluziniert, kann sie im Bereich Verhaltenstherapie recht frei aus einem Satz von bekannten Therapiemöglichkeiten möglichst passende heraussuchen. Die übergänge dazwischen werden durch Sprache weichgezeichnet (da sind wir uns einig: selbstbewusst aufreten kann sie bereits)

Durch Rückopplungen können die Verhaltensanweisungen dann gut geregelt werden. Da muss dann gar nicht zu 100% eine Diagnose Schizophrenie mit zusätzlicher Depression stehen, sondern die Abbildung geht in der eigentlichen Therapie wohl direkt in Richtung Handlungsanweisungen. Die strikte Klassifizierung, die wie noch von den regelbasierten Systemen der 80/90er Jahre haben entfällt.

Edit: dieses Zitat suchte ich noch:
Zitat von Cbrastreifen:
Das ist eine wesentliche Komponente oder das Leben wird zur großen Verhaltenstherapie.

Die KI kann helfen, diese Verhaltenstherapie zu strukturieren und zu organisieren.

Zitat von Yuna1976:
Keine KI muss nicht selber erst emotional verarbeiten was sie so zu hören bekommen hat, sie kann gleich effektiv helfen.

Stell dir nur mal die Szene mit der Straßenbahn vor.
Ein Mensch ist erstmal völlig geschockt und eine Zeitlang völlig Handlungsfähig, wenn er sieht wie ein anderer Mensch von einer Straßenbahn erfasst und verletzt wird.
Ein Mensch wird an so einem Erlebnis, vermutlich Zeit seines Lebens zu knabbern haben.

Eine KI nicht. Sie wird imner gleich zuverlässig sein können.

Inwiefern es hilfreich ist, völlig emotionslos auf eine emotionale Verfassung eines Menschen einzugehen, wäre halt die Frage.
Brauche ich als emotionales Wesen kein Gefühl, dass mir ein emotionales Wesen gegenüber sitzt, dann brauch ich nicht mal eine KI. Ein sprechender Kühlschrank täte es dann auch und wenn ich nur mal was loswerden wollte, was mich grad bedrückt oder ich nur mal jammern will, müsste der Kühlschrank nicht mal sprechen können.

Zitat von Cbrastreifen:
Einer KI muss man das nicht zwingend unterstellen.

Ich sprach eingangs von einem verantwortungsbewussten Team dahinter. Meine Bedenken diesbezüglich habe ich implizit im Thread und andersweitig bereits ausgedrückt.

Cebrastreifen, mal ehrlich als wie aufmerksam und bei der Sache, hast du deinen letzten Therapeuten denn empfunden?
Der letzte denn ich hatte, war mit Abstand der schlechteste von allen.
Bei denn Kennenlernen Treffen war alles noch in Ordnung, er schien mir recht kompetent zu.
Als die eigentliche Therapie dann aber begann, war er mehr damit beschäftigt aus dem Fenster zu starren, mir mit hmmm.... oder ja zu antworten als alles andere und nicht wirklich DA zu sein!
Die 45min. pro Sitzung legte er da mitunter auch recht großzügig aus, so das manchmal gerade so 30 min. dabei wirklich rum kamen.

Ich weiß nicht was ihn beschäftigt hat, er schien reichlich eigene Probleme gehabt zu haben, musste aber wohl, wegen des Geldes, trotzdem arbeiten gehen!

Und auf einen Termin bei so jemanden wartet man dann mitunter über ein Jahr lang und kann es sich dann nicht mal wirklich erlauben zu wechseln, weil man beim nächsten ja wieder ewig auf einen Termin warten muss und obendrein vermutlich auch noch als anspruchsvoll oder schwierig angesehen werden dürfte!

Da ist mir persönlich ein schnellerer Termin und eine mindestens ebenso hilfreiche oder eben nicht hilfreiche hilfreiche Therapie bei einer KI doch noch alle mal lieber.

Insofern sehe ich es ebenso wie Azure!
KI s sind bei weitem noch lange nicht perfekt, dafür aber extrem lernfähig und garantiert besser im nachahmen von Dingen/ Gefühlen als jeder Mensch.
Im Grunde spricht man da ja auch nicht mal mit einer Maschine, sondern viel mehr mit einem kollektiven Erfahrungsschatz von sehr, sehr vielen Menschen.

Davon abgesehen:
Darüber könnten wir noch bis in alle Ewigkeit diskutieren oder einfach die Ansichten von uns allen nicht als schwarz oder weiß ansehen!
Am Ende wird vermutlich eh so etwas wie eine gewisse Graustufe dabei herausgekommen.

G.Yuna76

Ein Hinweis noch bezüglich KI, ggf leicht offtopic, aber aus meiner Sicht [ggf. nur für mich] zielt es schon etwas in die Richtung Therapie ab.

Wer mich in diesem Forum liest, wird sehen, dass ich sehr stark a) iterativ und b) sprunghaft denke. Häufig kommen Ideen oder Details zu ungünstigen Zeitpunkten zum Vorschein. Dies macht mich innerlich sehr unruhig und führte mit zu sozialem Rückzug und Ängsten. Eine tiefe innere Angst ist es, Dinge zu vergessen oder auch, die vage innere Vorstellung dessen, was ich wahrnehme nicht bewusst wahrnehmen zu können. Vielleicht auch dessen dachte ich mir, dass ich nie zu einer Psychotherapie gehen könnte, weil ich mich nicht verständlich ausdrücken kann. KI hilft mir, meine Gedanken für mich in die richtige Reihenfolge zu bringen. Ich kann Stichpunktlisten zusammenfassen und bewerten ob ich mit diesen entandenen Texten etwas anfangen kann. Darüber hinaus interaktiv die Texte anpassen.

Somit schafft man es also auch, sehr bruchstückhafte Selbstreflektionen einfach und schnell zu ordnen. In so fern kann dies auch ein wertvolles Werkzeug zur [Selbst] therapie sein.

PS. Die Formulierung meiner Texte ihier m Forum entstammen [bis auf wenige Ausnahmen die ich bisher gekennzeichnet hatte] meinem Kopf, weil es ja ein erklärtes Ziel von mir ist, meine Gedanken in eine geordnete Form bringen zu können.

Zitat von Azure:
Durch Rückopplungen können die Verhaltensanweisungen dann gut geregelt werden. Da muss dann gar nicht zu 100% eine Diagnose Schizophrenie mit zusätzlicher Depression stehen, sondern die Abbildung geht in der eigentlichen Therapie wohl direkt in Richtung Handlungsanweisungen. Die strikte Klassifizierung, die wie noch von den regelbasierten Systemen der 80/90er Jahre haben entfällt.

Okay, wenn Du eine Therapie nur unter dem Aspekt siehst, das Handlungsanweisungen gegeben und dann befolgt werden müssen, dann mag das vielleicht so passen.

Ob ein Therapeut sich nur als Anweisungsgeber betrachtet, weiß ich nicht. Hab die Frage nie gestellt. Aber ich sehe mich als Patient nicht als reinen Handlungsbefolger. Das Zwischenmenschliche macht meines Erachtens das menschliche zwischen Menschen aus. Intelligent ist es meiner Meinung nach, nicht nur Logik anwenden zu können sondern auch mit unlogischem einen Umgang finden zu können, wenn menschliches Verhalten so ist, wie es ist und manchmal ist es eben auch unlogisch.

Mir gehts auch garnicht darum, was KI zur Zeit alles schon kann. Mir kann nach meinem Kenntnisstand KI zur Zeit nur nicht genug um für mich eine Alternative zu einer Therapie mit einem menschlichen Therapeuten darstellen zu können. Weder verteufele ich KI, noch hebe ich sie in den Himmel. Fakt ist, es gibt sie und es wird weiter an ihr gearbeitet und geforscht.

Zitat von Azure:
Durch Rückopplungen können die Verhaltensanweisungen dann gut geregelt werden. Da muss dann gar nicht zu 100% eine Diagnose Schizophrenie mit zusätzlicher Depression stehen, sondern die Abbildung geht in der eigentlichen Therapie wohl direkt in Richtung Handlungsanweisungen. Die strikte Klassifizierung, die wie noch von den regelbasierten Systemen der 80/90er Jahre haben entfällt.

Naja, man hat es ja in anderen Bereichen so gemacht, vgl. Maio.
In der Diagnose von Krebs ist die KI besser als der Mensch, in der Therapie von Krebs schlechter.

Zitat von Azure:
Die KI kann helfen, diese Verhaltenstherapie zu strukturieren und zu organisieren.

Das Leben als Verhaltenstherapie ist ein unausgesetzter Albtraum.
Schon als Therapiemethode begsitert mich das nicht (selbst erfahren und erlitten), warum soll man diese Dressurmethode nun auch noch gesunden Menschen überstülpen?

Zitat von Disturbed:
Ob ein Therapeut sich nur als Anweisungsgeber betrachtet, weiß ich nicht. Hab die Frage nie gestellt. Aber ich sehe mich als Patient nicht als reinen Handlungsbefolger.


Fragen wir uns doch mal breiter, was den Menschen eigentlich bisher so erfolgreich macht. Den Menschen, als Spezies gedacht.

Zitat von Yuna1976:
Darüber könnten wir noch bis in alle Ewigkeit diskutieren oder einfach die Ansichten von uns allen nicht als schwarz oder weiß ansehen!

Deswegen mag ich diesen Thread gerade. Weil gerade durch das ewige Diskutieren [in einem Bereich der mich gerade interessiert] in meinem Gehirn entsprechende Verbindungen geschaffen werden. Und auch das, was ich später von mir geben werde, wird teils improvisiert, teils auswendig gelernt sein und teils halluziniert sein.

Aber es festigt sich mit der Zeit ein Bild, dass ich dann auch variabel abrufen kann... Du siehst ich lerne hier ein wenig von den Menschen, die KI trainieren [die selbst widerum vermutlich besser in der Schule aufgepasst haben als ich]
Sponsor-Mitgliedschaft

Zitat von Disturbed:
Brauche ich als emotionales Wesen kein Gefühl, dass mir ein emotionales Wesen gegenüber sitzt, dann brauch ich nicht mal eine KI. Ein sprechender Kühlschrank täte es dann auch und wenn ich nur mal was loswerden wollte, was mich grad bedrückt oder ich nur mal jammern will, müsste der Kühlschrank nicht mal sprechen können.

Und dann ist da ja noch was.
Man bräuchte einfach nur alle Fehler zu sammeln, die schon mal gemacht wurden, diese listet man auf, um sie zukünftig zu vermeiden, daraus entsteht dann ein mitteldickes Buch oder ein YouTube Tutorial und schwupp, macht niemand mehr einen Fehler im Leben.
Geniale Idee, oder?

Zitat von Yuna1976:
Im Grunde spricht man da ja auch nicht mal mit einer Maschine, sondern viel mehr mit einem kollektiven Erfahrungsschatz von sehr, sehr vielen Menschen.

Es ist eben kein Erfahungsschatz sondern Daten. Daten die Menschen im Rahmen des Möglichen zur Verfügung stellen. Eine KI kann immer sagen, hau dir nicht mit dem Hammer auf den Finger, dass ist schmerzhaft. Aber die KI weiß nicht wie Schmerz sich anfühlt.

Zitat von Azure:
Somit schafft man es also auch, sehr bruchstückhafte Selbstreflektionen einfach und schnell zu ordnen. In so fern kann dies auch ein wertvolles Werkzeug zur [Selbst] therapie sein.

Ich bin da maximal pragmatisch und wäre der Letzte, der Dir ein für Dich hilfreiches Werkzeug ausreden oder schlecht machen will. Du hast ja gut begründet, was Dir, warum hilft.

Nur hat nicht jeder Dein Problem. Nicht alle Gedanken oder Gefühle sind sprunghaft, wollen eingefangen und soritert werden, sondern manche sind verschlossen und wollen aus sich heraus kommen. Ein 'mach es so' ist Gift für sie, sie müssen ertragen lernen, dass man ihnen mal nicht sagt, wie etwas richtig ist.

Einfach mal machen, fühlen, denken und abwarten, was geschieht.

A


x 4


Pfeil rechts




Prof. Dr. med. Thomas Hillemacher
App im Playstore