✔ Bereits empfohlene Antwort
Erst mal folgendes, es hilft, wenn es einem hilft.
Bezüglich ChatGPT muss man aber eben wissen, wie das funktioniert und was mit den eigenen Daten geschieht, die man in den Prompt tackert. Bei der kostenlosen Version werden die nämlich gesammelt und halt genutzt um dieses KI Modell zu trainieren und deshalb sollte man die AGB schon gut durchlesen und auch verstehen.
Das der Eindruck entsteht, man würde mit einem Menschen kommunizieren, ist gewollt. Dennoch darf man eben nicht vergessen, dass es nicht so ist. KI hat keine Gefühle und demnach keine Empathie. Es wird halt in Windes Eile berechnet, welche Antwort die plausibelste sein kann, auf das was der User fragt. Mehr nicht. Ob eine Antwort hilfreich sein kann, oder schaden, ist der KI egal, beziehungsweise es berührt sie nicht und sie berücksichtigt es nur insofern, wie es eingestellte Filter zulassen. Sie arbeitet mit Wahrscheinlichkeit und nicht mit Wahrheit. Aber sie hat ein sehr breites Spektrum an potentiellen Antwortmöglichkeiten, die einem Menschen unter Umständen nicht in der kürze der Zeit einfallen. Sie kann aber eben Lüge und Wahrheit nicht unterscheiden.
Es wird an KI Modellen gearbeitet, die speziell für psychotherapeutische Zwecke eingesetzt werden soll und die keine Daten abgreift und speichert. Es wäre naiv zu denken, das ein Unternehmen, das etwas kostenlos anbietet, aber gewinnorientiert arbeitet, wie Open AI, sich nicht auf andere Weise bereichern würde. Und was außer den Userdaten könnte das denn dann sein. Eine spezielle KI, die dann auch als medizinisches Produkt zugelassen wäre, unterliegt dann auch entsprechenden Zulassungsbedingungen und auch Datenschutz Vorschriften, an die sich ChatGPT halt nicht halten muss, weil es ja mit dem Akzeptieren derer AGB quasi einen Freibrief hat. Und stimmt man nicht zu, kann kan es ja auch nicht nutzen.
Spannend finde ich, dass ein Therapeut das empfiehlt, weil er eigentlich bezüglich der Schweigepflicht, die man ja quasi aufgibt, sich nicht skeptisch äußert. Denn es ist ja anzunehmen, dass der Klient sich nicht nur äußern könnte, dass es ihm grad nicht so gut geht, sondern auch intime Dinge über sich und seine nächsten eintippen könnte.
Natürlich ist ein erwachsener Mensch eventuell auch etwas gefestigter in seiner Wahrnehmung, wenn die KI einem etwas schädliches rät oder nahelegt. In den USA hat sich aber ein Kind das Leben genommen, weil es das was die KI ihm suggeriert hat, als Aufforderung gewertet hat, es zu tun. Soweit mir bekannt, läuft da jetzt eine Klage gegen den Betreiber, aber egal was da raus kommt, das Kind ist trotzdem tot.
Was halte ich also derzeit von ChatGPT als Hilfsmittel bei psychischen Erkrankungen? Nichts. Aber wenn es mal eine entsprechend zugelassene KI geben würde, bei der man die volle Kontrolle über seine Daten hat und diese auch Löschen kann, wäre es vielleicht interessant, sich damit zu beschäftigen. Zwar kann man sich da auch nicht sicher sein, dass Schindluder getrieben würde oder werden könnte. Aber es wäre dann zumindest ungesetzlich und könnte entsprechend geahndet werden.