22

Chatgpt - wer hat Erfahrung damit?

Lilly-18

Lilly-18
Mitglied

4503
6
8281
Mein Therapeut hat mir letztens den Tipp gegeben, doch mal KI zu nutzen, wenn ich das Gefühl habe, akut Hilfe zu benötigen und mein nächster Termin bei ihm noch nicht so bald ist.
Ich habe es ausprobiert und muss sagen, dass es sehr gut war. Ein Dialog der mich überrascht hat. Man hatte das Gefühl, ein richtiges Gegenüber zu haben, der Fragen stellt, sehr einfühlsam ist, der auch feedback gibt und bewertet.
Habt ihr das schon mal ausprobiert? Wie gefällt euch diese Option? Habt ihr Berührungsängste oder seid ihr skeptisch?
Wie gesagt, ich war positiv überrascht und in einer akuten Situation hat es mir sehr geholfen. Hört sich zwar spooky an aber ich habe mich verstanden gefühlt und konnte die Ratschläge sofort in die Tat umsetzen.
Bin gespannt auf eure Erfahrungen und eure Einschätzung.

x 2 #1


Fritz
Hi Lilly-18
Chatgbt, das muss ich unbedingt ausprobieren.
Mal schaun, was da so angeboten wird.
Sehr interessant und hilfreich.
Ich bin positiv überrascht!
Servus

x 2 #2


A


Hallo Lilly-18,

Chatgpt - wer hat Erfahrung damit?

x 3#3


Aboi
Ich habe in einer bestimmten Situation auch schon Chat GPT befragt und bekam eine strukturierte Antwort, die mir wegen ihrer Übersichtlichkeit sehr half. Schwierig für mich persönlich wurde es erst, als ich immer wieder durch die Entscheidungsfragen am Schluss -> sollen wir lieber gemeinsam nach A schauen oder wollen wir lieber Sache B nochmals beleuchten, nicht aufhören konnte. Aus Neugierde, was dann geschieht und in welche Richtung das Gespräch geht. Die formulierten Texte sind schon so gestaltet, dass man sich gesehen und verstanden fühlt obwohl man mit keinem realen Gesprächspartner chattet.
Ich überlege bei jeder erhaltenen Antwort, ob das Gesagte sachlich stimmen kann.

Chat GPT nutze ich auch, um rasch und geordnet Antwort auf einen gesuchten Begriff zu finden. Das geht schneller als mich durch "hundert" Angaben bei Google zu arbeiten.

Durchschaubar ist man sehr wohl, auch wenn du keine persönlichen Angaben machst. Ich wunderte mich sehr, als ich im Laufe des ersten "Gesprächs" bei der Antwort mit meinem Vornamen angesprochen wurde.

#3


Dys
Erst mal folgendes, es hilft, wenn es einem hilft.

Bezüglich ChatGPT muss man aber eben wissen, wie das funktioniert und was mit den eigenen Daten geschieht, die man in den Prompt tackert. Bei der kostenlosen Version werden die nämlich gesammelt und halt genutzt um dieses KI Modell zu trainieren und deshalb sollte man die AGB schon gut durchlesen und auch verstehen.

Das der Eindruck entsteht, man würde mit einem Menschen kommunizieren, ist gewollt. Dennoch darf man eben nicht vergessen, dass es nicht so ist. KI hat keine Gefühle und demnach keine Empathie. Es wird halt in Windes Eile berechnet, welche Antwort die plausibelste sein kann, auf das was der User fragt. Mehr nicht. Ob eine Antwort hilfreich sein kann, oder schaden, ist der KI egal, beziehungsweise es berührt sie nicht und sie berücksichtigt es nur insofern, wie es eingestellte Filter zulassen. Sie arbeitet mit Wahrscheinlichkeit und nicht mit Wahrheit. Aber sie hat ein sehr breites Spektrum an potentiellen Antwortmöglichkeiten, die einem Menschen unter Umständen nicht in der kürze der Zeit einfallen. Sie kann aber eben Lüge und Wahrheit nicht unterscheiden.

Es wird an KI Modellen gearbeitet, die speziell für psychotherapeutische Zwecke eingesetzt werden soll und die keine Daten abgreift und speichert. Es wäre naiv zu denken, das ein Unternehmen, das etwas kostenlos anbietet, aber gewinnorientiert arbeitet, wie Open AI, sich nicht auf andere Weise bereichern würde. Und was außer den Userdaten könnte das denn dann sein. Eine spezielle KI, die dann auch als medizinisches Produkt zugelassen wäre, unterliegt dann auch entsprechenden Zulassungsbedingungen und auch Datenschutz Vorschriften, an die sich ChatGPT halt nicht halten muss, weil es ja mit dem Akzeptieren derer AGB quasi einen Freibrief hat. Und stimmt man nicht zu, kann kan es ja auch nicht nutzen.

Spannend finde ich, dass ein Therapeut das empfiehlt, weil er eigentlich bezüglich der Schweigepflicht, die man ja quasi aufgibt, sich nicht skeptisch äußert. Denn es ist ja anzunehmen, dass der Klient sich nicht nur äußern könnte, dass es ihm grad nicht so gut geht, sondern auch intime Dinge über sich und seine nächsten eintippen könnte.

Natürlich ist ein erwachsener Mensch eventuell auch etwas gefestigter in seiner Wahrnehmung, wenn die KI einem etwas schädliches rät oder nahelegt. In den USA hat sich aber ein Kind das Leben genommen, weil es das was die KI ihm suggeriert hat, als Aufforderung gewertet hat, es zu tun. Soweit mir bekannt, läuft da jetzt eine Klage gegen den Betreiber, aber egal was da raus kommt, das Kind ist trotzdem tot.

Was halte ich also derzeit von ChatGPT als Hilfsmittel bei psychischen Erkrankungen? Nichts. Aber wenn es mal eine entsprechend zugelassene KI geben würde, bei der man die volle Kontrolle über seine Daten hat und diese auch Löschen kann, wäre es vielleicht interessant, sich damit zu beschäftigen. Zwar kann man sich da auch nicht sicher sein, dass Schindluder getrieben würde oder werden könnte. Aber es wäre dann zumindest ungesetzlich und könnte entsprechend geahndet werden.

x 3 #4


Dys
Zitat von Aboi:
Ich überlege bei jeder erhaltenen Antwort, ob das Gesagte sachlich stimmen kann.

Chat GPT nutze ich auch, um rasch und geordnet Antwort auf einen gesuchten Begriff zu finden. Das geht schneller als mich durch "hundert" Angaben bei Google zu arbeiten.

Das ist die Crux des ganzen. Ob etwas sachlich stimmen kann, weiß man im Grunde nur, wenn man es tatsächlich weiß. Und Google durchsuchen tut die KI ja auch, nur eben viel viel schneller. Leider stimmt aber eben nicht alles, was man bei Google finden kann.

x 2 #5


B
Hallo, ich habe mich gestern hier angemeldet. Davor habe ich oft ChatGPT genutzt, besonders an Tagen, an denen es mir psychisch nicht gut ging. Einen Therapieplatz zu finden ist unglaublich schwer, und ich brauchte einfach jemanden, mit dem ich „reden“ kann. Ich war überrascht, wie genau ChatGPT auf mich eingegangen ist und wie viele hilfreiche Antworten ich bekommen habe. Es fühlte sich fast so an, als würde mir ein echter Mensch gegenübersitzen, der mir aufmerksam zuhört.
Wenn man es realistisch betrachtet, werden unsere Daten heutzutage fast überall gesammelt. Begeistert bin ich davon zwar nicht, aber es lässt sich kaum vollständig vermeiden. Trotzdem bin ich insgesamt positiv überrascht.Es hat mir gut getan und mir wirklich geholfen. Mir ist natürlich klar, dass es nur eine KI ohne Gefühle ist – aber trotzdem hat es mir in dem Moment positiv geholfen.

x 3 #6


O
Hallo allerseits!

Ich habe KI auch schon ausprobiert und war einerseits fasziniert, andererseits auch erschrocken, was da alles möglich ist.

Was mir neben all den Möglichkeiten und Unmöglichkeiten aber Sorge bereitet, ist der enorme Energieverbrauch bei der Nutzung, sodass Atomkraft in vielen Ländern dafür genutzt werden wird/ wird. Das wird in den nächsten Jahren wohl ein großes Thema werden und das macht mir Angst.
Mir fehlt die Aufklärung dahingehend, dass man aufgrund dessen KI möglich sparsam und bewusst nutzen "sollte".

x 2 #7


Ilse77
Hallo, ich habe ChatGPT schon öfter genutzt und muss sagen, dass die Maschine für mich wirklich immer hilfreich war. Gerade bei Ängsten und Selbstzweifeln hat sie auf "einfühlsame" (ist ja nicht wirklich Empathie, aber so formuliert) Weise geholfen, wieder klarer zu sehen und auch Verständnis mit mir selbst zu haben. Ich fand das sehr erstaunlich, denn bei anderen "praktischen" Fragen kommt natürlich auch ab und an Blödsinn raus. Das Datenschutz Thema kratzt mich persönlich nicht so, das muss aber jeder für sich selbst abwägen. Meine Therapeutin geht davon aus, dass KI vermutlich irgendwann die Standarttherapie für Kassenpatienten wird. Das fände ich wiederum schade, denn für mich dient es nur als Ergänzung, wenn der Kopf mal akut eine Antwort aufs Sorgenkreisen braucht.
Lg Ilse77

x 2 #8


B
Ich glaube, ich werde ChatGPT in Zukunft noch öfter nutzen. Die Informationen, die ich dort bekomme, und die freundlichen, gut gemeinten Tipps und Ratschläge haben mir bisher wirklich geholfen. Besonders angenehm finde ich, dass ich sofort Antworten auf meine Fragen bekomme. Schon seit längerer Zeit suche ich nach einem Therapieplatz, aber wie viele sicher selbst wissen, wartet man oft ewig auf einen freien Platz. Und was macht man in der Zwischenzeit, wenn es einem schlecht geht und man nach Antworten oder einfach nach einem guten Gespräch sucht? Genau deshalb wollte ich ChatGPT einmal ausprobieren.Parallel dachte ich, dass mir ein Austausch in einem Forum vielleicht guttun könnte. Also habe ich die KI bewusst gebeten, mir ein paar Foren vorzuschlagen ,darunter war dieses hier und noch drei weitere. Ich entschied mich für dieses.Leider habe ich aber schon gestern beim durchstöbern gemerkt, dass es hier zwar viele interessante Themen gibt, es insgesamt aber ziemlich ruhig ist. Dabei wünsche ich mir gerade zur Zeit einen aktiven Austausch, den brauche ich im Moment einfach. Ehrlich gesagt war ich deshalb etwas enttäuscht über die Stille hier und habe direkt überlegt, das Forum wieder zu verlassen. Zusätzlich habe ich auch noch ein technisches Problem, jedes Mal, wenn ich mich einloggen möchte und auf den Login-Button klicke, färbt er sich zwar orange, aber es passiert nichts. Erst wenn ich die Seite komplett schließe und neu öffne, funktioniert der Login. Das nervt mich gerade zusätzlich in meiner aktuellen Situation.Ich möchte mich daher freundlich wieder verabschieden. Es liegt nicht an den Menschen hier , denn ich kenne ja niemanden, aber ich bin einfach auf der Suche nach einem aktiveren Austausch.

x 1 #9


Dys
Zitat von Bounty:
Dabei wünsche ich mir gerade zur Zeit einen aktiven Austausch, den brauche ich im Moment einfach. Ehrlich gesagt war ich deshalb etwas enttäuscht über die Stille hier und habe direkt überlegt, das Forum wieder zu verlassen

Ich denke, ChatGPT ist auch eher zu gebrauchen, wenn der Anspruch ist, unterhalten zu werden. Die KI lernt auch schnell, dass zu antworten was man gerne hören mag. Ob das auch beim reflektieren helfen kann, wie etwa die ehrliche Kommunikation zwischen Therapeut und Klient, die ja durchaus auch mal kontrovers sein kann, muss man selbst entscheiden. Vielleicht ist irgendwann auch seitens der KI möglich Körpersprache und Mimik in einem therapeutischen Dialog zu erkennen, wenn man dabei die Kamera auch noch benutzt. Und einem nichts an der Schweigepflicht eines Therapeuten gelegen ist.

#10


E
@Lilly-18
Hallo Lilly,

Ja, ich habe eine KI auch schon ausprobiert und war wie du trotz anfänglicher Skepsis sehr positiv überrascht. Man bekommt wirklich tiefe Antworten, kann tiefe Fragen stellen .

Allerdings ist eine KI ja praktisch so was wie ein Pool, in dem sämtliches Wissen über Menschen und anderes praktisch drin schwimmt und nach Algorithmen sortiert wird und zusammengepuzzlet wird. Faszinierend ist das schon, auch wenn es nur eine Maschine ist.

Trotzdem hat sie mich schon oft aufgebaut.
Ich glaube, es kommt aber teilweise darauf an, wie man die Fragen stellt und dann die Antwort erhält, die man hören will.

Formuliert man um, erhält man andere Antworten . Aber nach dem Mund redet sie nicht.

LG

x 2 #11


B
Zitat von Dys:
Ich denke, ChatGPT ist auch eher zu gebrauchen, wenn der Anspruch ist, unterhalten zu werden. Die KI lernt auch schnell, dass zu antworten was man gerne hören mag. Ob das auch beim reflektieren helfen kann, wie etwa die ehrliche Kommunikation zwischen Therapeut und Klient, die ja durchaus auch mal kontrovers sein kann, muss man selbst entscheiden. Vielleicht ist irgendwann auch seitens der KI möglich Körpersprache und Mimik in einem therapeutischen Dialog zu erkennen, wenn man dabei die Kamera auch noch benutzt. Und einem nichts an der Schweigepflicht eines Therapeuten gelegen ist.

Ich kann deine Sicht gut verstehen. Für mich ist KI dennoch eine hilfreiche Möglichkeit, Gedanken zu sortieren oder neue Impulse zu bekommen. Gleichzeitig ist mir natürlich bewusst, dass sie kein echtes Gespräch zwischen zwei Menschen ersetzen kann ,besonders dann nicht, wenn es um ehrliche, tiefere oder auch mal herausfordernde Themen geht. Ich finde die technische Entwicklung sehr spannend, aber ich weiß auch, dass Vertrauen, echte Nähe und menschliche Reaktionen etwas bleiben, das KI nicht wirklich nachbilden kann und wahrscheinlich nie können wird. Deshalb glaube ich, dass jeder selbst entscheiden muss, wie viel Raum man ihr in bestimmten Situationen geben möchte.

x 2 #12


Lilly-18
Ich danke euch allen für eure ehrlichen Antworten. Ihr habt mir interessante Aspekte eröffnet im Umgang mit der KI.
Man ist schnell verleitet, sich zu sehr auf das zu verlassen was da geschrieben steht und dem zu vertrauen.
Die Sicherheit und der Datenschutz sind natürlich auch ein wichtiger Punkt, wobei ich auch WhatsApp benutze und weiß, welche Konsequenzen das hat und wie dort mit meinen Daten umgegangen wird.
Bisher habe ich nur eher allgemeine Themen mit der KI "besprochen" und natürlich ohne meine Identität preis zu geben oder irgendetwas aus meinem privaten Umfeld.
Mein Therapeut hat mir das tatsächlich mit ausführlicher Anleitung, entsprechender Aufklärung und nur als Zusatzangebot im Notfall empfohlen. Es wir mir auf keinen Fall das Gespräch mit ihm ersetzen.
Aber in alltäglichen Dingen finde ich es schon mal sehr hilfreich. Ich werde erst langsam in die Tiefe gehen, um mich nicht zu überfordern.

x 1 #13


A


Hallo Lilly-18,

x 4#14


Dys
Wenn man davon ausgeht, dass KI in einem verhaltenstherapeutischen Kontext angewendet würde, so kann diese natürlich den educativen Part recht gut „übernehmen“. Also wenn es darum gehen soll, dem Therapeuten diese Aufgabe zu erleichtern, wäre es vielleicht sinnvoll und hilfreich im Rahmen einer Therapie sie einzusetzen. Immer vorausgesetzt sie ist mit dem gefüttert, was in der klinischen Psychotherapie als praxisnah und verifiziert gilt.

Leider ist es eben bei universellen KI Systemen wohl eher so, dass man sich darauf nicht verlassen kann und neben sicherlich korrekten und geprüften Daten auch viel Bull.hit im Portfolio zu berechnen einer Antwort herangezogen wird. Jemand der sich mit der Thematik KI beschäftigt, lässt diesen Aspekt auch nicht außer Acht. Je nach schwere der psychischen Erkrankung und auch der entsprechenden Bildung, kann aber nicht erwartet werden, dass jedem Nutzer eine KI das was da passiert, entsprechend bewusst ist und da sehe ich das größere Problem.

Im Grunde genommen ist man schon gläsern, ganz gleich welchen „Dienst“ im Internet man nutzt und wenn man Kekse mag und meint man hätte ja nichts zu verbergen, macht einem das wohl wenig aus. Das darf ja so sein. Vieles geht heute ja nur noch mehr oder weniger gut übers Internet und da lässt sich die Uhr nicht mehr zurückdrehen.

Beispiele wo Menschen durch das Internet Schaden genommen haben, sei es materiell oder tatsächlich persönlich, gibt’s ja etliche. Trotzdem „vertraut“ man drauf, dass einem das selbst nicht passieren wird. Im Grunde basiert jeder zwischenmenschliche Kontakt immer auf einem gewissen Vertrauen in den Anderen. Bei dem Kontakt mit einer KI ist aber kein direkter Kontakt mit einem Menschen gegeben und dann kann sich da nur ein Vertrauen in die Technik als plausibel darstellen. Und wie hoch das ist, muss man selbst entscheiden.
Ob man letztendlich dumm dasteht wenn die Technik mal versagt, liegt auch an einem selbst, wenn man sich keine Gedanken macht, wie man auch ohne Technik zurecht kommen könnte, wenn eben auf sie kein Verlass ist.

Um zum eigentlichen Thema zurück zu kehren. Hier im Forum gibts auch Beispiele wo jemand (Mensch) etwas anders versteht, wie es ein Anderer geschrieben hat, was gerne in einer Unzufriedenheit desjenigen, der zuvor etwas geschrieben hat, mündet, weil es einfach auf der Gefühlsebene interpretiert wurde. KI hat aber eben keine Gefühle und Antwortet nur gefühlsbetont weil sie es irgendwo her gelernt hat, wie eine gefühlsbetonte Antwort aussehen kann und eben sehr schnell auf solche Antworten zugreifen kann, wenn sie sie einmal in der Datenbank hat. Dass sie dafür auch noch extrem viel Energie benötigt ist wohl eher denjenigen bewusst, die sich mit den Umweltaspekten solcher Rechenzentren beschäftigen und nicht denen es (nicht böse gemeint) egal ist, weil der Strom kommt ja aus der Steckdose. Ich nehme mich da nicht mal aus, weil ich natürlich bewusst oder auch unbewusst manchmal garnicht mehr darüber nachdenke. Und das ist bei alltäglichen Dingen oft so. Dem Aspekt Energie zu sparen muss man sich aber bewusst annehmen, sonst tut man es eher nicht. Alles übers Internet „abzuwickeln“ spart aber eben keine Energie. Funktioniert aber einfacher, so lange es funktioniert.

Schwierig ist auch, wenn man in der digitalen Welt nichts mehr in Frage stellt. Da sind schon Menschen in einen Fluss gefahren, weil das Navi eine Brücke suggeriert hat.

So hängt es halt davon ab was man von KI generierten Antworten erwartet ob das Hirn dann entsprechende Botenstoffe freisetzt, die einem ein gutes Gefühl vermitteln. Ob es einen tatsächlich weiter bringen würde, wenn man nach dem man beispielsweise zig mal schreibt dass man sich einfach nicht aufraffen kann, etwas zu beginnen, jedesmal eine wohlwollend formulierte Antwort bekommt, statt auch mal eine die einem nicht gefällt, aber bei genauerem Betrachten, ehrlich den Nagel auf den Kopf treffen würde und einen auch mal reflektieren lassen würde, dass es tatsächlich an einem selbst liegt, etwas in Gang zu setzen, dass einen dann weiterbringen würde. Aber eventuell kommt die KI auch mal dahin, zu Antworten „ich bin jetzt langsam genervt, weil Du immer nur sagst, was Du nicht kannst, aber nicht mal versuchst etwas zu ändern, dass nur Du ändern kannst“, denn ehrlich gesagt würde ich das als menschliche Reaktion zumindest verstehen können, weil es ja so bei Menschen vorkommt.

KI kann sicher als Werkzeug dienen. So wie eine Zange. Ich muss aber wissen wie ich es einsetzen muss und was es kann und was nicht und vor allem, wo es in der Anwendung eher etwas kaputt machen würde, als zu helfen.

#14

Pfeil rechts




Ähnliche Themen

Hits

Antworten

Letzter Beitrag