27

Chatgpt - wer hat Erfahrung damit?

Dys
Zitat von Dakota:
Ich hätte eher auf die KI hören sollen,

Oder eben anhand der Symptome im Netz oder in Büchern nach eventuell möglichen Ursachen suchen können. Denn nichts anderes macht ja die KI. Aber es ist trotzdem ein Unterschied zu einer Psychotherapie, wo es eben nicht um etwas körperliches geht, dafür aber eben Empathie gefragt ist.

#16


Lilly-18
Die KI fasst aber die Ergebnisse, die man selbst vielleicht stundenlang recherchiert, in sehr kurzer Zeit zusammen.
Und natürlich macht es einen Unterschied, ob man etwas handfestes, greifbares fragt oder psychische Symptome schildert.
Obwohl ich auch da schon sehr hilfreiche Antworten bekommen habe. Schließlich bleibt es ja jedem selbst überlassen, wie sehr man KI vertraut. Selber denken ist schon immer noch entscheidend.
Ich habe gestern mit meinem Chef in der Arbeit KI ausprobiert. Er ist sehr skeptisch, aber wir hatten viel Spaß Mr. Green . Wir haben Fragen gestellt, deren Antwort wir schon vorher wussten nur um zu testen, ob es funktioniert. Es war gut, die Antworten waren klar und gut strukturiert, in einzelne Abschnitte aufgeteilt, so dass auch ich etwas komplexere Inhalte gut verstanden habe.
Also, durchweg positiv 👍

x 1 #17


A


Hallo Lilly-18,

Chatgpt - wer hat Erfahrung damit?

x 3#3


Dys
Zitat von Lilly-18:
Und natürlich macht es einen Unterschied, ob man etwas handfestes, greifbares fragt oder psychische Symptome schildert.

Genau das ist der Punkt. Aber auch bei psychischen Symptomen kann KI eine „Diagnose“ nennen, die sie aufgrund bereits vorhandener Informationen und schnellen Such Algorithmen kennt oder findet und dementsprechend dann richtig zuordnet.

Trotzdem, es wird hier im Forum oft und gerne von unempathischen Therapeuten oder Ärzten geredet und sich diesbezüglich beschwert. Eine KI hat keine Gefühle und ChatGPT kann auch keine erkennen, sondern ist lediglich ein Sprachmodell, das die Wahrscheinlichkeit berechnet, welche Antworten richtig sein können. Und selbst da ist die Richtigkeit ja auch nur überprüfbar, wenn man im Grunde schon weiß, dass es richtig ist.

Wie gesagt, Geschwindigkeit ist der Vorteil an der Technik. So kann KI beispielsweise auch schnell erkennen wenn eine Bewerbung mit KI erstellt wurde und entsprechend aussieben. So wie sie ohnehin schon dafür eingesetzt wird, Menschen mit bestimmten Kriterien auszusieben, ohne dass der HR Beauftragte sich auch nur eine näher betrachtet.

Wer sich jetzt wegen mangelnder Empathie eines Behandelnden dann an eine KI wendet macht sich im Grunde lächerlich, wenn er die Absurdität darin nicht erkennen will. Und deshalb wird ja an KI gearbeitet, die Gefühle mal erkennen soll, anhand der Sprache und Gehirnmustern und der Mimik und Körperhaltung. Allerdings könnte ein Schauspieler zumindest abgesehen von den Gehirnmustern, die KI dahingehend auch hinters Licht führen und die Antwort einer KI adabsurdum führen. Was übrigens natürlich auch bei einem Therapeuten klappen kann, wenn man schauspielert und die Empathie des Therapeuten für ganz andere Zwecke nutzen will.

Möchte man aber tatsächlich echte Empathie vom Gegenüber, ist man bei einer KI an der falschen Adresse. Und daher bleibe ich dabei, von KI als Psychotherapie halte ich nichts, zumindest so, wie sie derzeit genutzt werden kann und trotz rascher Entwicklung sehe ich das so, dass es auch noch ne ganze Weile so bleiben wird.

Rührende und verständnisvoll wirkende Antworten alleine, können einen psychisch Kranken nicht heilen, denn dass kann er sowieso nur selbst im Endeffekt. Und die Tipps, die ja viele oft auch nicht beherzigen, die aber gegeben werden, sind ja auch keine anderen, als die die auch jeder Therapeut geben würde oder gibt und die ja in entsprechender Fachliteratur auch zu lesen sind. Denn daher hat ja die KI auch ihre Informationen.

Allerdings, wer keine Menschen, vor allem keine die aufgrund von Empathie auch mal etwas Antworten, dass kontrovers sein kann, mag, der ist bei einer KI sicher gut aufgehoben.

#18


Lachmalwieder
Zitat von Dys:
Um zum eigentlichen Thema zurück zu kehren. Hier im Forum gibts auch Beispiele wo jemand (Mensch) etwas anders versteht, wie es ein Anderer geschrieben hat, was gerne in einer Unzufriedenheit desjenigen, der zuvor etwas geschrieben hat, mündet, weil es einfach auf der Gefühlsebene interpretiert wurde.

Das kommt leider des Öfteren vor.

#19


Lachmalwieder
Zitat von Dys:
Schwierig ist auch, wenn man in der digitalen Welt nichts mehr in Frage stellt. Da sind schon Menschen in einen Fluss gefahren, weil das Navi eine Brücke suggeriert hat.

Aus meiner Sicht, läuft es vielleicht auch darauf hinaus. Der Mensch soll nicht mehr selber nachdenken. Wenn er es dann auch von klein auf nicht mehr gelernt hat, seine eigenen Gedanken zu machen, dann kann er es auch ja im späteren Leben nicht mehr anwenden. Kein Basiswissen mehr vorhanden, nur meine Meinung, muss ja nicht unbedingt stimmen.

#20


michi2879
Ich nutze Chat GPT mittlerweile immer wenn ich etwas suche. Z.B. hab ich die Verbrauchswerte von meinem haus analysieren lassen. Mit den entsprechenden Daten kam eine sehr gut strukturierte Antwort die mit weiteren Fragen sehr vertieft werden konnte.

Auch wusste ich mal nicht was ein Blinken in meinem Dashboard vom Auto bedeutet, kurzerhand fotgrafiert das Foto eingestellt und bekam die richtige Antwort. Das Handbuch hat mir da nicht weitergeholfen.

Was suchen betrifft bekommt schon ziemlich gute Antworten. Ich hab auch mal sachen analysieren lassen von einer Firma wo ich war, Feldbustechnik aus den 90ern die chat gpt erkannt hat. Und ja da wurde ich auch mal nostalgisch.

Man kann sich da bestimmt drinnen verlieren und muss ich bewußt sein, das es eine KI ist. Aber bin ich denn sicher auf X und Co. nicht auch mit Bots, also KIs zu tun zu haben ?. Gefählich und faszinierend zugleich.

p.s. Mit Musik geht das auch, mit Sonos, kann man musik erstellen lassen, die klingt so unfassbar echt da fallen selbst profis drauf rein.

gruselig eigentich.

#21

Pfeil rechts




Ähnliche Themen

Hits

Antworten

Letzter Beitrag