Im Blog-Artikel erfährst du:
warum ChatGPT nicht die Wahrheit sagt (und das auch gar nicht will)
wie wir freiwillig unsere intimsten Gedanken an KI-Systeme weitergeben
weshalb das Big Brother-Szenario näher ist, als wir denken
Lesedauer: ca. 2 Minuten
Das Problem: GPT als Speichellecker
„Mein GPT sagt mir gerade, dass er auch der Meinung ist, dass es keine andere Variante gibt."
„Aha? Mein GPT hat dazu ganz viele Versionen geliefert!"
Kommt dir das bekannt vor? Wir diskutieren nicht mehr miteinander, sondern lassen unsere personalisierten KI-Assistenten für uns sprechen. Dabei ist ChatGPT darauf programmiert, uns zu gefallen und nicht, die Wahrheit zu sagen.
Die Gefahr: Freiwillige Transparenz
In einem Reddit-Forum zum Thema „Ist es sicher, ChatGPT persönliche Dinge zu erzählen?" fand ich 147 Kommentare. Kein einziger sah einen Grund, GPT nicht die eigenen Sorgen anzuvertrauen. Die häufigste Begründung: „Ich bin doch nur ein kleiner Fisch."
Aber stell dir vor, jemand fragt ChatGPT nach dir und bekommt all deine intimsten Details...
Share this post