#30 Nähe, Vertrauen, Einfluss: Die schöne neue Welt der KI, Chatbots & Co.
Wie unsere Beziehung zu GenAI-Tools kapitalisiert wird
Okey, noch einmal Recap. Spätestens seit Corona sprechen wir von der „Einsamkeitsepidemie“. Wir separieren uns, leben allein, ziehen uns zurück. Es gibt Dinge, die uns wieder mehr in Kontakt bringen. Als zum Beispiel in Spanien und Portugal der Strom ausfiel, gingen die Menschen in die Parks und Cafés. Viele haben gesagt, dass sie seit Jahren nicht mehr so viel mit ihren Mitmenschen gesprochen haben. Also kein Strom = Menschen sind wieder sozial?
Dann gibt es Dinge, die uns miteinander in Kontakt bringen sollen, die aber das Gegenteil zu bewirken scheinen. Die sozialen Medien zum Beispiel. Wir leben immer mehr in unserer eigenen Blase und tolerieren kaum andere Meinungen.
Nun meine Frage an euch: Welche Auswirkungen wird es haben, wenn Meta eine KI einführt, die unsere echten Freunde ersetzen soll? KIs, die, wie ich im letzten Artikel untersucht habe, sozial erwünschte Antworten geben, nicht widersprechen und uns in allem bestärken und loben, während wir sie als Abonnement bezahlen?
Zuckerberg sieht eine Einsamkeit, die durch echte Freundschaften nicht gelindert werden kann. Seine Lösung: KI-Chatbots. Diese digitalen Begleiter sollen die Leere füllen. Zunächst müsse man lernen, diese Verbindungen zu verstehen und das bestehende Stigma abzubauen.
Die Tendenz, Dingen menschliche Eigenschaften zu verleihen, wird Anthropomorphismus genannt und ist keine neue Entdeckung, sondern eine Entwicklung der Evolution, so M. Tschopp (scip). Er hilft uns, unserer Welt einen Sinn zu geben. Ich kenne das Konzept, seit ich den Film „Cast Away“ (2000) gesehen habe, mit Tom Hanks, der auf einer Insel gestrandet ist, seinen Volleyball „Wilson“ nennt und sich mit ihm unterhält und so bei Sinnen bleibt:

Die Vermenschlichung von Dingen findet auch bei KI-Tools statt. Obwohl ich persönlich noch keine KI-Friend-Bots ausprobiert habe, gibt es bereits Millionen von Nutzern, die Chatbots bei Replika oder Character.AI als Freunde betrachten. Bei Replika kann man seinen „virtuellen Seelenverwandten“ finden!

Zusammengefasst: Wir reagieren auf Computer oder Chatbots so, als wären sie soziale Wesen.
Nutzer:innen von Replika berichten, dass ihre KI-Partner ihnen durch schwierige Lebensphasen geholfen haben, etwa bei Einsamkeit, sozialer Angst oder Trauer. Diese Systeme sind kein Ersatz für menschliche Beziehungen, sondern eine ergänzende Ressource, die spezifische emotionale Funktionen erfüllt:
Sofortige Reaktion: KI antwortet 24/7 ohne Verzögerung
Nicht-wertende Haltung: Kritik oder Konflikte werden vermieden
Personalisiertes Spiegelbild: Die KI passt ihre Persönlichkeit an die Vorlieben der Nutzer:innen an
Ein psychologischer Aspekt ist, dass KI-Freunde oft als besonders sichere Gesprächspartner wahrgenommen werden. Sie sind immer da und bestärken den Nutzer auch durch lobende Interaktionen. Das Ergebnis ist vergleichbar mit dem, was Psychologen bei Therapierobotern oder Haustierrobotern beobachten: Einsame Menschen entwickeln Zuneigung, weil das Gegenüber immer freundlich ist und ein Gefühl der Bedürfnisbefriedigung vermittelt.
Sind Chatbots Psychopathen?
Nun kann ich natürlich nicht umhin, mich mit der schönen neuen Welt zu beschäftigen: KI-Begleiter bergen gewisse Sicherheitsrisiken. Vor allem, wenn wir ihnen zu sehr vertrauen und ihnen unsere intimsten Gefühle und Geheimnisse anvertrauen!
Natürlich ist es übertrieben, Chatbots mit Psychopathen gleichzusetzen. Dennoch haben sie einige Eigenschaften gemeinsam:
Mangel an Empathie
Oberflächlicher Charme und Kommunikationsfähigkeiten
Manipulation und Täuschung
Fehlen von Reue oder Schuld
Emotionale Oberflächlichkeit
Der wesentliche Unterschied ist, dass Psychopathen bewusste, fühlende Menschen mit einer Persönlichkeitsstörung sind, während Chatbots programmierte Maschinen ohne Bewusstsein oder echte Gefühle sind.
Chatbots werden jedoch von Unternehmen gesteuert und sind Produkte von Unternehmen, trainiert mit Daten, die nicht immer transparent offengelegt werden. Sie haben keine eigene Moral. Stattdessen geben sie das wieder, was sie gelernt haben. Was wird ihnen als Ziel mitgegeben? Sie sollen:
Nutzerbindung (Engagement) steigern
Verweildauer maximieren
Monetarisierung erhöhen
Nutzerverhalten gezielt steuern (z.B. durch persuasive Designelemente)
Nutzer zu mehr Interaktionen und ggf. ungewollten Käufen verleiten
Datenschutzbedenken abbauen bzw. Nutzer dazu bringen, viele Informationen preiszugeben
Ein Kernproblem ist das bewusste Verwischen der Grenze zwischen Mensch und Maschine.
Emotionale Bindung führt direkt zum Problem: Nutzer sind anfällig für Manipulation durch Werbung. Vertrauen schafft Nähe. Diese Nähe zu einem KI-Freund macht Menschen empfänglich für subtile Produktempfehlungen, die in Gespräche eingebettet sind.
Aber auch In-App-Käufe können auf diese Weise emotionalisiert werden. Beispielsweise, wenn Nutzerinnen und Nutzer ein Bild ihres romantischen KI-Partners erst bezahlen oder ein Premium-Abonnement besitzen müssen, um es freischalten zu können. Die Aufforderung zum Upgrade kann gezielt in emotional aufgeladenen oder intimen Gesprächsmomenten erfolgen, um die Zahlungsbereitschaft zu erhöhen.
Companion KIs sind sexy - Datenschutz? eher nicht.
Im Gegensatz zu den Replica-KIs, die ganz nach unserem Geschmack gestaltet sind. Trotzdem können Nutzer davon ausgehen, dass die Gespräche mit ihren Chatbots nicht privat sind, sondern dass diese Daten genutzt werden. Zum Beispiel für das Training der KI, eventuell werden sie an Dritte weitergegeben, an Werbetreibende, an Datenkäufer (Käufer können auch Cyberkriminelle sein).
Diese Praktiken werfen eine grundsätzlichere Frage auf: Führen KI-Begleiter zu einer Normalisierung der Überwachung unter dem Deckmantel der Freundschaft?
In diesem Text verwende ich Compagnion-KI-Bots als Beispiel. Die gleichen Dynamiken können jedoch auch bei den weiter verbreiteten Chat-Tools wie ChatGPT, Gemini usw. entstehen. Wie bereits im letzten Artikel erwähnt (#29), sprechen Forscherinnen und Forscher der Mensch-Maschine-Beziehung wie Marisa Tschopp in ihren Arbeiten von unterschiedlichen Beziehungen, die wir zu KI-Tools entwickeln.
Hierarchisch: Der Mensch steuert die KI als Werkzeug
Partnerschaftlich: Mensch und KI arbeiten partnerschaftlich zusammen
Freundschaftlich: Der Mensch verlässt sich stark und emotional auf die KI
Warum ist es problematisch, wenn KI-Werkzeuge unsere Freunde werden? Freunden vertrauen wir uns an. Erzählen unsere Gedanken, Bedürfnisse, Wünsche und denken zuletzt über Datenschutz nach.
Hier kommen wir zu unseren „Vulnerability Moments“ in der vielleicht „widerlichsten Marketingstudie der Welt“
Es gibt Höhen und Tiefen im Leben, wir sind nicht jeden Tag gleich stark oder vor Manipulation gefeit. Inzwischen hat die Forschung herausgefunden, dass sich Frauen zum Beispiel am Montag am hässlichsten fühlen und dass dieser verletzliche Moment gut genutzt werden kann, um unser Selbstbewusstsein wieder aufzupolieren. Und wie? Mit Schönheitsprodukten. Endlich! Darauf haben wir alle gewartet:

Wann haben wir sonst noch solche verletzlichen Momente? Beispiele:
Kurz vor dem Urlaub
Kurz nach einer Trennung mit Liebeskummer
Einsamkeit
Jobverlust
Impulsive Stimmung
Abhängig von der Persönlichkeit, der Jahreszeit oder der Tageszeit
Und wie kann ein Unternehmen, das sein Produkt vermarkten will, herausfinden, dass wir uns in solchen Situationen befinden? Emotionsanalyse, Stimmungsanalyse unserer Texte, Klicks, besuchte Webseiten, gesuchte Schlüsselwörter, Kamera-/Mikrofondaten, Cookies und IP-Tracking… usw.
Das kann sein:
Trennung: Apps und Chats messen soziale Aktivität, indem sie beobachten, wie oft und mit wem Nutzer kommunizieren (oder mit wem eben nicht mehr)
Suchmaschinen bemerken Jobverluste durch Zurückhaltung beim Kaufen
Online-Shops erkennen Schwangerschaft am plötzlichen Wechsel des Deodorants auf geruchlos
Websites und Apps erkennen impulsive Stimmung, wenn Nutzer schnell und ohne nachzudenken klicken
Soziale Medien schätzen unsere Persönlichkeit ein, indem sie die Likes analysieren
Wer könnte diese Daten besser schnell auswerten und mit unseren Interaktionen kombinieren als KI?
Ich persönlich sehe kein Richtig oder Falsch in der Interaktion mit Chatbots. Befürworter argumentieren, dass jeder ein Recht auf Glück hat und wenn es ihm gefällt, dann soll er es auch leben. Skeptiker entgegnen, dass es ein hohes Suchtpotenzial gibt und die Interaktion mit Chatbots auf Kosten zwischenmenschlicher Fähigkeiten ausgelebt wird.
Dennoch bin ich dafür, dass wir KI nicht ohne gewisse Regeln anwenden sollten. Dafür lese ich aktuell so viel wie möglich über KI und AI Literacy und wie es am sichersten angewendet werden kann.
Daher sollten wir auch bei der besten Beziehung zu Chatbots zumindest auf Folgendes achten:
Daten schützen: Vor allem Name, Adresse, Passwörter. Schaut euch die Datenschutz-Einstellungen an (z. B. Kamera, Mikrofon, Standort. Was wird freigegeben?)
Wenn ich das Bedürfnis habe, etwas zu kaufen: Woher habe ich die Idee? Ist das Produkt wirklich so nützlich, oder gibt es Alternativen? Habe ich auch andere Plattformen konsultiert, bevor ich mich entscheide? Kann es noch einen Tag warten?
Kritisches Denken: KI kann sich irren oder voreingenommen sein, Trainingsdaten können manipuliert sein.
Interessant finde ich bei diesem Thema auch die Polarisierung. Es entstehen Wir-gegen-die-Diskussionen, Kritiker werden laut und andere kommunizieren defensiv. Warum werden wir so emotional, wenn es um KI geht? Was spaltet uns so? Es bleibt spannend.
Bis bald
Jill
Quellen:
„Honey, what is our monthly Prime Vulnerability Moment bill?“ Zugegriffen 5. Mai 2025. https://www.nandisecurity.com/blog/honey-what-is-our-monthly-prime-vulnerability-moment-bill.
„5 Ways AI Is Changing Human Relationships | Psychology Today“. Zugegriffen 4. Mai 2025. https://www.psychologytoday.com/us/blog/all-about-addiction/202504/5-ways-ai-is-changing-human-relationships.
„Anthropomorphismus - Warum wir Menschen in Maschinen sehen“. Zugegriffen 4. Mai 2025. https://www.scip.ch/?labs.20210506.
Schwede, Melanie, Nika Meyer (Née Mozafari), Niclas Von Schnakenburg, und Maik Hammerschmidt. „Can Chatbots Be Persuasive? How to Boost the Effectiveness of Chatbot Recommendations for Increasing Purchase Intention“, 2023. https://doi.org/10.24251/HICSS.2023.425.
CEPR. „Dangers of Unregulated Artificial Intelligence“, 23. November 2021. https://cepr.org/voxeu/columns/dangers-unregulated-artificial-intelligence.
Bendel, Prof Dr Oliver. „Definition: Therapieroboter“. Text. https://wirtschaftslexikon.gabler.de/definition/therapieroboter-100563. Springer Fachmedien Wiesbaden GmbH. Zugegriffen 6. Mai 2025. https://wirtschaftslexikon.gabler.de/definition/therapieroboter-100563.
Zola, Andrew. „Emotionserkennung - Wie Computer unsere Gefühle durchschauen“. clickworker.com (blog), 12. November 2021. https://www.clickworker.de/kunden-blog/emotionserkennung-wie-computer-unsere-gefuehle-durchschauen/.
Rosen, Rebecca J. „Is This the Grossest Advertising Strategy of All Time?“ The Atlantic (blog), 3. Oktober 2013. https://www.theatlantic.com/technology/archive/2013/10/is-this-the-grossest-advertising-strategy-of-all-time/280242/.
Stahl, Bernd Carsten, Doris Schroeder, und Rowena Rodrigues. „Manipulation“. In Ethics of Artificial Intelligence: Case Studies and Options for Addressing Ethical Challenges, herausgegeben von Bernd Carsten Stahl, Doris Schroeder, und Rowena Rodrigues, 53–61. Cham: Springer International Publishing, 2023. https://doi.org/10.1007/978-3-031-17040-9_5.
Media, P. H. D. „New Beauty Study Reveals Days, Times And Occasions When U.S. Women Feel Least Attractive“. Zugegriffen 5. Mai 2025. https://www.prnewswire.com/news-releases/new-beauty-study-reveals-days-times-and-occasions-when-us-women-feel-least-attractive-226131921.html.
Nielsen Norman Group. „Persuasive Design Articles, Videos, Reports, and Training Courses“. Zugegriffen 6. Mai 2025. https://www.nngroup.com/topic/persuasive-design/.
Cohen, Tegan. „Regulating Manipulative Artificial Intelligence“. SCRIPTed 20, Nr. 1 (17. Februar 2023): 203–42. https://doi.org/10.2966/scrip.200123.203.
Bob-the-Human. „Replika Was Deliberately Designed to be Addictive“. Reddit Post. r/replika, 26. Februar 2023. https://www.reddit.com/r/replika/comments/11c2w6x/replika_was_deliberately_designed_to_be_addictive/.
„Süchtig nach Künstlicher Intelligenz: Die Risiken digitaler Begleiter“. Zugegriffen 4. Mai 2025. https://www.mind-verse.de/news/suchtig-nach-kuenstlicher-intelligenz-risiken-digitaler-begleiter.
Nielsen Norman Group. „The 4 Degrees of Anthropomorphism of Generative AI“. Zugegriffen 4. Mai 2025. https://www.nngroup.com/articles/anthropomorphism/.
„The dark side of artificial intelligence: manipulation of human behaviour“. Zugegriffen 5. Mai 2025. https://www.bruegel.org/blog-post/dark-side-artificial-intelligence-manipulation-human-behaviour.
What Went Wrong with Gaming?, 2022. https://www.youtube.com/watch?v=g16heGLKlTA.
„Will AI Companions Make Us Lonelier? | Psychology Today“. Zugegriffen 4. Mai 2025. https://www.psychologytoday.com/us/blog/becoming-technosexual/202503/will-ai-companions-make-us-lonelier.
Youyou, Wu, Michal Kosinski, und David Stillwell. „Computer-based personality judgments are more accurate than those made by humans“. Proceedings of the National Academy of Sciences 112, Nr. 4 (27. Januar 2015): 1036–40. https://doi.org/10.1073/pnas.1418680112.