#21 Ausblick: Der digitale Garten 2025: Chancen säen, Risiken jäten
Das digitale Leben und unser Wissen sind wie ein Garten. Man pflanzt, giesst und hofft, dass keine hungrigen Schnecken den Kohlrabi löchern (ja das sieht nicht schön aus, kann ich bezeugen!!).
Als Kind habe ich beispielsweise ein erstes Pflänzchen gepflanzt, als ich mir den Kopf an der Tischkante gestossen habe. Da merkte ich schnell „ah merke: das ist nicht so toll“. Mein Pflänzchen heute dafür? Eher ein Kakteenpflanze stachelig und vergesslich und ein paar Beulen zu viel.
Der digitale Dschungel
Aber gut, reden wir über einen anderen Garten: den digitalen Dschungel. Lasst uns die Samen für unsere Awareness-Kampagnen 2025 pflanzen. Der Artikel hilft euch sicher ins 2025 zu starten und die wichtigsten Unkraute von den guten Pflänzchen zu unterscheiden.
Hier kommen Trends, Risiken und eine Prise Humor mit „Fun Facts“, um die Sache frisch zu halten.
1. Tech: Künstliche & Agentische KI
Agentische KI bedeutet, dass Systeme selbstständig Entscheidungen treffen und Ziele verfolgen können. Das kann sehr praktisch sein, oder? To Do Listen werden abgearbeitet und wir können in Ruhe Joggen gehen.
Der Gartner Report schreibt, dass bis 2028 15 % aller täglichen Arbeits-Entscheidungen von KI getroffen werden könnten. Also, falls ihr beim Frühstück nicht wisst, ob Kaffee oder Tee: Lasst die KI entscheiden!
Risiken:
Technisch: Systemausfälle, unvorhersehbare Algorithmen, Sicherheitslücken, Datenlecks, fehlerhafte Entscheidungen
Psychologisch: Jobangst, Vertrauensverlust, emotionale Abhängigkeit, Angst vor der totalen Kontrolle (Verlust der Autonomie)
Ethisch: Diskriminierung, Manipulation, Verletzung der Privatsphäre
Sozial: Gesellschaftliche Polarisierung, Weniger menschliche Interaktion
Empfehlungen für mehr Sicherheit:
Kritisches Denken: KI-Entscheidungen hinterfragen. Dies auch in Unternehmen fördern
Datenschutz beachten: Persönliche Daten schützen und Verschlüsselung nutzen. In Unternehmen klare Richtlinien und Verantwortlichkeiten festlegen
Balance halten: Menschliche Beziehungen und Fähigkeiten pflegen
Wachsam sein: Manipulationen und Betrug durch KI erkennen. In Unternehmen sollten die Systeme regelmässig auditiert werden
Fun Fact:
KI’s haben bis anhin noch etwas Mühe gewisse Unterscheidungen zu machen zwischen Bildern. Beispielsweise werden Chihuahua als Muffins kategorisiert, und Pudel als Chicken Nuggets. In Zukunft wird sich diese Bilderkennung wohl stark verbessern.





2. Psychologie: Cyberpsychologie & KI
Die Cyberpsychologie wird 2025 immer wichtiger. Warum? Weil Menschen immer mehr mit Technik interagieren. Companion-KIs, wie Character.AI oder Replika, sind digitale Freunde, die zuhören, lernen und manchmal etwas zu persönlich werden.
Risiken:
Anthropomorphismus: Menschen vermenschlichen ihre digitalen Helfer
Automation Bias: „Wenn die KI sagt, es stimmt, dann muss es stimmen“
Suchtpotenzial: Gespräche mit Companion-KIs können zur neuen Lieblingsbeschäftigung werden
Confirmation Bias: Man sieht nur was man möchte und bevorzugt
Zudem ein eher neues Risiko: KI-induzierte emotionale Abhängigkeit mit suizidalen Folgen
Empfehlung:
Kritisches Denken, kritisches Denken, kritisches Denken!
KI kann manchmal ähnlich wie Engelstrompeten sein. Wunderschön und verlockend, aber manchmal auch giftig! Sie können Halluzinationen oder sogar tödliche Vergiftungen verursachen.
Fun Fact:
Character.AI und Replika haben weltweit je 25-30 Millionen Nutzer. Diese digitalen Freunde reagieren so, wie wir es wollen und sind jederzeit für uns da.
Sad Fact:
Ein 14-Jähriger Teenager nimmt sich nach eingehendem Kontakt mit einem Chatbot „Danny“ (nach Daenerys aus Game of Thrones) das Leben.


3. Marketing: Hyperpersonalisierung
Hyperpersonalisierte Systeme wie Amazon, Netflix oder Spotify gehen 2025 all-in. Unternehmen und ihre Ansätze zur Hyperpersonalisierung:
Amazon: Personalisierte Produktempfehlungen durch Algorithmen (ca. 35% des Umsatzes!).
Spotify: Tägliche und wöchentliche personalisierte Playlists basierend auf Hörgewohnheiten.
Starbucks: App-basiertes Treueprogramm mit individuellen Angeboten und Benutzeroberflächen.
Airbnb: Empfehlungen lokaler Attraktionen basierend auf Interessen und Standort.
O2: Personalisierte Werbung mit massgeschneiderten Botschaften je nach Kundenstatus.
Risiken:
Gefühl der Überwachung: Wer schaut da alles mit, was geschieht mit meinen Daten?? Bin ich nun wirklich aus Glas und alle durschauen mich?
Identitätsprobleme: Algorithmische Entscheidungen formen uns, ohne dass wir es merken
Psychische Belastungen: Statusangst, Erschöpfung, Kontrollverlust
Empfehlung:
Einstellungen beachten: Prüfe bei allen Diensten die Privatsphäre-Einstellungen und adjustiere sie, damit sie deinen Vorlieben entsprechen.
Regelmässiger Check: Haben die Dienste Anpassungen vorgenommen?
Frage dich beim Einkauf: Ist das wirklich auf der Liste? Brauche ich das?
Unternehmen: zeigt transparent, welche Daten gesammelt werden!
Fun Fact:
Netflix passt die Vorschaubilder für Filme in Echtzeit an, damit ihr auf jeden Fall klickt. Diese werden aufgrund der bisherigen Klicks und einem persönlichen Präferenzprofil von euch ausgewählt und mit eine KI vorhergesagt. Etwa 75 % der Klicks und was geschaut wird basieren auf dieser Funktion:
https://netflixtechblog.com/artwork-personalization-c589f074ad76, 2017
Eine eher neuere Entwicklung sind die Wrap-ups. Spotify begann zwar „Spotify Wrapped“ schon 2016, nun wurden diese aber bei unterschiedlichen anderen Services adaptiert. Beispielsweise kann nun auch euer Linkedinprofil und die Aktivitäten darauf ausgewertet werden, das Ganze sieht dann etwa so aus:
https://coauthor.studio/rewind/, 2024
4. Datenschutz: Desinformation
Desinformation ist der dunkle Zwilling der Fehlinformation: gezielt, manipulativ, gemein. Egal ob Deepfakes oder Fake News: 2025 wird spannend.
Desinformationskampagnen sind wie invasive Pflanzen im digitalen Garten. Sie breiten sich unkontrolliert aus und verdrängen die ehrlichen Blumen. Warum funktionieren sie? Weil wir negative Nachrichten oft bevorzugen, ein klassischer Negativitätsbias!
Risiken:
Vertrauen in Institutionen schwächt sich.
Falsche Narrative beeinflussen Gesellschaft und Wirtschaft.
Deepfakes könnten politische Wahlen manipulieren.
Empfehlungen
Digitale Kompetenz stärken: KI-Wissen regelmässig auffrischen.
Innovation: Technische Mittel müssen geschaffen werden, um Deepfakes zu unterscheiden, oder zu markieren
Soziale Medien: Bewusster Umgang mit Inhalten nötig! Alles könnte ein Fake sein, da noch keine Moderation von Deepfakes stattfindet. Kritisches Denken ist wichtig.
Schliesse dich jetzt den Abonennten an
Bleibe auf dem Laufenden mit allem, was du wissen musst.
Dem Newsletter beitreten
Wird verarbeitet …
Erledigt! Du bist auf der Liste.
Ups! Es ist ein Fehler aufgetreten und deine Abonnement-Buchung konnte nicht bearbeitet werden. Bitte Seite neu laden und erneut versuchen.
Fun Fact:
Das KI-generierte Bild vom Papst in Designer-Daunenjacke ging viral. Da zeigte er ganz schön Stil mit seiner Puff-Jacke. Ein schönes Beispiel, wie einfach falsche Informationen gestreut werden, die man erst mal als harmlos einstuft.


(Fast hätte ich gedacht, der Papst versucht sich an einem jüngeren coolen Branding mit „Swag“!)
5. Cybercrime: Social Engineering wird stärker
Social Engineering ist der Psychotrick der Cyberkriminellen. KI hilft dabei, Angriffe noch raffinierter zu machen: Von Deepfake-Anrufen bis hin zu persönlichen Phishing-Kampagnen. Niemand ist mehr sicher, also Vorsicht beim Öffnen von Links und Anhängen!
Risiken:
Finanzieller Verlust
Imageverlust
Einfallstor für weitere Angriffe, bspw. Ransomware bei Unternehmen
Empfehlung:
Kampagnen sollten praxisnahe Beispiele nutzen, um zu zeigen, wie Social Engineering funktioniert. Awareness-Kampagnen sollten immer auf die neusten Angriffe angepasst werden und klare Strategien vermitteln zum sicheren Umgang mit E-Mails und sozialen Medien.
Fun Fact:
O2 hat eine KI-generierte „Granny“ entwickelt, die Betrüger ärgern soll. Eine digitale Superheldin, die Zeit verschwendet:
Bonus-Trend: Schlechte Passwörter bleiben wie Unkraut
Es ist, als ob wir dieselbe Pflanze immer wieder im Garten einpflanzen, obwohl wir wissen, dass sie jedes Jahr von Schädlingen zerfressen wird. Vielleicht wird es Zeit, auch dieses Unkraut einmal zu jäten!
Empfehlung:
Nutzt einmalige Passwörter und Passwortmanager und fördert das auch in euren Unternehmen. Checkt: passwordcheck.ch für mehr Infos!
Fun Fact:
Auch 2024 bleibt „123456“ ein Bestseller unter den Passwörtern. Warum? Vermutlich, weil wir alle hoffen, dass sowieso niemand draufkommt. Hier seht ihr die Top 15 Passwörter der Schweiz gemäss Auswertung von Nordpass.
Fazit:
Unser digitaler Garten braucht Aufmerksamkeit, Liebe – und hin und wieder ein paar Strategien gegen die Schneckenplage. Seid vorbereitet, pflanzt die richtigen Samen. 2025 wird spannend, und wer die Risiken kennt, wird weniger oft den Kopf anstossen.
Bis Bald
Jill 🚀
Referenzen
„10 Beispiele für hyper-personalisiertes Marketing“. Zugegriffen 29. Dezember 2024. https://www.wedia-group.com/de/blog/10-beispiele-fur-hyper-personalisierte-marketingkampagnen-de.
„10 Trends im Bereich der künstlichen Intelligenz für das Jahr 2025“. Zugegriffen 29. Dezember 2024. https://botpress.com/de/blog/top-artificial-intelligence-trends.
MarketScreener. „Die 5 Tech-Trends: Was 2025 prägen wird – MarketScreener“, 1. November 2024. https://ch.marketscreener.com/boerse-nachrichten/nachrichten/Die-5-Tech-Trends-Was-2025-pragen-wird-48235965/.
„Diese Cybertrends sehen Hacker für das Jahr 2025 | Netzwoche“, 13. Dezember 2024. https://www.netzwoche.ch/news/2024-12-13/diese-cybertrends-sehen-hacker-fuer-das-jahr-2025.
„Gartner stellt Technologietrends für 2025 vor | Netzwoche“, 22. Oktober 2024. https://www.netzwoche.ch/news/2024-10-22/gartner-stellt-technologietrends-fuer-2025-vor.
„KI Companions im Test“. Zugegriffen 29. Dezember 2024. https://www.scip.ch/?news.20241223.
„Künstliche Intelligenz und Psychologie | erwachsenenbildung.at“. Zugegriffen 29. Dezember 2024. https://erwachsenenbildung.at/digiprof/neuigkeiten/19614-kuenstliche-intelligenz-und-psychologie.php.
Vincent, James. „The Swagged-out Pope Is an AI Fake — and an Early Glimpse of a New Reality“. The Verge, 27. März 2023. https://www.theverge.com/2023/3/27/23657927/ai-pope-image-fake-midjourney-computer-generated-aesthetic.
Kolaric, Davor. „Was die Politik gegen Deepfakes tun kann, und zwar sofort“. All About Security, 1. März 2024. https://www.all-about-security.de/was-die-politik-gegen-deepfakes-tun-kann-und-zwar-sofort/.