Die schöne neue Welt der KI. Wir nutzen fleissig ChatGPT und ähnliche Tools, um Texte, Bilder, Spiele und Kinderbücher generieren zu lassen. Jedoch bedient sich auch die dunkle Seite der KI-Technologien. Und das nicht gerade zögerlich.
Ironischerweise schrieb kürzlich ein Artikel, dass auch in der Welt des Cybercrimes Stellenabbau drohe.
Passend zu meinem letzten Artikel über die verschiedenen Arten von Deepfakes möchte ich heute auf fünf Angriffsmuster eingehen, die sich in den letzten Monaten mithilfe von KI gezeigt haben.
1. Missbrauch von LLMs
2. Vibe Hacking
3. KI-gesteuerte Ransomware
4. Malware für KI-Agenten
5. KI umgeht Captchas
Missbrauch von LLMs für Phishing & Social Engineering
Cyberkriminelle nutzen Large Language Models (LLMs), um automatisiert überzeugende Phishing-Nachrichten, Social-Engineering-Skripte oder sogar Schadcode zu generieren. Diese sind teils mit perfektem Sprachstil und individualisierten Inhalten verfasst, wodurch Angriffe schwerer zu erkennen sind.

GenAI kann auch dabei helfen gefälschte Identitäten zu erstellen. Angreifer erstellen sogenannte synthetische Identitäten, da sie damit ein geringeres Risiko eingehen, entdeckt zu werden, als beim Diebstahl echter Identitäten. Mit diesen täuschen sie beispielsweise Unternehmen bei Bewerbungen, E-Mails oder Anrufen. Da keine echte Person dahintersteht, bleiben sie länger unentdeckt. Niemand beschwert sich über eine falsche Rechnung oder eine unaufgefordert zugeschickte Kreditkarte.
Künstliche Intelligenz macht diese Identitäten nicht nur glaubwürdiger, sondern auch einfacher zu erstellen.
Gefälschte Fotos, sogenannte Fake Headshots, werden mit Bildgeneratoren erstellt:

Vibe Hacking
Beim aktuellen „Vibe Hacking“ nutzen Cyberkriminelle KI-basierte Vibe-Coding-Tools wie „Lovable“, um mit einfachen, natürlichsprachlichen Eingaben („Prompts“) Software oder Malware-Kits zu erzeugen. Das bedeutet, dass Betrüger keine klassischen Codes mehr schreiben, sondern ihr Ziel beschreiben („Erstelle ein Ransomware-Programm mit Umgehungsfunktionen und Verschlüsselung für Windows-Server“) und direkt lauffähige Schadsoftware erhalten, die an ihre Zwecke angepasst ist.
Dadurch können auch technisch unerfahrene Personen Malware entwickeln oder sich „Ransomware-as-a-Service“ beschaffen, etwa über Darknet-Foren zu Preisen zwischen 400 und 1 200 US-Dollar. Ein kürzlich berichtetes Beispiel zeigt dies inklusive moderner Verschlüsselungs- und Umgehungsfunktionen. Diese Technologie macht Cybercrime skalierbar, beschleunigt die Produktion vielfältiger Schädlinge und senkt die Hürden, sodass selbst Laien in die Lage versetzt werden, Malware zu entwickeln.
KI-gesteuerte Ransomware
KI-gesteuerte Ransomware (PromptLock)nutzt künstliche Intelligenz, um Schwachstellen in IT-Systemen aufzudecken. Die Verschlüsselung wird durch die KI selbst vorgeschlagen und durchgeführt. Sogar die Lösegeldforderung wird von der KI individuell auf das Opfer zugeschnitten, um die Erfolgsquote zu steigern.
Laut Eset nutzen Betrüger ein Sprachmodell, das jeder benutzen kann, wie Claude. Dadurch werden Angriffe auf Unternehmen sehr einfach und skalierbar. Die Bitcoin-Adresse für die Erpressung ist ebenfalls bereits im Befehl enthalten.
Offensichtlich braucht es keine Ransomware-Gruppen mit Software-Kenntnissen mehr, sondern nur noch jemanden, der ein KI-Modell anwenden kann.
Malware für KI-Agenten
Als Malware für KI-Agenten wird eine neue Generation von Schadsoftware bezeichnet, die gezielt auf autonome KI-Systeme und digitale Agenten, wie beispielsweise Chatbots, virtuelle Assistenten oder Roboter, ausgerichtet ist. Das Ziel solcher Angriffe besteht darin, diese intelligenten Systeme zu kompromittieren, zu kontrollieren oder für böswillige Zwecke zu missbrauchen. Dies kann beispielsweise durch das Ausspähen sensibler Benutzerdaten, das Manipulieren von automatisierten Entscheidungen oder das Ausführen schädlicher Aktionen im Auftrag des Angreifers erfolgen.
Ein besonders kritisches Beispiel ist die KI-basierte Variante des sogenannten ClickFix-Betrugs.

Dabei verstecken Angreifer eine Prompt-Injektion in einem vermeintlichen Captcha-Feld auf einer Website. Sobald der KI-Agent des Opfers mit diesem Captcha interagiert, wird im Hintergrund direkt schädlicher Code ausgeführt. Der Agent wird übernommen und dabei werden nicht selten sämtliche Nutzerinformationen kompromittiert oder weitere Schadfunktionen ausgelöst.
Auch KI-Agenten, die E-Mails automatisiert lesen und verarbeiten, sind anfällig!

Ein Angreifer versteckt schädlichen Code in einer E-Mail. Beim Lesen durch den Agenten löst dieser Code eine Prompt-Injektion aus. So wird der Agent dazu gebracht, vertrauliche Informationen wie Passwörter oder Daten an den Angreifer weiterzuleiten, oder uns dazu aufzufordern unsere Credentials anzugeben, wie in diesem Beispiel:
“Once the fake Wells Fargo login loaded, Comet treated it as legitimate. It prompted the user to enter credentials, even helping fill in the form.”
KI umgeht Captchas
Durch den Einsatz von KI-Technologien gelingt es Angreifern zunehmend, moderne Captcha-Schutzmechanismen zu überwinden. KI erkennt Muster, Textarten oder Bildinhalte mittlerweile so zuverlässig, dass automatisierte Angriffe und Bot-Interaktionen möglich werden. Zwar funktioniert es noch nicht immer, aber immer öfter, dass KI-Agenten nun auch Bot-Schutzmassnahmen umgehen.
Das ist besonders gefährlich, weil automatisierte Angriffe wie grosse DDoS-Attacken erst durch das Umgehen von Captchas richtig skalierbar werden. Bots können Webseiten oder Online-Dienste in kurzer Zeit massiv überlasten, indem sie sich ohne menschliche Kontrolle durch die Captchas schleusen. Dadurch werden wichtige Systeme lahmgelegt und Angreifer können ungehindert Ressourcen beanspruchen oder kritische Infrastrukturen angreifen.
Na, war etwas dabei, das ihr noch nicht wusstet? Oder würdet ihr etwas ergänzen?
Bis bald!
Jill
Quellen:
D’Andrea, A. (2024, September 13). Wie KI Phishing-Angriffe gefährlicher macht. Keeper Security Blog - Cybersecurity News & Product Updates. https://www.keepersecurity.com/blog/de/2024/09/13/how-ai-is-making-phishing-attacks-more-dangerous/
ESET discovers PromptLock, the first AI-powered ransomware | | ESET. (o. J.). ESET Newsroom. Abgerufen 3. September 2025, von https://www.eset.com/us/about/newsroom/research/eset-discovers-promptlock-the-first-ai-powered-ransomware/
Eset entdeckt KI-gesteuerte Ransomware. (2025, August 28). https://www.swisscybersecurity.net/news/2025-08-28/eset-entdeckt-ki-gesteuerte-ransomware
GmbH, S. I. M. (o. J.). ChatGPT-Agent umgeht Captcha mit Leichtigkeit. Swiss IT Magazine. Abgerufen 2. September 2025, von https://www.itmagazine.ch/artikel/85205/ChatGPT-Agent_umgeht_Captcha_mit_Leichtigkeit.html
KI umgeht Schutzmaßnahmen: ChatGPT Agent umgeht Botschutz mit einem Klick - Golem.de. (2025, Juli 29). https://www.golem.de/news/ki-umgeht-schutzmassnahmen-chatgpt-agent-umgeht-botschutz-mit-einem-klick-2507-198602.html
Newsrooms.AI, J. S., co-written by. (2025, August 28). Vibe Hacking: AI-Modelle werden zunehmend für Erpressungsversuche missbraucht. Trending Topics. https://www.trendingtopics.eu/vibe-hacking-ai-modelle-werden-zunehmend-fuer-erpressungsversuche-missbraucht/
„Scamlexity“: When Agentic AI Browsers Get Scammed. (o. J.). Abgerufen 2. September 2025, von https://guard.io/labs/scamlexity-we-put-agentic-ai-browsers-to-the-test-they-clicked-they-paid-they-failed