# KI-Betrug und Deepfake-Scams Die Fortschritte in der generativen Künstlichen Intelligenz eröffnen nicht nur neue kreative Möglichkeiten, sondern leider auch völlig neue und besorgniserregende Betrugsszenarien. Deepfake-Technologien, die realistische Audio- und Videoinhalte erzeugen können, werden zunehmend von Kriminellen genutzt, um Menschen zu täuschen und finanziellen Schaden anzurichten. Dies stellt eine erhebliche Bedrohung für Unternehmen und Einzelpersonen dar und erfordert ein erhöhtes Bewusstsein und neue Schutzmassnahmen. ## Ursprung und Beschreibung des Phänomens Deepfakes sind synthetische Medien, die mithilfe von KI-Algorithmen erstellt werden, um Bilder, Audio oder Video so zu manipulieren oder zu generieren, dass sie authentisch erscheinen. Sie können Stimmen, Gesichter und Verhaltensweisen von Personen täuschend echt imitieren. Kriminelle nutzen diese Technologie für verschiedene Betrugsmaschen: * **CEO-Fraud (Chef-Betrug):** Hierbei imitieren Betrüger die Stimme oder das Aussehen eines Unternehmenschefs, um Mitarbeitende dazu zu bringen, Gelder zu überweisen oder vertrauliche Informationen preiszugeben. Der Fall WPP, bei dem Kriminelle den CEO Mark Read imitierten, ist ein prominentes Beispiel [1]. * **Identitätsdiebstahl und -fälschung:** Deepfakes können verwendet werden, um gefälschte Ausweise und Identitäten zu erstellen, die traditionelle Sicherheitskontrollen umgehen können [2]. * **Romance Scams:** Betrüger nutzen Deepfake-Profile und -Videos, um emotionale Bindungen zu Opfern aufzubauen und sie dann um Geld zu betrügen. * **Erpressung und Rufschädigung:** Deepfakes können erstellt werden, um Personen in kompromittierenden Situationen darzustellen, die nie stattgefunden haben, und sie damit zu erpressen oder ihren Ruf zu schädigen. ## Psychologische Aspekte des Deepfake-Betrugs Die Wirksamkeit von Deepfake-Betrug beruht auf mehreren psychologischen Prinzipien: * **Glaubwürdigkeit und Vertrauen:** Menschen neigen dazu, dem zu vertrauen, was sie sehen und hören, insbesondere wenn es von einer bekannten oder autoritären Person zu stammen scheint. Deepfakes nutzen diese grundlegende menschliche Tendenz aus, indem sie eine hohe visuelle und auditive Authentizität vortäuschen. * **Autoritätsprinzip:** Im CEO-Fraud wird das psychologische Prinzip der Autorität ausgenutzt. Mitarbeitende sind darauf trainiert, Anweisungen von Vorgesetzten zu befolgen, und die überzeugende Imitation des Chefs durch Deepfake-Technologie kann dazu führen, dass kritische Überlegungen ausgeschaltet werden. * **Emotionale Manipulation:** Deepfakes können starke emotionale Reaktionen hervorrufen, sei es Angst, Dringlichkeit oder Empathie. Betrüger nutzen dies, um Opfer unter Druck zu setzen oder ihr Urteilsvermögen zu trüben. * **Bestätigungsfehler:** Wenn eine Deepfake-Nachricht die Erwartungen oder Befürchtungen des Opfers bestätigt (z.B. eine dringende Geldüberweisung, die im Kontext der Arbeit plausibel erscheint), wird sie eher akzeptiert. * **Mangelndes Bewusstsein:** Viele Menschen sind sich der Raffinesse von Deepfake-Technologien und ihres Missbrauchspotenzials nicht bewusst. Dies macht sie anfälliger für solche Betrugsversuche. ## Fallbeispiele und Belege * **WPP-Betrugsversuch:** Ende 2024 legten Kriminelle einen WhatsApp-Account mit dem Bild des CEO Mark Read an, luden Video-Clips von ihm hoch und setzten stimmlich eine KI-Stimme ein, um Mitarbeitende per Team-Meeting zu täuschen. Sie forderten den Teamleiter auf, Gelder zu überweisen. Dank des Argwohns der Betroffenen konnte der Schaden vereitelt werden [1]. Dieser Fall verdeutlicht, wie realitätsnah Deepfake-Stimmen und -Videos inzwischen sein können. * **Explosion der Betrugsversuche:** Eine Studie des Verifizierungsdienstes Sumsub zeigt für Deutschland einen dramatischen Anstieg von KI-gestützten Betrugsversuchen um 1100 % im ersten Quartal 2025 im Vergleich zum Vorjahr. Ähnlich hohe Zuwächse werden europaweit verzeichnet [2]. * **Millionenschäden:** Banken und Firmen wurden bereits durch gefälschte Stimmen um Millionen betrogen [1]. Experten wie Deloitte warnen, dass durch generative KI-betriebene Betrugsmaschen weltweit Schäden in Milliardenhöhe entstehen könnten – allein in den USA rechnet man bis 2027 mit rund 40 Milliarden Dollar Verlusten durch KI-Fraud [3]. ## Prävention und Schutzmassnahmen Angesichts der zunehmenden Bedrohung durch KI-Betrug sind umfassende Präventions- und Schutzmassnahmen unerlässlich: * **Erhöhtes Bewusstsein:** Aufklärung über die Funktionsweise von Deepfakes und die damit verbundenen Betrugsrisiken ist entscheidend. Unternehmen und Einzelpersonen müssen lernen, misstrauisch zu sein und verdächtige Anfragen kritisch zu hinterfragen. * **Verifizierungsprozesse:** Etablierung strenger Verifizierungsprozesse für finanzielle Transaktionen und vertrauliche Informationen. Dies kann die Einführung von Mehr-Faktor-Authentifizierung, Rückrufen bei bekannten Nummern oder persönliche Verifizierung bei ungewöhnlichen Anfragen umfassen. * **Technologische Lösungen:** Entwicklung und Einsatz von Technologien zur Erkennung von Deepfakes. Obwohl dies eine Herausforderung darstellt, werden Fortschritte in der KI-Forensik gemacht. * **Schulung von Mitarbeitenden:** Regelmässige Schulungen für Mitarbeitende, um sie für die Risiken von Deepfake-Betrug zu sensibilisieren und ihnen beizubringen, wie sie verdächtige Situationen erkennen und melden können. * **Kritische Medienkompetenz:** Förderung der kritischen Medienkompetenz in der Bevölkerung, um die Fähigkeit zu stärken, die Authentizität von Online-Inhalten zu beurteilen. ## Weiterführende Links * https://www.theguardian.com/technology/article/2024/may/10/ceo-wpp-deepfake-scam * https://www.it-daily.net/it-sicherheit/cybercrime/ki-betrug-explodiert * https://www.deloitte.com/us/en/services/audit/blogs/accounting-finance/ai-fraud-risk-management.html * https://www.researchgate.net/publication/387023040_Financial_Fraud_and_Manipulation_The_Malicious_Use_of_Deepfakes_in_Business * https://www.fsisac.com/hubfs/Knowledge/AI/DeepfakesInTheFinancialSector-UnderstandingTheThreatsManagingTheRisks.pdf