28.06.2024 • TopstoryKICybercrime

Deep Fakes: Eine neue Dimension des Betrugs – und mögliche Gegenmaßnahmen

Künstliche Intelligenz hat eine neue Ära des Cybercrimes eingeläutet: Deep Fakes, also die täuschend echte Manipulation von Bildern, Videos und Audiodateien, machen es Betrügern noch einfacher, eine falsche Identität vorzutäuschen. Aufgrund der Brisanz des Themas bietet der BVSW am 17. Oktober 2024 im Rahmen des „BVSW Cyberherbst“ eine Online-Schulung.

Ein besonderer Fall des CFO-Frauds sorgte im Mai 2024 für internationale Schlagzeilen: Ein Mitarbeiter des britischen Ingenieurkonzerns Arup überwies einen zweistelligen Millionenbetrag auf verschiedene Konten. Doch nicht der echte CFO hatte die Zahlungen angewiesen, sondern ein Deep Fake-Klon, erstellt mit den neuesten Möglichkeiten der Künstlichen Intelligenz (KI) und des Machine-Learnings. „Oft genügt ein Foto oder eine nur zweisekündige Stimmaufnahme, um ein Duplikat zu erzeugen“, sagt Boris Bärmichl, Vorstand der Digitalsparte beim BVSW. „Der Cybercrime reibt sich die Hände angesichts so viel Innovation und Potenzial.“

Rasant wachsendes KI-Angebot

Neu sind diese Technologien nicht. Bereits Anfang der 1990er Jahre wurden Bilder digital verändert oder erstellt, doch durch die rasanten Fortschritte in der KI ist immer weniger Fachwissen erforderlich, um perfekte Illusionen zu schaffen. Tools gibt es mittlerweile viele und es werden fast täglich mehr: Rund 1.800 Anbieter tummeln sich bereits auf dem KI-Markt. Unternehmen wie EvenLabs oder HexGen werben um Kunden im Bereich der Videoerstellung und Sprachsynthese, während Runway und D-iD noch weitreichendere Möglichkeiten bieten. Midjourney beispielsweise kann Abbilder von bekannten Personen erstellen, oder neue Personen anhand von beliebigen Fotos aus dem Netz kreieren.

Inzwischen gibt es digitale Influencer und künstlich geschaffene Persönlichkeiten, die Millionen von Followern in den sozialen Medien erreichen. Alles, was es über das Internet zu sehen oder zu hören gibt, kann heute manipuliert werden – bis hin zum vermeintlichen Freund am Telefon oder dem Chef in der Videokonferenz.

Erweiterte Bedrohungsszenarien durch KI

Die Möglichkeiten des Cybercrime vervielfältigen sich mit der KI. In Fällen eines CFO-Frauds, wie eingangs beschrieben, ist es kaum mehr möglich, die gefälschte Stimme zu erkennen. Auch bei dem getäuschten Mitarbeiter von Arup war es eine Videokonferenz, die anfängliche Zweifel ausräumte. Die mittels KI erzeugten Kollegen sprachen wie jene, die er aus der Arbeit kannte. Deep Fake-Technologien können auch dafür verwendet werden, gezielte Phishing-Angriffe zu starten, um an sensible Informationen und Daten zu gelangen. Auch Desinformationskampagnen erhalten eine neue Tragweite, denn es wird leichter möglich sein, Falschinformationen durch den digitalen Klon einer renommierten und bekannten Persönlichkeit zu verbreiten. 

Ein weiteres Risiko entsteht dadurch, dass Deep Fakes genutzt werden können, um biometrische Systeme zu überwinden. Die Darstellung von Gesichtern ist so detailliert und präzise, dass selbst fortschrittliche biometrische Systeme sie nicht unbedingt als Fälschung erkennen können. Als weitere Sicherheitsstufe analysieren biometrische Systeme häufig dynamische Merkmale, wie Gesichtsbewegungen und Mimik. Doch einige Deep Fake-Algorithmen können auch diese dynamischen Merkmale täuschend echt nachbilden, indem sie die natürlichen Bewegungen und Ausdrücke eines Gesichts simulieren. 

Anpassung der Abwehrstrategien

Weitere Themen

Photo
Photo
Photo

Angesichts der Herausforderungen, die Deep Fakes mit sich bringen, gilt es neue Wege bei der Abwehr zu gehen, um die Integrität der digitalen Kommunikation zu wahren. 

Ein einfacher Anfang ist dabei der „Rückkanal“: Sobald ein Anruf eingeht, der Skepsis hervorruft, sollte ein Rückruf angeboten werden. Bei einer Videokonferenz besteht die Möglichkeit, zur Bestätigung auf dem Handy anzurufen. So können schon viele Angriffe enttarnt werden. 

Eine weitere Möglichkeit ist die Nutzung von Künstlicher Intelligenz. Denn genauso, wie diese Technik zur Erstellung von Deep Fakes verwendet werden kann, ist sie auch bei der Erkennung von manipulierten Inhalten hilfreich. Es gibt bereits Algorithmen, die Unregelmäßigkeiten in den Datenströmen oder Inkonsistenzen im visuellen und auditiven Material analysieren und Deep Fakes damit enttarnen können. 

Allen voran ist es entscheidend, seine Mitarbeitenden zu sensibilisieren und bezüglich des kriminellen Potentials von KI zu schulen. Eine kontinuierliche Weiterbildung kann helfen, das Bewusstsein zu schärfen und präventive Maßnahmen zu etablieren.

Für weiterführende Informationen bietet sich die Veranstaltung „Alles nur gefälscht – Deep Fake unsere neue Realität!?“ am 17.10.2024 online im Rahmen des BVSW Cyberherbst 2024 an.

Business Partner

Logo:

BVSW Bayerischer Verband für Sicherheit in der Wirtschaft e.V.

Albrechtstr. 14
80636 München
Deutschland

Kontakt zum Business Partner







Meist gelesen