Skip to main content

Deepfake – kann man Augen und Ohren noch trauen?

15.11.2023

Deepfake – kann man Augen und Ohren noch trauen?

Beeindruckend und erschreckend – das ist das Fazit des Vortrages „Cybersecurity – What’s new? Innovation, Evolution & Trends“ von Roland Pucher zu den Themen Cybercrime und Deepfake.

Am Dienstag, 14. Nov. 2023, fand im Heinz Zemanek Saal der OCG ein Expert Talk des OCG Arbeitskreises IT-Sicherheit (Leitung von Ingrid Schaumüller-Bichl und Edgar Weippl) statt. OCG Generalsekretär Ronald Bieber berichtete in seiner Begrüßung stolz, dass der Arbeitskreis heuer sein 30-jähriges Bestehen feiert. Die Bedrohungslage ändert sich laufend – aber das Thema Sicherheit ist heute aktueller den je.

R.Pucher, E.Weippl, I.Schaumüller-Bichl
R. Pucher, E. Weippl, I. Schaumüller-Bichl

Roland Pucher vom PwC Cybersecurity & Innovation Lab gab einen Überblick über die verschiedenen Bedrohungsakteure in der Cybercrime-Economy. 90% der Angriffe werden von organisierter Kriminalität, einem straff organisierten mafiösen Geschäftszweig, wie z.B. LockBit3.0, durchgeführt. Die Webseite von LockBit im Darknet ist wie ein professioneller Webshop aufgebaut, wo es neben Schadsoftware-Entwicklern und Franchisenehmern auch Marketing und Support gibt, bis hin zu Übersetzungsservice, falls ein Opfer Probleme mit der Lösegeldforderung auf Englisch hat.

Auch in der Cybercrime-Economy gibt es Konkurrenz und zielgruppenorientierte „Leistungen“. DeadBolt führt z. B. automatisierte Ransomware-Angriffe hauptsächlich auf Einzelrechner aus und verlangt kleinere Beträge zur Entschlüsselung, oft nur im dreistelligen Bereich.

Audio und Video Deepfakes

Wissen Sie, ob der Anrufer ist, wer er*sie vorgibt zu sein? Wenn maschinelles Lernen und KI verwendet wird, um digitale Medien (Videos, Bilder, Audioaufnahmen) zu manipulieren, spricht man von Deepfakes. Fake-Anrufe mit Voice Deepfakes und Call ID Spoofing stellen eine große Bedrohung dar. Ebenso gibt es bereits Live Video Calls mit Gesichts- und Audio-Deepfake. Neben dem ökonomischen Schaden, der von Cyberkriminellen angerichtet wird, ist das größte Problem die Desinformation der Öffentlichkeit und die Beeinflussung der öffentlichen Meinung, was seit der Ukraine-Krise massiv zugenommen hat.

Es reichen wenige Minuten originale Bild- bzw. Tonaufnahmen und ein paar Tage Rechenzeit am Computer, um ausgezeichnete Ergebnisse zu erzielen. Je besser das Ausgangsmaterial und je länger die Rechenzeit, umso besser ist der Deepfake. Wie kann man Deepfakes erkennen? – (noch) schwer bis gar nicht. Pucher erklärte im Zuge der beeindruckenden Live-Vorführung, dass der Deepfake im vorgestellen Programm erkennbar ist, wenn die Gesichtsmarker unterbrochen werden (z. B. durch eine Handbewegung vor dem Gesicht)

Live-Vorführung von Deepfake
Live-Vorführung von Deepfake

Der Markt für Deepfake-Software ist sehr volatil. Die Produkte wandern – teilweise in Richtung Cybercrime-Economy und teilweise in den Behördenbereich und verschwinden dann vom Markt. Die Modelle kommen u. a. von (akademischen) Forschungsinstituten und auch aus der Gaming-Industrie, sehr stark auch aus dem asiatischen Raum.

Neben der Schulung von Awareness und der Einführung von Prüfprozessen in Unternehmen sind Zeit und Ressourcen notwendig, um die (automatisierte) Erkennung von Deepfakes voranzutreiben.

Im Anschluss an den Vortrag nutzten einige Gäste die Möglichkeit, das Deepfake-Tool von Roland Pucher auszuprobieren.