Die Cyberkriminalität erlebte in den vergangenen Jahren einen regelrechten Boom. Mit einem Plus von 119 Prozent hat sich die Zahl der sogenannten Deepfakes in Österreich von 2023 auf 2024 verdoppelt – das geht aus der kürzlich veröffentlichten KPMG-Studie zur "Cybersicherheit in Österreich" hervor.
Manipulierte visuelle und auditive Inhalte
Ein Deepfake ist ein Verfahren, das mithilfe von Künstlicher Intelligenz (KI) realistische, aber falsche oder manipulierte visuelle und auditive Inhalte erstellt. Dabei werden vor allem Videos oder Audios so bearbeitet, dass es den Anschein hat, als würde eine Person Dinge sagen oder tun, die sie in Wirklichkeit nie gesagt oder getan hat. Dies geschieht häufig durch den Austausch von Gesichtern in Videos.
Für viele Menschen ist es oft sehr schwierig, solche Fälschungen zu erkennen. Mit Deepfake-Tools kann man etwa künstliche Sprachaufnahmen erstellen, die sich kaum von der realen Stimme unterscheiden lassen. Sie können zur politischen Einflussnahme, Verbreitung von Fake News oder Begehung von Straftaten eingesetzt werden, führt das Bundeskriminalamt aus. Die Polizei erfasst im Rahmen eines Aktionsplans seit dem Vorjahr systematisch Deepfakes und wertet sie aus.
Deepfakes für Identitätsbetrug verwendet
Auf europäischer Ebene ist der Zuwachs dieses Phänomens noch deutlicher zu beobachten: Finanzinstitute sehen sich mit einer massiven Zunahme von Deepfake-Betrugsversuchen konfrontiert, die in den letzten drei Jahren um 2.137 Prozent zugenommen haben. Das ergeben Daten aus sieben Ländern aus dem am Donnerstag vorgestellten Signicat-Bericht "The Battle Against AI-Driven Identity Fraud". Der explosionsartige Anstieg lässt sich freilich auch damit erklären, dass die Technologie vor über drei Jahren noch nicht so weit entwickelt war wie heute.
Die Studie hebt hervor, dass die Deepfake-Technologie eine der häufigsten Arten von Identitätsbetrug im Finanz- und Zahlungsverkehrssektor in Europa geworden ist. Weil sich Deepfakes sehr schnell weiterentwickeln, müssen Unternehmen aller Branchen ihre Sicherheitsstrategien überdenken, um sich vor einer der schwerwiegendsten Formen des Identitätsbetrugs effektiv zu schützen.
Fake-Promis werben mit vermeintlichen Investitionen
Mit der rasanten Entwicklung bei KI-Tools dürften Deepfakes künftig eine immer größere Gefahr für Unternehmen werden. "Vor ein paar Jahren war Voice Cloning (Kopie der eigenen oder fremden Stimme, Anm.) noch etwas für absolute Spezialisten und die Qualität oft fraglich", erklärte Tom Alby, zuständig für die digitale Transformation bei Allianz Trade in Deutschland, Österreich und der Schweiz. "Heute gibt es das dank KI-Tools quasi auf Knopfdruck 'von der Stange'." Das eröffne Betrüger:innen ganz neue Horizonte, denn "sie brauchen immer weniger Skills für wirklich gut gemachte Angriffe". Die größte Schwachstelle bei Cyberangriffen sei Fachleuten zufolge der Mensch.
Die Anzahl an Finanzbetrügen nehme unter anderem deshalb zu, weil da die Betrügerinnen und Betrüger zu den ersten gehören, würden, die "neue Technologien aufgreifen und sich für illegale Zwecke zunutze machen", gab die Finanzmarktaufsicht (FMA) bekannt. So kam es 2024 auch vermehrt zu sogenannten "Promi-Schmähs", wo die Betrugsopfer über soziale Netzwerke mittels Deepfake-Postings mit Prominenten, die angeblich mit Geheiminvestments reich geworden sind, kontaktiert werden. "Auch wenn ihre Methoden modern sind, die G'schichtln, mit denen sie ihre Opfer verführen, sind immer die gleichen. Hoher Gewinn bei geringem Risiko, geheime Anlagetricks, die die Banken nicht verraten", so die FMA.
Wie erkennt man Deepfakes?
Einen Deepfake von einem realen Medieninhalt zu unterscheiden, kann durchaus zur Herausforderung werden. Es gibt jedoch einige Indikatoren. Das Bundeskriminalamt informiert darüber, wie solche Gesichtsmanipulationen zu erkennen sind:
- Sichtbare Übergänge, etwa an der Naht rund um das Gesicht
- Verwaschene Konturen, wie bei Zähnen oder Augen
- Unnatürliche Mimik, unlogische Schatten oder Hintergründe
- fehlendes Blinzeln
- Häufige Merkmale von künstlich erzeugten Stimmen können einen metallischen Klang, eine unnatürliche Aussprache sowie eine monotone Stimmführung umfassen.
Mehrere Unternehmen und Universitäten arbeiten zudem an Tools, um Deepfakes zu erkennen. So gibt es etwa bereits Programme, die Bild-, Video- und Audiodateien überprüfen und einen Anhaltspunkt für den Wahrheitsgehalt der Datei liefern. Grundsätzlich gilt: Medieninhalte sollten kritisch hinterfragt werden, ob sie echt oder gefälscht sind. Laut der Watchblog-Plattform Mimikama sollten zudem starke Passwörter verwendet werden, um den Zugriff auf persönliche Konten zu verhindern, die für die Verbreitung von Deepfakes verwendet werden könnten.
Positive Deepfake-Anwendungen
Obwohl Deepfakes häufig mit negativen Schlagzeilen in Verbindung gebracht werden, gibt es auch positive Anwendungen der Technologie. In der Film- und Unterhaltungsindustrie können Deepfakes für verbesserte Spezialeffekte oder das Einbinden verstorbener Schauspieler:innen genutzt werden. Im Bildungsbereich bieten sie realitätsnahe Simulationen und Trainingsmöglichkeiten für die Medizin oder im Militär, um praxisnahes Lernen zu fördern. Zudem ermöglichen Deepfakes in der Sprach- und Übersetzungstechnologie authentische, lippensynchrone Übersetzungen von Videos, wodurch Inhalte in verschiedenen Sprachen zugänglicher werden.
(Quelle: salzburg24)