16. April 2025

Deepfakes: Ich mach mir die Welt, wie sie mir gefällt

Deepfakes_ Ich Mache Mir Die Welt Wie Sie Mir Gefällt

Ravensburg, im April 2025 – Die rasante Entwicklung der Deepfake-Technologie stellt Unternehmen vor neue Herausforderungen in der IT-Sicherheit. Wie sich Unternehmen vor Deepfakes, also künstlich erzeugte Medieninhalte, die für Betrug und Desinformation genutzt werden, effizient schützen können.

Deepfakes nutzen fortschrittliche Algorithmen, insbesondere Generative Adversarial Networks (GANs), um realistische Videos, Bilder und Audioaufnahmen zu erzeugen. Diese Technologie ermöglicht es, Gesichter in Videos zu ersetzen oder Stimmen zu imitieren, was zu einer Vielzahl von Sicherheitsrisiken führt. Es gibt verschiedene Arten von Deepfakes, die jeweils unterschiedliche Medien und Techniken nutzen:

Video-Deepfakes: Diese sind am bekanntesten und umfassen die Manipulation von Videos, um das Gesicht einer Person durch das einer anderen zu ersetzen. Dies wird oft mit Generative Adversarial Networks (GANs) erreicht, die realistische Ergebnisse liefern.

Beispiel: Ein Angreifer erstellt ein Deepfake-Video eines CEOs, in dem dieser scheinbar eine Anweisung gibt, eine große Geldsumme zu überweisen. Mitarbeiter, die das Video sehen, könnten glauben, dass die Anweisung echt ist und die Überweisung durchführen, was zu erheblichen finanziellen Verlusten führt.

Audio-Deepfakes: Auch als Voice Cloning bekannt, beziehen sich diese auf die Manipulation von Sprachaufnahmen. Hierbei wird die Stimme einer Person mithilfe von Deep-Learning-Algorithmen nachgebildet. Diese Technologie kann Tonfall, Betonung und Emotionen imitieren.

Beispiel: Ein Angreifer nutzt eine gefälschte Sprachaufnahme des CFO, um einen Mitarbeiter zu überzeugen, vertrauliche Informationen preiszugeben oder eine Überweisung zu tätigen. Die Stimme klingt so echt, dass der Mitarbeiter keinen Verdacht schöpft.

Bild-Deepfakes und textuelle Deepfakes

Bild-Deepfakes: Diese betreffen die Manipulation von Standbildern, bei denen Gesichter oder Hintergründe in Fotos verändert werden. Diese Technik wird häufig für gefälschte Profilbilder in sozialen Netzwerken oder für die Erschaffung fiktiver Charaktere verwendet.

Beispiel: Ein gefälschtes Profilbild eines vermeintlichen Geschäftspartners wird genutzt, um Ver-trauen zu gewinnen und Zugang zu sensiblen Unternehmensdaten zu erhalten. Dies kann zu Datenverlust und Sicherheitsverletzungen führen.

Textuelle Deepfakes: Diese umfassen die Erstellung von Texten, die von KI generiert wurden, um wie menschliche Kommunikation zu wirken. Diese Art von Deepfake kann für die Verbreitung von Fehlinformationen genutzt werden.

Beispiel: Ein gefälschter E-Mail-Thread, der scheinbar von einem hochrangigen Mitarbeiter stammt, wird genutzt, um andere Mitarbeiter zu manipulieren und vertrauliche Informationen preiszugeben oder finanzielle Transaktionen zu autorisieren.

Echtzeit- oder Live-Deepfakes: Diese ermöglichen es, in Echtzeit das Gesicht oder die Stimme einer Person zu verändern, was besonders für Live-Übertragungen oder Videokonferenzen gefährlich sein kann.

Beispiel: Während einer Videokonferenz wird das Gesicht eines Führungskräfte-Mitglieds durch das eines Angreifers ersetzt, der dann falsche Anweisungen gibt oder vertrauliche Informationen abfragt. Dies kann zu erheblichen Sicherheitsverletzungen und finanziellen Schäden führen.

Diese verschiedenen Arten von Deepfakes zeigen, wie vielseitig und potenziell gefährlich diese Technologie sein kann. Es ist wichtig, sich der verschiedenen Formen bewusst zu sein, um geeignete Schutzmaßnahmen zu ergreifen.

Informationssicherheit und Risikomanagement

Um sich gegen diese Bedrohungen zu schützen, müssen Unternehmen ihre Strategien für Informationssicherheit anpassen und verstärken. Dies umfasst mehrere Maßnahmen:

  • Erkennung und Prävention: Der Einsatz von KI-basierten Erkennungstools ist entscheidend, um Deepfakes zu identifizieren. Diese Tools analysieren Kommunikationsmuster und suchen nach Anomalien, die auf manipulierte Inhalte hinweisen. Regelmäßige Schulungen der Mitarbeiter zur Sensibilisierung für Deepfake-Bedrohungen sind ebenfalls wichtig.
  • Multi-Faktor-Authentifizierung (MFA): MFA bietet eine zusätzliche Sicherheitsebene, indem mehrere Verifikationsmethoden kombiniert werden. Dies erschwert es Angreifern, allein durch gefälschte Medien Zugang zu sensiblen Informationen zu erhalten.
  • Out-of-Band-Bestätigung: Diese Methode erfordert eine zusätzliche Bestätigung über einen unabhängigen Kommunikationskanal, um sicherzustellen, dass die Anweisungen authentisch sind. Dies kann helfen, Deepfake-Phishing-Versuche zu verhindern.
  • Risikomanagement: Unternehmen sollten eine  Risikomanagement-Lösung implementieren, das die Deepfake-Bedrohungen berücksichtigt. Dazu gehört die regelmäßige Bewertung der Sicherheitsmaßnahmen und die Anpassung der Strategien an neue Bedrohungen.

ZIP | 674 KB | inklusive Bildmaterial

Ihre Ansprechpartnerin

ADLON Speaker Sabrina Dür

Sabrina Dür

+49 751 7607‐715

sabrina.duer@adlon.de