Technik – Deepfakes: Der Audio- und Videomanipulation auf der Spur – Wissen

Startseite » Technik – Deepfakes: Der Audio- und Videomanipulation auf der Spur – Wissen
Technik – Deepfakes: Der Audio- und Videomanipulation auf der Spur – Wissen

Bonn/Berlin (dpa/tmn) – Es ist knifflig: Wir Menschen vertrauen vor allem bewegten Bildern und Stimmen intuitiv. Doch seit es möglich geworden ist, mit vergleichsweise wenig Aufwand und Fachwissen auch dynamische Medien wie Videos und Audioaufnahmen in hoher Qualität zu fälschen, hat ein Umdenken stattgefunden.

Die täuschend echten Fälschungen werden mithilfe künstlicher Intelligenz (KI) erstellt und sind beim normalen Hinsehen oder Hören kaum von echten Videos oder Sprachaufnahmen zu unterscheiden, warnt das Bundesamt für Sicherheit in der Informationstechnik (BSI), das die Technik prüft, verarbeitet , Gefahren und Gegenmaßnahmen auf einer neuen Themenseite erklärt.

Entstanden aus neuronalen Netzen

Die Fälschungen werden auch als Deepfakes bezeichnet, da die Methoden zu ihrer Erstellung auf tiefen neuronalen Netzen basieren.

Und wie schafft man es, nicht auf Deepfakes hereinzufallen? Allein das Wissen um ihre Existenz und die Möglichkeiten von KI hilft, der Authentizität von Videos oder Audioaufnahmen per se nicht mehr zu vertrauen. Stattdessen ist es immer wichtig, Aussagen und Plausibilitäten kritisch zu hinterfragen.

Technisch nicht immer perfekt

Aber auch technische Hinweise können Fälschungen entlarven. Dazu gehören laut BSI Artefakte in Gesichtsübergängen, unscharfe Konturen, eingeschränkte Mimik oder ungleichmäßige Belichtung in Videos. Metallischer oder monotoner Klang, falsche Aussprache oder unnatürliche Sprechweise, sowie unnatürliche Geräusche oder Verzögerungen sind typische Fehler beim Voice-Spoofing.

Künftig könnte es aber auch kryptografische Verfahren geben, die die Quelle von Video- oder Audiomaterial eindeutig mit einer Identität verknüpfen, das BSI gibt einen Ausblick, wie Deepfakes künftig verhindert werden könnten. Dazu gehörten auch zahlreiche Verfahren zur automatisierten Erkennung manipulierter Daten, an denen Wissenschaftler arbeiten.

© dpa-infocom, dpa:220211-99-82729/3