VG-Wort Pixel

Die Gefahr von Deepfake-Videos Herzogin Meghan kursiert als Pornostar im Netz

Herzogin Meghan
Herzogin Meghan
© Samir Hussein / WireImage / Getty Images
Herzogin Meghan rekelt sich halbnackt vor der Kamera und die spanische Thronfolgerin tanzt ausgelassen auf TikTok: In den letzten Monaten sorgen regelmäßig unpassende Videos im Netz für Aufsehen. Doch was steckt dahinter?

Wie viele grausame und dunkle Ecken es im Internet gibt, ist schon längst kein Geheimnis mehr. Jener Ort, der für so viel Fortschritt steht, wird zunehmend von Hass und Hetze beherrscht. Das geht auch an vielen Prominenten und Mitgliedern der Königsfamilien nicht spurlos vorbei. Doch neben Beleidigungen, Fake-News und Hass-Nachrichten mischen sich seit einiger Zeit sogenannte Deepfake-Videos, die Menschen des öffentlichen Lebens in vermeintlich intimen oder pikanten Situationen zeigen.

Herzogin Meghan wird als Pornostar inszeniert 

So kursierte vor einigen Wochen ein Clip auf TikTok, der angeblich die spanische Thronfolgerin Prinzessin Leonor ausgelassen tanzend zeigen sollte. Viele spanischen Medien nahmen an, dass es sich tatsächlich um die 16-Jährige handelte, nur um wenig später zurückzurudern und den Schwindel aufzuklären. Ähnlich geht es Herzogin Meghan, 41: Dubiose Twitter-Accounts verbreiten seit geraumer Zeit Videos, die sie als vermeintliche Pornodarstellerin zeigen. Pikante Aufnahmen, die nicht nur Familie Sussex, sondern auch das britische Königshaus mächtig stören dürften.

"Bekannte Persönlichkeiten sind ein leichtes und attraktives Ziel für Deepfakes"

Doch wie schaffen es User:innen, diese Videos zu erstellen und damit den Ruf der Betroffenen gehörig anzukratzen? GALA hat beim Fraunhofer-Institut für Digitale Medientechnologie nachfragt und Antworten von den Audioforensikern und Deepfake-Experten Luca Cuccovillo und Patrick Aichroth bekommen.

GALA: Wie einfach ist die Deepfake-Technologie? Wie kommt man an die nötigen Tools?
Luca Cuccovillo und Patrick Aichroth: Die Software zur Erstellung von Deepfakes ist online verfügbar und kann grundsätzlich von allen Personen mit Programmierkenntnissen und einem Verständnis der technischen Funktionsweise verwendet werden – eine Suche bei Google reicht aus, um viele Software-Varianten zu finden. Für die Erstellung von Deepfakes sind allerdings auch Sprach- und Bild-/Videomaterial der Zielperson erforderlich: Die Menge und die Qualität der Inhalte, die zum Trainieren eines Deepfakes zur Verfügung stehen, bestimmen dabei auch die Qualität der Ergebnisse und machen die Erstellung wirklich überzeugender Deepfakes derzeit immer noch zu einer anspruchsvollen Aufgabe. Inhalte von durchschnittlicher/geringer Qualität lassen sich leicht erstellen, hochwertige Ergebnisse erfordern immer noch den Einsatz von relativ viel Zeit und Ressourcen. Da Software zur Erstellung aber laufend weiterentwickelt wird, nimmt die Komplexität der Aufgabe immer mehr ab.

Wer ist besonders gefährdet?
Wie bereits erwähnt, werden für die Erstellung von Deepfakes Audio- und Bildinhalte der Zielperson benötigt. Daher sind Politiker, Schauspieler und bekannte Persönlichkeiten mit vielen im Internet verfügbaren Medien ein leichtes und attraktives Ziel für Deepfakes, die für Satire oder Desinformation erstellt werden. Ebenso geben Privatpersonen, die viele Inhalte in den sozialen Medien hochladen, ein besseres Ziel ab als weniger aktive Personen. Eine spezielle Technik zur Erstellung von Deepfakes, das sogenannte "Face Swapping", besteht darin, das Gesicht in einem Originalvideo durch das Gesicht des Opfers zu ersetzen. Dies wird häufig zur Erstellung pornografischer Fake-Videos missbraucht, und die meisten Opfer dieser Deepfakes sind Frauen. Allerdings könnte sich die Gefährdungslage in den kommenden Jahren noch deutlich ändern, weil Phishing, Betrug und Rufmord vermutlich zunehmen werden, und das wird auch Verschiebungen bei den betroffenen Personengruppen zur Folge haben.

Was wollen Ersteller:innen mit den Videos erreichen? Ist das für viele "nur ein Spaß"?
Es gibt viele positive Anwendungen für Deepfakes. So kann die Filmindustrie Deepfakes bei Stunts einsetzen oder eine Schauspielerin eine Rolle in mehreren Sprachen mit ihrer eigenen Stimme spielen lassen. Sie können zum Beispiel auch eingesetzt werden, um sprachgeschädigten Menschen, die ihre Stimme verloren haben, wieder eine Stimme zu geben. Im Dali-Museum begrüßt der berühmte Maler (mit Zustimmung seiner Verwandten!) die Besucher an einer interaktiven Station. Wie jede Technologie können Deepfakes aber eben auch missbraucht werden. Zum Beispiel, um einen Politiker fremdenfeindliche oder diskreditierende Aussagen machen zu lassen. Oder um mit einem Video, in dem ein Ehepartner angeblich fremdgeht, Geld zu erpressen. Oder um jemandem eine Straftat anzuhängen, die es nie gegeben hat. Die Motivation kann von Einschüchterung über Erpressung und Rufmord bis hin zur öffentlichen Panikmache reichen, der Fantasie sind hier kaum Grenzen gesetzt.

Wie entlarvt man Deepfake-Inhalte?
Die Erkennung von Deepfakes ist ein Thema, an dem viele Forscher arbeiten. Einige Verfahren können mit automatischer Software erkannt werden, andere eher durch sorgfältige Prüfung des Inhalts: Deepfakes sind (noch) nicht perfekt und können Spuren hinterlassen – zum Beispiel das Fehlen eines Augenzwinkerns, falsche Brillenreflexe, unnatürliche Lippenbewegungen. In Zukunft wird sich die Deepfake-Technologie jedoch weiterentwickeln und immer weniger oder gar keine sichtbaren Spuren mehr hinterlassen. Wenn dies der Fall ist, werden technische Werkzeuge zur Erkennung unabdingbar sein. In jedem Fall ist ein wichtiger Faktor ein entsprechendes Bewusstsein der Menschen: Wir sollten, bevor wir Inhalte weitergeben oder einem Video aufgrund unserer Gefühle Glauben schenken, immer zweimal über den Inhalt nachdenken und uns fragen, ob das, was wir sehen und hören, glaubwürdig ist: Ist die Quelle vertrauenswürdig? Wann/war/und wie wurde das Video aufgenommen? Wenn diese Informationen nicht kommuniziert werden, sollten wir besonders vorsichtig sein. Und ganz besonders kritisch sollten wir gerade dann sein, wenn wir etwas gerne glauben möchten, denn genau dann sind wir besonders anfällig für Täuschungen.

Wie können sich Opfer wehren? 
Die Opfer können rechtliche Schritte gegen die Ersteller einleiten, wenn die Inhalte in unzulässiger Absicht verwendet werden und wenn die Täter bekannt sind – zum Beispiel Diffamierung, Erpressung, sexueller Missbrauch. Viele Plattformen erlauben die Löschung von Inhalten auf Antrag des Opfers – einschließlich Google, was die in der Suchmaschine angezeigten Ergebnisse betrifft. Uns sind keine Gerichtsverfahren bekannt, die an die Öffentlichkeit gelangt sind, aber wir wissen, dass die EU einen ersten Vorschlag zur Regulierung des Einsatzes von KI – einschließlich Deepfakes – vorgelegt hat, der letztendlich zu einer einheitlichen Gesetzgebung in ganz Europa führen sollte.

Verwendete Quellen: tiktok.com, twitter.com, Fraunhofer-Institut für Digitale Medientechnologie

aen Gala

Mehr zum Thema

Gala entdecken