Wie kann man "Deepfakes" stoppen?
- Sara Farahmand-Nejad

- 26. Sept.
- 4 Min. Lesezeit
Aktualisiert: 27. Sept.
Die Künstliche Intelligenz bringt uns nicht nur Fortschritt, sondern kann auch gegen uns Menschen arbeiten. Dies wird besonders bei Deepfakes klar: täuschend echt manipulierte Bilder, Videos oder Tonaufnahmen. Sie können gezielt eingesetzt werden, um Menschen bloßzustellen, falsche Informationen zu verbreiten und sogar ganze Gesellschaften zu spalten.
Aus rechtlicher Sicht greifen dabei mehrere Bereiche gleichzeitig: das Urheberrecht und das Datenschutzrecht, wenn geschützte Inhalte verwendet werden, das Persönlichkeitsrecht bei Eingriffen in Identität und Ehre sowie neue EU-Regelungen , die speziell auf KI- und Plattformanbieter zielen.
Es ist wichtig, offen und verständlich über die Thematik zu sprechen, um auch Betroffene aufzuklären. Dabei ist es wichtig zu erklären, welche Rechte schützen und in welchem Bereich noch Lücken bestehen.
Täuschung erkennen
Grundsätzlich sind Deepfakes nicht per se illegal. Entscheidend ist die Nutzung: Werden sie ohne Zustimmung genutzt oder veröffentlicht, können sie geltendes Recht verletzen.
Nach der Legaldefinition in Art. 3 Nr. 30 KI-Verordnung (KI-VO) sind Deepfakes jeder von KI erzeugte oder manipulierte Bild-, Ton- oder Videoinhalt, der so echt wirkt, dass er Empfänger täuschen kann. Aus diesem Grund gilt ein Deepfake als potenziell irreführende oder rechtsverletzende Information.
Praktisch bedeutet das: Liegt eine solche Täuschung vor, können typische Ansprüche wie Unterlassung, Löschung oder Schadensersatz nach dem BGB greifen.
Beispiel: Wird das Gesicht einer Person in ein kompromittierendes Video eingefügt und online geteilt, kann eine schwerwiegende Persönlichkeitsverletzung nach Art. 2 I i.V.m. Art.1 GG darstellen, die Unterlassungs- oder Geldentschädigungsansprüche nach sich ziehen kann.
Rechte der Betroffenen
Es gibt rechtliche Ansprüche, die greifen können.
Urheberrecht: Wird ein Deepfake aus urheberrechtlich geschütztem Material (z.B. Fotos, Videos, Musik) erstellt, können die Rechteinhaber Unterlassung und Schadensersatz verlangen.
Allgemeines Persönlichkeitsrecht Art. 2 I GG i.V.m. Art. 1 GG: Dieses schützt die Identität, Würde und Ehre einer Person. Deepfakes, die eine Person in einem falschen Licht zeigen, können dagegen verstoßen. Betroffene können Löschung, Unterlassung und gegebenenfalls Geldentschädigung verlangen.
Namensrecht gem. § 12 BGB: Wenn der Name einer Person in einem Deepfake missbräuchlich verwendet wird, kann auch dies eine Verletzung darstellen und gerichtliche Schritte ermöglichen.
Strafrecht: Herstellen und Verbreiten von Gewaltdarstellungen nach § 131 I Nr.1,2 StGB oder ggf. § 184a StGB. Verletzung des höchstpersönlichen Lebensbereichs und von Persönlichkeitsrechten durch Bildaufnahmen gem. § 201a I Nr.1, Nr.4, II StGB, sowie das Ausspähen von Daten ist strafbar gem. § 202 a I StGB.
Nach geltendem Recht gibt es Möglichkeiten, sich gegen Deepfakes zu wehren. Doch oft ist es für Betroffene mühsam, die Rechte durchzusetzen, vor allem wenn sich Inhalte sich schnell verbreiten und anonym erstellt werden.
Regulierung durch Plattformen und Gesetze
Seit dem Aufkommen KI-gestützter Manipulationen gibt es gesetzliche Regelungen auf EU- und nationaler Ebene, die Plattformen und Anbieter stärker in die Pflicht nehmen.
DSA (Digital Services Act):
Dieser verpflichtet große Online-Plattformen, täuschend echte Inhalte wie Deepfakes klar zu kennzeichnen und Meldefunktionen bereitzustellen. Nutzer*innen können dadurch leichter Fälschungen melden und Plattformen müssen daraufhin reagieren.
Beispiel: Durch das Melde- und Abhilfeverfahren gem. Art. 16 DSA müssen Plattformanbieter ein sogenanntes "Notice-and-Action-Verfahren" bereitstellen, sodass Nutzer rechtswidrige Inhalte melden können.
EU-KI-Verordnung (Al Act):
Nach dieser Verordnung müssen Unternehmen und Behörden Transparenzpflichten einhalten. Deepfakes müssen klar und deutlich als künstlich erzeugt oder manipuliert gekennzeichnet werden.
Beispiel: Durch die Art. 71 ff. Al Act wird die Marktüberwachung durch nationale Aufsichtsbehörden und die Sanktionen bei Verstößen geregelt.
Datenschutz-Grundverordnung (DSGVO):
Betroffene können Löschung verlangen, da bei Deepfakes personenbezogene Daten wie Gesichter oder Stimmen genutzt werden, ohne dass eine Einwilligung vorliegt.
Beispiel: Werden in einem Deepfake personenbezogene Daten wie Gesichter oder Stimmen ohne Einwilligung verarbeitet, können Betroffene ihr "Recht auf Vergessenwerden" nach Art. 17 DSGVO geltend machen. Hierfür ist der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI) zuständig.
§ 201b StGB (Entwurf):
Ein neuer Straftatbestand soll die "Verletzung von Persönlichkeitsrechten durch digitale Fälschung" unter Strafe stellen. Das Ziel ist es, den besonderen Unrechtsgehalt von Deepfakes strafrechtlich zu erfassen. Wer einen Deepfake erstellt oder verbreitet, der wie eine echte Bild- oder Tonaufnahme wirkt, verletzt damit das Persönlichkeitsrecht. Dafür sieht der Entwurf bis zu zwei Jahre Freiheitsstrafe oder Geldstrafe vor.
Der Gesetzesentwurf wird von der Bundesregierung und des Bundesministeriums der Justiz (BMJ) aufgrund der fehlenden Bestimmtheit des Gesetzes kritisiert. An manchen Stellen ist der Entwurf zu allgemein und setzt sich nicht tief genug mit den bestehenden zivilrechtlichen Ansprüchen auseinander, sodass die Norm keinen ausreichenden Schutz bietet. Der Entwurf liegt offiziell beim Bundestag zur weiteren Beratung.
Die Gesetze ergänzen sich als Gesamtpaket: Während der Al Act und der DSA vor allem Prävention und Transparenz sichern sollen, ermöglicht in Zukunft möglicherweise § 201b StGB (Entwurf) die strafrechtliche Verfolgung schwerer Verstöße.
Fazit: Ausblick und konkrete Maßnahmen
Deepfakes sind eine ernsthafte Herausforderung für Recht, Politik und Gesellschaft. Sie lassen sich nicht vollständig verhindern. Durch die Stärkung der Rechte der Betroffenen, klare gesetzliche Regelungen und Plattformverantwortung kann ihr Missbrauch eingedämmt werden. Ausschlaggebend ist, dass jeder Betroffene seine Rechte kennen muss, Beweise sichert und konsequent handelt. Gleichzeitig ist es für die Gesellschaft wichtig: Nur mit aufgeklärtem und kritischem Umgang mit digitalen Inhalten lässt sich verhindern, dass Deepfakes Vertrauen zerstören und die Gesellschaft spalten. Jedermann kann etwas dazu beitragen und transparent über das Thema sprechen und auffällige Inhalte hinterfragen.
Vollständig verhindern lassen sich Deepfakes nicht, aber ihr Missbrauch kann deutlich eingedämmt und sanktioniert werden durch:
Stärkung der Betroffenenrechte
Ausbau und konsequente Durchsetzung von Unterlassungs-, Löschungs- und Schadensersatzansprüchen (z.B. Art. 17 DSGVO).
Verbindliche Pflichten für Plattformen
Verpflichtung großer Online-Plattformen, Deepfakes schnell zu kennzeichnen, zu löschen und erneute Uploads zu verhindern (z.B. Art. 16 DSA).
Strafrechtliche Lücken schließen
Einführung eines eigenständigen Straftatbestands wie des geplanten § 201b StGB, um gezielte Deepfake-Manipulationen strafrechtlich zu erfassen.
Diese Regelungen sind ein wichtiger Schritt, reichen jedoch noch nicht aus. Besonders bei der schnellen Verbreitung anonymer Inhalte und der internationalen Verfolgung von Tätern besteht weiterer Handlungsbedarf. Dies kann durch bessere internationale Zusammenarbeit und vereinfachte Beweissicherung erreicht werden, die genau verhandelt werden müssen. Bis zu einem vollständigen Schutz ist es noch ein weiter Weg, doch Nichtstun und Stillstand würden das Problem nur verschärfen.
Die Inhalte dieses Beitrags dienen ausschließlich allgemeinen Informationszwecken und stellen keine Rechtsberatung dar.
Recht logisch: KI trifft Gesetz ist eine Reihe von PANTA, in der Sara Farahmand-Nejad, KI Fellow bei PANTA und angehende Juristin, die Rechtsfragen rund um Künstliche Intelligenz verständlich einordnet. Es geht um Haftung und Verantwortung, Datenschutz und Urheberrecht, um verschobene Normen, neue Grauzonen und anstehende Regulierung. Klar, kompakt, praxisnah: Was gilt, was kommt und was das für Unternehmen, Verwaltung und Alltag bedeutet.



