Autorin: Isabella María Eikel
Datum: 26.11.2024
Kategorie: Vorträge

Von witzigen Bildern von Papst Franziskus in einer riesigen weißen Pufferjacke mit päpstlichem Kruzifix bis hin zur Bekämpfung von Betrügern durch O2s „Oma Daisy“ – Deepfakes sorgen für Aufruhr in sozialen Medien. Jedoch ist dies nicht immer so witzig, wie es erscheinen mag. Ernster wird es, wenn täuschend echte Videos durch das Internet kursieren, in denen der ukrainische Präsident Volodymyr Selenskyj zur angeblichen Kapitulation aufruft oder prominente Persönlichkeiten wie Taylor Swift in pornografischen Szenen dargestellt werden. Solche Inhalte sind nicht nur moralisch verwerflich, sondern werfen auch dringende rechtliche Fragen auf: Wie verhält es sich mit der Strafbarkeit von Deepfakes? Und wie kann das Recht auf die sich rasant entwickelnde Technologie reagieren?

Am 26.11.2024 brachte uns Yusef Mansouri genau diese Thematik näher. Yusef Mansouri ist Wissenschaftlicher Mitarbeiter am Lehrstuhl für Strafrecht, Strafprozessrecht und IT-Strafrecht von Prof. Dr. Christian Rückert an der Universität Bayreuth. Er promoviert im Bereich des Strafprozessrechts und forscht insbesondere zur Beweiserhebung digitaler Daten. In seinem Vortrag thematisierte er die Strafbarkeit von Deepfakes, erklärte uns dabei die technischen Grundlagen und verschaffte einen Überblick aktueller Reformüberlegungen.

Die Vielseitigkeit von Deepfakes

Deepfakes sind KI-generierte Bild-, Ton- oder Videoaufzeichnungen von realen Personen, Orten, Gegenständen oder Ereignissen, die fälschlicherweise als echt wahrgenommen werden. Dabei unterscheidet man zwischen verschiedensten Arten, wie Face Swapping, Face Reenactment, Talking Face Generation oder Facial Attribute Editing. Sie finden in vielen Bereichen Anwendung – sowohl in problematischen als auch in nützlichen Kontexten. Häufig stehen ihre negativen Einsatzmöglichkeiten im Vordergrund: Deepfakese werden für die Verbreitung von Fake News und politischer Propaganda, der Verletzung von Persönlichkeitsrechten oder betrügerischem Handeln verwendet. Doch gibt es auch positive und innovative Anwendungen, die nicht übersehen werden sollten. So werden Deepfakes beispielsweise in der Kunst, Satire und sogar im medizinischen Bereich genutzt. Darunter fallen u.a. Text-to-Speech-Modelle, die Menschen ohne Stimme eine neue Möglichkeit der Kommunikation eröffnen. Deepfakes bekommen aber vornehmlich im rechtlichen Bereich mehr Bedeutung: Durch diese können verdeckte Ermittlungen unterstützt werden, indem sie glaubwürdige Identitäten und Vertrauensverhältnisse schaffen, aber auch Zugang zu kriminellen Netzwerken ermöglichen. Zugleich Gefährdung als auch Werkzeug – sie stellen ein technologisches Potential voller Herausforderungen und Chancen dar.

Fake it till you make it – Generator vs. Discriminator

Die Herstellung von Deepfakes basiert auf einem dynamischen Wechselspiel zwischen zwei miteinander konkurrierenden Netzwerken: dem Generator und dem Discriminator. Diese sind Teil eines größeren Generative Adversarial Networks (GAN), einem speziellen deep learning Konstrukts. Der Generator wird mit random input noise trainiert und erzeugt dabei Bilder, welche an den Discriminator gesendet werden. Dieser vergleicht die generierten Bilder mit der Realität und gibt eine Fehlermeldung zurück, sofern er Abweichungen erkennt. Ziel ist den Discriminator so weit zu überlisten, dass dieser die Deepfakes nicht mehr von der Realität unterscheiden kann. Dieser Zustand wird als Discriminator Loss bezeichnet.

Deepfakes im rechtlichen Kontext

Deepfakes betreffen vor allem das Allgemeine Persönlichkeitsrecht (APR), insbesondere in seiner Ausprägung des Rechts am eigenen Bild. Der Rechtsprechung zufolge schützt das APR auch „vor der Verbreitung eines technisch manipulierten Bildes, das den Anschein erweckt, ein authentisches Abbild einer Person zu sein“ [BVerfG, Beschl. v. 14.2.2005 – 1 BvR 240/04 -, Rn. 11]. Daher fallen nicht nur Originalbilder, sondern auch manipulierte Bilder unter den verfassungsrechtlich geschützten Bereich des APRs. Im Zivilrecht findet das APR Schutz durch Unterlassungs- und Beseitigungsansprüche sowie Schadensersatzansprüche, etwa gem. §§ 1004 I, 823 I, 823 II BGB. Darüber hinaus können ähnliche Ansprüche im Urheberrecht, § 17d iVm §§ 14, 23 UrhG, und im Datenschutzrecht, §§ 17d, 82 DSGVO, geltend gemacht werden. Plattformbetreiber können im Wege der Intermediärhaftung und einem Notice-and-Take-Down Verfahren für die Verbreitung von Deepfakes verantwortlich gemacht werden. Solche rechtlichen Instrumente bieten vielversprechende Möglichkeiten zum Schutz des APRs. Allerdings zeigt sich die praktische Durchsetzung in der digitalen Welt aufgrund der Anonymität im Internet als besonders herausfordernd.

„Deepfakes werden durch das Strafrecht nur lückenhaft erfasst!“ – Oder?

Nun zu dem zentralen Rechtsgebiet des Vortrags – das Strafrecht. Das deutsche Strafrecht hat bislang keinen eigenen Straftatbestand für Deepfakes. Dennoch berühren sie verschiedenste strafrechtliche Bereiche, wobei nicht alle problemlos eine Strafbarkeit begründen können.

Bereits im Wahlstrafrecht (§§ 107 ff. StGB) zeigt sich deutlich, dass politisch motivierte Deepfakes schwer zu erfassen sind. Die Wahltäuschung nach § 108a StGB bezieht sich ausschließlich auf den Zeitpunkt des Wahlakts selbst und nicht auf die Vorfeldphase, in der Deepfakes als Propaganda oder Fake News hauptsächlich verbreitet werden. Eine Ausweitung des Tatbestandes auf diese Phase würde einen erheblichen Eingriff in die geschützte Willensbildung darstellen. Auch bei den Ehrdelikten (§§ 185 ff. StGB) scheitert es meistens schon am Tatbestand. Delikte wie §§ 185, 186 StGB konzentrieren sich auf den Inhalt konkreter Aussagen oder Darstellungen. Ob ein Deepfake als strafbare Beleidigung oder üble Nachrede auszulegen ist, hängt daher stets vom Einzelfall ab. Problematisch wird es ebenfalls bei den Straftaten gegen den persönlichen Lebens- und Geheimbereich (§§ 201 ff. StGB). § 201 StGB schützt keine synthetisch generierten Worte, lediglich unmittelbare Tonaufzeichnungen. Ähnliches gilt für § 201a StGB, welcher nur echte Bildaufnahmen schützt. Zwar sind KI-generierte Aufnahmen im zweiten Absatz des § 201a StGB einbezogen, sanktioniert wird hier aber nur die Verbreitung solcher Aufnahmen, nicht aber deren Herstellung.

Anders verhält es sich bei den Straftaten gegen die sexuelle Selbstbestimmung (§§ 174 ff. StGB), insbesondere bei §§ 184b und 184c StGB. Hier sind sowohl der Besitz, die Herstellung und Verbreitung jeglicher kinderpronographischer – einschließlich KI-generierter – Inhalte strafbar. Ein vergleichbarer Schutz für Erwachsene besteht nicht. Erdenklich wäre eine Strafbarkeit über § 201a StGB, wobei sich dabei die bereits angebrachten Problematiken wieder stellen. Im Bereich der Betrugstatbestände (§§ 263 ff. StGB) spielen Deepfakes eine bedeutende Rolle, da sie als wirksames Täuschungsmittel eingesetzt werden können. Ein Beispiel ist die Täuschung durch Video-Ident-Verfahren, bei der Opfer durch vermeintlich legitimierte Identitäten zu Vermögensverfügungen verleitet werden. Nennenswert sind die sogenannten CEO-Fraud Fälle. Im Nebenstrafrecht fällt man durch die Verbreitung von Deepfakes schnell in das Urheberrecht. Werden Gesichtszüge anderer Menschen für Bild- oder Videoaufzeichnungen verwendet, ist auch unmittelbar das Datenschutzrecht betroffen, zumal es sich dabei um personenbezogene Daten handeln. Jedoch kann es im Datenschutzrecht bei der Strafbarkeit oftmals am Schädigungsvorsatz scheitern.

Zusammenfassend ist festzustellen, dass Deepfakes als solche selten unmittelbar strafbar sind. Die Strafbarkeit verteilt sich nämlich zum einem auf die Herstellung und zum anderen auf die Verbreitung. Dabei wird vor allem die Verbreitung durch Strafvorschriften sanktioniert.

Aktuelle Reformüberlegungen

Die Notwendigkeit der Einführung der neuen Strafnorm § 201b StGB ist weit umstritten. Durch diese sollen Persönlichkeitsverletzungen, die speziell durch Deepfakes vorgenommen werden, mit einer Freiheitsstrafe von bis zu zwei Jahren geahndet werden. Die Strafbarkeit begrenzt sich dabei ebenfalls nur auf die Verbreitung, nicht auf die Herstellung. Gegen eine solche Neueinführung spricht, dass bestehende Strafnormen – wie oben dargelegt – bereits Strafmöglichkeiten bieten. Zudem bestehen Zweifel an der Vereinbarkeit mit dem Bestimmtheitsgebot, da die in § 201b StGB formulierten Anforderungen an die Verletzung des Persönlichkeitsrechts zu ungenau seien. Dies könnte u.a. zu einer Einschränkung der Meinungs- und Pressefreiheit sowie der Wissenschafts- und Kunstfreiheit führen.

Yusef Mansouri hat sich ebenfalls zu einer strafrechtlichen Lösung kritisch geäußert.  Es sei wichtig, bei der Regulierung von Grund auf anzusetzen. Maßnahmen wie die Erlassung der KI-Verordnung seien sinnvoll, um etwa durch Kennzeichnungspflichten KI-generierter Inhalte die Bevölkerung zu sensibilisieren. Er betonte, dass die zentrale Problematik im Umlauf von Deepfakes liege. Daher sei es wichtig, Methoden zu entwickeln, die eine frühzeitige Erkennung KI-generierter Aufnahmen und Aufzeichnungen ermöglichen. Solche Systeme sind wiederrum selbst KI-basierend, sodass dem Wettstreit zwischen Generator und Discriminator eine ganz neue Bedeutung zukommt.

Wir bedanken uns ganz herzlich bei Yusef Mansouri für den spannenden und anregenden Vortrag über ein so aktuelles und relevantes Thema.

© 2024 Bayreuther Initiative für Legal Tech e.V.