True Crime TikTok: KI-Deepfake-Opfer sind ein wacher Albtraum
HeimHeim > Blog > True Crime TikTok: KI-Deepfake-Opfer sind ein wacher Albtraum

True Crime TikTok: KI-Deepfake-Opfer sind ein wacher Albtraum

Oct 11, 2023

Von Ej Dickson

„Oma hat mich in einem Ofen bei 230 Grad eingesperrt, als ich gerade 21 Monate alt war“, sagt das engelhafte Baby mit riesigen blauen Augen und einem geblümten Haarreif im TikTok-Video. Das Baby, das mit einer bezaubernd kindlichen Stimme zur klagenden Melodie von Dylan Mathews „Love Is Gone“ spricht, identifiziert sich als Rody Marie Floyd, ein kleines Mädchen, das mit ihrer Mutter und Großmutter in Mississippi lebte. Sie erzählt, dass sie eines Tages hungrig war und nicht aufhören wollte zu weinen, was ihre Großmutter dazu veranlasste, sie in den Ofen zu stellen, was zu ihrem Tod führte. „Bitte folgen Sie mir, damit mehr Menschen meine wahre Geschichte erfahren“, sagt das Baby am Ende des Videos.

Das Baby in dem Video ist natürlich nicht real: Es ist eine KI-generierte Schöpfung, die auf @truestorynow gepostet wurde, einem Konto mit fast 50.000 Followern, das Videos von echten Opfern von Straftaten postet, die ihre Geschichten erzählen. Die grausame Geschichte, die sie erzählt, ist wahr, wenn auch bis zu einem gewissen Grad. Der Name des Babys war nicht Rody Marie, sondern Royalty Marie, und es wurde 2018 erstochen und in einem Ofen im Haus ihrer Großmutter in Mississippi verbrannt aufgefunden; Die Großmutter, die 48-jährige Carolyn Jones, wurde Anfang des Jahres wegen Mordes ersten Grades angeklagt. Doch als sie starb, war Royalty 20 Monate alt, nicht 21, und anders als das Baby im TikTok-Video war sie schwarz und nicht weiß.

Solche Ungenauigkeiten sind in der grotesken Welt von TikTok, einem Subgenre des riesigen True-Crime-Fandoms, das künstliche Intelligenz nutzt, um Mordopfer, darunter viele kleine Kinder, praktisch wiederzubeleben, an der Tagesordnung. In den Videos, von denen einige millionenfach angeschaut wurden, spricht ein Opfer in der Ich-Perspektive über die grausamen Details seines Todes; Die meisten von ihnen enthalten keine vorherige Inhaltswarnung.

„Sie sind ziemlich seltsam und gruselig“, sagt Paul Bleakley, Assistenzprofessor für Strafjustiz an der University of New Haven. „Sie scheinen darauf ausgelegt zu sein, starke emotionale Reaktionen auszulösen, weil es der sicherste Weg ist, Klicks und Likes zu bekommen. Es ist unangenehm anzusehen, aber ich denke, das könnte der Punkt sein.“

Viele der Konten haben einen Haftungsausschluss, der besagt, dass das Video keine echten Fotos von Opfern verwendet, um „die Familie zu respektieren“, wie es Nostalgia Narratives ausdrückt, ein Konto, das KI-Videos von wahren Verbrechensopfern mit 175.000 Followern veröffentlicht die Untertitel zu den Videos. Der Bericht erzählt nicht nur die Geschichten berühmter Opfer von Kindermorden wie Elisa Izquierdo, einem sechsjährigen Mädchen, das 1995 von ihrer missbräuchlichen Mutter ermordet wurde, und Star Hobson, einem Einjährigen, der 2020 von der Freundin ihrer Mutter ermordet wurde , aber auch erwachsene Mordopfer wie George Floyd und JFK. Keiner der Accounts, die Rolling Stone kontaktierte, reagierte auf Anfragen nach Kommentaren, aber die Tatsache, dass sie das Aussehen der Opfer verändern, ist wahrscheinlich auf die Richtlinien der TikTok-Community zurückzuführen, die Deepfake-Darstellungen von Privatpersonen oder Jugendlichen verbieten, eine Richtlinie, die die Plattform im März eingeführt hat . (Ein Sprecher von TikTok bestätigte gegenüber Rolling Stone, dass @truestorynow wegen Verstoßes gegen Community-Richtlinien entfernt wurde.)

Die Verbreitung dieser KI-Videos von Opfern echter Kriminalität auf TikTok ist die neueste ethische Frage, die sich aufgrund der immensen Beliebtheit des Genres echter Kriminalität im Allgemeinen stellt. Obwohl Dokumentarfilme wie „The Jinx“ und „Making a Murderer“ sowie Podcasts wie „Crime Junkie“ und „My Favourite Murder“ großen Kultstatus erreicht haben, stellen viele Kritiker des Genres die ethischen Implikationen in Frage, wenn das Publikum die realen Geschichten über schreckliche Übergriffe und Morde als reine Unterhaltung konsumiert , mit dem Aufkommen von Sesseldetektiven und wahren Kriminalbesessenen, die möglicherweise die Angehörigen der Opfer retraumatisieren.

Diese Sorge gilt in zweifacher Hinsicht für Videos wie das mit der Königsfamilie, die die Geschichte eines Opfers aus der Perspektive des Opfers erzählen und dessen Namen verwenden, vermutlich ohne Zustimmung der Familie, mit unglaublich gruseliger Wirkung. „So etwas hat echtes Potenzial, Menschen, die schon einmal Opfer waren, erneut zu Opfern zu machen“, sagt Bleakley. „Stellen Sie sich vor, Sie wären Eltern oder Verwandter eines dieser Kinder in diesen KI-Videos. Sie gehen online und mit dieser seltsamen, hohen Stimme sehen Sie hier ein KI-Bild [basierend auf] Ihrem verstorbenen Kind, das sehr detailliert beschreibt, was passiert ist ihnen passiert.

Die Erstellung von Deepfake-Videos birgt möglicherweise auch heikle rechtliche Probleme, fügt Bleakley hinzu und vergleicht den Aufstieg der KI-Videos über wahre Kriminalität mit der Beliebtheit von Deepfake-Pornos. Obwohl es kein Bundesgesetz gibt, das nicht einvernehmlich gefälschte Bilder und Videos illegal macht, haben sowohl Virginia als auch Kalifornien Deepfake-Pornografie verboten, und Anfang dieses Monats hat der Kongressabgeordnete Joe Morelle ein Gesetz vorgeschlagen, das die Verbreitung solcher Bilder sowohl zu einem Verbrechen als auch zu einer zivilrechtlichen Haftung für jemanden macht.

Deepfake-Videos über wahre Kriminalität unterscheiden sich aus offensichtlichen Gründen von Deepfake-Pornos, doch Bleakley könnte erkennen, dass trauernde Familien zivilrechtliche Schritte gegen die Ersteller solcher Videos einleiten wollen, insbesondere wenn sie monetarisiert werden, obwohl er anmerkt, dass dies für Familien schwierig wäre argumentieren mit der Begründung der Verleumdung aufgrund des Verstorbenen der Person. „Es ist eine sehr klebrige, trübe Grauzone“, sagt er.

Eines ist jedoch klar: Da sich die KI-Technologie jeden Tag rasant weiterentwickelt und es kaum bis gar keine Regulierung gibt, um ihre Verbreitung einzudämmen, stellt sich nicht die Frage, ob Videos wie diese populärer werden, sondern vielmehr, wie viel schlimmer die Ehe mit der Wahrheit ist Kriminalität und KI werden bekommen. Man kann sich leicht vorstellen, dass die Schöpfer echter Kriminalität nicht nur die Stimmen von „Mordopfern“ nachbilden können, sondern auch die blutigen Details von Verbrechen. „Das ist bei jeder neuen technologischen Entwicklung immer die Frage“, sagt Bleakley. „Wo wird es aufhören?“

Update Donnerstag, 31. Mai 2023, 16:15 Uhr: Diese Geschichte wurde mit weiteren Informationen aktualisiert, die verdeutlichen, warum @truestorynow von TikTok verbannt wurde.