Bericht: KI-generierte Darstellungen von Kindesmissbrauch nehmen stark zu

Der aktuelle KI-Hype macht vor Kriminellen nicht halt, die im Darknet Missbrauchsbilder tauschen. Das zeigt ein britischer Bericht.

In Pocket speichern vorlesen Druckansicht 225 Kommentare lesen
Teddybär im Arm eines Kindes

(Bild: Pikul Noorod/Shutterstock.com)

Lesezeit: 2 Min.

Eine britische Kinderschutzorganisation hat tausende KI-generierte Darstellungen von Kindesmissbrauch entdeckt und warnt, dass solche Bilder das Internet überfluten können. Teilweise würden die Darstellungen so realitätsgetreu aussehen, dass sogar trainierte Experten keinen Unterschied zu echten Fotos mehr erkennen könnten und sie nach britischem Recht als echte Aufnahmen behandelt werden müssten. Außerdem seien die "schlimmsten Albträume" Realität geworden, weil die für die Erstellung verantwortlichen Kriminellen aus Fotos von echten Opfern von Kindesmissbrauch mithilfe von KI neue Bilder erstellen würden. Obendrein würden mit KI-Technik Darstellungen von Prominenten als Kinder generiert, an denen Missbrauch begangen wird.

Wie die Internet Watch Foundation (IWF) in einem am Mittwoch publik gemachten Bericht zusammenfasst, wurden allein im September in einem einzigen Darknet-Forum mehr als 11.000 KI-generierte Bilder vorgefunden und geprüft. Davon seien fast 3000 als gesetzeswidrig einzustufen. Über 2500 erschienen so realitätsgetreu, dass sie unter britischem Recht wie echte Missbrauchsdarstellungen behandelt werden müssten. Ein Fünftel davon würde unter die schlimmste Kategorie von Missbrauchsdarstellungen fallen, über die Hälfte KI-generierte Kinder im Alter von sieben bis zehn Jahren zeigen. Mehr als 140 dieser "Pseudofotografien" hätten kleinere Kinder gezeigt, zwei sogar Babys.

Wie die Organisation weiter ausführt, könnten die Kriminellen hinter solchen Darstellungen inzwischen alle dafür nötigen Werkzeuge legal aus dem Internet herunterladen. Offline könnten sie dann so viele Bilder erzeugen, wie sie wollen, ohne dass eine Entdeckungsgefahr besteht. Gleichzeitig existierten verschiedene Tools, um die dabei erzielten Ergebnisse weiter zu verbessern und genau solche Darstellungen zu generieren, die sie wünschen. Die Ausarbeitung und Verbreitung von Anleitungen dafür sei gegenwärtig kein Vergehen. Das könne man aber ändern, meint die IWF.

Besonders betont die Organisation, dass es die neue Technik erlaubt, auf Basis existierender Missbrauchsdarstellungen neue Bilder der Opfer zu erstellen. Das bedeute, dass die jetzt nicht mehr nur mit dem Wissen leben müssten, dass existierende Fotos irgendwo im Darknet weiter kursieren. Hinzu komme nun das Risiko, auf neue Aufnahmen zu stoßen, die nie gemacht wurden, erklärt IWF-Chefin Susie Hargreaves. Das sei kein hypothetisches Szenario. Man sehe bereits, dass solche Bilder entstehen. Außerdem weist die Organisation auf die Gefahr hin, dass die einsetzende Flut an solchen Bildern Strafverfolger überwältigen könnte und echten Opfern nicht geholfen wird – weil nach Opfern gesucht wird, die es gar nicht gibt.

(mho)