Umfrage-Ergebnisse

Erster Kontakt zu Kindesmissbrauchsdarstellungen oft im Kindesalter

Konsumenten von Missbrauchsdarstellungen Minderjähriger (CSAM) haben ihren ersten Kontakt zu solchen Bildern oder Videos oft selbst schon im Kindesalter. Darüber hinaus steigert der Konsum solcher Darstellungen das Verlangen, selbst mit potenziellen Opfern Kontakt aufzunehmen. Das sind am Donnerstag präsentierte Ergebnisse einer Umfrage der finnischen Kinderrechts-NGO Suojellaan Lapsia unter Interessenten im Darknet, die dort explizit nach solchem Material gesucht hatten.

red/Agenturen

Suojellaan Lapsia hatte bei Suchmaschinen im Darknet eine Page Redirection eingerichtet: Wer dort nach CSAM suchte, wurde auf eine anonymisierte Umfrageseite weitergeleitet, wie Studienleiterin Nina Vaaranen-Valkonen schilderte. Knapp 23.000 Rückmeldungen gab es dabei weltweit, 1.079 davon waren in deutscher Sprache. Damit waren die Antworten auf Deutsch die vierthäufigsten nach Englisch, Spanisch und Russisch.

„Wir sehen in der Studie, dass CSAM so verbreitet und leicht zu finden ist“, sagte Thomas Müller von dem weltweiten Kinderrechtsnetzwerk ECPAT zu den deutschsprachigen Ergebnissen. Oft seien erste Kontakte zu Missbrauchsdarstellungen Minderjähriger zufälliger Natur, bei der Suche nach Pornografie, aber nicht explizit nach CSAM. 42 Prozent von 742 Befragten gaben demnach an, dass sie beim ersten Kontakt mit CSAM 13 oder noch jünger waren. Weitere 29 Prozent waren demnach zwischen 14 und 17.

Müller zufolge gibt es einen „klaren Zusammenhang“ zwischen dem Konsum und dem gesteigerten Drang, selbst Missbrauchshandlungen an Minderjährigen vorzunehmen. Dasselbe gilt für die Häufigkeit des Konsums: Je öfter man sich CSAM ansieht, umso stärker ist das Verlangen, selbst mit Kindern in Kontakt zu treten und Missbrauchshandlungen zu setzen. Es gelte zu verhindern, „dass die Grenze vom Konsum zum aktiven Missbrauch überschritten wird“, sagte Müller.

Täter im „normalen“ Internet unterwegs

Die Täter gehen nach dem Konsum im Darknet über in das offene Web, weil Kinder nicht im Darknet unterwegs seien, sagte Vaaranen-Valkonen. Sie machte auch darauf aufmerksam, dass die Auswertung der deutschsprachigen Antworten darauf hindeutet, dass dieses Verlangen, nach dem Konsum selbst aktiv zu werden, unter Deutsch sprechenden Menschen deutlich ausgeprägter als im internationalen Durchschnitt ist.

Astrid Winkler, Geschäftsführerin von ECPAT Österreich, sagte, dass die Studie ein weiteres Argument „für unsere Position liefert. Uns ist es wichtig, dass Kinderschutz mindestens den Stellenwert bekommt, den andere Grundrechte haben“. Fakt sei, dass es eine eklatante Zunahme von Missbrauchsdarstellungen Minderjähriger im Web gebe. Eine Million solcher Darstellungen seien es 2014 gewesen, jetzt sei man bei 20 Millionen im europäischen Raum und 80 Millionen weltweit. „Ich weiß schon, dass die Zahlen oft in Frage gestellt werden, aber es ist mir egal, ob es 80, 40 oder eine Million Darstellungen sind“, sagte Winkler. Jede einzelne betreffe ein missbrauchtes Kind.

ECPAT Österreich unterstütze den Vorschlag einer Verordnung des Europäischen Parlamentes und des Rates aus dem Mai des Vorjahres, bei dem es um Vorschriften zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern geht. Es brauche zwar mehr Spezifizierung, sagte Winkler, aber grundsätzlich sehe man das positiv.

Prüfung von Tools und Technologien

Die Verordnung würde nicht beinhalten, Verschlüsselung in der Online-Kommunikation aufzuheben, erläuterte die ECPAT-Geschäftsführerin. Angestrebt wird die Prüfung existierender Tools und Technologien sowie deren Weiterentwicklung, um Privacy und Sicherheit nicht gegeneinander abzuwiegen, sondern nebeneinanderzustellen. Der Vorschlag der EU erlege den Serviceanbietern keine generelle Verpflichtung zur Überwachung auf. Diese sei durch den Digital Services Act (DSA) verboten. Die sogenannte Aufdeckungsanordnung käme nur in bestimmten risikobedingten Anlassfällen als letztes Mittel zum Tragen und muss laut Winkler von einem Gericht verfügt werden.

Martina Tschapka, Director Operations and Content Manager Online Child Safety bei t3k.ai, einem Unternehmen, das Lösungen, basierend auf künstlicher Intelligenz, zum Scannen von digitalen Daten anbietet, erklärte, wie Technologien zur Erkennung von CSAM funktionieren. Einerseits erkennt die Software sogenannte Hashwerte von Daten. Abgeglichen wird mit entsprechenden Datenbanken, um so herauszufinden, ob die Darstellungen schon bekannt sind. Ähnlich - also mit vorhandenen Datenbanken - funktioniert ein System, bei dem es um die sogenannte Foto-DNA geht. Damit werden auch leicht veränderte Darstellungen erkannt. Und nicht zuletzt hilft die Künstliche Intelligenz bei unbekanntem Material, die bestimmte Muster erkennt.

Letztlich gehen Verdachtsmeldungen dann aber nicht direkt an die Strafverfolgungsbehörden, sondern es wird ein Review dieser Treffer stattfinden. „Um falsch positive Treffer auszuschließen“, betonte Tschapka.