Mastodon und die Kinderpornos
Problem oder Propaganda?
Da gehen gerade Meldungen herum, wonach auf Mastodon überproportional viele Artikel mit Kindesmissbrauch und Kinderpornographie zu finden seien. Beispielsweise Golem: Erschreckend viel CSAM auf Mastodon entdeckt
(CSAM = Child Sexual Abuse Material)
Wie The Verge berichtet, untersuchte das Forscherteam zunächst nur die 25 beliebtesten Mastodon-Instanzen auf entsprechende Inhalte. Die Forscher griffen für ihre Untersuchungen mitunter auf Werkzeuge wie PhotoDNA und die Safesearch-API von Google zurück. Sie identifizierten auf den untersuchten Instanzen insgesamt 554 Beiträge, die Hashtags oder Schlüsselwörter enthielten, die häufig im Zusammenhang mit über das Internet verbreitetem sexuellem Kindesmissbrauch zum Einsatz kommen.
Ferner fand das Team verteilt auf das gesamte Fediverse “112 Treffer für bekanntes Material über sexuellen Kindesmissbrauch”. Hinzu kamen 713 Beiträge mit Medieninhalten sowie 1.217 reine Textbeiträge, die mindestens einen der 20 am häufigsten genutzten CSAM-bezogenen Hashtags enthielten. Wie die Forscher in einem Blogbeitrag erklären, haben sie “die CSAM-Treffer an das Nationale Zentrum für vermisste und ausgebeutete Kinder” gemeldet.
Gegenüber der Washington Post erklärte einer der Studienautoren, sein Team habe “in einem Zeitraum von zwei Tagen mehr PhotoDNA-Treffer erhalten, als wir wahrscheinlich in der gesamten Geschichte unserer Organisation bei der Durchführung von Social-Media-Analysen hatten”.
Da stelle ich mir die Frage, ist es
- Eher zutreffend und eine Folge des Umstandes, dass Mastodon stark links besetzt ist, weil viele Linke Twitter verlassen haben, seit Musk Twitter gekauft hat, und Pädophilie unter Linken weit verbreitet ist,
- oder wird es künstlich aufgebauscht, weil man ein Problem damit hat, dass man plötzlich ein dezentrales Social Media-System hat, das man nicht mehr überwachen, filtern, zensieren, sperren kann, und deshalb wieder einmal der alte Zensurrammbock Kinderpornos herhalten muss?
Für letzteres spräche
Vor diesem Hintergrund kamen die Stanford-Forscher zu dem Schluss, “dass die Sicherheit von Kindern in dezentralisierten sozialen Netzwerken ein Problem darstellt und eine gemeinsame Antwort erfordert”. Bestehende Instrumente zur Bekämpfung von CSAM seien bisher auf zentral verwaltete Dienste zugeschnitten. Hier sei eine Anpassung an dezentrale Plattformen wie Mastodon erforderlich, um die Verbreitung dieser Inhalte eindämmen zu können.
Was, auf Deutsch gesagt, nichts anderes bedeutet als dass man Überwachungs- und Zensurmaßnahmen in Mastodon einbauen will.