KindesmissbrauchKindesmissbrauch

Der Videodienst „Reels“ von Instagram soll den Nutzern kurze Videos zu Themen zeigen, die das System für sie interessant findet, wie Sport, Mode oder Humor. Die Social-Media-App, die sich im Besitz von Meta befindet, tut dasselbe für Nutzer, bei denen der Algorithmus entscheidet, dass sie ein lüsternes Interesse an Kindern haben könnten, wie ein Test des Wall Street Journal ergab.

Übersetzt aus dem Englischen

Das Journal wollte herausfinden, was der Reels-Algorithmus von Instagram Testkonten empfehlen würde, die nur jungen Turnerinnen, Cheerleadern und anderen Influencern im Teenager- und Vorschulalter folgen, die auf der Plattform aktiv sind.

Das System von Instagram versorgte diese Testkonten mit schockierenden Dosen anzüglicher Inhalte, darunter gewagte Aufnahmen von Kindern sowie offenkundig sexuelle Videos für Erwachsene – und Werbung für einige der größten US-Marken. Das Journal richtete die Testkonten ein, nachdem es festgestellt hatte, dass sich unter den Tausenden von Anhängern solcher Jugendkonten häufig eine große Zahl erwachsener Männer befand und dass viele der Konten, die diesen Kindern folgten, auch ein Interesse an Sexinhalten für Kinder und Erwachsene gezeigt hatten. Das Journal testete auch, was der Algorithmus empfehlen würde, nachdem seine Konten auch einigen dieser Nutzer folgten, was zu verstörenderen, mit Werbung durchsetzten Inhalten führte.

In einer Reihe von Videos, die von Instagram empfohlen wurden, erschien eine Werbung für die Dating-App Bumble zwischen einem Video, in dem jemand das Gesicht einer lebensgroßen Latexpuppe streichelt, und einem Video, in dem ein junges Mädchen mit digital unkenntlich gemachtem Gesicht ihr Hemd hochhebt, um ihre Taille zu zeigen. In einem anderen Fall folgte auf eine Pizza-Hut-Werbung das Video eines Mannes, der auf einem Bett liegt und den Arm um ein 10-jähriges Mädchen gelegt hat, wie es in der Bildunterschrift hieß. Das kanadische Zentrum für Kinderschutz, eine Kinderschutzgruppe, führte unabhängig davon ähnliche Tests durch, die zu ähnlichen Ergebnissen führten.

Meta sagte, dass die Tests des Journals eine künstliche Erfahrung erzeugten, die nicht dem entspricht, was Milliarden von Nutzern sehen. Das Unternehmen lehnte es ab, sich dazu zu äußern, warum die Algorithmen Ströme von separaten Videos zusammenstellten, die Kinder, Sex und Werbung zeigten, aber ein Sprecher sagte, dass es im Oktober neue Markensicherheits-Tools eingeführt hat, die Werbetreibenden eine größere Kontrolle darüber geben, wo ihre Anzeigen erscheinen, und dass Instagram jeden Monat vier Millionen Videos, die im Verdacht stehen, gegen seine Standards zu verstoßen, entweder entfernt oder in ihrer Bedeutung reduziert.

Das Journal berichtete im Juni, dass Algorithmen von Meta, dem Eigentümer von Facebook und Instagram, große Gemeinschaften von Nutzern mit Interesse an pädophilen Inhalten verbinden. Der Meta-Sprecher sagte, dass eine Task Force, die nach dem Artikel des Journals eingerichtet wurde, ihre automatischen Systeme zur Erkennung von Nutzern, die sich verdächtig verhalten, erweitert hat und jeden Monat Zehntausende solcher Konten löscht. Das Unternehmen beteiligt sich auch an einer neuen Branchenkoalition, um Anzeichen für eine mögliche Ausbeutung von Kindern zu verbreiten.

Zu den Unternehmen, deren Anzeigen bei den Tests des Journals neben unangemessenen Inhalten erschienen, gehören Disney, Walmart, das Online-Dating-Unternehmen Match Group, Hims, das Medikamente gegen Erektionsstörungen verkauft, und das Wall Street Journal selbst. Die meisten Markenartikler verlangen, dass ihre Werbung nicht neben sexuellen oder expliziten Inhalten läuft.

„Unsere Systeme sind wirksam bei der Reduzierung schädlicher Inhalte, und wir haben Milliarden in Lösungen für Sicherheit und Markentauglichkeit investiert“, sagte Samantha Stetson, eine Meta-Vizepräsidentin, die für die Beziehungen zur Werbeindustrie zuständig ist. Sie sagte, dass die Prävalenz von unangemessenen Inhalten auf Instagram gering sei und dass das Unternehmen stark in deren Reduzierung investiere.

Nachdem das Journal die Unternehmen kontaktiert hatte, deren Anzeigen in den Tests neben unangemessenen Videos erschienen waren, sagten mehrere, dass Meta ihnen mitteilte, dass es eine Untersuchung durchführe und für die Überprüfung der Markensicherheit durch eine externe Firma zahlen würde.

Nach der als unbefriedigend empfundenen Reaktion von Meta auf die Beschwerden begann Match im Oktober damit, die Meta-Werbung für einige seiner Apps, wie z. B. Tinder, einzustellen. Seitdem hat das Unternehmen alle Reels-Werbung gestoppt und die Werbung für seine wichtigsten Marken auf einer der Meta-Plattformen eingestellt. „Wir haben kein Interesse daran, Meta dafür zu bezahlen, unsere Marken an Raubtiere zu vermarkten oder unsere Werbung in der Nähe dieser Inhalte zu platzieren“, sagte Justine Sacco, Sprecherin von Match.

Robbie McKay, ein Sprecher von Bumble, sagte, dass Bumble „niemals absichtlich in der Nähe von unangemessenen Inhalten werben würde“ und dass das Unternehmen seine Werbung auf Metas Plattformen einstellt.

Charlie Cain, Disneys Vizepräsident für Markenmanagement, sagte, das Unternehmen habe strenge Grenzen dafür gesetzt, welche Inhalte in den sozialen Medien für Werbung akzeptabel sind, und habe Meta und andere Plattformen dazu gedrängt, die Markensicherheitsfunktionen zu verbessern. Eine Unternehmenssprecherin sagte, dass das Unternehmen, seit das Journal seine Erkenntnisse an Disney übermittelt hat, daran arbeitet, das Problem auf „höchster Ebene bei Meta“ anzugehen.

Walmart lehnte eine Stellungnahme ab, und Pizza Hut reagierte nicht auf Bitten um einen Kommentar.

Hims sagte, dass es Meta drängen werde, solche Anzeigenschaltungen zu verhindern, und dass es die Zusage von Meta, an dem Problem zu arbeiten, als ermutigend betrachte.

Das Journal erklärte, es sei beunruhigt darüber, dass seine Anzeige neben einem Video mit einem offensichtlichen Sexualakt für Erwachsene erschien, und werde von Meta Maßnahmen fordern.

Meta hat Reels geschaffen, um mit TikTok zu konkurrieren, der Video-Sharing-Plattform des in Peking ansässigen Unternehmens ByteDance. Beide Produkte füttern die Nutzer mit einer ununterbrochenen Folge von Videos, die von anderen gepostet wurden, und verdienen Geld, indem sie Werbung dazwischen schalten. Die Algorithmen beider Unternehmen zeigen den Nutzern Videos, die nach den Berechnungen der Plattformen am ehesten dazu geeignet sind, den Nutzer auf der Grundlage seines bisherigen Sehverhaltens zu fesseln.

Die Reporter des Journal richteten die Instagram-Testkonten als Erwachsene auf neu erworbenen Geräten ein und folgten den Turnerinnen, Cheerleadern und anderen jungen Influencern. Die Tests zeigten, dass Instagram, wenn man nur den jungen Mädchen folgte, anfing, Videos von Konten zu zeigen, die für sexuelle Inhalte für Erwachsene warben, neben Anzeigen für große Verbrauchermarken, wie z. B. eine für Walmart, die nach einem Video einer Frau lief, die ihren Schritt entblößte.

Als die Testkonten dann einigen Nutzern folgten, die den Konten derselben jungen Leute folgten, lieferten sie sogar noch verstörendere Empfehlungen. Auf der Plattform wurde eine Mischung aus Erwachsenenpornografie und kindersexualisierendem Material angezeigt, z. B. ein Video, in dem ein bekleidetes Mädchen ihren Oberkörper streichelt, und ein weiteres, in dem ein Kind einen Sexualakt pantomimisch darstellt.

Experten für algorithmische Empfehlungssysteme sagten, dass die Tests des Journals gezeigt haben, dass Gymnastik zwar ein harmloses Thema zu sein scheint, Metas Verhaltensverfolgung aber erkannt hat, dass einige Instagram-Nutzer, die Mädchen im Teenageralter folgen, sich mit Videos beschäftigen wollen, in denen Kinder sexualisiert werden, und dann solche Inhalte an sie weiterleiten.

„Nischeninhalte liefern ein viel stärkeres Signal als Inhalte von allgemeinem Interesse“, sagte Jonathan Stray, leitender Wissenschaftler des Zentrums für menschengerechte künstliche Intelligenz an der University of California, Berkeley.

Derzeitige und ehemalige Meta-Mitarbeiter sagten in Interviews, dass die Tendenz der Instagram-Algorithmen, Inhalte zur Kindersexualisierung auf der gesamten Plattform zu sammeln, intern als Problem bekannt war. Sobald Instagram einen Nutzer als an einem bestimmten Thema interessiert einstuft, seien die Empfehlungssysteme darauf trainiert, ihm mehr verwandte Inhalte zu zeigen.

Um zu verhindern, dass das System Nutzern, die sich dafür interessieren, schädliche Inhalte vorschlägt, seien erhebliche Änderungen an den Empfehlungsalgorithmen erforderlich, die auch das Engagement für normale Nutzer fördern. Aus den vom Journal eingesehenen Unternehmensunterlagen geht hervor, dass es den Sicherheitsbeauftragten des Unternehmens weitgehend untersagt ist, Änderungen an der Plattform vorzunehmen, die die Zahl der täglich aktiven Nutzer um einen messbaren Betrag verringern könnten.

Die Testkonten zeigten, dass den problematischen Reels-Streams regelmäßig Werbung hinzugefügt wurde. Neben einem Video, in dem eine Erwachsene Sex mit ihrem Vater vortäuscht, und einer jungen Frau in Unterwäsche, der Kunstblut aus dem Mund tropft, wurde Werbung eingeblendet, die zum Besuch von Disneyland in den Ferien aufforderte. Eine Werbung für Hims lief kurz nach einem Video, das eine offensichtlich verängstigte Frau in einer sexuellen Situation zeigte, zusammen mit einem Link zu dem, was als „das vollständige Video“ beschrieben wurde.

Schon vor der Markteinführung von Reels im Jahr 2020 war den Meta-Mitarbeitern klar, dass das Produkt Sicherheitsbedenken aufwirft, wie ehemalige Mitarbeiter berichten.

Ein Teil des Problems besteht darin, dass automatisierte Durchsetzungssysteme es schwerer haben, Videoinhalte zu analysieren als Text oder Standbilder. Eine weitere Schwierigkeit ergibt sich aus der Funktionsweise von Reels: Anstatt Inhalte zu zeigen, die von den Freunden der Nutzer geteilt werden, wie es in anderen Bereichen von Instagram und Facebook häufig der Fall ist, wirbt Reels für Videos von Quellen, denen die Nutzer nicht folgen.

In einer Analyse, die kurz vor der Einführung von Reels durchgeführt wurde, wiesen die Sicherheitsbeauftragten von Meta auf das Risiko hin, dass das Produkt Videos von Kindern und ungeeigneten Inhalten aneinander reihen würde, so zwei ehemalige Mitarbeiter. Vaishnavi J, Metas ehemaliger Leiter der Jugendpolitik, beschrieb die Empfehlung der Sicherheitsüberprüfung wie folgt: „Entweder wir verbessern unsere Fähigkeiten zur Erkennung von Inhalten, oder wir empfehlen keine minderjährigen Inhalte“, d. h. keine Videos mit Kindern.

Zu dieser Zeit wuchs TikTok schnell und zog die Aufmerksamkeit der jungen Instagram-Nutzer und der Werbetreibenden auf sich, die auf sie abzielten. Meta hat damals keine der Empfehlungen der Sicherheitsanalyse übernommen, so J.

Stetson, Metas Verbindungsperson zu den Käufern digitaler Anzeigen, bestritt, dass Meta vor der Markteinführung des Produkts Bedenken hinsichtlich der Kindersicherheit vernachlässigt habe. „Wir haben Reels fast ein Jahr lang getestet, bevor wir es auf breiter Basis mit einer Reihe von Sicherheitskontrollen und -maßnahmen veröffentlicht haben“, sagte sie.

Video-Sharing-Plattformen sind für Social-Media-Unternehmen attraktiv, weil Videos die Aufmerksamkeit der Nutzer in der Regel länger auf sich ziehen als Text oder Fotos, was sie für Werbetreibende interessant macht.

Nach anfänglichen Schwierigkeiten, das Umsatzpotenzial seines Reels-Produkts zu maximieren, hat Meta die Art und Weise verbessert, wie seine Algorithmen Inhalte empfehlen und Videostreams für Nutzer personalisieren.

Social-Media-Plattformen und digitale Werbeagenturen beschreiben unangemessene Werbeplatzierungen oft als bedauerliche Fehler. Die vom Journal und dem kanadischen Zentrum für Kinderschutz durchgeführten Tests deuten jedoch darauf hin, dass die Plattformen von Meta offenbar einen Teil des digitalen Marketings auf Nutzer ausrichteten, die sich für Sex interessieren.

Zu den Anzeigen, die regelmäßig in den Testkonten des Journal erschienen, gehörten solche für „Dating“-Apps und Livestreaming-Plattformen, die Nacktheit für Erwachsene zeigen, Massagesalons, die „Happy Ends“ anbieten, und Chatbots mit künstlicher Intelligenz, die für Cybersex entwickelt wurden. Die Regeln von Meta sollen solche Anzeigen verbieten.

Das Journal informierte Meta im August über die Ergebnisse seiner Tests. In den darauffolgenden Monaten haben sowohl das Journal als auch das kanadische Zentrum für Kinderschutz gezeigt, dass die Plattform weiterhin eine Reihe von Videos mit kleinen Kindern, Inhalten für Erwachsene und offensichtlicher Werbung für anderswo gehostetes Kindersex-Material anzeigt.

Mitte November gab das Zentrum an, dass Instagram weiterhin kontinuierlich das empfiehlt, was die gemeinnützige Organisation als „Erwachsene und Kinder in sexuellen Posen“ beschreibt.

Nachdem das Journal damit begonnen hatte, die Werbetreibenden auf die Platzierungen anzusprechen, und diese Unternehmen Fragen stellten, teilte Meta ihnen mit, dass es die Angelegenheit untersuche und für Dienstleistungen zur Überprüfung der Markensicherheit bezahlen würde, um festzustellen, wie oft die Anzeigen eines Unternehmens neben Inhalten erscheinen, die es als inakzeptabel erachtet.

Meta hat keinen Zeitplan für die Lösung des Problems genannt und auch nicht erklärt, wie das Unternehmen in Zukunft die Werbung für ungeeignete Inhalte mit Kindern einschränken will.

Die Testkonten des Journals ergaben, dass das Problem sogar Meta-verwandte Marken betraf. Anzeigen für den verschlüsselten Chatdienst WhatsApp des Unternehmens und die Ray-Ban Stories-Brille von Meta erschienen neben Erwachsenenpornografie. Eine Anzeige für Lean In Girls, die Non-Profit-Organisation zur Stärkung junger Frauen, die von der ehemaligen Meta Chief Operating Officer Sheryl Sandberg geleitet wird, erschien direkt vor einer Werbung für eine Autorin von Sex-Inhalten für Erwachsene, die oft in Schulmädchenkleidung auftritt. Sandberg lehnte eine Stellungnahme ab.

Das kanadische Zentrum für Kinderschutz kam durch eigene Tests zu dem Schluss, dass Instagram regelmäßig Videos und Bilder von bekleideten Kindern anbietet, die auch in der digitalen Datenbank des Nationalen Zentrums für vermisste und ausgebeutete Kinder (National Center for Missing and Exploited Children) auftauchen, in der bestätigt wird, dass es sich bei den Bildern und Videos um sexuelles Material über Kinder handelt. Laut der Gruppe nutzen Kinderschänder die Bilder der Mädchen häufig, um in Dark-Web-Foren für illegale Inhalte zu werben, die zum Verkauf angeboten werden.

The nature of the content—sexualizing children without generally showing nudity—reflects the way that social media has changed online child sexual abuse, said Lianna McDonald, executive director for the Canadian center. The group has raised concerns about the ability of Meta’s algorithms to essentially recruit new members of online communities devoted to child sexual abuse, where links to illicit content in more private forums proliferate.

„Wir haben immer wieder erlebt, wie Empfehlungsalgorithmen Nutzer dazu gebracht haben, diese Online-Communities zur Ausbeutung von Kindern zu entdecken und sich darin zu verstricken“, sagte McDonald und nannte es beunruhigend, dass Werbung von großen Unternehmen diesen Prozess subventioniere.

Newsletteranmeldung

Werbung

Artikel-Ende


Auf deine Mithilfe kommt es an!

Obwohl nur ein einziger Journalist mit der gelegentlichen Unterstützung zahlreicher ebenfalls freiberuflicher Kollegen und Ehrenamtler hat Stefan Raven News seit 2020 immer wieder Dinge aufgedeckt, die andere Medien erst später berichteten. Leider sehen es diese Medien nicht als angebracht an, den Erstberichterstatter (uns/mich) zu nennen, wie es im Journalismus Gang und Gebe ist. Einige haben uns sogar schon gelegentlich die Stories im wahrsten Sinne des Wortes geklaut. Das ist kein netter Umgang zwischen Kollegen.

Auf der anderen Seite werde ich auch immer wieder von politischen Extremisten angezeigt. Die Vorwürfe nennt man mir noch nicht einmal. Die Anzeigen stellen sich nach zwei Monaten von alleine ein. Es scheint hier vermutlich darum zu gehen, unliebsame Berichterstatter wegen ihrer hohen Trefferquote an Aufdeckungen einzuschüchtern. Funktioniert leider nicht, da weder ich, noch meine Kollegen uns jemals etwas zu schulden kommen lassen. Um ehrlich zu sein, motiviert uns dieses sogar noch, noch weiter zu bohren, noch mehr nachzuhaken und erst Recht über bestimmte Themen zu schreiben.

Diese Arbeit ist nur mit deiner Unterstützung möglich!

Helfe mit und stärke kritischen, unabhängigen Journalismus, der keine Rundfunkbeiträge oder Steuergelder bekommt, und keinen Milliardär als Finanzier hat. Als Journalist bin ich nur der Wahrheit und der Wissenschaft verpflichtet. Doch daher bin ich auch auf die freiwillige Unterstützung meiner Leser angewiesen.

Herzlichen Dank im voraus!

Per PayPal. 

Alternativ via Banküberweisung, IBAN: BE02 9741 0271 6040 BIC: PESOBEB1 (Kontoinhaber: Stefan Michels)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert