Roboterhände auf Tastatur © colourbox.de
VideoVideo
Sollen Roboter bald üble Kommentare filtern und löschen?
Grenzwertige Posts in Roboterhand
"Die EU verfügt über keine rechtsgültige Definition von Hate Speech"
Heute übernehmen es verzweifelte Arbeiter in Entwicklungsländern - das Löschen gewaltvoller Posts. Bald könnten sie von Robotern abgelöst werden.
Heute: Klicksklaven schauen sich 25.000 fragwürdige Bilder pro Tag an
© dpa
VideoVideo
Seit 17. Mai 2018 in den deutschen Kinos: "The Cleaners".
Der Dokumentarfilm "The Cleaners" zeigt, wie fragwürdige Inhalte derzeit bearbeitet werden: zum Beispiel von Arbeitern auf den Philippinen, angestellt bei externen Dienstleistern. Das gilt nicht nur für rechtswidrige Posts, sondern auch für solche, die als Hassbotschaften interpretiert werden und gegen die Richtlinien verstoßen. Viele Soziale Medien-Unternehmen sourcen diese Aufgaben somit aus und lassen sie Menschen verrichten, die mit ihrem Job den Slums entkommen wollen. Diese Menschen schauen sich in ihrer Funktion als "Content-Moderatoren" von Kinderpornographie über Gewaltvideos mit Selbstmord und Enthauptungen bis hin zu harmloser Satire alles an - laut Aussage im Film ist die Zielvorgabe 25.000 Bilder pro Tag. Die psychische Belastung, die damit einhergeht, ist kaum vorstellbar. Wer betreut die Moderatoren? Nach welchen Kriterien wird hier gelöscht, wie groß ist der Interpretationsspielraum? Diesen Fragen müssten sich Facebook & Co. stellen. Aber eine offene Diskussion darüber gibt es nicht; die Moderatoren haben Geheimhaltungsverpflichtungen unterschrieben.

Künftig: Werden Roboter bald strafbare Inhalte erkennen können?
Zu 80 Prozent funktioniert die neue Technik, mit der Tweets überprüft werden.
Zu 80 Prozent funktioniert die neue Technik, mit der Tweets überprüft werden.
Mark Zuckerberg, Gründer und Chef von Facebook, ist der Meinung, dass künstliche Intelligenz Kommentare mit strafbarem Inhalt in fünf bis zehn Jahren automatisch erkennen können wird. Dabei gibt es Forschungsprojekte, die anscheinend jetzt schon ziemlich weit sind: So haben Forscher der Universitäten Hildesheim und Antwerpen ein Computerprogramm zum automatischen Erkennen deutschsprachiger Hassbotschaften im Kurznachrichtendienst Twitter entwickelt. "Wir haben unser Programm bereits getestet: In 80 Prozent der Fälle liegt es richtig", sagt Sprachtechnologe Tom De Smedt. "Um ein besseres Verständnis zu gewinnen, wie politisch motivierte Hassbotschaften in den sozialen Medien aussehen, berücksichtigen wir auch nonverbale Elemente wie Bilder oder Emojis", erklärt die Hildesheimer Medienlinguistin Sylvia Jaki das Programm. Es spüre hetzerische Wörter und Wortkombinationen in Tweets in Echtzeit auf. Bei Ironie und Sarkasmus kommt das Programm aber an seine Grenzen. Menschliche Nachkorrekturen sind daher noch unverzichtbar.

Diese technische Entwicklung stellt die Gesellschaft allerdings vor neue Fragen: Erstens, wie kann die Meinungsfreiheit weiterhin geschützt werden? Schließlich verfüge die EU über keine rechtsgültige Definition, was genau unter Hate Speech zu verstehen ist, so de Smedt: "Wir müssen vorsichtig sein, wie wir als Gesellschaft solche Technologien nutzen." Und zweitens bleibt nach wie vor die Frage, wie die Ursachen für hassgeleitete Kommentare behoben werden können.

Links
Kampagnen für respektvollen Austausch in den sozialen Medien
Software gegen Extremismus
Radikale Tendenzen erkennen
Pubertäre Provokation oder schon bedenklich? Radikalisierungsprozesse bei Jugendlichen frühzeitig erkennen - dabei soll jetzt eine Software helfen.
Info
Inhalte, die rechtswidrig sind, müssen Soziale Medien seit Oktober 2017 innerhalb eines Tages entfernen. Das fordert das neue Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (NetzDG).