TEILEN

Die chinesische Videoplattform TikTok setzt in Deutschland systematisch Wortfilter ein. Mindestens 20 Wörter verhindern, dass Kommentare öffentlich erscheinen, wie eine neue Recherche zeigt. Die Nutzer erfahren davon nichts. (via)

Größere Internetplattformen wie beispielsweise der auf kurze Videos spezialisierte chinesische Dienst TikTok müssten damit zurechtkommen, dass die Nutzer sich nicht unbedingt immer freundlich verhalten. Daher brauchen diese Plattform einige Tools und Systeme, die die Toxizität bekämpfen und Nutzern aushelfen. Es ist schon seit einiger Zeit bekannt, dass TikTok dafür sogenannte Wortfilter verwendet.

Diese von TikTok eingesetzten Wortfilter sorgen dafür, dass Kommentare zensiert werden, wenn sie bestimmte Worte beinhaltet. Dieser Vorgang läuft dabei dann komplett automatisch ab, sodass die Plattform selbst gar nicht erst eingreifen muss. Welche Worte solch eine Reaktion auslösen, ändert sich je nach Weltlage regelmäßig und es kommt ganz darauf an, was für Themen die Seite für unpassend erhält. Natürlich birgt solch ein System direkt die Gefahr einer Ausnutzung und eines Angriffs gegen die Meinungsfreiheit der Nutzer.

Um die aktuelle Situation aufzudecken, haben der NDR, der WDR und die Tagesschau vor Kurzem wohl mal wieder eine Recherche durchgeführt und Tests durchführt. Das Ganze hat gezeigt, dass aktuell mindestens 20 Wörter in Kommentaren dafür sorgen, dass automatisch Filter greifen und diese Aussagen zurückhalten. Kommentare mit diesen Worten erschienen in mindestens vier Versuchen von verschiedenen Testaccounts nicht öffentlich unter den jeweiligen Aufnahmen. Getestet wurden wohl insgesamt mehr als 70 Worte und Kombinationen.

Problematisch an der ganzen Sache ist der Umstand, dass die Worte in den Test oft nicht wirklich in einem problematischen Kontext standen. Da das Ganze über ein automatisches System stattfindet, werden scheinbar auch oft Kommentare als schädlich eingestuft, die in keinster Weise in diese Richtung gehen. Scheinbar kann der Filter von TikTok in dieser Sache noch nicht besonders gut zwischen toxischen Reaktionen und sachlichen Texten unterscheiden.

Zusätzlich dazu erhalten problematische Kommentare auf der Plattform keine Sperre und sie werden auch nicht gelöscht. In diesem Fall kommt ein sogenannter Shadow-Bann zum Einsatz. Solche Aktionen sorgen dafür, dass die Kommentare nicht öffentlich unter einem Video auftauchen, aber die Nutzer selbst nicht darüber informiert werden. Für die Verfasser sieht einfach alles ganz normal aus. Solch eine Strafe ist natürlich problematisch, wenn der verfasste Kommentar eigentlich ganz normal war.

Eine Sprecherin von TikTok hat sich wohl auf eine Anfrage hin zu dieser Sache geäußert. Sie erklärte, dass die Technologie der Plattform proaktiv nach Kommentaren sucht, die möglicherweise Spam darstellen oder gegen die Richtlinien der Seite verstoßen. Bei den Tests wurden einige Kommentare fälschlicherweise als schädlich markiert und solche Ergebnisse sind nicht das Ziel der Seite. TikTok möchte seine automatisierten Systeme weiter trainieren und Verbesserungen durchführten. Des Weiteren will die Plattform ihre Systeme im Herbst einigen Forschern zur Verfügung stellen.

Wortfilter sind für viele TikToker wie beispielsweise Maximilian Pichlmeier keine sinnvolle Lösung für Hassrede und toxische Kommentare. Der Influencer sieht lieber die Möglichkeit für offene Gespräche zwischen Leuten und den Austausch von eigenen Meinungen. Solche Dialoge können nicht stattfinden, wenn Nutzer nicht einmal wissen, ob ihre Kommentare öffentlich sichtbar sind. Zusätzlich dazu ist es für problematische Menschen nicht wirklich schwierig solche Filter zu umgehen, wenn sie einfach nur kreativ genug sind.

Ich persönlich würde die Meinung des TikTokers teilen. Wortfilter wirken zwar wie eine sinnvolle Maßnahme, aber in der Praxis wirken sie nur sehr eingeschränkt. Es gibt genug Alternativen zu problematischen Worten und viele unschuldige Wörter können mit dem richtigen Kontext zu einem Problem werden. Um effektiv zu sein, müsste eine Plattform viel zu viele verschiedene Begriffe sperren. Und kreative Köpfe in China etc. umgehen solche Filter dort schon jetzt mit weit verbreiteten Alternativen, die zwar nicht den Filter anschlagen, aber von Nutzern allgemein als Synonym für eine andere Sache verstanden werden. Zusätzlich dazu sind Wordfilter mehr für Zensur als für Schutz gedacht und sie lassen sich leicht ausnutzen, wenn eine Plattform bestimmte politische Themen vermeiden möchte.

Aktuell wird der Filter auf TikTok wohl unter anderem durch die folgenden Wörter ausgelöst:

  • Cannabis
  • Crack
  • Drogen
  • Gas
  • gay
  • Heroin
  • Heterosexuelle
  • homo
  • Kokain
  • LGBTQ
  • LGBTQI
  • LSD
  • Nazi
  • Porno
  • Pornografie
  • Prostitution
  • schwul
  • Sex
  • Sexarbeit
  • Sklaven


Anzeige

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here