TEILEN

Das toxische Verhalten von Spielern in Computerspielen ist schon seit einigen Jahren ein ziemliches Problem in der Gaming-Branche. Das Ganze ist besonders schlimm in Spielen, die sowohl auf die kooperativ in Teams als auch den Kampf gegen andere Spieler setzen. In den Chat-Räumen dieser Titel gibt es oft haufenweise Beleidigungen, Anschuldigungen und andere problematische Aussagen. Diese Zustände sind für Entwickler natürlich nicht hinnehmbar, weshalb viele Studios schon jetzt an Maßnahmen in dem Kampf gegen Toxizität arbeiten.

Zu den in diesem Bereich tätigen Unternehmen gehören unter anderem Ubisoft und Riot Games. Diese beiden Firmen haben in dieser Woche verkündet, dass sie in dem Kampf gegen Toxizität eine technologische Kooperation eingegangen sind. Unter dem Namen Zero Harm in Comms möchten die beiden Spieleentwickler eine Lösung für das Problem finden, die der gesamten Industrie aushelfen soll.

Die Ziele der Initiative ist die Erschaffung und das Verbessern von KI-Technologie, mit der man das toxische Verhalten von Spielern automatisch bekämpfen kann. Solche Systeme sollen problematische Aussagen erkennen und andauerndes Verhalten dieser Art unterbinden. Zu Beginn wollen die Firmen erst einmal eine Datenbank an toxischem Verhalten erschaffen. Damit kann man dann KI-Systeme trainieren und sie darauf auslegen, andere toxische Nutzer ausfindig zu machen. Sogar das präventive Eingreifen in möglicherweise ausartende Situationen wäre möglich.

Laut Riot Games und Ubisoft sollten ihre vielen verschiedenen Spiele es ihnen erlauben, das toxische Verhalten von möglichst vielen unterschiedlichen Genres zu sammeln. Auf diese Weise wird die Datenbank möglichst umfangreich und sie kann die verschiedensten Momente beinhalten. Am Ende möchten die Unternehmen diese Daten mit allen Firmen in der Branche teilen, sodass jedes Studio ihre eigenen Systeme an diesem neuen Standard ausrichten kann. Weitere Maßnahmen und Pläne könnten dann in der Zukunft folgen.

Im Grunde ist solch eine Datenbank eine gute Sache für alle Entwickler. Wer Probleme mit Toxizität hat und das Ganze mit AI lösen möchte, der kann Gebrauch von dieser scheinbar kostenlos verfügbaren Ressource machen. Auf diese Weise sparen Entwickler etwas Arbeit und Zeit bei der Entwicklung ihrer Sicherheitssysteme. Wie gut und fair automatisch ablaufende Systeme dieser Art am Ende wirklich sind, ist allerdings eine etwas andere Diskussion.

Across the gaming industry, many people are hard at work making gaming a more positive, more inclusive, and, ultimately, a more fun experience for everyone. Making meaningful change in this complex challenge is going to take collaboration across the gaming industry.

That’s why Riot and Ubisoft are teaming up on a tech partnership to develop a database gathering in-game data to better train AI-based preemptive moderation tools that detect and mitigate disruptive behavior in-game. Any data gathered that will be able to identify a person will be removed before sharing.

The “Zero Harm in Comms” research project is the first step in a cross-industry project that aims to benefit all people who play video games. Riot and Ubisoft are aligned in their mission to create gaming structures that foster more rewarding social experiences and avoid harmful interactions.

As members of the Fair Play Alliance, both companies believe that improving the social dynamics of online games will only come through communication, collaboration, and joint efforts across the gaming industry. With Ubisoft’s wide catalog of popular games and Riot’s highly competitive titles, the resulting database of this partnership should cover a wide range of players and use cases to better train AI systems to detect and mitigate harmful behavior.

As games become more and more popular around the world, the scale of this challenge only expands. That is why Riot is investing in AI systems to automatically detect harmful behavior and foster more positive communities across all our games. You can read more about Riot’s approach to player dynamics where we go into detail about the challenges at play and the various ways our games are working to address them.

Making online communities more inclusive is an ongoing mission that will never be fully completed. With that being said, by working together, we can make meaningful improvements. We are committed to sharing our learnings from the first phase of this initiative with the entire industry next year.


Anzeige

10 KOMMENTARE

  1. Mal zusammen gefasst wird eine KI genutzt um Personen selbstständig auf „nichr wünschenswertes verhalten“ Analysiert und dann selbstständig aus einem bestimmten Ort verbannt. Und wie diese KI operiert wissen nur eine Hand voll Leute.

    Klasse -da kann ja gar nix schief gehen.
    Das töten von Freiheit aufgrund von Sicherheit war schließlich schon immer eine Formel für ein solides Miteinander.

  2. Na wunderbar, dann dürfen nichtskönnende Noobs einem mit ihrer Unfähigkeit wieder alles versauen und man darf sich nicht mal verbal wehren und diese Idioten zurechtweisen. Hat mich vor Jahren schon bei LoL genervt; da werden Spieler gemeldet, die sich zu Recht über absolut beschissenes Verhalten beschweren und dabei eben was härtere Töne anschlagen, aber der eigentliche Störenfried bleibt unbehelligt. Naja im Westen also wieder mal nix Neues.

    • Naja diese Spiele habeb alle irgendeine Form von Matchmaking, no? Wenn du regelmässig mit ’nichtskönnenden Noobs‘ (’noobs‘, ernsthaft? Ham wir 2010 oder was?) gematcht wirst… könnte sein dass es da einen Gruns für gibt. Just saying.
      Oder ist das ein Satire-Post und du mimst hier den klischeebehafteten LoL-Spieler?

      • Schon etwas recht hat er, besonders auf low ranks gibts durchaus Leute die evtl. keine „nichtskönner“ sind, aber sich extra aus „Spaß“ nach unten gespielt haben. Wenn jemand es dir aber extra runterrennt und dieser quasi nicht reported wird, du aber dafür bestraft wirst, wenn du (imo zurecht) sauer bist, dann läuft irgendwas falsch.

  3. Hat nicht Google sowas ähnliches versucht, Worten eine „Toxicity“ zuzuordnen? Trump war natürlich sehr viel toxischer als Biden. White war toxischer als Black. Und so weiter.

    Danke, aber das letzte, was ich brauche, ist noch eine Sprachpolizei.

    • Eine konsequente Moderation hilft idR tatsächlich Wunder, ja. In Valorant jede Frau im Voice anperven oder jedem Teammate im LoL-Chat Aids wünschen ist halt kein Grundrecht…

      • Mag angehen, irl verfolgst aber auch nicht jede Beleidigung und oft müssen sich die Leute echt nicht sooo anstellen. Klar was anderes wenn da jemand andauernt Leuten kys wünscht, aber solche KIs führen nur zu dämlichen (chat)-banns, wenn sie mal mit anderen Sprachen konfrontiert werden. Bei Apex wurden genug Japaner gebannt weil sie „nigero“ (lauf weg) geschrieben haben.

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here