Giftigen Spielern, die es genießen, andere durch Kommunikation im Spiel zu belästigen, steht ein ebenso unangenehmes Erwachen bevor.

Als Schöpfer und Herausgeber einiger der besten kooperativen Spiele sind Ubisoft und Riot Games keine Unbekannten darin, sich mit toxischen Spielern herumschlagen zu müssen. Glücklicherweise haben sich die beiden Unternehmen für Zero Harm In Comms (wird in einem neuen Tab geöffnet) zusammengeschlossen, eine Forschungspartnerschaft, die darauf abzielt, schlechtes Verhalten im Internet zu bekämpfen. Das Projekt wird Technologie der künstlichen Intelligenz verwenden, um Bots zu verfolgen, zu verarbeiten und ihnen beizubringen, wie sie Fälle von Online-Mobbing erkennen können, um „lohnendere soziale Erfahrungen zu fördern und schädliche Interaktionen zu verhindern“.

Ungezogene Gamer werden sich nicht länger hinter der Anonymität ihrer Tastaturen verstecken können. Ziel des Forschungsverbundes ist es, ein System zu schaffen, in dem Informationen über säumige Spieler gespeichert und dann branchenweit in einer Datenbank geteilt werden.

Drei Project Q-Charaktere kämpfen in einem Park

(Bildnachweis: Ubisoft)

gg z

Sie haben wahrscheinlich schon einmal den Begriff „giftig“ gehört, der verwendet wird, um bestimmte Arten von Online-Spielern zu beschreiben. Ganz gleich, ob es sich um bestimmte Spieltechniken handelt, die von der allgemeinen Gaming-Crowd verpönt sind, oder um einen Fall von echtem Missbrauch oder Mobbing, im Zeitalter der Online-Anonymität ist es schwierig, einem Benutzernamen ein Gesicht zuzuordnen.

Obwohl Anti-Cheat-Software in viele große Online-PvP-Spiele eingeführt wurde, bemerken sie es normalerweise nicht, wenn Spieler anderen Spielern aktiv mit ihren Worten Schaden zufügen. Die schmale Lücke zwischen Fluchen und Mobbing wird oft von der Art von Trollen ausgefüllt, die Sie nur in Märchen erwarten würden.

Reyna und Jett de Valorant

(Bildnachweis: Riot Games)

ja, chatbot

In der Ankündigung von Ubisoft Le Forge drückt CEO Yves Jacquier sein Mitgefühl (wird in einem neuen Tab geöffnet) für Spieler aus, die sich in diesen schlimmen Situationen befinden. „Störendes Spielerverhalten ist ein Problem, das wir sehr ernst nehmen, aber auch sehr schwer zu lösen ist“, sagt er und verweist darauf, dass die vorhandenen Systeme es immer wieder versäumen, Benutzer für ihr Fehlverhalten zu identifizieren und zu bestrafen. "Wir glauben, dass wir dieses Problem effektiver angehen können, wenn wir als Branche zusammenkommen."

Und sie werden zusammenkommen, wie Wesley Kerr, CEO von Riot Games, schwärmt. „Wir engagieren uns für die Zusammenarbeit mit Industriepartnern wie Ubisoft, die an die Schaffung sicherer Gemeinschaften glauben“, sagt er. Diese Partnerschaft mit Ubisoft ist nur ein Beispiel für das „breitere Engagement und die Arbeit, die [Riot Games] leisten … um Systeme zu entwickeln, die gesunde, sichere und integrative Interaktionen schaffen“.

Die KI-Software funktioniert, indem sie Chat-Protokolle über die gesamte Palette der Ubisoft- und Riot-Spiele hinweg erstellt und alle Instanzen vertraulicher Informationen entfernt, bevor sie basierend auf dem angezeigten Verhalten markiert werden. All diese Daten werden gesammelt, um die KI-Bots besser darauf vorzubereiten, Spieler zu erkennen, die gegen die Community-Richtlinien verstoßen.

Sicher, einige Spiele haben in ihren einzelnen Spielen Fortschritte bei der Bekämpfung von schlechten Manieren gemacht, aber mitten in Call of Duty: Modern Warfare 2 die Ausrüstung wegzunehmen, scheint nicht bedrohlich genug zu sein, die Tatsache, dass Hunderte von Menschen dies tun. Lesen Sie Ihre schlechten Kommentare, hoffentlich werden verrufene Spieler es sich zweimal überlegen, bevor sie sich in Post-Game-Chats zu Wort melden.

Teilen Sie es