Ubisoft und Riot werden KI verwenden, um dich davon abzuhalten, online schrecklich zu sein

Ubisoft und Riot werden KI verwenden, um dich davon abzuhalten, online schrecklich zu sein

Giftigen Spielern, die es genießen, andere durch Kommunikation im Spiel zu belästigen, steht ein ebenso unangenehmes Erwachen bevor.

Als Entwickler und Herausgeber einiger der besten kooperativen Spiele sind Ubisoft und Riot Games kein Unbekannter darin, mit toxischen Spielern zu kämpfen zu haben. Glücklicherweise haben sich die beiden Unternehmen zu Zero Harm In Comms (öffnet sich in einem neuen Tab) zusammengeschlossen, einer Forschungspartnerschaft zur Bekämpfung von schlechtem Verhalten im Internet. Das Projekt wird künstliche Intelligenz nutzen, um Bots zu verfolgen, zu verarbeiten und ihnen beizubringen, wie sie Fälle von Online-Belästigung erkennen können, um „lohnendere soziale Erlebnisse zu fördern und schädliche Interaktionen zu vermeiden“.

Ungezogene Gamer werden sich nicht länger hinter der Anonymität ihrer Tastaturen verstecken können. Ziel des Forschungsverbundes ist es, ein System zu schaffen, in dem Informationen über säumige Spieler gespeichert und dann branchenweit in einer Datenbank geteilt werden.

Drei Project Q-Charaktere kämpfen in einem Park

(Bildnachweis: Ubisoft)

gg z

Sie haben wahrscheinlich schon einmal den Begriff „toxisch“ gehört, der zur Beschreibung bestimmter Arten von Online-Spielern verwendet wird. Unabhängig davon, ob es sich um bestimmte Spieltechniken handelt, die von der allgemeinen Gaming-Community missbilligt werden, oder um einen Fall von echtem Missbrauch oder Mobbing, ist es im Zeitalter der Internet-Anonymität schwierig, einem Pseudonym ein Gesicht zuzuordnen.

Obwohl Anti-Cheat-Software in viele große Online-PvP-Spiele eingeführt wurde, bemerken sie es normalerweise nicht, wenn Spieler anderen Spielern aktiv mit ihren Worten Schaden zufügen. Die schmale Lücke zwischen Fluchen und Mobbing wird oft von der Art von Trollen ausgefüllt, die Sie nur in Märchen erwarten würden.

Reyna und Jett von Valorant

(Bildnachweis: Riot Games)

ja, chatbot

In der Le Forge-Ankündigung von Ubisoft drückt CEO Yves Jacquier sein Mitgefühl (öffnet sich in einem neuen Tab) für Spieler aus, die sich in dieser schrecklichen Lage befinden. „Störendes Spielerverhalten ist ein Problem, das wir sehr ernst nehmen, aber auch sehr schwer zu lösen ist“, sagt er und verweist darauf, dass die bestehenden Systeme es immer wieder versäumen, Benutzer für schlechtes Verhalten zu identifizieren und zu bestrafen. „Wir glauben, dass wir dieses Problem durch den Zusammenschluss als Branche effektiver angehen können.“

Und sie werden zusammenkommen, wie Wesley Kerr, CEO von Riot Games, überschwänglich zustimmt. „Wir sind bestrebt, mit Industriepartnern wie Ubisoft zusammenzuarbeiten, die an die Schaffung sicherer Gemeinschaften glauben“, sagt er. Diese Partnerschaft mit Ubisoft ist nur ein Beispiel für das „größere Engagement und die noch zu leistende Arbeit … zur Entwicklung von Systemen, die gesunde, sichere und integrative Interaktionen ermöglichen“.

Die KI-Software funktioniert, indem sie Chat-Protokolle über die gesamte Palette der Ubisoft- und Riot-Spiele hinweg erstellt und alle Instanzen vertraulicher Informationen entfernt, bevor sie basierend auf dem angezeigten Verhalten markiert werden. All diese Daten werden gesammelt, um die KI-Bots besser darauf vorzubereiten, Spieler zu erkennen, die gegen die Community-Richtlinien verstoßen.

Sicher, einige Spiele haben in ihren einzelnen Spielen Fortschritte bei der Bekämpfung von schlechten Manieren gemacht, aber mitten in Call of Duty: Modern Warfare 2 die Ausrüstung wegzunehmen, scheint nicht bedrohlich genug zu sein, die Tatsache, dass Hunderte von Menschen dies tun. Lesen Sie Ihre schlechten Kommentare, hoffentlich werden verrufene Spieler es sich zweimal überlegen, bevor sie sich in Post-Game-Chats zu Wort melden.