Toxbuster: Un nouvel outil d’Ubisoft pour contrer la toxicité en ligne

Pour renforcer ses efforts contre la toxicité en ligne et créer des environnements de jeu plus sûrs, Ubisoft pourra compter sur une nouvelle technologie : un outil innovant nommé ToxBuster. Conçu pour transformer la lutte contre les comportements nuisibles et les abus dans les chats, l’outil est le résultat d’une grande collaboration entre les équipes d’Ubisoft La Forge, du MURL(Pixel) et UDO.   

Domenico Tullo – scientifique en recherche et développement et Andrea Feder – gestionnaire de production, nous en disent plus sur cette nouvelle technologie.  

Le problème de la toxicité en ligne

La toxicité est un défi de taille dans les jeux vidéo en ligne, en particulier sur les canaux de discussions, où les joueurs et joueuses peuvent échanger en temps réel. Insultes et propos inadéquats, ces comportements provoquent des effets néfastes qui vont au-delà de la simple détérioration de l’expérience des joueurs: impact négatif sur le bien-être mental, augmentation du stress et de l’anxiété, diminution du plaisir de jouer, perte d’inclusivité pour les nouveaux utilisateurs. Ces enjeux n’ont pas échappé à l’équipe d’Ubisoft La Forge, raconte Andrea Feder: 

« Nous avons cerné que les comportements toxiques et le langage offensant pouvaient avoir un impact significatif sur le bien-être des joueurs et leur plaisir global. Il fallait trouver une solution. » 

Ubisoft travaille depuis plusieurs années maintenant à combattre la toxicité en ligne. Des initiatives comme le Fair Play Program, le Good Game Playbook et le projet de recherche Zero Harm in Comms, sont autant de démarches pour venir à bout de cette situation. Aujourd’hui, les expert·es d’Ubisoft La Forge, proposent une nouvelle solution : 

La principale motivation pour développer ToxBuster était d’améliorer l’expérience de jeu en ligne en rendant l’espace multijoueur plus agréable et en réduisant les textes nuisibles. Et nous pensons y être arrivé. » raconte Domenico Tullo 

Une solution innovante

ToxBuster est un outil sophistiqué conçu pour identifier le langage nuisible ou offensant dans les chats automatiquement, avec le potentiel d’être utilisé en temps réel. Il utilise un type d’intelligence artificielle appelé algorithmes de transformation. En termes simples, « cela signifie qu’il peut comprendre et analyser le contexte des mots et des phrases dans une conversation, ce qui lui permet de détecter avec précision les comportements toxiques et d’aider à créer un environnement de jeu plus sûr et plus agréable », explique Feder. 

Mais qu’est-ce qui rend ToxBuster si unique ? 

ToxBuster se distingue des autres solutions par plusieurs facteurs clés. Son principal atout est sa compréhension contextuelle avancée. Grâce à des algorithmes sophistiqués, ToxBuster peut interpréter avec précision le contexte des conversations, en distinguant le langage spécifique au jeu du langage réellement nuisible. Ce qui permet de détecter plus précisément des comportements toxiques.  

De pouvoir contextualiser ainsi des conversations a été un défi en soi pour l’outil, rapporte Domenico: 

 Garantir que le modèle puisse comprendre et interpréter correctement le contexte des conversations fût demandant. Par exemple, distinguer entre un terme spécifique d’un jeu, comme “headshot” dans un jeu de tir à la première personne, et un langage réellement nuisible, a nécessité des algorithmes complexes et donc beaucoup de travail. » 

La créativité des trolls et leurs stratégies pour contourner les méthodes de détection des outils classiques ont également mis à l’épreuve les capacités de ToxBuster, raconte le scientifique: 

« Les utilisateurs nuisibles utilisent des argots, des abréviations et des langages codés pour contourner les paramètres préventifs des conversations en ligne. Adapter ToxBuster à ces tactiques évolutives a été et reste un défi majeur. »  

Enfin, la question de la vie privée des utilisateurs a été cruciale. Pour l’équipe de La Forge, il était primordial de protéger les données et la confidentialité des joueurs. Cela impliquait de traiter les données avec soin et de garantir la conformité au RGPD. Andrea Feder se veut rassurante en expliquant : « Nous voulons aider nos joueurs, mais il était impératif d’assurer leur vie privée. Nous stockons les données de manière sécurisée, les utilisons de manière responsable et garantissons leur confidentialité. » 

 Vers un futur plus sain

L’équipe derrière ToxBuster est fière d’annoncer que cet outil contribue déjà à la lutte contre la toxicité en s’intégrant au processus de modération, grâce à des collaborations internes avec différents services et des équipes de production d’Ubisoft. C’est une avancée significative qui permet aux modérateurs de mieux gérer les comportements toxiques et Domenico est confiant que l’outil pourra continuer à gagner en efficacité : 

« Bien que nous ayons réalisé des progrès, ce n’est que le début, et l’équipe s’engage à continuer d’affiner et d’étendre ses capacités à l’avenir. ToxBuster contribuera grandement à créer un environnement de jeu positif et respectueux pour tout le monde.», conclut-il. 

Zachary Yang, stagiaire en recherche et Josiane Van Dorpe, programmeuse généraliste

Remerciements 

La création de ToxBuster n’aurait pu être possible sans le dévouement de plusieurs membres auprès des équipes UDO, MURL (Pixel), le département de recherche utilisateur,  et La Forge:  Zachary Yang,  stagiaire en recherche, a mené les recherches et joué un rôle important dans la construction du modèle, Amanda Jarrell et Nicolas Grenon-Godbout qui ont dirigé l’orientation de l’outil,  Josiane Van Dorpe, Souhail Ben Ali, Andrea Feder pour leur aide précieuse tout au long du processus de développement et Domenico Tullo, qui dirige la transition de l’outil vers des applications pratiques.