Gli sparatutto in prima persona come Call of Duty sono in qualche modo famigerati per la tossicità delle loro lobby e delle chat vocali. I sondaggi definiscono la base di fan del franchise la più negativa nel settore dei giochi; una faida tra due giocatori una volta portò alla chiamata di una squadra delle forze speciali. Activision cerca di combattere questo comportamento da anni e parte della soluzione potrebbe avere a che fare con l'intelligenza artificiale.
Activision ha collaborato con Modulate per portare la "moderazione della chat vocale in-game" nei suoi giochi. Un nuovo sistema di moderazione che utilizza la tecnologia di intelligenza artificiale chiamato ToxMod funzionerà per rilevare comportamenti come discriminazione e molestie in tempo reale.
Il beta testing iniziale di ToxMod in Nord America inizia oggi. È attivo in Call of Duty: Modern Warfare II e Call of Duty: Warzone. Il "rilascio completo in tutto il mondo" (non include l'Asia, come affermato nel comunicato stampa) avverrà il 10 novembre con l'uscita di Call of Duty: Modern Warfare III, il nuovo capitolo del franchise quest'anno.
Il comunicato stampa di Modulate non entra nei dettagli su come funziona esattamente ToxMod. SU posto l'azienda rileva che lo strumento "modera la chat vocale per segnalare comportamenti scorretti, analizza le sfumature di ogni conversazione per identificare la tossicità e consente ai moderatori di rispondere rapidamente a ciascun incidente fornendo un contesto pertinente e accurato". In una recente intervista, il CEO dell'azienda ha affermato che lo strumento mira ad andare oltre la semplice trascrizione. Tiene conto anche di fattori come l'emozione e il volume del giocatore per distinguere tra commenti maligni e umoristici.
Vale la pena notare che lo strumento (almeno per ora) non agirà contro i giocatori in base ai suoi dati, ma invierà solo rapporti ai moderatori di Activision. È probabile che il coinvolgimento umano rimanga un’importante salvaguardia, poiché la ricerca ha dimostrato che i sistemi di riconoscimento vocale possono mostrare pregiudizi nel modo in cui rispondono agli utenti con identità razziali e accenti diversi.
Leggi anche: