La moderazione nelle chat di Call of Duty: Modern Warfare 3 farà ampio uso delle possibilità offerte dall’intelligenza artificiale. Gli attuali sistemi saranno ulteriormente potenziati per ridurre al minimo i casi di tossicità online e gli effetti che questi possono avere sul benessere degli utenti.
Il tutto si rifà al codice di condotta di Activision, che prevede il monitoraggio delle chat vocali alla ricerca di “discorsi di odio, discriminazione, sessismo e altri tipi di linguaggio molesto”. Sono invece riconosciuti e tollerati il linguaggio scurrile e le battute amichevoli, mentre ci sarà il pugno duro sul bullismo e su altri tipi di molestie. L’intelligenza artificiale, in tutto questo, ha un mero scopo di segnalazione.
Il sistema di moderazione della chat vocale di Call of Duty invia solo segnalazioni di comportamenti tossici, classificati in base al tipo di comportamento e a un livello di gravità basato su un modello in evoluzione. Activision decide come far rispettare le violazioni della moderazione della chat vocale.
Non ci sarà modo di non essere “ascoltati”, se non quello di disattivare del tutto la chat vocale. Il sistema sarà testato inizialmente in inglese e sarà disponibile al lancio di Call of Duty: Modern Warfare 3. In seguito si aggiungeranno altre lingue. Così ne parla Michael Vance, Chief Technology Officer di Activision:
Non c’è posto per i comportamenti di disturbo o le molestie nei giochi. Affrontare le chat vocali moleste, in particolare, è da tempo una sfida straordinaria per i giochi. Con questa collaborazione, stiamo utilizzando la tecnologia di apprendimento automatico all’avanguardia di Modulate. Si tratta di un passo avanti fondamentale per creare e mantenere un’esperienza divertente, equa e accogliente per tutti i giocatori.