Twitch è una piattaforma gratuita enorme, con una ricchissima utenza attiva e, come tutti gli spazi di questo tipo ha le sue zone scure. Non sono assenti infatti account che attaccano gli streamer senza ragione, spingendosi a volte fino a compiere degli abusi in piena regola.
Un problema che il team dietro Twitch combatte oramai da molto, molto a lungo. Gli strumenti per difendere il portale da questo tipo di account sono presenti, ma questi non appaiono molto adeguati – o forse non sono semplicemente ben impiegati.
L’idea che più titilla il team di Twitch è quella di un bot che, sfruttando le meraviglie del machine learning, possa adoperare quanto appreso nel corso di svariati tentativi cosi da bannare permanentemente gli utenti colpevoli di abusi via chat. Addirittura questo strumento sarebbe capace di fermare gli attacchi di flame prima ancora che si verifichino (in parole povere un precog, ndr).
Per fermare gli attacchi preventivamente il sistema andrebbe alla ricerca di segnali negativi negli utenti, basandosi sul loro comportamento abituale sulla piattaforma. Una volta confermato che un dato profilo è sospesso, il bot avrebbe la facoltà di bannare l’utente in modo permanente. Non è chiaro tuttavia come si procederà all’identificazione dei profili sospetti.
“Quando banni qualcuno dal tuo canale, questo dovrebbe invece venire bannato dalla comunità. Purtroppo, i cattivi utenti decidono spesso di creare nuovi account e cosi tornre in chat per continuare con i loro comportamenti e abusi”
Un’idea, questa di Twitch, molto promettente senza dubbio. Uno sfoggio di quanto si possa ottenere con la potenza del machine learning. Tuttavia è legittimo chiedersi come si potrà giudicare l’operato di un simile bot se davvero andasse a bannare permanentemente i profili prima delle infrazioni. Senza infrazione, su cosa potrebbe fondarsi la ragione del ban? E se a finire nel mirino del bot ci fossero anche profili innocui?