Riot Games e Ubisoft se unem em projeto de pesquisa de IA — usando registros de bate-papo de jogadores como dados de treinamento



A Ubisoft e a Riot estão colaborando em um projeto de pesquisa antitoxicidade, que se concentrará na coleta de logs de bate-papo no jogo como dados de treinamento para algoritmos de IA. Ambas as empresas devem divulgar suas descobertas a partir desses dados no próximo verão, momento em que as etapas futuras serão decididas.

Falando comigo por meio de uma ligação do Zoom, Wesley Kerr, diretor de pesquisa de tecnologia da Riot, e Yves Jacquier, diretor executivo da Ubisoft La Forge, compartilharam seus objetivos e esperanças de longo prazo para o projeto. Aclamando-o como o primeiro de seu tipo como uma colaboração de pesquisa aberta no campo da IA ​​entre duas empresas de jogos, eles esperam que os aprendizados publicados no próximo ano sejam o primeiro passo no uso efetivo da IA ​​como uma ferramenta para reduzir a toxicidade.

Por alguma razão, os jogadores do Udyr sempre foram muito tóxicos quando eu jogava muito League. Eu me pergunto se isso ainda é verdade depois de seu retrabalho?

Segundo Jacquier, o projeto tem três objetivos principais. Primeiro, para criar uma rede de conjuntos de dados compartilhados, preenchida com dados de jogadores totalmente anônimos. A segunda, para criar um algoritmo de IA que possa trabalhar com esses dados. Por fim, que esta parceria sirva de “protótipo” para futuras iniciativas da indústria contra a toxicidade, incentivando a competição e novos avanços na área.

Faz sentido que a Riot e a Ubisoft sejam duas empresas investidas na solução desse problema, se forem considerados seus populares títulos multiplayer. Rainbow Six: Siege fica realmente sujo muito rápido assim que a cooperação em toda a equipe é atingida, e os gêmeos problemáticos da Riot, League of Legends e Valorant, ficam encharcados de lodo tóxico.

Tanto Kerr quanto Jacquier enfatizaram ao longo da entrevista que o anonimato do jogador e o cumprimento das leis regionais e do GDPR estavam entre suas principais prioridades. Quando perguntado se os dados do jogador eram compartilhados entre empresas, Kerr enfatizou que as informações da sua conta do League of Legends não seriam enviadas para outras empresas sem o consentimento do jogador. Em vez disso, os logs de bate-papo seriam despojados de informações de identificação antes que qualquer algoritmo pudesse pegá-los e cutucá-los.

O problema mais imediato que vem à mente quando você ouve sobre a IA reduzindo a toxicidade é a perseverança dos jogadores, determinados a mostrar a você o quão lixo você é. A invenção de novas palavras, um léxico de conversa fiada que se transforma, está em constante mudança nas comunidades online. Como uma IA poderia responder a isso? O truque, segundo Jacquier, é não confiar no dicionário e nas fontes de dados estáticos. Assim, o valor em usar os logs de bate-papo do jogador atual, que refletem a meta de toxicidade atual.

Depois, há a outra preocupação com falhas de tiro, especialmente em um meio em que brincadeiras amigáveis ​​entre amigos, companheiros de equipe aleatórios e até mesmo jogadores inimigos podem fazer parte da experiência. Se estou jogando na rota superior em League of Legends e escrevo “bom amigo do CS” para meu oponente da rota 0/3, isso é apenas um pouco de brincadeira, certo? Se eles fizerem o mesmo comigo, isso é revigorante. Isso me faz querer ganhar mais e melhora a experiência. Como uma IA pode determinar a diferença entre toxicidade prejudicial genuína e brincadeira?

“É muito difícil”, afirma Jacquer. “Entender o contexto de uma discussão é uma das partes mais difíceis. Por exemplo, se um jogador ameaçar outro jogador. Em Rainbow Six, se um jogador disser ‘ei, vou acabar com você’, isso pode ser parte da fantasia. Considerando que em outros contextos pode ter um significado muito diferente.” Kerr seguiu com alguns dos benefícios que os videogames têm a esse respeito, graças a outros fatores.

De acordo com ele, levar em consideração com quem você faz fila é um exemplo de fator que pode ajudar a IA a determinar a toxicidade real de piadas divertidas. Em teoria, você não seria atingido por vira-latas se chamasse seu melhor amigo de merda em um saguão da Liga.

Quanto ao futuro, todos os olhos estão voltados para os resultados publicados no próximo ano. Por enquanto, está focado apenas em registros de bate-papo, mas com a Riot Games procurando monitorar as comunicações de voz no Valorant, Kerr se recusou a tirá-lo da mesa como uma área de pesquisa futura se a colaboração continuar depois de 2023. Por enquanto, é um projeto. Um primeiro passo de uma longa jornada ambas as empresas aparecem dedicadas a viajar. Embora Kerr e Jacquier tenham esperança de que o projeto de pesquisa produza descobertas importantes e inspire outras empresas a seguir o exemplo, eles não acreditam que a IA seja o princípio e o fim de toda a moderação da toxicidade.

“IA é uma ferramenta, mas não é uma bala de prata. Existem muitas maneiras de garantir a segurança do jogador, então a ideia é entender melhor como essa ferramenta pode ser melhor usada para lidar com conteúdo nocivo.”

Em última análise, esta pesquisa é apenas um componente de um esforço mais amplo, mas nas mentes de Jacquier e Kerr, espera-se que se revele crítico no futuro. Só o tempo dirá se eles estão certos, se eles podem cumprir sua promessa de que a privacidade dos jogadores será mantida e se a IA realmente é a próxima fronteira na batalha contra a toxicidade.





Source link

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *