O governo da Austrália, por meio de sua agência reguladora de segurança digital, iniciou um processo formal de cobrança contra a Valve, empresa responsável pela plataforma Steam. A autoridade exige que a companhia compartilhe detalhadamente as medidas que está adotando para mitigar a presença de comunidades ligadas à extrema direita e outros movimentos de radicalização em seu serviço. O movimento ocorre em meio a preocupações crescentes sobre como as ferramentas de interação social dentro de plataformas de jogos digitais podem estar sendo utilizadas para a disseminação de ideologias extremistas.
De acordo com informações do Adrenaline, o Steam enfrenta escrutínio devido à existência de milhares de grupos que utilizam simbologia neonazista e outros discursos de ódio. A eSafety Commissioner, órgão responsável pela segurança online no país, notificou a Valve para que ela apresente relatórios sobre suas políticas de moderação. Caso a empresa não cumpra as exigências ou falhe em demonstrar ações efetivas de combate ao conteúdo nocivo, poderá enfrentar multas severas previstas na legislação local.
Por que a Austrália decidiu investigar o Steam?
A investigação faz parte de um esforço contínuo das autoridades australianas para garantir que as plataformas digitais não se tornem ambientes seguros para o recrutamento e a propaganda de grupos terroristas ou violentos. Diferente de redes sociais tradicionais, que possuem sistemas de moderação mais visíveis, as plataformas de jogos frequentemente operam sob o radar, com fóruns de discussão e grupos de usuários que permitem a troca de mensagens sem a mesma vigilância aplicada em outros setores da internet.
O foco da eSafety Commissioner está no Online Safety Act, a lei de segurança online da Austrália, que concede poderes para exigir transparência das gigantes da tecnologia. O governo identificou que o Steam abriga comunidades que glorificam figuras históricas ligadas ao nazismo e promovem a supremacia branca. A falta de uma resposta ágil da Valve em remover tais grupos motivou a abertura deste canal formal de pressão regulatória contra a empresa sediada nos Estados Unidos.
Quais são as possíveis punições para a Valve?
As sanções financeiras para empresas que ignoram as diretrizes de segurança online na Austrália podem atingir cifras milionárias. Se a Valve não fornecer as respostas solicitadas ou se as medidas apresentadas forem consideradas insuficientes, a empresa pode ser multada diariamente por cada infração cometida. Além disso, a reputação da plataforma pode ser afetada em um mercado relevante, visto que o país tem se mostrado um dos mais rigorosos no controle de conteúdo digital nocivo em todo o mundo.
Entre os pontos principais exigidos pelas autoridades reguladoras, destacam-se os seguintes fatores:
- Apresentação de métricas detalhadas sobre a remoção de conteúdos extremistas;
- Explicação técnica sobre o funcionamento dos algoritmos de recomendação de grupos;
- Detalhamento das equipes de moderação humana e ferramentas de inteligência artificial utilizadas;
- Protocolos de denúncia acessíveis para os usuários globais e regionais.
Como a radicalização ocorre em plataformas de jogos?
Especialistas em segurança digital apontam que a radicalização em ambientes como o Steam não ocorre necessariamente durante as partidas de jogos, mas sim nas camadas de sociabilidade que a plataforma oferece. Grupos fechados, perfis customizáveis e seções de comentários tornam-se espaços onde ideologias são compartilhadas através de códigos e referências que, muitas vezes, passam despercebidos por sistemas automatizados de moderação básica.
A Austrália já aplicou medidas semelhantes contra outras gigantes do setor, como o X (antigo Twitter) e o Discord, sinalizando que nenhuma plataforma de comunicação em massa está isenta das responsabilidades legais de manter um ambiente livre de apologia ao crime e ao ódio. A Valve, historicamente conhecida por uma abordagem de moderação mais permissiva, agora se vê forçada a adaptar seus processos internos para atender a legislações nacionais que exigem maior rigor na filtragem de comunidades nocivas.