Meta Atualiza Moderação de Conteúdo: Novas Regras e Desafios na Luta Contra Violências
Mudanças na moderação da Meta geram preocupações sobre a eficácia na remoção de conteúdos nocivos; usuários agora têm maior responsabilidade.
- Data: 16/01/2025 01:01
- Alterado: 16/01/2025 01:01
- Autor: redação
- Fonte: Folhapress
Crédito:Reprodução
A Meta, empresa responsável por plataformas como Facebook, Instagram e Threads, recentemente respondeu ao governo do Brasil, liderado pelo presidente Lula, com uma atualização nas suas políticas de moderação de conteúdo. O comunicado inclui a adição de uma nova categoria de temas que serão monitorados por sistemas automatizados, agora abrangendo também conteúdos relacionados ao incentivo ao suicídio e automutilação.
Anteriormente, a empresa já listava tópicos considerados de “alta gravidade”, como terrorismo, exploração sexual infantil, tráfico de drogas, fraudes e golpes. Contudo, o escopo das violações que serão detectadas automaticamente permanece limitado, e questões que envolvem desinformação eleitoral, discursos de ódio, bullying e assédio ainda carecem de esclarecimentos sobre seu tratamento dentro da nova política.
Ao ser questionada pela Folha sobre quais categorias não contarão mais com detecção automatizada, a Meta optou por não fornecer detalhes. Essa falta de clareza gera preocupações entre especialistas sobre a capacidade da empresa em lidar com o imenso volume de conteúdo gerado continuamente nas suas plataformas. A transição para um modelo onde a moderação depende mais das denúncias dos usuários pode impactar negativamente a eficácia na remoção de conteúdos nocivos.
Mark Zuckerberg, fundador da Meta, anunciou as mudanças em um vídeo no início deste mês. As alterações foram interpretadas como um gesto em direção à nova administração nos EUA e incluem a suspensão do programa de checagem de fatos. Além disso, a empresa anunciou cortes significativos em sua equipe, levantando questões sobre a viabilidade do novo modelo proposto.
A transparência nas operações da Meta também foi um ponto crítico na discussão. A empresa não divulga informações detalhadas sobre o número de moderadores ou a forma como a moderação será implementada em diferentes idiomas. Essa opacidade é vista como um desafio adicional para garantir uma moderação efetiva.
Clarice Tavares, coordenadora de pesquisa no InternetLab, expressou preocupação com as mudanças na moderação automatizada. Ela ressaltou que, embora essa abordagem possa resultar em erros devido à incapacidade dos sistemas automatizados em compreender contextos complexos, eliminá-los completamente não é uma solução adequada. Segundo ela, é fundamental aprimorar esses sistemas enquanto se investe em revisões humanas robustas.
As reações à nova política da Meta indicam que a mudança pode representar um retrocesso na proteção contra conteúdos prejudiciais nas plataformas da empresa. Em seu relatório sobre atuação no Brasil durante o período eleitoral de 2024, a Meta informou ter removido mais de 2,9 milhões de conteúdos relacionados a bullying, discurso de ódio e incitação à violência; 95% deles foram identificados automaticamente antes mesmo da denúncia.
A doutoranda Andressa Michelotti destacou que essa mudança coloca o ônus da identificação das violações nas mãos dos usuários. Isso levanta perguntas sobre como essa abordagem será aplicada em mercados que não falam inglês e se haverá revisão manual para todos os idiomas envolvidos.
Em resposta à Advocacia-Geral da União (AGU), a Meta reiterou que o terrorismo é uma das categorias sob sua política contra organizações e indivíduos perigosos, mas não ficou claro se grupos extremistas seriam monitorados sob esse novo regime.
Com essas mudanças recentes na moderação de conteúdo, fica evidente que a Meta enfrenta um desafio significativo ao equilibrar eficiência na remoção de conteúdo prejudicial com as limitações impostas pela nova política.