Meta está deixando seus usuários vagarem por ódio e desinformação – The
- A decisão da Meta de encerrar seu programa de verificação de fatos de terceiros pode permitir que a desinformação e o ódio prosperem online e permeiem o mundo real.
- Meta está substituindo o programa por uma abordagem de moderação de conteúdo colaborativo semelhante aos Community Notes da X.
- A mudança para uma abordagem de moderação baseada na comunidade levanta receios de que seja mais fácil espalhar informações enganosas sobre questões como mudanças climáticas, energias limpas, riscos de saúde pública e comunidades frequentemente alvo de violência.
Espera-se que a decisão da Meta de encerrar seu programa de verificação de fatos de terceiros possa permitir a proliferação da desinformação e do ódio online e no mundo real. A empresa anunciou hoje que está encerrando um programa lançado em 2016, no qual se associa a verificadores de fatos independentes ao redor do mundo para identificar e revisar desinformações em suas plataformas de mídia social. Meta está substituindo o programa por uma abordagem colaborativa de moderação de conteúdo semelhante aos Community Notes da X. Essencialmente, a Meta está transferindo a responsabilidade para os usuários filtrarem mentiras no Facebook, Instagram, Threads e WhatsApp, levantando temores de que será mais fácil espalhar informações enganosas sobre mudanças climáticas, energias limpas, riscos de saúde pública e comunidades frequentemente alvo de violência. “Vai prejudicar os usuários da Meta primeiro” “Vai prejudicar os usuários da Meta primeiro porque o programa funcionou bem na redução da viralidade de conteúdos falsos e teorias da conspiração”, diz Angie Drobnic Holan, diretora da International Fact-Checking Network (IFCN) na Poynter. “Muitas pessoas acham que a moderação no estilo Community Notes não funciona e é apenas uma maneira de as plataformas dizerem que estão fazendo alguma coisa… a maioria das pessoas não quer ter que navegar por um monte de desinformação nas mídias sociais, checando tudo por si mesmas”, acrescenta Holan. “Os perdedores aqui são pessoas que querem poder acessar as mídias sociais e não serem sobrecarregadas com informações falsas.”
Em um vídeo, o CEO da Meta, Mark Zuckerberg, afirmou que a decisão era uma questão de promover a liberdade de expressão, enquanto também chamava os verificadores de fatos de “muitos politicamente tendenciosos”. Meta também disse que seu programa era muito sensível e que de 1 a 2 a cada 10 conteúdos que foram removidos em dezembro eram erros e talvez não tenham violado realmente as políticas da empresa. Holan afirma que o vídeo foi “extremamente injusto” com os verificadores de fatos que trabalharam com a Meta como parceiros há quase uma década. Meta trabalhou especificamente com verificadores de fatos certificados pela IFCN, que tinham que seguir o Código de Princípios da rede, bem como as próprias políticas da Meta. Os verificadores analisavam o conteúdo e avaliavam sua precisão. Mas a Meta – não os verificadores de fatos – decide quando se trata de remover conteúdo ou limitar seu alcance. Poynter é dona do PolitiFact, que é um dos parceiros de verificação de fatos com os quais a Meta trabalha nos EUA. Holan era a editora-chefe do PolitiFact antes de assumir seu papel na IFCN.
#tecnologia #primeirapágina #ciência #política #tecnologia #meta