O conselho quer que o pai do Facebook, Meta, melhore um programa conhecido como verificação cruzada.
A Meta, empresa controladora do Facebook, diz que suas regras sobre qual conteúdo é ou não permitido em sua plataforma, como discurso de ódio e assédio, se aplicam a todos.
Mas um conselho encarregado de revisar algumas das decisões mais difíceis de moderação de conteúdo da Meta disse na terça-feira que a afirmação da gigante da mídia social é “enganosa”.
Em 2021, Meta pediu ao Conselho de Supervisão que investigasse um programa chamado verificação cruzada que permite que celebridades, políticos e outros usuários importantes no Facebook e Instagram obtenham uma revisão extra se seu conteúdo for sinalizado por violar as regras da plataforma. O Wall Street Journal revelou mais detalhes sobre o programa no ano passado, observando que o sistema protege milhões de usuários importantes de como o Facebook normalmente aplica suas regras. O astro do futebol brasileiro Neymar, por exemplo, conseguiu compartilhar fotos nuas de uma mulher que o acusou de estupro com dezenas de milhões de fãs antes que o Facebook retirasse o conteúdo.
Em um parecer consultivo de política de 57 páginas sobre o programa, o Conselho de Supervisão identificou várias falhas no programa de verificação cruzada da Meta, incluindo o fato de dar mais proteção a alguns usuários de alto perfil. A opinião também levanta questões sobre se o programa da Meta está funcionando conforme o esperado.
“A opinião detalha como o programa de verificação cruzada da Meta prioriza usuários influentes e poderosos de valor comercial para a Meta e, conforme estruturado, não atende às responsabilidades de direitos humanos e valores da empresa da Meta, com profundas implicações para os usuários e a sociedade civil global”, disse Thomas Hughes, diretor do Administração do Conselho de Supervisão, disse em um comunicado.
Aqui está o que você precisa saber sobre o programa de verificação cruzada da Meta:
Por que a Meta criou este programa?
A Meta diz que o programa de verificação cruzada visa evitar que a empresa aja por engano contra conteúdo que não viole suas regras, especialmente nos casos em que há um risco maior de cometer um erro.
A empresa disse que aplica esse programa a postagens de meios de comunicação, celebridades ou governos. “Por exemplo, verificamos a conta de um ativista americano dos direitos civis para evitar deletar por engano instâncias dele aumentando a conscientização sobre o discurso de ódio que ele estava encontrando”, disse Meta em um post de blog em 2018.
A empresa também dá mais detalhes sobre o funcionamento do programa em sua central de transparência.
Que problemas o conselho encontrou?
O conselho concluiu que o programa resulta em “tratamento desigual dos usuários” porque o conteúdo sinalizado para revisão adicional por um humano permanece na plataforma por mais tempo. A Meta disse ao conselho que a empresa pode levar mais de cinco dias para chegar a uma decisão sobre o conteúdo dos usuários que fazem parte da checagem cruzada.
“Isso significa que, por causa da verificação cruzada, o conteúdo identificado como quebrando as regras do Meta é deixado no Facebook e no Instagram quando é mais viral e pode causar danos”, disse o parecer.
O programa também parece beneficiar mais os interesses comerciais da Meta do que seu compromisso com os direitos humanos, de acordo com o parecer. O conselho apontou questões de transparência com o programa. A Meta não informa ao público quem está em sua lista de verificação cruzada e falha em rastrear dados sobre se o programa realmente ajuda a empresa a tomar decisões de moderação de conteúdo mais precisas.
O conselho fez perguntas ao Meta 74 sobre o programa. A Meta respondeu 58 das questões totalmente e 11 parcialmente. A empresa não respondeu a cinco perguntas.
Que mudanças o conselho recomendou que a Meta fizesse?
O conselho fez 32 recomendações à Meta, observando que ela deveria priorizar o conteúdo importante para os direitos humanos e analisar esses usuários em um fluxo de trabalho separado de seus parceiros de negócios. Os números de seguidores de um usuário ou o status de celebridade não devem ser o único fator para receber proteção extra.
A Meta também deve remover ou ocultar conteúdo altamente grave sinalizado por violar suas regras durante a primeira revisão, enquanto os moderadores analisam novamente a postagem.
“Tal conteúdo não deve permanecer na plataforma acumulando visualizações simplesmente porque a pessoa que o postou é um parceiro de negócios ou uma celebridade”, disse o parecer.
O conselho também quer que a Meta seja mais transparente sobre o programa, marcando publicamente algumas contas protegidas por verificação cruzada, como atores estatais, candidatos políticos e parceiros de negócios, para que o público possa responsabilizá-los se estão seguindo as regras da plataforma. Os usuários também devem ser capazes de apelar para o conselho do conteúdo verificado.
Como a Meta respondeu à opinião do conselho?
A empresa disse que está analisando a opinião do conselho e responderá dentro de 90 dias.
A Meta disse que no ano passado trabalhou para melhorar o programa, como expandir as revisões cruzadas para todos os 3 bilhões de usuários. A empresa disse que usa um algoritmo para determinar se o conteúdo tem um risco maior de ser removido por engano. A Meta também observou que estabeleceu revisões anuais para ver quem está recebendo um nível extra de revisão.