A empresa-mãe do Facebook, Meta, cometeu erros de moderação de conteúdo que afetaram os direitos humanos dos palestinos durante um surto de violência que aconteceu na Faixa de Gaza em maio de 2021, mostra um relatório divulgado na quinta-feira. Meta pediu à empresa de consultoria Business for Social Responsibility (BSR) para revisar como as políticas e ações da empresa afetaram palestinos e israelenses depois que um Conselho de Supervisão que examina algumas das decisões mais difíceis de moderação de conteúdo da empresa de mídia social recomendou que a empresa o fizesse. O relatório mostrou que as ações de Meta removeram ou reduziram a capacidade dos palestinos de desfrutar de seus direitos humanos "à liberdade de expressão, liberdade de reunião, participação política e não discriminação". Também destaca os desafios contínuos que a empresa enfrenta quando se trata de moderar conteúdo em idiomas fora do inglês. A Meta possui a maior rede social do mundo, o Facebook, o serviço de foto e vídeo Instagram e o aplicativo de mensagens WhatsApp. A BSR disse no relatório que conversou com as partes interessadas afetadas e muitos compartilharam "sua visão de que a Meta parece ser outra entidade poderosa que reprime sua voz". As descobertas descrevem vários erros de moderação de conteúdo que o Meta cometeu em meio ao conflito israelo-palestino no ano passado. O conteúdo de mídia social em árabe "teve maior aplicação excessiva", resultando na remoção equivocada de postagens de palestinos pela empresa. A BSR também descobriu que as "taxas de detecção proativa de conteúdo árabe potencialmente violador eram significativamente mais altas do que as taxas de detecção proativa de conteúdo hebraico potencialmente violador". O conteúdo hebraico sofreu "maior subexecução" porque o Meta não tinha o que é conhecido como "classificador" para "fala hostil" nesse idioma. Ter um classificador ajuda os sistemas de inteligência artificial da empresa a identificar automaticamente postagens que provavelmente violam suas regras. A Meta também perdeu funcionários que falam hebraico e terceirizou a moderação de conteúdo. A Meta também retirou falsamente o conteúdo que não violava suas regras. O impacto sobre os direitos humanos "esses erros foram mais graves em um contexto em que direitos como liberdade de expressão, liberdade de associação e segurança eram de maior importância, especialmente para ativistas e jornalistas", afirmou o relatório. O relatório também apontou outros grandes erros de moderação de conteúdo nas plataformas da Meta. Por exemplo, o Instagram baniu brevemente #AlAqsa, uma hashtag usada para fazer referência à Mesquita Al-Aqsa na Cidade Velha de Jerusalém. Os usuários também postaram discursos de ódio e incitação à violência contra palestinos, árabes israelenses, judeus israelenses e comunidades judaicas fora da região. Jornalistas palestinos também relataram que suas contas do WhatsApp foram bloqueadas. A BSR, no entanto, não encontrou viés intencional na empresa ou entre os funcionários da Meta, mas encontrou "vários casos de viés não intencional em que a política e a prática da Meta, combinadas com dinâmicas externas mais amplas, levam a diferentes impactos nos direitos humanos em palestinos e árabes. usuários." A Meta disse que está fazendo mudanças para resolver os problemas descritos no relatório. A empresa, por exemplo, disse que continuará desenvolvendo e implantando classificadores de aprendizado de máquina em hebraico. “Acreditamos que isso melhorará significativamente nossa capacidade de lidar com situações como essa, onde vemos grandes picos de violação de conteúdo”, disse a diretora de direitos humanos da Meta, Miranda Sissons, em um post no blog.