A rede social descentralizada do Mastodon tem um grande problema de CSAM
- Mastodon é uma alternativa popular ao Twitter após a aquisição pela Elon Musk
- Sua natureza descentralizada o torna imune às vontades dos bilionários
- No entanto, isso torna a moderação de conteúdo quase impossível
Um estudo da Universidade de Stanford encontrou 112 casos de material conhecido de abuso sexual infantil (CSAM) em um período de dois dias, com quase 2.000 postagens usando hashtags comuns relacionadas a material abusivo. O pesquisador David Thiel diz: “Obtivemos mais hits de fotoDNA em um período de dois dias do que provavelmente tivemos em toda a história de nossa organização de análise de mídia social, e nem chega perto”. Entramos em contato com o Mastodon para comentar e atualizaremos esta história assim que recebermos uma resposta.
Claro, o grande problema com plataformas de mídia social não federadas como o Mastodon é que nenhuma empresa ou entidade controla tudo na plataforma. Cada instância tem seus próprios administradores e são eles que são os responsáveis finais. No entanto, esses administradores não podem controlar e moderar o que acontece em outras instâncias ou servidores.
Isso não é exclusivamente um problema do Mastodon. O Threads, popular do Meta, também é construído em torno do modelo descentralizado. Embora ainda não seja suportado, o Threads planeja ser interoperável com o ActivityPub. Isso significa que os usuários do Threads poderão seguir, responder e repostar conteúdo do Mastodon e vice-versa.
Isso cria um problema único para o Meta, que não pode controlar todo o fluxo de moderação como poderia com o Facebook ou o Instagram. Mesmo assim, a empresa luta para acompanhar a moderação. Presumivelmente, instâncias maiores no Mastodon e outras plataformas como Threads poderiam bloquear o acesso direto a instâncias problemáticas. Claro, isso não “resolveria” o problema. O conteúdo ainda existiria. Seria apenas isolado e deixado para os moderadores daquela instância específica removê-lo.