Bug que mostrou conteúdo violento nos feeds do Instagram é corrigido, diz Meta

“`html

Resumo dos principais tópicos:

  • Um bug exibiu conteúdo violento no feed do Instagram Reels, mesmo com filtros ativados.
  • Meta, empresa responsável pelo Instagram, se desculpou e afirmou que o problema foi corrigido.
  • O incidente foi atribuído a um erro técnico, sem relação com mudanças nas políticas de conteúdo.
  • Especialistas levantaram preocupações sobre os riscos das novas práticas de moderação da Meta.

Recentemente, usuários do Instagram relataram a aparição de conteúdo violento e inadequado em seus feeds do Reels, mesmo com os filtros de conteúdo ativados. A Meta, empresa controladora da rede social, reconheceu o problema e anunciou que o bug foi corrigido.

The Instagram Reels logo is shown on a smart phone.

Em um comunicado oficial, um porta-voz da Meta afirmou: “Corrigimos um erro que fez com que alguns usuários vissem conteúdo em seus feeds do Instagram Reels que não deveria ter sido recomendado. Pedimos desculpas pelo ocorrido.” A empresa enfatizou que o incidente foi um erro técnico e não está relacionado a mudanças recentes nas políticas de conteúdo.

No início do ano, o Instagram implementou ajustes significativos em suas políticas para usuários e criação de conteúdo, mas essas alterações não abordavam especificamente a filtragem de conteúdo inadequado. Recentemente, a Meta fez mudanças em seu sistema de moderação, optando por uma abordagem mais comunitária e descontinuando seu departamento de verificação de fatos. Especialistas alertaram que essas mudanças podem aumentar os riscos de propagação de violência.

Apesar das garantias da Meta, muitos usuários expressaram insatisfação ao se depararem com imagens perturbadoras, como tiroteios, decapitações e outras cenas violentas. Brooke Erin Duffy, pesquisadora de mídias sociais e professora da Universidade Cornell, levantou dúvidas sobre a afirmação da empresa de que o problema não estava ligado a alterações nas políticas. “Sistemas de moderação de conteúdo, sejam baseados em IA ou mão de obra humana, nunca são infalíveis”, destacou Duffy.

A Meta afirmou que trabalha com especialistas internacionais para desenvolver políticas em torno de imagens violentas e que o aprimoramento dessas diretrizes é um processo contínuo. A empresa também mencionou que a maioria do conteúdo gráfico é removida ou acompanhada de alertas para proteger os usuários, especialmente os menores de 18 anos.

Enquanto isso, os usuários continuam a exigir maior transparência e eficiência nas práticas de moderação da plataforma. O incidente serve como um lembrete dos desafios enfrentados pelas redes sociais ao equilibrar a liberdade de expressão com a proteção dos usuários.

“`