Os avisos de suspensão do Twitter podem reduzir o discurso de ódio, diz estudo

Avisos educados em resposta a linguagem violenta podem ser mais eficazes do que um banimento imediato.

Desde que o Twitter abriu suas portas pela primeira vez em 2006, o site se tornou um evento gigante de networking, ponto de encontro em bar, gerador de meme e centro de conversa casual reunido em um. E, para cada atualização de notícias oportunas de 280 palavras e comentários espirituosos, você encontrará uma postagem violenta e odiosa.

Entre a equipe de especialistas que elaboram estratégias para desarmar o lado negro do Twitter, uma equipe da Universidade de Nova York fez um experimento para testar se os relatos de alerta de que a incitação ao ódio resultaria em suspensão é uma técnica funcional. Acontece que poderia ser bastante eficaz.

Depois de estudar mais de 4.300 usuários do Twitter e 600.000 tweets, os cientistas descobriram que relatos de alerta sobre tais consequências “podem reduzir significativamente sua linguagem odiosa por uma semana”. Essa queda foi ainda mais aparente quando os avisos foram formulados educadamente.

Esperançosamente, o artigo da equipe, publicado na segunda-feira no jornal Perspectives on Politics, ajudará a lidar com o conteúdo racista, cruel e abusivo que polui a mídia social.

“Os debates sobre a eficácia das suspensões de contas de mídia social e banimentos de usuários abusivos são abundantes, mas sabemos pouco sobre o impacto de alertar um usuário sobre a suspensão de uma conta ou de suspensões diretas para reduzir o discurso de ódio”, Mustafa Mikdat Yildirim, um O candidato a doutorado da NYU e o principal autor do artigo, disse em um comunicado.

“Mesmo que o impacto dos avisos seja temporário, a pesquisa fornece um caminho potencial para as plataformas que buscam reduzir o uso de linguagem odiosa pelos usuários.”

Esses avisos, observou Mikdat Yildirim, nem precisam vir do próprio Twitter. A proporção de tweets contendo discurso de ódio por usuário diminuiu entre 10% e 20%, mesmo quando o aviso se originou de uma conta padrão do Twitter com apenas 100 seguidores – uma “conta” feita pela equipe para fins experimentais.

“Suspeitamos, também, que essas são estimativas conservadoras, no sentido de que aumentar o número de seguidores que nossa conta teve poderia levar a efeitos ainda maiores … para não falar do que um aviso oficial do Twitter faria”, eles escrever no papel.

A esta altura, você deve estar se perguntando: por que incomodar “alertar” os endossantes do discurso de ódio quando podemos simplesmente livrar o Twitter deles? Intuitivamente, uma suspensão imediata deve ter o mesmo efeito, se não mais forte.

Por que não proibir o discurso de ódio o mais rápido possível?

Embora o discurso de ódio online já exista há décadas, ele aumentou nos últimos anos, especialmente em relação às minorias. A violência física como resultado dessa negatividade também aumentou. Isso inclui tragédias como tiroteios em massa e linchamentos.

Mas há evidências que mostram que a remoção não anunciada da conta pode não ser a maneira de combater o problema.

Como exemplo, o jornal aponta os tuítes notórios e errôneos do ex-presidente Donald Trump após a eleição presidencial de 2020 nos Estados Unidos. Eles consistiam em desinformação eleitoral, como chamar os resultados de fraudulentos e elogios aos desordeiros que invadiram o Capitólio em 6 de janeiro de 2021. Sua conta foi prontamente suspensa.

O Twitter disse que a suspensão foi “devido ao risco de mais incitação à violência”, mas o problema foi que Trump mais tarde tentou acessar outras formas de postar online, como tweetar por meio da conta oficial @Potus. “Mesmo quando as proibições reduzem o comportamento desviante indesejado dentro de uma plataforma, eles podem falhar na redução do comportamento desviante geral na esfera online”, diz o jornal.

Em contraste com banimentos ou suspensões rápidas, Mikdat Yildirim e outros pesquisadores dizem que avisos de suspensão de conta podem reduzir o problema a longo prazo, porque os usuários tentarão proteger sua conta em vez de se mudar para outro lugar como último recurso.

Evidência experimental para sinais de alerta

Houve algumas etapas para o experimento da equipe. Primeiro, eles criaram seis contas no Twitter com nomes como @ basic_person_12, @hate_suspension e @warner_on_hate.

Em seguida, eles baixaram 600.000 tweets em 21 de julho de 2020 que foram postados na semana anterior para identificar contas que provavelmente seriam suspensas durante o estudo. Este período viu um aumento no discurso de ódio contra as comunidades asiáticas e negras, dizem os pesquisadores, devido à reação do COVID-19 e ao movimento Black Lives Matter.

Analisando esses tweets, a equipe escolheu qualquer um que usasse linguagem de ódio de acordo com um dicionário delineado por um pesquisador em 2017 e isolou aqueles criados após 1 de janeiro de 2020. Eles raciocinaram que contas mais recentes têm maior probabilidade de serem suspensas – mais de 50 dos essas contas, de fato, foram suspensas.

Antecipando essas suspensões, os pesquisadores reuniram de antemão 27 dessas listas de seguidores dessas contas. Depois de um pouco mais de filtragem, os pesquisadores terminaram com 4.327 twitteiros para estudar. “Limitamos nossa população de participantes a pessoas que anteriormente usaram linguagem odiosa no Twitter e seguiram alguém que na verdade tinha acabado de ser suspenso”, eles esclarecem no jornal.

Em seguida, a equipe enviou avisos sobre diferentes níveis de polidez – o mais polido dos quais acredita criar um ar de “legitimidade” – de cada conta para os candidatos divididos em seis grupos. Um grupo de controle não recebeu uma mensagem.

A legitimidade, eles acreditam, foi importante porque “para transmitir com eficácia uma mensagem de advertência ao seu alvo, a mensagem precisa conscientizá-lo das consequências de seu comportamento e também fazê-lo acreditar que essas consequências serão administradas”, escrevem eles.

Em última análise, o método levou a uma redução na proporção de postagens de incitação ao ódio em 10% para avisos contundentes, como “Se você continuar a usar discurso de ódio, poderá perder suas postagens, amigos e seguidores e não obter sua conta de volta” e em 15% a 20% com avisos mais respeitosos, que incluíam sentimentos como “Entendo que você tem todo o direito de se expressar, mas lembre-se de que usar incitação ao ódio pode fazer com que você seja suspenso”.

Mas não é tão simples

Mesmo assim, a equipe de pesquisa observa que “paramos de recomendar, sem ambigüidades, que o Twitter simplesmente implemente o sistema que testamos sem estudos adicionais por causa de duas advertências importantes.”

Acima de tudo, eles dizem que uma mensagem de uma grande empresa como o Twitter poderia criar reação de uma forma que as contas menores do estudo não criaram. Em segundo lugar, o Twitter não teria o benefício da ambigüidade nas mensagens de suspensão. Eles não podem dizer “você pode” perder sua conta. Portanto, eles precisariam de uma regra geral.

E com qualquer regra geral, pode haver usuários acusados ​​injustamente.

“Seria importante pesar o dano incremental que tal programa de aviso poderia causar a um usuário suspenso incorretamente”, escreve a equipe.

Embora o principal impacto das advertências da equipe tenha se desmaterializado cerca de um mês depois e haja alguns caminhos ainda a serem explorados, eles ainda insistem que essa técnica pode ser uma opção sustentável para mitigar o discurso violento, racista e abusivo que continua a ameaçar a comunidade do Twitter .

#Twitter

John Doe

Curioso e apaixonado por tecnologia.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *