Trump mostrou que Facebook, Twitter e YouTube não podem moderar suas plataformas. Precisamos de mudança

Comentário: Está cada vez mais claro que essas empresas não são moderadores confiáveis.

Foi necessária uma insurreição movida a máfia, mas o CEO do Facebook Mark Zuckerberg e o CEO do Twitter Jack Dorsey finalmente compreenderam a enormidade dos danos e prejuízos que o presidente Donald Trump fez ao usar como arma suas influentes plataformas de mídia social, e eles o baniram, permanentemente no Twitter e ” indefinidamente “no Facebook, continuando a postar mentiras incendiárias sobre as eleições de 2020.

Mas não se trata mais de Trump. O Facebook e o Twitter precisam de mudanças radicais. É hora de as empresas de mídia social deixarem outra pessoa moderar suas plataformas.

Foi necessária uma insurreição movida a máfia, mas o CEO do Facebook Mark Zuckerberg e o CEO do Twitter Jack Dorsey finalmente compreenderam a enormidade dos danos e prejuízos que o presidente Donald Trump fez ao usar como arma suas influentes plataformas de mídia social, e eles o baniram, permanentemente no Twitter e ” indefinidamente “no Facebook, continuando a postar mentiras incendiárias sobre as eleições de 2020.

Mas não se trata mais de Trump. O Facebook e o Twitter precisam de mudanças radicais. É hora de as empresas de mídia social deixarem outra pessoa moderar suas plataformas.

O Facebook e seu site de compartilhamento de fotos Instagram, o Twitter, o YouTube do Google e outras redes sociais pagam dezenas de milhares de pessoas para identificar e responder ao mau comportamento. Muitos desses funcionários estão localizados fora dos Estados Unidos, onde menos benefícios e menores salários por hora são comuns.

Esse processo não funcionou bem, como evidenciado pelas muitas histórias que tivemos que escrever sobre os vídeos terríveis, postagens enganosas e mentiras perigosas que precisam ser retiradas, mas que já foram vistas e compartilhadas milhões de vezes.

Essas bagunças estão acontecendo em escala mundial, em plataformas com bases de usuários maiores do que a população de qualquer país da Terra. O Facebook tem mais de 2,7 bilhões de usuários ativos e sua plataforma Instagram tem mais de 1 bilhão de usuários ativos. O YouTube oferece vídeos a um público global de mais de 2 bilhões de pessoas por mês. O Twitter não compartilha mais estatísticas simples de usuários ativos mensais, mas em 2018 contava com 336 milhões de pessoas se conectando a cada mês. A receita e os lucros da empresa cresceram dois dígitos desde então.

A mídia social é uma das principais formas pelas quais as pessoas obtêm notícias nos Estados Unidos e no mundo todo. Esqueça a “mídia convencional”. São essas plataformas os mecanismos mais poderosos e influentes para a disseminação de informações – e, infelizmente, desinformação e desinformação. Embora as empresas que os administram tenham sucesso no controle de postos de terroristas internacionais e pessoas envolvidas na exploração infantil, eles praticamente falharam em todo o resto.

É por isso que é hora das equipes de moderação de conteúdo de mídia social trabalharem para um órgão não governamental independente que é financiado por essas empresas. O Facebook e o Twitter colheram mais de US $ 20 bilhões em lucros combinados no ano passado – eles poderiam facilmente pagar.

Precisamos de um programa em todo o setor para lidar com essa catástrofe de falta de responsabilidade e a falta de repercussões.

Precisamos de um sistema de justiça para o mundo social. E precisamos que todas as empresas de mídia social assinem ou enfrentem processos judiciais que encerrem os negócios.

O governo dos Estados Unidos pode fazer isso reescrevendo o Communications Decency Act de 1996 para oferecer às empresas de mídia social e seus executivos proteção contra multas e outros processos judiciais apenas se moderarem significativamente suas plataformas. Do contrário, as vítimas dos fracassos da mídia social devem ser capazes de buscar algum senso de justiça se a empresa estiver negligentemente ignorando suas responsabilidades.

Já existe um debate crescente sobre a Seção 230 da lei, que dá a essas plataformas proteção legal contra qualquer coisa prejudicial, dita ou postada. Os legisladores de ambos os lados do espectro político concordam que mudanças devem ser feitas.

Defensores da privacidade, provocadores das redes sociais e qualquer pessoa que mergulhe no extremismo online podem argumentar que essa ideia infringe a liberdade de expressão. Talvez sim. Mas a mídia social pode viver sem neonazistas. Pode continuar sem a conspiração de abuso infantil QAnon, anti-Vaxxers e negadores do Holocausto. A mídia social está bem sem pessoas transmitindo assassinato em massa por meia hora antes que algo seja feito. Não é necessário que o presidente dos Estados Unidos minem nossa democracia e fomente a violência por semanas, culminando com a cena feia de quarta-feira, quando uma multidão pró-Trump violenta invadiu o Capitólio dos EUA, deixando cinco pessoas mortas, incluindo um policial do Capitólio.

Este ciclo de irresponsabilidade temerária tem que terminar. É hora de considerarmos o que o Facebook, Twitter e YouTube trouxeram. Se eles não podem ou não querem resolver a situação, não importa mais. Eles devem.

O Facebook se recusou a disponibilizar Zuckerberg para discutir mudanças na política. Na quinta-feira, quando anunciou o banimento indefinido da conta de Trump, Zuckerberg reconheceu o perigo que uma postagem desonesta no Facebook representa quando vem do presidente.

“Sua decisão de usar sua plataforma para tolerar, em vez de condenar, as ações de seus apoiadores no prédio do Capitólio, com razão perturbou as pessoas nos Estados Unidos e ao redor do mundo”, disse Zuckerberg. “Acreditamos que os riscos de permitir que o presidente continue a usar nosso serviço durante este período são simplesmente grandes demais.”

O YouTube se recusou a disponibilizar sua CEO, Susan Wojcicki, para uma entrevista. O Twitter também recusou um pedido para discutir essas questões com Dorsey, com um porta-voz escrevendo: “Não podemos fazer isso funcionar agora, mas adoraria manter contato sobre isso.”

Estarei esperando.

Novas regras

A razão pela qual o Facebook, Twitter e todas as outras empresas de mídia social deveriam pagar quantias desconfortavelmente grandes de seus lucros para u ma organização separada para policiar seu conteúdo é porque está claro que tudo o mais não está funcionando.

Veja como isso poderia funcionar: Uma nova organização separada – vamos chamá-la de NetMod (para moderadores da Internet) – que seria divorciada do objetivo de lucro. Não funcionaria segundo os caprichos de um CEO presunçoso. Em vez disso, seria uma organização independente. Teria sua própria corte suprema, por assim dizer, que definiria as regras que a maioria dos usuários de mídia social precisa seguir, enquanto debatem e decidem quais devem ser as leis da mídia social.

Aqui está um brinde para começar: “Não encorajar uma multidão de extremistas violentos a saquear o Capitólio dos Estados Unidos.”

A boa notícia é que o Facebook já começou com o aspecto da suprema corte, que ele chama de “conselho de supervisão”. O objetivo do Facebook com o conselho é oferecer aos usuários uma maneira de apelar das decisões de moderação das quais discordam. O conselho de 20 membros é formado por ex-juízes, advogados e jornalistas. Até agora, o conselho de supervisão tem sido tão eficaz quanto seu nome é enfadonho, mas é um começo.

As empresas de mídia social também têm experiência em trabalhar juntas para combater terroristas internacionais e a exploração infantil todos os dias. Eles são muito bons nisso. NetMod é simplesmente o próximo passo.

As regras de operação do NetMod e como ele modera o conteúdo também precisam ser documentadas e compartilhadas publicamente. Além de postar seus termos de serviço, as empresas de tecnologia raramente compartilham seus processos. O Facebook e o Twitter construíram sites dedicados à publicação de anúncios políticos em seus serviços, mas nem todos os anúncios. Além de alguns documentos de treinamento que vazaram e memorandos internos, sabemos tão pouco sobre como essas equipes operam que muitos de seus críticos também acreditaram em teorias de conspiração sobre elas.

Claro, cada rede social é ligeiramente diferente das outras, e eles devem ser capazes de ter suas próprias regras para seus pequenos feudos. O Facebook insiste que as pessoas usem seus nomes verdadeiros, por exemplo. O Twitter jura anonimato. O NetMod não afetaria isso. Trata-se de definir padrões básicos para uma postagem ou comentário inaceitável.

Pense em cada rede social como seu próprio estado – o que não deve ser muito difícil, considerando que a base de usuários ativa de cada uma é anã em relação à população de qualquer estado dos EUA. Cada estado tem suas próprias regras e maneiras de fazer as coisas, mas todos os estados têm que seguir as leis federais. Redes sociais e NetMod seguiriam um modelo semelhante.

Faça

O próximo passo é incentivar as empresas a fazer isso. Zuckerberg e Dorsey apareceram no Capitólio durante os últimos dois anos, dizendo que recebem bem alguma forma de legislação para ajudar a orientar seus negócios.

Zuckerberg em particular já disse ao Congresso que acredita que a Seção 230 do Communications Decency Act precisa ser atualizada. “As pessoas querem saber se as empresas estão assumindo a responsabilidade pelo combate a conteúdo prejudicial – especialmente atividades ilegais – em suas plataformas”, disse ele durante uma audiência no Capitólio em outubro passado. “Eles querem saber se as plataformas removem conteúdo de maneira justa e transparente. E querem ter certeza de que as plataformas serão responsabilizadas.”

O passe livre legal da Seção 230 é o que permitiu o florescimento da Internet. Especialistas em lei cibernética dizem que alterá-lo para permitir proteções legais às redes sociais apenas se moderar significativamente suas plataformas ajudaria a forçar as empresas a assumir a responsabilidade pelo que acontece em seus sites.

E o NetMod seria uma entidade natural com a qual trabalhar para definir que tipo de moderação significativa de comportamento inaceitável deve ser, a fim de obter essa proteção legal.

O NetMod também teria recompensas imediatas. Por exemplo, as empresas compartilhariam inteligência, identificando e agindo contra terroristas, nacionais e estrangeiros, que muitas vezes têm contas em várias plataformas.

“Essas pessoas usam uma linguagem codificada”, disse Brian Levin, diretor do Centro para o Estudo do Ódio e do Extremismo da California State University, em San Bernardino. Ele acompanhou como os movimentos que surgiram para apoiar os apelos de Trump para “libertar” os estados dos bloqueios do coronavírus em 2020 atraíram teóricos da conspiração, extremistas e proprietários de pequenos negócios temerosos por seus empregos.

“Muitos ursos vieram para aquele mel”, disse Levin.

Todas essas mudanças não acontecerão da noite para o dia. O NetMod não pode compensar por mais de três décadas de recrutamento online neonazista. Mas o NetMod pelo menos colocará todos nós na mesma página. Isso criará um padrão com o qual todos podemos concordar. Pode ser um começo.

“Não permitimos que as pessoas entrem em suas garagens e criem materiais nucleares”, disse Danielle Citron, professora de direito na Universidade da Virgínia e autora do livro de 2014 Crimes de ódio no ciberespaço. Ela é uma das pessoas que deseja mudanças na Seção 230, em parte porque as redes sociais têm muito potencial para causar danos quando mal administradas.

O NetMod pode até mesmo ajudar a inspirar mais inovação e competição. As startups poderiam aderir por uma taxa variável, dando-lhes acesso instantâneo a especialistas e ferramentas que, de outra forma, passariam anos construindo por conta própria. Redes sociais menores como Gab ou Parler, que costumam atender extremistas iniciados no Twitter e no Facebook, podem começar a moderar por conta própria, ingressar no NetMod ou escolher enfrentar a exposição legal pelo que seus usuários fazem e dizem.

A melhor parte de mudar a Seção 230 e implementar o NetMod seria como ele mudaria as partes mais obscuras da Internet. Há evidências crescentes de que, quando você separa um grupo de ódio no Facebook ou Reddit, é mais difícil adquirir a mesma influência em outras alternativas, muitas vezes menos moderadas.

Quero tornar mais fácil separá-los e tornar mais difícil para eles encontrar um novo lar acolhedor.

O melhor de tudo é que esse plano significaria que o próximo líder mundial que agisse como Trump não receberia o tratamento especial. Zuckerberg do Facebook ou Dorsey do Twitter não teriam a escolha de deixar essa pessoa fazer o que ela quisesse.

Em vez disso, esse próximo líder mundial teria que enfrentar os NetMods.

Como todo mundo.

Próxima leitura: Parler falava muito sobre armas e violência antes do motim do Capitólio

#Cultura #IndústriadeTecnologia #DigitalMedia #Legal #MarkZuckerberg #Twitter #Youtube #DonaldTrump