Como o Twitter acertou na pesquisa

Enquanto outros gigantes da tecnologia se escondem de seus pesquisadores

Não tem sido uma época feliz para pesquisadores de grandes empresas de tecnologia. Contratadas para ajudar os executivos a entender as deficiências das plataformas, as equipes de pesquisa inevitavelmente revelam verdades inconvenientes. As empresas contratam equipes para construir “IA responsável”, mas se irritam quando seus funcionários descobrem viés algorítmico. Eles se gabam da qualidade de sua pesquisa interna, mas a rejeitam quando chega à imprensa. No Google, essa história acabou com a saída forçada do pesquisador de IA ética Timnit Gebru e as consequências subsequentes para sua equipe. No Facebook, levou a Frances Haugen e os Arquivos do Facebook.

Por essas razões, é sempre importante quando uma plataforma de tecnologia pega uma dessas descobertas nada lisonjeiras e a publica para o mundo ver. No final de outubro, o Twitter fez exatamente isso. Aqui está Dan Milmo no Guardian:

O Twitter admitiu que amplifica mais tweets de políticos e veículos de notícias de direita do que conteúdo de fontes de esquerda.

A plataforma de mídia social examinou tuítes de funcionários eleitos em sete países – Reino Unido, EUA, Canadá, França, Alemanha, Espanha e Japão. Também estudou se o conteúdo político de organizações de notícias foi ampliado no Twitter, focando principalmente em fontes de notícias dos EUA, como Fox News, New York Times e BuzzFeed. […]

A pesquisa descobriu que em seis dos sete países, além da Alemanha, os tweets de políticos de direita receberam mais amplificação do algoritmo do que os da esquerda; as organizações noticiosas de direita foram mais ampliadas do que as de esquerda; e geralmente os tweets dos políticos eram mais amplificados por uma linha do tempo algorítmica do que pela linha do tempo cronológica.

A postagem do blog do Twitter sobre o assunto foi acompanhada por um artigo de 27 páginas que descreve com mais detalhes as descobertas do estudo, a pesquisa e a metodologia. Não foi a primeira vez neste ano que a empresa ofereceu apoio empírico voluntário para críticas especulativas de anos de idade ao seu trabalho. Neste verão, o Twitter sediou uma competição aberta para encontrar preconceitos em seus algoritmos de recorte de fotos. James Vincent descreveu os resultados no The:

A entrada no topo mostrou que o algoritmo de recorte do Twitter favorece rostos que são “magros, jovens, de cor de pele clara ou quente e textura de pele macia, e com traços faciais estereotipadamente femininos”. O segundo e o terceiro colocados mostraram que o sistema era tendencioso contra pessoas com cabelos brancos ou grisalhos, sugerindo discriminação por idade, e favorece a escrita do inglês em vez do árabe nas imagens.

Esses resultados não foram ocultados em um grupo de bate-papo fechado, para nunca serem discutidos. Em vez disso, Rumman Chowdhury – que lidera a ética e responsabilidade do aprendizado de máquina no Twitter – apresentou-os publicamente na DEF CON e elogiou os participantes por ajudar a ilustrar os efeitos do viés algorítmico no mundo real. Os vencedores foram pagos por suas contribuições.

Por um lado, não quero exagerar a bravura do Twitter aqui. Os resultados que a empresa publicou, embora os abram a algumas críticas, não são nada que vá resultar em uma investigação parlamentar completa. E o fato de a empresa ser muito menor do que a Meta, controladora do Google ou do Facebook, que atendem bilhões de pessoas, significa que qualquer coisa encontrada por seus pesquisadores tem menos probabilidade de desencadear uma tempestade global.

Ao mesmo tempo, o Twitter não precisa fazer esse tipo de trabalho de interesse público. E, a longo prazo, acredito que isso tornará a empresa mais forte e valiosa. Mas seria relativamente fácil para qualquer executivo de empresa ou membro do conselho argumentar contra isso.

Por esse motivo, estou ansioso para falar com a equipe responsável por isso. Esta semana, me encontrei virtualmente com Chowdhury e Jutta Williams, líder de produto da equipe de Chowdhury. (Inconvenientemente, em 28 de outubro: o nome oficial da equipe do Twitter é Machine Learning Ethics, Transparency and Accountability: META.) Eu queria saber mais sobre como o Twitter está fazendo esse trabalho, como foi recebido internamente e para onde está indo próximo.

Aqui está um pouco do que aprendi.

O Twitter aposta que a participação do público vai acelerar e melhorar suas descobertas. Um dos aspectos mais incomuns da pesquisa de ética em IA do Twitter é que ele está pagando pesquisadores voluntários externos para participar. Chowdhury foi treinada como uma hacker ética e observou que seus amigos que trabalham com segurança cibernética costumam proteger os sistemas com mais agilidade, criando incentivos financeiros para que as pessoas ajudem.

“O Twitter foi a primeira vez que pude realmente trabalhar em uma organização que era visível e impactante o suficiente para fazer isso e também ambiciosa o suficiente para financiá-la”, disse Chowdhury, que ingressou na empresa há um ano quando ela adquiriu seu risco de IA inicialização de gerenciamento. “É difícil encontrar isso.”

Muitas vezes, apenas as vozes mais altas são abordadas, enquanto os principais problemas permanecem

Normalmente é difícil obter um bom feedback do público sobre o viés algorítmico, disse Chowdhury. Muitas vezes, apenas as vozes mais altas são abordadas, enquanto os principais problemas permanecem porque os grupos afetados não têm contatos nas plataformas que possam abordá-los. Outras vezes, os problemas são difusos pela população e os usuários individuais podem não sentir os efeitos negativos diretamente. (Privacidade tende a ser um problema assim.)

A generosidade do Twitter ajudou a empresa a construir um sistema para solicitar e implementar esse feedback, disse Chowdhury. Desde então, a empresa anunciou que vai parar de cortar fotos em pré-visualizações depois que seus algoritmos forem considerados favoráveis ​​aos jovens, brancos e bonitos.

A IA responsável é difícil em parte porque ninguém entende entende totalmente as decisões tomadas por algoritmos. Os algoritmos de classificação em feeds sociais são probabilísticos – eles mostram coisas com base na probabilidade de você gostar, compartilhar ou comentar sobre eles. Mas não há um algoritmo tomando essa decisão – normalmente é uma malha de vários (às vezes dezenas) de modelos diferentes, cada um fazendo suposições que são então ponderadas de forma diferente de acordo com fatores em constante mudança.

Esse é um dos principais motivos pelos quais é tão difícil construir sistemas de IA com confiança que sejam “responsáveis” – simplesmente envolve muitas suposições. Chowdhury apontou aqui a diferença entre trabalhar em IA responsável e segurança cibernética. Em segurança, ela disse, geralmente é possível descobrir por que o sistema está vulnerável, desde que você possa descobrir onde o invasor o entrou. Mas em IA responsável, encontrar um problema muitas vezes não diz muito sobre o que o criou.

Esse é o caso da pesquisa da empresa sobre a amplificação de vozes de direita, por exemplo. O Twitter está confiante de que o fenômeno é real, mas só pode teorizar sobre as razões por trás dele. Pode ser algo no algoritmo. Mas também pode ser um comportamento do usuário – talvez os políticos de direita tendam a tweetar de forma a obter mais comentários, por exemplo, o que faz com que seus tweets sejam mais pesados ​​pelos sistemas do Twitter.

“Existe esta lei de consequências não intencionais para grandes sistemas”, disse Williams, que já trabalhou no Google e no Facebook. “Pode ser tantas coisas diferentes. A maneira como ponderamos a recomendação algorítmica pode fazer parte disso. Mas não era para ser uma consequência de filiação política. Portanto, há muita pesquisa a ser feita. ”

Não há consenso real sobre o que algoritmos de classificação “deveriam” fazer. Mesmo que o Twitter resolva o mistério do que está fazendo com que o conteúdo de direita se espalhe mais amplamente, não ficará claro o que a empresa deve fazer a respeito. E se, por exemplo, a resposta não estiver no algoritmo, mas no comportamento de certas contas? Se os políticos de direita simplesmente geram mais comentários do que os de esquerda, pode não haver uma intervenção óbvia para o Twitter fazer.

“Não acho que ninguém queira que estejamos no negócio de forçar algum tipo de engenharia social na voz das pessoas”, disse Chowdhury. “Mas também, todos concordamos que não queremos a amplificação de conteúdo negativo ou tóxico ou preconceito político injusto. Então, essas são todas as coisas que eu adoraria que desfizéssemos. ”

Essa conversa deve ser mantida publicamente, disse ela.

O Twitter acredita que algoritmos podem ser salvos. Uma possível resposta à ideia de que todos os nossos feeds sociais são incompreensivelmente complexos e não podem ser explicados por seus criadores é que devemos encerrá-los e excluir o código. O Congresso agora apresenta regularmente projetos de lei que tornariam os algoritmos de classificação ilegais, ou tornariam as plataformas legalmente responsáveis ​​pelo que recomendam, ou forçariam as plataformas a permitir que as pessoas optassem por não aplicá-los.

A equipe do Twitter, por exemplo, acredita que o ranking tem futuro.

“O algoritmo é algo que pode ser salvo”, disse Williams. “O algoritmo precisa ser entendido. E as entradas para o algoritmo precisam ser algo que todos possam gerenciar e controlar. ”

Com alguma sorte, o Twitter construirá exatamente esse tipo de sistema.

Claro, o risco de escrever um artigo como este é que, na minha experiência, equipes como essa são frágeis. Em um minuto, a liderança está satisfeita com suas descobertas e contratando entusiasticamente para isso; no próximo, está murchando por atrito em meio a cortes no orçamento ou reorganizada em meio a conflitos de personalidade ou questões regulatórias. O sucesso inicial do Twitter com o META é promissor, mas o futuro de longo prazo do META não está garantido.

Enquanto isso, o trabalho provavelmente ficará mais difícil. O Twitter agora está trabalhando ativamente em um projeto para tornar sua rede descentralizada, o que poderia proteger partes da rede de seus próprios esforços para construí-la de forma mais responsável. O CEO do Twitter, Jack Dorsey, também imaginou uma “loja de aplicativos para algoritmos de mídia social”, dando aos usuários mais escolha sobre como seus feeds são classificados.

“Não tenho certeza se é viável para nós entrarmos direto em um mercado de algoritmos”

É difícil o suficiente classificar um feed de forma responsável – o que significa tornar uma loja de aplicativos inteira de algoritmos “responsável” será um desafio muito maior.

“Não tenho certeza se é viável entrarmos direto no mercado de algoritmos”, disse Williams. “Mas eu acho que é possível para nosso algoritmo entender o sinal que é selecionado por você. Então, se houver palavrões em um tweet, por exemplo: quão sensível você é a esse tipo de linguagem? Existem palavras específicas que você consideraria muito profanas e não gostaria de ver? Como damos controles para você estabelecer quais são suas preferências para que aquele sinal possa ser utilizado em qualquer tipo de recomendação?

“Acho que existe um sinal de terceiros mais do que um monte de algoritmos de terceiros”, disse Williams. “Você tem que ter cuidado com o que está em um algoritmo.”

Platformer por Casey Newton

Esta coluna foi co-publicada com Platformer, um boletim diário sobre Big Tech e democracia.

#tecnologia #tecnologia #tecnologia #editorial #coluna #tecnologia #Twitter #plataforma

John Doe

Curioso e apaixonado por tecnologia.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *