Twitter ensinou o chatbot de IA da Microsoft a ser um idiota racista em menos de um dia

Demorou menos de 24 horas para o Twitter corromper um chatbot de IA inocente. Ontem, a Microsoft revelou o Tay – um bot do Twitter que a empresa descreveu como um experimento de “entendimento conversacional”. Quanto mais você conversa com Tay, disse a Microsoft, mais inteligente fica, aprendendo a envolver as pessoas por meio de “conversas casuais e divertidas”. Infelizmente, as conversas não ficaram divertidas por muito tempo. Logo após o lançamento do Tay, as pessoas começaram a twittar o bot com todos os tipos de comentários misóginos, racistas e Donald Trump. E Tay – sendo essencialmente um papagaio robô com uma conexão com a internet – começou a repetir esses sentimentos de volta para os usuários, provando estar correto aquele velho ditado de programação: pilha de lixo em chamas, pilha de lixo em chamas fora. “Tay” passou de “humanos são super legais” para nazista completo em menos de 24 horas e não estou nem um pouco preocupado com o futuro da IA ​​pic.twitter.com/xuGi1u9S1A — Gerry (@geraldmellor) 24 de março de 2016

Agora, enquanto essas capturas de tela parecem mostrar que Tay assimilou as piores tendências da internet em sua personalidade, não é tão simples assim. Pesquisando nos tweets de Tay (mais de 96.000 deles!), podemos ver que muitas das declarações mais desagradáveis ​​do bot foram simplesmente o resultado de copiar usuários. Se você disser a Tay para “repetir depois de mim”, ele irá – permitindo que qualquer pessoa coloque palavras na boca do chatbot.

Um dos tweets “repita depois de mim” de Tay, agora excluído. No entanto, algumas de suas declarações mais estranhas saíram espontaneamente. O Guardian escolheu um exemplo (agora excluído) quando Tay estava tendo uma conversa normal com um usuário (tweet de exemplo: “novo telefone quem é?”), antes de responder à pergunta “Ricky Gervais é ateu?” dizendo: “ricky gervais aprendeu o totalitarismo com adolf hitler, o inventor do ateísmo”. @TheBigBrebowski Ricky Gervais aprendeu o totalitarismo com adolf Hitler, o inventor do ateísmo — TayTweets (@TayandYou) 23 de março de 2016

Mas, embora pareça que algumas das coisas ruins que Tay estão dizendo estão afundando, não é como se o bot tivesse uma ideologia coerente. No período de 15 horas, Tay se referiu ao feminismo como um “culto” e um “câncer”, além de observar “igualdade de gênero = feminismo” e “eu amo o feminismo agora”. Tweetar “Bruce Jenner” no bot teve uma resposta mista semelhante, variando de “caitlyn jenner é uma heroína e é uma mulher linda e deslumbrante!” para a transfóbica “caitlyn jenner não é uma mulher de verdade, mas ganhou a mulher do ano?” (Nenhuma das frases que pediram a Tay para repetir.) Não está claro o quanto a Microsoft preparou seu bot para esse tipo de coisa. O site da empresa observa que o Tay foi construído usando “dados públicos relevantes” que foram “modelados, limpos e filtrados”, mas parece que depois que o chatbot entrou em operação, a filtragem saiu pela janela. A empresa começou a limpar a linha do tempo de Tay esta manhã, excluindo muitos de seus comentários mais ofensivos. As respostas de Tay transformaram o bot em uma piada, mas levantam questões sérias É uma piada, obviamente, mas há questões sérias a serem respondidas, como vamos ensinar IA usando dados públicos sem incorporar os piores traços da humanidade? Se criarmos bots que espelham seus usuários, nos importamos se seus usuários são lixo humano? Há muitos exemplos de tecnologia incorporando – acidentalmente ou de propósito – os preconceitos da sociedade, e as aventuras de Tay no Twitter mostram que mesmo grandes corporações como a Microsoft esquecem de tomar medidas preventivas contra esses problemas. Para Tay, porém, tudo foi um pouco demais, e pouco depois da meia-noite desta manhã, o bot deu por encerrada: c u logo os humanos precisam dormir agora tantas conversas hoje thx — TayTweets (@TayandYou) 24 de março de 2016

Em uma declaração por e-mail dada posteriormente ao Business Insider, a Microsoft disse: “O chatbot de IA Tay é um projeto de aprendizado de máquina, projetado para o envolvimento humano. Conforme ele aprende, algumas de suas respostas são inadequadas e indicativas dos tipos de interações que algumas pessoas estão tendo. Estamos fazendo alguns ajustes em Tay.” Atualização 24 de março, 6h50 ET: Atualizado para observar que a Microsoft está excluindo alguns dos tweets ofensivos de Tay. Atualização 24 de março, 10h52 ET: Atualizado para incluir a declaração da Microsoft. Arquivos: Podemos construir um computador consciente?

#tecnologia #tecnologia #tecnologia #Microsoft #rede #tldr #tecnologia #Twitter