O Google “consertou” seu algoritmo racista removendo gorilas de sua tecnologia de rotulagem de imagens

Quase três anos depois que a empresa foi chamada, ela não foi além de uma solução rápida

Em 2015, o engenheiro de software Jacky Alciné destacou que os algoritmos de reconhecimento de imagem do Google Fotos classificavam seus amigos negros como “gorilas”. O Google disse que estava “chocado” com o erro, pediu desculpas a Alciné e prometeu consertar o problema. Mas, como mostra um novo relatório da Wired, quase três anos depois, o Google ainda não consertou nada. A empresa simplesmente bloqueou seus algoritmos de reconhecimento de imagem de identificar gorilas – preferindo, presumivelmente, limitar o serviço ao invés de arriscar outra categorização incorreta.

A Wired afirma que realizou uma série de testes no algoritmo do Google Fotos, enviando dezenas de milhares de fotos de vários primatas para o serviço. Babuínos, gibões e saguis foram identificados corretamente, mas gorilas e chimpanzés não. A publicação também descobriu que o Google restringiu seu reconhecimento de IA em outras categorias raciais. A pesquisa por “homem negro” ou “mulher negra”, por exemplo, retornou apenas fotos de pessoas em preto e branco, classificadas por gênero, mas não por raça.

Google Fotos, vocês estão fodidos. Meu amigo não é um gorila. pic.twitter.com/SMkMCsNVX4 – Jacky Alciné (@jackyalcine) 29 de junho de 2015

Um porta-voz do Google confirmou à Wired que as categorias de imagens “gorila”, “chimpanzé”, “chimpanzé” e “macaco” permaneceram bloqueadas no Google Fotos após o tweet de Alciné em 2015. “A tecnologia de rotulagem de imagens ainda é precoce e, infelizmente, está longe de perfeito ”, disse o representante. As categorias ainda estão disponíveis em outros serviços do Google, incluindo a API Cloud Vision que vende para outras empresas e o Google Assistant.

Pode parecer estranho que o Google, uma empresa que geralmente é vista como o precursor da IA ​​comercial, não tenha conseguido encontrar uma solução mais completa para esse erro. Mas é um bom lembrete de como pode ser difícil treinar o software de IA para ser consistente e robusto. Principalmente (como se poderia supor que aconteceu no caso do erro do Google Fotos) quando aquele software não foi treinado e testado por um grupo diversificado de pessoas.

Não está claro, neste caso, se o algoritmo do Google Fotos permanece restrito dessa forma porque o Google não conseguiu resolver o problema, não queria dedicar recursos para isso ou está simplesmente mostrando uma superabundância de cautela. Mas está claro que incidentes como este, que revelam a cultura frequentemente insular do Vale do Silício, que se encarregou de construir algoritmos que abrangem o mundo, precisam mais do que soluções rápidas.

#tecnologia #tecnologia #tecnologia #oGoogle #tecnologia #inteligênciaartificial

John Doe

Curioso e apaixonado por tecnologia.

Deixe um comentário

O seu endereço de e-mail não será publicado.