Os vencedores do prêmio Turing mais recentes avisam novamente sobre os perigos da AI

“`html

Resumo:

  • Vencedores do Prêmio Turing 2024 alertam sobre os perigos da pressa no desenvolvimento de IA.
  • Críticas à falta de testes rigorosos e foco no lucro em detrimento da segurança.
  • Desenvolvimento de “reforço de aprendizado” impulsionou avanços como o ChatGPT.
  • Apelo por práticas de engenharia mais seguras e responsáveis na indústria de IA.

Os criadores de um método fundamental de treinamento de IA, laureados com o Prêmio Turing, alertam sobre os perigos da Inteligência Artificial. Andrew Barto e Richard Sutton, os cérebros por trás do “reforço de aprendizado”, expressaram sérias preocupações sobre a forma como as empresas de IA estão lançando produtos no mercado.

Turing award 2024 Richard Sutton Andrew Barto

Segundo eles, há uma motivação excessiva pelo lucro, em vez da segurança. Barto comparou a situação a “construir uma ponte e testá-la fazendo com que as pessoas a usem”. Em outras palavras, as empresas estão liberando modelos de IA sem testes adequados, colocando o público em risco.

O Prêmio Turing, muitas vezes chamado de “Nobel da Computação”, reconheceu Barto e Sutton por seu trabalho no “reforço de aprendizado”. Essa técnica de aprendizado de máquina ensina sistemas de IA a tomar decisões otimizadas por meio de tentativa e erro. Gigantes como o Google consideram essa técnica um pilar do progresso da IA, levando a modelos inovadores como o ChatGPT e o AlphaGo.

Apesar dos avanços, Barto enfatizou que “lançar software para milhões de pessoas sem salvaguardas não é uma boa prática de engenharia”. Ele argumenta que as empresas de IA não estão aplicando as precauções necessárias para mitigar as potenciais consequências negativas da tecnologia.

Essa crítica não é isolada. Outros luminares da IA, como Yoshua Bengio e Geoffrey Hinton, também já expressaram preocupações semelhantes. Além disso, um grupo de CEOs, incluindo Sam Altman da OpenAI, alertou para o risco de extinção devido à IA, defendendo que a mitigação desse risco seja uma prioridade global.

Barto apontou que as empresas de IA são “motivadas por incentivos de negócios” em vez de se concentrarem em pesquisa e desenvolvimento de IA seguros. A OpenAI, por exemplo, apesar das promessas de melhorar a segurança da IA, anunciou planos de se tornar uma empresa com fins lucrativos, levantando questões sobre suas prioridades.

A crescente preocupação entre os especialistas em IA destaca a necessidade urgente de uma abordagem mais responsável e ética no desenvolvimento e lançamento de tecnologias de IA.

“`