“`html
Resumo:
- Vencedores do Prêmio Turing 2024 alertam sobre os perigos da pressa no desenvolvimento de IA.
- Críticas à falta de testes rigorosos e foco no lucro em detrimento da segurança.
- Desenvolvimento de “reforço de aprendizado” impulsionou avanços como o ChatGPT.
- Apelo por práticas de engenharia mais seguras e responsáveis na indústria de IA.
Os criadores de um método fundamental de treinamento de IA, laureados com o Prêmio Turing, alertam sobre os perigos da Inteligência Artificial. Andrew Barto e Richard Sutton, os cérebros por trás do “reforço de aprendizado”, expressaram sérias preocupações sobre a forma como as empresas de IA estão lançando produtos no mercado.
Segundo eles, há uma motivação excessiva pelo lucro, em vez da segurança. Barto comparou a situação a “construir uma ponte e testá-la fazendo com que as pessoas a usem”. Em outras palavras, as empresas estão liberando modelos de IA sem testes adequados, colocando o público em risco.
O Prêmio Turing, muitas vezes chamado de “Nobel da Computação”, reconheceu Barto e Sutton por seu trabalho no “reforço de aprendizado”. Essa técnica de aprendizado de máquina ensina sistemas de IA a tomar decisões otimizadas por meio de tentativa e erro. Gigantes como o Google consideram essa técnica um pilar do progresso da IA, levando a modelos inovadores como o ChatGPT e o AlphaGo.
Apesar dos avanços, Barto enfatizou que “lançar software para milhões de pessoas sem salvaguardas não é uma boa prática de engenharia”. Ele argumenta que as empresas de IA não estão aplicando as precauções necessárias para mitigar as potenciais consequências negativas da tecnologia.
Essa crítica não é isolada. Outros luminares da IA, como Yoshua Bengio e Geoffrey Hinton, também já expressaram preocupações semelhantes. Além disso, um grupo de CEOs, incluindo Sam Altman da OpenAI, alertou para o risco de extinção devido à IA, defendendo que a mitigação desse risco seja uma prioridade global.
Barto apontou que as empresas de IA são “motivadas por incentivos de negócios” em vez de se concentrarem em pesquisa e desenvolvimento de IA seguros. A OpenAI, por exemplo, apesar das promessas de melhorar a segurança da IA, anunciou planos de se tornar uma empresa com fins lucrativos, levantando questões sobre suas prioridades.
A crescente preocupação entre os especialistas em IA destaca a necessidade urgente de uma abordagem mais responsável e ética no desenvolvimento e lançamento de tecnologias de IA.
“`







