Líderes da indústria de IA assinam declaração de alerta sobre riscos de nível de ‘extinção’ –

A declaração, assinada pelo CEO da OpenAI, Sam Altman, e pelo CEO da DeepMind, Demis Hassabis, diz que mitigar os riscos da IA ​​deve ser uma prioridade global.

Líderes da indústria de inteligência artificial, como o CEO da OpenAI, Sam Altman, e o CEO da DeepMind, Demis Hassabis, juntamente com outros cientistas e figuras notáveis, assinaram uma declaração na terça-feira que alerta sobre as ameaças potenciais da IA ​​avançada à humanidade.

A breve declaração de uma frase foi publicada no site da organização sem fins lucrativos Center for AI Safety. “Mitigar o risco de extinção da IA ​​deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”, diz o comunicado.

Quase todas as grandes empresas de tecnologia lançaram um chatbot de IA ou outras ferramentas de IA generativas nos últimos meses, após o lançamento do ChatGPT e Dall-E da OpenAI no ano passado. A tecnologia começou a se infiltrar na vida cotidiana e pode mudar tudo, desde como você busca informações na web até como cria uma rotina de exercícios. O rápido lançamento de ferramentas de IA também estimulou cientistas e especialistas do setor a expressarem preocupações sobre os riscos da tecnologia se o desenvolvimento continuar sem regulamentação.

A declaração é a mais recente de uma série de alertas recentes sobre as ameaças potenciais da tecnologia avançada. Na semana passada, a Microsoft, líder do setor em IA e investidora na OpenAI, divulgou um relatório de 40 páginas dizendo que a regulamentação da IA ​​é necessária para ficar à frente de maus atores e riscos potenciais. Em março, o CEO da Tesla e do Twitter, Elon Musk, o cofundador da Apple, Steve Wozniak, e milhares de outras pessoas da indústria de tecnologia assinaram uma carta aberta exigindo que as empresas suspendessem a produção de projetos avançados de IA por pelo menos seis meses, ou até que os padrões e protocolos da indústria fossem alcançados. .

“Devemos arriscar a perda de controle de nossa civilização? Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos”, diz a carta, publicada em 22 de março. “Poderosos sistemas de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos. e seus riscos serão administráveis.”

Alguns críticos observaram que a atenção que os líderes tecnológicos estão dando aos riscos futuros da tecnologia falha em resolver os problemas atuais, como a tendência da IA ​​de “alucinar”, as maneiras pouco claras de um chatbot de IA chegar a uma resposta a um prompt e a privacidade de dados e preocupações com plágio. Também existe a possibilidade de que alguns desses líderes tecnológicos estejam solicitando a suspensão dos produtos de seus concorrentes para que possam ter tempo de criar seus próprios produtos de IA.

Nota dos editores: a está usando um mecanismo de IA para criar alguns explicadores de finanças pessoais que são editados e verificados por nossos editores. Para saber mais, veja este post.