À medida que a Microsoft adota a IA, também exige uma nova regulamentação para reduzir os riscos –

A gigante do software diz que uma nova agência governamental pode ajudar a implementar leis e se antecipar a possíveis problemas.

A Microsoft está se unindo aos apelos para aumentar a regulamentação do setor de inteligência artificial, incluindo a sugestão de uma nova agência governamental para supervisionar as leis e o licenciamento de sistemas de IA.

Na quinta-feira, a Microsoft compartilhou um relatório de 40 páginas que estabelece um plano para regulamentar as tecnologias de IA, com sugestões como a implementação de uma “estrutura de segurança de IA liderada pelo governo” e o desenvolvimento de medidas para impedir o uso de IA para enganar ou fraudar as pessoas. O relatório também pede uma nova agência governamental para implementar quaisquer leis ou regulamentos aprovados para governar a IA.

“As proteções necessárias para a IA exigem um senso de responsabilidade amplamente compartilhado e não devem ser deixadas apenas para as empresas de tecnologia”, disse o presidente da Microsoft, Brad Smith, na introdução do relatório, intitulado “Governing AI: A Blueprint for the Future”.

Veja também: Widgets de bate-papo do Microsoft Bing AI: como obtê-los no iOS e no Android

A Microsoft está lançando rapidamente ferramentas e recursos generativos de IA para seu software e outros produtos que são desenvolvidos com a tecnologia da OpenAI, criadora do ChatGPT. A Microsoft investiu bilhões na OpenAI e também chegou a um acordo para permitir que a potência da IA ​​use os dados do mecanismo de pesquisa Bing para melhorar o ChatGPT.

O pedido da Microsoft por maior regulamentação ocorre depois que o CEO da OpenAI, Sam Altman, expressou sentimentos semelhantes ao testemunhar perante o Congresso em 16 de maio. e restringir sistemas de IA.

Depois que a OpenAI revelou o ChatGPT no final do ano passado, a Microsoft ajudou a alimentar a corrida atual para lançar novas ferramentas de IA com o lançamento de uma nova pesquisa do Bing com tecnologia de IA em fevereiro. Desde então, vimos uma enxurrada de ferramentas e recursos generativos com IA do Google, Adobe, Meta e outros. Embora essas ferramentas tenham um grande potencial para ajudar as pessoas em tarefas grandes e pequenas, elas também despertaram preocupações sobre os riscos potenciais da IA.

Em março, uma carta aberta emitida pelo Instituto sem fins lucrativos Future of Life pedia uma pausa no desenvolvimento de sistemas de IA mais avançados que o GPT-4 da OpenAI, alertando que eles poderiam “representar riscos profundos para a sociedade e a humanidade”. A carta foi assinada por mais de 1.000 pessoas, incluindo o CEO da Tesla, Elon Musk, o cofundador da Apple, Steve Wozniak, e especialistas em IA, ciência da computação e outros campos.

A Microsoft reconheceu esses riscos em seu relatório na quinta-feira, dizendo que uma estrutura regulatória é necessária para antecipar e se antecipar a possíveis problemas.

“Precisamos reconhecer a simples verdade de que nem todos os atores são bem intencionados ou bem equipados para enfrentar os desafios apresentados por modelos altamente capazes”, diz o relatório. “Alguns atores usarão a IA como uma arma, não uma ferramenta, e outros subestimarão os desafios de segurança que estão por vir”.