Anthropic, Google, Microsoft e OpenAI formam um grupo de segurança de IA

  • Desenvolvimento de IA traz riscos de segurança
  • Empresas precisam tomar precauções
  • Anthropic, Google, Microsoft e Open AI criam o Frontier Model Forum para desenvolvimento seguro de IA
  • Não é segredo que o desenvolvimento de IA traz consigo muitos riscos de segurança. Embora os órgãos governamentais estejam trabalhando para apresentar regulamentações, por enquanto, cabe principalmente às empresas tomar precauções. A última demonstração de auto-supervisão vem com a criação conjunta do Frontier Model Forum pela Anthropic, Google, Microsoft e Open AI, um órgão liderado pela indústria que se concentra no desenvolvimento seguro e cuidadoso de IA.

    O Fórum planeja estabelecer um comitê consultivo, carta e financiamento. Ele estabeleceu quatro pilares principais em que pretende se concentrar: avançar na pesquisa de segurança de AI, determinar as melhores práticas, trabalhar em estreita colaboração com formuladores de políticas, acadêmicos, sociedade civil e empresas, e incentivar esforços para construir IA que “possa ajudar a enfrentar os maiores desafios da sociedade”.

    Os membros supostamente trabalharão nos três primeiros objetivos ao longo do próximo ano. Falando de adesão, o anúncio estabelece as qualificações necessárias para entrar, como produzir modelos fronteiriços e mostrar um claro compromisso em torná-los seguros. “É vital que as empresas de IA – especialmente aquelas que trabalham nos modelos mais poderosos – se alinhem em terreno comum e avancem com práticas seguras, ponderadas e adaptáveis para garantir que as ferramentas de IA mais poderosas tenham o benefício mais amplo possível”, disse Anna Makanju, vice-presidente de assuntos globais da OpenAI, em comunicado. “Este é um trabalho urgente e este fórum está bem posicionado para agir rapidamente para avançar o estado da segurança da IA”.

    A criação do Fórum segue um acordo de segurança recente entre a Casa Branca e as principais empresas de IA, incluindo as responsáveis por esta nova iniciativa. As medidas de segurança comprometidas incluíram testes para comportamentos ruins por especialistas externos e colocar uma marca d’água no conteúdo criado por IA.

    #notícias #Fórummodelodefronteira #Google #antrópico #OpenAI #Microsoft #casabranca #amanhã #IA