Sete empresas de IA se comprometem com salvaguardas a pedido da Casa Branca
Os funcionários querem garantir que as empresas de tecnologia possam inovar em IA generativa de uma maneira que beneficie a sociedade sem afetar negativamente a segurança, os direitos e os valores democráticos do público. Em maio, a vice-presidente Kamala Harris se encontrou com os CEOs da OpenAI, Microsoft, Alphabet e Anthropic e disse que eles tinham a responsabilidade de garantir que seus produtos de IA sejam seguros e protegidos. No mês passado, o presidente Joe Biden se reuniu com líderes da área para discutir questões de IA.
As empresas de tecnologia concordaram com oito medidas sugeridas sobre segurança, responsabilidade social e segurança. Esses incluem: permitir que especialistas independentes testem modelos para comportamento ruim; investir em cibersegurança; encorajar terceiros a descobrir vulnerabilidades de segurança; sinalizar riscos sociais, incluindo preconceitos e usos inadequados; focar na pesquisa dos riscos sociais da IA; compartilhar informações de confiança e segurança com outras empresas e o governo; marcar conteúdo de áudio e visual para ajudar a esclarecer que o conteúdo é gerado por IA; usar os sistemas de IA de última geração conhecidos como modelos fronteira para enfrentar os maiores problemas da sociedade.
“Esses compromissos, que as empresas escolheram assumir imediatamente, destacam três princípios que devem ser fundamentais para o futuro da IA – segurança, confiabilidade e confiança – e marcam um passo crítico em direção ao desenvolvimento de uma IA responsável”, afirmou a declaração da Casa Branca. “À medida que o ritmo da inovação continua a acelerar, a administração Biden-Harris continuará a lembrar essas empresas de suas responsabilidades e tomará medidas decisivas para manter os americanos seguros”.
O fato de este ser um acordo voluntário destaca a dificuldade que os legisladores têm em acompanhar o ritmo dos desenvolvimentos em IA. Vários projetos de lei foram apresentados no Congresso na esperança de regular a IA. Um deles visa impedir que as empresas usem proteções da Seção 230 para evitar a responsabilidade por conteúdo prejudicial gerado por IA, enquanto outro busca exigir a inclusão de divulgações em anúncios políticos quando a IA generativa é empregada. Vale ressaltar que os administradores da Câmara dos Representantes teriam imposto limitações ao uso de IA generativa em escritórios congressuais.
Atualização 21/07 5h47: Este artigo foi atualizado para incluir uma declaração da Casa Branca.