Em maio, a vice-presidente Kamala Harris se encontrou com os CEOs da OpenAI, Microsoft, Alphabet e Anthropic e disse a eles que tinham a responsabilidade de garantir que seus produtos de IA sejam seguros e seguros. No mês passado, o presidente Joe Biden se reuniu com líderes do campo para discutir questões de IA.
De acordo com um documento preliminar visto pela Bloomberg, as empresas de tecnologia estão prestes a concordar com oito medidas sugeridas relacionadas à segurança, segurança e responsabilidade social. Essas incluem:
- Permitir que especialistas independentes testem modelos para comportamentos inadequados
- Investir em cibersegurança
- Encorajar terceiros a descobrir vulnerabilidades de segurança
- Identificar riscos sociais, incluindo preconceitos e usos inadequados
- Focar em pesquisas sobre os riscos sociais da IA
- Compartilhar informações de confiança e segurança com outras empresas e o governo
- Inserir marca d’água em conteúdo de áudio e visual para ajudar a deixar claro que o conteúdo é gerado por IA
- Usar sistemas de IA de última geração conhecidos como modelos de fronteira para enfrentar os maiores problemas da sociedade
O fato de que este é um acordo voluntário destaca a dificuldade que os legisladores têm em acompanhar o ritmo dos desenvolvimentos da IA. Vários projetos de lei foram apresentados no Congresso na esperança de regulamentar a IA. Um deles tem como objetivo impedir que as empresas usem proteções da Seção 230 para evitar a responsabilidade por conteúdo prejudicial gerado por IA, enquanto outro busca exigir que os anúncios políticos incluam divulgações quando a IA generativa é empregada. Vale ressaltar que os administradores das Casas dos Representantes teriam colocado limites no uso de IA generativa nos escritórios do Congresso.
#notícias # #Google #openai #microsoft #casabranca