O ‘PhotoGuard’ do MIT protege suas imagens de edições maliciosas de IA

  • Dall-E e Stable Diffusion foram apenas o começo.
  • Chatbots estão ganhando poder para editar e criar imagens com a ajuda de sistemas de IA gerativa.
  • O novo método “PhotoGuard” desenvolvido pelo MIT CSAIL pode ajudar a prevenir manipulação não autorizada de imagens.
  • À medida que os sistemas de IA gerativa proliferam e as empresas trabalham para diferenciar suas ofertas das de seus concorrentes, chatbots em toda a internet estão ganhando poder para editar imagens – assim como criá-las – com Shutterstock e Adobe liderando o caminho. Mas com essas novas capacidades alimentadas por IA vêm armadilhas familiares, como a manipulação não autorizada ou o roubo descarado de obras de arte e imagens existentes online. Técnicas de marca d’água podem ajudar a mitigar o último, enquanto o novo método “PhotoGuard” desenvolvido pelo MIT CSAIL pode ajudar a evitar o primeiro.

    O PhotoGuard funciona alterando pixels selecionados em uma imagem de forma que eles interrompam a capacidade de uma IA de entender o que é a imagem. Essas “perturbações”, como a equipe de pesquisa se refere a elas, são invisíveis aos olhos humanos, mas facilmente legíveis por máquinas. O método de ataque “encoder” de introduzir esses artefatos visa a representação latente do modelo algorítmico da imagem de destino – a matemática complexa que descreve a posição e a cor de cada pixel em uma imagem – essencialmente impedindo a IA de entender o que está vendo.

    O método de ataque “diffusion” mais avançado e intensivo em termos computacionais camufla uma imagem como uma imagem diferente aos olhos da IA. Ele definirá uma imagem de destino e otimizará as perturbações em sua imagem para se assemelhar ao seu alvo. Qualquer edição que uma IA tente fazer nessas imagens “imunizadas” será aplicada às imagens falsas “alvo”, resultando em uma imagem gerada com aparência irreal.

    “O ataque do codificador faz com que o modelo pense que a imagem de entrada (a ser editada) é alguma outra imagem (por exemplo, uma imagem cinza)”, disse Hadi Salman, estudante de doutorado do MIT e autor principal do artigo, à Engadget. “Enquanto o ataque de difusão força o modelo de difusão a fazer edições em direção a alguma imagem de destino (que também pode ser alguma imagem cinza ou aleatória)”. A técnica não é infalível, atores mal-intencionados podem trabalhar para engenharia reversa da imagem protegida, potencialmente adicionando ruído digital, cortando ou invertendo a imagem.

    “Uma abordagem colaborativa envolvendo desenvolvedores de modelos, plataformas de mídia social e formuladores de políticas apresenta uma defesa robusta contra a manipulação não autorizada de imagens. Trabalhar nesse problema urgente é de suma importância hoje”, disse Salman em um comunicado. “E embora eu esteja feliz em contribuir para essa solução, muito trabalho é necessário para tornar essa proteção prática. As empresas que desenvolvem esses modelos precisam investir na engenharia de imunizações robustas contra as possíveis ameaças apresentadas por essas ferramentas de IA”.

    #notícias #imagem #Fotografia #amanhã #IA #Proteçãodedados #COM