Desinformação sobre IA: como funciona e maneiras de identificá-la

  • O RNC começou a usar AIs gerativas para atacar politicamente o presidente Joe Biden com imagens falsas sobre o país.
  • Essas ferramentas gerativas, como o ChatGPT e o DALL·E, podem gerar conteúdo enganoso com poucos custos e ficam cada vez mais difíceis de detectar.
  • A desinformação gerada por IA representa um risco sério, pois pode afetar eleições ou mercados, além de minar a confiança pública e a realidade compartilhada.
  • Há um ano e meio antes das eleições presidenciais de 2024, o Comitê Nacional Republicano começou a veicular propagandas de ataque contra o presidente dos Estados Unidos, Joe Biden. Desta vez, no entanto, o comitê fez algo diferente.

    Ele usou inteligência artificial gerativa para criar um anúncio político repleto de imagens que retratavam uma realidade alternativa com viés partidário – o que quer que acreditemos que o país se parecerá se Biden for reeleito. O anúncio exibia imagens de imigrantes atravessando as fronteiras dos EUA em massa, uma guerra mundial iminente e soldados patrulhando as ruas de cidades americanas vazias. E no canto superior esquerdo do vídeo, um aviso discreto – fácil de perder – observa que “foi construído inteiramente com imagens geradas por IA”.

    Não está claro quais prompts o RNC usou para gerar esse vídeo. O comitê não respondeu aos pedidos de mais informações. Mas certamente parece ter se baseado em ideias como “devastação”, “colapso governamental” e “fracasso econômico”. Anúncios políticos não são os únicos lugares em que vemos a desinformação surgir via imagens e textos gerados por IA. E nem sempre usarão um rótulo de aviso.

    Imagens falsas do Papa Francisco usando um casaco puffer estiloso, por exemplo, viralizaram em março, sugerindo incorretamente que o líder religioso estava modelando uma roupa da marca de luxo Balenciaga. Um vídeo do TikTok que mostrava as ruas de Paris cobertas de lixo teve mais de 400 mil visualizações neste mês, sendo que todas as imagens eram completamente falsas.

    Ferramentas gerativas de IA como o ChatGPT da OpenAI e o Bard do Google têm sido as tecnologias mais comentadas de 2023, sem mostrar sinais de arrefecimento, em praticamente todos os campos, desde programação de computadores até jornalismo e educação. A tecnologia vem sendo usada para posts no Facebook, grandes programas de TV e escrita de livros. Empresas como a Microsoft estão investindo bilhões de dólares em IA.

    Ferramentas de IA gerativas – construídas usando enormes quantidades de dados, muitas vezes coletados de todo o Internet, e às vezes de fontes proprietárias – são programadas para responder a uma consulta ou prompt gerando texto, imagens, áudio ou outros tipos de mídia. Tarefas como fazer fotos, escrever código e criar música podem ser feitas com facilidade usando ferramentas de IA; basta ajustar o prompt até obter o resultado desejado.

    Isso despertou a criatividade para alguns, enquanto outros estão preocupados com os potenciais riscos dessas ferramentas. Problemas surgem quando não podemos distinguir IA da realidade. Ou quando conteúdo gerado por IA é intencionalmente feito para enganar as pessoas – não apenas desinformação (informações erradas ou sugestivas), mas também desinformação (falsidades projetadas para confundir ou causar dano).