Algoritmos que detectam câncer podem ser enganados por imagens hackeadas

Radiologistas humanos também não reconhecem imagens falsas

Programas de inteligência artificial que verificam imagens médicas em busca de evidências de câncer podem ser enganados por hacks e ataques cibernéticos, de acordo com um novo estudo. Pesquisadores demonstraram que um programa de computador poderia adicionar ou remover evidências de câncer de mamografias, e essas mudanças enganaram tanto uma ferramenta de IA quanto os radiologistas humanos.

Isso pode levar a um diagnóstico incorreto. Um programa de IA que ajuda a rastrear mamografias pode dizer que um exame é saudável quando na verdade há sinais de câncer ou dizer incorretamente que um paciente tem câncer quando na verdade está livre de câncer. Ainda não se sabe que tais hacks aconteceram no mundo real, mas o novo estudo se soma a um crescente corpo de pesquisas sugerindo que as organizações de saúde precisam estar preparadas para eles.

Os hackers estão cada vez mais visando hospitais e instituições de saúde com ataques cibernéticos. Na maioria das vezes, esses ataques desviam os dados do paciente (o que é valioso no mercado negro) ou bloqueiam os sistemas de computador de uma organização até que ela pague um resgate. Ambos os tipos de ataques podem prejudicar os pacientes ao atrapalhar as operações em um hospital e tornar mais difícil para os profissionais de saúde prestarem um bom atendimento.

Mas os especialistas também estão ficando mais preocupados com o potencial de ataques mais diretos à saúde das pessoas. Pesquisadores de segurança mostraram que hackers podem invadir remotamente bombas de insulina conectadas à Internet e fornecer doses perigosas do medicamento, por exemplo.

Hacks que podem alterar imagens médicas e impactar um diagnóstico também se enquadram nessa categoria. No novo estudo sobre mamografias, publicado na Nature Communications, uma equipe de pesquisa da Universidade de Pittsburgh projetou um programa de computador que faria os exames de raios-X de mamas que originalmente pareciam não ter sinais de câncer parecessem cancerígenas. que faria mamografias que parecem cancerosas parecerem não ter sinais de câncer. Eles então enviaram as imagens adulteradas para um programa de inteligência artificial treinado para detectar sinais de câncer de mama e pediram a cinco radiologistas humanos que decidissem se as imagens eram reais ou falsas.

Cerca de 70 por cento das imagens manipuladas enganaram esse programa – isto é, a IA disse erroneamente que as imagens manipuladas para parecerem sem câncer estavam livres do câncer, e que as imagens manipuladas para parecer que tinham câncer tinham evidências de câncer. Quanto aos radiologistas, alguns eram melhores em detectar imagens manipuladas do que outros. Sua precisão na seleção de imagens falsas variou amplamente, de 29% a 71%.

Outros estudos também demonstraram a possibilidade de um ataque cibernético a imagens médicas levar a diagnósticos incorretos. Em 2019, uma equipe de pesquisadores de segurança cibernética mostrou que hackers poderiam adicionar ou remover evidências de câncer de pulmão em tomografias computadorizadas. Essas mudanças também enganaram tanto os radiologistas humanos quanto os programas de inteligência artificial.

Não houve casos públicos ou de alto perfil em que um hack como esse tenha acontecido. Mas existem algumas razões pelas quais um hacker pode querer manipular coisas como mamografias ou exames de câncer de pulmão. Um hacker pode estar interessado em atingir um paciente específico, como uma figura política, ou pode querer alterar suas próprias varreduras para obter dinheiro de sua companhia de seguros ou assinar pagamentos por invalidez. Os hackers também podem manipular imagens aleatoriamente e se recusar a parar de adulterá-las até que um hospital pague um resgate.

Seja qual for o motivo, demonstrações como esta mostram que organizações de saúde e pessoas que projetam modelos de IA devem estar cientes de que hacks que alteram exames médicos são uma possibilidade. Os modelos devem receber imagens manipuladas durante o treinamento para ensiná-los a identificar os falsos, disse o autor do estudo Shandong Wu, professor associado de radiologia, informática biomédica e bioengenharia da Universidade de Pittsburgh, em um comunicado. Os radiologistas também podem precisar ser treinados para identificar imagens falsas.

“Esperamos que esta pesquisa faça as pessoas pensarem sobre a segurança do modelo de IA médica e o que podemos fazer para nos defender contra ataques em potencial”, disse Wu.

#tecnologia #tecnologia #tecnologia #Ciência #tecnologia #saúde #ai-inteligência-artificial #notícias

John Doe

Curioso e apaixonado por tecnologia.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *