Apple revela novos esforços para combater imagens de abuso infantil

Um novo sistema de hashing será limitado a imagens em fotos do iCloud

Em um briefing na tarde de quinta-feira, a Apple confirmou planos relatados anteriormente para implantar uma nova tecnologia no iOS, macOS, watchOS e iMessage que detectará imagens de abuso infantil em potencial, mas esclareceu detalhes cruciais do projeto em andamento. Para dispositivos nos EUA, novas versões de iOS e iPadOS lançadas neste outono têm “novos aplicativos de criptografia para ajudar a limitar a disseminação de CSAM [material de abuso sexual infantil] online, enquanto projetam para a privacidade do usuário”.

O projeto também é detalhado em uma nova página de “Segurança Infantil” no site da Apple. A implementação mais invasiva e potencialmente controversa é o sistema que executa a varredura no dispositivo antes de fazer backup de uma imagem no iCloud. A partir da descrição, a varredura não ocorre até que o backup de um arquivo esteja sendo feito no iCloud, e a Apple só recebe dados sobre uma correspondência se os vouchers criptográficos (carregados no iCloud junto com a imagem) para uma conta específica atingirem um limite de CSAM conhecido correspondente .

A Apple descreveu várias restrições que estão incluídas para proteger a privacidade

Durante anos, a Apple usou sistemas hash para escanear imagens de abuso infantil enviadas por e-mail, em linha com sistemas semelhantes no Gmail e outros provedores de e-mail em nuvem. O programa anunciado hoje aplicará as mesmas digitalizações às imagens de usuários armazenadas no iCloud Photos, mesmo que as imagens nunca sejam enviadas a outro usuário ou compartilhadas de outra forma.

Em um PDF fornecido junto com o briefing, a Apple justificou seus movimentos para a digitalização de imagens, descrevendo várias restrições que estão incluídas para proteger a privacidade:

A Apple não aprende nada sobre imagens que não correspondam ao CSAM conhecido

base de dados.

A Apple não pode acessar metadados ou derivados visuais para imagens CSAM correspondentes até que um

limite de correspondências é excedido para uma conta do iCloud Photos.

O risco de o sistema sinalizar incorretamente uma conta é extremamente baixo. Além disso,

A Apple analisa manualmente todos os relatórios feitos ao NCMEC para garantir a precisão dos relatórios.

Os usuários não podem acessar ou visualizar o banco de dados de imagens CSAM conhecidas.

Os usuários não conseguem identificar quais imagens foram sinalizadas como CSAM pelo sistema

Os novos detalhes baseiam-se em preocupações vazadas no início desta semana, mas também adicionam uma série de salvaguardas que devem proteger contra os riscos de privacidade de tal sistema. Em particular, o sistema de limite garante que erros isolados não gerem alertas, permitindo que a apple almeje uma taxa de erro de um alerta falso por trilhão de usuários por ano. O sistema de hashing também é limitado ao material sinalizado pelo Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) e às imagens enviadas para o iCloud Photos. Depois que um alerta é gerado, ele é revisado pela Apple e pelo NCMEC antes de alertar as autoridades, fornecendo uma proteção adicional contra o sistema que está sendo usado para detectar conteúdo não CSAM.

A Apple encomendou avaliações técnicas do sistema a três criptógrafos independentes (PDFs 1, 2 e 3), que o consideraram matematicamente robusto. “Em minha opinião, este sistema provavelmente aumentará significativamente a probabilidade de que as pessoas que possuem ou trafegam essas imagens (usuários prejudiciais) sejam encontradas; isso deve ajudar a proteger as crianças ”, disse o professor David Forsyth, catedrático de ciência da computação da Universidade de Illinois, em uma das avaliações. “A precisão do sistema de correspondência, combinada com o limite, torna muito improvável que as imagens que não são imagens CSAM conhecidas sejam reveladas.”

No entanto, a Apple disse que outros grupos de segurança infantil provavelmente serão adicionados como fontes de hash conforme o programa se expanda, e a empresa não se comprometeu a tornar a lista de parceiros publicamente disponível daqui para frente. Isso provavelmente aumentará as preocupações sobre como o sistema pode ser explorado pelo governo chinês, que há muito busca maior acesso aos dados de usuários do iPhone no país.

Mensagens de exemplo avisando crianças e pais quando fotos sexualmente explícitas são detectadas.

Foto: Apple

Juntamente com as novas medidas no iCloud Photos, a Apple adicionou dois sistemas adicionais para proteger os jovens proprietários de iPhone em risco de abuso infantil. O aplicativo Mensagens já fazia a varredura no dispositivo de anexos de imagens para contas de crianças para detectar conteúdo potencialmente sexualmente explícito. Uma vez detectado, o conteúdo fica borrado e um aviso aparece. Uma nova configuração que os pais podem habilitar em suas contas familiares do iCloud acionará uma mensagem dizendo à criança que se ela visualizar (entrada) ou enviar (saída) a imagem detectada, seus pais receberão uma mensagem sobre isso.

A Apple também está atualizando a forma como a Siri e o aplicativo Search respondem a perguntas sobre imagens de abuso infantil. No novo sistema, os aplicativos “explicarão aos usuários que o interesse neste tópico é prejudicial e problemático e fornecerão recursos de parceiros para obter ajuda com esse problema”.

#tecnologia #tecnologia #tecnologia #maçã #política #tecnologia #cíbersegurança #privacidade #notícia

John Doe

Curioso e apaixonado por tecnologia.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *