O abandono do iCloud CSAM Scanner pela Apple está prejudicando as vítimas, alega processo –

Uma ação coletiva apresentada em um tribunal do norte da Califórnia alega que o serviço iCloud da Apple foi usado para espalhar materiais de abuso sexual infantil, ou CSAM. Também alega que o abandono pela Apple de um software que começou a ser desenvolvido para buscar tais materiais equivale à empresa permitir conscientemente sua proliferação. Em 2021, a Apple iniciou várias iniciativas para escanear mídias em dispositivos e no iCloud em busca de CSAM. Uma delas teria verificado arquivos armazenados no iCloud. Na época, John Clark, CEO e presidente da National Center for Missing & Exploited Children, chamou a tecnologia de “algo revolucionário”. Mas a Apple pausou o desenvolvimento logo após reclamações de grupos de privacidade, segurança e direitos digitais.

Até o final de 2022, a Apple acabou reduzindo alguns desses planos, incluindo a digitalização de imagens no iCloud. Em entrevista a um dos autores da ação, cuja identidade está sendo mantida anônima, o New York Times relatou que, em alguns casos, vítimas recebem várias notificações por dia das autoridades policiais de que suas imagens estão sendo encontradas em casos de processamento de predadores. A autora de 27 anos disse ao New York Times que se juntou à ação porque a Apple deu falsas esperanças às vítimas e que a empresa precisa mudar. A ação inclui 2.680 autores e, se for bem-sucedida, pode custar à Apple mais de US$ 1,2 bilhão se a empresa for considerada responsável por um júri. Uma ação individual separada mas semelhante foi apresentada na Carolina do Norte em agosto em nome de uma vítima de agressão sexual de 9 anos.

A Apple não respondeu imediatamente a um pedido de comentário sobre a ação, mas a empresa divulgou um comunicado ao longo do fim de semana. O porta-voz Fred Sainz disse: “Materiais de abuso sexual infantil são abomináveis e estamos comprometidos em combater as maneiras como predadores colocam crianças em risco. Estamos urgentemente e ativamente inovando para combater esses crimes sem comprometer a segurança e privacidade de todos os nossos usuários.” Sainz mencionou recursos existentes da Apple, como o Comunicação Segura, que segundo ele avisa crianças quando recebem ou tentam enviar conteúdo que inclui nudez. “Permanecemos profundamente focados em construir proteções que ajudem a prevenir a disseminação de CSAM antes que comece”, acrescentou Sainz.

  • Apple acusada de permitir a propagação de materiais de abuso sexual infantil no iCloud.
  • Empresa interrompeu o desenvolvimento de tecnologia para escanear tais materiais após reclamações de grupos de privacidade e segurança.
  • Ação coletiva inclui 2.680 autores e pode custar mais de US$ 1,2 bilhão à Apple se considerada culpada.