Publicado em 09/08/2021 às 03:00,

Apple pode começar a procurar fotos de abuso infantil em iPhones

Redação, CNN Brasil
Cb image default
(Foto: Divulgação)
A Apple anunciou na quinta-feira (5), que vai começar a testar um novo sistema para, automaticamente, enviar fotos de iPhones e de contas do iCloud para um banco de dados de imagens de abuso sexual infantil, ao mesmo tempo em que alertará as autoridades conforme necessário.O novo serviço vai transformar as fotos em um dispositivo em um conjunto ilegível de hashes — ou números complexos — armazenados nos aparelhos dos usuários, conforme explicou a empresa em uma entrevista coletiva. Esses números serão comparados com um banco de dados de hashes fornecido pelo Centro Nacional para Crianças Desaparecidas e Exploradas dos Estados Unidos. Ao dar esse passo, a Apple (AAPL) está seguindo algumas outras grandes empresas de tecnologia, como o Google (GOOG) e o Facebook (FB). Mas também está tentando encontrar um equilíbrio entre segurança e privacidade, a última das quais a Apple enfatizou como um ponto de venda central para seus dispositivos.Alguns defensores da privacidade foram rápidos ao levantar preocupações sobre a provável alteração da companhia.A Apple está substituindo seu sistema de mensagens criptografadas de ponta a ponta, padrão da indústria, por uma infraestrutura para vigilância e censura, que será vulnerável a abusos e aumento de escopo não apenas nos Estados Unidos, mas em todo o mundo, disse Greg Nojeim, co-diretor do Projeto de Segurança e Vigilância do Centro para a Democracia e Tecnologia. A Apple deve abandonar essas mudanças e restaurar a fé de seus usuários na segurança e na integridade de seus dados em seus dispositivos e serviços.Em um post em seu site descrevendo as atualizações, a empresa disse: O método da Apple é projetado tendo a privacidade do usuário em mente. A companhia enfatizou que a ferramenta não escaneia as fotos do usuário e apenas as imagens do banco de dados serão incluídas na análise. (Isso deve significar que uma foto inofensiva de um usuário de seu filho na banheira não será sinalizada.)A Apple também disse que o dispositivo criará um voucher de segurança duplamente criptografado — um pacote de informações enviado aos servidores — que é codificado em fotos. Assim que houver um certo número de vouchers de segurança sinalizados, a equipe de revisão da Apple será alertada.Em seguida, ele decodificará o voucher, desativará a conta do usuário e alertará o Centro Nacional para Crianças Desaparecidas e Exploradas, que pode informar as autoridades. Aqueles que acreditam que suas contas foram sinalizadas por engano podem entrar com um recurso para que sejam reintegradas.O objetivo da Apple é garantir que imagens idênticas e visualmente semelhantes resultem no mesmo hash, mesmo que tenha sido ligeiramente cortado, redimensionado ou convertido de colorido para preto e branco.A realidade é que a privacidade e a proteção da criança podem coexistir, disse John Clark, presidente e CEO do Centro Nacional para Crianças Desaparecidas e Exploradas, em um comunicado. Aplaudimos a Apple e esperamos trabalhar juntos para tornar este mundo um lugar mais seguro para as crianças.O anúncio faz parte de um esforço maior da empresa em torno da segurança infantil. A Apple disse na quinta-feira que uma nova ferramenta de comunicação também avisará os usuários menores de 18 anos quando eles estão prestes a enviar ou receber uma mensagem com uma imagem explícita.A ferramenta, que deve ser ativada no Family Sharing, usa aprendizado de máquina no dispositivo para analisar anexos de imagem e determinar se uma foto é sexualmente explícita. Os pais com filhos menores de 13 anos também podem ativar um recurso de notificação caso uma criança esteja prestes a enviar ou receber uma imagem de nudez. A Apple disse que não terá acesso às mensagens.Essa ferramenta estará disponível como uma futura atualização de software, de acordo com a empresa.