Notícias Mundo

Como o plano da Apple para combater o abuso infantil afetou isso?

O que se seguiu – tweets indignados, críticos manchetes e gritos por mais informações – coloque tecnologia um gigante da defesa poucas semanas antes do próximo lançamento do iPhone, seu maior evento do ano. Foi um raro erro de cálculo de RP para uma empresa conhecida por esforços meticulosos de RP.

A tecnologia no centro das críticas é uma ferramenta que começará a verificar dispositivos iOS e fotos do iCloud em busca de imagens de abuso infantil, junto com um novo recurso de aceitação que alertará menores e seus pais se anexos de imagem recebidos ou enviados no iMessage são sexualmente explícitos e se então, desfoque-os.
As preocupações se concentraram principalmente na privacidade e na possibilidade de usar a tecnologia além de seu propósito pretendido, reclamações que certamente atingiram a Apple, que nos últimos anos concentrou a maior parte de seus esforços de marketing em como protege os usuários.
Na semana seguinte ao anúncio, a Apple continuou realizar uma série de mais conferências de imprensa para limpar o ar e publicar uma longa página de perguntas frequentes em seu site para resolver algumas confusões e mal-entendidos. Em uma entrevista na sexta-feira, Craig Federighi, vice-presidente sênior de engenharia de software da Apple, disse ao The Wall Street Journal: “Está realmente claro que muitas notícias foram mal misturadas em termos de como as coisas são entendidas.”

Muitos especialistas em segurança infantil elogiaram essa intenção, reconhecendo a responsabilidade ética da empresa e o compromisso com os produtos e serviços que cria. Mas eles também chamaram esses esforços de “profundamente perturbadores”, em grande parte devido à forma como parte da triagem da Apple de imagens de abuso infantil é feita diretamente nos dispositivos dos usuários.

“Quando as pessoas ouvem a Apple” procurando “material de abuso sexual infantil (CSAM) nos telefones dos usuários finais, elas imediatamente pensam no Big Brother e em 1984, disse Ryan O’Leary. gerente de pesquisa para privacidade e tecnologia jurídica na empresa de pesquisa IDC. “É um problema com muitas nuances que pode parecer bastante assustador ou intrusivo à primeira vista. É muito fácil causar sensação do ponto de vista de um leigo. ‘

A Apple não quis comentar a história.

Como funciona a ferramenta Apple

Em entrevistas à imprensa, a empresa destacou como a nova ferramenta transforma fotos em iPhones e iPads em atalhos ilegíveis – ou números complexos – armazenados nos dispositivos dos usuários. Esses números serão verificados no banco de dados hash fornecido pelo Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) depois que as fotos forem carregadas no serviço de armazenamento iCloud da Apple. (A Apple disse mais tarde que também usaria outras organizações em vários países para seu programa de hashing e estava esperando que esses negócios fossem finalizados antes de anunciar seu envolvimento, informou a Reuters.)
iPhones e iPads irá criar um “cupom de segurança” criptografado duplamente – um pacote de informações enviado aos servidores iCloud – que será codificado em As fotos. Quando uma série de cupons de segurança são marcados como fotos NCMEC correspondentes, a equipe de revisão da Apple será alertada para que possa descriptografar o cupom, desabilitar a conta do usuário e alertar NCMEC, o que pode alertar a polícia sobre a existência de fotos potencialmente ofensivas. Federighi explicou mais tarde que aproximadamente 30 partidas serão necessárias antes que a equipe de revisão humana seja notificada.

Os defensores da privacidade têm preocupações legítimas de que esta é uma ladeira muito escorregadia e basicamente a única coisa que impede a Apple [from expanding beyond searching for CSAM images] essa é a palavra deles “ O’Leary disse. “A Apple está ciente disso e está tentando introduzir clareza adicional neste novo conjunto de recursos para tentar controlar a narrativa.”

Em um arquivo PDF postado em seu site descrevendo uma tecnologia que chama de NeuralHash, a Apple tentou dissipar os temores de que os governos possam forçar a Apple a adicionar sem abuso infantil imagens para a lista de atalhos. “A Apple rejeitará essas demandas”, disse ele. “Já enfrentamos demandas por mudanças introduzidas pelo governo que degradam a privacidade do usuário e rejeitamos veementemente essas demandas. Continuaremos a recusá-los no futuro.

No entanto, a mensagem aparece a tempo: aumento da desconfiança e controle das empresas de tecnologia, juntamente com a sensibilidade excessiva em relação à supervisão ou supervisão percebida. “O transporte deve ser hermético” O’Leary disse.

Não há detalhes de como uma operação completa funcionaria também contribuiu para notícias confusas. Por exemplo, quando questionada sobre a equipe de Revisão Humana em um comunicado à imprensa, a Apple disse que não tinha certeza do que isso significaria, pois precisaria descobrir quais recursos são necessários com base na fase de testes.

A Apple não está sozinha na construção de abuso infantil ferramentas de detecção, mas outras principais empresas de tecnologia não faça isso no próprio dispositivo. Por exemplo, o Google e a Microsoft têm sistemas que ajudam a detectar imagens conhecidas de abuso infantil, e o Facebook testou ferramentas como uma janela pop-up que aparece quando um usuário procura por palavras relacionadas a abuso sexual infantil ou ao tentar hospedar imagens maliciosas.

Mary Pulido, diretora executiva da Sociedade de Prevenção da Crueldade Infantil de Nova York (NYSPCC), considerou essas tecnologias importantes, observando que elas poderiam “ajudar a polícia a levar os traficantes à justiça, acelerar a identificação das vítimas e reduzir os tempos de investigação. ” Ela também está em um acampamento que acredita que “proteger as crianças de qualquer dano possível tem uma vantagem sobre as preocupações com a privacidade”.

Onde a Apple errou

Embora ninguém esteja questionando a motivação da Apple, Elizabeth Renieris, professora da Universidade Notre Dame, IBM Technology Ethics Lab, disse que o momento foi “um pouco estranho”, dados todos os anúncios de privacidade na Conferência Mundial de Desenvolvedores em junho. A Apple se recusou a revelar por que a nova ferramenta não foi revelada na WWDC.

Renieris também disse que a Apple cometeu um erro ao anunciar outras atualizações aparentemente relacionadas, embora essencialmente diferentes, juntas.

Este polêmico aplicativo de alerta de crime em tempo real agora vende acesso aos seus agentes de segurança

O novo recurso de comunicação do iMessage, que deve ser habilitado no Family Sharing e usa processamento no dispositivo, alertará os usuários menores de 18 anos quando pretendem enviar ou receber uma mensagem com uma imagem nítida. Pais com filhos menores de 13 anos pode, adicionalmente, ativar a função de notificação no caso de a criança enviar ou receber foto nua. A Apple disse que não seria capaz de acessar as notícias, embora as pessoas continuassem expressando preocupações de que a Apple pudesse um dia fazê-lo.

“Devido à combinação disso com o controle dos pais, os anúncios pareciam estar relacionados. São funções diferentes com tecnologia diferente ”, disse O’Leary. Federighi concordou, dizendo que “em retrospecto, a introdução dessas duas funções simultaneamente foi uma receita para esse tipo de confusão”.
Os grandes nomes da tecnologia colocaram lenha na fogueira. Todo o mundo Com Edward Snowden Will Cathcart, o chefe do WhatsApp, que é propriedade do Facebook, criticou publicamente a Apple no Twitter. Cathcart Ele disse foi “problemático vê-los operando sem envolver especialistas que há muito documentam suas preocupações técnicas e mais amplas a esse respeito”. (O Facebook eles entraram em confronto com a Apple em relação a questões de privacidade anteriores, incluindo mudanças recentes de privacidade de dados do iOS que tornariam difícil para os anunciantes rastrear os usuários).
Alguma segurança Especialistas como o ex-diretor de segurança do Facebook Alex Stamos – que também escreveu um artigo do New York Times na quarta-feira detalhando as preocupações de segurança sobre essas ferramentas – disseram que a Apple poderia ter feito mais, como conectar-se a uma comunidade de segurança maior durante os estágios de desenvolvimento.

Dirigir uma agulha para proteger a privacidade do usuário e manter as crianças seguras é, no mínimo, difícil. Na tentativa de fortalecer a proteção de menores, a Apple também poderia lembrar o público do potencial controlar pode controlar próprios produtos muito depois de serem vendidos.

“Anúncios como este minam a reputação de privacidade de uma empresa, mas também levantam uma grande preocupação”, disse Renieris.