O que se seguiu – tweets indignados, críticos manchetes e gritos por mais informações – coloque tecnologia um gigante da defesa poucas semanas antes do próximo lançamento do iPhone, seu maior evento do ano. Foi um raro erro de cálculo de RP para uma empresa conhecida por esforços meticulosos de RP.
Muitos especialistas em segurança infantil elogiaram essa intenção, reconhecendo a responsabilidade ética da empresa e o compromisso com os produtos e serviços que cria. Mas eles também chamaram esses esforços de “profundamente perturbadores”, em grande parte devido à forma como parte da triagem da Apple de imagens de abuso infantil é feita diretamente nos dispositivos dos usuários.
“Quando as pessoas ouvem a Apple” procurando “material de abuso sexual infantil (CSAM) nos telefones dos usuários finais, elas imediatamente pensam no Big Brother e em 1984, disse Ryan O’Leary. gerente de pesquisa para privacidade e tecnologia jurídica na empresa de pesquisa IDC. “É um problema com muitas nuances que pode parecer bastante assustador ou intrusivo à primeira vista. É muito fácil causar sensação do ponto de vista de um leigo. ‘
A Apple não quis comentar a história.
Como funciona a ferramenta Apple
Os defensores da privacidade têm preocupações legítimas de que esta é uma ladeira muito escorregadia e basicamente a única coisa que impede a Apple [from expanding beyond searching for CSAM images] essa é a palavra deles “ O’Leary disse. “A Apple está ciente disso e está tentando introduzir clareza adicional neste novo conjunto de recursos para tentar controlar a narrativa.”
No entanto, a mensagem aparece a tempo: aumento da desconfiança e controle das empresas de tecnologia, juntamente com a sensibilidade excessiva em relação à supervisão ou supervisão percebida. “O transporte deve ser hermético” O’Leary disse.
Não há detalhes de como uma operação completa funcionaria também contribuiu para notícias confusas. Por exemplo, quando questionada sobre a equipe de Revisão Humana em um comunicado à imprensa, a Apple disse que não tinha certeza do que isso significaria, pois precisaria descobrir quais recursos são necessários com base na fase de testes.
Mary Pulido, diretora executiva da Sociedade de Prevenção da Crueldade Infantil de Nova York (NYSPCC), considerou essas tecnologias importantes, observando que elas poderiam “ajudar a polícia a levar os traficantes à justiça, acelerar a identificação das vítimas e reduzir os tempos de investigação. ” Ela também está em um acampamento que acredita que “proteger as crianças de qualquer dano possível tem uma vantagem sobre as preocupações com a privacidade”.
Onde a Apple errou
Embora ninguém esteja questionando a motivação da Apple, Elizabeth Renieris, professora da Universidade Notre Dame, IBM Technology Ethics Lab, disse que o momento foi “um pouco estranho”, dados todos os anúncios de privacidade na Conferência Mundial de Desenvolvedores em junho. A Apple se recusou a revelar por que a nova ferramenta não foi revelada na WWDC.
Renieris também disse que a Apple cometeu um erro ao anunciar outras atualizações aparentemente relacionadas, embora essencialmente diferentes, juntas.
O novo recurso de comunicação do iMessage, que deve ser habilitado no Family Sharing e usa processamento no dispositivo, alertará os usuários menores de 18 anos quando pretendem enviar ou receber uma mensagem com uma imagem nítida. Pais com filhos menores de 13 anos pode, adicionalmente, ativar a função de notificação no caso de a criança enviar ou receber foto nua. A Apple disse que não seria capaz de acessar as notícias, embora as pessoas continuassem expressando preocupações de que a Apple pudesse um dia fazê-lo.
Dirigir uma agulha para proteger a privacidade do usuário e manter as crianças seguras é, no mínimo, difícil. Na tentativa de fortalecer a proteção de menores, a Apple também poderia lembrar o público do potencial controlar pode controlar próprios produtos muito depois de serem vendidos.
“Anúncios como este minam a reputação de privacidade de uma empresa, mas também levantam uma grande preocupação”, disse Renieris.