Tim Cook
CEO, Apple, Inc.
Prezado Sr. Cook:
As organizações abaixo assinadas, comprometidas com os direitos civis, direitos humanos e direitos digitais em todo o mundo, estão escrevendo para instar a Apple a abandonar os planos, que anunciou em 5 de agosto de 2021, de construir capacidades de vigilância em iPhones, iPads e outros produtos da Apple. Embora esses recursos tenham como objetivo proteger as crianças e reduzir a disseminação de material de abuso sexual infantil (CSAM), estamos preocupados que eles sejam usados para censurar o direito de expressão, ameaçar a privacidade e a segurança de pessoas em todo o mundo e gerar consequências desastrosas para muitas crianças.
A Apple anunciou que está implantando um algoritmo de aprendizado de máquina para escanear imagens em seu serviço de mensagens de texto, iMessage, para detectar material sexualmente explícito enviado de ou para pessoas identificadas como crianças em contas familiares. Essa capacidade de vigilância será integrada diretamente nos dispositivos da Apple. Quando o algoritmo detecta uma imagem sexualmente explícita, ele avisa o usuário que a imagem pode ser sensível. Também envia um aviso ao organizador de uma conta familiar sempre que um usuário menor de 13 anos opta por enviar ou receber a imagem.
Algoritmos projetados para detectar material sexualmente explícito são notoriamente não confiáveis. Eles estão propensos a sinalizar erroneamente arte, informações de saúde, recursos educacionais, mensagens de defesa e outras imagens. Os direitos das crianças de enviar e receber tais informações são protegidos pela Convenção das Nações Unidas sobre os Direitos da Criança. Além disso, o sistema que a Apple desenvolveu presume que as contas “pai” e “filho” envolvidas realmente pertencem a um adulto que é pai de uma criança e que esses indivíduos têm um relacionamento saudável. Isso pode não ser sempre o caso; um adulto abusivo pode ser o organizador da conta, e as consequências da notificação dos pais podem ameaçar a segurança e o bem-estar da criança. Jovens LGBTQ+ em contas familiares com pais antipáticos estão particularmente em risco. Como resultado dessa mudança, o iMessage não fornecerá mais confidencialidade e privacidade a esses usuários por meio de um sistema de mensagens criptografadas de ponta a ponta em que apenas o remetente e os destinatários pretendidos têm acesso às informações enviadas. Uma vez que esse recurso de backdoor é integrado, os governos podem obrigar a Apple a estender a notificação a outras contas e detectar imagens que são questionáveis por outras razões que não sejam de ser sexualmente explícitas.
A Apple também anunciou que iria incorporar no sistema operacional de seus produtos um banco de dados de hashes de imagens CSAM fornecidas pelo Centro Nacional para Crianças Desaparecidas e Exploradas dos Estados Unidos e outras organizações de proteção infantil. Ele fará a varredura nesse banco de dados de todas as fotos que seus usuários enviarem para o iCloud. Quando um número limite predefinido de correspondências é atingido, ele desativa a conta e relata o usuário e essas imagens às autoridades. Muitos usuários enviam rotineiramente as fotos que tiram para o iCloud. Para esses usuários, a vigilância de imagens não é algo que eles possam optar por não fazer; ele será integrado ao iPhone ou outro dispositivo da Apple e à conta do iCloud.
Uma vez que essa capacidade seja incorporada aos produtos da Apple, a empresa e seus concorrentes enfrentarão enorme pressão – e potencialmente requerimentos legais – de governos ao redor do mundo para escanear fotos não apenas em busca de CSAM, mas também para outras imagens que um governo considere questionáveis. Essas imagens podem ser de abusos de direitos humanos, protestos políticos, imagens que as empresas rotularam como conteúdo “terrorista” ou extremista violento, ou mesmo imagens nada lisonjeiras dos próprios políticos que vão pressionar a empresa para fazer a varredura. E essa pressão pode se estender a todas as imagens armazenadas no dispositivo, não apenas àquelas carregadas no iCloud. Assim, a Apple terá lançado as bases para a censura, vigilância e perseguição em uma base global.
Apoiamos os esforços para proteger as crianças e nos posicionarmos firmemente contra a proliferação de CSAM. Mas as mudanças que a Apple anunciou colocam as crianças e seus outros usuários em risco agora e no futuro. Nós instamos a Apple a abandonar essas mudanças e reafirmar o compromisso da empresa em proteger seus usuários com criptografia de ponta a ponta. Também instamos a Apple a consultar mais regularmente grupos da sociedade civil e comunidades vulneráveis que podem ser afetadas de forma desproporcional por mudanças em seus produtos e serviços.
Atenciosamente,
Access Now (Global)
Advocacy for Principled Action in Government (United States)
African Academic Network on Internet Policy (Africa)
AJIF (Nigeria)
American Civil Liberties Union (United States)
Aqualtune Lab (Brasil)
Asociación por los Derechos Civiles (ADC) (Argentina)
Association for Progressive Communications (APC) (Global)
Barracón Digital (Honduras)
Beyond Saving Lives Foundation (Africa)
Big Brother Watch (United Kingdom)
Body & Data (Nepal)
Canadian Civil Liberties Association
CAPÍTULO GUATEMALA DE INTERNET SOCIETY (Guatemala)
Center for Democracy & Technology (United States)
Centre for Free Expression (Canada)
CILIP/ Bürgerrechte & Polizei (Germany)
Código Sur (Centroamerica)
Community NetHUBs Africa
Dangerous Speech Project (United States)
Defending Rights & Dissent (United States)
Demand Progress Education Fund (United States)
Derechos Digitales (Latin America)
Digital Rights Foundation (Pakistan)
Digital Rights Watch (Australia)
DNS Africa Online (Africa)
Electronic Frontier Foundation (United States)
EngageMedia (Asia-Pacific)
Eticas Foundation (Spain)
European Center for Not-for-Profit Law (ECNL) (Europe)
Fight for the Future (United States)
Free Speech Coalition Inc. (FSC) (United States)
Fundación Karisma (Colombia)
Global Forum for Media Development (GFMD) (Belgium)
Global Partners Digital (United Kingdom)
Global Voices (Netherlands)
Hiperderecho (Peru)
Instituto Beta: Internet & Democracia – IBIDEM (Brazil)
Instituto de Referência em Internet e Sociedade – IRIS (Brazil)
Instituto Liberdade Digital – ILD (Brazil)
Instituto Nupef (Brazil)
Internet Governance Project, Georgia Institute of Technology (Global)
Internet Society Panama Chapter
Interpeer Project (Germany)
IP.rec – Law and Technology Research Institute of Recife (Brazil)
IPANDETEC Central America
ISOC Bolivia
ISOC Brazil – Brazilian Chapter of the Internet Society
ISOC Chapter Dominican Republic
ISOC Ghana
ISOC India Hyderabad Chapter
ISOC Paraguay Chapter
ISOC Senegal Chapter
JCA-NET (Japan)
Kijiji Yeetu (Kenya)
LGBT Technology Partnership & Institute (United States)
Liberty (United Kingdom)
mailbox.org (EU/DE)
May First Movement Technology (United States)
National Coalition Against Censorship (United States)
National Working Positive Coalition (United States)
New America’s Open Technology Institute (United States)
OhmTel Ltda (Columbia)
OpenMedia (Canada/United States)
Paradigm Initiative (PIN) (Africa)
PDX Privacy (United States)
PEN America (Global)
Privacy International (Global)
PRIVACY LATAM (Argentina)
Progressive Technology Project (United States)
Prostasia Foundation (United States)
R3D: Red en Defensa de los Derechos Digitales (Mexico)
Ranking Digital Rights (United States)
S.T.O.P. – Surveillance Technology Oversight Project (United States)
Samuelson-Glushko Canadian Internet Policy & Public Interest Clinic (CIPPIC)
Sero Project (United States)
Simply Secure (United States)
Software Freedom Law Center, India
SWOP Behind Bars (United States)
Tech for Good Asia (Hong Kong)
TEDIC (Paraguay)
Telangana (India)
The DKT Liberty Project (United States)
The Sex Workers Project of the Urban Justice Center (United States)
The Tor Project (Global)
UBUNTEAM (Africa)
US Human Rights Network (United States)
WITNESS (Global)
Woodhull Freedom Foundation (United States)
X-Lab (United States)
Zaina Foundation (Tanzania)