Embora seja imperativo sublinhar que o Taleban não respeita os padrões internacionais de direitos humanos, incluindo o direito à liberdade de expressão, seu golpe cínico no gigante da mídia social expõe uma hipocrisia fundamental na dinâmica entre os Estados-nação e as empresas internacionais de tecnologia.
Esta não é a primeira vez que uma empresa de mídia social é criticada por sua política de conteúdo e por bairros diametralmente opostos. Em 2008, o YouTube foi atacado pelo então senador Joseph Lieberman, que escreveu ao CEO do Google, Eric Schmidt, implorando a ele para garantir que o YouTube cumprisse seus próprios padrões comunitários contra o terrorismo.
Lieberman disse que a remoção de conteúdo terrorista de sua plataforma pelo YouTube seria “uma contribuição particularmente importante para este importante esforço nacional”.
O YouTube respondeu que embora seus padrões proibissem conteúdo terrorista, a empresa não conseguia monitorar todas as contas e dependia de um sistema de moderação de conteúdo comercial que incluía usuários relatando coisas que pareciam violar as regras e funcionários tomando decisões rápidas sobre o local exato estabelecer um limite.
Logo depois, o senador começou a pedir à empresa que removesse conteúdo supostamente do Taleban afegão.
“O Facebook pode facilmente acabar removendo um discurso crítico contra o Taleban de sua plataforma – silenciando as mesmas pessoas que supostamente protege.”
Jillian C. York
O Facebook é responsável por organizar os discursos de mais de um bilhão de cidadãos globais. Embora legalmente, como uma empresa dos Estados Unidos, tenha o direito de restringir qualquer tipo de discurso que considerar adequado, o CEO do Facebook, Mark Zuckerberg, vem promovendo a plataforma há muitos anos como uma forma de tornar o mundo “mais aberto e conectado”, como foi dito em um discurso de 2019, no qual “dar um voto a todos fortalece os impotentes e leva a sociedade a melhorar ao longo do tempo”.
Mas as ações de Zuckerberg nem sempre se encaixam em suas palavras, e suas opiniões sobre a liberdade de expressão parecem derivar mais de seus próprios valores culturais do que de quaisquer padrões internacionais. O Facebook é famoso por promover padrões duplos no que diz respeito ao corpo humano e tem sido criticado por remover comentários que, segundo alguns, são aplaudidos pelos invasores. Mas, quando se trata de julgar conteúdo terrorista e extremista, as ações da empresa costumam ter consequências ainda mais sérias.
O Facebook usa uma combinação de moderação humana e tecnologia de aprendizado de máquina para remover declarações de grupos que violam sua proibição de “organizações perigosas”, mas, ao fazer isso, frequentemente remove conteúdo artístico, sátira e documentação de violações dos direitos humanos. Ainda mais preocupante, a empresa foi acusada de remover um contra-discurso dirigido a grupos terroristas – um discurso que vem de algumas das comunidades mais locais e vulneráveis.
Não é difícil ver como, no cenário atual, o Facebook pode facilmente acabar removendo discurso crítico anti-Taliban de sua plataforma – silenciando as mesmas pessoas que supostamente protege.
O Conselho de Supervisão Independente do Facebook, estabelecido no final de 2020, expressou preocupação sobre a forma como o Facebook define o terrorismo e aplica sua política contra “grupos perigosos”. Na sequência de exigências da sociedade civil, o Conselho concluiu que o Facebook deve ser transparente sobre o quadro regulamentar que sustenta esta política e como a automação é usada para moderar o conteúdo nesta categoria. Ele também pediu repetidamente à empresa que desse aos usuários cujo conteúdo foi injustamente removido uma oportunidade de apelar da decisão.
Quanto ao Taleban, que é sancionado pelo Departamento do Tesouro, o Facebook está em uma posição difícil – a empresa pode enfrentar severas penalidades financeiras e legais por organizar um discurso de seus membros. No entanto, o Facebook deve implementar as recomendações básicas do Conselho sobre transparência e responsabilidade.
Além do dilema jurídico enfrentado pela empresa, no entanto, há uma questão maior: quando um grupo que parte ou mesmo a maior parte do mundo considera uma organização terrorista assume o poder sobre a governança de um Estado-nação, quem deve ter o poder de decisão diga se este grupo tem acesso igual à plataforma mais popular do mundo?
Os Estados Unidos há muito exercem poder militar e diplomático sobre as políticas de outras nações, mas hoje empresas americanas como o Facebook têm o poder não apenas de silenciar líderes estrangeiros, mas também nacionais – como vimos em janeiro, quando o Facebook expulsou Donald Trump da plataforma. A ideia de que um “líder” não eleito como Mark Zuckerberg tenha tanto poder deve preocupar a todos nós.
Portanto, é imperativo que o Facebook – e qualquer outra plataforma de fala – ouça seus usuários e a sociedade civil global, e adote medidas que garantam que suas decisões sejam transparentes e responsáveis perante os usuários e o público.
Leia mais na série As Equals
* Título da imagem da manchete: Militantes do Taleban assumem o controle do palácio presidencial afegão depois que o presidente afegão Ashraf Ghani fugiu do país em Cabul, Afeganistão, em 15 de agosto de 2021.