Esta semana o The Wall Street Journal publicou uma série de histórias sobre Facebook, com base em análise de documentos internos e concluiu que as plataformas da empresa “estão repletas de falhas que causam danos, muitas vezes de maneiras que apenas a empresa compreende totalmente”.
As histórias apresentadas incluíam detalhes sobre o programa cross-check (ou XCheck), que, de acordo com o Jornal, isenta celebridades das regras de moderação padrão do Facebook; uma exposição de uma pesquisa interna que mostra que o Instagram é prejudicial para a saúde dos usuários mais jovens; as mudanças que o Facebook fez em seu algoritmo que aumentaram o engajamento mas deixaram os usuários mais nervosos; preocupações de funcionários sobre como suas plataformas podem ser usadas no tráfico humano; e como a iniciativa para promover as vacinas contra a COVID-19 atraiu ativistas antivacinas e inundou o Facebook com conteúdo contrário às mesmas.
A empresa fez um post resposta em seu blog oficial, mas ainda assim várias dúvidas permanecem.
Inclusive, ontem o Oversight Board, um órgão semi-independente que analisa as políticas de moderação do Facebook, criado pela própria empresa, anunciou que quer mais informações sobre o cross-check – o sistema de “verificação cruzada” que o Facebook usa para “revisar as decisões de conteúdo relacionadas a alguns usuários de ‘alto perfil”‘.
O sistema está sendo questionado pois o relatório do The Wall Street Journal afirma que ele permite que usuários importantes quebrem as regras. O Conselho escreveu: “À luz dos desenvolvimentos recentes, estamos analisando até que ponto o Facebook tem sido totalmente aberto em suas respostas em relação à verificação cruzada, incluindo a prática de whitelisting. Esperamos receber um briefing do Facebook nos próximos dias e estaremos relatando o que ouvimos sobre isso como parte de nosso primeiro lançamento de relatórios de transparência trimestrais, que publicaremos em outubro”.
O objetivo do cross-check é adicionar um nível extra de verificação a questões de moderação de contas importantes, que possam causar polêmicas, inclusive para a empresa. Porém, o Jornal afirma que cobriu cerca de 5,8 milhões de pessoas em 2020, e apenas 10% das postagens enviadas para o programa foram revisadas por essa segunda camada de moderadores especializados do Facebook. De acordo com o relatório, figuras políticas importantes estão incluídas no sistema, como o ex-presidente dos Estados Unidos, Donald Trump.
Inclusive, na época que o Oversight Board decidiu manter a proibição de Trump do Facebook, o conselho já observou que as informações públicas sobre as análises cruzadas (utilizadas para a decisão) são limitadas, e aconselhou a empresa a “explicar claramente a justificativa, os padrões e os processos de revisão, incluindo os critérios para determinar quais páginas e contas são selecionadas para inclusão”.
Sobre as ações do Conselho, o Facebook não é legalmente obrigado a seguir suas decisões. A empresa se permite uma certa flexibilidade em como responder e, apesar de comprometer-se publicamente a seguir as decisões de moderação individuais, reserva-se o direito de não seguir recomendações mais amplas.
Com o novo anúncio do Oversight Board feito ontem, pedindo mais explicações, quem sabe o Facebook finalmente divulgue mais informações sobre o programa.