top of page

Um erro do Facebook aumentou as visualizações de conteúdo prejudicial por meses

Um grupo de engenheiros do próprio Facebook identificou uma “falha maciça de classificação”, que expôs quase metade das visualizações do Feed a potenciais “riscos de integridade” nos últimos seis meses.

As informações são do The Verge, que teve acesso ao relatório interno do caso, compartilhado na empresa na semana passada.

O problema foi notado pela primeira vez em outubro, quando uma onda repentina de desinformação surgiu no Feed. Em vez de suprimir postagens de infratores de desinformação reincidentes (que já haviam sido revisados ​​pela rede de verificadores de fatos externos da empresa), o Feed estava distribuindo as postagens, aumentando as visualizações em até 30%, de forma global.

Sem conseguir encontrar a causa raiz nos primeiros momentos, o engenheiros relatam terem observado esse alcance diminuir, mas então aumentar, de forma repetida, até que o problema de classificação fosse corrigido em 11 de março.

Além disso, a investigação interna descobriu que, durante o período do bug, os sistemas do Facebook não conseguiram rebaixar adequadamente as postagens com provável nudez, violência e até mesmo a mídia estatal russa, que a rede social prometeu recentemente parar de recomendar (em resposta ao conflito na Ucrânia).

A questão foi designada internamente com um rótulo reservado para crises técnicas de alta prioridade – um SEV/site event de nível 1. Os documentos internos dizem que o problema técnico ocorreu pela primeira vez em 2019, mas não criou um impacto perceptível até outubro de 2021.

Joe Osborne, porta-voz da Meta, confirmou o incidente ao The Verge, dizendo que a empresa detectou inconsistências em 5 ocasiões, que se correlacionam com “pequenos aumentos temporários nas métricas internas”, mas que “traçamos a causa raiz para um bug de software e aplicamos as correções necessárias”. Ele ainda acrescentou que o bug “não teve algum impacto significativo e de longo prazo em nossas métricas” e não se aplicava ao conteúdo que atingia o limite que o sistema identifica como motivo de exclusão.

Alex Heath, autor do texto e repórter do The Verge que cobre a Meta, analisa que não viu “nenhuma indicação de que havia intenção maliciosa por trás desse bug de classificação recente que impactou até metade das visualizações do Feed de notícias durante um período de meses e, felizmente, não quebrou as outras ferramentas de moderação do Facebook. Mas o incidente mostra por que é necessária mais transparência nas plataformas da Internet e nos algoritmos que elas usam”.

O ex-membro da equipe de integridade cívica do Facebook, Sahar Massachi, também questiona: “em um sistema grande e complexo como esse, os bugs são inevitáveis ​​e compreensíveis. Mas o que acontece quando uma plataforma social poderosa tem uma dessas falhas acidentais? Como nós saberíamos? Precisamos de transparência real para construir um sistema sustentável de prestação de contas, para que possamos ajudá-los a resolver esses problemas rapidamente”.

Fonte: The Verge

3 visualizações

Comments


bottom of page