Novos documentos expõem papel do Facebook na invasão do Capitólio dos EUA

Atualizado em 23 de outubro de 2021 às 9:55
Seguidores de Trump invadem o Capitólio nos EUA

Novos documentos internos fornecidos por uma ex-funcionária do Facebook dão um raro vislumbre de como a empresa prevaricou no ataque ao Capitólio do EUA 6 de janeiro.

O monstro criador por Mark Zuckerberg se omitiu enquanto seguidores de Trump passavam semanas jurando em postagens impedir o Congresso de certificar a vitória de Joe Biden nas eleições.

As revelações feitas pela denunciante Frances Haugen ao Congresso americano foram utiizadas por um consórcio de mídia que está publicado uma série de reportagens.

Aqui trechos da Associated Press:

Enquanto os apoiadores de Donald Trump invadiam o Capitólio dos EUA em 6 de janeiro, os engenheiros do Facebook estavam correndo para ajustar os controles internos para desacelerar a disseminação de desinformação e conteúdo que incitava ao crime. 

Ações de emergência – algumas das quais foram eliminadas após a eleição de 2020 – incluíram banir Trump, congelar comentários em grupos com histórico de incitação ao ódio, filtrar o grito de guerra “Stop the Steal” [“Parem o roubo”] e capacitar moderadores de conteúdo a agir de forma mais assertiva.

Ao mesmo tempo, a frustração dentro do Facebook explodiu sobre o que alguns viram como uma resposta hesitante e muitas vezes revertida da empresa ao crescente extremismo nos EUA.

“Não tivemos tempo suficiente para descobrir como gerenciar o discurso sem permitir a violência?”, um funcionário escreveu em um quadro de mensagens interno no auge da turbulência de 6 de janeiro. 

“Há muito tempo que alimentamos esse fogo e não devemos nos surpreender que agora esteja fora de controle.”

Novos documentos internos fornecidos pela ex-funcionária do Facebook que se tornou denunciante Frances Haugen fornecem um raro vislumbre de como a empresa parece ter simplesmente tropeçado no motim. 

A rede social não percebeu como os participantes do motim passaram semanas prometendo – no próprio Facebook – impedir o Congresso de certificar a vitória de Joe Biden nas eleições.

Os documentos também parecem apoiar a afirmação de Haugen de que o Facebook colocou seu crescimento e lucros à frente da segurança pública, expondo ainda mais como os impulsos conflitantes do Facebook – para salvaguardar seus negócios e proteger a democracia – entraram em conflito nos dias e semanas que antecederam a tentativa de golpe.

Esta história é baseada em parte nas divulgações feitas por Haugen à Comissão de Valores Mobiliários e Câmbio e fornecidas ao Congresso de forma redigida pelo consultor jurídico de Haugen. 

As versões editadas recebidas pelo Congresso foram obtidas por um consórcio de organizações de notícias, incluindo a Associated Press.

O que o Facebook chamou de medidas de emergência postas em prática em 6 de janeiro foram essencialmente um kit de ferramentas projetado para conter a disseminação de conteúdo perigoso ou violento que a rede social havia usado pela primeira vez na corrida para as amargas eleições de 2020. 

Até 22 dessas medidas foram removidas em algum momento após a eleição, de acordo com uma planilha interna que analisa a resposta da empresa.

“Assim que a eleição acabou, eles rejeitaram ou alteraram as configurações de volta ao que eram antes, para priorizar o crescimento sobre a segurança”, disse Haugen em uma entrevista ao “60 Minutes”.

Um relatório interno do Facebook após 6 de janeiro, relatado anteriormente pelo BuzzFeed, culpou a empresa por ter uma abordagem “fragmentada” para o rápido crescimento das páginas “Stop the Steal”, fontes de desinformação relacionadas e comentários violentos e insufladores.

O Facebook diz que a situação é mais sutil e que calibra cuidadosamente seus controles para reagir rapidamente a picos de conteúdo violento e odioso, como fez naquela data. A empresa disse que não é responsável pelas ações dos manifestantes e que ter controles mais rígidos antes daquele dia não teria ajudado.(…)

Alguns funcionários estavam insatisfeitos com o gerenciamento de conteúdo problemático pelo Facebook, mesmo antes dos tumultos de 6 de janeiro. Um funcionário que deixou a empresa em 2020 deixou uma longa nota denunciando que novas ferramentas promissoras, apoiadas por fortes pesquisas, estavam sendo restringidas pelo Facebook por “medo de respostas públicas e de partes interessadas políticas” (tradução: preocupações sobre reações negativas de aliados e investidores de Trump).

“Da mesma forma (embora ainda mais preocupante), vi salvaguardas já construídas e funcionando sendo removidas pelos mesmos motivos”, escreveu o funcionário, cujo nome está apagado.

A pesquisa conduzida pelo Facebook bem antes da campanha de 2020 deixou poucas dúvidas de que seu algoritmo poderia representar um sério perigo de espalhar desinformação e potencialmente radicalizar os usuários.

Um estudo de 2019, intitulado “Carol’s Journey to QAnon – A Test User Study of Misinfo & Polarization Risks Encountered through Recommendation Systems”, descreveu os resultados de um experimento conduzido com uma conta de teste estabelecida para refletir as opiniões de uma “conservadora rígida” prototípica – mas não extremista – de 41 anos da Carolina do Norte. Esse relato de teste, usando o nome falso de Carol Smith, indicava uma preferência por fontes de notícias convencionais como a Fox News, seguia grupos de humor que zombavam dos liberais, abraçavam o cristianismo e era fã de Melania Trump.

Em um único dia, as recomendações da página para esta conta gerada pelo próprio Facebook evoluíram para um “estado polarizador e bastante preocupante”, concluiu o estudo. 

Captura de tela de postagem no Facebook publicada por invasor do Capitólio

No segundo dia, o algoritmo recomendava mais conteúdo extremista, incluindo um grupo não vinculado ao QAanon, ao qual a falso usuária não aderiu porque não era atraída por teorias da conspiração de maneira inata.

Uma semana depois, o feed do teste apresentava “uma enxurrada de conteúdo extremo, conspiratório e gráfico”, incluindo postagens revivendo a fake news sobre o nascimento de Obama e ligando os Clinton ao assassinato de um ex-senador do estado de Arkansas. Muito do conteúdo foi promovido por grupos suspeitos administrados no exterior ou por administradores com histórico de violar as regras do Facebook sobre atividade de bot.

Esses resultados levaram o pesquisador, cujo nome foi redigido pelo denunciante, a recomendar medidas de segurança que iam desde a remoção de conteúdo com referências de conspiração conhecidas e desabilitação de selos de “principal contribuidor” para comentaristas desinformados, a reduzir o número limite de seguidores necessário antes que o Facebook verificasse a identidade do administrador da página.

Entre os outros funcionários do Facebook que leram a pesquisa, a resposta foi quase universalmente favorável.

“Ei! Este é um estudo tão completo e bem delineado (e perturbador)”, escreveu um usuário. “Você conhece alguma mudança concreta que resultou disso?”

O Facebook disse que o estudo foi um dos muitos exemplos de seu compromisso em estudar e melhorar continuamente sua plataforma.

Outro estudo entregue aos investigadores do Congresso, intitulado “Compreendendo os perigos de comunidades de tópicos prejudiciais”, discutiu como indivíduos com ideias semelhantes que abraçam um tópico ou identidade podem formar “câmaras de eco” para desinformação que normalizam atitudes prejudiciais, estimulam a radicalização e podem até fornecer uma justificativa para a violência.

Exemplos dessas comunidades prejudiciais incluem QAnon e grupos de ódio que promovem teorias de uma guerra racial.

“O risco de violência ou dano offline torna-se mais provável quando indivíduos com ideias semelhantes se reúnem e apoiam uns aos outros para agirem”, conclui o estudo.

Documentos de procuradores federais contra aqueles que supostamente invadiram o Capitólio têm exemplos de pessoas que pensam da mesma forma se reunindo.

Eles dizem que um líder de renome no grupo da milícia Oath Keepers usou o Facebook para discutir a formação de uma “aliança” e planos de coordenação com outro grupo extremista, os Proud Boys, antes do motim no Capitólio.

“Decidimos trabalhar juntos e fechar esse sistema”, escreveu Kelly Meggs, descrita pelas autoridades como a líder do Oath Keepers na Flórida, no Facebook, de acordo com os registros.

Post no Facebook de seguidor de Trump no motim no Capitólio dos EUA