Moderadora do Facebook faz relato sobre pornografia infantil e violência

Do R7:
“O que mais tem é pornografia”, diz Sara Katz, ao se lembrar dos oito meses em que trabalhou como moderadora do Facebook.
“A agência foi muito direta sobre o tipo de conteúdo que veríamos e o quão gráfico era, portanto sabíamos o que estávamos enfrentando”, declara.
Katz se refere a uma agência de moderadores humanos com sede na Califórnia, nos Estados Unidos, que o Facebook e outras empresas contratam. Ela trabalhou com isso em 2016.
A tarefa de Katz consistia em revisar as queixas sobre conteúdo inapropriado que chegavam dos usuários do Facebook.
Não era uma tarefa tranquila. “Davam para a gente cerca de um minuto por publicação, para decidir se era spam e tinha que ser apagado. Às vezes, apagávamos a conta associada à postagem também”, explica.
“A gerência não gostava que trabalhássemos mais que oito horas por dia, e revisávamos uma média de 8 mil publicações por dia, mil por hora.”
Katz diz que “aprendeu bastante” no período, mas destaca que, se tivesse que descrever o trabalho com uma só palavra seria, “extenuante”.
“Definitivamente você tem que estar preparado para ver qualquer tipo de coisa em apenas um clique. As imagens chegam de repente, sem aviso prévio”, diz.
A que mais a impactou foi uma fotografia que sugeria pornografia infantil. “Era de um menino e uma menina. O menino tinha uns 12 anos, e a menina, oito ou nove. Eles estavam de frente um para o outro, sem calça”, descreve.
“Parecia que um adulto estava dizendo a eles o que fazer. Foi muito perturbador, principalmente porque dava para ver que era real.”
(…)
Violência gráfica
(…)
“Obviamente havia muito mais pornografia genérica entre adultos, o que não era tão perturbador.”
Em alguns casos, as fotografias incluíam animais. “Tinha uma imagem com um cavalo que circulava com frequência”, recorda.
(…)
Embora tenha tido contato com algumas imagens perturbadoras, em geral, o trabalho de moderador era “monótono”, diz ela.
“Realmente você acaba se acostumando a identificar o que é spam e o que não é. Simplesmente, a atividade se converte numa monotonia de cliques.”
Perguntada se recomendaria o trabalho, ela é taxativa: “Se você puder fazer qualquer outra coisa, eu diria que não”.
A BBC encaminhou o relato de Katz ao Facebook. Em resposta, um porta-voz da empresa disse: “Nossos revisores desempenham um papel crucial para fazer do Facebook um local seguro e aberto”.
A rede social reconheceu que o trabalho de moderador “pode ser muito desafiador”. “Queremos assegurar que (os moderadores) estejam devidamente respaldados.”
“Por isso, oferecemos capacitação regularmente, assessoramento e apoio psicológico a todos os nossos empregados e a todos os que trabalham para nós por meio de nossos sócios”, completou.
O Facebook também disse que, embora use inteligência artificial sempre que possível, existem mais de 7 mil pessoas que revisam conteúdo da rede social. “Cuidar do bem estar deles é uma verdadeira prioridade nossa.”
