Na famosa Torre Agbar, um dos poucos arranha-céus espelhados de Barcelona, 800 pessoas trabalham dia e noite para remover conteúdos com teor violento publicados no Facebook, de suicídio e exploração sexual a racismo e xenofobia.

Elas ficam em salas iluminadas, com cerca de 70 lugares e vista panorâmica —mais modernas que uma repartição pública e menos sofisticadas que um escritório da rede social. Os profissionais ganham até € 2,1 mil euros (R$ 9.400) para interpretar o que está ou não de acordo com as políticas de segurança do Facebook.

Com pouco mais de um ano, o centro de moderação de conteúdo espanhol é um dos quatro criados em 2018 e um dos 20 espalhados pelo mundo.




As equipes de moderadores são terceirizadas, contratadas por multinacionais como CCC ou Accenture. O mantra entre revisores brasileiros, que não podem ter os nomes revelados, é foco na execução técnica do trabalho.

treinamento sobre as políticas do Facebook, que são documentos extensos abertos, e incluem mais de 20 categorias impróprias.

Mais de 99% dos conteúdos relacionados a exploração sexual infantil são retirados do Facebook por meio de inteligência artificial, segundo último relatório, com dados de janeiro a março de 2019. A tecnologia excluiu automaticamente mais de 90% de contas falsas e peças de spam, violência gráfica, nudez e propaganda terrorista. Bullying e discurso de ódio, mais interpretativos, têm percentual menor. No segundo caso, 34,6% são banidos do Facebook por revisão humana.