Nesta terça-feira (24), o Facebook resolveu publicar com mais detalhes suas diretrizes internas sobre o que pode e o que não pode ser publicado na plataforma, além de ampliar a possibilidade de o usuário apelar quando tem algum conteúdo removido.
Sim, os Padrões da Comunidade já explicavam essa questão, mas, nas palavras de Monika Bickert, vice-presidente global de políticas públicas da rede social, "hoje, estamos dando um passo à frente ao publicar as diretrizes internas que usamos para cumprir esses padrões; e, pela primeira vez, estamos dando a você o direito de apelar às nossas decisões sobre postagens individuais para que você possa pedir uma segunda opinião quando achar que cometemos um erro".
Como são aplicadas as políticas do Facebook
A rede social tem 11 escritórios ao redor do mundo, com especialistas na análise de conteúdos, incluindo coisas como discursos de ódio, segurança infantil e terrorismo. "Para fazer conexões, as pessoas precisam saber que estão seguras, e o Facebook também deve ser um lugar onde as pessoas possam expressar suas opiniões livremente, ainda que algumas pessoas achem essas opiniões questionáveis", explica Bickert.
Para isso, é preciso ter uma política interna bastante rígida de combate a discursos que vão além da mera opinião e partem para a ofensa, ou que evidenciem violências e imagens fortes que não são aceitas em uma plataforma tão ampla. Então, usa-se uma combinação de inteligência artificial e moderação humana para não somente varrer a rede social, mas também analisar as denúncias de usuários. Segundo a companhia, essa equipe de 7.500 revisores trabalha 24 horas por dia, 7 dias por semana, e atua em mais de 40 idiomas.
Mas afinal, o que pode e o que não pode ser postado no facebook?
Leia no Canaltech