Documentos mostram diretrizes que moderadores do Facebook seguem para decidir sobre conteúdos, diz jornal

Documentos mostram diretrizes que moderadores do Facebook seguem para decidir sobre conteúdos, diz jornal
"The Guardian" afirma ter tido acesso a um documento de 300 páginas que mostram exemplos e regras a serem seguidos por funcionários e terceirizados. Usuários poderiam elogiar assassinos em massa ou "grupos armados não estatais" em determinadas situações. facebook silhuetas celular companhia empresa

Dado Ruvic/Reuters

O jornal britânico "The Guardian" publicou nesta terça feira (23) uma série de reportagens descrevendo regras e exemplos que os moderadores de conteúdo do Facebook precisam seguir ao decidir quais conteúdos seriam removidos da rede social.

O veículo afirma ter tido acesso a um documento de 300 páginas que orientava funcionários e terceirizados responsáveis por avaliar as publicações das pessoas.

Os usuários do Facebook poderiam elogiar assassinos em massa ou "grupos armados não estatais" em determinadas situações, segundo as reportagens.

O G1 entrou em contato com o Facebook sobre o caso, mas a empresa não havia se posicionado até a última atualização desta reportagem.

Crimes reconhecidos pelo Facebook

O vazamento indica que o Facebook mantém uma lista de "crimes reconhecidos" e instrui seus moderadores a distingui-los ao aplicar as regras. Isso seria feito para evitar ajudar países onde as leis são consideradas incompatíveis com os direitos humanos.

"Reconhecemos apenas crimes que causam danos físicos, financeiros ou mentais a indivíduos", tais como "roubo, roubo e fraude, assassinato, vandalismo [e] toque sexual não consensual", dizem as diretrizes.

Os crimes não reconhecidos pelo Facebook incluem "afirmações sobre sexualidade", "protestos pacíficos contra governos" e "discutir eventos históricos/assuntos controversos, tais como religião".

Ataques a figuras públicas

De acordo com o "The Guardian", os documentos indicam que figuras públicas podem sofrer ataques que são proibidos para outros tipos de pessoas. Seria permitido, por exemplo, pedir a morte dessas pessoas famosas.

Essas personalidades são definidas por sua quantidade de seguidores ou sua presença na mídia. Nas diretrizes, a rede social diz aos seus moderadores que elas podem ser consideradas alvos “porque queremos permitir a discussão, que muitas vezes inclui comentários críticos de pessoas que aparecem nas notícias”.

O conteúdo precisa ser removido se, no entanto, ao fazer o ataque o usuário marcar a pessoa famosa na publicação.

Zuckerberg tinha preocupação em divulgar diretrizes

Em 2018, o CEO da rede social, Mark Zuckerbeg explicou o motivo de o Facebook não divulgar os detalhes de quais as diretrizes para moderação.

Ele disse que havia "um problema básico de incentivo" e "quando (o conteúdo) não é verificado, as pessoas se envolverão desproporcionalmente com o conteúdo mais sensacionalista e provocativo".

"Nossa pesquisa sugere que não importa onde traçamos os limites para o que é permitido, conforme uma parte do conteúdo se aproxima dessa linha, as pessoas se envolverão mais com ela, em média - mesmo quando nos dizem depois que não gostam do conteúdo", disse Zuckerberg.

Comitê independente da rede social

Em 2020, o Facebook criou o Comitê de Supervisão, um órgão independente que recebeu um investimento de US$ 130 milhões para funcionar como uma alta corte sobre moderação de conteúdo.

A iniciativa é resposta às críticas sobre a maneira como a companhia modera as publicações no Facebook e o Instagram, apps que pertencem à mesma empresa.

Pelo estatuto do comitê, as decisões tomadas pelo grupo são finais, o que significa que as redes são obrigadas a acatar o que for decidido.

Comitê de supervisão do Facebook reverte 4 decisões de moderação de conteúdo

O grupo é formado por 20 membros, entre eles pessoas de todos os continentes, incluindo ex-juízes, advogados, jornalistas, ativistas de direitos humanos – incluindo um brasileiro.

Saiba como proteger seus dados na internet