Ads 468x60px

quinta-feira, 17 de maio de 2018

Facebook fechou 583 milhões de contas falsas nos primeiros três meses de 2018

O Facebook tomou medidas contra quase 1,5 mil milhões de contas e publicações, que violaram os padrões da comunidade nos primeiros três meses de 2018.

No primeiro Relatório de Execução de Padrões de Comunidade, relativo aos primeiros três meses de 2018, o Facebook constatou que a esmagadora maioria das ações de moderação foi contra mensagens de spam e contas falsas. Pelo menos 583 milhões de contas foram encerradas e 837 milhões de mensagem de spam apagadas.
De acordo com o "The Guardian", a rede social também tomou medidas de moderação contra 2,5 milhões de publicações com discurso de ódio, 1,9 milhões de mensagens de propaganda terrorista, 3,4 milhões de publicações com violência explícita e 21 milhões de conteúdos com nudez de adultos e atividade sexual.
Várias categorias de violação de conteúdo, incluindo imagens de exploração sexual infantil, pornografia de vingança, publicações suicidas, intimidação, assédio, violações de privacidade e violação de direitos autorais não estão incluídas no relatório.
Em relação à exploração infantil, Alex Schultz, vice-presidente de análise de dados da empresa, disse que a empresa ainda precisava de decidir como categorizar diferentes graus de conteúdo. "Estamos muito mais focados em proteger as crianças do que descobrir exatamente qual categorização vamos divulgar no relatório externo", disse.
O Facebook também conseguiu aumentar a quantidade de conteúdo eliminado com novas ferramentas baseadas em inteligência artificial, que usou para encontrar e moderar conteúdo sem precisar que os utilizadores o sinalizassem como suspeito. Essas ferramentas funcionaram particularmente bem com as contas falsas e spam: a empresa conseguiu encontrar 98,5% das contas falsas e "quase 100%" do spam utilizando estas ferramentas.
A sinalização automática funcionou bem para encontrar casos de nudez, usando tecnologia de reconhecimento de imagens. Já relativamente à moderação do discurso de ódio, foi sinalizado "cerca de 38% do conteúdo".
Os números do relatório surgem uma semana após o lançamento dos Princípios de Santa Clara, uma espécie de guia sobre a forma como as plataformas devem moderar o conteúdo. Segundo aquele código de conduta, as redes sociais devem publicar o número de publicações removidas, fornecer informações detalhadas aos utilizadores cujo conteúdo é excluído, explicar o motivo e oferecer a oportunidade de apelar contra a decisão.
O Facebook tem tentado melhorar a transparência nos últimos meses. Em abril, a empresa divulgou uma versão pública das suas diretrizes para o que é e não é permitido no site. A companhia também anunciou medidas que exigem que os anunciantes políticos passem por um processo de autenticação e revelem sua afiliação nos anúncios.

Fonte: Aqui

Sem comentários:

Enviar um comentário

 
Blogger Templates