33 milhões de peças de conteúdo removidas durante 16 de junho a 31 de julho: Facebook

Esses relatórios mensais são exigidos pelo Ministério da Eletrônica e Tecnologia da Informação de acordo com as novas Diretrizes do Intermediário e Código de Ética da Mídia Digital.

Facebook, interrupção do Facebook, Instagram, interrupção do Instagram, WhatsApp, interrupção do WhatsApp, WhatsApp desativado, servidor do Instagram, notícias do FacebookO Facebook é usado para fazer login em muitos outros aplicativos e serviços, levando a efeitos dominó inesperados, como as pessoas não conseguem fazer login em sites de compras ou entrar em suas TVs inteligentes, termostatos e outros dispositivos conectados à Internet (Crédito da imagem: Reuters)

O Facebook disse na terça-feira que tomou uma ação proativa para remover 33,3 milhões de peças de conteúdo que violam uma das 10 políticas da plataforma, enquanto tomou medidas em 2,8 milhões de peças de conteúdo que violam qualquer uma das 8 políticas do Instagram.

Ao longo dos anos, temos investido consistentemente em tecnologia, pessoas e processos para promover nossa agenda de manter nossos usuários seguros e protegidos online e permitir que eles se expressem livremente em nossa plataforma. Usamos uma combinação de Inteligência Artificial, relatórios de nossa comunidade e revisão por nossas equipes para identificar e revisar conteúdo contra nossas políticas, disse um porta-voz do Facebook.

Em seu segundo relatório mensal publicado para o período de 16 de junho a 31 de julho, o Facebook disse que tomou medidas proativas em 25,6 milhões de peças de spam, ao mesmo tempo que removeu 3,5 milhões de peças de conteúdo violento ou gráfico. Ele também disse que removeu 2,6 milhões de peças de conteúdo que continham nudez ou atividade sexual de adultos.



Embora a plataforma tenha tomado medidas em relação a 123.400 peças de conteúdo na forma de intimidação ou assédio, sua taxa de ação proativa nesse tipo de conteúdo permaneceu baixa, 42,3 por cento.

O Instagram do Facebook, por outro lado, atuou em 1,1 milhão de conteúdo violento e explícito, ao mesmo tempo em que atuou em 811.000 peças de conteúdo que retratavam suicídio e autolesão. O Instagram ainda não possui uma métrica para medir o spam.

Em seu primeiro relatório mensal publicado em julho, o conglomerado de mídia social disse que tomou uma ação proativa em 1,8 milhão de peças de conteúdo com nudez e atividade sexual para adultos, 2,5 milhões de peças em conteúdo violento e gráfico e cerca de 25 milhões de peças de conteúdo contendo Spam.

Além desses, o Facebook também recebeu 1.504 denúncias entre 16 de junho e 31 de julho por meio de seu mecanismo de reclamação, enquanto o Instagram recebeu 265 denúncias por meio do canal de reclamação. Ambas as plataformas atuaram em todas as denúncias recebidas por meio do mecanismo de reclamação.

Enquanto isso, a plataforma de mensagens instantâneas do Facebook, WhatsApp, disse que removeu mais de três milhões de contas entre 16 de junho e 31 de julho.

O Google, em seus relatórios mensais de transparência, disse que recebeu 36.934 reclamações de usuários e removeu 95.680 peças de conteúdo com base nessas reclamações em julho.

Esses relatórios mensais são exigidos pelo Ministério da Eletrônica e Tecnologia da Informação de acordo com as novas Diretrizes do Intermediário e Código de Ética da Mídia Digital. De acordo com as diretrizes de intermediários anunciadas em fevereiro e colocadas em vigor a partir de 26 de maio, todos os intermediários de mídia social significativos - aqueles com mais de 50 lakh usuários na Índia - tiveram que publicar relatórios mensais mencionando os detalhes das reclamações recebidas, os detalhes de tais reclamações, as ações tomadas sobre eles e o número de links de comunicação específicos que a plataforma removeu por meio do monitoramento proativo.