Facebook

O Facebook liberou, através do GitHub, algoritmos que fazem a detecção de imagens de exploração infantil e terrorismo. A medida garante que empresas e desenvolvedores independentes possam trabalhar com o código para aprimorá-lo e torná-lo cada vez mais inteligente.

As tenologias são batizadas pelos nomes “PDQ” e “TMK +”PDQF“, e são capazes de armazenar arquivos como vídeos e imagens e a comparar com exemplos já conhecidos de conteúdo prejudicial. Com base nessas comparações é que a rede social faz a exclusão da imagem ou vídeo.

“Em apenas um ano, assistimos a um aumento de 541% no número de vídeos de abuso sexual infantil reportados pela indústria de tecnologia para a CyberTipline. Estamos confiantes de que a generosa contribuição do Facebook dessa tecnologia de código aberto acabará levando à identificação e resgate de mais vítimas de abuso sexual infantil ”, disse John Clark, presidente e diretor executivo do Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) .

Em seu blog, o Facebook reforça que a liberação do código aberto das duas tecnologias que detectam fotos e vídeos idênticos e quase idênticos, vai ajudar parceiros do setor, desenvolvedores menores e organizações sem fins lucrativos, que possam usá-los para identificar mais facilmente conteúdo abusivo e compartilhar hashes – ou impressões digitais – de diferentes tipos de conteúdo prejudicial.

Redes sociais sob pressão de governos

O Facebook está acelerando essas medidas, principalmente pela pressão sofrida para avançar em questões de segurança. Na Austrália, por exemplo, executivos foram ameaçados de multas e até prisão, caso não trabalhem para remover arquivos que induzem à violência ou mostrem algo relacionado. Essa medida foi anunciada pela Austrália após o tiroteio de Christchurch.

Com a liberação do algoritmo e com a apreciação dele por empresas e desenvolvedores, a internet dá novos passos para um futuro mais seguro.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui