A ferramenta de IA reconhece imagens de abuso infantil com 99% de precisão

A tradução do artigo foi preparada na véspera do início do curso “Visão computacional” .














Os desenvolvedores da nova ferramenta baseada em inteligência artificial afirmam que ela detecta imagens de abuso infantil com quase 99% de precisão.



Safer é uma ferramenta desenvolvida pela Thorn, uma organização sem fins lucrativos, para ajudar empresas que não têm seus próprios sistemas de filtragem a detectar e remover essas imagens.



De acordo com a Internet Watch Foundation no Reino Unido, os relatos de abuso infantil durante a quarentena do COVID-19 aumentaram 50%. Nas 11 semanas iniciadas em 23 de março, a linha direta recebeu 44.809 relatórios de recuperação de imagem, contra 29.698 no ano passado. Muitas dessas imagens são de crianças que passaram muito tempo na Internet e tiveram que publicar suas imagens.



Andy Burroughs, chefe de segurança infantil na Internet do NSPCC, disse recentemente à BBC: "O dano poderia ser reduzido se a mídia social investisse de forma mais inteligente em tecnologia, investindo em recursos de design mais seguros em uma crise."



Mais seguro é uma ferramenta que ajuda a sinalizar rapidamente conteúdo de abuso infantil para reduzir os danos causados.



Os serviços de descoberta mais seguros incluem:



  • Correspondência de hash de imagem: um serviço principal que gera hashes criptográficos e perceptivos para imagens e compara esses hashes a hashes CSAM conhecidos. No momento da publicação, o banco de dados inclui 5,9 milhões de hashes. O hash ocorre na infraestrutura do cliente para preservar a privacidade do usuário.
  • CSAM (CSAM Image Classifier): , Thorn Safer, , CSAM. , , CSAM , CSAM.
  • (Video Hash Matching): , , CSAM. 650 . CSAM.
  • SaferList : Safer, Safer , Safer, . , - .


No entanto, o problema não se limita à marcação de conteúdo. Foi documentado que moderadores de plataformas de mídia social frequentemente requerem terapia ou até mesmo ajudam a prevenir o suicídio após serem expostos ao conteúdo mais perturbador postado na Internet todos os dias.



Thorn afirma que o Safer foi projetado com o bem-estar dos moderadores em mente. Para isso, o conteúdo é borrado automaticamente (a empresa afirma que atualmente só funciona para imagens).



A Safer tem APIs disponíveis para desenvolvedores que "são projetadas para expandir o conhecimento geral de conteúdo de abuso infantil adicionando hashes, escaneando com hashes de outras indústrias e enviando feedback falso positivo".



O Flickr é um dos clientes mais famosos de Thorn no momento. Usando o Safer, o Flickr descobriu uma imagem de abuso infantil em sua plataforma, que, após uma investigação policial, resultou na apreensão de 21 crianças com idades entre 18 meses e 14 e na prisão de criminosos.



O Safer está atualmente disponível para qualquer empresa que opere nos Estados Unidos. A Thorn planeja expandir suas operações para outros países no próximo ano, após se adaptar aos requisitos de relatórios nacionais de cada país.



Você pode ler mais sobre essa ferramenta e como começar aqui .



All Articles