L'outil IA reconnaît les images d'abus d'enfants avec une précision de 99%

La traduction de l'article a été préparée à la veille du début du cours "Vision par ordinateur" .














Les développeurs du nouvel outil basé sur l'intelligence artificielle affirment qu'il détecte les images d'abus d'enfants avec une précision de près de 99%.



Safer est un outil développé par Thorn, une organisation à but non lucratif, pour aider les entreprises qui ne disposent pas de leur propre système de filtrage à détecter et supprimer ces images.



Selon la Fondation Internet Watch au Royaume-Uni, les rapports d'abus d'enfants pendant la quarantaine du COVID-19 ont augmenté de 50%. Au cours des 11 semaines écoulées depuis le 23 mars, leur hotline a reçu 44 809 images trouvées, contre 29 698 l'an dernier. Beaucoup de ces images proviennent d'enfants qui ont passé beaucoup de temps sur Internet et ont dû publier leurs images.



Andy Burroughs, responsable de la sécurité des enfants sur Internet à la NSPCC, a récemment déclaré à la BBC: "Le préjudice pourrait être réduit si les médias sociaux investissaient plus intelligemment dans la technologie, en investissant dans des fonctionnalités de conception plus sûres en temps de crise."



Safer est un outil qui vous aide à signaler rapidement le contenu d'abus d'enfants afin de réduire les torts causés.



Les services de découverte plus sûrs comprennent:



  • Image Hash Matching: un service phare qui génère des hachages cryptographiques et perceptuels pour les images et compare ces hachages aux hachages CSAM connus. Au moment de la publication, la base de données comprend 5,9 millions de hachages. Le hachage a lieu dans l'infrastructure client pour préserver la confidentialité des utilisateurs.
  • CSAM (CSAM Image Classifier): , Thorn Safer, , CSAM. , , CSAM , CSAM.
  • (Video Hash Matching): , , CSAM. 650 . CSAM.
  • SaferList : Safer, Safer , Safer, . , - .


Cependant, le problème ne se limite pas au balisage de contenu. Il a été documenté que les modérateurs des plateformes de médias sociaux ont souvent besoin d'une thérapie ou même aident à prévenir le suicide après avoir été exposés au contenu le plus dérangeant publié sur Internet jour après jour.



Thorn affirme que Safer est conçu avec le bien-être des modérateurs à l'esprit. À cette fin, le contenu est automatiquement flou (la société affirme qu'il ne fonctionne actuellement que pour les images).



Safer met à la disposition des développeurs des API qui «sont conçues pour élargir les connaissances générales sur le contenu d'abus d'enfants en ajoutant des hachages, en analysant avec des hachages d'autres secteurs et en soumettant de faux commentaires positifs».



Flickr est actuellement l'un des clients les plus connus de Thorn. En utilisant Safer, Flickr a découvert une image de maltraitance d'enfants sur sa plate-forme, qui, à la suite d'une enquête policière, a abouti à la saisie de 21 enfants âgés de 18 mois à 14 ans et à l'arrestation de criminels.



Safer est actuellement disponible pour toute entreprise opérant aux États-Unis. Thorn prévoit d'étendre ses opérations à d'autres pays l'année prochaine, après s'être adaptée aux exigences nationales en matière de rapports de chaque pays.



Vous pouvez en savoir plus sur cet outil et comment commencer ici .



All Articles