POURQUOI LE SCAN GMAIL QUI A CONDUIT À L'ARRESTATION D'UN HOMME POUR PORNOGRAPHIE JUVÉNILE N'ÉTAIT PAS UNE VIOLATION DE LA VIE PRIVÉE - TECHCRUNCH - FONCTIONNALITÉS - 2019

Anonim

Personne ne contestera le résultat d'une affaire qui a vu un homme arrêté sur des accusations de pornographie juvénile, après que Google ait averti les autorités des images illégales trouvées dans le compte Gmail du suspect de Houston. Mais la nature de la découverte a conduit certains à des questions sur les méthodologies utilisées dans les coulisses. Google a-t-il analysé activement Gmail pour des activités illégales? Google a-t-il outrepassé son rôle de fournisseur de services en informant les autorités des données hébergées sur le compte Gmail d'un utilisateur? - ou alors demandé à la société de sécurité Sophos peu de temps après l'incident.

Ces questions, cependant, semblent mal comprendre la technologie utilisée par Google pour faciliter cette arrestation.

Aujourd'hui, les clients Gmail savent généralement que Google utilise un type de technologie automatisée qui analyse vos courriels pour trouver des mots clés et des expressions afin d'afficher des publicités pertinentes pour soutenir le service gratuit, et qu'aucun humain ne lit jamais votre courriel personnel.

De même, les ingénieurs de Google ne lisaient pas le compte de messagerie de cet homme afin de repérer les images illégales partagées. De même, Google n'effectue pas de manière active ou passive (par des moyens automatisés) de balayage des comptes de messagerie des utilisateurs pour d'autres types d'activités criminelles, comme la planification d'un vol, par exemple.

Cette affaire et la technologie qui a permis l'arrestation ne portent que sur l'identification de la pornographie juvénile.

La pornographie juvénile est un problème auquel les grandes sociétés Internet, y compris Microsoft et Google, s'attaquent depuis des années. En fait, l'une des technologies utilisées pour identifier et aider à éradiquer le partage de ces images illégales en ligne a été initialement développée par Microsoft.

PhotoDNA automatise la détection d'image d'abus d'enfant

Voici comment cela fonctionne:

La technologie "PhotoDNA" de Microsoft consiste à faire en sorte que ces types spécifiques d'images illégales puissent être automatiquement identifiés par des programmes informatiques, et non par des personnes. (C'est un travail affreux et psychologiquement épuisant, après tout.)

annonçant ses efforts accrus de collaboration avec Google pour lutter contre la maltraitance des enfants en ligne.

La technologie divise alors l'image en carrés et assigne une valeur numérique qui représente l'ombrage unique trouvé dans chaque carré. Combinées, ces valeurs numériques représentent la "signature PhotoDNA" d'un fichier image. Cette signature unique peut ensuite être utilisée en comparaison avec d'autres images en ligne.

Microsoft utilise aujourd'hui la technologie sur Bing, Outlook.com et son service de stockage en nuage pour identifier les images d'abus d'enfants et les empêcher d'être redistribués en ligne.

La technologie elle-même est née d'un partenariat entre Microsoft, le Centre national pour les enfants disparus et exploités (NCMEC) et Dartmouth College. Et en 2009, Microsoft a également fait don de PhotoDNA au NCMEC pour contribuer à la lutte contre l'exploitation des enfants.

Lorsque Microsoft trouve une correspondance de signature d'image, il la signale à NCMEC aux États-Unis ou, au Royaume-Uni, à CEOP (Centre d'exploitation et de protection des enfants). En 2012, Microsoft a également commencé à collaborer avec d'autres acteurs, notamment dans le domaine de l'application de la loi, pour intégrer PhotoDNA aux outils utilisés dans les enquêtes sur les abus envers les enfants, comme Netclean Analyze, logiciel souvent utilisé par les autorités policières suédoises.

En outre, le Centre international pour les enfants disparus et exploités a également un programme en cours avec divers organismes d'application de la loi connu sous le nom de "Project Vic", qui utilise PhotoDNA pour aider les forces de l'ordre à passer au crible les images. ID nouveaux criminels.

Microsoft, Google et autres font équipe

En outre, Microsoft, Google, IWF (Internet Watch Foundation) et CEOP ont annoncé un programme commun l'an dernier pour abattre des images d'abus, y compris des choses comme le blocage des fichiers torrent par le moteur de recherche Bing de Microsoft qui aurait autrement signalé l'illégalité. contenu.

Mais tandis que Microsoft a fait, peut-être, plus de bruit public sur l'utilisation de la technologie PhotoDNA, d'autres sociétés de technologie, y compris Google, Twitter et Facebook, utilisent également ce système. Par exemple, Facebook a déclaré en 2011 que PhotoDNA peut, dans certains cas, même empêcher les images illégales d'être téléchargées sur son site, et a appelé le programme étonnamment précis.

Pendant ce temps, Google lui-même a développé un équivalent à PhotoDNA, avec une technologie de hachage similaire qui peut identifier et aider à supprimer les photos et vidéos d'abus d'enfants.

Google a refusé de commenter sur les détails entourant l'arrestation de Houston, mais a souligné une explication plus tôt sur sa position sur ce sujet, partagé par David Drummond, directeur juridique de Google l'été dernier. Dans le post, Drummond dit que Google a co-financé IWF pendant près d'une décennie, et travaille avec Interpol et NCMEC aux États-Unis pour lutter contre la pornographie juvénile.

Et alors que son article n'indiquait pas Microsoft par son nom, il faisait référence à l'utilisation par Google de la technologie de «hachage» qu'il avait alors commencé à incorporer dans une base de données intersectorielle, a-t-il déclaré. C'est-à-dire que Google devait collaborer avec d'autres acteurs de l'industrie, comme Microsoft, comme Microsoft l'avait annoncé plus tard cette année, expliquant comment la technologie vidéo et PhotoDNA seraient utilisés ensemble.

La technologie de hachage de Google Image Own

Cependant, dans ce cas particulier de l'arrestation de Houston, PhotoDNA n'était pas impliqué, bien que d'après ce que nous avons entendu, quelque chose de similaire était.

Google a sa propre technologie de hachage, utilisée depuis 2008, qui est utilisée pour détecter les images d'abus sexuels en ligne. Google, Microsoft et d'autres sociétés technologiques partagent cette technologie pour lutter contre ce type d'activité illégale. Et bien que PhotoDNA n'ait pas été le seul à pointer vers cet arrêt spécifique, son développement et d'autres technologies de hachage sont conçus pour faire de la détection d'images abusives une activité plus automatisée.

Google "supprime activement" les images illégales

Microsoft a déjà expliqué en détail quel type de contenu est bloqué et où, dans une certaine mesure, Google nous propose la même chose, nous disant que Google "supprime activement les images illégales de nos services - y compris la recherche et Gmail - et signale immédiatement les abus. à NCMEC. "

Cette preuve est ensuite utilisée régulièrement pour condamner les criminels, a noté la compagnie.

Ce qui est intéressant ici, et probablement ce qui a attiré l'attention de la presse technique cette remise des gaz, c'est qu'il n'était pas bien compris que Google avait introduit cette technologie pour être utilisée dans Gmail.

Cela peut être une addition plus récente, comme il s'avère. blog Google non officiel Google Système d'exploitation, Google il ya seulement quelques mois a changé ses conditions d'utilisation de la version actuellement disponible. Les modifications incluent du texte ajouté sur la position de Gmail sur les images d'abus d'enfants, l'appelant «tolérance zéro» et l'avertissement de mesures disciplinaires:

Google a une politique de tolérance zéro contre les images d'abus sexuel d'enfant. Si nous prenons connaissance d'un tel contenu, nous le signalons aux autorités compétentes et pouvons prendre des mesures disciplinaires, y compris la résiliation, à l'encontre des comptes Google des personnes impliquées.

Ce n'est pas la première fois que Google fait en sorte que la presse aide les forces de l'ordre à intercepter les personnes impliquées dans la pornographie enfantine, et il semble que chaque fois que c'est le cas, des questions concernant la vie privée sont soulevées.

Mais ces questions ne semblent pas comprendre que Google ne joue pas le flic dans les boîtes de réception Gmail des utilisateurs, il utilise un système de détection automatique qui recherche spécifiquement la pornographie enfantine et fait partie d'un effort international plus important pour retirer ces images du web .

Franchement, c'est quelque chose que personne ne devrait être contre. Et si vous acceptez que Google scanne automatiquement votre compte Gmail pour vous aider à afficher de meilleures annonces afin que vous puissiez utiliser le service gratuitement, ce n'est pas vraiment un acte de foi pour lui permettre d'analyser automatiquement votre Gmail.