Le FBI fait appel à la technologie de surveillance IA d'Amazon Rekognition

Le FBI fait appel à la technologie de surveillance IA d'Amazon Rekognition

Le FBI fait appel à la technologie de surveillance IA d'Amazon Rekognition, PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Le FBI prévoit d'utiliser le service cloud controversé Rekognition d'Amazon « pour extraire des informations et des idées à partir d'images et de vidéos acquises légalement », selon des documents du ministère américain de la Justice.

Dans son inventaire des cas d'utilisation de l'IA par l'agence, le DOJ listes le projet, nommé Tyr, est en phase « d’initiation » pour le FBI, qui a l’intention de personnaliser et d’utiliser la technologie « pour examiner et identifier des objets contenant de la nudité, des armes, des explosifs et d’autres informations d’identification ».

Le document du DOJ ne mentionne pas de date de début et indique simplement que le gouvernement fédéral utilisera un système commercial prêt à l'emploi basé sur Rekognition, acheté pré-construit auprès d'un tiers. Le FBI a refusé de commenter, et bien qu'Amazon ait promis Le registre une déclaration en réponse à nos demandes, qui n'est pas encore arrivée.

En plus de fournir des services de reconnaissance et d'analyse faciale, Amazon dit Rekognition peut également rechercher des objets dans les bibliothèques d’images et de vidéos et détecter « le contenu inapproprié, indésirable ou offensant », entre autres capacités.

Amazon s'était précédemment engagé à interdire indéfiniment la police d'utiliser Rekognition - mais avec quelques failles. Cependant, il n'a pas cessé de vendre le service aux agences gouvernementales ou à des tiers qui pourraient ensuite fournir la technologie aux bureaux de police. 

Donc, pour être honnête, le projet Tyr ne rompt aucune promesse antérieure du géant du cloud. Cela arrive cependant à un moment où les inquiétudes concernant surveillance sans mandat semble croître, surtout lorsque le Le FBI fait l'espionnage.

Plus tôt cette semaine, Amazon a annoncé qu'il le ferait tue le bouton facile qui a permis aux forces de l'ordre de demander des séquences vidéo Ring sans mandat. Plus précisément, Amazon a supprimé la fonctionnalité de demande d'assistance dans son application Neighbours, ce qui permettait à l'entreprise d'absorber les enregistrements vidéo des clients Ring. Désormais, les agents doivent d’abord demander.

Cette décision a été applaudie par les défenseurs de la confidentialité des données et des libertés civiles.

"La possibilité pour les forces de l'ordre d'utiliser l'application Neighbours pour demander en masse des images aux propriétaires de caméras a toujours été dangereuse et a eu pour effet documenté d'exacerber le profilage racial", a déclaré le directeur de Fight for the Future, Evan Greer. Le registre dans une interview précédente.

D’un autre côté, la nouvelle selon laquelle le FBI aurait utilisé Rekognition a suscité une réponse très différente.

"Je pense qu'il est important d'examiner à la fois les pratiques du FBI et d'Amazon dans ce domaine", a déclaré Jake Laperruque, directeur adjoint du projet de sécurité et de surveillance du Centre pour la démocratie et la technologie (CDT). 

"Le FBI autorise une large utilisation de la reconnaissance faciale dans les enquêtes (les personnes n'ont même pas besoin d'être désignées comme suspects pour être scannées), programme ses systèmes pour toujours renvoyer les correspondances même si ces correspondances ne sont pas fiables, et cache l'utilisation de la reconnaissance faciale aux accusés. » Laperruque a raconté Le registre

"Avec tous ces facteurs à l'esprit, il serait profondément inquiétant qu'Amazon revienne sur son engagement de ne pas vendre la reconnaissance faciale aux forces de l'ordre", a-t-il ajouté. « Il n’existe aucune loi fédérale limitant la manière dont le FBI et d’autres agences utilisent cette technologie invasive, et leurs propres politiques sont beaucoup trop laxistes. Tant qu’il s’agit d’un Far West en termes d’utilisation, il n’y a aucune excuse pour revenir en arrière.» ®

Mis à jour pour ajouter

Peu de temps après la publication de cet article, nous avons reçu une réponse d'Amazon. Le porte-parole Duncan Neasham nous a déclaré qu'en ce qui concerne le géant du Web, l'utilisation de Rekognition par le FBI ne rompt pas son moratoire sur l'interdiction à la police d'utiliser les fonctionnalités de comparaison de visages de l'API.

« Comme nous l'avons dit à plusieurs reprises, et comme nous continuons de le croire fermement », a poursuivi Neasham, « les entreprises et les organisations gouvernementales doivent utiliser les technologies existantes et nouvelles de manière responsable et légale. Nous pensons également que les gouvernements devraient mettre en place des réglementations pour régir l’utilisation éthique de la technologie de reconnaissance faciale, et nous sommes prêts à les aider à concevoir des règles appropriées, si cela leur est demandé.

Quant à savoir si Amazon a donné des conseils ou des directives au gouvernement fédéral sur la façon d'utiliser Rekognition en toute sécurité et de manière réfléchie, le représentant nous a dit :

Nous fournissons des conseils à tous les clients de Rekognition, y compris les clients des forces de l'ordre, sur l'utilisation appropriée et responsable de Rekognition (comme dans le guides du développeur et sur notre Page IA responsable), et nous avons une évidence Politique d'utilisation acceptable et les Politique d’IA responsable.

Par exemple, la Conditions des services AWS régissent l'utilisation de nos services, y compris les articles 50.8 (qui s'appliquent à l'utilisation de Rekognition par les forces de l'ordre) et 50.9, qui stipulent : « Amazon a mis en place un moratoire sur l'utilisation de la fonction de comparaison de visages d'Amazon Rekognition par les services de police dans le cadre d'enquêtes criminelles. Ce moratoire ne s'applique pas à l'utilisation de la fonction de comparaison de visages d'Amazon Rekognition pour aider à identifier ou localiser les personnes disparues.

Horodatage:

Plus de Le registre