fbpx

Le New York Times a révélé il y a peu une sorte de secret de polichinelle, dans le sens qu’une technologie pareille devait forcément exister même si elle n’avait pas été rendue publique.

Big Brother is watching you !

La technologie en question ? Un outil de reconnaissance faciale développé par Clearview AI, une startup créée en 2016 et basée à New York, utilisé par plus de 600 organismes d’autorité publique, des polices locales Américaines jusqu’au FBI. Ces derniers ont d’ailleurs déclaré que bien qu’ayant des connaissances limitées sur le fonctionnement de l’application et les ressources nécessaires, Clearview avait permis d’élucider plusieurs affaires différentes, allant du vol à l’étalage jusqu’au trafic de mineurs. Mentionnée dans les médias en 2019 suite à son utilisation pour l’arrestation d’un suspect en Floride, elle est aujourd’hui sur le devant de la scène.

En aspirant massivement (et illégalement) des milliards d’images (la base de données du FBI n’en contient « que » 641 millions) depuis les réseaux sociaux, une base de données à été constituée associant les photos d’un même individu dans un dossier dédié, relié à la source de chaque image, et donc aux informations personnelles de chacun: Adresse postale, e-mail, nom, prénom, et toutes les autres informations saisies en ligne ou disponibles sur des sites administratifs.

Cette base de données est utilisée par une intelligence artificielle qui identifie quasi instantanément un individu et fournit les données le concernant. Pour ce faire, les visages filmés en direct sont décomposés en vecteurs, des formules mathématiques qui décrivent la géométrie du visage, qui sont comparés avec ceux de la base. Il est donc possible pour les agents l’utilisant d’identifier quelqu’un grâce à une caméra de surveillance, pour peu que celle-ci ne soit pas placée trop haut, ou à une vidéo prise par un témoin.

Clearview revendique un taux de réussite de 75%, mais cette donnée doit être prise à la légère puisqu’elle n’est pas vérifiée par une source indépendante. La start-up ne mentionne pas non plus le taux de faux positifs qui dans le cas d’une enquête pourrait amener la police à arrêter la mauvaise personne, voire pire selon la réaction du « suspect ».

 

Vidéo postée par Clearview AI sur leur chaîne YouTube, sur laquelle plusieurs démonstrations sont disponibles

Non contents de proposer aux forces de l’ordre un moyen de traquer et surveiller la population, Clearview compte proposer son application au grand public, et en étudiant son langage de programmation il a été remarqué qu’elle sera adaptable sur des lunettes de réalité virtuelle:

En somme, des nouvelles assez mauvaises, puisque cela signifie qu’en marchant dans la rue un individu équipé de lunettes et de cette application pourra tout connaitre de vous, sans même vous adresser la parole. Assez flippant. Elle pourrait aussi être utilisée pour identifier les manifestants lors des grèves par exemple, portant une fois de plus atteinte aux libertés individuelles.

Histoire de pousser la paranoïa à son paroxysme, le journaliste du NY Times qui a rédigé l’article a demandé à des agents de police de passer sa photo dans l’application. Résultat ? Clearview AI a contacté les-dits agents pour leur demander si ils avaient parlé à la presse. Parfaite démonstration du pouvoir qu’a la start-up sur les recherches effectuées par les forces de l’ordre.

En plus d’avoir la main-mise sur les analyses effectuées, Clearview AI ne s’est jamais soumise à des tests de sécurité indépendants, exposant les données recueillies à des brèches potentielles aux conséquences désastreuses.

Source

Write A Comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Pin It
%d blogueurs aiment cette page :