Des chercheurs en IA déjouent des logiciels de reconnaissance faciale...

Pour savoir tout ce qu'il se passe sur la toile
Répondre
Avatar du membre
chtimi054
Administrateur du site
Administrateur du site
Messages : 5967
Enregistré le : ven. 26 juil. 2013 06:56
    Windows 10 Firefox

Des chercheurs en IA déjouent des logiciels de reconnaissance faciale...

Message par chtimi054 »

Des chercheurs en IA déjouent des logiciels de reconnaissance faciale de pointe en utilisant du maquillage appliqué numériquement et physiquement
Afin de tester les limites de cette technologie

D’après le comptage effectué par la CNIL en 2012, 935 000 caméras de surveillance sont installées sur le territoire français. Qu’elles soient aux guichets des banques, dans les parkings, les couloirs de métro et même sur les lieux de travail, entre celles des commerces et des espaces privés, cela fait un paquet ! Pour ceux qui se sentent surveillés et désirent se rendre méconnaissables pour les logiciels de reconnaissance, il existe un véritable arsenal de techniques qui passent par le maquillage. Ainsi, une nouvelle étude de l'Université Ben-Gurion du Néguev a révélé que des motifs de maquillage générés par un logiciel peuvent être utilisés pour contourner systématiquement les logiciels de reconnaissance faciale de pointe, le maquillage appliqué numériquement et physiquement trompant certains systèmes avec un taux de réussite de 98 %.
Image Les modèles de reconnaissance faciale par apprentissage profond sont utilisés par les systèmes de surveillance les plus modernes pour identifier les personnes qui traversent des zones publiques. Des études antérieures ont démontré l'utilisation d'attaques par apprentissage automatique contradictoire pour échapper avec succès à l'identification par ces systèmes, tant dans le domaine numérique que physique. Les attaques dans le domaine physique, cependant, nécessitent une manipulation importante du visage du participant, ce qui peut éveiller les soupçons des observateurs humains. Dans cette étude, les chercheurs présentent une nouvelle attaque d’apprentissage automatique contradictoire, de type boîte noire, qui fabrique soigneusement un maquillage naturel qui, lorsqu'il est appliqué sur un participant humain, empêche ce dernier d'être identifié par les modèles de reconnaissance faciale.

Dans leur expérience, les chercheurs ont défini leurs 20 participants comme des personnes figurant sur une liste noire afin que leur identification soit signalée par le système. Ils ont ensuite utilisé une application de selfie appelée YouCam Makeup pour maquiller numériquement les images du visage en fonction de la carte thermique qui cible les régions les plus identifiables du visage. Un maquilleur a ensuite reproduit le maquillage numérique sur les participants en utilisant un maquillage d'apparence naturelle afin de tester la capacité du modèle cible à les identifier dans une situation réaliste. « J'ai été surpris par les résultats de cette étude. Le maquilleur n'a pas fait trop d'astuces, juste voir le maquillage dans l'image et ensuite elle a essayé de le copier dans le monde physique. Ce n'est pas une copie parfaite. Il y a des différences mais ça a quand même fonctionné », a déclaré Nitzan Guettan, doctorant et auteur principal de l'étude.
Les chercheurs ont testé la méthode d'attaque dans un scénario simulé dans le monde réel, dans lequel les participants portant le maquillage marchaient dans un couloir pour voir s'ils seraient détectés par un système de reconnaissance faciale. Le couloir était équipé de deux caméras en direct qui envoyaient des images au détecteur de visage tout en évaluant la capacité du système à identifier le participant. « Notre attaque suppose un scénario de boîte noire, ce qui signifie que l'attaquant ne peut pas accéder au modèle cible, à son architecture ou à aucun de ses paramètres. Par conséquent, la seule option de l'attaquant est de modifier son visage avant d'être capturé par les caméras qui alimentent l'entrée du modèle FR cible » , explique le document.

Selon l'article, l'expérience a été couronnée de succès à 100 % dans les expériences numériques, tant pour le modèle FaceNet que pour le modèle LResNet. Dans les expériences physiques, les participants ont été détectés dans 47,6 % des images s'ils ne portaient pas de maquillage et dans 33,7 % des images s'ils portaient un maquillage appliqué de manière aléatoire. En appliquant la méthode des chercheurs, qui consiste à maquiller les parties hautement identifiables du visage de l'agresseur, celui-ci n'a été reconnu que dans 1,2 % des images.

Les chercheurs ne sont pas les premiers à démontrer comment le maquillage peut être utilisé pour tromper les systèmes de reconnaissance faciale. En 2010, le projet CV Dazzle de l'artiste Adam Harvey a présenté une série de maquillages conçus pour déjouer les algorithmes, inspirés du camouflage "dazzle" utilisé par les navires de guerre pendant la Première Guerre mondiale. Diverses études ont montré comment les systèmes de reconnaissance faciale peuvent être contournés numériquement, par exemple en créant des "visages maîtres" qui pourraient se faire passer pour d'autres personnes. L'article fait référence à une étude dans laquelle un autocollant imprimable a été attaché à un chapeau pour contourner le système de reconnaissance faciale, et à une autre dans laquelle des montures de lunettes ont été imprimées.

Bien que toutes ces méthodes puissent cacher quelqu'un aux yeux des algorithmes de reconnaissance faciale, elles ont pour effet secondaire de vous rendre très visible aux yeux des autres humains, surtout si elles sont utilisées dans un endroit où la sécurité est élevée, comme un aéroport. Pour remédier à ce problème, les chercheurs ont demandé à la maquilleuse de n'utiliser que des techniques de maquillage conventionnelles et des palettes de couleurs neutres pour obtenir un look naturel. Compte tenu de son succès dans l'étude, les chercheurs affirment que cette méthode pourrait techniquement être reproduite par quiconque utilise du maquillage acheté en magasin. Comme on pouvait s'y attendre, Nitzan Guettan dit qu'il ne fait généralement pas confiance à la technologie de reconnaissance faciale dans son état actuel. « Je ne l'utilise même pas sur mon iPhone. Il y a beaucoup de problèmes avec ce domaine de la reconnaissance faciale. Mais je pense que la technologie s'améliore de plus en plus », a-t-il déclaré.

merci à Developpez.com
Image
Répondre