a

Lorem ipsum dolor sit amet, consectetur adicing elit ut ullamcorper. leo, eget euismod orci. Cum sociis natoque penati bus et magnis dis.Proin gravida nibh vel velit auctor aliquet. Leo, eget euismod orci. Cum sociis natoque penati bus et magnis dis.Proin gravida nibh vel velit auctor aliquet.

  /  Project   /  Blog: Les exemples contradictoires : un danger pour le bon fonctionnement des IA ou bien le moyen de…

Blog: Les exemples contradictoires : un danger pour le bon fonctionnement des IA ou bien le moyen de…


En 2018, on estimait le nombre de caméras de vidéosurveillance à 60 000 sur l’ensemble du territoire national. Ce chiffre aurait doublé en un an, selon le journaliste de rance 2 Hakim Abdelkhalek, et les ¾ des Français seraient favorables au déploiement de ces systèmes[1]. Si cela rime avec sécurité, un véritable problème se pose concernant le respect de la vie privée. Sommes-nous « condamnés » à être espionnés consciemment par ces installations ou pouvons-nous agir contre cela ? Le développement d’un patch rendant invisible les individus qui le portent face aux caméras serait le moyen de vivre librement. Cependant, une telle trouvaille soulève d’autres questions : si nous arrivons à tromper ces systèmes de surveillance, pourrions-nous aussi le faire pour des raisons moins nobles ?

En avril 2019, des chercheurs de l’université belge KU Leuven ont créé un patch capable de tromper les systèmes d’intelligence artificielle des caméras. Comment cela peut-il être possible ? Pour ce faire, ils se sont appuyés sur les travaux des « exemples contradictoires » pouvant perturber les algorithmes, au point que ceux-ci analysent un objet comme en étant un autre. L’un des exemples le plus connu est celui du panda identifié comme étant un gibbon. Pour parvenir à un tel résultat, il convient de générer des perturbations minimes dans les données de base analysées par l’algorithme et de le forcer à valider cette nouvelle modification. Concernant ce panda, les changements sont tellement faibles qu’ils sont souvent imperceptibles à l’œil nu mais sont perçus autrement par l’IA trompé, comme vous pouvez le constater ci-dessous :

Modifications infimes des données analysées par l’IA lui faisant croire qu’elle a devant elle un gibbon et non un panda

Dans le cas de nos chercheurs, leur patch porté autour du coup permet, de la même manière, de s’appuyer sur ce que l’algorithme a enregistré de base comme étant un humain et de déformer ses certitudes avec les couleurs et formes de leur invention. Ainsi, l’IA des caméras ne perçoit plus du tout qu’un humain est présent. Il est possible de voir ici le moyen de préserver sa vie privée, pour autant ce système ne fonctionne qu’avec un algorithme spécifique appelé YOLOv2 et il faudra attendre encore un moment pour que ce patch réussisse à tromper la totalité des systèmes de vidéosurveillance. En attendant, sachez que ce groupe souhaite imprimer à terme ce motif sur des t-shirts afin de faciliter le déplacement des individus et leur liberté. Si vous souhaitez voir concrètement ce que l’algorithme analyse face à cette invention, voici le lien de leur vidéo :

https://www.youtube.com/watch?time_continue=125&v=MIbFvK2S9g8

Voilà donc une porte de sortie face à l’arrivée de Big Browser, mais n’est-ce pas également une arme pouvant se retourner contre nous ? En effet, ce même système pourrait tromper des systèmes nécessaires à notre sécurité tels que ceux développés pour les voitures autonomes ou encore les algorithmes détectant les maladies. Il serait donc possible, par exemple, d’empêcher une voiture de détecter un danger ou un algorithme de déceler une maladie. Dans un monde où la sécurité et l’innovation sont deux maître-mots, arrivera-t-on alors à une guerre menée par les attaques contradictoires ? Cela pourrait être un bon scénario de roman de science-fiction. Imaginez un futur où nos villes seraient surveillées dans tous les recoins. Un futur où des groupes en marge de la société chercheraient à développer des patchs toujours plus innovants les rendant invisibles à l’œil des caméras. Un futur où l’un de ces combattants 2.0 déciderait de faire tomber le gouvernement en place grâce à ces attaques contradictoires. Peut-être tenons-nous là un véritable best-seller, ou bien le scénario catastrophe de notre vie. A vous de choisir.

[1] JT de 13h du vendredi 5 janvier 2018. Sécurité : les caméras de surveillance sont-elles efficaces. France 2, publié et mis à jour le 05/01/18 [en ligne] : https://www.francetvinfo.fr/economie/emploi/metiers/armee-et-securite/securite-les-cameras-de-surveillance-sont-elles-efficaces_2546989.html

Bibliographie :

Source: Artificial Intelligence on Medium

(Visited 11 times, 1 visits today)
Post a Comment

Newsletter