L’Opacité de la surveillance algorithmique

2023-04-06 Off By dporgpd

Le projet de loi sur les Jeux olympiques, qui autorise à titre expérimental le déploiement de caméras couplées à des systèmes de détection algorithmiques. Des outils à même, selon leurs promoteurs, de détecter des mouvements de foules, des bagages abandonnés ou des comportements suspects. Le cœur du débat a porté sur les risques majeurs que fait peser la banalisation des technologies de surveillance sur la vie privée. Mais un autre élément, pourtant crucial, n’a été que peu discuté : l’efficacité de ces outils dits « intelligents ».

Expérimentation : le terme suggère une application encadrée, limitée dans le temps, scientifique. Un test grandeur nature, dont les résultats seraient scrutés en toute transparence par des experts, pour déterminer si la technologie est au point, utile, respectueuse de la vie privée comme du budget.

En pratique, la décennie d’« expérimentations » – déjà en matière de vidéosurveillance augmentée montre que c’est l’inverse qui se produit. En 2016, la SNCF teste des caméras « intelligentes » pour détecter des agressions. Aucun résultat de l’expérience ne sera communiqué. En 2019, la mairie de Nice affirme avoir conduit des tests de caméras de reconnaissance faciale ayant réussi 100 % des identifications-tests. Six mois plus tard, la Commission nationale de l’informatique et des libertés critique ce « succès » annoncé, dont les détails n’ont pas été rendus publics, ce qui ne permet pas, selon l’institution, d’avoir « une vision objective de cette expérimentation [ni] un avis sur son efficacité ». Depuis, la ville s’est tournée vers une autre technologie.

En 2020, la RATP « expérimente » durant quelques mois la détection automatique du port du masque dans le métro. Elle explique aujourd’hui au Monde ne pas avoir donné suite, en raison d’un « taux de détection moyen de 89 % » qui restait « inférieur aux observations faites sur le terrain ».

A l’étranger, où des tests à grande échelle ont été conduits aux Etats-Unis et au Royaume- Uni, des données plus détaillées ont parfois été dévoilées. Elles dressent un bilan peu convaincant de l’utilité de ces technologies. En 2017, une expérience de détection de visages au carnaval de Notting Hill, à Londres, s’était soldée par un échec quasi total, avec de très nombreux « faux positifs » – des personnes identifiées à tort. En 2021, un audit du gouvernement de l’Utah, aux Etats-Unis, avait rendu un rapport très critique d’un dispositif de vidéosurveillance « intelligente » acheté par les forces de police de l’Etat à la société Banjo deux ans plus tôt.

L’audit avait montré que l’entreprise, qui avait entre-temps perdu son contrat après la révélation des liens de son fondateur avec le Ku Klux Klan, avait grossièrement exagéré ce que pouvait faire son système de détection d’incidents en temps réel. Aveuglés par les promesses d’un outil ultra-performant, l’Utah avaient acheté l’équivalent sécuritaire d’un avion renifleur de pétrole, qui n’a jamais permis de détecter le moindre crime.

Ces précédents ne semblent pas avoir découragé les décideurs publics, ni outre-Atlantique ni en France. A Chicago comme à Toulouse, à Metz, à Valenciennes, ou dans des communes plus petites, les « expérimentations » de technologies « intelligentes » de vidéo- surveillance se sont multipliées. Avec de grandes différences entre les types d’outils. Pour la détection d’incendies, par exemple, la technologie est bien établie : les caméras thermiques, comme les logiciels de détection de fumée sur des images, fonctionnent. Mais plus les caméras promettent de pouvoir détecter et analyser les com- portements humains, plus leur fiabilité diminue.

Fantasme de police prédictive

Or c’est précisément sur ces derniers que se focalise le dispositif envisagé pour les Jeux de Paris: il exclut la reconnaissance faciale mais se concentre sur la détection « des événements anormaux, des mouvements de foule, des objets abandonnés ou des situations présumant la commission d’infractions ». Un fantasme de police prédictive qui a, lui aussi, fait l’objet d’un certain nombre d’« expérimentations » ces dernières années. A l’aéroport Schiphol d’Amsterdam, notamment, où les résultats d’un « test » lancé en 2014, et arrêté depuis, n’ont jamais été communiqués. A Paris, dans la station Châtelet, la RATP avait déployé en 2017 une solution de détection automatique des « événements anormaux », là aussi arrêtée sans bilan public.

Ces dispositifs promettant de détecter un projet d’attentat utilisent tous un mélange de technologies connues, analyse d’images ou de données couplées à l’apprentissage machine, la technologie qui permet à un programme d’analyser de vastes corpus de données pour en déduire des liens entre différents éléments. Les limites et les présupposés scientifiques discutables de ces outils sont bien documentés.

Même les logiciels les plus aboutis sont incapables de faire la différence entre un bagage oublié et un bagage abandonné, ou entre une personne qui attend et une personne qui fait le guet. Plus inquiétant, les technologies promettant de pouvoir identifier les criminels ou terroristes prêts à passer à l’action utilisent toutes des systèmes de détection du stress. Soit le même principe de fonctionnement que les polygraphes, ou « détecteurs de mensonges », dont la fiabilité est très largement discréditée.

Aucune de ces technologies n’a pu faire la preuve de son efficacité, a fortiori en temps réel. Comment le pourraient-elles, alors que l’utilité de la vidéosurveillance « classique », pourtant déployée à grande échelle, ne fait toujours pas consensus ?