La vidéosurveillance algorithmique bientôt généralisée en France ? Istock
Des dispositifs utilisant l'intelligence artificielle pour analyser les vidéos de surveillance de l'espace public ont été testés en France pendant les Jeux Olympiques et paralympiques. Des pistes de généralisation de ces outils qui soulèvent des questions en matière de droits fondamentaux sont à l'étude.
Sommaire

Elles ont des yeux… et désormais un cerveau. Ou du moins ce qui s’en rapproche le plus. Les caméras liées à des systèmes d’analyse par intelligence artificielle autrement désignés par le terme de “vidéosurveillance algorithmique” se généraliseront-elles en France ? 

Le gouvernement songerait en tous cas à généraliser la pratique. Le Premier ministre Michel Barnier l’a évoqué lors de son discours de politique générale face aux députés le 1er octobre. En outre, des pistes seraient à l’étude selon des informations de Franceinfo. Suite à la publication de ces informations, Matignon a fait savoir qu’avant de se prononcer, l'exécutif attendait un rapport qui doit être remis fin décembre sur le sujet. Déjà expérimentées pendant des concerts, de telles méthodes de vidéoprotection ont également été mises en place à l’occasion des Jeux olympiques et paralympiques de Paris. 

Des méthodes controversées

En quoi consistent exactement ces méthodes qui suscitent la polémique ? Ces logiciels associés aux caméras seraient en mesure de repérer un certain nombre d'“événements” considérés comme suspects ou “à risque”. La Préfecture de police de Paris en a identifié huit : il peut s’agir d e mouvements de foule, de colis égarés ou encore d’un départ de feu. En cas de suspicion, les autorités compétentes - police, gendarmerie, pompiers - peuvent être alertées. 

 Ces systèmes d iffèrent en principe des outils dits “biométriques” qui permettent quant à eux de procéder à la reconnaissance faciale. 

Questions de libertés

A l’instar de cette dernière, les dispositifs de vidéosurveillance algorithmique soulèvent des questions sur le respect des libertés individuelles. Des associations telles que la Quadrature du Net et Amnesty international ont déjà tiré la sonnette d'alarme. Un organisme officiel, la Commission nationale informatique et libertés a pour sa part émis un avis en 2022 concernant ces caméras “augmentées”. Elle écrit ainsi que leur déploiement “dans les espaces publics, où s’exercent de nombreuses libertés individuelles (liberté d’aller et venir, d’expression, de réunion, droit de manifester, liberté de culte, etc.), présente incontestablement des risques pour les droits et libertés fondamentaux des personnes et la préservation de leur anonymat dans l’espace public.”

Lors d’une audition à l’Assemblée nationale le 25 septembre 2024, le préfet de police de Paris, Laurent Nu ñ ez qui s’est montré favorable à ce dispositif a voulu se montrer rassurant. Il a affirmé qu’elle n’impliquait “ni reconnaissance faciale” ni “surveillance de  masse généralisée”.

Une pratique méconnue...

Les Français quant à eux semblent assez peu conscients de l’existence de tels procédés. En effet, seuls 4% des personnes interrogées dans le cadre d’une étude du Centre de recherches politiques de Sciences Po (Cevipof) citent spontanément l’intelligence artificielle comme moyen de surveillance.

... et qui ne semble pas inquiéter les Français outre mesure

Bien que mal connue donc, cette pratique ne semble pas inquiéter les sondés puisqu’une large majorité des personnes sondées pour cette enquête (65%) parue le 25 septembre affirment que ”l’utilisation de l’intelligence artificielle par les forces de sécurité intérieure leur permet d’être plus efficace et de garantir la sécurité publique”. Quant à ceux qui estiment que cette option constitue un danger, ils représentent un tiers des Français interrogés.