Pour assurer leur sécurité, de plus en plus d’entreprises analysent leurs images de vidéosurveillance avec de l’intelligence artificielle (IA). Si ces logiciels intelligents comptent révolutionner le monde de la sécurité, leur usage pourrait aussi représenter une sérieuse menace pour les libertés fondamentales.
C’est le dernier joujou high-tech dans le domaine de la surveillance: les caméras boostées à l’intelligence artificielle. Accessible en quelques clics sur Internet, cette technologie est de plus en plus prisée par les particuliers et les entreprises privées. Les supermarchés, qui seraient victimes de toujours plus de vols aux caisses automatiques, s’équipent aussi de tels dispositifs. Récemment, nos confrères du Temps révélaient que la Coop s’était discrètement dotée de caméras intelligentes.
Qu’est-ce que la VSA ?
Le principe est simple. Les caméras sont reliées à des systèmes d’intelligence artificielle qui analysent les images captées en temps réel. On parle alors de VSA, de vidéosurveillance algorithmique. À la différence des logiciels de détection « classiques », la VSA est capable de reconnaître les objets qui apparaissent à l’image. Pour ce faire, les algorithmes ont besoin d’être entraînés au préalable. On les alimente alors avec de nombreuses vidéos dites « labellisées ». Autrement dit, on fournit des images au logiciel, en lui disant ce qui y figure (cette vidéo montre un arbre p.ex.). Puis, grâce à l’apprentissage automatique, le logiciel parvient peu à peu à distinguer par lui-même les objets qui apparaissent sur des données brutes, qui n’ont pas été étiquetées: « Si les caractéristiques de la forme sont proches de ce qui lui a été appris, le logiciel fait un calcul de probabilité et va pouvoir déduire qu’il s’agit d’un humain ou d’une voiture par exemple », décrypte Alan Ferbach, CEO de Videtics, une entreprise française spécialisée dans l’analyse d’images par IA.
Sécurité 2.0
À partir de là, les possibilités sont innombrables: « Grâce à la reconnaissance faciale, ces caméras peuvent déclencher une alerte si elles repèrent un visage blacklisté par le propriétaire de la caméra intelligente », explique Eugenio Vigliante, vendeur de l’entreprise de sécurité René Koch SA. Certains modèles plus avancés lancent une alerte si une personne franchit une zone prédéfinie ou maraude dans le secteur. D’autres, parfois utilisés dans les supermarchés, avertissent le personnel de sécurité sur la base d’un critère temporel: « Si une personne reste trop longtemps au même endroit, elle peut être considérée comme suspecte. Le logiciel va donc la suivre grâce aux différentes caméras de vidéosurveillance présentes dans le magasin », confie Eugenio.
Mais cette pratique semble flirter avec la légalité: « La VSA ne doit en tout cas pas être utilisée pour faire du profilage injustifié ou pour prendre des décisions automatisées avec un effet, comme une dénonciation à la police ou l’interdiction d’entrer dans le magasin », prévient Me Sylvain Métille, avocat spécialisé dans la protection des données.
Malgré ces risques de dérives, Alan Ferbach pense qu’il s’agit d’une révolution dans le monde de la vidéosurveillance: « On est partis du constat que 99% des flux vidéo existants ne sont jamais visualisés ni analysés. Ce sont des mines d’or de données inexploitées. Avec l’IA, l’efficacité de la vidéosurveillance est démultipliée: il ne faut plus qu’une seule personne, contre trois auparavant, pour visualiser les images de vidéosurveillance. »
99% des flux vidéo existants ne sont jamais visualisés ni analysés.
Alan Ferbach, CEO de Videtics
Efficace donc? Pour réduire le nombre d’agents de surveillance oui, mais pour repérer les délits, la VSA n’a pas encore fait ses preuves: « Les méta-analyses montrent que l’efficacité de la vidéosurveillance reste mitigée. Quant à ces dispositifs algorithmiques, nous n’avons aucune évaluation robuste qui démontre quel est leur impact », nuance Manon Jendly, professeure en criminologie à l’Université de Lausanne. « De plus, ces données ne parlent pas d’elles-mêmes. Elles doivent être contextualisées et interprétées par des spécialistes. Cela nécessite des compétences qui font parfois défaut aux agents de surveillance. »
La surveillance est accrue, la transparence pas
Autre bémol, l’opacité qui règne autour du fonctionnement de la VSA. Parmi la dizaine de développeurs d’IA contactés, aucun, si ce n’est Videtics, n’a répondu à nos sollicitations. De son côté, la Coop reste peu transparente quant à son usage de la VSA.
Une situation que regrette Giovanna Di Marzo Serugendo, directrice du Centre universitaire informatique de l’Université de Genève. Elle estime qu’il faudrait plus de transparence lorsque l’IA prend des décisions automatisées: « On doit pouvoir s’assurer de l’explicabilité des décisions prises par l’IA, c’est-à-dire qu’on doit pouvoir retracer le chemin décisionnel de la machine. »
Mais pour Me Sylvain Métille, la Coop pourrait être dans son droit. « S’il y a un intérêt privé prépondérant, comme c’est le cas ici avec la sécurité de la Coop, l’entreprise a le droit de ne pas dévoiler comment son logiciel exploite les données personnelles », précise le spécialiste.
Je reste très dubitatif quant à la licéité du système.
Stéphane Werly, Préposé cantonal genevois à la protection des données et à la transparence
Le Préposé cantonal genevois à la protection des données et à la transparence, Stéphane Werly, doute, lui, que l’utilisation d’un tel logiciel respecte les principes de proportionnalité: « Je reste très dubitatif quant à la licéité du système. En outre, je ne pense pas qu’il soit nécessaire de récolter autant de données pour repérer d’éventuels voleurs, même s’il y a plus de vols aux caisses automatiques. Pour moi, c’est une dérive. »
Pour l’instant, aucune jurisprudence n’a été prononcée au sujet de la VSA. En ce qui concerne la Coop, le Préposé fédéral à la protection des données a ouvert une procédure pour clarifier la situation.