
Des limites techniques et réglementaires
De nombreuses avancées technologiques dans le domaine de la vidéosurveillance se sont récemment imposées, comme l’utilisation de drones civils pour survoler les sites sensibles ou les zones difficilement accessibles à l’homme. Comme beaucoup de secteurs, celui de la vidéosurveillance souhaite bénéficier des apports de l’intelligence artificielle, pour trier le flux d’informations collectées par les caméras, prévenir à distance d’éventuels dysfonctionnements des équipements et même détecter automatiquement des comportements suspects. Sur ce dernier point les avancées en matière de reconnaissance de formes et de reconnaissance faciale présentent un intérêt majeur.
Automatisation de la surveillance
Grâce à l’IA, le système de vidéosurveillance de demain pourrait trier les flux d’informations et orienter l’opérateur sur les images qui requièrent une intervention humaine. Ce type de dispositif pourrait, dans le futur, générer des alertes et prévenir automatiquement les services d’ordre concernés, après avoir détecté un comportement proscrit, comme une intrusion ou une agression physique.
Les avancées du Machine Learning et du Deep Learning, ainsi que la grande quantité de données produites par les systèmes de vidéosurveillance, prédisent des progrès majeurs dans les années à venir. L’avènement de la haute résolution permettra aussi d’afficher de nombreux détails, qui pourront permettre aux modèles d’apprendre des patterns plus précis dans la reconnaissance de forme. La norme de 250 px/m (pixel par mètre), voire plus, est désormais reine et elle permet des reconnaissances faciales sur de longues distances, dans des conditions de lumières faibles.
L’objectif affiché par les entreprises du secteur est d’obtenir des informations fiables, afin d’éviter de générer de fausses alertes intempestives. L’éditeur français Pryntec propose, par exemple, des solutions permettant déjà de compter le nombre d’occupants dans les véhicules ; d’autres comme Anaveo donnent la possibilité d’identifier les véhicules selon leur plaque d’immatriculation, mais aussi leur type (camion, voiture…), leur marque, leur modèle et leur couleur.
La détection comportementale reste toujours limitée
Malgré les promesses de certaines solutions, l’analyse du comportement des personnes reste très perfectible et montre vite ses limites. Les systèmes permettant de détecter des agressions ou des infractions ne sont pas jugés encore suffisamment fiables, notamment sur la voie publique. Les services de sécurité publique français n’utilisent donc pas encore les systèmes de détection comportementale, comme le précise le service en charge des questions de vidéoprotection au sein de la DCS (Délégation aux coopérations de sécurité).
Les algorithmes testés sont pertinents quand il s’agit de détecter le maraudage ou un objet resté anormalement longtemps à un endroit, mais ils donnent lieu à beaucoup de fausses alertes en environnement humain dense. Ces dispositifs nécessitent encore l’intervention d’un opérateur humain pour analyser les alertes.

Une hausse de l’offre de solutions commerciales
L’analyse des images de vidéosurveillance est aujourd’hui commercialisée par plusieurs acteurs de la sécurité électronique sous différentes formes :
- Analyse du flux en temps réel : comptage en temps réel, reconnaissance faciale, du genre, de la tranche d’âge, des vêtements, etc.
- Détection d’individus
- Détection de situation anormales
L’émergence de solutions marketing permettant d’optimiser l’expérience client grâce à l’analyse des comportements reste, quant à elle, limitée à des fonctions de comptage, de typage des personnes et d’analyse de flux directionnel. Ces solutions proposent maintenant le floutage des visages ou des individus afin de préserver l’anonymat dans le cadre de la conformité RGPD.
L’éthique et compliance RGPD
Les éditeurs à l’origine de ces solutions peuvent voir leur responsabilité engagée s’ils n’ont pas conçu correctement les algorithmes, si ces derniers présentent des biais ou bien si la sécurité et la mise en place de mesures de protection contre les abus n’a pas été respectée. Les installateurs de systèmes de vidéosurveillance sont également responsables si le client final n’a pas été informé quant à l’utilisation qui est faite de ses bases de données. En cas d’erreur ou de dysfonctionnement du système de reconnaissance, particulièrement celui-ci est automatisé, les prestataires de service en charge de la vidéosurveillance peuvent engager la responsabilité du fabricant, qui pourra à son tour se retourner contre l’éditeur ou le concepteur des algorithmes et du module intégrant l’IA.
La Chine, leader de la reconnaissance faciale
La reconnaissance faciale a été généralisée en Chine, où elle est techniquement au point. Deux méthodes peuvent être utilisées : comparer un flux d’images à une base de données, ou bien constituer une signature associée à une image. Cette signature correspond à l’identification temporelle et spatiale d’éléments que le modèle aura annoté comme discriminants : par exemple, à un endroit précis, une femme portant des lunettes et des vêtements bleu. L’algorithme permettra alors de retrouver toutes les personnes correspondant à cette signature.
En Chine notamment, des bases de données faciales sont vendues ou constituées par acquisition, par exemple par les entreprises qui collectent les images des salariés autorisés à circuler dans les espaces vidéosurveillés. La France, elle, a affiché sa volonté de ne pas appliquer le modèle chinois de la surveillance généralisée intrusive, afin d’éviter les risques de dérive qu’elle implique.
En effet, l’analyse automatisée de grands volumes de données présente un risque d’atteinte à la liberté d’aller et venir, qui est un droit fondamental de la personne. Les éditeurs qui intègrent du Machine Learning ou du Deep Learning sont donc tenus d’intégrer la protection des données personnelles dès la conception, conformément au RGPD, mais aussi afin d’éviter tout risque en cas de faille de sécurité.

Un encadrement strict en France
En Espagne, la Guarda civil utilise aujourd’hui l’IA pour reconnaître automatiquement les pickpockets dans les gares, mais ce type de projet reste minutieusement encadré en France.
Une entreprise qui n’est pas ouverte au public peut suivre des individus en croisant une base de données d’images et un flux vidéo de captation, mais elle doit, depuis le RGPD, se conformer à la compliance et à la protection des données personnelles. Elle devra réaliser une étude d’impact et demander l’aval de la CNIL en exposant les finalités du traitement et les moyens mis en œuvre pour garantir l’intégrité des données, leur protection face aux instruisons extérieures et leur confidentialité. Actuellement, la CNIL a plutôt tendance à se prononcer contre les projets de vidéosurveillance, (d’autant plus sur la voie publique). Néanmoins, elle a déjà apporté un avis favorable à des projets de reconnaissance faciale n’impliquant pas de surveillance. Par exemple, un groupe bancaire a déjà obtenu le soutien de la CNIL pour offrir à ses clients un moyen d’accéder à leurs comptes par reconnaissance faciale, mais ici on peut dire que les bénéfices pour l’utilisateur de l’application étaient évidents.
Dans les lieux accueillants du public et les lieux ouverts comme les commerces, le Code de la Sécurité Intérieure s’applique. L’utilisation d’un dispositif de vidéosurveillance est donc soumise à l’autorisation préalable du préfet. Cette autorisation est suffisante lorsqu’il s’agit d’identifier des situations alarmantes à l’aide de la détection comportementale, mais lorsqu’il s’agit d’identifier un individu en particulier une demande doit être déposée à la CNIL.
L’humain, maillon essentiel de la chaîne de la sûreté
Les dangers et limites de cette technologie jugée potentiellement liberticide résident surtout dans le fait qu’elle peut exacerber nos propres biais humains, comme toute technologie auto-apprenante. Cela pose de vraies questions d’éthique, actuellement au cœur des débats. Ces questionnements nous montrent tout l’intérêt de garder une intervention humaine à un niveau du processus : par exemple un opérateur pourra valider ou non les choix proposés par le système automatique. Un bon moyen pour permettre à l’humain face à la technologie, de continuer à avoir le dernier mot.
Plus d’articles :
Comment bien se servir de Power Apps ?
A quoi sert Power Apps ? Quels sont les usages de Power Apps, les nouveautés 2023, les avantages et les pièges à éviter ?
Teams : Tirez tous les bénéfices du collaboratif
Quels sont les grands usages de Microsoft Teams, les nouveautés 2023 et les écueils à éviter ?
A qui la faute ? De l’importance de réaliser un REX suite à la résolution d’un incident critique
En entreprise, il est souvent compliqué de repartir sur de bonnes bases après un incident. Le REX est un outil idéal pour fiabiliser vos processus et apprendre de vos erreurs.