L’analyse vidéo améliore les images de sécurité

L’analyse vidéo peut révéler si un individu se déplace trop vite dans un flux de personnes, repérer une valise abandonnée ou un rôdeur. Bientôt, elle pourra même indiquer si quelqu’un est sur le point de faire quelque chose qu’il ne devrait pas.

Le problème avec la vidéo de sécurité, c’est son volume excessif et son contenu extrêmement ennuyant. Aucune personne saine d’esprit ne voudrait passer des heures à regarder des images sur lesquelles rien ne se passe. Alors comment faire pour retirer de la vidéo ce qui aide réellement à améliorer la sécurité ?

La réponse est l’analyse vidéo, même si les professionnels du secteur précisent que les attentes par rapport à ce domaine étaient trop grandes et trop pressées. Courtney Dillon Pedersen, Directrice Communication de Milestone Systems, concepteur de l’architecture XProtect Analytics qui permet l’intégration sur IP de différents outils d’analyse et caméras, explique : « Le battage médiatique fait sur l’analyse vidéo a été trop fort dès le début. » Johan Paulsson, Directeur Technique du fabricant de caméras Axis Communications : « On ne peut pas utiliser l’analyse vidéo pour des opérations stratégiques. » Ce serait trop risqué de dépendre entièrement d’un système sans intervention humaine pour stopper les intrus dans un site de haute sécurité, par exemple.

Alors à quoi l’analyse vidéo peut-elle servir ? « A aider les opérateurs », répond M. Paulsson. « Elle ajoute de la valeur à la vidéo », ajoute Mme Pedersen.

Soyons un peu plus précis. Rasmus Crüger Lund, architecte système chez Milestone, ajoute : « L’analyse vidéo peut aider les opérateurs dans leur surveillance, en focalisant leur attention au bon endroit. Elle filtre tout le contenu dont les opérateurs n’ont pas à se soucier, pour leur permettre de réagir rapidement quand quelque chose se passe. »

Le « battage médiatique » auquel Mme Pedersen fait référence a eu lieu quand on a annoncé que l’analyse vidéo pourrait déterminer quels incidents représentent une réelle menace de sécurité. Mais on n’en est pas encore là, même si on s’en rapproche de plus en plus. L’analyse peut indiquer si quelqu’un se déplace dans la mauvaise direction ou trop vite dans un flux de personnes, repérer une valise abandonnée ou une personne qui semble rôder, indiquer si quelqu’un essaie de passer un tourniquet en même temps qu’une autre personne ou identifier les plaques d’immatriculation. Et naturellement, elle peut facilement indiquer si une personne est entrée dans une zone dans laquelle personne n’est supposé aller.

Mais elle ne peut pas indiquer si ces incidents sont importants ou non. Elle peut seulement alerter un opérateur qui devra prendre lui-même la décision. Ces « fausses alarmes » ne sont pas vraiment fausses : l’opérateur qui regardera l’écran redoublera probablement d’attention lors de tels incidents, même s’il décide en définitive qu’aucune action n’était nécessaire. Mais ces alarmes sont irritantes et si elles deviennent trop fréquentes, elles détruisent la confiance dans le système.

M. Paulsson pense que la formation du personnel peut être une solution. « L’analyse vidéo est indiscutablement plus sûre qu’un observateur humain qui n’est probablement pas fiable du tout à trois heures du matin», indique-t-il. « Avec l’analyse, il suffit d’attendre l’alarme. Même si elle peut parfois être fausse, il faut gérer les attentes du personnel en fonction de cela. »

James Orwell, directeur du Groupe de Recherche Surveillance Visuelle à l’Université de Kingston à Londres, pense qu’une cause des fausses alarmes est l’infrastructure primitive d’un grand nombre d’installations vidéo. « La résolution est souvent mauvaise, avec une entrée analogique qui est numérisée et compressée en mauvaise qualité », explique-t-il. « En comparaison aux graphismes générés sur ordinateurs dans les films de cinéma, on est encore au Moyen-âge. »

Mais les choses s’améliorent. M. Paulsson explique que la vidéo en haute résolution permet de concevoir plus facilement de bonnes applications.

M. Lund considère que les réglages complexes sont une autre cause de problèmes mais il voit un changement arriver : « A l’avenir, les systèmes s’installeront tout seul ou indiqueront à l’opérateur les paramètres qu’ils ne peuvent pas configurer par eux-mêmes », prévoit-il. « Les systèmes les plus performants surveilleront des scènes et apprendront tout seuls ce qu’est une activité normale. »

Au fur et à mesure de l’optimisation des systèmes d’analyse, ils deviendront plus précis dans l’identification des situations à risque. M. Lund observe avec intérêt la recherche menée dans les universités sur la détection de comportements instables. « Un axe de recherche s’intéresse aux petits mouvements du visage et la façon de marcher qui indiquent que quelqu’un est sur le point de faire quelque chose qu’il ne devrait pas », poursuit-il.

Pour le moment, des conditions très précises doivent être remplies pour permettre une détection détaillée à ce point. L’identification biométrique nécessite toujours que la personne reste immobile face à la caméra. « Les algorithmes sont encore trop simples », ajoute M. Lund, « mais des chercheurs travaillent sur une identification 3D basée sur l’utilisation de plusieurs caméras. »

A l’Université de Kingston, une équipe cherche actuellement comment identifier des personnes susceptibles de porter des armes. Jean-Christophe Nebel a expliqué sur le site web videoanalytics.info que les gens ne portent pas régulièrement des armes, au moins en Europe, et donc, quand une personne en porte une, « il est très courant que son état émotionnel soit modifié. »

Des opérateurs de sécurité expérimentés seront invités à regarder des vidéo-surveillances sur lesquelles on voit des criminels juste avant qu’ils n’utilisent leur arme pour commettre un crime et des séquences de vidéo-surveillance de personnes ordinaires. Ils devront ensuite noter tout ce qui leur donne l’impression qu’une personne est suspicieuse, même s’ils ne savent pas vraiment pourquoi. Les indices seront ensuite combinés dans un système d’apprentissage automatique.

M. Orwell pense que l’apprentissage automatique offre beaucoup de possibilités. « Si différents opérateurs peuvent indiquer les éléments qu’ils trouvent suspicieux, ces données pourront être utilisées pour former des algorithmes », explique-t-il. « Et comme ils n’ont pas à expliquer les raisons pour lesquelles ils trouvent une personne suspicieuse, ils peuvent inclure des éléments subconscients. »

C’est la puissance de calcul accrue qui rend ce type d’analyse possible. Les caméras elles-mêmes ont déjà une telle puissance de traitement qu’elles peuvent faire une grande partie de l’analyse « au bord » – à l’intérieur de la caméra sur du contenu non compressé. Et la compression moderne rend tout à fait utilisable le contenu même compressé. « Le secteur a bien accepté le fait que l’analyse se fasse sur du contenu compressé », poursuit M. Orwell.

En particulier dans l’analyse post-événement, le nouveau défi porte sur les métadonnées, à savoir les données transmises avec les signaux vidéo qui indiquent ce qu’ils contiennent et permettent de les trouver efficacement. « Ce sera énorme », explique M. Lund. « Vous pourrez trouver une séquence vidéo sans avoir à ré-analyser l’ensemble, car les métadonnées seront dans une base de données. Vous pourrez rechercher toutes les vidéos contenant une marque de voiture donnée, ou montrant une personne franchissant une ligne particulière. »

Deux associations professionnelles, PSIA et ONVIF, travaillent sur l’établissement de normes pour les métadonnées (voir articles associés). « Les deux associations ne se sont pas mises d’accord », précise M. Lund, « mais mieux vaut deux que 200 normes. » ou qu’aucune norme du tout pourrait-on ajouter.

Comment

You must be logged in to post a comment.