Suivi de personnes, maraudage, détection d’intrusion… Depuis 2017, la SNCF a expérimenté plusieurs outils de surveillance des géants français Thales et Atos, mais aussi des sociétés étrangères Briefc…
Concernant le recours à des algorithmes de surveillance durant les Jeux olympiques, la SNCF reste tout aussi évasive. « Le déploiement de ces solutions sera décidé par le ministère de l’intérieur, avec la Cnil comme garante de la bonne application de la loi. Conformément à la réglementation, elles n’utiliseront aucun traitement biométrique et les techniques d’intelligence artificielle resteront une aide à la décision, un opérateur demeurant dans tous les cas responsable des décisions opérationnelles. Par exemple, pour la détection des intrusions dans nos emprises ou des bagages suspects. »
Selon des documents obtenus par Mediapart, une expérimentation a été « particulièrement emblématique » par son ampleur. Durant plusieurs mois en 2020, la SNCF a passé certains voyageurs à la moulinette d’un logiciel un peu particulier, développé par la firme israélienne Anyvision – renommée en 2021 Oosto. Associés aux caméras, ses algorithmes sont capables de suivre en temps réel une personne sur l’ensemble du réseau, selon différentes caractéristiques. « Le logiciel testé était en version bêta. C’était une solution non biométrique de recherche de personnes basée sur les vêtements », complète Michel*, un salarié impliqué dans le projet.
Selon les échanges entre la SNCF et la Cnil, le gendarme français des données personnelles, datés de 2018, ce logiciel « aide les opérateurs vidéo de la SNCF à retrouver rapidement une personne dans le temps et dans l’espace ». Ces derniers pourraient ainsi retrouver une personne ayant abandonné un bagage, l’auteur·e d’un délit ou d’un crime ou tout autre personne volontaire.
Lors du passage de la loi Jeux olympiques devant le Parlement, des eurodéputés s’alarmaient de voir ces systèmes de vidéosurveillance intelligente « créer un précédent de surveillance jamais vu en Europe ». Au contraire, la SNCF ambitionne depuis plusieurs années « de se positionner comme un acteur majeur et incontournable des technologies liées à la vidéo », comme elle l’écrit sur son site internet.
Cette obsession pour les systèmes de vidéo-intelligence inquiète Katia Roux, chargée de plaidoyer au sein de l’ONG Amnesty International. « Il y a un vrai débat sur le caractère biométrique ou non de ces technologies de vidéosurveillance algorithmique. Une démarche ou un vêtement est un élément qui permet d’identifier concrètement quelqu’un. C’est donc une donnée biométrique. Or, le Règlement général sur la protection des données interdit le traitement de ces données, sauf exceptions. »
Le nom du partenaire choisi interroge également. La société Anyvision est connue pour ses liens avec le monde militaire israélien. En 2020, son président est Amir Kain, ancien chef du département de la sécurité au ministère israélien de la défense. Tamir Pardo, l’un de ses conseillers, est un ancien chef du Mossad, l’agence de renseignement israélienne. La même année, Microsoft décide de revendre ses parts dans la société, à la suite de la publication d’une enquête de NBC News qui pointe le rôle de l’entreprise dans un programme de surveillance en Cisjordanie.
Une annonce qui a amené en 2020 Microsoft à revendre ses parts dans Anyvision. Mais qui n’a pas dissuadé la SNCF de mener une expérimentation avec l’entreprise. En 2017, la SNCF a testé un logiciel d’aide à l’investigation d’une autre firme née en Israël, Briefcam. Il y a quelques semaines, le tribunal administratif de Caen a estimé que le recours à ce logiciel par la communauté de communes de Deauville « portait une atteinte grave et manifestement illégale au respect de la vie privée », selon les termes de la décision. La même année, la SNCF a également testé une solution de détection « d’anormalités » du géant français Thales.
Un logiciel à l’usage flou, dont les algorithmes, couplés à des caméras de videosurveillance, pourraient détecter des citoyens et citoyennes adoptant des « comportements dangereux » dans les gares. Interrogé sur la nature de ces comportements, Thales refuse d’entrer dans le détail, par souci de confidentialité. « Le groupe propose une plateforme digitale de fusion de données hétérogènes pour contribuer à créer des territoires de confiance, des villes plus intelligentes, plus sûres et résilientes. » Même son de cloche chez les entreprises Atos, Anyvision ou Aquilae, qui n’ont pas souhaité répondre à Mediapart.
« Il y a des questionnements légitimes sur la maturité de ces technologies : est-ce que les policiers ou opérateurs de terrain ont conscience de leur efficacité relative ? Si un policier ne l’est pas et considère que l’IA est infaillible, il peut estimer qu’une zone où il n’y a aucune détection de port d’armes est sécurisée, alors que ce n’est pas forcément le cas, compte tenu des erreurs des logiciels. En l’absence de démarche scientifique d’évaluation de l’impact de ces technologies, il est hasardeux de se positionner sur leur efficacité », détaille le chercheur Guillaume Gormand, auteur d’une enquête sur la vidéosurveillance.
Les coauteurs de cette mission d’information, les députés Philippe Gosselin et Philippe Latombe, notent également l’efficacité fluctuante de certaines technologies. « Si le comptage d’un flux de spectateurs ou le repérage d’un individu dans une zone interdite correspondent aujourd’hui à des technologies matures, la détection de personnes au sol, d’objets abandonnés, de mouvements de foule ou du port d’une arme présente une relative complexité, en dépit de l’ampleur des progrès technologiques récemment accomplis. » Malgré cette immaturité, ces quatre exemples font partie des comportements autorisés à être analysés par ces systèmes d’IA dans le cadre de la loi Jeux olympiques. Jusqu’en mars 2025, ils peuvent donc être librement testés en temps réel sur les citoyens et citoyennes.
Concernant le recours à des algorithmes de surveillance durant les Jeux olympiques, la SNCF reste tout aussi évasive. « Le déploiement de ces solutions sera décidé par le ministère de l’intérieur, avec la Cnil comme garante de la bonne application de la loi. Conformément à la réglementation, elles n’utiliseront aucun traitement biométrique et les techniques d’intelligence artificielle resteront une aide à la décision, un opérateur demeurant dans tous les cas responsable des décisions opérationnelles. Par exemple, pour la détection des intrusions dans nos emprises ou des bagages suspects. »
Selon des documents obtenus par Mediapart, une expérimentation a été « particulièrement emblématique » par son ampleur. Durant plusieurs mois en 2020, la SNCF a passé certains voyageurs à la moulinette d’un logiciel un peu particulier, développé par la firme israélienne Anyvision – renommée en 2021 Oosto. Associés aux caméras, ses algorithmes sont capables de suivre en temps réel une personne sur l’ensemble du réseau, selon différentes caractéristiques. « Le logiciel testé était en version bêta. C’était une solution non biométrique de recherche de personnes basée sur les vêtements », complète Michel*, un salarié impliqué dans le projet.
Selon les échanges entre la SNCF et la Cnil, le gendarme français des données personnelles, datés de 2018, ce logiciel « aide les opérateurs vidéo de la SNCF à retrouver rapidement une personne dans le temps et dans l’espace ». Ces derniers pourraient ainsi retrouver une personne ayant abandonné un bagage, l’auteur·e d’un délit ou d’un crime ou tout autre personne volontaire.
Lors du passage de la loi Jeux olympiques devant le Parlement, des eurodéputés s’alarmaient de voir ces systèmes de vidéosurveillance intelligente « créer un précédent de surveillance jamais vu en Europe ». Au contraire, la SNCF ambitionne depuis plusieurs années « de se positionner comme un acteur majeur et incontournable des technologies liées à la vidéo », comme elle l’écrit sur son site internet.
Cette obsession pour les systèmes de vidéo-intelligence inquiète Katia Roux, chargée de plaidoyer au sein de l’ONG Amnesty International. « Il y a un vrai débat sur le caractère biométrique ou non de ces technologies de vidéosurveillance algorithmique. Une démarche ou un vêtement est un élément qui permet d’identifier concrètement quelqu’un. C’est donc une donnée biométrique. Or, le Règlement général sur la protection des données interdit le traitement de ces données, sauf exceptions. »
Le nom du partenaire choisi interroge également. La société Anyvision est connue pour ses liens avec le monde militaire israélien. En 2020, son président est Amir Kain, ancien chef du département de la sécurité au ministère israélien de la défense. Tamir Pardo, l’un de ses conseillers, est un ancien chef du Mossad, l’agence de renseignement israélienne. La même année, Microsoft décide de revendre ses parts dans la société, à la suite de la publication d’une enquête de NBC News qui pointe le rôle de l’entreprise dans un programme de surveillance en Cisjordanie.
Une annonce qui a amené en 2020 Microsoft à revendre ses parts dans Anyvision. Mais qui n’a pas dissuadé la SNCF de mener une expérimentation avec l’entreprise. En 2017, la SNCF a testé un logiciel d’aide à l’investigation d’une autre firme née en Israël, Briefcam. Il y a quelques semaines, le tribunal administratif de Caen a estimé que le recours à ce logiciel par la communauté de communes de Deauville « portait une atteinte grave et manifestement illégale au respect de la vie privée », selon les termes de la décision. La même année, la SNCF a également testé une solution de détection « d’anormalités » du géant français Thales.
Un logiciel à l’usage flou, dont les algorithmes, couplés à des caméras de videosurveillance, pourraient détecter des citoyens et citoyennes adoptant des « comportements dangereux » dans les gares. Interrogé sur la nature de ces comportements, Thales refuse d’entrer dans le détail, par souci de confidentialité. « Le groupe propose une plateforme digitale de fusion de données hétérogènes pour contribuer à créer des territoires de confiance, des villes plus intelligentes, plus sûres et résilientes. » Même son de cloche chez les entreprises Atos, Anyvision ou Aquilae, qui n’ont pas souhaité répondre à Mediapart.
« Il y a des questionnements légitimes sur la maturité de ces technologies : est-ce que les policiers ou opérateurs de terrain ont conscience de leur efficacité relative ? Si un policier ne l’est pas et considère que l’IA est infaillible, il peut estimer qu’une zone où il n’y a aucune détection de port d’armes est sécurisée, alors que ce n’est pas forcément le cas, compte tenu des erreurs des logiciels. En l’absence de démarche scientifique d’évaluation de l’impact de ces technologies, il est hasardeux de se positionner sur leur efficacité », détaille le chercheur Guillaume Gormand, auteur d’une enquête sur la vidéosurveillance.
Les coauteurs de cette mission d’information, les députés Philippe Gosselin et Philippe Latombe, notent également l’efficacité fluctuante de certaines technologies. « Si le comptage d’un flux de spectateurs ou le repérage d’un individu dans une zone interdite correspondent aujourd’hui à des technologies matures, la détection de personnes au sol, d’objets abandonnés, de mouvements de foule ou du port d’une arme présente une relative complexité, en dépit de l’ampleur des progrès technologiques récemment accomplis. » Malgré cette immaturité, ces quatre exemples font partie des comportements autorisés à être analysés par ces systèmes d’IA dans le cadre de la loi Jeux olympiques. Jusqu’en mars 2025, ils peuvent donc être librement testés en temps réel sur les citoyens et citoyennes.
merci 🙂