La vidéosurveillance algorithmique a été légalisée en France à titre expérimental à l’occasion des Jeux olympiques et paralympiques de Paris. Que vous inspire cette annonce ?
David Lyon – La légalisation de la vidéosurveillance algorithmique fait partie d’une longue histoire de surveillance de la sécurité olympique. Celle-ci a véritablement commencé aux JO de Munich en 1972, lorsque 11 athlètes israéliens ont été tués par le groupe terroriste Septembre noir. La peur d’une telle violence lors de grands événements aussi importants, conjuguée à la pression insistante des entreprises numériques, a provoqué une croissance constante et croissante de la surveillance de la sécurité, désormais stimulée par l’IA. Si la reconnaissance faciale n’est pas autorisée à Paris, la vidéosurveillance augmentée l’est en revanche, ce qui soulève de nombreuses questions. Une expérience à plus petite échelle, impliquant la recherche de signes de mouvements suspects, a déjà eu lieu aux JO de Beijing en 2022. La version française actuelle utilise l’IA pour scanner les foules, à la fois au sol et à partir de drones, afin de repérer tout élément anormal, inhabituel ou activité à risque. Les systèmes surveillent la foule et produisent des alertes lorsque les positions et les mouvements semblent “anormaux”. Ainsi, un corps allongé, assis, ou tombant, combattant ou portant une arme peut être repéré. Mais l’utilisation de telles technologies est risquée du point de vue des défenseurs des libertés civiles et des droits humains.
En quoi cette expérimentation représente-t-elle un risque pour nos libertés individuelles et publiques ?
Amnesty International, par exemple, est sceptique. L’ONG prévient que la surveillance de masse basée sur l’IA conduira à une “atteinte aux droits à la vie privée, à la protestation, à la liberté de réunion et d’expression”, craignant que cela ne crée un précédent en matière de surveillance injustifiée et disproportionnée dans les espaces accessibles au public. Karolina Iwańska, spécialiste et conseillère en droits numériques, estime elle que prendre des décisions sur la base des mouvements du corps entraînera des erreurs, de la discrimination, des atteintes à la vie privée, et pourrait compromettre l’équité des procès et l’accès à la justice. Parallèlement, non seulement la police parisienne sera impliquée, mais les agents de la RATP et de la SNCF auront également accès aux images vidéo pour tenter de maintenir l’ordre public. De plus, tous les participants à des événements rassemblant plus de 300 personnes seront soumis à un scanner corporel.
“La surveillance de la sécurité olympique est devenue un terrain d’essai pour la surveillance de l’espace public de toutes sortes”
Les craintes suscitées par ces mesures sont-elles justifiées selon vous ?
Il y a des raisons de s’inquiéter. La surveillance de la sécurité olympique est devenue un terrain d’essai pour la surveillance de l’espace public de toutes sortes, partout dans le monde. Les JO sont le théâtre d’un “spectacle mondial de surveillance”, où les entreprises technologiques mènent des expériences réelles et présentent leurs dernières techniques. Si les ONG condamnent franchement les risques de la surveillance par l’IA, la Commission nationale de l’informatique et des libertés (CNIL) se montre également très prudente, alertant les autorités sur les limites qui devraient être imposées : usage uniquement expérimental, cadres spatiotemporels délimités et clairs, traitement uniquement des risques graves pour les personnes… D’après l’expérience de nombreux “security games” de ce type, il est trop facile pour l’“exceptionnel” de devenir le “normal”.
Les autorités tiennent à rassurer sur le fait que la reconnaissance faciale sera prohibée, mais des associations craignent que ce pas soit franchi…
Il est vrai que les caméras “intelligentes” utilisées ne seront pas “suffisamment intelligentes” pour reconnaître les visages. Alors que les Jeux olympiques de Tokyo de 2020 ont introduit la technologie de reconnaissance faciale (FRT) et que Beijing l’a améliorée en 2022, la loi française interdit toujours un tel système. Les services de police de nombreux pays ont manifesté un grand intérêt pour la FRT, mais le bilan de cette dernière laisse beaucoup à désirer.
Qu’entendez-vous par là ?
Le plus grave, peut-être, est le problème des biais, programmés dans le système par ceux qui élaborent les algorithmes. Par exemple, les recherches de Joy Buolamwini au MIT ont montré que la FRT ne parvient pas systématiquement à reconnaître les personnes à la peau plus foncée. Et lorsque Pete Fussey et Daragh Murray ont analysé l’utilisation de la FRT par la police métropolitaine de Londres, ils ont découvert que seulement 19 % des correspondances étaient correctes et que des erreurs d’identification conduisaient à des contrôles injustifiés. Des systèmes similaires sont utilisés dans beaucoup d’aéroports pour vérifier les identités, ainsi que dans les magasins ou les transports en commun, parfois aussi pour évaluer l’âge, le sexe, voire l’état émotionnel. Malgré cela, de nombreuses personnes qui se soucient des droits humains et des libertés civiles craignent qu’une certaine FRT soit utilisée. Après tout, il existe des preuves que le ministère français de l’Intérieur a utilisé secrètement une technologie de cet acabit de la société israélienne Briefcam à partir de 2015. Si la FRT est effectivement utilisé lors des Jeux olympiques de 2024, cela mettra en danger beaucoup de gens, étant donné son mauvais bilan et sa probabilité de générer des discriminations et des injustices.
“Au XXIe siècle, se regarder les uns les autres est devenu un mode de vie”
Un mot sur vos recherches. Votre travail s’articule autour du fameux concept de la “culture de la surveillance”. Que faut-il entendre par cette formule ?
Pour prendre un exemple concret : on retrouve l’idée de la culture de la surveillance dans le fait que la majorité des personnes en France – ou dans tout autre pays similaire – peuvent être localisées géographiquement grâce à leur téléphone, sans drones ni caméras de surveillance. Nous transportons dans nos poches les moyens de notre propre surveillance (et nous pouvons également surveiller les autres, en utilisant le même téléphone). Dans le monde numérique d’aujourd’hui, la surveillance n’est pas seulement “descendante” mais multidirectionnelle. Nous sommes tous impliqués. Mon livre The Culture of Surveillance s’appuie sur mes études antérieures, mais les dépasse également. Il explique que la surveillance, autrefois principalement associée à la sécurité de l’État, aux entreprises et aux lieux de travail, revêt de plus en plus de multiples facettes ; aussi bien horizontales que verticales, voire diagonales, comme le montre le spécialiste français Didier Bigo. Au XXIe siècle, se regarder les uns les autres est devenu un “mode de vie”. Plus précisément, je montre comment, dans un monde en ligne, les gens développent des imaginaires et des pratiques de surveillance dans la vie quotidienne. Nous avons une idée de notre place et de notre rôle en ligne. C’est ainsi que nous nous voyons opérer dans ce qu’on appelait autrefois le cyberespace. Nous nous considérons comme des utilisateurs du Web et nous essayons de contrôler ce qui est “vu” à travers les plateformes et applications que nous utilisons quotidiennement. Ou bien nous ne nous en soucions pas et utilisons simplement les systèmes pour notre confort et notre commodité. C’est le genre de pratiques qui s’est développé rapidement depuis l’avènement de Google et Facebook.
Le foucaldien Bernard Harcourt appelle à dépasser le concept de société de surveillance pour lui substituer celui de société d’exposition. Que vous inspire cette analyse ?
En effet, certains observateurs, comme Bernard Harcourt, disent qu’il faut reconnaître que nous vivons désormais dans des sociétés non pas de surveillance, mais d’exposition. Il s’agit d’une brillante idée, tirée des travaux de Gilles Deleuze. On est transparents sur nos pratiques et nos vies, explique Harcourt, en nous exposant aux autres à travers les cadres hautement artificiels proposés par les réseaux sociaux. Ainsi, nous laissons volontiers les autres – qui ont assumé cette tâche avec enthousiasme parce qu’elle est très rentable – façonner nos désirs. Cela affecte nos choix politiques ainsi que nos choix de consommation. Harcourt propose que les gens désobéissent, plutôt qu’ils s’entendent avec cette société d’exposition, afin de saper ce régime pernicieux. Dans une société de consommation axée sur la satisfaction individuelle, l’attrait du confort, de la commodité et de la sécurité supposée est fort. Il est donc difficile de s’élever et de critiquer, et encore moins de trouver des alternatives à la surveillance actuelle, y compris celle qui domine les projets olympiques. Les réseaux sociaux regorgent d’inquiétudes quant aux “menaces” qui pèsent sur notre sécurité, et ceux qui identifient leurs enfants ou installent des sonnettes intelligentes avec des caméras pourraient bien croire au battage médiatique sur les avantages de la surveillance pour se protéger. Harcourt nous invite à voir au-delà de la simple exposition, à lutter pour un monde très différent.
“Nombreux sont ceux qui adoptent le principe trompeur du ‘je n’ai rien à cacher, donc la surveillance ne me gène pas’”
Quelles seraient les conséquences générales de la surveillance sur les citoyens ?
Cela dépend de la culture de surveillance des pays ou des régions. Il n’y a pas de réponse simple. Par exemple, même s’il existe des différences historiques majeures entre la Chine et les États-Unis, deux facteurs identiques entrent en jeu : les entreprises travaillent en étroite collaboration avec le gouvernement, et les citoyens ont des points de vue différents sur la manière dont les autres affectent leur vie. Aux États-Unis, le succès des entreprises de la Silicon Valley au XXIe siècle est une telle question de fierté que nombreux sont ceux qui adoptent le principe trompeur du “je n’ai rien à cacher, donc la surveillance ne me gène pas”. En outre, les patriotes du pays croient souvent que leurs agences de sécurité et de renseignement sont essentielles à leur bien-être, même après qu’Edward Snowden a démontré que la National Security Agency (NSA) espionnait illégalement tout un chacun. En Chine, en revanche, comme l’a démontré la chercheuse Ariane Ollier-Malaterre, beaucoup de citoyens sont conscients et mécontents de l’ampleur de la surveillance gouvernementale, le pays ayant ainsi le ratio de caméra par habitant le plus élevé au monde. Mais les gens ont néanmoins largement recours aux grandes entreprises, telles que Tencent, WeChat, TikTok, Weibo, Alibaba, notamment parce que la Chine se dirige rapidement vers une société sans possibilité de payer en argent liquide. La plupart des transactions quotidiennes peuvent être effectuées à l’aide de téléphones. Mais le pays possède aussi une culture de surveillance ancienne, qui impose un respect généralisé pour les formes les plus récentes – même si, lorsqu’on leur pose la question, de nombreux Chinois se montrent sceptiques et irrités quant à l’étendue de la surveillance actuelle.
Source link : https://www.lesinrocks.com/societe/jo-2024-david-lyon-nous-transportons-dans-nos-poches-les-moyens-de-notre-propre-surveillance-625000-25-07-2024/
Author : Nidal Taibi
Publish date : 2024-07-25 15:59:55
Copyright for syndicated content belongs to the linked Source.