La reconnaissance faciale gagne du terrain | Revue de presse n°20
J'ai sélectionné des nouvelles importantes sur l'intelligence artificielle pendant la semaine du 18 au 24 août 2025. Voici mon commentaire.
Bienvenue dans la vingtième revue de presse de Réalité artificielle. Je me suis focalisé cette semaine sur la reconnaissance faciale, la surveillance de masse et la souveraineté numérique. Bonne lecture!
📰 À lire
La reconnaissance faciale gagne du terrain
La reconnaissance faciale, une technologie de surveillance et d’identification reposant sur l’intelligence artificielle, est de plus en plus utilisée à travers le monde et présente de nombreux risques, indique Le Monde dans un article publié lundi.
Cette technologie permet par exemple aux forces de l’ordre ou à des entreprises de surveillance privées d’obtenir les noms de toutes les personnes qui passent devant une caméra grâce à un système d’identification automatique qui analyse les visages.
«Qu’il s’agisse d’aéroports, de transport, de contrôle aux frontières, de résolution d’affaires criminelles et bien plus encore, au fil des années, la reconnaissance faciale n’a cessé de se banaliser dans le monde», explique la journaliste Marjorie Cessac. Ce marché pèse $8 milliards aujourd’hui et pourrait s’élever à $18 milliards en 2030.
Les secrets de la reconnaissance faciale (Amnesty, 2022)
La reconnaissance faciale est utilisée notamment à des fins de surveillance de masse. Son utilisation est très répandue en Chine, où les citoyennes et citoyens sont constamment observés dans les rues et se voient attribuer des points en fonction de leur respect des lois. Mais elle se développe également dans les pays occidentaux, par exemple au Royaume-Uni où elle est de plus en plus utilisée dans les supermarchés et les boîtes de nuit.
En Chine, des caméras devinent qui sont les passants dans la rue (Le Monde, 2017)
L’Union européenne bénéfice de plusieurs garde-fous dans ce domaine, tels que le règlement général sur la protection des données (RGPD) et le règlement sur l’intelligence artificielle (AI Act). Ce dernier stipule que les systèmes d’identification biométrique, dont fait partie la reconnaissance faciale, présentent des risques inacceptables pour les droits fondamentaux des personnes s’ils sont déployés dans des zones accessibles au public et s’ils fonctionnent en temps réel et à distance. Les contextes de sécurité nationale ou de contrôle aux frontières font toutefois l’objet d’exceptions, comme dans les aéroports par exemple.
«L’AI Act encadre partiellement la reconnaissance faciale en temps réel, mais on voit bien que son usage peut être aussi problématique a posteriori, quand des manifestants sont arrêtés plusieurs jours après. C’est ce qu’il s’est passé en Russie en 2021», souligne Katia Roux, chargée de plaidoyer à Amnesty International France.
Utilisation illégale
Malgré ce cadre légal, le parlement en Hongrie a autorisé en mars l’utilisation de la reconnaissance faciale pour identifier les personnes participant à la Marche des fiertés, désormais interdite par la loi. Et en novembre 2023, Disclose a révélé que la police nationale française avait utilisé illégalement un logiciel de reconnaissance faciale de l’entreprise israélienne BriefCam pendant huit ans, dans le plus grand secret.
«Des entreprises comme BriefCam continuent de vendre dans les villes leur logiciel de vidéosurveillance algorithmique, et ce qu’il se passait avant les Jeux Olympiques se poursuit dans l’impunité la plus totale», déplore Noémie Levain, juriste au sein de La Quadrature du Net. En janvier, le tribunal administratif de Grenoble a donné raison à cette association de défense des droits fondamentaux dans l’affaire qui l’opposait à la ville de Moirans, dans l’est de la France, en reconnaissant l’illégalité de ce logiciel de vidéosurveillance utilisé pourtant par de nombreuses communes.
Le gouvernement français ne souhaite toutefois pas en rester là. Le 23 mai, le ministre de la justice Gérald Darmanin a annoncé le lancement d’un groupe de travail sur la reconnaissance faciale, qu’il souhaite mettre en place dans l’espace public et les aéroports. L’objectif est de «créer un cadre légal» permettant d’«introduire cette mesure dans notre législation», alors qu’il est interdit d’identifier et de suivre quelqu’un en direct.
Quelques jours plus tôt, le garde des sceaux indiquait sur son compte X que la technologie et la reconnaissance faciale constituaient selon lui «les solutions pour lutter drastiquement contre l’insécurité» et que «malheureusement, le Parlement s’y [était] toujours opposé jusqu’à présent». «Considérée naguère comme une ligne rouge, la reconnaissance faciale est désormais assumée par des membres du gouvernement alors que les risques sont documentés», commente Katia Roux.
Des arrestations par erreur
Maître de conférences en droit public, Caroline Lequesne a fait partie du comité d’évaluation qui a suivi l’expérimentation de la vidéosurveillance algorithmique dans le cadre des Jeux olympiques et paralympiques de Paris en 2024. Dans une interview avec Le Monde publiée lundi, elle observe une intensification du lobbying de la part des industriels et des politiques pour mener davantage d’expérimentations avec la reconnaissance faciale.
Caroline Lequesne déplore le fait qu’au niveau juridique «les lignes sont interprétées de manière discutable» et qu’il n’y a pas de grand débat citoyen sur cette technologie controversée. Selon elle, «il y a une petite musique qui monte et qui dit que si vous voulez être en sécurité, il faut de la reconnaissance faciale. L’idée gagne du terrain auprès du public.»
Elle affirme qu’il faut informer les citoyennes et les citoyens pour leur dire que «non seulement la reconnaissance faciale n’apporte pas plus de sécurité mais que, en plus, elle coûte cher et engendre de nouveaux risques». Elle donne un exemple:
«Nombre de personnes se retranchent derrière l’idée qu’elles n’ont rien à cacher. Or, l’intelligence artificielle fonctionne par déductions. Elle crée des profils qui peuvent vous catégoriser d’une manière que vous n’auriez sans doute pas imaginée. Peut-être que, sans le savoir, vous ressemblez à une personne recherchée ou que votre démarche, vos expressions ne correspondent pas à la «norme» de l’algorithme. Le public ne mesure pas l’impact des erreurs qui peuvent être commises par l’IA. Aux États-Unis, où ces outils sont très développés, les arrestations par erreur demeurent nombreuses et éprouvantes pour ceux qui les subissent.»
Elle s’inquiète aussi du déploiement de la reconnaissance faciale dans les supermarchés ou les stades, par exemple. «[Sa banalisation] ne serait pas sans conséquence sur notre vivre-ensemble: la fin de l’anonymat, c’est aussi la fin des conditions de la démocratie.»
La reconnaissance faciale présente également des risques en termes de protection des données. Les informations biométriques hautement sensibles qui sont enregistrées par ce système peuvent en effet être la cible de cyberattaques. Des criminels peuvent alors utiliser ces données pour usurper l’identité des victimes, par exemple à l’aide de deepfakes.
Pas d’interdiction nationale en Suisse
En Suisse, certaines villes comme Lausanne et Zurich ont banni la reconnaissance faciale de l’espace public mais il n’existe pour l’instant aucune loi qui la restreint au niveau national.
Genève Aéroport souhaite désormais l’utiliser pour ficher les passagers. Des caméras installées à différents points de passage de l’aéroport analyseraient les visages des passagers et leur permettrait de passer les portails de sécurité ou d’embarquer dans leur avion, explique la RTS dans un reportage diffusé en avril. Ce projet est partagé avec les autres aéroports du pays, qui ont besoin d’une autorisation explicite de la Confédération avec une révision de la loi sur l’aviation, qui pourrait arriver au plus tôt à la fin 2026.
En février, Le Temps a révélé que Coop a installé en toute discrétion des caméras de vidéosurveillance algorithmique dans plusieurs de ses magasins afin de détecter les vols aux caisses automatiques. Ces caméras «intelligentes» ne font pas de la reconnaissance faciale mais pourraient tout de même identifier des clients sur la base de caractéristiques biométriques comme leur taille, leur corpulence ou leur démarche. Un pas de plus en direction d’une surveillance de masse reposant sur l’intelligence artificielle.
Reconnaissance faciale, tous sous l’œil des caméras? (RTS, 2025)
Sept nouvelles importantes cette semaine
Surveillance de masse: l’IA utilisée pour cibler les migrants et les étudiants étrangers aux États-Unis (Amnesty International)
L’entreprise américaine Palantir suspectée de créer une base de données géante sur les citoyens (Le Monde)
Microsoft employees occupy headquarters in protest of Israel contracts (The Verge)
Real Footage Combined With AI Slop About DC Is Creating a Disinformation Mess on TikTok (404 Media)
Lis les autres articles de la semaine que j’ai sélectionnés en cliquant ici.
🎥 À regarder
La surveillance de masse se renforce
Dans une vidéo publiée vendredi, la journaliste Taylor Lorenz interviewe Albert Fox Cahn, le fondateur de S.T.O.P., une organisation de protection de la vie privée basée à New York.
Ils abordent plusieurs thèmes d’actualité tels que les nouvelles mesures de vérification de l’âge de certaines plateformes sur internet, la surveillance en ligne et la reconnaissance faciale.
«On est en train de créer un système de surveillance autoritaire, à un moment où l’État de droit s’effondre.»
«Il ne s’agit pas seulement de se demander “Est-ce que j’ai quelque chose à cacher?”. Comment vis-tu ta vie quand tu remets en question l’impression que tu donnes à un observateur externe lors de chaque décision que tu prends? Il y a un coût psychologique à ce genre de vie, quand tu marches dans la rue et que tu te demandes “Oh, est-ce que l’algorithme pense que j’ai une bonne expression faciale ou a-t-elle l’air problématique?”. Ou quand je sors de chez moi “Oh, est-ce que la reconnaissance faciale enregistre trop souvent que je vais faire des courses?”. Tu ne devrais pas avoir besoin d’avoir toutes ces pensées en arrière-plan dans ton esprit sur toutes les façons dont ton comportement pourrait être mal interprété.»
- Albert Fox Cahn
Landlords Are Using Facial Recognition to Raise Your Rent
Sept vidéos importantes cette semaine
AI Bubble May Finally Be Popping (Breaking Points)
Musk's Self-Driving Tesla Claims Have Been Outright Falsehoods (Forbes)
Agentic AI - how bots came for our workflows and drudgery (Financial Times)
How AI is Pushing Tech Workers to Blue-Collar Jobs (Economy Media)
Sam Altman Despises Elon Musk. Now He Is Going After His Companies (Forbes)
The Insane Truth About OpenAI (MagnatesMedia)
From Asimo to Agibot: Asia's humanoid evolution (Bloomberg)
Regarde les autres vidéos de la semaine que j’ai sélectionnées en cliquant ici.
🔈 À écouter
L’importance de la souveraineté numérique
Dans le nouvel épisode de Tech Won’t Save Us, le journaliste Paris Marx discute avec Cecilia Rikap, une professeure d’économie à l’University College de Londres et cheffe de la recherche à l’Institut pour l’innovation et le bien-être publique.
De nombreux pays à travers le monde sont dépendants des entreprises technologiques aux États-Unis. Paris Marx et Cecilia Rikap expliquent quels sont les risques que cela représente et pourquoi il est important que les États développent leur souveraineté numérique.
Écouter Tech Won’t Save Us sur Patreon
Merci d’avoir lu la vingtième revue de presse de Réalité artificielle! Abonne-toi gratuitement pour recevoir les revues directement dans ta boîte mail. Avec un abonnement payant, tu auras également accès à tous les articles ainsi qu'à une newsletter mensuelle exclusive.
Bonne semaine et à dimanche prochain,
Arnaud