Les raisons pour lesquelles nous ne pouvons pas désirer la reconnaissance faciale dans une démocratie

Le texte suivant est rédigé par Angela Müller, Head of Policy & Advocacy chez AlgorithmWatch Suisse. Il est publié pour la première fois sous le titre « Gesichtserkennung im öffentlichen Raum gehört verboten » (La reconnaissance faciale dans l’espace public doit être interdite) comme article invité dans le NZZ am Sonntag du 17 juillet 2022. Pour la publication en tant que position de la GMS, celui-ci a légèrement été remanié à certains endroits.

 

Si l’espace public est placé sous surveillance à l’aide de la reconnaissance faciale ou d’autres systèmes de reconnaissance biométrique, cela devient une menace pour les droits fondamentaux et pour la démocratie.

 

En Ukraine, une technologie de reconnaissance faciale aide à rechercher les personnes disparues ou à identifier les morts, comme l’a confirmé le vice-président du gouvernement peu après le début de la guerre. Le groupe Clearview.AI met gratuitement à la disposition du pays le système correspondant. La Russie exploite de telles technologies au-delà du contexte militaire. A Moscou, ce ne sont pas uniquement les tickets de métro qui peuvent être payés via le scan du visage, mais près de 200 000 caméras de surveillance de la métropole qui servent également à identifier les manifestants lors de protestations, par exemple en soutien à l’opposant Alexei Navalny.

 

La Russie et l’Ukraine ne sont pas des cas isolés. Partout en Europe, des systèmes de reconnaissance biométrique à distance sont aujourd’hui utilisés, y compris dans un contexte civil. Il ne s’agit pas de systèmes d’authentification permettant de déverrouiller un smartphone par exemple, mais de systèmes capables de nous identifier dans la masse à l’aide de nos données biométriques, telles que le visage ou la voix, grâce à l’utilisation d’une base de données. En Suisse, ces systèmes sont utilisés par certains corps de police, mais également par des stades de football et des supermarchés.

 

A première vue, cela semble être un instrument que nous devrions utiliser pour une application plus efficace de la loi et pour garantir la sécurité. Toutefois, les choses ne sont pas aussi simples. Aux Etats-Unis par exemple, plusieurs personnes ont été arrêtées par erreur parce qu’un système de reconnaissance faciale les avait mal identifiées. Souvent, il s’agit de personnes de couleurs. Leurs visages sont souvent insuffisamment représentés dans les données d’entraînement avec lesquelles les systèmes ont été développés, ce qui a pour conséquence que les systèmes reconnaissent moins bien les visages à la peau foncée. Il en est de même pour les visages non masculins.

 

Une amélioration de la technologie ne résout cependant pas le problème. En effet, indépendamment du fait qu’elle fonctionne bien ou mal : lorsqu’elle est utilisée dans les espaces accessibles au public, lorsque les places publiques, les gares, les stades ou les centres commerciaux disposent de l’infrastructure permettant d’identifier des personnes à tout moment et de manière automatisée, cela nous concerne fondamentalement, nous et notre démocratie. Non seulement cela enfreint notre droit à la vie privée, mais cela peut aussi nous empêcher d’exprimer nos opinions ou de nous rassembler.

 

Le simple fait de savoir que nous pourrions potentiellement être reconnus et par conséquent suivis et surveillés, conditionnera notre comportement : cela peut nous dissuader de nous rendre dans des lieux ou des événements qui pourraient fournir des informations sur notre opinion politique, notre orientation sexuelle ou notre religion. Des sources pourraient éviter de rencontrer des journalistes, des élu.e.s pourraient renoncer à des rencontres privées, les sans-papiers éviteraient complètement l’espace public. Que la surveillance soit effectuée ou non dans une situation donnée n’est même pas déterminant à cet égard, étant donné que les systèmes fonctionnent à distance, nous ne pouvons pas savoir quand et où ils sont utilisés. De plus : de manière générale, les personnes déjà défavorisées, victimes de discrimination et appartenant à des minorités sont davantage exposées à des mesures de surveillance, celles-ci sont par exemple plus souvent mises en place dans les quartiers où le taux de criminalité est élevé. En conséquence, leurs résident.e.s seraient également davantage concerné.e.s par les répercussions de la surveillance biométrique. Il en va de même pour les personnes qui s’exposent politiquement.

 

Faudrait-il tout de même accepter ces mesures, dans l’intérêt de la sécurité publique ? Assurer la sécurité est l’une des missions principales de l’Etat. Toutefois, des limites sont imposées à l’action de l’Etat, pour de bonnes raisons. Certains moyens pourraient rendre la poursuite pénale plus efficace et les Etats autoritaires les utiliseraient volontiers : ils vont de l’utilisation de technologies invasives à la torture. Dans un Etat de droit libéral, le point de référence est toutefois clair : ce sont les droits fondamentaux protégés par la Constitution qui nous indiquent où mettre la limite et quels moyens l’Etat peut utiliser ou pas, car ils ne sont pas en adéquation avec notre liberté, notre autonomie et notre dignité. Dans l’espace public, les systèmes de reconnaissance faciale restreignent nos droits fondamentaux de manière disproportionnée affectant ainsi également la participation à la vie et au débat public, ce qui est indispensable à une démocratie saine.

 

Une interdiction des systèmes biométriques d’identification dans les lieux accessibles au public est indiquée. Face à ce contexte, la société civile s’est également mobilisée. Au niveau européen, la campagne « Reclaim Your Face  » milite pour une interdiction à l’échelle de l’UE ; au niveau international, plus de 200 organisations réclament une interdiction mondiale. En Suisse, les ONG AlgorithmWatch CH, Amnesty International et la Société Numérique ont lancé la campagne « Stop à la reconnaissance faciale » afin d’obtenir l’interdiction de la reconnaissance biométrique dans les lieux publics. Une première pétition a été signée par plus de 10 000 personnes. Les politicien.n.e.s de gauche à droite ont reconnu la nécessité d’agir et soutiennent cette campagne. Depuis le début, des interventions en faveur d’une telle interdiction ont été déposées à Zurich, Lausanne ou Bâle et ont déjà porté leurs fruits. Ainsi, la ville de Zurich veut interdire les systèmes d’identification biométrique pour ses autorités.

 

Si nous voulons, en tant qu’individus et en tant que société, profiter de l’utilisation des nouvelles technologies, nous devons créer ensemble les conditions-cadres nécessaires en définissant des lignes de conduite claires, là où la technologie ne nous est plus utile, mais nuisible. Avec la reconnaissance faciale dans l’espace public, les conditions seraient établies pour quelque chose que nous ne pouvons pas désirer, ni pour nous-mêmes ni pour notre démocratie.

 

 

Dr. des. Angela Müller, Head of Policy & Advocacy, AlgorithmWatch CH

Algorithm Watch CH est une organisation à but non lucratif qui s’intéresse à l’impact des systèmes algorithmiques sur l’homme et la société et qui s’engage pour que leur utilisation respecte les droits fondamentaux, la démocratie et l’Etat de droit. Angela Müller a étudié la philosophie politique et rédigé une thèse de droit sur les droits de l’homme dans le contexte de la mondialisation et des nouvelles technologies.

 

 

La position comme PDF

 

 

Point de vue