Actualités

La surveillance algorithmique : une menace pour les libertés ou une nécessité sécuritaire ?

Les Jeux Olympiques de Paris 2024, avec leur dimension exceptionnelle, ont marqué une étape importante en matière de sécurité publique. Pour la première fois en France, un système de surveillance basé sur l’intelligence artificielle a été déployé à grande échelle, notamment via des caméras intelligentes capables de détecter des comportements suspects en temps réel. Ce dispositif, présenté comme temporaire et adapté au caractère unique de l’événement, pourrait cependant être maintenu au-delà de 2025, soulevant un débat intense sur les enjeux de surveillance et de liberté individuelle.

Un modèle déjà bien établi dans d’autres pays

Certains défenseurs de ce système arguent que la France n’innove pas tant que cela, et que de nombreux pays ont déjà adopté des dispositifs similaires, voire plus avancés. La Chine, par exemple, utilise un réseau dense de caméras intelligentes couplé à des systèmes de reconnaissance faciale dans ses grandes villes, une technologie qui permet de suivre en temps réel les déplacements de millions de personnes. Singapour, de son côté, a mis en place un modèle de « ville intelligente », où les technologies de surveillance sont employées pour améliorer la sécurité mais aussi la gestion urbaine. Même des démocraties occidentales comme le Royaume-Uni, avec son réseau CCTV parmi les plus développés au monde, ont intégré de l’intelligence artificielle pour analyser les images et prédire les actes de délinquance.

Cependant, cette expansion technologique n’est pas sans controverse. Si certains y voient un moyen efficace de prévenir des menaces telles que le terrorisme, d’autres craignent les dérives potentielles, en particulier en termes de respect des libertés individuelles.

Une dérive digne de la science-fiction ?

L’autre partie du débat porte sur les dangers d’une surveillance algorithmique omniprésente. Les critiques s’appuient souvent sur des références culturelles, comme le film Minority Report (2002) de Steven Spielberg, où des crimes sont prévenus avant même qu’ils ne soient commis, ou 1984 de George Orwell, où la surveillance devient une arme politique. Ces œuvres, bien qu’elles relèvent de la fiction, ont contribué à alimenter la crainte d’un État omniscient qui, via des algorithmes, surveillerait et punirait de manière automatisée, sans la médiation humaine nécessaire.

La France, avec son passé de contestation des atteintes aux libertés publiques, voit dans cette surveillance de masse un risque de dérives autoritaires. Ce débat rappelle les tensions survenues lors de la mise en place de l’état d’urgence après les attentats de 2015, où des mesures censées être temporaires ont progressivement été intégrées dans le droit commun, étendant ainsi les pouvoirs de l’État en matière de surveillance.

L’illusion de l’égalité devant l’algorithme

L’argument souvent avancé par les partisans de ces dispositifs est que si l’on n’a « rien à se reprocher », on ne devrait pas craindre cette surveillance. Mais cette vision binaire occulte un problème bien plus profond : l’algorithme, bien qu’il se prétende neutre, n’est pas exempt de biais.

En effet, les systèmes d’intelligence artificielle se nourrissent des données du passé, et ces données sont souvent marquées par des discriminations historiques. Aux États-Unis, plusieurs études ont montré que les systèmes de reconnaissance faciale sont beaucoup moins précis pour identifier les personnes issues des minorités ethniques. De plus, certains algorithmes prédictifs utilisés par la justice pénale américaine ont été accusés de reproduire des schémas de discrimination raciale, attribuant un risque de récidive plus élevé aux Afro-Américains qu’aux Blancs pour des infractions similaires.

Ce phénomène pourrait aisément se reproduire en France. Le contexte carcéral français est déjà révélateur d’inégalités systémiques : une proportion importante des personnes incarcérées sont issues des minorités, et cette surreprésentation se poursuit une fois sorties de prison, avec des difficultés accrues pour accéder à l’emploi. L’introduction d’un système de surveillance algorithmique ne pourrait que renforcer ces disparités, en orientant la vigilance sur certains profils, souvent au détriment des plus précaires. Comme l’histoire l’a montré, les technologies de surveillance ont toujours tendance à se concentrer sur les populations déjà marginalisées.

L’influence internationale : des choix divergents

À l’international, tous les pays ne suivent pas la même voie en matière de surveillance par intelligence artificielle. En Allemagne, par exemple, l’utilisation de la reconnaissance faciale dans les espaces publics a été rejetée, en partie à cause de l’histoire du pays avec les régimes autoritaires. Ce rejet est également motivé par une volonté de protéger strictement la vie privée des citoyens, ce qui contraste avec l’approche adoptée dans d’autres nations.

En France, la question reste ouverte. En 2021, la Commission nationale de l’informatique et des libertés (CNIL) avait déjà exprimé des réserves sur l’usage des caméras intelligentes, insistant sur le besoin de réguler strictement ces technologies. Le débat sur l’utilisation à long terme des systèmes déployés pendant les Jeux Olympiques met donc en lumière des tensions profondes entre sécurité et liberté.

Le piège des inégalités automatisées

En fin de compte, la question n’est pas simplement de savoir si l’on a « quelque chose à se reprocher » ou non. Le vrai danger réside dans la façon dont les algorithmes, en s’appuyant sur des données imparfaites, peuvent perpétuer des inégalités déjà existantes. Alors que la France se trouve à un tournant en matière de sécurité et de technologie, il est essentiel de se demander si la solution proposée ne risque pas de faire peser le fardeau de cette surveillance accrue sur les populations les plus vulnérables.

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page