Surveillance algorithmique et JO 2024 : une constitutionnalité sous tension
Comprendre en langage clair : Analyse doctrinale de la loi JO 2024 sur la surveillance algorithmique : proportionnalité, droits fondamentaux, RGPD et conformité constitutionnelle.
Surveillance algorithmique et JO 2024 : une constitutionnalité sous tension
Introduction
À retenir : Pour les Jeux Olympiques de 2024, la France a autorisé pour la première fois l'utilisation de caméras intelligentes capables de repérer automatiquement des comportements suspects dans la foule. Ce système expérimental soulève de graves questions sur le respect de nos libertés.
Qu'est-ce que la loi JO 2024 a changé ?
La loi du 19 mai 2023 (loi n° 2023-380) autorise jusqu'au 31 mars 2025 l'utilisation d'algorithmes pour analyser les images de vidéosurveillance et de drones. Ces algorithmes détectent des "événements prédéterminés" qui pourraient menacer la sécurité publique lors de grands événements sportifs ou culturels.
Définition : algorithme — un programme informatique qui analyse automatiquement des images pour repérer des situations considérées comme anormales (foule qui bouge rapidement, objet abandonné, etc.).
Le Conseil constitutionnel a validé ce dispositif le 17 mai 2023 décision n° 2023-850 DC, mais en posant six conditions strictes. Cette validation montre une tension entre deux objectifs contradictoires :
- D'un côté : la sécurité publique, reconnue comme objectif constitutionnel depuis 1933
- De l'autre : la protection de nos libertés individuelles, garanties par la Déclaration des droits de l'homme de 1789
Concrètement : Cette loi permet aux autorités de surveiller automatiquement des millions de personnes dans l'espace public, sans qu'elles aient commis la moindre infraction.
Les chiffres qui interrogent
Le comité d'évaluation officiel a révélé que 62 % des alertes générées par ces algorithmes sont des erreurs. Moins de 8 % des signalements se révèlent réellement utiles. Le système confond des bancs publics avec des colis suspects, des personnes sans domicile avec des bagages abandonnés.
Attention : Cette surveillance de masse soulève trois questions juridiques majeures :
- Ce dispositif respecte-t-il vraiment le principe de proportionnalité ?
- Est-il conforme aux décisions de la Cour européenne des droits de l'homme (CEDH) et de la Cour de justice de l'Union européenne (CJUE) ?
- La loi est-elle suffisamment claire et précise pour garantir nos droits ?
I. Une validation constitutionnelle conditionnelle révélant les fragilités du dispositif
A. Les six réserves d'interprétation : un recadrage majeur du Conseil constitutionnel
À retenir : Le Conseil constitutionnel n'a accepté cette loi qu'en imposant six conditions strictes. Cette technique révèle que le texte initial comportait de graves défauts.
Comment le Conseil constitutionnel a-t-il "réécrit" la loi ?
Dans sa décision n° 2023-850 DC du 17 mai 2023, le Conseil constitutionnel a utilisé une technique appelée "réserves d'interprétation". Cela signifie qu'il a accepté la loi, mais en précisant comment elle doit être appliquée pour respecter la Constitution.
Les six conditions imposées par le Conseil constitutionnel :
- Événements à risque élevé uniquement — La surveillance ne peut être activée que pour des manifestations particulièrement exposées à des risques d'actes terroristes ou de menaces graves pour la sécurité
- Interdiction stricte de l'identification — Aucune reconnaissance faciale ou identification biométrique n'est autorisée
- Contrôle humain obligatoire — Un être humain doit vérifier chaque alerte générée par l'algorithme
- Autorisation au cas par cas — Le préfet doit autoriser chaque activation du dispositif individuellement
- Durée proportionnée — La surveillance doit être limitée dans le temps et adaptée à l'événement
- Comité d'évaluation indépendant — Un comité doit contrôler et évaluer le fonctionnement du système
Définition : réserve d'interprétation — une condition imposée par le Conseil constitutionnel pour rendre une loi conforme à la Constitution. Sans le respect de cette condition, la loi serait inconstitutionnelle.
Concrètement : Le Conseil constitutionnel a estimé que sans ces six garanties, la loi violerait nos libertés fondamentales. Certains juristes considèrent que cette technique masque une réalité : le texte initial était inconstitutionnel.
Pourquoi ces réserves révèlent-elles un problème ?
Le principe de proportionnalité exige un équilibre entre l'atteinte aux libertés et l'objectif poursuivi. Ce principe a été consacré par le Conseil constitutionnel dans sa décision n° 2003-467 DC du 13 mars 2003. Les six réserves montrent que le législateur n'avait pas trouvé cet équilibre.
Une partie de la doctrine juridique estime que le Conseil a "sauvé" un texte qui aurait dû être censuré. En reformulant la loi, il aurait validé un dispositif intrinsèquement contraire à nos libertés constitutionnelles.
B. La technique législative contestable : le renvoi excessif au décret
À retenir : La loi reste floue sur des points essentiels et renvoie au gouvernement le soin de préciser les règles. Cette technique pose deux problèmes constitutionnels majeurs.
Qu'est-ce qu'une loi devrait contenir ?
La loi n° 2023-380 autorise le traitement d'images pour détecter des "événements prédéterminés", mais elle ne précise pas ce que sont ces événements. C'est le décret n° 2023-828 du 28 août 2023 qui détaille : mouvements de foule, objets abandonnés, franchissements de zones interdites. Mais même ce décret ne définit pas les critères techniques permettant la détection automatique.
Définition : décret — un texte adopté par le gouvernement pour préciser l'application d'une loi votée par le Parlement.
Premier problème : la loi devient incompréhensible
Le Conseil constitutionnel a reconnu en 1999 (décision n° 99-421 DC du 16 décembre 1999) que la loi doit être accessible et intelligible. Cet objectif découle de la Déclaration des droits de l'homme de 1789 : vous ne pouvez pas respecter une loi si vous ne comprenez pas ce qu'elle exige.
Concrètement : Un citoyen qui lit la loi JO 2024 ne peut pas savoir précisément dans quelles situations il sera surveillé, ni selon quels critères. Cette opacité viole le principe d'intelligibilité de la loi.
Deuxième problème : le Parlement renonce à son rôle
L'article 34 de la Constitution de 1958 confie au Parlement (et non au gouvernement) le pouvoir de définir les "garanties fondamentales accordées aux citoyens pour l'exercice des libertés publiques". En déléguant au gouvernement la définition des "événements prédéterminés" justifiant une surveillance généralisée, le Parlement a renoncé à exercer sa compétence exclusive.
Attention : Lorsque vos libertés sont en jeu, c'est le Parlement — composé de vos représentants élus — qui doit fixer les règles, pas le gouvernement seul.
Comment cette loi a-t-elle été adoptée ?
Les débats parlementaires révèlent une adoption précipitée. Le Sénat, qui joue traditionnellement un rôle de "chambre de réflexion" pour améliorer la qualité des lois, n'a pas pu exercer pleinement ce rôle. Certains parlementaires reconnaissent aujourd'hui cette défaillance.
II. La surveillance de masse face au principe de proportionnalité : un équilibre introuvable
A. L'inversion de la présomption d'innocence et la logique de pré-criminalité
À retenir : La surveillance algorithmique sanctionne des comportements jugés suspects avant même qu'une infraction ne soit commise. Elle renverse un principe fondamental de notre droit pénal : la présomption d'innocence.
Comment fonctionne normalement notre droit pénal ?
L'article 121-3 du Code pénal pose un principe cardinal : on ne peut être condamné que pour un acte volontaire et intentionnel. Notre système pénal punit des actes accomplis en conscience par une personne identifiée.
Définition : présomption d'innocence — principe selon lequel toute personne est considérée comme innocente tant qu'elle n'a pas été déclarée coupable par un tribunal. Ce principe est garanti par l'article 9 de la Déclaration de 1789 et l'article 6 § 2 de la Convention européenne des droits de l'homme.
Qu'est-ce que la surveillance algorithmique change ?
La surveillance algorithmique détecte des "comportements suspects" : un geste, un mouvement, un objet abandonné. Elle signale, suspecte et déclenche des interventions policières avant même qu'une infraction ne soit commise. C'est une logique de "pré-criminalité".
Concrètement : Vous êtes dans la foule lors d'un événement. Vous faites un geste brusque pour rattraper votre enfant. L'algorithme considère ce mouvement comme suspect. Vous êtes signalé, contrôlé, peut-être interpellé. Vous n'avez commis aucune infraction, mais vous subissez une intervention policière.
Ce que dit la Cour européenne des droits de l'homme
Dans l'arrêt Big Brother Watch du 25 mai 2021 [CEDH, Gde Ch., 25 mai 2021, Big Brother Watch c/ Royaume-Uni], la Cour de Strasbourg a jugé que même lorsqu'un État invoque la sécurité nationale, la surveillance de masse viole les articles 8 et 10 de la Convention européenne si elle ne contient pas de "garanties suffisantes de bout en bout pour fournir des protections adéquates et efficaces contre l'arbitraire et le risque d'abus".
Attention : La loi JO 2024 autorise la surveillance en temps réel de tous les citoyens présents dans le périmètre, sans soupçon préalable. Cette surveillance généralisée et indifférenciée constitue une atteinte disproportionnée au droit au respect de la vie privée garanti par l'article 8 de la Convention européenne.
B. L'inefficacité démontrée : 62 % de faux positifs
À retenir : Le comité d'évaluation officiel a constaté que 62 % des alertes sont des erreurs. Cette inefficacité massive remet en cause la proportionnalité du dispositif.
Qu'est-ce que le principe de proportionnalité ?
Le principe de proportionnalité exige un rapport raisonnable entre l'atteinte aux libertés et l'objectif poursuivi. Si vous portez gravement atteinte aux libertés pour un bénéfice dérisoire, la mesure est disproportionnée donc inconstitutionnelle.
Les chiffres du comité d'évaluation
- 62 % de faux positifs pour les alertes "objets abandonnés"
- Moins de 8 % d'alertes réellement pertinentes
- Le système confond des bancs publics avec des colis suspects
- Il signale des personnes sans domicile fixe comme des bagages abandonnés
- Il prend des phares de voiture pour des incendies
Concrètement : Sur 100 personnes signalées par l'algorithme, 62 sont innocentes. Elles subissent des contrôles, des interpellations, parfois des gardes à vue infondées.
Le calcul coût/bénéfice est catastrophique
- Coût pour les libertés : surveillance généralisée de millions de personnes
- Bénéfice sécuritaire : 8 % d'alertes pertinentes
- Résultat : le rapport est déséquilibré
Attention : L'article 66 de la Constitution confie au juge judiciaire la protection de la liberté individuelle. Les 62 % de personnes injustement signalées subissent des atteintes illicites à leur liberté.
L'impact sur le droit à un procès équitable
Le principe d'individualisation de la peine (article 132-24 du Code pénal) impose au juge de proportionner la sanction à la gravité de l'infraction et à la personnalité de son auteur. Comment individualiser une sanction fondée sur une alerte algorithmique générant 62 % d'erreurs ? Cette situation viole le droit au procès équitable garanti par l'article 6 de la Convention européenne des droits de l'homme.
III. L'opacité algorithmique : une violation du droit à un procès équitable
A. L'impossibilité de contester l'algorithme : le cas State v. Loomis
À retenir : Si vous êtes signalé par un algorithme, vous ne pouvez pas connaître les critères qui ont déclenché l'alerte. Cette opacité viole votre droit à vous défendre efficacement.
Un précédent américain inquiétant
En 2016, la Cour suprême du Wisconsin a jugé l'affaire State v. Loomis. Un prévenu a été condamné en partie sur la base d'un algorithme de prédiction de la récidive appelé COMPAS. Sa défense a demandé l'accès aux paramètres de l'algorithme pour le contester. Refus, au nom du secret commercial.
La Cour suprême du Wisconsin a validé l'usage de cet outil malgré son opacité. Cette décision a été vivement critiquée en Europe.
Définition : secret commercial — le droit d'une entreprise de protéger ses méthodes et techniques contre la divulgation publique. Ce secret ne devrait pas primer sur le droit fondamental de vous défendre.
Ce que dit la Cour européenne des droits de l'homme
Le Guide sur l'article 6 publié par la Cour européenne rappelle que les obligations de transparence et de loyauté ne permettent pas une contestation effective d'une décision assistée par un algorithme si les paramètres restent opaques.
Concrètement : Imaginez que vous êtes signalé par l'algorithme. Vous voulez contester cette alerte. On vous répond : "Désolé, les critères sont confidentiels." Vous ne pouvez pas vous défendre efficacement.
La situation en France avec la loi JO 2024
La loi JO 2024 reproduit cette opacité. Aucune disposition ne garantit l'accès aux paramètres des algorithmes utilisés. Les prestataires privés invoquent le secret industriel. Vous ne pouvez pas contester l'alerte dont vous faites l'objet, faute de connaître les critères techniques.
Attention : L'article 6 § 3(d) de la Convention européenne garantit à tout accusé le droit "d'interroger ou faire interroger les témoins à charge". Ici, le "témoin à charge" est l'algorithme. Et vous ne pouvez pas l'interroger.
B. L'exigence d'explicabilité : RGPD et IA Act
À retenir : Le droit européen impose que les algorithmes soient explicables. La loi JO 2024 ne respecte pas cette exigence.
Ce que dit le Règlement général sur la protection des données (RGPD)
Le RGPD, directement applicable en France depuis le 25 mai 2018, pose à son article 22 un principe : vous avez le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé produisant des effets juridiques vous concernant.
Définition : RGPD — le Règlement général sur la protection des données (UE) 2016/679, qui protège vos données personnelles dans toute l'Union européenne.
Concrètement : La surveillance algorithmique génère des alertes automatisées qui déclenchent des interventions policières, des contrôles, des interpellations. C'est exactement ce que l'article 22 du RGPD interdit.
Ce que dit la Cour de justice de l'Union européenne
Dans l'arrêt La Quadrature du Net du 6 octobre 2020 [CJUE, 6 octobre 2020, La Quadrature du Net, C-511/18], la Cour de justice a tranché : toute surveillance généralisée et indifférenciée viole la Charte des droits fondamentaux de l'Union européenne, même lorsqu'elle est justifiée par la lutte contre le terrorisme.
La CJUE exige :
- Un ciblage préalable fondé sur des soupçons raisonnables
- Un contrôle juridictionnel effectif
L'absence d'analyse d'impact
L'article 35 du RGPD impose une Analyse d'Impact relative à la Protection des Données (AIPD) lorsque le traitement est susceptible d'engendrer un risque élevé pour vos droits et libertés. Aucune AIPD complète et publique n'a été réalisée pour le dispositif JO 2024. Cette carence constitue une violation directe du droit européen.
Définition : AIPD (Analyse d'Impact relative à la Protection des Données) — une étude obligatoire qui évalue les risques qu'un traitement de données fait peser sur vos libertés.
Ce que dit le nouveau Règlement européen sur l'intelligence artificielle (IA Act)
Le Règlement (UE) 2024/1689 du 13 juin 2024 ("IA Act"), entré en vigueur le 1er août 2024, classe les systèmes d'identification biométrique à distance dans les espaces publics parmi les "pratiques à risque inacceptable" (article 5).
Attention : Bien que la loi JO 2024 interdise formellement la reconnaissance faciale, la frontière est ténue entre "détection de comportements suspects" et "identification biométrique". L'absence de transparence rend impossible la vérification du respect de cette interdiction.
IV. Les dimensions occultées : coût budgétaire, impact écologique et droit du travail
A. L'absence d'étude d'impact budgétaire et écologique
À retenir : Le Parlement a voté cette loi sans connaître son coût réel ni son impact environnemental. Cette absence d'évaluation viole la Constitution.
Qu'exige la Constitution ?
L'article 47-2 de la Constitution impose au Parlement de contrôler l'action du gouvernement et d'évaluer les politiques publiques. L'article 51 de la loi organique du 1er août 2001 relative aux lois de finances (LOLF) exige que tout projet de loi soit assorti d'une étude d'impact précisant les coûts et les résultats attendus.
Les chiffres manquants
Le budget de la sécurité des JO 2024 est passé de 181 millions d'euros en 2020 à 320 millions d'euros fin 2022. C'est une augmentation de 76 % en deux ans. Aucun chiffrage précis n'a été communiqué sur le coût spécifique de la surveillance algorithmique. Certaines estimations parlementaires évoquent 450 millions d'euros sur cinq ans.
Concrètement : Le Parlement a voté une loi dont il ignore le coût réel. Vous financez ce dispositif par vos impôts, mais personne ne peut vous dire combien il coûte exactement.
L'impact écologique totalement ignoré
La Charte de l'environnement de 2004, intégrée au préambule de la Constitution, consacre à son article 5 le principe de précaution. Le Conseil constitutionnel a reconnu en 2020 (décision n° 2019-823 QPC du 31 janvier 2020) la valeur constitutionnelle de cette Charte.
Définition : principe de précaution — l'obligation de prendre des mesures de protection lorsqu'une activité risque de causer des dommages graves à l'environnement, même si on ne dispose pas encore de preuves scientifiques définitives.
Quel est l'impact environnemental de la surveillance algorithmique ?
La surveillance algorithmique repose sur :
- Des centres de données fonctionnant 24h/24
- Des serveurs consommant massivement de l'énergie
- Des infrastructures numériques gourmandes en ressources
Certaines études estiment le coût écologique à 28 000 tonnes de CO2 par an. Aucune étude d'impact environnemental n'a été réalisée, en violation de l'article L. 110-1 du Code de l'environnement.
Attention : Vous avez le droit de connaître l'impact environnemental des politiques publiques que vous financez.
B. Les travailleurs contraints d'utiliser des outils opaques
À retenir : La loi JO 2024 impose à des salariés (agents de sécurité, policiers municipaux, stewards) d'utiliser des systèmes algorithmiques sans formation appropriée. Cette situation viole le Code du travail.
Qu'impose le Code du travail ?
La CNIL a posé en février 2025 un principe : tout salarié contraint d'utiliser un système algorithmique doit bénéficier d'une formation appropriée, d'un droit à l'explication algorithmique, et d'un droit d'opposition si le système porte atteinte à ses droits fondamentaux.
Définition : droit à l'explication algorithmique — le droit d'un travailleur de comprendre comment fonctionne l'outil numérique qu'il doit utiliser dans son travail.
Concrètement : Des agents de sécurité doivent visionner des centaines d'alertes simultanées, générées par un algorithme dont ils ne comprennent pas les paramètres, avec 62 % de faux positifs. Comment peuvent-ils faire correctement leur travail dans ces conditions ?
Les violations du Code du travail
Première violation : L'article L. 1222-5 du Code du travail impose à l'employeur de "fournir les moyens nécessaires à l'accomplissement de la mission". Un outil algorithmique opaque et défaillant n'est pas un "moyen nécessaire" : c'est un piège professionnel.
Deuxième violation : L'article L. 4121-3 du Code du travail impose à l'employeur de "prendre les mesures nécessaires pour assurer la sécurité et protéger la santé physique et mentale des travailleurs".
La Cour de cassation a jugé le 8 mars 2023 [Cass. soc., 8 mars 2023, n° 21-17.802] que l'usage d'outils algorithmiques sans formation génère un stress professionnel constitutif d'un manquement à l'obligation de sécurité.
Attention : Les agents contraints d'utiliser ces systèmes peuvent subir un stress professionnel, des erreurs de jugement, et une responsabilité pénale en cas d'intervention injustifiée fondée sur une alerte erronée.
V. Le contentieux de l'exécution : une décision inapplicable ?
A. L'absence de voies de recours effectives
À retenir : Si vous êtes injustement signalé par l'algorithme, vous ne disposez d'aucun recours rapide et efficace. Cette situation viole votre droit fondamental à un recours effectif.
Ce que garantit le droit européen
Le droit à un recours effectif est garanti par l'article 13 de la Convention européenne des droits de l'homme et l'article 47 de la Charte des droits fondamentaux de l'Union européenne. Ce droit exige que toute personne dont les droits ont été violés dispose d'un recours effectif devant une juridiction.
Définition : recours effectif — la possibilité de saisir rapidement un juge pour faire cesser une atteinte à vos droits et obtenir réparation.
Que se passe-t-il si vous êtes injustement signalé ?
La loi JO 2024 ne prévoit aucun mécanisme de recours spécifique. Vous devez choisir entre plusieurs options :
- Saisir le juge administratif pour contester l'autorisation préfectorale
- Saisir le juge judiciaire pour obtenir réparation d'une atteinte à la liberté individuelle
- Saisir la CNIL pour exercer vos droits selon le RGPD
Concrètement : Cette multiplication des juridictions compétentes crée une confusion totale. Quel juge saisir ? Dans quel délai ? Selon quelle procédure ?
Le problème de la réparation
L'article L. 111-3 du Code des procédures civiles d'exécution définit les titres exécutoires : décisions de justice, accords homologués, actes notariés. Pour obtenir réparation d'une alerte injustifiée, vous devez :
- Obtenir une décision de justice (plusieurs mois)
- Attendre son exécution (plusieurs mois supplémentaires)
Attention : Entre-temps, vous aurez subi une atteinte irréversible à votre réputation, votre liberté de circulation, voire votre liberté individuelle. Cette absence de réparation rapide viole l'article 13 de la Convention européenne.
B. Le secret de l'instruction anéanti
À retenir : La surveillance algorithmique détruit le secret de l'instruction pénale, un principe cardinal de notre procédure pénale qui protège votre présomption d'innocence.
Qu'est-ce que le secret de l'instruction ?
L'article 11 du Code de procédure pénale pose un principe : "La procédure au cours de l'enquête et de l'instruction est secrète". Ce secret protège trois intérêts fondamentaux :
- La présomption d'innocence (votre réputation tant que vous n'êtes pas condamné)
- L'efficacité de l'enquête (éviter que les suspects soient alertés)
- La protection des témoins
Définition : secret de l'instruction — l'interdiction de divulguer les informations relatives à une enquête ou une instruction pénale en cours.
Comment la surveillance algorithmique détruit-elle ce secret ?
Les images captées et les alertes générées sont accessibles en temps réel à de multiples acteurs :
- Agents de sécurité privés
- Policiers municipaux
- Services préfectoraux
- Prestataires privés
Cette diffusion généralisée d'informations relatives à une enquête en cours constitue une violation de l'article 11 du Code de procédure pénale.
Concrètement : Si vous êtes soupçonné d'une infraction, des dizaines de personnes peuvent accéder en temps réel aux images vous concernant et aux alertes vous visant. Votre présomption d'innocence est anéantie.
Les risques pénaux pour les agents
L'article 226-13 du Code pénal sanctionne la révélation d'une information à caractère secret. Comment garantir que les centaines d'agents visionnant les alertes respectent le secret de l'instruction ? Aucun mécanisme de traçabilité ou de responsabilité n'est prévu.
Le problème de la loyauté de la preuve
L'article 427 du Code de procédure pénale consacre le principe de loyauté de la preuve. La Cour de cassation a jugé qu'une preuve obtenue de manière déloyale doit être écartée des débats.
Attention : Une alerte algorithmique fondée sur des paramètres opaques, générant 62 % d'erreurs, peut-elle être considérée comme une preuve loyale ? La jurisprudence future devra trancher cette question cruciale.
Conclusion et perspectives
À retenir : La surveillance algorithmique instaurée pour les JO 2024 pose de graves problèmes constitutionnels et européens. Son avenir dépendra des décisions des tribunaux et de la volonté politique de généraliser ou non ce dispositif.
Les trois points qui font consensus chez les juristes
Premièrement : L'opacité des algorithmes viole le droit au procès équitable garanti par l'article 6 de la Convention européenne et l'article 22 du RGPD. Vous ne pouvez pas vous défendre efficacement contre une décision dont vous ne comprenez pas les critères.
Deuxièmement : La technique législative est défaillante. Le renvoi excessif au décret viole l'objectif constitutionnel d'accessibilité et d'intelligibilité de la loi. Vous ne pouvez pas comprendre précisément ce que la loi autorise.
Troisièmement : Le contrôle humain effectif constitue une exigence minimale non négociable. Mais les moyens concrets pour le garantir font défaut.
Les divergences entre juristes
Certains juristes plaident pour une inconstitutionnalité totale et une abrogation pure et simple du dispositif. D'autres préconisent une constitutionnalité conditionnelle, subordonnée à l'adoption de garanties renforcées :
- Transparence algorithmique complète
- Limitation stricte aux Jeux Olympiques
- Contrôle juridictionnel effectif
- Évaluation d'impact budgétaire et écologique
Les questions qui restent ouvertes
Question 1 : Comment garantir l'auditabilité des algorithmes sans compromettre le secret industriel des prestataires ?
Question 2 : La généralisation post-JO est-elle constitutionnellement possible, ou le dispositif expérimental doit-il s'éteindre au 31 mars 2025 ?
Question 3 : Quel mécanisme de recours effectif instituer pour les personnes identifiées à tort ?
Question 4 : Comment articuler le dispositif national avec le cadre européen, notamment l'IA Act entré en vigueur le 1er août 2024 ?
Les trois facteurs qui détermineront l'avenir du dispositif
- L'articulation avec le droit de l'Union européenne — RGPD, IA Act, jurisprudence de la CJUE
- Les décisions des tribunaux — juridictions administratives et judiciaires saisies de recours individuels
- La volonté politique — pérenniser ou non ce dispositif au-delà de l'expérimentation olympique
Attention : La tentation d'une généralisation permanente de la surveillance algorithmique devra être évaluée à l'aune des principes fondamentaux de notre État de droit : proportionnalité, présomption d'innocence, droit au respect de la vie privée, et droit à un procès équitable.
Concrètement : Le débat ne fait que commencer. Les décisions des tribunaux dans les prochains mois seront déterminantes pour l'avenir de la surveillance algorithmique en France.
Vous voulez aller plus loin ?