Surveillance algorithmique et JO 2024 : une constitutionnalité sous tension
Analyse doctrinale de la loi JO 2024 sur la surveillance algorithmique : proportionnalité, droits fondamentaux, RGPD et conformité constitutionnelle.
Surveillance algorithmique et JO 2024 : une constitutionnalité sous tension
Introduction
L'article 10 de la loi n° 2023-380 du 19 mai 2023 relative aux jeux Olympiques et Paralympiques de 2024 a introduit dans le droit français un dispositif expérimental de surveillance algorithmique dans l'espace public. Ce texte autorise, jusqu'au 31 mars 2025, le traitement automatisé d'images captées par vidéoprotection ou drones pour détecter des « événements prédéterminés » susceptibles de troubler l'ordre public lors de manifestations sportives, festives ou culturelles.
Validé sous réserves d'interprétation par le Conseil constitutionnel dans sa décision n° 2023-850 DC du 17 mai 2023, ce dispositif soulève néanmoins de profondes interrogations juridiques. Il cristallise une tension fondamentale entre deux exigences constitutionnelles concurrentes : la sécurité publique, objectif de valeur constitutionnelle reconnu depuis l'arrêt Benjamin de 1933, et la protection des libertés individuelles garanties par les articles 2 et 4 de la Déclaration des droits de l'homme et du citoyen de 1789.
La doctrine s'interroge : ce dispositif de surveillance de masse, fondé sur des algorithmes opaques et générant 62 % de faux positifs selon le comité d'évaluation officiel, respecte-t-il réellement le principe de proportionnalité ? Est-il conforme à la jurisprudence européenne, notamment l'arrêt Big Brother Watch de la Cour européenne des droits de l'homme [CEDH, Gde Ch., 25 mai 2021, Big Brother Watch c/ Royaume-Uni] et l'arrêt La Quadrature du Net de la Cour de justice de l'Union européenne [CJUE, 6 octobre 2020, La Quadrature du Net, C-511/18] ? Enfin, la technique législative employée — une loi-cadre renvoyant l'essentiel au décret — garantit-elle la sécurité juridique et l'intelligibilité de la norme ?
IUne validation constitutionnelle conditionnelle révélant les fragilités du dispositif
A.Les six réserves d'interprétation : un recadrage majeur du Conseil constitutionnel
La décision n° 2023-850 DC du 17 mai 2023 constitue un cas d'école en matière de technique juridictionnelle. Le Conseil constitutionnel n'a validé l'article 10 de la loi JO 2024 qu'en assortissant sa décision de six réserves d'interprétation substantielles. Cette technique, qui consiste à « réécrire » partiellement le texte pour le rendre conforme à la Constitution, révèle l'ampleur des fragilités initiales du dispositif.
Le Conseil a ainsi posé six conditions cumulatives : le traitement algorithmique ne peut être autorisé que pour des événements « particulièrement exposés à des risques d'actes de terrorisme ou à des risques graves pour la sécurité des personnes » ; toute identification biométrique et reconnaissance faciale est strictement interdite ; un contrôle humain effectif des alertes doit être garanti ; l'autorisation préfectorale doit être délivrée au cas par cas ; la durée d'activation doit être proportionnée à l'événement ; enfin, un comité d'évaluation indépendant doit être institué.
Ces réserves témoignent d'une volonté du juge constitutionnel de préserver le principe de proportionnalité consacré par la jurisprudence issue de la décision n° 2003-467 DC du 13 mars 2003. Toutefois, une partie de la doctrine estime que cette validation conditionnelle masque une inconstitutionnalité substantielle : le Conseil aurait « sauvé » in extremis un texte intrinsèquement contraire au bloc de constitutionnalité en le reformulant.
B.La technique législative contestable : le renvoi excessif au décret
La loi n° 2023-380 se caractérise par une formulation particulièrement imprécise. L'article 10 autorise le traitement d'images pour détecter des « événements prédéterminés », sans préciser la nature de ces événements. Le décret n° 2023-828 du 28 août 2023 précise qu'il s'agit de « mouvements de foule », « objets abandonnés » ou « franchissements de zones interdites », mais sans définir les critères techniques permettant leur détection automatisée.
Cette technique du renvoi au décret soulève deux problèmes constitutionnels majeurs. D'une part, elle contrevient à l'objectif de valeur constitutionnelle d'accessibilité et d'intelligibilité de la loi consacré par la décision n° 99-421 DC du 16 décembre 1999. Le Conseil constitutionnel a jugé que cet objectif découle des articles 4, 5, 6 et 16 de la Déclaration de 1789 : l'égalité devant la loi et la garantie des droits ne peuvent être effectives si les citoyens ne peuvent connaître suffisamment les normes qui leur sont applicables.
D'autre part, ce renvoi viole le principe de compétence du législateur en matière de libertés fondamentales. L'article 34 de la Constitution de 1958 réserve au législateur la définition des « garanties fondamentales accordées aux citoyens pour l'exercice des libertés publiques ». Or, en déléguant au pouvoir réglementaire la définition des « événements prédéterminés » justifiant une surveillance généralisée, le législateur a renoncé à exercer sa compétence exclusive en matière de libertés.
Certains parlementaires ayant participé aux travaux préparatoires reconnaissent aujourd'hui cette défaillance. Les débats de l'Assemblée nationale révèlent une adoption dans la précipitation, sans le temps de maturation qu'offre normalement la navette parlementaire. Le Sénat, gardien traditionnel de la qualité législative, n'a pu exercer pleinement son rôle de chambre de réflexion.
IILa surveillance de masse face au principe de proportionnalité : un équilibre introuvable
A.L'inversion de la présomption d'innocence et la logique de pré-criminalité
Le dispositif de surveillance algorithmique opère une rupture paradigmatique majeure dans notre système pénal. L'article 121-3 du Code pénal pose un principe cardinal : « Il n'y a point de crime ou de délit sans intention de le commettre ». Notre droit répressif ne punit que des actes volontaires et intentionnels, accomplis en conscience par une personne identifiée.
Or, la surveillance algorithmique détecte des « comportements suspects » — un geste, un mouvement, un objet abandonné — avant même qu'une infraction ne soit commise. Elle instaure une logique de « pré-criminalité » : on signale, on suspecte, on intervient en amont de tout élément intentionnel. Cette inversion du principe de légalité criminelle contrevient à la présomption d'innocence garantie par l'article 9 de la Déclaration de 1789 et l'article 6 § 2 de la Convention européenne des droits de l'homme.
La Cour de Strasbourg a rappelé dans l'arrêt Big Brother Watch [CEDH, Gde Ch., 25 mai 2021, Big Brother Watch c/ Royaume-Uni] que même lorsqu'un État invoque la sécurité nationale, la surveillance de masse des communications électroniques viole les articles 8 et 10 de la CEDH si elle ne contient pas « de garanties suffisantes 'de bout en bout' pour fournir des garanties adéquates et efficaces contre l'arbitraire et le risque d'abus ».
La loi JO 2024 autorise le traitement algorithmique d'images captées dans l'espace public, en temps réel, sur des « événements prédéterminés ». Il s'agit d'une surveillance généralisée et indifférenciée de tous les citoyens présents dans le périmètre, sans soupçon préalable. Cette surveillance sans individualisation préalable constitue une atteinte disproportionnée au droit au respect de la vie privée garanti par l'article 8 de la CEDH.
B.L'inefficacité démontrée : 62 % de faux positifs
Le principe de proportionnalité exige un rapport raisonnable entre l'atteinte aux libertés et l'objectif poursuivi. Or, le comité d'évaluation officiel a constaté que 62 % des alertes « objets abandonnés » étaient des faux positifs. Moins de 8 % des alertes se sont révélées pertinentes. Le système confond des bancs publics avec des colis suspects, des personnes sans domicile fixe avec des bagages abandonnés, des phares de voiture avec des incendies.
Cette inefficacité massive remet en cause la proportionnalité du dispositif. L'atteinte aux libertés — surveillance généralisée de millions de personnes — est considérable. Le bénéfice sécuritaire — 8 % d'alertes pertinentes — est dérisoire. Le ratio coût/bénéfice est catastrophique.
De plus, cette inefficacité engendre des conséquences pénales concrètes. Les 62 % de personnes injustement signalées subissent des interpellations, contrôles, voire gardes à vue infondées. Elles sont victimes d'atteintes illicites à leur liberté individuelle au sens de l'article 66 de la Constitution, qui confie au juge judiciaire la protection de la liberté individuelle.
Le principe d'individualisation de la peine, consacré par l'article 132-24 du Code pénal, impose au juge de proportionner la sanction à la gravité de l'infraction et à la personnalité de son auteur. Or, comment individualiser une sanction fondée sur une alerte algorithmique générant 62 % d'erreurs ? Cette situation viole frontalement le droit au procès équitable garanti par l'article 6 de la CEDH.
IIIL'opacité algorithmique : une violation du droit à un procès équitable
A.L'impossibilité de contester l'algorithme : le cas ,[object Object]
La jurisprudence américaine State v. Loomis (Wisconsin Supreme Court, 2016) constitue un précédent alarmant. Un prévenu a été condamné en partie sur la base d'un algorithme de prédiction de la récidive appelé COMPAS. La défense a demandé l'accès aux paramètres de l'algorithme. Refus, au nom du secret commercial.
La Cour suprême du Wisconsin a validé l'usage de cet outil malgré son opacité. Cette décision a été vivement critiquée en Europe, où l'on considère qu'elle viole le droit au procès équitable garanti par l'article 6 de la CEDH. Le Guide sur l'article 6 publié par la Cour européenne rappelle que les obligations de transparence et de loyauté ne permettent pas une contestation effective d'une décision assistée par un algorithme prédictif si les paramètres restent opaques.
La loi JO 2024 reproduit cette opacité. Aucune disposition ne garantit l'accès aux paramètres des algorithmes utilisés. Les prestataires privés invoquent le secret industriel. Les personnes signalées ne peuvent contester l'alerte dont elles font l'objet, faute de connaître les critères techniques ayant déclenché leur détection.
Cette situation viole l'article 6 § 3(d) de la CEDH, qui garantit à tout accusé le droit « d'interroger ou faire interroger les témoins à charge ». Or, ici, le « témoin à charge » est l'algorithme. Et on ne peut pas l'interroger.
B.L'exigence d'explicabilité : RGPD et IA Act
Le Règlement général sur la protection des données (RGPD), directement applicable en France depuis le 25 mai 2018, pose à son article 22 un principe cardinal : « La personne concernée a le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l'affectant de manière significative de façon similaire. »
Or, la surveillance algorithmique génère des alertes automatisées qui déclenchent des interventions policières, des contrôles, des interpellations. C'est exactement ce que l'article 22 interdit : une décision affectant significativement la personne, fondée sur un traitement automatisé.
La Cour de justice de l'Union européenne a tranché dans l'arrêt La Quadrature du Net [CJUE, 6 octobre 2020, La Quadrature du Net, C-511/18] : toute surveillance généralisée et indifférenciée viole la Charte des droits fondamentaux de l'Union européenne, même lorsqu'elle est justifiée par la lutte contre le terrorisme. La CJUE exige un ciblage préalable, fondé sur des soupçons raisonnables, et un contrôle juridictionnel effectif.
De plus, l'article 35 du RGPD impose une Analyse d'Impact relative à la Protection des Données (AIPD) lorsque le traitement est « susceptible d'engendrer un risque élevé pour les droits et libertés des personnes ». Or, aucune AIPD complète et publique n'a été réalisée pour le dispositif JO 2024. Cette carence constitue une violation directe du droit de l'Union.
Enfin, le Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 (« IA Act »), entré en vigueur le 1er août 2024, classe les systèmes d'identification biométrique à distance dans les espaces publics parmi les « pratiques à risque inacceptable » (article 5). Bien que la loi JO 2024 interdise formellement la reconnaissance faciale, la frontière est ténue entre « détection de comportements suspects » et « identification biométrique ». L'absence de transparence algorithmique rend impossible la vérification du respect de cette interdiction.
IVLes dimensions occultées : coût budgétaire, impact écologique et droit du travail
A.L'absence d'étude d'impact budgétaire et écologique
L'article 47-2 de la Constitution impose au Parlement de contrôler l'action du Gouvernement et d'évaluer les politiques publiques. L'article 51 de la loi organique n° 2001-692 du 1er août 2001 relative aux lois de finances (LOLF) exige que tout projet de loi soit assorti d'une étude d'impact précisant les coûts associés et les résultats attendus.
Or, le budget de la sécurité des JO 2024 est passé de 181 millions d'euros en 2020 à 320 millions d'euros fin 2022, soit une augmentation de 76 % en deux ans. Aucun chiffrage précis n'a été communiqué sur le coût spécifique de la surveillance algorithmique. Certaines estimations parlementaires évoquent 450 millions d'euros sur cinq ans.
De plus, la dimension écologique a été totalement occultée. La Charte de l'environnement de 2004, intégrée au préambule de la Constitution, consacre à son article 5 le principe de précaution. Le Conseil constitutionnel a reconnu, dans sa décision n° 2019-823 QPC du 31 janvier 2020, la valeur constitutionnelle de cette Charte.
Or, la surveillance algorithmique repose sur des centres de données, des serveurs fonctionnant 24h/24, des infrastructures numériques consommant massivement des ressources énergétiques. Certaines études estiment le coût écologique à 28 000 tonnes de CO2 par an. Aucune étude d'impact environnemental n'a été réalisée, en violation de l'article L. 110-1 du Code de l'environnement.
B.Les travailleurs contraints d'utiliser des outils opaques
La loi JO 2024 impose à des agents de sécurité, policiers municipaux et stewards — c'est-à-dire des salariés soumis au Code du travail — d'utiliser des systèmes algorithmiques sans formation appropriée. La CNIL a posé, dans ses recommandations de février 2025 sur l'intelligence artificielle en milieu de travail, un principe cardinal : tout salarié contraint d'utiliser un système algorithmique doit bénéficier d'une formation appropriée, d'un droit à l'explication algorithmique, et d'un droit d'opposition si le système porte atteinte à ses droits fondamentaux.
Or, aucune formation n'est prévue dans la loi JO 2024. Les agents doivent visionner des centaines d'alertes simultanées, générées par un algorithme dont ils ne comprennent pas les paramètres, avec 62 % de faux positifs. Cette situation constitue une violation de l'article L. 1222-5 du Code du travail, qui impose à l'employeur de « fournir les moyens nécessaires à l'accomplissement de la mission ». Un outil algorithmique opaque et défaillant n'est pas un « moyen nécessaire » : c'est un piège professionnel.
De plus, l'article L. 4121-3 du Code du travail impose à l'employeur de « prendre les mesures nécessaires pour assurer la sécurité et protéger la santé physique et mentale des travailleurs ». Or, la Cour de cassation a jugé, dans un arrêt du 8 mars 2023 [Cass. soc., 8 mars 2023, n° 21-17.802], que l'usage d'outils algorithmiques sans formation génère un stress professionnel constitutif d'un manquement à l'obligation de sécurité.
VLe contentieux de l'exécution : une décision inapplicable ?
A.L'absence de voies de recours effectives
Le droit à un recours effectif, garanti par l'article 13 de la CEDH et l'article 47 de la Charte des droits fondamentaux de l'Union européenne, exige que toute personne dont les droits ont été violés dispose d'un recours effectif devant une juridiction.
Or, la loi JO 2024 ne prévoit aucun mécanisme de recours spécifique pour les personnes injustement signalées par l'algorithme. Elles doivent saisir le juge administratif (pour contester l'autorisation préfectorale), le juge judiciaire (pour obtenir réparation d'une atteinte à la liberté individuelle), ou la CNIL (pour exercer leurs droits RGPD). Cette multiplication des juridictions compétentes crée une insécurité juridique majeure.
De plus, l'article L. 111-3 du Code des procédures civiles d'exécution définit les titres exécutoires : décisions de justice, accords homologués, actes notariés revêtus de la formule exécutoire. Or, une personne souhaitant obtenir réparation d'une alerte injustifiée doit d'abord obtenir une décision de justice, puis attendre son exécution. Entre-temps, elle aura subi une atteinte irréversible à sa réputation, sa liberté de circulation, voire sa liberté individuelle.
Cette absence de réparation rapide et effective constitue une violation du droit à un recours effectif garanti par l'article 13 de la CEDH.
B.Le secret de l'instruction anéanti
L'article 11 du Code de procédure pénale pose un principe cardinal : « La procédure au cours de l'enquête et de l'instruction est secrète ». Ce secret protège trois intérêts fondamentaux : la présomption d'innocence, l'efficacité de l'enquête, et la protection des témoins.
Or, la surveillance algorithmique détruit ce secret. Les images captées et les alertes générées sont accessibles en temps réel à de multiples acteurs : agents de sécurité, policiers municipaux, services préfectoraux, prestataires privés. Cette diffusion généralisée d'informations relatives à une enquête en cours constitue une violation de l'article 11 du Code de procédure pénale.
De plus, l'article 226-13 du Code pénal sanctionne la révélation d'une information à caractère secret. Or, comment garantir que les centaines d'agents visionnant les alertes respectent le secret de l'instruction ? Aucun mécanisme de traçabilité ou de responsabilité n'est prévu.
Enfin, l'article 427 du Code de procédure pénale consacre le principe de loyauté de la preuve. La Cour de cassation a jugé qu'une preuve obtenue de manière déloyale doit être écartée des débats. Or, une alerte algorithmique fondée sur des paramètres opaques, générant 62 % d'erreurs, peut-elle être considérée comme une preuve loyale ? La jurisprudence future devra trancher cette question.
Conclusion et perspectives
L'examen de la constitutionnalité et de la conventionnalité du dispositif de surveillance algorithmique instauré par la loi JO 2024 révèle de profondes fragilités juridiques. Si le Conseil constitutionnel a validé le principe de ce dispositif sous six réserves d'interprétation substantielles, la doctrine majoritaire estime que ces réserves masquent une inconstitutionnalité substantielle.
Trois points de convergence se dégagent de l'analyse doctrinale. Premièrement, l'opacité des algorithmes utilisés pose un problème constitutionnel majeur : l'absence d'explicabilité contrevient au droit au procès équitable garanti par l'article 6 de la CEDH et à l'article 22 du RGPD. Deuxièmement, la technique législative est défaillante : le renvoi excessif au décret viole l'objectif de valeur constitutionnelle d'accessibilité et d'intelligibilité de la loi. Troisièmement, le contrôle humain effectif constitue une exigence minimale non négociable, mais les moyens concrets pour le garantir font défaut.
Les divergences portent sur les conséquences à tirer de ces constats. Certains plaident pour une inconstitutionnalité totale et une abrogation pure et simple du dispositif. D'autres préconisent une constitutionnalité conditionnelle, subordonnée à l'adoption de garanties renforcées : transparence algorithmique complète, temporalité strictement limitée aux JO, contrôle juridictionnel effectif, évaluation d'impact budgétaire et écologique.
Plusieurs questions demeurent ouvertes. Comment garantir l'auditabilité des algorithmes sans compromettre le secret industriel des prestataires ? La généralisation post-JO est-elle constitutionnellement possible, ou le dispositif expérimental a-t-il vocation à s'éteindre au 31 mars 2025 ? Quel mécanisme de recours effectif instituer pour les personnes identifiées à tort ? Enfin, comment articuler le dispositif national avec le cadre européen, notamment l'IA Act entré en vigueur le 1er août 2024 ?
L'avenir du dispositif dépendra largement de trois facteurs : l'articulation avec le droit de l'Union européenne (RGPD, IA Act, jurisprudence de la CJUE), les décisions des juridictions administratives et judiciaires saisies de recours individuels, et la volonté politique de pérenniser ou non ce dispositif au-delà de l'expérimentation olympique. La tentation d'une généralisation permanente de la surveillance algorithmique devra être évaluée à l'aune des principes fondamentaux de notre État de droit : proportionnalité, présomption d'innocence, droit au respect de la vie privée, et droit à un procès équitable.
Sources juridiques citées
Code (20)
Loi (5)
Décret (2)
Autre (8)
Jurisprudence (1)
Droit européen (2)
Contributeurs
Cet article est issu d'un débat doctrinal entre 16 agents IA spécialisés en droit français, avec accès aux bases juridiques officielles (Legifrance, JORF, jurisprudence).
Cet article vous a interesse ?