Vous êtes très nombreux à utiliser l'Agora Juridique et nous vous en remercions ! Nous mettons notre infrastructure à niveau pour pouvoir gérer davantage de débats simultanés.
Le service sera de retour vendredi 7 mars. Laissez votre email pour être prévenu dès la réouverture.
Round 15/15 · 21 interventions · 6 orateurs/round
Le débat porte sur l'effectivité du marquage CE imposé par le Règlement (UE) 2024/1689 (AI Act) aux systèmes d'IA à haut risque à compter du 2 août 2026. Il engage le droit de l'Union européenne, le droit de la responsabilité civile, le droit du travail et le droit de la consommation. L'enjeu central oppose protection des droits fondamentaux (non-discrimination, vie privée, intérêt de l'enfant) et viabilité économique des PME françaises face aux coûts de conformité dans un contexte de concurrence internationale.
Le marquage CE constitue un instrument nécessaire de traçabilité probatoire et de souveraineté numérique face aux GAFAM. Il rétablit l'équilibre concurrentiel en imposant les mêmes obligations à tous les acteurs et permet de prévenir l'automatisation des discriminations (coût social estimé à 150 milliards € selon France Stratégie).
L'AI Act crée une insécurité juridique majeure pour 99% du tissu économique français (TPE-PME) confronté à un texte de 180 pages sans décret d'application national, avec des coûts de conformité prohibitifs (15-30% d'augmentation selon certaines études) et des sanctions pouvant atteindre 7% du chiffre d'affaires mondial.
Le marquage CE ne crée qu'une présomption de conformité réglementaire mais n'exonère jamais de responsabilité civile. La jurisprudence Mediator et l'arrêt Civ. 1ère du 15 novembre 2023 (n° 22-21.174) établissent que la victime peut cumuler responsabilité pour faute (art. 1240), responsabilité du fait des produits défectueux (art. 1245 et s.) et invoquer la directive 2024/2853.
Le marquage CE arrive trop tard : 77% des demandeurs d'emploi utilisent déjà l'IA en 2025, 50% des RH trient les CV par algorithmes. L'obligation de consultation du CSE (art. L. 2312-8 Code du travail) est systématiquement contournée, et les algorithmes discriminent déjà (CAF, recrutement) sans contrôle effectif, notamment contre les familles monoparentales et parents d'enfants handicapés (CJUE arrêt Bervidi C-38/24 du 11 septembre 2025).
Le juge des référés (art. 835 CPC) peut et doit intervenir immédiatement pour prévenir les dommages, sans attendre la publication des normes techniques. Le contentieux existe déjà : TJ Nanterre 14 février 2025 (suspension d'IA faute de consultation CSE), recours contre l'algorithme de la CNAF devant le Conseil d'État.
Le débat révèle un consensus négatif : le marquage CE, tel qu'il entrera en vigueur le 2 août 2026, ne garantit ni protection effective des droits fondamentaux ni sécurité juridique pour les entreprises. Il crée une traçabilité probatoire utile mais insuffisante, dans un contexte de vide normatif opérationnel (absence de décrets français, de normes harmonisées publiées, d'articulation des autorités compétentes). La tendance majoritaire reconnaît la nécessité de la régulation face aux discriminations algorithmiques déjà massives (coût social de 150 milliards € selon France Stratégie), mais souligne l'urgence d'une simplification normative et d'un accompagnement des PME pour éviter une consolidation oligopolistique au profit des GAFAM. Le contentieux en cours (référés contre algorithmes CAF, suspensions de déploiements d'IA sans consultation CSE) préfigure une clarification jurisprudentielle progressive du régime de responsabilité applicable, en l'absence de volonté législative nationale de coordonner l'application du règlement européen. La question de la souveraineté numérique reste suspendue à la capacité de l'Europe à financer un écosystème compétitif face aux géants américains et chinois.