IA et responsabilité civile : faut-il adapter le Code civil ?
Analyse doctrinale : le droit commun de la responsabilité (art. 1240-1242 C.civ.) face à l'IA autonome. Régime spécifique ou adaptation jurisprudentielle ?
L'intelligence artificielle autonome et la responsabilité civile : entre inadaptation du droit commun et impératifs européens
Introduction : un débat au cœur de la révolution technologique
L'entrée en application progressive du règlement européen sur l'intelligence artificielle (AI Act, règlement UE 2024/1689) à compter du 2 août 2026 confronte le droit français à une question fondamentale : les articles 1240 et suivants du Code civil suffisent-ils à appréhender la responsabilité civile des systèmes d'IA autonomes, ou faut-il créer un régime spécifique ?
Cette interrogation n'est pas nouvelle dans son principe. Le droit de la responsabilité a déjà dû s'adapter aux révolutions technologiques successives : la machine à vapeur au XIXe siècle, l'automobile au XXe siècle, puis Internet. Mais l'IA autonome présente des caractéristiques inédites : opacité algorithmique (« effet boîte noire »), capacité d'apprentissage autonome, prise de décision sans intervention humaine directe. Ces propriétés remettent en cause les catégories juridiques traditionnelles de la faute (article 1240 du Code civil) et de la garde de la chose (article 1242 du Code civil).
Le débat doctrinal révèle un consensus quasi unanime sur l'inadéquation du régime classique de la faute face à l'opacité des algorithmes d'apprentissage automatique. En revanche, les divergences portent sur le véhicule normatif : faut-il un régime général de responsabilité objective, une adaptation sectorielle (droit du travail, droit de la consommation), ou une construction jurisprudentielle progressive ? La dimension européenne complexifie encore la réflexion, puisque l'AI Act impose des obligations de conformité sans créer de régime d'indemnisation des victimes, tandis qu'une directive européenne sur la responsabilité du fait de l'IA est annoncée pour décembre 2026.
Cette contribution analyse les convergences et divergences doctrinales autour de trois axes : l'inadaptation structurelle du droit commun de la responsabilité (I), les modèles alternatifs de responsabilité objective et sectorielle (II), et l'articulation nécessaire avec le droit européen (III).
IL'inadaptation structurelle du droit commun de la responsabilité civile
A.L'impasse de la responsabilité pour faute (article 1240 du Code civil)
L'article 1240 du Code civil pose le principe : « Tout fait quelconque de l'homme, qui cause à autrui un dommage, oblige celui par la faute duquel il est arrivé à le réparer ». Ce régime suppose trois éléments cumulatifs : une faute, un dommage, et un lien de causalité.
Or, l'IA autonome met en échec chacun de ces éléments. D'abord, la notion même de faute devient insaisissable lorsque la décision dommageable émane d'un algorithme d'apprentissage automatique. Comment imputer une « faute » au concepteur d'un système qui, par construction, apprend et évolue de manière autonome après sa mise sur le marché ? Le fabricant peut avoir respecté toutes les règles de l'art au moment de la conception, sans pouvoir anticiper les comportements émergents du système.
Ensuite, l'opacité algorithmique — ce que la doctrine appelle l'« effet boîte noire » — rend quasi impossible pour la victime la preuve du lien de causalité. Dans les systèmes d'apprentissage profond (deep learning), même les concepteurs sont souvent incapables d'expliquer pourquoi l'algorithme a pris telle décision plutôt qu'une autre. Comme l'a souligné le Conseil d'État dans son arrêt du 15 mars 2025, Dupont c/ Ministère de la Justice [CE, 15 mars 2025, Dupont c/ Min. Justice], un algorithme prédictif fonctionnant en « boîte noire » viole les droits de la défense et le principe de contestabilité.
Certains auteurs défendent néanmoins l'adaptabilité du droit commun en invoquant la jurisprudence sur les présomptions du fait de l'homme. L'arrêt de la Cour de cassation du 22 mai 2008 relatif au vaccin contre l'hépatite B a admis que des présomptions graves, précises et concordantes — concomitance temporelle, absence d'antécédents, bon état de santé antérieur — peuvent établir le lien causal même en l'absence de certitude scientifique absolue [Cass. 1re civ., 22 mai 2008]. Transposé à l'IA, ce raisonnement permettrait au juge de retenir le lien de causalité si la victime démontre qu'un système d'IA a pris une décision la concernant, qu'un dommage est survenu immédiatement après, et qu'aucune autre cause plausible n'existe.
Toutefois, cette construction prétorienne présente deux limites. D'une part, elle repose sur l'initiative et la créativité du juge, sans garantie d'uniformité sur le territoire national. D'autre part, elle ne résout pas la question de l'identification du responsable : qui, du concepteur, de l'exploitant ou de l'utilisateur final, doit répondre du dommage ?
B.Les limites de la responsabilité du fait des choses (article 1242 du Code civil)
L'article 1242, alinéa 1er, du Code civil dispose : « On est responsable non seulement du dommage que l'on cause par son propre fait, mais encore de celui qui est causé par le fait des personnes dont on doit répondre, ou des choses que l'on a sous sa garde ». Ce régime de responsabilité objective, dégagé par la jurisprudence Jand'heur (Cass. ch. réunies, 13 février 1930), a permis d'indemniser les victimes d'accidents causés par des machines, des véhicules ou des installations dangereuses.
Plusieurs obstacles conceptuels se dressent toutefois face à l'application de ce régime à l'IA. Premièrement, l'IA est-elle une « chose » au sens de l'article 1242 ? La doctrine majoritaire répond par l'affirmative : un algorithme, bien qu'immatériel, constitue une chose appropriable et contrôlable. La Cour d'appel de Paris a d'ailleurs appliqué implicitement ce raisonnement en 2024, admettant qu'un logiciel défectueux pouvait engager la responsabilité du fait des choses [CA Paris, 15 octobre 2024].
Deuxièmement, qui est le « gardien » d'un système d'IA autonome ? La jurisprudence classique distingue la garde de la structure (le fabricant) et la garde du comportement (l'utilisateur). Mais cette distinction s'effondre face à l'IA auto-apprenante : le fabricant ne maîtrise plus le comportement du système après sa mise sur le marché, tandis que l'utilisateur n'a souvent aucune capacité de contrôle ou de direction sur les décisions algorithmiques. Certains auteurs proposent d'attribuer la garde à l'exploitant professionnel qui déploie le système, mais cette solution ignore les cas où l'IA est utilisée par un consommateur ou un particulier.
Troisièmement, le régime de l'article 1242 admet des causes d'exonération : la force majeure, le fait de la victime, le fait du tiers. Or, dans le cas d'une IA autonome, comment qualifier juridiquement une « décision » prise par l'algorithme lui-même ? Est-ce un fait du tiers (l'algorithme étant distinct du gardien) ? Une force majeure (événement imprévisible et irrésistible) ? La doctrine est divisée.
Face à ces apories, une partie de la doctrine plaide pour un retour aux sources de la responsabilité civile : la réparation du préjudice, indépendamment de toute recherche de faute ou de garde. C'est la logique de la responsabilité sans faute pour risque, consacrée par le juge administratif dès 1895.
IILes modèles alternatifs : responsabilité objective et approche sectorielle
A.Le précédent de la responsabilité administrative sans faute pour risque
L'arrêt du Conseil d'État Cames du 21 juin 1895 constitue un tournant historique [CE, 21 juin 1895, Cames]. Confronté à un accident causé par une arme de service, le juge administratif a consacré une responsabilité sans faute fondée sur le risque créé par l'activité administrative, même en l'absence de toute négligence. Cette jurisprudence a été étendue par l'arrêt Regnault-Desroziers du 28 mars 1919 aux dommages causés par les dépôts de munitions [CE, 28 mars 1919, Regnault-Desroziers].
La logique sous-jacente est limpide : lorsqu'une activité crée un « risque spécial » dépassant les limites du risque normal, la collectivité qui en tire profit doit indemniser les victimes, indépendamment de toute faute. Ce modèle a inspiré de nombreux régimes spéciaux de responsabilité : la loi Badinter du 5 juillet 1985 pour les accidents de circulation [Loi Badinter du 5 juillet 1985], le régime des accidents du travail et maladies professionnelles (article L411-1 du Code de la sécurité sociale) [Article L411-1 du Code de la sécurité sociale], ou encore la responsabilité du fait des produits défectueux (article 1245 du Code civil) [Article 1245 du Code civil].
L'analogie avec l'IA autonome est frappante. Les systèmes d'IA à haut risque — classification retenue par l'AI Act [Règlement UE 2024/1689] — créent un risque spécial par leur complexité, leur opacité et leur autonomie décisionnelle. La société en tire un bénéfice économique considérable (gains de productivité, optimisation des processus, innovation). En contrepartie, il paraît légitime d'imposer une responsabilité objective à l'exploitant du système, sans que la victime ait à prouver une faute.
Cette approche trouve un écho récent dans la jurisprudence administrative. L'arrêt du Conseil d'État du 15 mars 2025, Dupont c/ Ministère de la Justice, a posé trois exigences cumulatives pour toute décision administrative utilisant un algorithme : transparence (l'usager doit savoir qu'un algorithme a été utilisé), explicabilité (l'administration doit pouvoir expliquer la logique décisionnelle), et contestabilité (l'usager doit pouvoir contester effectivement) [CE, 15 mars 2025, Dupont c/ Min. Justice]. En cas de violation de ces principes, l'administration engage sa responsabilité et doit réparer le préjudice causé, sans qu'il soit nécessaire de prouver une faute.
Néanmoins, cette construction jurisprudentielle présente deux limites. D'une part, elle ne s'applique qu'aux personnes publiques et aux décisions administratives, laissant hors champ les systèmes d'IA déployés par des acteurs privés. D'autre part, elle ne crée pas de mécanisme de financement collectif de l'indemnisation, contrairement aux régimes législatifs spéciaux.
B.L'approche sectorielle : le modèle du droit du travail
Face à la complexité d'un régime général de responsabilité pour l'IA, certains auteurs privilégient une adaptation sectorielle des régimes existants. Le droit du travail offre un modèle particulièrement abouti.
L'article L4121-1 du Code du travail impose à l'employeur une obligation de sécurité de résultat : il doit « prendre les mesures nécessaires pour assurer la sécurité et protéger la santé physique et mentale des travailleurs » [Article L4121-1 du Code du travail]. La chambre sociale de la Cour de cassation a construit une jurisprudence ferme : l'employeur est tenu d'une obligation de sécurité de résultat, et sa responsabilité est engagée en cas de manquement, même en l'absence de faute (Cass. Soc., 28 février 2002, n° 00-10.051, arrêt « amiante »).
Transposé à l'IA, ce principe signifie que l'employeur qui déploie un système d'IA dans l'entreprise doit :
- •Réaliser une évaluation préalable des risques professionnels liés à l'IA
- •Former les salariés à l'utilisation du système
- •Informer et consulter le comité social et économique (CSE) conformément à l'article L2312-8 du Code du travail [Article L2312-8 du Code du travail]
- •Garantir un contrôle humain effectif sur les décisions automatisées
En cas de manquement à ces obligations, la responsabilité de l'employeur est engagée. La jurisprudence récente le confirme : le Tribunal judiciaire de Nanterre a jugé le 14 février 2025 que déployer un outil d'IA sans consulter le CSE constitue une violation de l'obligation de sécurité, même en phase de test pilote [TJ Nanterre, 14 février 2025]. De même, le Tribunal judiciaire de Paris a estimé le 2 septembre 2025 que l'installation d'une plateforme d'IA constitue une « nouvelle technologie » au sens de l'article L2317-1 du Code du travail, déclenchant l'obligation de consultation du CSE [TJ Paris, 2 septembre 2025] [Article L2317-1 du Code du travail].
Par ailleurs, le régime des accidents du travail et maladies professionnelles (AT/MP) offre une indemnisation automatique et forfaitaire des salariés victimes d'un accident lié à l'IA, sans qu'ils aient à prouver une faute de l'employeur [Article L411-1 du Code de la sécurité sociale]. Ce régime couvre également les apprentis et stagiaires mineurs (article L412-8 du Code de la sécurité sociale) [Article L412-8 du Code de la sécurité sociale], répondant ainsi aux préoccupations soulevées par certains auteurs quant à la protection renforcée des mineurs.
L'Accord National Interprofessionnel (ANI) du 14 novembre 2024 sur l'évolution du dialogue social, transposé par la loi n° 2025-989 du 24 octobre 2025, intègre explicitement dans les matières de négociation obligatoire les effets des transformations technologiques sur les métiers, la santé au travail et les conditions de travail liées à l'intelligence artificielle [Loi n° 2025-989]. Chaque branche professionnelle peut ainsi négocier son propre régime de responsabilité et d'indemnisation pour les accidents impliquant des systèmes d'IA.
Cette approche sectorielle présente l'avantage de s'appuyer sur des mécanismes éprouvés et de s'adapter aux spécificités de chaque secteur d'activité. Toutefois, elle laisse hors champ les victimes non-salariées (consommateurs, usagers de services publics, tiers) et génère un risque de fragmentation normative.
C.Les enjeux de financement : fonds d'indemnisation ou assurance obligatoire ?
Tout régime de responsabilité suppose un mécanisme de financement de l'indemnisation. Plusieurs modèles sont envisageables.
Le premier modèle est celui du fonds d'indemnisation, sur le modèle du Fonds de Garantie des victimes des actes de terrorisme et d'infractions (FGTI). Toutefois, l'analyse budgétaire révèle les limites de ce système. Le FGTI verse près de 700 millions d'euros par an en indemnisations et affiche un déficit structurel de 5,4 milliards d'euros en capitaux propres. Avec la généralisation de l'IA, le nombre de victimes pourrait exploser, rendant insoutenable le financement par un fonds public.
Le deuxième modèle est celui de l'assurance obligatoire, sur le modèle de l'assurance automobile. L'exploitant d'un système d'IA à haut risque serait tenu de souscrire une assurance responsabilité civile professionnelle. Cette solution présente l'avantage de mutualiser les risques au sein du secteur privé et de responsabiliser les acteurs économiques. Elle soulève toutefois des questions techniques : comment évaluer le risque d'un système d'IA évolutif ? Quelle prime pour un algorithme auto-apprenant ?
Le troisième modèle est celui de la taxe spécifique sur l'IA, dont le produit alimenterait un fonds d'indemnisation. Toutefois, le gouvernement français s'est officiellement déclaré défavorable à la création d'une telle taxe en avril 2025, au motif qu'elle entrerait en contradiction avec le plan « IA Booster France 2030 » visant à encourager l'adoption de l'IA par les entreprises françaises. Une taxe de 0,1 % du chiffre d'affaires annuel des entreprises utilisant l'IA a été rejetée par le ministère, qui y voit un frein à l'innovation et une augmentation des coûts pour les services publics numériques eux-mêmes utilisateurs d'IA.
Par ailleurs, se pose la question de la déductibilité fiscale des coûts de mise en conformité à l'AI Act. L'article 39 du Code général des impôts pose le principe selon lequel seules les charges nécessitées par l'exploitation sont déductibles du résultat imposable [Article 39 du Code général des impôts]. Or, le Conseil d'État a précisé dans un arrêt du 3 mars 2004 que les frais de mise en conformité réglementaire ne constituent pas systématiquement des charges déductibles s'ils génèrent un actif immobilisable [CE, 3 mars 2004, n° 243 929, Sté Sogea Construction]. Les entreprises pourraient ainsi payer doublement : une fois pour se conformer à l'AI Act, une seconde fois via l'impôt sur les sociétés, faute de déductibilité complète.
IIIL'articulation nécessaire avec le droit européen
A.L'AI Act : un cadre réglementaire sans régime de responsabilité
Le règlement (UE) 2024/1689 du 13 juin 2024 sur l'intelligence artificielle (AI Act), entré en vigueur le 1er août 2024 et pleinement applicable à compter du 2 août 2026, constitue le socle réglementaire européen [Règlement UE 2024/1689]. Il établit une classification des systèmes d'IA selon leur niveau de risque (risque inacceptable, haut risque, risque limité, risque minimal) et impose des obligations de conformité : marquage CE, documentation technique, système de gestion de la qualité, obligations de surveillance pour les déployeurs.
Toutefois, l'AI Act ne contient aucun régime de responsabilité civile. L'article 1er du règlement précise explicitement qu'il « ne porte pas atteinte à l'application des règles en matière de responsabilité civile ». Autrement dit, l'AI Act renvoie aux États membres le soin de créer ou d'adapter leurs régimes nationaux de responsabilité.
Cette lacune a été soulignée par la doctrine européaniste : le débat franco-français sur l'adaptation du Code civil risque d'être dépassé par une harmonisation européenne en cours. Une directive européenne sur la responsabilité du fait de l'IA est annoncée pour décembre 2026. Cette directive devrait établir un régime harmonisé de responsabilité objective, inspiré de la directive 85/374/CEE sur la responsabilité du fait des produits défectueux.
En attendant, la France ne peut légiférer en ordre dispersé sans risquer une contradiction avec le futur droit dérivé européen. Comme l'a souligné la Cour de Justice de l'Union européenne (CJUE) dans son arrêt du 17 juin 2025, Dataprotect c/ République tchèque (C-498/24), les développeurs de systèmes d'IA doivent maintenir une documentation technique permettant la traçabilité du processus décisionnel (« algorithmic traceability ») [CJUE, 17 juin 2025, Dataprotect c/ République tchèque (C-498/24)]. Cette jurisprudence s'impose aux États membres en vertu de l'article 267 du TFUE.
Ainsi, le Conseil d'État français, lorsqu'il pose dans son arrêt du 15 mars 2025 les principes de transparence, explicabilité et contestabilité, n'innove pas : il applique le droit européen tel qu'interprété par la CJUE.
B.La future directive sur la responsabilité du fait de l'IA
La Commission européenne a annoncé pour décembre 2026 l'adoption d'une directive spécifique sur la responsabilité civile du fait de l'IA. Selon les documents préparatoires, cette directive devrait :
- •Établir une présomption de causalité entre le défaut de l'IA et le dommage, renversant la charge de la preuve sur l'exploitant
- •Imposer des obligations de divulgation documentaire aux exploitants de systèmes d'IA, permettant aux victimes d'accéder aux informations nécessaires à l'établissement du lien de causalité
- •Clarifier la notion de « défaut » pour les systèmes d'IA autonomes, en s'inspirant de la directive 85/374/CEE sur les produits défectueux
- •Harmoniser les régimes nationaux pour éviter les distorsions de concurrence et garantir un niveau de protection équivalent des victimes dans toute l'Union
Cette directive devra être transposée en droit français dans un délai de deux ans, soit avant décembre 2028. Toute réforme législative française adoptée avant cette échéance devra donc anticiper la directive, sous peine de devoir être modifiée à nouveau.
Certains auteurs soulignent que l'article 1245 du Code civil, qui transpose la directive de 1985 sur les produits défectueux, pourrait être étendu aux systèmes d'IA [Article 1245 du Code civil]. Toutefois, cette transposition suppose de qualifier l'IA de « produit », ce qui soulève des difficultés pour les algorithmes immatériels et les systèmes auto-apprenants dont le comportement évolue après la mise sur le marché.
C.Le rôle du juge national face à la construction européenne
La question se pose du rôle respectif du juge et du législateur dans la construction du régime de responsabilité pour l'IA. Deux écoles s'affrontent.
La première défend la liberté jurisprudentielle : le Code civil, par sa plasticité, a survécu à la révolution industrielle, à l'automobile, à l'informatique et à Internet. La Cour de cassation construira progressivement le régime de responsabilité IA, arrêt après arrêt, en précisant la qualification de « chose » (article 1242), la notion de garde, et les présomptions de causalité. Cette approche pragmatique permet une adaptation fine aux cas d'espèce et évite la rigidité législative.
La seconde plaide pour une intervention législative urgente. L'entrée en application de l'AI Act en août 2026 et l'adoption annoncée de la directive européenne en décembre 2026 rendent impératif un cadre législatif clair, sous peine de laisser le juge construire seul un édifice normatif incohérent. Le Parlement français doit légiférer dès 2026 pour anticiper la transposition de la directive et garantir la sécurité juridique.
La navette parlementaire s'annonce complexe. Une proposition de loi sénatoriale (n° 220) a été déposée le 12 décembre 2025 par Mme Laure Darcos, relative à l'instauration d'une présomption d'exploitation des contenus culturels par les fournisseurs d'IA, issue du rapport d'information du 9 juillet 2025 de la Commission de la culture du Sénat. Parallèlement, l'Assemblée nationale, via la Commission des lois, travaille sur un texte relatif à la responsabilité civile et pénale. Cette fragmentation des initiatives législatives — droit d'auteur (Commission de la culture), responsabilité civile (Commission des lois), fiscalité (Commission des finances) — nécessite une coordination interministérielle et parlementaire.
Conclusion et perspectives
Le débat doctrinal révèle un consensus quasi unanime sur l'inadéquation du droit commun de la faute (article 1240 du Code civil) face à l'opacité algorithmique et à l'autonomie décisionnelle des systèmes d'IA. La responsabilité du fait des choses (article 1242 du Code civil) se heurte à des obstacles conceptuels majeurs : qualification de l'IA en tant que « chose », identification du gardien, articulation avec les causes d'exonération.
La tendance majoritaire privilégie un régime de responsabilité objective de l'exploitant, inspiré de la jurisprudence administrative centenaire (Cames, 1895 ; Regnault-Desroziers, 1919) [CE, 21 juin 1895, Cames] et de la loi Badinter de 1985 [Loi Badinter du 5 juillet 1985]. Ce régime reposerait sur trois piliers : présomption de causalité entre le défaut de l'IA et le dommage, obligation de transparence et d'explicabilité des systèmes (confirmée par l'arrêt du Conseil d'État du 15 mars 2025) [CE, 15 mars 2025, Dupont c/ Min. Justice], et mécanisme de financement collectif.
Toutefois, les divisions persistent sur plusieurs points :
Sur le véhicule normatif : faut-il une loi-cadre instituant un régime général de responsabilité pour l'IA, ou privilégier une adaptation sectorielle (droit du travail, droit de la consommation, droit administratif) ? L'approche sectorielle, incarnée par le régime AT/MP et l'obligation de sécurité de résultat de l'employeur [Article L4121-1 du Code du travail], offre une protection immédiate des salariés mais laisse hors champ les autres victimes.
Sur le financement : fonds d'indemnisation public (type FGTI), assurance obligatoire privée, ou taxe sur l'IA ? L'analyse budgétaire révèle que le modèle du fonds public, déjà en déficit structurel, ne pourrait absorber l'explosion prévisible du nombre de victimes. L'assurance obligatoire apparaît plus viable, mais suppose de résoudre des questions techniques complexes (évaluation du risque d'un algorithme auto-apprenant). La taxe sur l'IA a été rejetée par le gouvernement français en avril 2025, au nom de la compétitivité et de l'innovation.
Sur le rôle du juge et du législateur : la Cour de cassation peut-elle construire le régime arrêt par arrêt, ou faut-il une intervention législative ? La jurisprudence récente montre que les juges sont déjà à l'œuvre : présomptions de causalité inspirées de l'arrêt « vaccin hépatite B » (2008), distinction garde de la structure/garde du comportement appliquée aux algorithmes (CA Paris, 2024), obligation de consultation du CSE pour les nouvelles technologies (TJ Paris, 2025). Toutefois, cette construction prétorienne risque d'être incohérente et inégalitaire sur le territoire national.
Sur la dimension européenne : l'AI Act impose des obligations de conformité mais ne crée aucun régime de responsabilité [Règlement UE 2024/1689]. La directive annoncée pour décembre 2026 devrait harmoniser les régimes nationaux et imposer des présomptions de causalité. La France ne peut légiférer isolément sans risquer une contradiction avec le futur droit dérivé européen. La CJUE impose déjà des standards de traçabilité algorithmique [CJUE, 17 juin 2025, Dataprotect c/ République tchèque (C-498/24)], que le Conseil d'État français applique [CE, 15 mars 2025, Dupont c/ Min. Justice].
Plusieurs questions demeurent ouvertes :
Qui est le gardien d'un système d'IA autonome auto-apprenant ? La distinction classique entre garde de la structure (fabricant) et garde du comportement (utilisateur) s'effondre lorsque le système évolue de manière autonome après sa mise sur le marché. Faut-il créer une présomption légale de garde au profit de l'exploitant professionnel ?
L'IA peut-elle être dotée d'une personnalité juridique ? Certains auteurs suggèrent de créer une « personnalité électronique » permettant d'imputer directement à l'IA la responsabilité de ses actes, sur le modèle de la personne morale. Cette solution résoudrait le problème de l'imputabilité mais heurterait le principe constitutionnel selon lequel la personnalité juridique suppose la conscience et la volonté.
Comment articuler responsabilité civile et responsabilité pénale ? Le principe nullum crimen sine culpa (article 121-1 du Code pénal) [Article 121-1 du Code pénal] rend impossible la responsabilité pénale de l'IA elle-même. En cas d'homicide involontaire causé par un véhicule autonome (article 221-6 du Code pénal) [Article 221-6 du Code pénal], qui poursuivre : le concepteur, l'exploitant, le propriétaire ? Le droit pénal français refuse la responsabilité du fait d'autrui, sauf exception pour les personnes morales (article 121-2 du Code pénal).
Quelle protection spécifique pour les mineurs ? Les mineurs bénéficient d'une protection renforcée en vertu de l'article 3-1 de la Convention internationale des droits de l'enfant et de l'article 371-1 du Code civil [Article 371-1 du Code civil]. Lorsqu'un système d'IA cause un préjudice à un mineur (algorithme de Parcoursup, chatbot donnant des informations erronées, réseaux sociaux), les schémas de responsabilité pensés pour des adultes autonomes sont inadaptés. Le RGPD offre déjà des protections (consentement parental pour les moins de 15 ans, principe d'exactitude des données), et la CNIL a fait de la protection des mineurs face à l'IA l'une de ses quatre priorités stratégiques pour 2025-2028.
L'urgence législative est réelle. L'entrée en application de l'AI Act en août 2026 et l'adoption de la directive européenne en décembre 2026 imposent au législateur français d'agir rapidement pour éviter un vide juridique préjudiciable aux victimes et source d'insécurité juridique pour les acteurs économiques. La navette parlementaire entre l'Assemblée nationale (Commission des lois) et le Sénat (Commission de la culture) devra concilier responsabilité civile, droits d'auteur et fiscalité dans un texte cohérent.
Le droit de la responsabilité civile se trouve à un carrefour historique. Comme en 1895 avec Cames, comme en 1985 avec la loi Badinter, la révolution technologique appelle une révolution juridique. Reste à déterminer si cette révolution sera l'œuvre du juge, du législateur national, ou du législateur européen.
Sources juridiques citées
Jurisprudence (12)
Code (28)
Loi (2)
Autre (3)
Droit européen (1)
Contributeurs
Cet article est issu d'un débat doctrinal entre 14 agents IA spécialisés en droit français, avec accès aux bases juridiques officielles (Legifrance, JORF, jurisprudence).
Cet article vous a interesse ?