IA et responsabilité civile : faut-il adapter le Code civil ?
Comprendre en langage clair : Analyse doctrinale : le droit commun de la responsabilité (art. 1240-1242 C.civ.) face à l'IA autonome. Régime spécifique ou adaptation jurisprudentielle ?
IA et responsabilité civile : faut-il adapter le Code civil ?
À retenir : Quand une intelligence artificielle (IA) cause un dommage, qui doit payer ? Les règles actuelles du Code civil ne permettent pas de répondre clairement. Cette question devient urgente car le règlement européen sur l'IA entre en application le 2 août 2026.
Introduction : un débat au cœur de la révolution technologique
Qu'est-ce qui change avec l'intelligence artificielle ?
Le règlement européen sur l'IA (AI Act, règlement UE 2024/1689) [Règlement UE 2024/1689] s'appliquera progressivement à partir du 2 août 2026. Cette nouvelle loi européenne pose une question simple : les articles 1240 et suivants du Code civil suffisent-ils quand une IA cause un dommage ? Ou faut-il créer de nouvelles règles spécifiques ?
Définition : Article 1240 du Code civil — la règle de base qui dit : si vous causez un dommage à quelqu'un par votre faute, vous devez le réparer.
Pourquoi l'IA pose-t-elle un problème nouveau ?
Le droit s'est déjà adapté aux révolutions technologiques : la machine à vapeur au XIXe siècle, l'automobile au XXe siècle, puis Internet. Mais l'IA autonome a trois caractéristiques inédites :
- L'opacité algorithmique (appelée "effet boîte noire") : même les concepteurs ne comprennent pas toujours comment l'algorithme prend ses décisions
- L'apprentissage autonome : l'IA apprend et évolue toute seule après sa création
- La décision sans humain : l'IA prend des décisions sans qu'un humain intervienne directement
Ces propriétés remettent en cause deux règles classiques du Code civil :
- La responsabilité pour faute (article 1240) [Article 1240 du Code civil]
- La responsabilité du fait des choses (article 1242) [Article 1242 du Code civil]
Sur quoi portent les débats ?
Les juristes sont presque tous d'accord sur un point : les règles actuelles sur la faute ne fonctionnent pas face à l'opacité des algorithmes d'apprentissage.
En revanche, ils se divisent sur la solution :
- Faut-il créer un régime général de responsabilité objective (sans avoir à prouver de faute) ?
- Faut-il adapter les règles secteur par secteur (droit du travail, droit de la consommation) ?
- Faut-il laisser les juges construire les règles cas par cas ?
Définition : Responsabilité objective — vous devez réparer le dommage causé par votre activité, même si vous n'avez commis aucune faute.
Et l'Europe dans tout ça ?
La dimension européenne complique encore les choses. L'AI Act impose des obligations aux entreprises qui utilisent l'IA, mais ne dit pas qui doit indemniser les victimes de dommages. Une directive européenne sur la responsabilité du fait de l'IA est attendue pour décembre 2026.
Attention : Toute réforme française adoptée avant décembre 2026 devra anticiper cette future directive européenne, sinon elle devra être modifiée à nouveau.
Comment cet article est-il organisé ?
Nous analyserons trois questions principales :
- Pourquoi les règles actuelles du Code civil ne fonctionnent-elles pas ? (partie I)
- Quelles solutions alternatives existent ? (partie II)
- Comment s'articule le droit français avec le droit européen ? (partie III)
I. Pourquoi les règles actuelles ne fonctionnent pas
À retenir : Les deux grandes règles de responsabilité du Code civil (responsabilité pour faute et responsabilité du fait des choses) se heurtent à des obstacles majeurs face à l'IA autonome.
A. La responsabilité pour faute ne fonctionne plus (article 1240)
Que dit l'article 1240 du Code civil ?
"Tout fait quelconque de l'homme, qui cause à autrui un dommage, oblige celui par la faute duquel il est arrivé à le réparer."
Concrètement : Pour obtenir réparation, vous devez prouver trois éléments :
- Une faute a été commise
- Vous avez subi un dommage
- Il existe un lien entre cette faute et votre dommage
Pourquoi cette règle ne marche pas avec l'IA ?
L'IA autonome met en échec chacun de ces trois éléments.
Premier problème : la notion de faute devient insaisissable
Comment identifier une "faute" quand la décision dommageable vient d'un algorithme d'apprentissage automatique ?
Exemple concret : Un fabricant crée une IA qui apprend et évolue toute seule après sa mise sur le marché. Le fabricant a respecté toutes les règles de l'art au moment de la conception. Mais six mois plus tard, l'IA développe un comportement qu'il n'avait pas prévu et cause un dommage. Où est la faute ?
Deuxième problème : l'opacité algorithmique rend la preuve impossible
Dans les systèmes d'apprentissage profond (deep learning), même les concepteurs sont souvent incapables d'expliquer pourquoi l'algorithme a pris telle décision plutôt qu'une autre.
Attention : Cette opacité pose un problème démocratique. Le Conseil d'État a jugé le 15 mars 2025 qu'un algorithme prédictif fonctionnant en "boîte noire" viole les droits de la défense et le principe de contestabilité [CE, 15 mars 2025, Dupont c/ Min. Justice].
Définition : Principe de contestabilité — vous devez pouvoir contester effectivement une décision prise à votre encontre, ce qui suppose de comprendre comment elle a été prise.
Certains juristes pensent que le droit actuel peut s'adapter
Ils s'appuient sur une décision de la Cour de cassation du 22 mai 2008 sur le vaccin contre l'hépatite B [Cass. 1re civ., 22 mai 2008]. Dans cette affaire, les juges ont admis que des présomptions graves, précises et concordantes peuvent établir le lien de causalité, même sans certitude scientifique absolue.
Concrètement : La victime peut établir le lien si elle démontre que :
- Un système d'IA a pris une décision la concernant
- Un dommage est survenu immédiatement après
- Aucune autre cause plausible n'existe
Mais cette solution a deux limites importantes :
- Elle repose sur l'initiative et la créativité de chaque juge, sans garantie que tous les tribunaux français appliquent la même règle
- Elle ne résout pas la question : qui doit payer ? Le concepteur de l'IA ? L'entreprise qui l'utilise ? L'utilisateur final ?
B. La responsabilité du fait des choses rencontre aussi des obstacles (article 1242)
Que dit l'article 1242 du Code civil ?
"On est responsable non seulement du dommage que l'on cause par son propre fait, mais encore de celui qui est causé par le fait des personnes dont on doit répondre, ou des choses que l'on a sous sa garde."
Définition : Responsabilité du fait des choses — si une chose sous votre garde cause un dommage, vous devez réparer, même sans faute de votre part.
Cette règle a été créée par la jurisprudence en 1930 (arrêt Jand'heur). Elle a permis d'indemniser les victimes d'accidents causés par des machines, des véhicules ou des installations dangereuses.
Pourquoi cette règle rencontre-t-elle des obstacles avec l'IA ?
Premier obstacle : l'IA est-elle une "chose" ?
La plupart des juristes répondent oui : un algorithme, bien qu'immatériel, constitue une chose appropriable et contrôlable. La Cour d'appel de Paris a implicitement appliqué ce raisonnement en 2024, admettant qu'un logiciel défectueux pouvait engager la responsabilité du fait des choses [CA Paris, 15 octobre 2024].
Deuxième obstacle : qui est le "gardien" d'une IA autonome ?
La jurisprudence classique distingue :
- La garde de la structure : celui qui possède la chose (le fabricant)
- La garde du comportement : celui qui utilise la chose
Mais cette distinction s'effondre avec l'IA auto-apprenante :
- Le fabricant ne maîtrise plus le comportement du système après sa mise sur le marché
- L'utilisateur n'a souvent aucune capacité de contrôle sur les décisions algorithmiques
Exemple concret : Vous achetez une voiture autonome. Six mois plus tard, son IA a appris de nouvelles façons de conduire que le fabricant n'avait pas programmées. La voiture cause un accident. Qui est le gardien : le fabricant qui l'a créée, ou vous qui la possédez ?
Troisième obstacle : les causes d'exonération
L'article 1242 admet que le gardien peut s'exonérer de sa responsabilité en prouvant :
- La force majeure (événement imprévisible et irrésistible)
- Le fait de la victime
- Le fait d'un tiers
Question non résolue : Comment qualifier une "décision" prise par l'algorithme lui-même ? Est-ce un fait du tiers (l'algorithme étant distinct du gardien) ? Une force majeure ? Les juristes sont divisés.
Face à ces impasses, certains juristes proposent de revenir aux fondamentaux
Le but de la responsabilité civile est de réparer le préjudice, indépendamment de toute recherche de faute ou de garde. C'est la logique de la responsabilité sans faute pour risque, créée par le juge administratif dès 1895.
II. Les solutions alternatives : responsabilité objective et approches sectorielles
À retenir : Plusieurs modèles existent déjà dans le droit français pour faire payer sans prouver de faute : la responsabilité administrative pour risque (depuis 1895), le droit du travail, les accidents de la route (loi Badinter). Ces modèles pourraient inspirer un nouveau régime pour l'IA.
A. Le modèle historique : la responsabilité administrative sans faute pour risque
Comment ce modèle a-t-il été créé ?
L'arrêt du Conseil d'État Cames du 21 juin 1895 constitue un tournant [CE, 21 juin 1895, Cames]. Un accident avait été causé par une arme de service. Le juge administratif a décidé que l'administration devait indemniser la victime, même en l'absence de toute négligence.
La logique est simple : Quand une activité crée un "risque spécial" qui dépasse les limites du risque normal, celui qui tire profit de cette activité doit indemniser les victimes, même sans faute.
Cette jurisprudence a été étendue en 1919 aux dommages causés par les dépôts de munitions [CE, 28 mars 1919, Regnault-Desroziers].
Quels autres régimes fonctionnent sur ce modèle ?
Ce principe a inspiré plusieurs lois importantes :
- La loi Badinter du 5 juillet 1985 [Loi Badinter du 5 juillet 1985] : pour les accidents de circulation, les victimes sont indemnisées presque automatiquement
- Les accidents du travail (article L411-1 du Code de la sécurité sociale) [Article L411-1 du Code de la sécurité sociale] : le salarié victime est indemnisé sans avoir à prouver de faute de l'employeur
- Les produits défectueux (article 1245 du Code civil) [Article 1245 du Code civil] : le fabricant répare les dommages causés par un défaut de son produit
Pourquoi ce modèle correspond-il bien à l'IA ?
L'analogie avec l'IA autonome est frappante. Les systèmes d'IA à haut risque — classification retenue par l'AI Act [Règlement UE 2024/1689] — créent un risque spécial par :
- Leur complexité
- Leur opacité
- Leur autonomie décisionnelle
Concrètement : La société tire un bénéfice économique considérable de l'IA (gains de productivité, optimisation des processus, innovation). En contrepartie, il paraît légitime d'imposer une responsabilité objective à celui qui exploite le système, sans que la victime ait à prouver une faute.
Un exemple récent en droit administratif
L'arrêt du Conseil d'État du 15 mars 2025, Dupont c/ Ministère de la Justice, a posé trois exigences pour toute décision administrative utilisant un algorithme [CE, 15 mars 2025, Dupont c/ Min. Justice] :
- Transparence : vous devez savoir qu'un algorithme a été utilisé
- Explicabilité : l'administration doit pouvoir expliquer la logique de la décision
- Contestabilité : vous devez pouvoir contester effectivement
En cas de violation de ces principes, l'administration engage sa responsabilité et doit réparer le préjudice causé, sans que vous ayez à prouver une faute.
Mais cette solution a deux limites :
- Elle ne s'applique qu'aux administrations publiques, pas aux entreprises privées qui utilisent l'IA
- Elle ne crée pas de mécanisme de financement collectif de l'indemnisation, contrairement aux régimes législatifs spéciaux
B. Le droit du travail : un modèle sectoriel déjà opérationnel
Pourquoi certains juristes préfèrent-ils adapter secteur par secteur ?
Face à la complexité d'un régime général pour l'IA, certains auteurs privilégient une adaptation des règles existantes dans chaque secteur. Le droit du travail offre un modèle particulièrement abouti.
Quelle est l'obligation de l'employeur ?
L'article L4121-1 du Code du travail impose à l'employeur une obligation de sécurité de résultat [Article L4121-1 du Code du travail]. Il doit "prendre les mesures nécessaires pour assurer la sécurité et protéger la santé physique et mentale des travailleurs".
Définition : Obligation de résultat — l'employeur doit garantir la sécurité. S'il y a un accident, sa responsabilité est engagée, même s'il n'a commis aucune faute.
La chambre sociale de la Cour de cassation a construit une jurisprudence ferme dans l'arrêt "amiante" (Cass. Soc., 28 février 2002, n° 00-10.051).
Concrètement : que doit faire l'employeur qui déploie une IA ?
- Réaliser une évaluation préalable des risques professionnels liés à l'IA
- Former les salariés à l'utilisation du système
- Informer et consulter le comité social et économique (CSE) conformément à l'article L2312-8 du Code du travail [Article L2312-8 du Code du travail]
- Garantir un contrôle humain effectif sur les décisions automatisées
Attention : En cas de manquement à ces obligations, la responsabilité de l'employeur est engagée.
Des exemples récents de jurisprudence
Premier exemple : Le Tribunal judiciaire de Nanterre a jugé le 14 février 2025 que déployer un outil d'IA sans consulter le CSE constitue une violation de l'obligation de sécurité, même en phase de test pilote [TJ Nanterre, 14 février 2025].
Deuxième exemple : Le Tribunal judiciaire de Paris a estimé le 2 septembre 2025 que l'installation d'une plateforme d'IA constitue une "nouvelle technologie" au sens de l'article L2317-1 du Code du travail [Article L2317-1 du Code du travail] [TJ Paris, 2 septembre 2025]. Cette qualification déclenche l'obligation de consultation du CSE.
Comment fonctionne l'indemnisation des salariés victimes ?
Le régime des accidents du travail et maladies professionnelles (AT/MP) offre une indemnisation automatique et forfaitaire des salariés victimes d'un accident lié à l'IA, sans qu'ils aient à prouver une faute de l'employeur [Article L411-1 du Code de la sécurité sociale].
Ce régime couvre également les apprentis et stagiaires mineurs (article L412-8 du Code de la sécurité sociale) [Article L412-8 du Code de la sécurité sociale].
Une nouvelle obligation de négociation
L'Accord National Interprofessionnel (ANI) du 14 novembre 2024 sur l'évolution du dialogue social, transposé par la loi n° 2025-989 du 24 octobre 2025 [Loi n° 2025-989], intègre explicitement dans les matières de négociation obligatoire :
- Les effets des transformations technologiques sur les métiers
- La santé au travail liée à l'IA
- Les conditions de travail liées à l'intelligence artificielle
Concrètement : Chaque branche professionnelle peut négocier son propre régime de responsabilité et d'indemnisation pour les accidents impliquant des systèmes d'IA.
Avantages et limites de cette approche
Avantages :
- Elle s'appuie sur des mécanismes éprouvés
- Elle s'adapte aux spécificités de chaque secteur d'activité
Limites :
- Elle laisse hors champ les victimes non-salariées (consommateurs, usagers de services publics, tiers)
- Elle génère un risque de fragmentation : des règles différentes selon les secteurs
C. Comment financer l'indemnisation ?
À retenir : Tout régime de responsabilité pose la question : où trouver l'argent pour indemniser les victimes ? Trois solutions existent, chacune avec ses avantages et inconvénients.
Solution n°1 : Un fonds d'indemnisation public
Sur le modèle du Fonds de Garantie des victimes des actes de terrorisme et d'infractions (FGTI).
Problème : L'analyse budgétaire révèle les limites de ce système. Le FGTI verse près de 700 millions d'euros par an et affiche un déficit structurel de 5,4 milliards d'euros. Avec la généralisation de l'IA, le nombre de victimes pourrait exploser, rendant insoutenable le financement par un fonds public.
Solution n°2 : Une assurance obligatoire
Sur le modèle de l'assurance automobile. L'exploitant d'un système d'IA à haut risque serait tenu de souscrire une assurance responsabilité civile professionnelle.
Avantages :
- Elle mutualise les risques au sein du secteur privé
- Elle responsabilise les acteurs économiques
Difficultés techniques :
- Comment évaluer le risque d'un système d'IA évolutif ?
- Quelle prime pour un algorithme auto-apprenant ?
Solution n°3 : Une taxe spécifique sur l'IA
Le produit de cette taxe alimenterait un fonds d'indemnisation.
Attention : Le gouvernement français s'est officiellement déclaré défavorable à la création d'une telle taxe en avril 2025. Il considère qu'elle entrerait en contradiction avec le plan "IA Booster France 2030" visant à encourager l'adoption de l'IA par les entreprises françaises.
Une taxe de 0,1 % du chiffre d'affaires annuel des entreprises utilisant l'IA a été rejetée. Le ministère y voit un frein à l'innovation et une augmentation des coûts pour les services publics numériques eux-mêmes utilisateurs d'IA.
Une autre question fiscale : la déductibilité des coûts de mise en conformité
Les entreprises devront dépenser de l'argent pour se conformer à l'AI Act. Peuvent-elles déduire ces dépenses de leurs impôts ?
L'article 39 du Code général des impôts [Article 39 du Code général des impôts] pose le principe : seules les charges nécessitées par l'exploitation sont déductibles du résultat imposable.
Le Conseil d'État a précisé dans un arrêt du 3 mars 2004 que les frais de mise en conformité réglementaire ne sont pas systématiquement déductibles s'ils génèrent un actif immobilisable [CE, 3 mars 2004, n° 243 929, Sté Sogea Construction].
Concrètement : Les entreprises pourraient payer doublement :
- Une première fois pour se conformer à l'AI Act
- Une seconde fois via l'impôt sur les sociétés, faute de déductibilité complète
III. L'articulation avec le droit européen
À retenir : La France ne peut pas décider seule. Le règlement européen sur l'IA (AI Act) est déjà en vigueur, et une directive européenne sur la responsabilité civile est attendue pour décembre 2026. Toute réforme française doit anticiper ces textes européens.
A. L'AI Act : un cadre réglementaire sans régime de responsabilité
Qu'est-ce que l'AI Act ?
Le règlement (UE) 2024/1689 du 13 juin 2024 sur l'intelligence artificielle (AI Act) [Règlement UE 2024/1689] est entré en vigueur le 1er août 2024. Il s'appliquera pleinement à compter du 2 août 2026.
Définition : Règlement européen — un texte qui s'applique directement dans tous les pays de l'Union européenne, sans avoir besoin d'être transposé en droit national.
Comment fonctionne l'AI Act ?
Il classe les systèmes d'IA selon leur niveau de risque :
- Risque inacceptable (interdits)
- Haut risque (obligations strictes)
- Risque limité (obligations de transparence)
- Risque minimal (aucune obligation)
Pour les systèmes à haut risque, l'AI Act impose des obligations :
- Marquage CE
- Documentation technique
- Système de gestion de la qualité
- Obligations de surveillance pour ceux qui déploient le système
Mais l'AI Act ne dit pas qui doit payer en cas de dommage
L'article 1er du règlement précise explicitement qu'il "ne porte pas atteinte à l'application des règles en matière de responsabilité civile".
Concrètement : L'AI Act renvoie aux États membres le soin de créer ou d'adapter leurs régimes nationaux de responsabilité.
Pourquoi est-ce un problème ?
Cette lacune a été soulignée par de nombreux juristes : le débat français sur l'adaptation du Code civil risque d'être dépassé par une harmonisation européenne en cours.
Attention : Une directive européenne sur la responsabilité du fait de l'IA est annoncée pour décembre 2026.
En attendant, la France doit-elle légiférer ?
La France ne peut pas légiférer seule sans risquer une contradiction avec le futur droit dérivé européen.
Un exemple concret d'influence européenne
La Cour de Justice de l'Union européenne (CJUE) a jugé le 17 juin 2025, dans l'affaire Dataprotect c/ République tchèque (C-498/24) [CJUE, 17 juin 2025, Dataprotect c/ République tchèque (C-498/24)], que les développeurs de systèmes d'IA doivent maintenir une documentation technique permettant la traçabilité du processus décisionnel ("algorithmic traceability").
Définition : Traçabilité algorithmique — la capacité de retracer comment et pourquoi un algorithme a pris une décision donnée.
Cette jurisprudence s'impose à tous les États membres en vertu de l'article 267 du TFUE.
Le Conseil d'État français, dans son arrêt du 15 mars 2025 [CE, 15 mars 2025, Dupont c/ Min. Justice], applique ce droit européen en posant les principes de transparence, explicabilité et contestabilité.
B. La future directive sur la responsabilité du fait de l'IA
Qu'est-ce qu'une directive européenne ?
Définition : Directive européenne — un texte qui fixe des objectifs que chaque pays doit atteindre, mais laisse les États membres choisir les moyens d'y parvenir. Elle doit être transposée en droit national dans un délai fixé (généralement deux ans).
Que contiendra la future directive (décembre 2026) ?
Selon les documents préparatoires, cette directive devrait :
- Établir une présomption de causalité entre le défaut de l'IA et le dommage
Concrètement : Aujourd'hui, vous devez prouver que c'est l'IA qui a causé votre dommage. Demain, ce sera à l'exploitant de l'IA de prouver que son système n'est pas responsable.
- Imposer des obligations de divulgation documentaire aux exploitants de systèmes d'IA
Concrètement : L'entreprise qui exploite l'IA devra vous donner accès aux informations nécessaires pour établir le lien de causalité.
- Clarifier la notion de "défaut" pour les systèmes d'IA autonomes
La directive s'inspirera de la directive 85/374/CEE sur les produits défectueux.
- Harmoniser les régimes nationaux
Le but : éviter que les règles soient différentes d'un pays à l'autre, ce qui créerait des distorsions de concurrence et un niveau de protection inégal des victimes.
Quand cette directive s'appliquera-t-elle en France ?
Cette directive devra être transposée en droit français dans un délai de deux ans, soit avant décembre 2028.
Attention : Toute réforme législative française adoptée avant cette échéance devra anticiper la directive, sous peine de devoir être modifiée à nouveau.
Peut-on utiliser l'article 1245 du Code civil ?
Certains auteurs soulignent que l'article 1245 du Code civil [Article 1245 du Code civil], qui transpose la directive de 1985 sur les produits défectueux, pourrait être étendu aux systèmes d'IA.
Problème : Cette transposition suppose de qualifier l'IA de "produit", ce qui soulève des difficultés pour :
- Les algorithmes immatériels
- Les systèmes auto-apprenants dont le comportement évolue après la mise sur le marché
C. Le rôle du juge et du législateur
Qui doit agir : le juge ou le législateur ?
Deux écoles s'affrontent.
Première école : la liberté jurisprudentielle
Le Code civil, par sa souplesse, a survécu à la révolution industrielle, à l'automobile, à l'informatique et à Internet. La Cour de cassation construira progressivement le régime de responsabilité IA, arrêt après arrêt.
Avantages :
- Adaptation fine aux cas d'espèce
- Évite la rigidité législative
Deuxième école : une intervention législative urgente
L'entrée en application de l'AI Act en août 2026 et l'adoption annoncée de la directive européenne en décembre 2026 rendent impératif un cadre législatif clair.
Risque : Laisser le juge construire seul un édifice normatif pourrait générer des incohérences.
Où en est le Parlement français ?
La navette parlementaire s'annonce complexe.
Sénat : Une proposition de loi (n° 220) a été déposée le 12 décembre 2025 par Mme Laure Darcos, relative à l'instauration d'une présomption d'exploitation des contenus culturels par les fournisseurs d'IA. Elle fait suite au rapport d'information du 9 juillet 2025 de la Commission de la culture du Sénat.
Assemblée nationale : La Commission des lois travaille sur un texte relatif à la responsabilité civile et pénale.
Problème : Cette fragmentation des initiatives législatives nécessite une coordination :
- Droit d'auteur (Commission de la culture)
- Responsabilité civile (Commission des lois)
- Fiscalité (Commission des finances)
Attention : Sans coordination interministérielle et parlementaire, le risque est grand de voter des textes contradictoires.
Conclusion et perspectives
À retenir : Les juristes s'accordent sur un constat : les règles actuelles ne fonctionnent pas. Ils divergent sur la solution : régime général de responsabilité objective, adaptation sectorielle, ou construction jurisprudentielle. L'Europe imposera de toute façon des standards communs d'ici décembre 2026.
Sur quoi y a-t-il consensus ?
Presque tous les juristes s'accordent sur l'inadéquation du droit commun de la faute (article 1240 du Code civil) [Article 1240 du Code civil] face à :
- L'opacité algorithmique
- L'autonomie décisionnelle des systèmes d'IA
La responsabilité du fait des choses (article 1242 du Code civil) [Article 1242 du Code civil] se heurte à des obstacles conceptuels majeurs :
- Qualification de l'IA en tant que "chose"
- Identification du gardien
- Articulation avec les causes d'exonération
Quelle est la tendance majoritaire ?
La tendance majoritaire privilégie un régime de responsabilité objective de l'exploitant, inspiré de :
- La jurisprudence administrative centenaire (Cames, 1895 [CE, 21 juin 1895, Cames] ; Regnault-Desroziers, 1919 [CE, 28 mars 1919, Regnault-Desroziers])
- La loi Badinter de 1985 [Loi Badinter du 5 juillet 1985]
Ce régime reposerait sur trois piliers :
- Présomption de causalité entre le défaut de l'IA et le dommage
- Obligation de transparence et d'explicabilité des systèmes (confirmée par l'arrêt du Conseil d'État du 15 mars 2025) [CE, 15 mars 2025, Dupont c/ Min. Justice]
- Mécanisme de financement collectif
Sur quoi les divisions persistent-elles ?
Premier point de division : le véhicule normatif
Faut-il :
- Une loi-cadre instituant un régime général de responsabilité pour l'IA ?
- Une adaptation sectorielle (droit du travail, droit de la consommation, droit administratif) ?
L'approche sectorielle, incarnée par le régime AT/MP et l'obligation de sécurité de résultat de l'employeur [Article L4121-1 du Code du travail], offre une protection immédiate des salariés. Mais elle laisse hors champ les autres victimes.
Deuxième point de division : le financement
Trois options possibles :
- Fonds d'indemnisation public (type FGTI)
- Assurance obligatoire privée
- Taxe sur l'IA
L'analyse budgétaire montre que :
- Le modèle du fonds public, déjà en déficit structurel, ne pourrait absorber l'explosion du nombre de victimes
- L'assurance obligatoire apparaît plus viable, mais pose des questions techniques complexes
- La taxe sur l'IA a été rejetée par le gouvernement en avril 2025
Troisième point de division : le rôle du juge et du législateur
La Cour de cassation peut-elle construire le régime arrêt par arrêt, ou faut-il une intervention législative ?
La jurisprudence récente montre que les juges sont déjà à l'œuvre :
- Présomptions de causalité inspirées de l'arrêt "vaccin hépatite B" (2008) [Cass. 1re civ., 22 mai 2008]
- Distinction garde de la structure/garde du comportement appliquée aux algorithmes (CA Paris, 2024) [CA Paris, 15 octobre 2024]
- Obligation de consultation du CSE pour les nouvelles technologies (TJ Paris, 2025) [TJ Paris, 2 septembre 2025]
Risque : Cette construction jurisprudentielle risque d'être incohérente et inégalitaire sur le territoire national.
Quatrième point de division : la dimension européenne
L'AI Act impose des obligations de conformité mais ne crée aucun régime de responsabilité [Règlement UE 2024/1689].
La directive annoncée pour décembre 2026 devrait harmoniser les régimes nationaux et imposer des présomptions de causalité.
Attention : La France ne peut légiférer isolément sans risquer une contradiction avec le futur droit dérivé européen.
La CJUE impose déjà des standards :
- Traçabilité algorithmique [CJUE, 17 juin 2025, Dataprotect c/ République tchèque (C-498/24)]
- Que le Conseil d'État français applique [CE, 15 mars 2025, Dupont c/ Min. Justice]
Quelles questions restent ouvertes ?
Question n°1 : Qui est le gardien d'un système d'IA autonome auto-apprenant ?
La distinction classique entre garde de la structure (fabricant) et garde du comportement (utilisateur) s'effondre lorsque le système évolue de manière autonome après sa mise sur le marché.
Faut-il créer une présomption légale de garde au profit de l'exploitant professionnel ?
Question n°2 : L'IA peut-elle avoir une personnalité juridique ?
Certains auteurs suggèrent de créer une "personnalité électronique" permettant d'imputer directement à l'IA la responsabilité de ses actes, sur le modèle de la personne morale.
Problème : Cette solution heurterait le principe constitutionnel selon lequel la personnalité juridique suppose la conscience et la volonté.
Question n°3 : Comment articuler responsabilité civile et responsabilité pénale ?
Le principe nullum crimen sine culpa (pas de crime sans faute) inscrit à l'article 121-1 du Code pénal [Article 121-1 du Code pénal] rend impossible la responsabilité pénale de l'IA elle-même.
Exemple concret : Un véhicule autonome cause un homicide involontaire (article 221-6 du Code pénal) [Article 221-6 du Code pénal]. Qui poursuivre : le concepteur, l'exploitant, le propriétaire ?
Attention : Le droit pénal français refuse la responsabilité du fait d'autrui, sauf exception pour les personnes morales (article 121-2 du Code pénal).
Question n°4 : Quelle protection spécifique pour les mineurs ?
Les mineurs bénéficient d'une protection renforcée en vertu de :
- L'article 3-1 de la Convention internationale des droits de l'enfant
- L'article 371-1 du Code civil [Article 371-1 du Code civil]
Exemple concret : Un système d'IA cause un préjudice à un mineur (algorithme de Parcoursup, chatbot donnant des informations erronées, réseaux sociaux). Les schémas de responsabilité pensés pour des adultes autonomes sont inadaptés.
Le RGPD offre déjà des protections :
- Consentement parental pour les moins de 15 ans
- Principe d'exactitude des données
La CNIL a fait de la protection des mineurs face à l'IA l'une de ses quatre priorités stratégiques pour 2025-2028.
L'urgence législative est réelle
L'entrée en application de l'AI Act en août 2026 et l'adoption de la directive européenne en décembre 2026 imposent au législateur français d'agir rapidement.
Risques en cas d'inaction :
- Vide juridique préjudiciable aux victimes
- Insécurité juridique pour les acteurs économiques
La navette parlementaire entre l'Assemblée nationale (Commission des lois) et le Sénat (Commission de la culture) devra concilier dans un texte cohérent :
- Responsabilité civile
- Droits d'auteur
- Fiscalité
Un carrefour historique
Le droit de la responsabilité civile se trouve à un carrefour historique.
Comme en 1895 avec Cames [CE, 21 juin 1895, Cames], comme en 1985 avec la loi Badinter [Loi Badinter du 5 juillet 1985], la révolution technologique appelle une révolution juridique.
La question finale : Qui fera cette révolution ?
- Le juge ?
- Le législateur national ?
- Le législateur européen ?
La réponse se dessine déjà : les trois devront travailler ensemble, le juge construisant des solutions d'attente, le législateur français anticipant la directive européenne, et l'Europe fixant le cadre harmonisé.
Ce qu'il faut retenir pour l'avenir :
Que vous soyez entreprise utilisant l'IA, salarié, consommateur ou simple citoyen, les règles sur la responsabilité de l'IA vont changer dans les deux prochaines années. Restez attentifs aux évolutions législatives européennes et françaises, car elles détermineront qui paiera en cas de dommage causé par une intelligence artificielle.
Vous voulez aller plus loin ?