Par Grégoire Loiseau – Professeur à l’Université Panthéon-Sorbonne
Le 28 septembre, la Commission européenne a publié deux propositions de directives visant à adapter les règles de la responsabilité civile au développement de l’intelligence artificielle. Ces propositions font suite à la proposition de règlement établissant des règles harmonisées concernant l’intelligence artificielle, adoptée le 21 avril 2021 par la Commission européenne et à deux directives du 20 mai 2019 (transposées par l’ordonnance 2021-1247 du 29 septembre 2021) prévoyant les règles sur la garantie légale de conformité pour les contenus numériques et les services numériques, ainsi que pour les biens comportant des éléments numériques – c’est-à-dire les objets connectés.

Ces deux nouvelles propositions de directives ont pour objet la révision de la directive sur la responsabilité du fait des produits d’une part et l’adaptation au domaine de l’intelligence artificielle des règles en matière de responsabilité civile extracontractuelle d’autre part. Elles démontrent que l’intelligence artificielle est à un stade de développement qui permet d’envisager son appréhension par le droit. Elles devront maintenant être discutées et votées par le Conseil et le Parlement européen. .

Pourquoi est-il à votre sens pertinent d’élaborer un droit de l’intelligence artificielle ?

Dans un marché unique numérique en plein développement, il est essentiel de disposer d’un cadre juridique permettant de susciter la confiance dans l’emploi des technologies innovantes. Et, pour cela, il est indispensable que des règles soient prévisibles pour l’ensemble des acteurs, aussi bien en amont, pour savoir à quel niveau de risque et suivant quel cahier des charges un système d’intelligence artificielle peut être conçu, fabriqué et mis sur le marché, qu’en aval, pour que toutes les personnes concernées par une éventuelle responsabilité – concepteur, fabricant, utilisateur – connaissent les conditions dans lesquelles celle-ci est susceptible d’être engagée.

Dans cette optique, la proposition de règlement sur l’intelligence artificielle et les propositions de directives sur la responsabilité ont une complémentarité évidente pour constituer un socle juridique solide, nécessaire au déploiement maîtrisé et sûr des systèmes d’intelligence artificielle. Alors que la première concentre l’essentiel de ses prescriptions sur les systèmes à haut risque, prévoyant des mesures ex ante dont le respect s’impose avant leur mise sur le marché, les règles en matière de responsabilité interviennent ex post, dans l’hypothèse où un risque se matérialise, pour assurer une réparation effective du dommage.

Pourquoi avoir choisi de procéder à de simples ajustements des régimes de responsabilité existants ?

Cette nouvelle étape est certes moins spectaculaire que la proposition de règlement qui, si elle va à son terme, constituera la première législation ayant pour objet les systèmes d’intelligence artificielle. A la différence du règlement qui établit un cadre juridique nouveau, les propositions de directives se présentent comme des textes d’adaptation de dispositifs juridiques existants. Il est projeté de faire évoluer certaines des règles des régimes actuels de façon à assurer la réparation des dommages causés par les technologies appliquées, notamment en facilitant la preuve du fait générateur et celle du lien de causalité dans la mesure où cette preuve peut être rendue difficile par l’opacité de ces technologies et de leur mode de fonctionnement.

En l’état des applications de l’intelligence artificielle et de leur évolution prévisible, il n’y a pas en revanche de besoin d’élaborer ex nihilo un droit de la responsabilité du fait des systèmes innovants. La modernité technologique n’appelle pas forcément un renouvellement des règles juridiques quand, au moins dans un premier temps, il peut être suffisant d’adapter l’existant. Peut-être que, dans l’avenir, des régimes spéciaux nouveaux seront nécessaires, par exemple lorsque des véhicules totalement autonomes, sans conducteur, seront mis en circulation. Mais, pour le moment, l’objectif est seulement de permettre aux victimes de dommages causés par des système d’intelligence artificielle d’accéder à une réparation de la même manière que si elles avaient été lésées dans d’autres circonstances.

De ce point de vue, le constat est que les régimes de responsabilité actuels ne sont pas pleinement satisfaisants pour traiter de manière effective la réparation des dommages susceptibles d’être causés par les technologies intelligentes. Il est en particulier difficile de déterminer la responsabilité en cas de mises à jour logicielles défectueuses, quand une application médicale pour smartphone dysfonctionne ou qu’un robot de compagnie est défaillant. Du côté des fabricants, il est du coup malaisé d’évaluer les risques liés à la commercialisation de produits innovants.

En dehors de l’hypothèse d’un produit défectueux, les règles de la responsabilité du fait personnel ou du fait des choses peuvent également être à la peine pour permettre d’obtenir réparation d’un préjudice. La responsabilité pour faute, spécialement, implique d’identifier la personne qui est l’auteur de la faute – utilisateur, fournisseur, développeur –, d’expliquer la faute et d’établir le lien de causalité avec le dommage subi par la victime. Cette preuve est, en pratique, rendue difficile par l’autonomie du système d’intelligence artificielle et, de manière générale, elle peut être mise en échec par le caractère complexe et opaque de son fonctionnement.

En quoi consistent les principales adaptations apportées aux régimes de responsabilité ?

C’est logiquement sur le terrain de la preuve que les principaux aménagements sont apportés aux régimes existants. D’un côté, tout en prévoyant expressément l’élargissement de la directive de 1985 sur les produits défectueux aux produits issus des nouvelles technologies numériques – mises à jour logicielles, produits intelligents, etc. – la proposition de révision de cette directive prévoit un allègement de la charge de la preuve en présence de produits complexes et fait obligation aux fabricants de divulguer les informations relatives à ces produits dont le demandeur aurait besoin pour obtenir réparation.

De l’autre côté, lorsque le dommage n’a pas pour cause le défaut d’un produit, la proposition de directive en matière d’intelligence artificielle introduit des règles spécifiques aux dommages causés à l’occasion de l’utilisation de systèmes d’intelligence artificielle, règles qui sont, à titre principal, d’ordre probatoire. Il est envisagé d’établir une présomption de causalité afin de dispenser la victime de la preuve, difficile, d’établir la manière dont le dommage a été causé par une faute. Il « suffira » que la victime fasse la preuve d’une faute et du caractère raisonnablement probable d’un lien avec le fonctionnement de l’intelligence artificielle pour que puisse être présumée l’existence d’un lien de causalité avec le dommage, présomption que le défendeur pourra combattre en prouvant qu’une autre cause est à l’origine du dommage. Il est également prévu de faciliter l’accès aux éléments détenus par les entreprises ou par les fournisseurs. A cet effet, la juridiction saisie pourra ordonner la communication d’informations permettant d’identifier la personne responsable ou d’établir la cause du problème. Cet accès aux informations est toutefois réservé aux seuls systèmes d’intelligence artificielle qualifiés de systèmes à haut risque par la proposition de règlement.

Quel est le champ d’application des propositions de directives ?

Les règles sur la responsabilité sont appelées à s’appliquer à tous les systèmes d’intelligence artificielle sans distinguer selon la nature ou l’importance du risque puisque, par hypothèse, celui-ci s’est réalisé. Il est en particulier indifférent que le système soit intégré à un bien corporel – robot d’assistance, objet connecté intelligent, drone, voiture autonome, etc. – ou non – par exemple en cas d’utilisation de la technologie d’apprentissage automatique dans des opérations de trading algorithmique.

Le champ d’application est également le plus large s’agissant des dommages réparables qui sont aussi bien des dommages corporels que matériels, ou encore les dommages résultant de la perte de données. La seule variable concerne les victimes susceptibles de se prévaloir des régimes de responsabilité : ce sont uniquement les particuliers en matière de responsabilité du fait des produits alors que tout intéressé, personne physique ou morale, pourra bénéficier des dispositions spécifiques sur la responsabilité extracontractuelle adaptées au domaine de l’intelligence artificielle.

Les propositions de directives ne couvrent pas, en revanche, les hypothèses de responsabilité contractuelle, spécialement en cas de défaut de conformité du produit. Dans les contrats conclus entre professionnels et consommateurs, les règles sur la garantie légale de conformité devraient cependant répondre aux besoins. Prévues par les directives 2019/770 et 2019/771 du 20 mai 2019 et transposées par l’ordonnance 2021-1247 du 29 septembre 2021, ces règles prévues pour les contenus numériques et les services numériques – y compris les mises à jour – ainsi que pour les biens comportant des éléments numériques – c’est-à-dire les objets connectés – devraient s’appliquer, au regard de la définition large donnée à ces notions, aux systèmes d’intelligence artificielle et aux produits les intégrant.

[vcex_button url= »https://www.leclubdesjuristes.com/newsletter/ » title= »Abonnement à la newsletter » style= »flat » align= »center » color= »black » size= »medium » target= » rel= »none »]En savoir plus…[/vcex_button]