Retour aux articles

Réforme de la responsabilité et intelligence artificielle : le rapport de la cour d’appel de Paris refuse de se prononcer

Tech&droit - Intelligence artificielle
28/06/2019
Tout comme l’avant-projet de réforme de la responsabilité dévoilé le 13 mars 2017, le rapport de cour d’appel de Paris, rendu public le 25 juin 2019, écarte l’hypothèse d’une régulation de l’intelligence artificielle dans le cadre de cette réforme de la responsabilité civile.
Le ton est donné dès la première ligne du point consacré à l’intelligence artificielle : « La technicité du sujet et son évolution particulièrement rapide justifient que le groupe de réflexion ne formule pas de propositions, mais attire l’attention du ministère de la Justice sur la nécessité d’élaborer un corpus de règles adaptées à l’intelligence artificielle » (Groupe de travail, rapport sur « La réforme du droit français de la responsabilité civile et les relations économiques », avr. 2019, p. 107).

Concrètement, pour les auteurs du rapport « deux courants se dessinent clairement :  le recours à l’un des fondements existants de la responsabilité civile objective suffirait à régler la grande majorité des cas, (mais) seule, la reconnaissance de la personnalité juridique aux robots permettrait de répondre aux enjeux de l’intelligence artificielle, sans qu’à ce stade aucun n’emporte totalement la conviction ».

Le rapport se contente donc de lister les différentes pistes envisageables, en envisageant les avantages et inconvénients de chacune d’entre elles :
  • responsabilité du fait des produits défectueux ;
  • responsabilité du fait des choses ;
  • personnalité juridique ;
  • responsabilité pour faute.
 
Intelligence artificielle et responsabilité civile : ce que propose le dernier rapport du Sénat en 3 citations
- « il ne peut y avoir de responsabilité des machines ou des robots. Une intelligence artificielle est d’abord une machine, qui a des concepteurs et des fabricants. Ce sont eux qui doivent être responsables en cas de difficulté » ;
- « chaque acteur de la chaîne est coauteur du résultat qu’est l’IA et se doit d’être vigilant ; la responsabilité réside dans l’écart entre ce que fait l’IA et ce qu’elle devrait faire » ;
- « Pour mettre en application cette notion, une certaine traçabilité pourrait être appliquée. L’idée maîtresse est de vérifier l’intention des fournisseurs de service d’intelligence artificielle ».
Sénat, rapp. n° 279, 2018-2019, 31 janv. 2019, p. 30

Comme celui du Sénat rendu public début 2019 (Sénat, rapp. n° 279, 2018-2019, Stratégie européenne pour l’intelligence artificielle, 31 janv. 2019, p. 30), le rapport de la cour d’appel de Paris se prononce en faveur d’une solution européenne.

Précisons toutefois qu’à ce stade, la Commission européenne privilégie semble privilégier la responsabilité du fait des produits défectueux pour régir les dommages causés par une intelligence artificielle (v. Intelligence artificielle : installation de deux groupes d'experts par la Commission européenne, Actualités du droit, 15 mars 2018).

 
Le programme de travail sur l’IA de la Commission européenne
- avril 2019 : définition des lignes directrices ;
- été 2019 : début de la phase pilote à grande échelle pour recueillir les réactions et retours d'informations des parties prenantes ;
- élaborer un consensus international pour une IA centrée sur l'humain (pas de précision de date).
Pour le lien vers le site de la Commission européenne consacré à cette démarche, v. ICI
Commission européenne, 9 avr. 2019
Source : Actualités du droit