Retour aux articles

Arnaud Touati, avocat associé, Alto avocats : « Il n'existe pas de régime adapté pour gérer les dommages causés par des robots »

Civil - Responsabilité
05/01/2017
Algorithmes intelligents, androïdes et autres formes d'intelligence artificielle, de plus en plus sophistiqués, sont sur le point de déclencher une nouvelle révolution. Le cadre juridique actuel est-il suffisant, à la fois pour protéger les créations de ces machines autonomes et garantir la sécurité des personnes et des biens avec lesquelles elles rentrent en contact ? Faut-il doter les robots d’une personnalité juridique ? Le point de vue de Maître Touati.

Revue Lamy Droit civil  : Existe-t-il actuellement un cadre juridique spécifique, français, européen, international pour régler les problématiques liées à l’intelligence artificielle ?

Arnaud Touati : Pas à l’heure actuelle. Il y a toutefois des propositions qui ont été faites par le Parlement européen et des rapports rendus publics, notamment aux États-Unis où l’administration Obama a publié un rapport intitulé « Preparing the future » qui démontre que ce pays s’inscrit en pointe sur ces sujets. Le Japon est également très avancé en matière de robotique.

Plusieurs philosophies sous-tendent ces évolutions : certains pays, comme les États-Unis, sont favorables à une intelligence artificielle conçue dans l’optique de création de l’homme augmenté (le transhumanisme est très développé aux États-Unis).

Au Japon, le robot va être celui qui assiste, qui aide. De l’enfant à la personne âgée. En outre, le déclin démographique devient un facteur clé du maintien de la productivité du pays. 

Toutefois, aucun État n’a légiféré pour l’heure sur le sujet. Seule la Corée du Sud annonce commencer à élaborer une Charte éthique pour 2017.

 

RLDC : Quelle protection est prévue pour l’intelligence artificielle ? Pour l’algorithme en lui-même ? Pour les produits innovants, le savoir-faire créés par l’intelligence artificielle ? 

A.T. : Pour l’instant, nous appliquons le droit commun de la propriété intellectuelle qui n’est pas adapté.

En effet, les intelligences artificielles sont désormais capables de créer (intelligence artificielle Watson d’IBM qui a réalisé des plats gastronomiques ou des bandes annonces de cinéma ; intelligence artificielle Benjamin, créée par Ross Goodwin, qui a rédigé des scénarios de film, des intelligences artificielles ont rédigé des romans ou encore, en avril dernier, lorsqu’un nouveau Rembrandt a été réalisé par une intelligence artificielle en coopération avec Microsoft et une université hollandaise).

Deux problématiques se posent : comment protéger ces œuvres et, surtout, qui est le titulaire des droits : est-ce le concepteur de l'algorithme, le fabricant, l'utilisateur, la personne qui l'a entraînée ?

Face à ces questions, il existe deux écoles :

-    Celle qui propose de donner à ce robot une personnalité juridique : l'œuvre créée appartient alors au robot ; ce qui ne résout pas toutes les difficultés, notamment celle de savoir à qui verser les droits ; et

 -    Celle qui se fonde sur un partage des droits entre le concepteur et l'humain qui l'a entraîné ; là encore, la solution n’est pas pleinement satisfaisante car cela suppose de départager les intervenants : il faudrait à la fois déterminer une méthode et créer un nouveau métier, qui consisterait à analyser les algorithmes et définir la part de celui qui a appris au robot, de celui qui l'a créé, etc.

Aujourd'hui, nous ne savons pas encore comment répondre de manière satisfaisante à ce besoin de protection. Pour ma part, je pense que la solution idéale, c'est le partage : il s’agirait de déterminer quelle est la part de chacun, en la précisant contractuellement ab initio.

Par exemple, s’agissant des robots, on constate que souvent le concepteur de l’algorithme est également le fabricant et que la plupart des vendeurs de robots introduisent dans les contrats une clause stipulant que toutes les créations du robot lui appartiendront.

Avec la position dominante des G.A.F.A.M. (Google, Apple, Facebook, Amazon et Microsoft) dans la recherche et le développement de l’intelligence artificielle, il est fort à parier que les conditions générales de leurs contrats intégreront une telle clause, non négociable.

 

RLDC : Quel régime de responsabilité actuel pourrait s'appliquer aux dommages causés par une intelligence artificielle, à la suite, par exemple, de la défaillance du programme d'un robot, de la défaillance du système ou du piratage de robots connectés ?

A.T. : À l’heure actuelle, il n'existe pas de régime adapté pour gérer les dommages causés par des robots. Envisageons les différents types de responsabilité proposés par le droit positif.

La responsabilité civile, tout d’abord, pourrait être invoquée mais elle concerne « tout fait de l'homme » (C. civ., art. 1240).

La responsabilité du fait des choses n'est pas adaptée non plus car elle ne concerne que les choses inanimées. On pourrait envisager d'adapter la responsabilité du fait des animaux dont on a la garde ou de celle des mineurs dont on est responsable.

Le régime de la responsabilité civile contractuelle peut être une solution, sauf que parfois il n'y pas de relation contractuelle explicite entre les parties.

Reste la responsabilité du fait des produits défectueux (C. civ., art. 1384, anciens, devenus C. civ., art. 1245 et s.), qui semble la plus adaptée. Toutefois, elle suppose d'avoir le contrôle, la direction, ce que l'utilisateur n'a pas puisque l’intelligence artificielle est, par définition, autonome. La conception de la garde est inadaptée, puisque personne ne contrôle l'intelligence artificielle. À la limite, nous pourrions arguer de l’existence d'une direction mais pas d'un contrôle.

Dès lors, plusieurs possibilités existent : 

- la mise en place d'un régime de responsabilité sans faute similaire à celui régissant les accidents de la circulation avec assurance obligatoire et fonds de garantie ;

-    le partage des droits entre le concepteur, l'utilisateur et le fabricant. À mon sens, c'est la meilleure des solutions, avec un défaut et non des moindres : la difficulté de déterminer les droits de chacun (10 % pour le concepteur, 20 % pour l’intégrateur, etc.) ;

-    la création d'une personnalité juridique propre à l’intelligence artificielle. Cette proposition présente à mon sens deux défauts majeurs : un problème moral, pour la victime, qui a besoin d'identifier une responsabilité humaine et un problème de déresponsabilisation des intervenants : quelle que soit l’hypothèse, concepteurs, intégrateurs ou encore utilisateurs sauront que leur responsabilité ne sera jamais engagée et que, in fine, l’assurance paiera au moyen d’un fonds de garantie financé par les sociétés de robotique.

L’autonomie grandissante de ces intelligences artificielles multiplie les hypothèses de dommages. Ainsi, quid de la voiture autonome « Google Car » ou de la marque Tesla qui causerait un accident ? Quid de l’humanoïde qui viendrait blesser un humain ?

Sans compter que certains chercheurs tentent déjà de donner à ces intelligences une conscience artificielle, au moyen d’algorithmes capables de développer une pensée autonome.

Propos recueillis par Gaëlle Marraud des Grottes


Cet entretien sera publié en intégralité dans la Revue Lamy Droit civil de février 2017.

 

Source : Actualités du droit