Retour aux articles

La robotisation et la relation de confiance assureur/assuré

Tech&droit - Intelligence artificielle
11/10/2017
Quel impact aura la robotisation sur la relation de confiance assureur/assuré d'un point de vue éthique, économique et juridique ? L'analyse de Rodolphe Bigot, maître de conférences en droit privé à l’Université de Picardie Jules Verne CEPRISCA (EA 3911).
Les robots ne doivent être regardés ni avec angoisse, ni avec naïveté disait Edouard Geffray, alors secrétaire général de la Commission nationale de l’informatique et des libertés (CNIL) (Geffray E., Quelle protection des données personnelles dans l’univers de la robotique ?, Dalloz IP/IT, juin 2016, p. 295 et s.). La technophobie dépassée, la relation de confiance dans l’assurance peut être modifiée avec la robotisation, qui recouvre parfois les vocables de digitalisation, numérisation, voire d’« ubérisation » (Amaro R., L’« ubérisation » des professions du droit face à l’essor de la legaltech, in Dossier : L’ « ubérisation » : l’appréhension par le droit du phénomène numérique, Dalloz IP/IT, mars 2017, p. 161 et s. ; adde Slim H., La notion de représentation et d’assistance en justice face aux défis de la technologie numérique, JCP G no 14, 4 avr. 2016, 394). Positivement, une meilleure connaissance du risque, peut-être même une diminution du risque. Négativement, par création de nouveaux risques (« Le risque n’est pas pour autant supprimé », de nouveaux risques pouvant même apparaître : v. dans ce dossier la remarquable contribution de Noguéro D., Loi Badinter, voiture autonome, robot, évolution du risque et information au regard de la protection des assurés. Humble essai de projection sur les rails du futur). La résolution du Parlement européen adoptée le 16 février 2017 (Parlement européen, 2015/2103(INL)) contenant des recommandations à la commission concernant les règles de droit civil sur la robotique s’est emparée de la question de l’intelligence artificielle. D’aucuns considèrent néanmoins que « la confiance se mérite, mais ne se décrète pas » (Lauboué A. S., Le cybercommerçant, dir. Ph. Mozas, th. Université de Bordeaux, 2015, no 852 : « Mais quand le législateur français nous promet la confiance, il n’est pas interdit de se demander si le dispositif mis en place est bien de nature à faire que ce résultat soit atteint. S’il est difficile d’apprécier l’impact de cette manœuvre, et plus largement la dimension subjective de la confiance, il est néanmoins possible de vérifier objectivement si les règles imposées par le législateur méritent cette confiance »).
L’assurance est en soi un système de confiance économique et juridique organisée au sein d’une mutualité, en partie sélectionnée. La confiance correspond à l’espérance ferme de celui qui se fie à quelqu’un ou à quelque chose, et plus généralement le sentiment de sécurité dans le public. Elle implique une relation bilatérale ou multilatérale au sein d’un groupe (pour la réflexion étymologique sur la notion de confiance, v. Catillon V., Le droit dans les crises bancaires et économiques, th. LGDJ, Lextenso éd., coll. Droit & économie, 2011, nos 26 et 28). La problématique de la robotisation invite à examiner la relation de confiance assureur/assuré de trois points de vue, non totalement étanches les uns des autres : éthique (1), économique (2) et juridique (3).
  1. La relation de confiance sous l’angle éthique
Le troisième millénaire serait celui des loups connectés (Finkielkraut A., La seule exactitude, éd. Stock, 2015, p. 151). D’aucuns seraient même tombés dans « la Google du loup » (Kerdellant C., Dans la Google du loup, Plon, 2017. – Par ailleurs, un rapport (réalisé dans 36 pays au travers de 70 000 interviewes : Reuters Institute, Digital News Report, 2017) retient que « le Web et les réseaux sociaux ont pu contribuer à exacerber la perte de confiance dans les médias, mais que celles-ci se sont nourries dans de nombreux pays de fondements préexistants et qui s’étaient progressivement enracinés »), en d’autres termes dans cette société de surveillance globale fabriquée par un certain nombre d’acteurs publics et privés et où le capitalisme financier et numérique occupe une place décisive. Chez les mutualistes ayant de fortes valeurs sociales, certains assurés ne souhaiteront peut-être plus, par conviction, souscrire auprès d’assureurs ayant recours à la robotisation pour licencier des salariés. Cultiver l’image de marque est long et coûteux. Parfois, un simple événement médiatique peut la bousculer. Certains assureurs investiraient depuis longtemps parmi les plus importants budgets marketing en France, juste derrière Red Bull (le budget marketing de l’entreprise est qualifié de « pharaonique » et s’élevait en 2012 à près de 1,4 milliard d'euros, soit un pourcentage du chiffre d'affaires compris entre 30 % et 40 % : Thérin F., Les secrets de la machine de guerre Red Bull, lesechos.fr, 9 nov. 2012. – Diebold J.-B., Red Bull, extrême communicant, Challenges.fr, 25 janv. 2013). Les dizaines de millions d’euros investis chaque année en la matière les amènent à s’inquiéter du "troisième degré de juridiction" présidé par Julien Courbet dans ses émissions et à céder à des réclamations non justifiées juridiquement, mais commercialement risquées pour ne pas trahir, par exemple, un « zéro blabla, zéro tracas ».
Puisque « l’homme d’aujourd’hui ne connaît plus son voisin » (Vialatte A., Dires étonnants des astrologues, Le Dilettante, 1993, p. 20, in fine ), il est encore plus facile pour les marchands de robots d’exploiter les fantasmes (Devillers L., Des robots et des hommes. Mythes, fantasmes et réalités, éd. Plon, 2017) des clients potentiels sans évoquer, naturellement, les dangers qu’ils dissimulent, par exemple en matière de justice prédictive (Dondero B., Justice prédictive : la fin de l’aléa judiciaire ?, D. 2017, no 10, chron., p. 532 et s. ; Lasserre M.-C., L’intelligence artificielle au service du droit : la justice prédictive, la justice du futur ?, LPA 2017, no 130, p. 6 et s.). S’ouvrent certes de nouvelles voies de progrès avec l’automatisation qui pourrait faire disparaître certaines tâches répétitives, créées au XIXe siècle par la révolution industrielle, ayant transformé de nombreux employés en quasi-robots. L’humanité ôtée depuis cette époque serait ainsi prochainement restituée (Renouard M., Fragments d’une mémoire infinie, éd. Grasset, 2016). À côté des bienfaits générés par la technologie, restent des méfaits qu’on ne peut laisser sous silence (Bouée C.- É., en collaboration avec Roche F., La Chute de l’empire humain. Mémoire d’un robot, éd. Grasset, 2017), tel que l’avènement d’une société fondée sur la marchandisation intégrale de la vie (Sadin É., La Silicolonisation du monde : l’irrésistible expansion du libéralisme numérique, éd. L’Échappée, 2016).
Chez les assureurs plus capitalistiques, on hésite encore moins à faire croire que « les besoins et usages de nos clients évoluent constamment, particulièrement du fait de l’essor des nouvelles technologies » (Hennau E., Directeur de la distribution du groupe AXA, My Digital Revolution : Découvrez les agents et conseillers digitaux d’AXA, 27 mars 2017, https://www.axa.com/fr/newsroom/actualites/my-digital-revolution-...splay&utm_content=2927402_FutureOfInsurance-MyDigitalRevolution_1) alors que l’adaptation des réseaux de distribution correspond moins à ces pseudo-attentes qu’à une volonté de diminuer les charges de personnel (v. ex multis, Thoin-Bousquié J., Le Crédit Agricole met la relation client 100% digitale au cœur de son "Ambition stratégique 2020", www.usine-digitale.fr, 11 mars 2016 : « Sur les 7,7 milliards d’euros consacré à son plan stratégique, 4,9 milliards seront ainsi consacrés au développement des métiers et à la transformation digitale. "Notre objectif est qu’en 2017, le client puisse réaliser toutes ses opérations en mode digital s’il le souhaite, et qu’il puisse passer à tout moment du canal Internet à l’agence. Pour y parvenir, nous allons investir de manière importante pour faire évoluer nos systèmes d’information, aménager nos agences, former nos conseillers", rapporte Jack Bouin aux Échos »). 89 % des clients affirment d’ailleurs leur préférence pour un conseiller "humain" (Ba M., La digitalisation bancaire : quel avenir pour la relation client ?, http://www.bankobserver-wavestone.com, 22 oct. 2015 : « L’étude Monabanq-Credoc permet de donner quelques éléments de réponse à ce constat : 89 % des Français déclarent être attachés au format de l’agence « en dur », et 89 % souhaitent avoir un conseiller de clientèle dédié. Dès lors, quelques caractéristiques de la « banque de demain » se dessinent : disponibilité, accessibilité, coûts de gestion raisonnables, mais également conseiller bancaire « identifiable » et « personnalisé »). En même temps, la société moderne a créé le tombeau du travail, où « l’ennui de tous vient de cette concentration, de cette captation, de ce vol de l’intérêt » (Serres M., Petite Poucette, éd. Le Pommier, 2012, p. 54), ce qui facilite d’autant plus la voie de la robotisation.
Au Japon, une compagnie d’assurance, Fukoku Mutual Insurance (suivie par d’autres compagnies comme Dai-Ichi Insurance et Nippon Life Insurance ), a remplacé 25 % du personnel du département des évaluations des paiements par un système d’intelligence artificielle, l’IBM Watson Explorer, soit 34 des 131 personnes du service licenciées en mars 2017 (Marchand L., Intelligence artificielle : au Japon, un robot va remplacer 34 salariés en assurance, Les Échos.fr, 3 janv. 2017 ; comp. Sirinelli P., Prévost S., Génération Legaltech, Dalloz IP/IT, févr. 2017, Édito). Le système est chargé de rassembler les données médicales des clients, de lire les certificats rédigés par les médecins et autres documents médicaux afin de déterminer les paiements d’assurance et de facturer les dépenses médicales. L’investissement réalisé représente 1,6 million d’euros. La maintenance serait de 122 000 euros par an. Il convient alors de faire un petit calcul de tête. Si l’on estime qu’un emploi à temps plein (ETP) dans ce secteur coûte en moyenne, avec les diverses charges, 50 000 euros, et que l’on multiplie cette somme par les 34 ETP supprimés (34 x 50 000 € = 1,7 M €), cette compagnie d’assurance réalise, avec cet "outil" et sans compter les gains accessoires (suppression de bureaux, etc.), une économie annuelle d’1,7 million d’euros ! Non seulement, en un an l’investissement est totalement rentabilisé, mais on voit encore, sur plusieurs années, l’incroyable réduction du poste "salaires". On ne s’étonnera guère que des versions spécifiques de Watson aient été développées pour robotiser d’autres domaines, tels que les cabinets d’avocats (Rapport confié par J.-J. Urvoas, garde des Sceaux, ministre de la Justice, à Haeri K., L’avenir de la profession d’avocat, févr. 2017, p. 61 : « il s’agit de Ross (http://www.rossintelligence.com/), qui a d’ailleurs été « embauché » par une dizaine de cabinets d’avocats (…) Ce programme est non seulement capable de trouver parmi des millions de documents une réponse juridique à une question posée en langage naturel ; mais est également doté d’un système d’apprentissage : Ross s’auto-améliore au fur et à mesure de son fonctionnement » ; comp. Iweins D., Les robots sont-ils nos ennemis ?, Gaz. Pal. 28 juin 2016, p. 9).
Plusieurs recherches récentes démontrent que la robotisation n’est pas créatrice d’emplois comme cela a pu être souvent avancé par le passé. Bien au contraire, elle serait destructrice d’emplois (Lenoir L., La robotisation détruit plus d’emplois qu’elle n’en crée, selon une étude, Le Figaro.fr, 30 mars 2017), au point qu’il soit envisagé de créer une taxe robots (Siquier Delot D., La taxe robot, un nouvel ovni dans le paysage fiscal, Les Nouvelles fiscales 2017, no 1200, p. 4 et s. ; Schiller R., Taxer les robots, ce n’est pas idiot, La Tribune, 28 mars 2017 : un impôt sur les robots permettrait selon l’économiste (prix Nobel) de garantir un revenu minimum aux personnes qui ont perdu leur emploi en raison de la robotisation) dans l’Union européenne (Rapport contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique, 27 janv. 2017, § K : http://www.europarl.europa.eu/sides/getDoc.do?pu-bRef=-%2f%2fEP%2f%2fTEXT%2bREPORT%2bA8-2017 0005 % 2b0 % 2bDOC % 2bXML % 2bV0 % 2f % 2fFR&language=FR : « l’éventuelle application d’un impôt sur le travail réalisé par des robots ou d’une redevance d’utilisation et d’entretien par robot (devrait) être examinée dans le contexte d’un financement visant au soutien et à la reconversion des chômeurs dont les emplois ont été réduits ou supprimés, afin de maintenir la cohésion sociale et le bien-être social »). En 2013, des chercheurs de la Oxford Martin School ont estimé que 47 % du total des emplois aux États-Unis présentaient de grands risques de devenir automatisables (Frey C. B. and Osborne M. A., The future of employment : how susceptible are jobs to computerisation ?, Oxford Martin School, University of Oxford, United Kingdom, 17 sept. 2013, p. 44 : « We distinguish between high, medium and low risk occupations, depend- ing on their probability of computerisation. We make no attempt to estimate the number of jobs that will actually be automated, and focus on potential job automatability over some unspecified number of years. According to our estimates around 47 percent of total US employment is in the high risk category »). En 2016, l’Organisation de coopération et de développement économiques (OCDE) réduisait ce chiffre à 9 % (Georges B., Pour l’OCDE, la robotisation ne menace « que » 9 % des emplois, Les Échos.fr, 18 mai 2016. ; Arntz M., Gregory T. and Zierahn U., The Risk of Automation for Jobs in OECD Countries : A Comparative Analysis, OECD Social, Employment and Migration Working Papers no 189, OECD Publishing, 14 May 2016, http://dx.doi.org/10.1787/5jlz9h56dvq7-en). En France, les robots menaceraient près de 10 % des emplois selon le Conseil d’orientation pour l’emploi (Rapport « Automatisation, numérisation et emploi » : http://www.coe.gouv.fr/IMG/pdf/COE_170110_Rapport_Automatisation_numerisation_et_emploi_Tome_1.pdf). Plus récemment encore, en désavouant une partie de leurs propres travaux, d’autres chercheurs du MIT et de l’Université de Boston ont réalisé une étude sur les effets négatifs de la robotisation sur l’emploi, publiée en mars 2017 (Acemoglu D. et Restrepo P., Robots and Jobs : Evidence from U.S. Labor Markets, The National Bureau of Economic Research Working Paper, no 23285 ; Fitzgerald J., Robots and Jobs in the U.S. Labor Market, The National Bureau of Economic Research, mai 2017, p. 1 et s. : « On average, the arrival of one new industrial robot in a local labor market coincides with an employment drop of 5.6 workers »). La création d’emplois liés à la robotisation n’arrive pas à compenser la perte qui survient lorsque des postes sont supprimés. L’installation d’un robot pour 1000 employés entraîne non seulement la disparition de 6,2 postes, mais s’accompagne également d’une baisse des salaires de 0,7 % dans la région étudiée, à raison de la baisse de demande sur le marché du travail. Les transpositions sont délicates mais les 3 700 sociétés d’assurances opérant en Europe emploient directement près de 1 million de personnes, dont 147 000 collaborateurs en France (Fédération Française de l’Assurance, Rapport annuel 2016, p. 30 et s., https://www.ffa-assurance.fr/rapport-annuel-2016/). S’il s’agit d’une véritable préoccupation humaniste et non d’une nouvelle opération de publicité en faveur de ses marques, on comprend mieux Elon Musk affirmant désormais que « l’intelligence artificielle constitue un risque majeur pour la civilisation » (Rameaux M., Intelligence artificielle : quand Elon Musk s’alarme de ses propres créations, Le Figaro.fr, 20 juill. 2017). Outre le paradoxe que l’on soit de plus en plus connecté mais que la solitude n’aurait jamais été aussi forte (Senk P., Solitude : le paradoxe des nouveaux outils de communication, Interview de Jacques Arènes, Le Figaro.fr, 5 mai 2017 ; v. Arènes J., Questions de vie, un psy face aux détresses d’aujourd’hui, éd. du Seuil, coll. Points/Vivre, 2017), il peut être osé une autre forme de péché d’élévation (Barnes J., The Sin of Height – Le péché d’élévation, in Quand tout est déjà arrivé – Levels of Life, trad. Aoustin J.-P., Folio, Mercure de France, 2014, p. 14 et s.), tout du moins éthique (sur la question, v. Nevejans N., Traité de droit et d’éthique de la robotique civile, préf. Hauser J. et Ganascia J.-G., LEH éd., coll. Science, éthique et société, 2017), en s’opposant à une partie de l’économie numérique et du cybermarketing (Roques-Bonnet M.-C., Le droit peut-il ignorer la révolution numérique ?, préface Rapp L., Michalon éd., 2010, p. 500).

2. La relation de confiance d’un point de vue économique
 
Depuis la secousse tellurique du 17 septembre 2008 frappant AIG et la crise généralisée (Catillon V., Le droit dans les crises bancaires et économiques, th. LGDJ, Lextenso éd., coll. Droit & économie, 2011, n° 221), les assureurs et bancassureurs – avec la systémicité démontrée des connexions banque-assurance (Catillon V., op. cit., n° 220) – se portent globalement bien, et c’est plutôt très rassurant pour cette économie et la protection des assurés. Mais mis à part les marchés très concurrentiels comme l’assurance automobile, où les primes sont stables, pour le reste elles diminuent assez rarement, et c’est plutôt l’inverse que l’on observe progressivement, malgré les fusions, l’industrialisation des process, les économies d’échelle, les nouvelles règles de solvabilité, servant la promotion de réductions, peu souvent réalisées.
Il est encore avancé que la blockchain ou les robots dans l’assurance permettent de simplifier les relations entre assurés et assureurs, ce qui devrait être le gage d’économies pour ces derniers, et donc d’une baisse des tarifs au profit du consommateur. Pour une comparaison, Apple a dépassé 800 milliards de dollars de capitalisation boursière en 2017 (Richaud N., Apple franchit le cap des 800 milliards de dollars en Bourse, Les Echos.fr, 10 mai 2017), mais le coût des produits – nous pensons par exemple à l’iPhone dans ses versions 1 à 7 dont la fabrication a été également fortement robotisée depuis 2014 (Tirole J., Économie du bien commun, PUF, 2016, p. 555) – n’a quant à lui jamais baissé ! Il faut donc se méfier des effets d’annonce. D’importants chercheurs dénoncent l’économie du mensonge et de la manipulation (Akerlof G. et Schiller R., Marchés de dupes. L’économie du mensonge et de la manipulation, éd. Odile Jacob, 2016). Après avoir constaté que « la masse des revenus rémunérant ces différentes formes de capital a progressé presque aussi vite que la masse des revenus du travail », le professeur Picketty a conclu que « si l’on souhaite véritablement fonder un ordre social juste et rationnel, fondé sur l’utilité commune, il n’est pas suffisant de s’en remettre aux caprices de la technologie » car celle-ci, « de même que le marché, ne connaît ni limite ni morale » (Piketty T., Le capital au XXIe siècle, éd. du Seuil, coll. Les livres du nouveau monde, 2013, p. 370). Un autre économiste a relevé dans de nombreux pays la polarisation de l’emploi issue des innovations de l’économie numérique depuis trente ans (Autor D., Why are there still so many jobs ? The history and future of workplace automation, Journal of Economic Perspectives, 2015, vol. 29, no 3, p. 3 et s.).
Certes, d’aucuns voudraient réaliser « l’utilité commune » (Piketty T., op. cit., p. 370) ou « le bien commun » (Tirole J., op. cit., PUF, 2016). La confiance dans l’économie numérique, assurantielle ou non, dépend de la compétence, de l’absence de conflits d’intérêts (Douville T., Les conflits d’intérêts en droit privé, préf. C. Alleaume, Fondation Varenne, coll. des thèses, no 104, 2014) et de la qualité des recommandations encadrées par des exigences légales (Tirole J., op. cit., PUF, 2016, p. 529 et s.). Mais il est mis en lumière, par la psychologie cognitive, utilisée également en économie avec la théorie des jeux ou dans l’analyse économique du droit, que l’homme est toujours possédé d’un optimisme relatif (Sunstein C. R. (dir.), Behavioral Law & Economics, Cambridge University Press, 2000, p. 4) le plaçant dans une « illusion de contrôle » (Maître G., La responsabilité civile à l’épreuve de l’analyse économique du droit, préface H. Muir Watt, th. LGDJ, 2005, p. 231). Pourquoi les économistes seraient-ils les seuls à y échapper ?
En réponse au libéralisme exacerbé, et à une confiance économique rompue (ce qui se recoupe avec les précédents développements sur la perte de confiance d’un point de vue éthique, liée à la robotisation et la destruction d’emplois notamment), une économie collaborative prend son essor. Elle est facilitée par l’internet et ses suites d’innovations technologiques. En même temps, ces évolutions génèrent une plus grande disponibilité de l’information, elle-même susceptible d’affecter, demain, la solidarité ou le partage du risque, cristallisé dans les grands principes de l’économie actuelle de l’assurance (Tirole J., op. cit., PUF, 2016, p. 538 et s.). Concrètement, le professeur Noguéro y décèle la menace de « fin de la mutualisation telle que connue aujourd’hui », où l’assureur pourrait, à l’avenir, « calculer le coût de ses produits a priori » (Noguéro D., op. cit.). C’est, par effet boomerang, toute l’institution et donc l’économie de l’assurance qui pourrait s’écrouler. À croire toujours que « le monde est plein de gens qui ne sont pas plus sages » (de La Fontaine J, La grenouille qui se veut faire aussi grosse que le bœuf, Livre I, Fable 3).

3. La relation de confiance d’un point de vue juridique
 
La confiance, sous l’angle juridique, s’exprime par le biais de règles ayant progressivement renforcé la sécurité juridique de l’assuré – plus largement du consommateur et du cyber-consommateur (Verbiest T., La protection juridique du cyber-consommateur, Litec, 2002 ; Féral-Schuhl, Cyberdroit. Le droit à l’épreuve d’internet, Dalloz, Dunod, 3e éd., 2002, p. 163 et s. ; Roques-Bonnet M.-C., Le droit peut-il ignorer la révolution numérique ?, préface Rapp L., Michalon éd., 2010, p. 257 et s. : « Dans l’univers numérique, le droit des consommateurs est mis à l’épreuve à un double titre : d’une part du fait de la consommation en ligne, et de l’encadrement de l’e-commerce, et d’autre part, du fait du traitement automatisé des données des consommateurs en ligne ») – dans sa relation avec l’assureur, ainsi que celles de la responsabilité civile notamment. À un comportement contractuel ou extracontractuel ayant rompu le lien de confiance qu’on pouvait raisonnablement attendre, une réponse juridique est apportée, par la mise en œuvre de la responsabilité, comme ultime recours (Catala P., Le droit à l’épreuve du numérique. Jus ex Machina, PUF, coll. Droit, éthique, société, 1998, p. 303 : « La responsabilité civile constitue, comme toujours, l’ultime recours de celui qui ne peut se prévaloir d’un monopole d’exploitation ni d’une garantie contractuelle »). En effet, le robot n’est pas infaillible (v. l’accident mortel de la route survenu en Floride le 7 mai 2016, impliquant un véhicule « Tesla S » : Pierre Ph., Quand E. Musk rencontrera R. Badinter, ou le pilotage automatique des véhicules automobiles à l’épreuve de l’indemnisation hexagonale des victimes d’accidents de la circulation, RLDC 2016/141, no 6230, p. 33 et s.).
Si des logiciels ou robots se substituent totalement à l’assureur, il n’y a plus deux parties au contrat d’assurance, mais une seule. Il ne faudra pas s’étonner d’une pénalisation accrue des atteintes au consentement dans le champ contractuel et numérique (Raschel E., La pénalisation des atteintes au consentement dans le champ contractuel, th. LGDJ, coll. PU Poitiers, vol. 62, 2014). L’autonomie des robots pose encore la question de leur nature et de leur appartenance à l’une des catégories juridiques existantes ou de la nécessité de créer une nouvelle catégorie dotée de ses propres caractéristiques et effets spécifiques. C’est aussi le prolongement d’une réflexion d’un effet sur l’identité de soi (Varley J., Persistance de la vision, Denoël, 1978. – Sur les inquiétudes pour la condition humaine liée à la technoscience, v. Hervois J., La production de la norme juridique en matière scientifique et technologique, th. Université de La Rochelle, 2011, p. 25-26). Certains proposent ainsi de leur attribuer la personnalité juridique (Bensoussan A., Droit des robots : science-fiction ou anticipation ?, D. 2015, p. 1640 ; contra Loiseau G. et Bourgeois M., Du robot en droit à un droit des robots, JCP G 2014, doctr., p. 1231 ; Loiseau G., Des robots et des hommes, D. 2015, p. 2369 ; Mendoza-Caminade A., Le droit confronté à l’intelligence artificielle des robots : vers l’émergence de nouveaux concepts juridiques ?, D. 2016, p. 1640 ; Bensamoun A., Des robots et du droit, Dalloz IP/IT, juin 2016, p. 281 et s., spéc. p. 282 ; Bensamoun A. et Loiseau G., Intelligence artificielle : faut-il légiférer ?, D. 2017, no 11, p. 581 et s. ; L’intégration de l’intelligence artificielle dans l’ordre juridique en droit commun : questions de temps, Dalloz IP/IT, avril 2017, p. 239 et s., spéc. p. 240-241 ; Daups T., Le robot, bien ou personne ? Un enjeu de civilisation ?, LPA 11 mai 2017, n° 94, p. 7).
Mais l’intelligence artificielle (sur la genèse, v. Turing A. M., Computing machinery and intelligence, Oxford University Press, vol. 59, n° 236, oct. 1950 ; Les ordinateurs et l’intelligence, in Ross Anderson A. (dir.), Pensée et machine, 1983, Champ Vallon, p. 39) ne peut être comparée à celle de l’esprit humain. Si elle peut être performante sur une mono-activité, l’autonomie globale est très relative pour l’instant. Le professeur Supiot émet que si cette technologie est très personnelle et permet de « porter l’empreinte de l’esprit de son utilisateur » (l’ordinateur), elle n’est pas encore une intelligence artificielle » (Supiot A., Homo juridicus. Essai sur la fonction anthropologique du Droit, éd. du Seuil, 2005, p. 193). Elle serait « une informatique qui formalise des raisonnements et manipule non plus des données mais des connaissances » (Bourcier D., Hassett P., Roquilly C. (dir.), Droit et intelligence artificielle. Une révolution de la connaissance juridique, éd. Romillat, coll. Droit et Technologies, 2000, p. 9). Si on en vient ainsi à parler d’« intelligence artificielle », il s’agit d’un abus de langage, ou au mieux d’une métaphore (le Tourneau Ph., Contrats informatiques et électroniques, Dalloz référence 2014/2015, 8e éd., no 03). En d’autres termes, « l’intelligence inventive se mesure selon la distance au savoir » (Serres M., Petite Poucette, éd. Le Pommier, 2012, p. 33-34 : « Cogito : ma pensée se distingue du savoir, des processus de connaissance – mémoire, imagination, raison déductive, finesse et géométrie… externalisés, avec synapses et neurones, dans l’ordinateur. Mieux : je pense, j’invente si je me distancie ainsi de ce savoir et de cette connaissance, si je m’en écarte. Je me convertis à ce vide, à cet air impalpable, à cette âme, dont le mot traduit ce vent »). Arriverait-on à faire des portraits aussi précis d’une personnalité virtuelle que celle de personnalité complexe douée de sentiments (James H., Un portrait de femme, in Un portrait de femme et autres romans, Gallimard, Bibl. de la Pléiade, 2016, p. 707 et s.) ? Dans la machine, les émotions (Chatila R., Intelligence artificielle et robotique : un état des lieux en perspective avec le droit, Dalloz IP/IT, juin 2016, p. 284 et s., spéc. p. 286 : « la machine ne ressent pas d’émotions ») et les sentiments se résument à des algorithmes, même enrichis d’approches « connexionnistes » s’approchant d’une forme d’intelligence collective recherchant à mettre en œuvre un très grand nombre de petites unités simples et d’approches « cognitivistes » qui tentent de modéliser le raisonnement, poser un univers de règles et d’inférences, déduire et conclure avant d’agir. Par exemple, un androïde ne saurait s’échapper, au terme d’une partie d’échecs, par une « défense Loujine » (Nabokov V., La défense Loujine, 1929, in Œuvres romanesques complètes, t. 1, Gallimard, Bibl. de la Pléiade, 1999, p. 529). À la différence des robots, « les hommes sont égaux parce qu’ils meurent » (d’Ormesson J., C’est une chose étrange à la fin que le monde, éd. Robert Laffont, 2010, p. 239).
En outre, il y aurait des conséquences juridiques attachées à cette reconnaissance de la personnalité juridique (état civil, droit de vote, possibilité d’agir en justice, de réclamer un préjudice moral, etc.) ou alors ce serait une autre forme de personnalité juridique… qui serait source d’un amalgame inutile, sans compter le risque de déresponsabilisation du fabricant notamment. Se refusant à la création d’un monde nouveau avec des causalités inédites (Van Vogt A. E., Le Monde des non, 1945, trad. Boris Vian, 1953), à l’image du « gambit des étoiles » (Klein G., Le gambit des étoiles, Marabout, 1971 : dans la conquête de la galaxie et des étoiles par l’humanité, un homme découvre l’état de déshumanisation où les hommes ne sont en fait que des robots au service des étoiles, véritables organismes maîtres des hommes), le Comité économique et social européen n’a pas été favorable à la création d’une personnalité électronique pour les robots (Marraud des Grottes G. (propos recueillis par), Entretien avec Muller C., Le Cese n’est pas favorable à la création d’une personnalité électronique pour les robots, RLDI 2017/139, no 5041, p. 61 et s., spéc. p. 62 : « cela entraîne un risque moral inacceptable. Le droit de la responsabilité civile possède plusieurs fonctions, dont une fonction préventive de correction des comportements, laquelle serait sapée par toute forme de personnalité morale des robots ou de l’IA, entre autres »). À l’étranger, le glissement, quoique sur un terrain différent, vient d’être opéré. La nature, en l’espèce un fleuve en Nouvelle-Zélande, s’est vue accorder la qualité de sujet de droit, reconnue encore au Gange en Inde (Hautereau-Boutonnet M., Faut-il accorder la personnalité juridique à la nature ?, D. 2017, Entretien, p. 1040).
Les robots ne peuvent être tenus pour responsables de leur défectuosité, de leurs actes ou de leur inaction dommageables. Par comparaison avec l’introduction d’espèces exotiques (Bretesché T., L’introduction d’espèces exotiques et la protection de l’environnement : étude d’un système juridique, th. Université de Nantes, 2008), ils comportent aussi des risques sanitaires, par exemple liés aux ondes électromagnétiques (l’Agence nationale de sécurité sanitaire a émis un avis selon lequel les ondes électromagnétiques ont des effets nocifs sur la santé : v. Anses, Expositions aux radiofréquences et santé des enfants, Avis de l’Anses du 20 juin 2016, saisine no 2012-SA-0091, Rapport d’expertise collective, éd. scientifique, juin 2016 (https://www.anses.fr/fr/system/files/AP2012SA0091Ra.pdf)). Un objet connecté contrôlé par smartphone peut être source d’une défaillance, d’une erreur de manipulation, d’une mauvaise transmission, d’une erreur ou d’une absence de loyauté des algorithmes (53 % des Français estiment que les algorithmes sont plutôt source d’erreur : IFOP, Notoriété et attentes vis-à-vis des algorithmes, janv. 2017 ; Marraud des Grottes G. (propos recueillis par), interview de Sangaré F., Pour s’assurer de la loyauté des algorithmes, il faudrait coder les lois d’Asimov et les figer, RLDC 2017/146, no 6289, p. 36 et s. ; Silguy (de) S., Doit-on se méfier davantage des algorithmes ?, RLDC 2017/146, no 6288, p. 32 et s., spéc. p. 35 ; comp. Marraud des Grottes G., Le droit de la propriété intellectuelle permet-il de protéger un algorithme ?, RLDI 2017/139, no  5042, p. 63-64), etc. Ces événements sont susceptibles d’occasionner un dommage à l’utilisateur de l’objet connecté ou à des tiers. Si la communication voire révolution numérique a déjà amené vers une reconstruction du procès civil (Brenner C., La communication numérique et le procès civil, in Teyssié B. (dir.), La communication numérique, un droit, des droits, éd. Panthéon Assas, 2012, p. 447 et s., spéc. p. 461), convient-il aussi de reconstruire les règles de la responsabilité (Coulon C., Du robot en droit de la responsabilité civile : à propos des dommages causés par les choses intelligentes, RCA 2016, étude 6 ; Bensamoun A., Des robots et du droit, Dalloz IP/IT, juin 2016, p. 281 et s., spéc. p. 282) ?
Il faut raisonner à partir de l’existant. Pour l’instant, les robots et l’intelligence artificielle relèvent du droit des biens, corporels ou incorporels (Bensamoun A. et Loiseau G., L’intégration de l’intelligence artificielle dans l’ordre juridique en droit commun : questions de temps, Dalloz IP/IT, avril 2017, p. 239 et s., spéc. p. 241). La Cour de cassation a déduit de l’article 1242 (C. civ., art. 1384, al. 1, ancien) du Code civil que le propriétaire est présumé être le gardien de la chose, donc le responsable. Le gardien a un certain pouvoir de direction et de contrôle, par les instructions qu’il donne. En raison de l’autonomie plus ou moins élevée du robot, la notion de garde, davantage intellectuelle, peut paraître délicate à manier (Haas G., Dubarry A., d’Auvergne M., Ruimy R., Enjeux et réalités juridiques des objets connectés, Dalloz IP/IT, sept. 2016, p. 394 et s., spéc. p. 397 ; adde Martial-Braz N., Objets connectés et responsabilités, Dalloz IP/IT, sept. 2016, p. 399 et s.), malgré la possible distinction entre le comportement et la structure (Loiseau G. et Bourgeois M., Du robot en droit à un droit des robots, JCP G 2014, Doctr., p. 1231 ; Bensamoun A., Des robots et du droit, Dalloz IP/IT, juin 2016, p. 282 ; Courtois G., Robots intelligents et responsabilité : quels régimes, quelles perspectives ?, Dalloz IP/IT, juin 2016, p. 287 et s., spéc. p. 288 : « La garde du comportement serait attribuée à l’utilisateur alors que la garde de la structure serait laissée au fabricant. Cette dernière hypothèse est en réalité proche de la question de défectuosité du robot »).
Si la programmation est du fait du fabricant qui peut en outre le contrôler à distance, ne serait-ce pas ce dernier qui en est le gardien ? Ou encore le propriétaire et le fabricant – avec l’éventuel concepteur, le programmateur du logiciel intégré s’il diffère du fabricant et l’utilisateur s’il diffère du propriétaire (Courtois G., op. cit., Dalloz IP/IT, juin 2016, p. 288) – seraient-ils cogardiens ? La garde en commun est un raffinement de l’esprit utile lorsqu’une victime peine à désigner un responsable parmi un groupe ayant l’usage de la chose instrument de son dommage. L’artifice est cependant moins favorable à la victime appartenant elle-même à ce groupe, en qualité de cogardien, alors privée de réparation (Bigot R., Quézel-Ambrunaz C., Le squash, l’œil au beurre noir et la garde de la balle en trompe-l’œil !, Gaz. Pal. 2017, no 22, p. 19 et s.). De manière paradoxale, la victime ayant par sa faute contribué à la réalisation du dommage est mieux considérée. Le problème n’est pas réglé par le projet de réforme de la responsabilité civile du 13 mars 2017, malgré son article 1240. Imaginons une serrure connectée d’une habitation (avec un contrat d’assurance lié) connaissant une défaillance technique. Par suite de ce défaut, des individus peuvent s’introduire et voler les biens. L’objet connecté est dans ce cas l’instrument du dommage et a un rôle actif dans sa survenance, or le gardien de cette chose semble être la victime qui ne serait donc pas indemnisée, contrairement à celle qui le serait au moins partiellement après avoir mal fermé une fenêtre ou sa porte d’entrée.
Le cadre juridique actuel sur la responsabilité du fait des produits, en vertu duquel le fabricant d’un produit est responsable en cas de défectuosité, a vocation à s’appliquer aux dommages causés par un robot ou une intelligence artificielle, dès lors qu’il n’offrirait pas « la sécurité à laquelle on peut légitimement s’attendre » (C. civ., art. 1245-3 ; anc. art. 1386-4). Deux difficultés apparaissent néanmoins.
D’une part, le producteur sera tenté de s’exonérer de sa responsabilité sur le fondement du risque de développement, c’est-à-dire de l’évolution non anticipée du fonctionnement du robot (Bensamoun A., Des robots et du droit, Dalloz IP/IT, juin 2016, p. 282). Cette abstraction d’un progrès soumis à l’œuvre d’intelligences artificielles, en constante progression autonome, est matérialisée dans le film Transcendance (réalisé par Wally Pfister, 2014).
D’autre part, le programmateur du logiciel de système d’exploitation du robot et de son « intelligence artificielle » devrait alors être assimilé au producteur. Il faudrait que le logiciel soit clairement qualifié de partie composante incorporée (Courtois G., op. cit., Dalloz IP/IT, juin 2016, p. 289) car l’internet des objets est susceptible de relever de la catégorie des services et non des produits ou des biens meubles incorporels. Le cas échéant, une responsabilité solidaire du fabricant et du programmateur pourrait être recherchée, avec une difficulté supplémentaire d’identification de ce dernier lorsque le système d’exploitation a été développé dans l’Open Source (ibid.). Il est ainsi difficile d’appliquer la responsabilité sans faute, si l’on ne connaît pas précisément le producteur ou le créateur du logiciel. Dans tous les cas, les clauses intégrées dans les conditions générales d’utilisation par lesquelles le distributeur de l’objet connecté entend réduire ou évincer sa responsabilité sont, de manière irréfragable, présumées abusives (C. cons., art. R. 212-1, 6°).
Un futur régime spécial de responsabilité des robots est donc imaginé, s’inspirant des régimes de responsabilité du fait d’autrui (Courtois G., ibid.). En premier lieu, la responsabilité du fait du préposé est assise sur un lien de subordination. On pourrait concevoir un tel lien, sauf autonomie totale de la machine, d’un commettant envers un « robot-employé ». Toutefois, la démonstration souvent difficultueuse d’une faute commise par le préposé est susceptible d’évincer de nombreuses victimes. En deuxième lieu, n’exigeant plus la présence d’une faute, le régime de responsabilité de plein droit du fait des enfants repose sur l’autorité parentale. Puisqu’aucun discernement de l’enfant n’est requis, ce régime paraît plus facilement adaptable au robot, dépourvu de toute conscience. Néanmoins, les propriétaires ne bénéficieraient d’aucune impunité sous ce régime de responsabilité sans faute, plus sévère à leur égard. En troisième lieu, le régime spécial du fait des animaux permettrait de se détacher plus facilement, en présence d’un robot qualifié de chose, de la nécessité des deux premiers régimes concernant, en principe, de « personnes dont on droit répondre » (C. civ., art. 1242). En outre, fondé sur l’obligation de garde, avec les pouvoirs que l’on connaît, il aurait davantage vocation à s’employer avec une chose douée d’une certaine autonomie, qui n’est, certes, pas encore un être doué de sensibilité. Le fait qu’il s’échappe n’est pas de nature à exonérer le propriétaire, demeurant responsable de plein droit (Courtois G., ibid.). C’est ce rattachement, a priori mieux adapté au risque futur, que préconise le Livre vert de 2012 de l’Union européenne Eurobotics (The European Robotics Coordination Action, Suggestion for a green paper on legal issues in robotics, 31 déc. 2012, http://www.eu-robotics.net/). Il s’agirait donc d’une forme de continuité pour le marché de l’assurance.
Avant tout exil de l’humanité à bord d’un navire étoile vers un astre lointain, peut-être la Cité des mille planètes (Valérian et la Cité des mille planètes, réalisé par Luc Besson, 2017), conduisant à une nouvelle organisation émergente (Tubb E. C., Le navire étoile, Fleuve noir, 1958), le Parlement européen a adopté une résolution le 16 février 2017, par précaution, afin de mettre en place un régime d’assurance obligatoire, lorsque cela est justifié et nécessaire pour certaines catégories de robots, en vertu duquel, comme c’est déjà le cas pour les véhicules à moteur, les fabricants ou les propriétaires de robots seraient tenus de contracter une police d’assurance couvrant les dommages potentiels causés par les robots (Union européenne, Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la commission concernant des règles de droit civil sur la robotique (2015/2103(INL)) ; adde ouvrage paru depuis notre contribution, en particulier l’étude de Marly P.-G., Les transformations de l’assurance par la robotisation, in Vers de nouvelles humanités. L’humanisme juridique face aux nouvelles technologies, ADP, t. 59, Dalloz, 2017).



 

Dossier « Comprendre et anticiper la révolution numérique en assurance » 2017
 
Les étudiants du Master II de droit des assurances (promotion 2016/2017) de la faculté de droit de l’Université de Caen ont associé deux bonnes idées : fêter les 20 ans du Master II et aborder une problématique d’actualité « Comprendre et anticiper la révolution numérique en assurance » sous un format original, un colloque organisé le 19 mai 2017 mêlant intervenants et répondants, à la fois d’origine universitaire, professionnelle et institutionnelle, une autre sorte de mariage pour tous (https://amdac2016.wixsite.com/assurancenumerique ).
 
Il ne pouvait lui être trouvé de plus légitime présidente des débats que Madame le Doyen Véronique Nicolas, éminente spécialiste du droit des assurances (https://amdac2016.wixsite.com/assurancenumerique) ayant fait œuvre créatrice, en 1997, de cette belle formation au service des étudiants, aujourd’hui en alternance. Après avoir rendu hommage à ses maîtres de la faculté où elle avait soutenu une thèse magistrale proposant une nouvelle analyse du contrat d’assurance, sous la direction du Doyen Héron (Nicolas V., Essai d’une nouvelle analyse du contrat d’assurance, dir. J. Héron, th. Caen, LGDJ, 1996), la fondatrice du Master II a donné la parole aux intervenants en gardant une maîtrise parfaite du temps avec toute la souplesse nécessaire à la richesse et aux rebondissements des débats, au point de pouvoir reconsidérer le vieux dicton : une main délicate dans un gant de velours…
 
Très éloignés de la technophobie, plusieurs intervenants n’ont cependant pas caché leur anxiété, l’auteur de ces lignes en premier lieu – il n’a même pas la télévision ! –, à l’approche du sujet confié et articulé en trois parties. Un premier thème intitulé « l’intégration des nouvelles technologies dans les pratiques assurantielles » a permis de confronter l’intervention de M. Jérôme Balmes (Directeur Digital & Innovation, Fédération Française de l'Assurance) sur l’intelligence artificielle et l’évolution des pratiques assurantielles quant aux voitures autonomes et objets connectés, à celle de M. le professeur David Noguéro (professeur à l’Université Paris Descartes Sorbonne Paris Cité) dont le rôle distribué était de prendre le parti de la protection de l’assuré en la matière (l’évolution du régime de responsabilité civile, le régime juridique des véhicules, l’évolution des notions de dommage et de risque dans les contrats d’assurance automobile).
 
Un deuxième thème portant sur « la digitalisation et la sécurisation des données » a permis de mieux cerner deux problématiques très contemporaines : le Big Data et la blockchain. Primo, M. David Couroyer (chargé de mission marketing stratégique et innovation, Crédit Agricole) a préalablement exposé le Big Data dans le domaine de la bancassurance comme un enjeu majeur avec un usage des données personnelles des clients soulevant de nombreuses difficultés. Deux répondants lui étaient assignés. M. le professeur Arthur Charpentier, professeur en mathématiques et en actuariat Charpentier A., professeur à l’Université de Rennes 1, ex-professeur en actuariat, Université du Québec à Montréal et ENSAE-École Polytechnique,
ex-chargé de missions Fédération Française des Assurances, actuaire à AXA General Insurance Hong Kong, Directeur des études formation Data Science pour l’Actuariat (Institut des Actuaires, Institut du Risk. Management), auteur d’articles universitaires et d’ouvrages, dont Mathématiques de l’Assurance Non-Vie, Economica, 2005-2006 et Computational Actuarial Science with R, CRC, 2014), a ainsi précisé dans l’activité d’assurance l’utilité et les méthodes d’utilisation des données par l’assureur avant d’aborder l’amplification du phénomène par la digitalisation des données et le souci de sécurisation y relatif, en particulier avec le développement de la cyberassurance. M. le professeur David Noguéro a pu soulever les cas d’atteinte possible à la vie privée et la nécessité d’une réglementation stricte de la protection des données personnelles, en particulier en matière de santé, ses conséquences sur l’anticipation du risque et la tarification individualisée.
 
Secundo, à propos de la blockchain, M. Jérôme Balmes a exposé les nouveautés de ce système automatisé et l’exécution des smarts contracts dans le monde de l’assurance, abordant ainsi certains enjeux de l’auto-assurance et des indemnisations automatisées. En réponse, M. Rodolphe Bigot (Maître de conférences à l’Université de Picardie Jules Verne) a proposé de mieux identifier le mécanisme hors de l’assurance avant de le projeter dans l’assurance. M. Arnaud David (Responsable CRM, Crédit Agricole) s’est pour sa part penché sur la question de la suppression des intermédiaires par suite de la mise en œuvre de la blockchain.
 
Tertio, au cours du dernier thème relatif à « la robotisation dans d’assurance et l’évolution de la relation assureur/assuré », M. le professeur Arthur Charpentier a développé l’automatisation des process et les modèles de "boîtes noires" de tarification avant d’évoquer la transformation pour l'assuré de sa relation avec l’assureur, par l’usage des comparateurs de prix (rarement de produits) mais également la généralisation du courtage sous forme d'automatisation. M. Rodolphe Bigot s’est appuyé sur cette présentation illustrée pour retracer, par suite de cette robotisation déjà en marche dans l’assurance, l’évolution de la relation de confiance assureur/assuré, d’un point de vue éthique, économique puis juridique.
 
Les auteurs du présent dossier en profitent pour remercier les étudiants du Master 2 Assurances, en particulier Madame Laura Lacrambe et M. Louis Villemur, meneurs dynamiques de l’Association du Master 2 Droit des Assurances Caen (AMDAC) ; les participants : Madame le Doyen Véronique Nicolas ; Monsieur le professeur Arthur Charpentier ; MM. Jérôme Balmes, David Couroyer et Arnaud David ; sans oublier les anciens et actuels directeurs du Master 2 ayant participé à son succès pérenne, en particulier ceux qu’ils ont la chance de connaître, dans l’ordre chronologique, M. Loïs Raschel, Madame Karine Buhler, M. Thibault Douville, Madame Amandine Cayol et M. Mathias Couturier pour leur confiance renouvelée.
 
Dans ce dossier, les auteurs proposent une synthèse des analyses juridiques abordées lors du colloque visant à « Comprendre et anticiper la révolution numérique en assurance ». À cet effet, les deux interventions orales du professeur David Noguéro ont été regroupées, en première partie, au sein d’une même contribution écrite intitulée « Loi Badinter, voiture autonome, robot, évolution du risque et information au regard de la protection des assurés. Humble essai de projection sur les rails du futur » (I). Elle sera suivie des deux contributions de M. Rodolphe Bigot, avec une forme orale également préservée, permettant d’examiner la blockchain et l’assurance (II), puis la robotisation et l’évolution de la relation de confiance assureur/assuré (III).

 
 
 
Source : Actualités du droit