Retour aux articles

États-Unis : un projet de loi pour lutter contre les biais des algorithmes

Tech&droit - Données, Intelligence artificielle
12/04/2019
Deux sénateurs démocrates américains viennent de déposer un projet de loi, intitulé « Algorithmic Accountability Act of 2019 ». Le point sur les objectifs et les entreprises visées par ce texte.
Tout est parti d’un constat, bien connu, dressé par le sénateur Wyden, l’un des auteurs de ce projet de loi, avec Cory Brooker : « les ordinateurs sont de plus en plus impliqués dans les décisions les plus importantes qui affectent la vie des Américains – que quelqu'un puisse ou non acheter une maison, trouver un emploi ou même aller en prison. Mais au lieu d'éliminer les préjugés, ces algorithmes dépendent trop souvent d'hypothèses ou de données biaisées qui peuvent en fait renforcer la discrimination à l'égard des femmes et des personnes de couleur » (U.S. Lawmakers Propose Bill to Fight Bias in Tech Companies' Algorithms, NY times, 11 avr. 2019).
 
En pratique, ce projet de loi vise à exiger des entreprises qui développent des plateformes des évaluations régulières de leurs algorithmes et une utilisation a minima des données.
 
Un champ d’application restreint aux entreprises qui manipulent le plus de données
Le projet de loi vise uniquement les grandes entreprises qui ont accès à un volume important d’informations (Algorithmic Accountability Act of 2019, sec. 2, (5)), à savoir :
  • les entreprises :
    • ayant recours à des traitements automatisés de données qui ont gagné plus de 50 millions de dollars par année et ce, 3 années au cours des 10 exercices précédent,
    • ou qui détiennent des données sur plus d'un million d'utilisateurs ou qui ont vendu plus d’un million d’appareils ;
  • les entreprises qui agissent principalement à titre de courtier en données (achat et vente des données des consommateurs).
Précédents
– le conseil municipal de New York a été le premier à adopter un projet de loi sur la transparence algorithmique en 2017 (v. New York veut surveiller ses algorithmes pour qu'ils évitent de prendre des décisions biaisées, France24, 20 déc. 2017) ;
– l'État de Washington a tenu des audiences pour une mesure similaire en février dernier (v. A new bill would force companies to check their algorithms for bras, 10 avr. 2019).
 
L’obligation de réaliser une étude d’impact
S'il est adopté, la Commission fédérale du commerce (Federal trade commission, FTC) sera chargée de mettre en place des règles pour évaluer les systèmes automatisés particulièrement sensibles, dans un délai de deux ans après la promulgation de cette loi (Algorithmic Accountability Act of 2019, sec. 3, (1)).

Les entreprises devront réaliser des audits, si possible en ayant recours à des experts tiers à l’entreprise. Ces études devront contenir (Algorithmic Accountability Act of 2019, sec. 2, (2)) :
  • une description du traitement automatisé (design, données d'apprentissages, jeu de données)
  • une déclaration sur les bénéfices et les coûts de ce traitement, en précisant : 
    • les bonnes pratiques prises pour limiter l'utilisation des données,
    • la durée de conservation des données et des résultats du traitement,
    • le niveau d'information sur le fonctionnement de l'algorithme donné au consommateur
    • quel consommateur a accès aux résultats du traitement et peut corriger ou contester ses résultats ?
    • les bénéficiaires des résultats de ce traitement ;
  • une déclaration sur les risques de ce traitement sur la vie privée et la sécurité des données personnelles, afin de pouvoir vérifier la présence de biais ou de décisions discriminatoires ;
  • le détail des mesures prises pour réduire les risques de biais et de discriminations.
Et elles auront bien évidemment l’obligation de corriger les biais découverts à l’occasion de cet audit. À sa discrétion, l’entreprise aura le choix de les rendre ou non public.
 
La FTC sera garante de l’application de ce projet de loi.
 
Le projet de loi prévoit, enfin, qu’un État américain pourra poursuivre une société étrangère qui ne respecterait pas les règles établies par l’Algorithmic Accountability Act of 2019 (Algorithmic Accountability Act of 2019, sec. 3, (1) (e)).
Source : Actualités du droit