Intelligence artificielle et biais discriminatoires

IA

Par Lucie Chapus et Anne-Victoire d’Yvoire, consultantes dataprotection et confiance digitale au sein de la practice Security4Business de Magellan Consulting

L’intelligence artificielle (IA) fait partie intégrante de notre quotidien (industrie, emploi, santé, consommation etc.). Par sa capacité à exécuter des actions prédestinées à l’Homme, de manière plus quantitative et qualitative, l’IA soulève de nombreux questionnements.

En particulier, l’IA connaît une limite grandissante en termes de discrimination, plus couramment appelée : biais. Le biais discriminatoire est le fait pour l’intelligence artificielle de biaiser le résultat obtenu et de discriminer les personnes sur des caractéristiques propres (origine, genre, sexualité, etc.). L’éthique entre alors en jeu : peut-on faire confiance à une machine dont les décisions retentissent sur la vie des utilisateurs ? Une machine peut-elle décider de l’embauche d’une personne ? De l’incarcération d’une autre ?

L’origine des biais est diverse : causés par le programmateur de l’IA, qui y insère ses propres biais par idéologie ou croyance, ils peuvent également être issus des données à partir desquelles l’intelligence artificielle apprend.

« Beaucoup de gens nous disent que cela montre que l’IA a des préjugés, mais non. Cela montre que nous avons des préjugés, et que l’IA les apprend », rappelle Joanna Bryson (experte en IA et informaticienne à l’université de Bath, Royaume-Uni) dans le Guardian. Aujourd’hui, le phénomène va plus loin avec l’utilisation de systèmes de réseaux de neurones profonds où des liens sont faits directement par l’IA. Les informaticiens ne sont alors plus capables d’expliquer quels ont été les critères de décision et, par conséquent, d’expliquer le résultat en lui-même.

Les biais induits par la machine provoquent inévitablement des atteintes aux droits fondamentaux et aux valeurs fondamentales de non-discrimination, socles du modèle social français. À titre d’exemple, lors d’un recrutement, l’IA ne va pas décider de l’intérêt ou non de recruter un homme, elle va simplement faire du sexe masculin et de l’âge des critères déterminants.

Pour pallier la problématique des biais et le manque de transparence de l’IA, le Règlement européen sur la protection des données à caractère personnel (RGPD), ainsi que la loi Informatique et libertés (Lil) modifiée imposent des restrictions dont le principe de minimisation (le traitement de données personnelles doit se limiter à ce qui est strictement nécessaire à la finalité recherchée).

Quant aux personnes concernées, elles disposent de plusieurs droits clés :

– Être informées sur la décision prise, de la logique qui s’y attache et de ses conséquences.

– Ne pas faire l’objet d’une décision entièrement automatisée (« décision prise à l’égard d’une personne […] sans qu’aucun être humain n’intervienne dans le processus. »),

– Accéder aux données traitées par la machine.

En pratique, ces droits sont difficiles tant à exercer qu’à satisfaire. Lister exhaustivement les données ou expliquer la logique utilisée par l’IA nécessitent de fortes expertises. Leur application et l’élimination des biais discriminatoires s’avèrent donc être un nouveau challenge pour ces experts.

D’un point de vue business, pour faire de l’IA un atout de compétitivité, la démarcation d’une entreprise vis-à-vis de ses concurrents suppose une capacité à mettre en évidence la gestion de son capital éthique, dont il émanera une réputation positive, inspirant stabilité et organisation. Dans un contexte de méfiance primaire vis-à-vis de l’IA, une entreprise doit inspirer confiance auprès de ses clients et collaborateurs, notamment à travers un cadre de responsabilité aussi bien numérique que moral. Elle doit démontrer que malgré les bénéfices engendrés par son avancement technologique, elle respecte les droits des personnes et prend en considération les conséquences de son activité sur autrui.