AI Algorithm bias

Algorithmes et discriminations : le grand défi de l’IA

Les préjugés dont les algorithmes font preuve sont l’un des plus grands défis de l’intelligence artificielle. Heureusement, des solutions commencent à émerger.

Robots racistes, machines sexistes et ordinateurs homophobes ? Ce n’est pas exactement ce que nous, humains, avons en tête lorsque nous pensons à l’intelligence artificielle (IA).

L’IA était censée apporter quelque chose que nous ne pourrons jamais accomplir – une fonction cognitive complètement dépourvue de préjugés, prenant uniquement des décisions objectives basées sur les faits. Mais les choses ont-elles jamais été aussi faciles ?

Les algorithmes sont de plus en plus utilisés pour sous-tendre des décisions humaines de grande importance, comme accorder une liberté conditionnelle, employer quelqu’un ou accepter des demandes de prêts.

L’existence possible de préjugés au sein de ces algorithmes a conduit en juillet au lancement de l’IA Now initiative afin de discuter de ces problématiques. Et si le principal souci de cette technologie disruptive est la menace – surestimée – des IA sur les emplois humains, la discrimination dont font preuve les algorithmes ne se positionne pas loin derrière.

Comment des IA peuvent-elles avoir des préjugés ?

L’apprentissage machine (ou machine learning) est, sous sa forme actuelle, semblable à un enfant : incroyablement réceptif, mais susceptible d’hériter des mêmes préjugés que ses parents.

Par exemple, les machines apprendront à lire et à parler grâce à des informaticiens. Ces derniers vont leur apprendre le langage naturel en utilisant des lexiques originaires du monde entier, leur permettant ainsi de faire des connections entre les mots comme si ceux-ci étaient des valeurs mathématiques. De cette façon, un ordinateur peut comprendre que la différence entre mari et épouse est similaire à celle entre homme et femme.

Toutefois, comme il l’a été découvert par des chercheurs de l’Université de Boston et du Microsoft Research New England, un problème émerge lorsque les ordinateurs commencent à associer des mots tels que « programmation » avec « homme » et « tâches ménagères » avec « femme ».

Les minorités pourraient également être affectées, d’après un exemple du Google Research Blog. Les prédictions faites par le biais du machine learning s’améliorent lorsque la taille de l’échantillon d’un groupe augmente. Par définition, les minorités ethniques représenteront moins de données.

De plus, si un groupe a une caractéristique spécifique qui diffère de la population en général, cela pourrait influencer la prédiction. Par exemple, quand il s’agit de déterminer qui va rembourser un prêt, le machine learning pourrait rejeter un trop grand nombre de personnes appartenant à ce groupe en se basant sur cette caractéristique particulière.

Existe-t-il des exemples concrets de discriminations de la part d’IA ?

Beaucoup. Le premier concours de beauté international à avoir été jugé par des machines s’est achevé sur une controverse quand la quasi-totalité des 44 gagnantes sélectionnées étaient blanches. Une enquête a également déterminé que les délinquants noirs aux États-Unis étaient classés par les algorithmes comme représentant un plus haut risque que les personnes blanches ayant commis les mêmes crimes.  Et l’on montre aussi moins aux femmes les publicités en ligne pour des emplois avec un salaire de plus de 200 000 dollars qu’à leurs homologues masculins.

L’une des explications à ces imitations de préjugés humains est donnée par la scientifique Cathy O’Neil, qui avance que ces algorithmes sont pris dans une boucle rétroactive – quand on assigne un label à quelque chose, il est difficile de voir quoique ce soit d’autre.

Par exemple, si l’on considère d’office qu’il y a de fortes probabilités pour que certaines personnes ne remboursent pas leur prêt, on peut les forcer à faire un emprunt avec de forts taux d’intérêts, ce qui rend le remboursement plus difficile. A cause de ça, les personnes concernées pourraient faire un défaut de paiement, ce qui signifierait que l’algorithme enregistrerait avoir eu raison.

Peut-on trouver une solution algorithmique aux préjugés des IA ?

Plus facile à dire qu’à faire. Nous n’en savons actuellement pas suffisamment sur la prise de décision automatisée pour émettre un réel jugement. Puisque les machines prennent des décisions basées sur des suppositions floues, il est incroyablement difficile de déterminer avec précision où est-ce que le préjugé de l’algorithme prend forme.

Heureusement, il semblerait que nous ayons sauté les cinq étapes du deuil du modèle Kübler-Ross et qu’en plus de l’avoir reconnu, nous cherchions activement des réponses à ce problème. Une des solutions serait « l’opportunité égale », ce qui signifierait qu’un algorithme doit accepter la même fraction de chaque groupe – par exemple, un quart de chaque ethnie.

Comme Google le défend, cela déplace au moins ce fardeau de la population aux créateurs des algorithmes, qui sont maintenant incités à prodiguer un meilleur système de scoring.

Mais alors que cette solution répond à une inquiétude spécifique, elle ouvre la porte à nombre d’autres interrogations. Par exemple, quel degré de transparence devrions-nous avoir vis-à-vis des décisions prises par les algorithmes ? De quelles régulations avons-nous besoin et qui va le déterminer ? Répondre à ces questions résoudra un casse-tête majeur et rendra l’idée d’un monde d’IA bien plus facile à digérer.

 

Inbenta est un leader dans les technologies innovantes de recherche pour les entreprises. Nous mettons en oeuvre les dernières avancées en termes de traitement automatique du langage afin d’améliorer la qualité de service pour les entreprises et leurs clients.

Intéressés ? Notre team d’experts est à votre service pour vous créer une offre personnalisée.

PLANIFIER UNE DÉMO

Inbenta Team
by Inbenta Team