Biais, racisme et mensonges : faire face aux conséquences indésirables de l'Intelligence artificielle

21 décembre 2020

De nombreux outils numériques, très puissants et utilisant des logiciels d'intelligence artificielle (IA), ont montré leur efficacité dans la lutte contre la Covid-19 et promettent bien d’autres façons de contribuer à l’amélioration du monde. Cependant, à mesure que l’IA s'infiltre dans toujours plus de domaines de la vie quotidienne, il devient évident que son utilisation abusive peut entraîner des dommages graves.

Pour pallier ce problème, les Nations Unies ont appelé à une réglementation internationale forte de cette technologie. 

Bien que l'Intelligence artificielle puisse évoquer des images de machines capables de penser et d'agir comme des êtres humains, la réalité est plus prosaïque, et renvoie à des logiciels qui peuvent, dans une certaine mesure, « apprendre », résoudre des problèmes et trouver des modèles. Cela est particulièrement utile lorsqu'il est nécessaire de trier et de comprendre d'énormes quantités de données. 

En raison de sa caractéristique d'auto-apprentissage, une autre idée fausse souvent entretenue au sujet de l’Intelligence artificielle est la garantie qu’elle fournisse des résultats plus efficaces, fiables et corrects que les êtres humains.

Cependant, les exemples récents d'utilisation abusive qui ont eu pour conséquence d’abaisser incorrectement des notes d'examen, d’envoyer des personnes innocentes en prison et de voler des données personnelles, nous rappellent que ce sont les êtres humains, avec toutes leurs imperfections, qui sont à l'origine des succès ou des échecs des outils d'IA. 

En attendant le lancement d'un guide des Nations Unies pour comprendre l'éthique de l'IA, voici cinq choses que vous devriez savoir sur son utilisation, ses conséquences et la façon dont elle pourrait être améliorée. 

1) Les conséquences d'une utilisation abusive peuvent être dévastatrices 

En janvier, un Afro-Américain a été arrêté dans le Michigan, aux États-Unis, pour un vol à l'étalage dont il ne savait rien. Il a été mis en détention après avoir été menotté devant sa maison, et devant sa famille. 

Il s’agirait de la première arrestation injustifiée de ce genre : les policiers impliqués avaient fait confiance à une IA de reconnaissance faciale pour arrêter leur suspect. Cependant, leur outil n'avait pas appris à reconnaître les différences entre des visages noirs, ayant été entraîné avec des images représentants principalement des visages blancs. Heureusement, il s’est vite avéré que l’homme arrêté ne ressemblait en rien au suspect vu dans un cliché pris par les caméras de sécurité du magasin, et a été relâché après plusieurs heures passées en prison. 

En juillet dernier au Royaume-Uni, de nombreux étudiants espérant aller étudier dans les universités de leurs choix ont vu leurs rêves anéantis lorsqu'un programme informatique fut mis en place pour donner une estimation de leurs notes, en vue de remplacer les examens traditionnels, annulés en raison de la pandémie de Covid-19.

Afin de déterminer les résultats que les étudiants auraient obtenu s'ils avaient passé des examens, le programme a pris en compte les notes déjà existantes ainsi que leurs parcours scolaires au fil du temps. Cela a eu pour conséquence de pénaliser les élèves brillants issus de minorités et de quartiers défavorisés, plus susceptibles d'avoir étudier dans des écoles dont les notes moyennes sont, dans l'ensemble, inférieures à celles des écoles fréquentées par des élèves plus riches. 

Ces exemples montrent qu’afin d’avoir des outils d'IA qui fonctionnent correctement, les scientifiques qualifiés doivent travailler avec des données de haute qualité. Malheureusement, la plupart des données utilisées pour entraîner les IA sont actuellement collectées auprès des consommateurs du monde entier, sans toujours avoir leur consentement explicite. De plus, les pays les plus pauvres n'ont souvent pas la capacité de garantir la protection des données personnelles, ou de protéger leurs sociétés contre les cyber-attaques et la désinformation qui se sont développées depuis la pandémie de Covid-19. 

Deux nouveaux règlements des Nations Unies sur les véhicules, renforceront la protection des piétons et des cyclistes
Unsplash/David von Diemar
Deux nouveaux règlements des Nations Unies sur les véhicules, renforceront la protection des piétons et des cyclistes

2) La haine, la division et les mensonges sont bons pour les affaires 

De nombreuses entreprises de médias sociaux ont été critiquées pour avoir utilisé des algorithmes, alimentés par l'IA, pour micro-cibler les utilisateurs et leur envoyer du contenu sur mesure, qui renforcerait leurs préjugés. Plus le contenu est incendiaire, plus il y a de chances qu'il soit consommé et partagé. 

La raison pour laquelle ces entreprises ont intérêt à « pousser » du contenu socialement clivant et polarisant vers leurs utilisateurs, est que cela augmente la probabilité que ces derniers restent plus longtemps sur la plateforme, ce qui satisfait les annonceurs et augmente ainsi les profits. 

Cela a conduit à la popularité des messages extrémistes, remplis de haine, diffusés par des groupes qui resteraient autrement marginaux et peu connus. Pendant la pandémie de Covid-19, cela a également participé à la diffusion d’informations dangereuses et erronées sur le virus, ce qui a pu entraîner une augmentation du nombre de personnes infectées. 

3) Les inégalités mondiales se reflètent en ligne 

Il existe des preuves solides qui suggèrent que l'IA joue un rôle dans l’exacerbation des inégalités dans le monde et profite à un petit nombre de personnes. Par exemple, plus des trois quarts de toutes les nouvelles innovations et brevets numériques sont produits par seulement 200 entreprises. Sur les 15 plus grandes plateformes numériques que nous utilisons, 11 proviennent des États-Unis, tandis que le reste vient de Chine. 

Cela signifie que les outils d'IA sont principalement conçus par des développeurs occidentaux. En outre, ces développeurs sont majoritairement des hommes blancs, qui représentent également la grande majorité des auteurs sur les sujets d'IA. Le cas de l'arrestation injustifiée au Michigan n'est qu'un exemple des dangers que représente le manque de diversité dans ce domaine majeur. 

Cela signifie également que d'ici 2030, l'Amérique du Nord et la Chine devraient recevoir la plus grande part des gains économiques que l’IA devrait générer, estimée en billions de dollars. 

L'intelligence artificielle est utile pour analyser des grandes quantités de données.
Unsplash/Franki Chamaki
L'intelligence artificielle est utile pour analyser des grandes quantités de données.

4) Les bénéfices potentiels sont énormes 

Cela ne veut pas dire que nous devrions moins recourir à l'IA : les innovations utilisant cette technologie sont immensément utiles à la société, comme nous l'avons vu pendant la pandémie. Les gouvernements du monde entier se sont tournés vers des solutions numériques pour résoudre les nouveaux problèmes, allant des applications de traçage des cas contacts potentiels, à la télémédecine et aux médicaments délivrés par drones. Afin de suivre la propagation mondiale de la Covid-19, l'IA a été utilisée pour traiter de vastes ensembles de données dérivés de nos interactions sur les médias sociaux et en ligne. 

Les avantages vont cependant bien au-delà de la pandémie. L'IA peut contribuer à la lutte contre la crise climatique, en alimentant des modèles qui pourraient aider à restaurer les écosystèmes et les habitats et à ralentir la perte de biodiversité ; et à sauver des vies en aidant les organisations humanitaires à mieux orienter leurs ressources là où elles sont le plus nécessaires. 

Le problème est que les outils d'IA sont développés si rapidement que ni les concepteurs, ni les actionnaires des entreprises, ni les gouvernements n'ont eu le temps d'envisager les écueils potentiels de ces nouvelles technologies impressionnantes. 

5) Nous devons nous mettre d'accord sur une réglementation internationale de l'IA 

Pour toutes ces raisons, l’UNESCO, l'agence des Nations Unies pour l'éducation, la science et la culture, consulte actuellement un large éventail de groupes, dont des représentants de la société civile, du secteur privé et du grand public, afin d'établir des normes internationales en matière d'IA et de s'assurer que cette technologie ait une base éthique solide, incluant l'État de droit et la promotion des droits humains. 

Parmi les domaines importants qui doivent être pris en compte, on peut citer l'importance d'une plus grande diversité dans les sciences des données afin de réduire les préjugés et les stéréotypes raciaux et de genre, l'utilisation appropriée de l'IA dans les systèmes judiciaires afin de les rendre plus équitables et plus efficaces, et la recherche de moyens permettant de garantir que les avantages de la technologie soient répartis entre le plus grand nombre de personnes possible. 

La consultation a débuté en juillet 2020, et un projet de document juridique et global sur l'éthique de l'IA a été rédigé par des experts de l'UNESCO, prenant en compte les nombreux impacts de l'IA, y compris sur l'environnement et les besoins des pays du Sud. L'élaboration de règles internationales régissant l'utilisation de l'IA est une étape importante qui nous permettra de décider quelles valeurs doivent être entérinées et, surtout, quelles règles doivent être appliquées. 

Un nouveau guide de l'UNESCO

Pour aider à expliquer les opportunités et les défis posés par l'IA, l'UNESCO va lancer en janvier 2021 un nouveau guide : « Comprendre l'éthique de l'IA : pourquoi est-ce l'affaire de tous ? ». L'un des rôles de l'UNESCO est de sensibiliser, d'éduquer les gens et de leur fournir des outils de réflexion éthique. Cette publication permettra à des personnes de tous âges et de tous horizons de mieux comprendre les questions complexes liées à l'IA et les raisons pour lesquelles elles devraient se préoccuper de ses applications. 

 

♦ Recevez des mises à jour quotidiennes directement dans votre boîte mail - Inscrivez-vous ici.
♦ Téléchargez l'application ONU Info pour vos appareils iOS ou Android.