L'actualité mondiale Un regard humain

Intelligence artificielle : face aux risques d’atteinte à la vie privée, l’ONU demande un moratoire sur certains systèmes 

 L'intelligence artificielle pourrait avoir des effets négatifs, voire catastrophiques si elle est utilisée sans prendre suffisamment en compte la manière dont elle affecte les droits humains
Unsplash/Michael Dziedzic
L'intelligence artificielle pourrait avoir des effets négatifs, voire catastrophiques si elle est utilisée sans prendre suffisamment en compte la manière dont elle affecte les droits humains

Intelligence artificielle : face aux risques d’atteinte à la vie privée, l’ONU demande un moratoire sur certains systèmes 

Droits de l'homme

Le Haut-Commissariat de l’ONU aux droits de l’homme (HCDH) a appelé, mercredi, la communauté internationale à imposer un moratoire sur certains systèmes d’intelligence artificielle (IA) comme la reconnaissance faciale, le temps de « mettre en place un dispositif pour protéger les droits humains quant à leur utilisation ».

L’ONU justifie la nécessité d’instaurer de toute urgence, ces garde-fous ou un moratoire sur la vente et l’utilisation des systèmes d’intelligence artificielle (IA), par le « risque grave d’atteinte aux droits de l’homme ». 

« Les technologies d’intelligence artificielle peuvent avoir des effets négatifs, voire catastrophiques si elles sont utilisées sans prendre suffisamment en compte la manière dont elles affectent les droits humains », a déclaré Michelle Bachelet, la Haut-Commissaire des droits de l’homme de l’ONU.

Face à la capacité de l’IA à alimenter des violations des droits de l’homme à « une échelle colossale », les services de Mme Bachelet appellent la planète à agir dès maintenant. « Plus les risques pour les droits de l’homme sont élevés, plus les obligations légales relatives à l’utilisation des technologies de l’IA devraient être strictes », a affirmé la Haut-Commissaire.

L'intelligence artificielle (IA) est très prometteuse pour améliorer la prestation des soins de santé et la médecine dans le monde entier, mais seulement si l'éthique et les droits de l'homme sont placés au cœur de sa conception.
Unsplash/Possessed Photography
L'intelligence artificielle (IA) est très prometteuse pour améliorer la prestation des soins de santé et la médecine dans le monde entier, mais seulement si l'éthique et les droits de l'homme sont placés au cœur de sa conception.

Des systèmes d’IA utilisés pour déterminer qui peut bénéficier de services publics

Mme Bachelet veut une évaluation des risques des différents systèmes qui s’appuient sur l’intelligence artificielle. « Et puisque l’évaluation et la prise en compte des risques peuvent prendre un certain temps, les États devraient imposer des moratoires sur l’utilisation des technologies potentiellement à haut risque », a-t-elle fait valoir. 

Ce rapport, qui a été demandé par le Conseil des droits de l’homme, a porté sur la manière dont ces technologies ont souvent été mises en place sans que la façon dont elles fonctionnent ou leur impact n’ait été correctement évalué. Il analyse ainsi la manière dont l’IA, y compris le profilage, la prise de décision automatisée et d’autres technologies d’apprentissage automatique, affecte le droit de la population à la vie privée et d’autres droits, notamment les droits à la santé, à l’éducation, à la liberté de mouvement, à la liberté de réunion pacifique et d’association, et à la liberté d’expression. 

Les technologies d’intelligence artificielle peuvent avoir des effets négatifs, voire catastrophiques si elles sont utilisées sans prendre suffisamment en compte la manière dont elles affectent les droits humains - Michelle Bachelet

Le document s’est penché sur l’un des aspects des système d’IA, qui sont parfois utilisés pour déterminer qui peut bénéficier de services publics, décident qui a une chance d’être recruté pour un emploi. 

Selon l’ONU, de nombreuses personnes ont déjà été « traitées injustement à cause de l’IA », comme se voir refuser des prestations de sécurité sociale à cause d’outils d’IA défectueux ou encore être arrêté(e) à cause d’un problème de reconnaissance faciale. 

Des défis face aux méthodes prédictives

Ce rapport examine également comment les États et les entreprises se sont souvent précipités pour intégrer des applications de l’IA, « sans faire preuve de diligence raisonnable ».

A ce sujet, le document soulève en particulier l’usage de plus en plus fréquent de systèmes basés sur l’IA par les forces de l’ordre y compris des méthodes prédictives. « Les déductions, les prévisions et la surveillance effectuées par les outils d’IA, y compris la recherche d’informations sur les modèles de comportement humain, soulèvent également de graves questions », souligne le document. 

Sur un autre plan, un ensemble de données biaisés sur lesquels s’appuient les systèmes d’IA peuvent conduire à des décisions discriminatoires. « Et ces risques sont encore plus élevés pour les groupes déjà marginalisés », alertent les services de Mme Bachelet.  

L’autre défi a trait aux « technologies biométriques, qui deviennent de plus en plus une solution de choix pour les États, les organisations internationales et les entreprises technologiques. Or ces technologies, qui incluent la reconnaissance faciale, sont de plus en plus utilisées pour identifier les personnes en temps réel et à distance, ce qui permet potentiellement un suivi illimité des individus. 

Une plus grande transparence est nécessaire quant à la manière dont les Etats conçoivent et utilisent l’IA
Unsplash/Possessed Photography
Une plus grande transparence est nécessaire quant à la manière dont les Etats conçoivent et utilisent l’IA

Les entreprises et les États invités à faire preuve de « plus transparence »

Le rapport réitère les appels à un moratoire sur leur utilisation dans les espaces publics. D’autant que les données utilisées pour informer et guider les systèmes d’IA peuvent être erronées, discriminatoires, obsolètes ou non pertinentes.

« Nous ne pouvons pas nous permettre de continuer à tenter de rattraper le train en marche en ce qui concerne l’AI et permettre qu’elle soit utilisée sans contrôle ou presque et à réparer les conséquences sur les droits humains après-coup », a insisté la Haut-Commissaire.

Plus globalement, l’ONU invite les entreprises et les États à faire preuve d’une « plus grande transparence quant à la manière dont ils conçoivent et utilisent l’IA ».

Selon le rapport, « la complexité de l’environnement de données, des algorithmes et des modèles qui sous-tendent le développement et le fonctionnement des systèmes d’IA, ainsi que la dissimulation intentionnelle d’informations de la part des acteurs gouvernementaux et privés sont des facteurs qui sapent les moyens dont dispose le public pour comprendre véritablement les effets des systèmes d’IA sur les droits de l’homme et la société ».