Intelligence artificielle : l’Europe réglemente

La volonté du texte est claire : garantir les droits des européens devant le développement de l'IA tout en promouvant son développement maitrisé.

Le 21 avril 2021 est peut-être une date qui, dans quelques années, symbolisera une transformation radicale : pour la première fois, la Commission Européenne a proposé de créer un cadre juridique pour l’utilisation de l’Intelligence Artificielle. La volonté du texte est claire : garantir les droits des européens devant le développement de l’IA tout en promouvant son développement maitrisé.

La constitution du tout premier cadre juridique sur l’IA et d’un nouveau plan coordonné avec les états membres garantiront la sécurité et les droits fondamentaux des personnes et des entreprises, tout en renforçant l’adoption, l’investissement et l’innovation de l’IA dans toute l’UE. De nouvelles règles sur les machines et les équipements compléteront cette approche en adaptant les règles de sécurité pour accroître la confiance des utilisateurs dans la nouvelle génération polyvalente de produits.”

Un cadre juridique précis

Depuis de nombreuses années, le développement de l’IA est exponentiel dans tous les domaines d’activité. Vecteur de fascination dans sa mise en place et de défiance dans son utilisation, le mot lui-même cristallise les inquiétudes de toute une population non experte dans le domaine craignant pour ses droits, ses libertés et le respect de sa vie privée.

La Commission Européenne a donc, en réponse à ses interrogations, décidé de créer un cadre juridique dans ce domaine.

En premier lieu, il convient de rappeler ce qu’on qualifie communément d’IA : on pourrait la définir comme un ensemble d’algorithmes allouant à des machines des facultés et des comportements qualifié d'”intelligence” par les humains. On comprend par cette tentative de définition toute la complexité de la matière, sa subjectivité et surtout toute l’ampleur des domaines qu’elle englobe.

Pour classer, les domaines d’utilisation, de l’IA, la Commission européenne a décidé de classer ceux-ci par niveau de risque d’atteinte aux droits des citoyens et d’allouer des règles différentes d’utilisation suivant ces risques. Ce classement comporte 4 niveaux à retrouver en détail en bas de cet article :

  • Les systèmes d’IA à risque minime
  • Les systèmes d’IA à risque limité
  • Les systèmes d’IA à risque élevé
  • Les systèmes d’IA à risque inacceptable

Margarethe Vestager, vice-présidente exécutive pour une Europe adaptée à l’ère du numérique, résume en ces mots l’ambition de cette réglementation :

“En matière d’intelligence artificielle, la confiance n’est pas un luxe mais une nécessité absolue. En adoptant ces règles qui feront date, l’UE prend l’initiative d’élaborer de nouvelles normes mondiales qui garantiront que l’IA soit digne de confiance. En établissant les normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier, tout en préservant la compétitivité de l’UE. À l’épreuve du temps et propices à l’innovation, nos règles s’appliqueront lorsque c’est strictement nécessaire : quand la sécurité et les droits fondamentaux des citoyens de l’Union sont en jeu.”

Un texte d’ores et déjà critiqué

Plusieurs spécialistes des questions liées à ce sujet nous rappellent un élément important : l’IA est conçue par des humains et, cette nature même induit certaines problématiques qu’il semble très difficile de quantifier et même de prévoir. La critique d’une tentative de législation dans le domaine est inhérente par nature.

Bien avant sa parution officielle, au bénéfice de nombreuses fuites, les critiques se sont abattues sur cette proposition de réglementation.

Le fait est là : l’IA est d’ores et déjà omniprésente dans notre société moderne et certains spécialistes ne manquent pas de s’en inquiéter. Sur un point, tout le mode semble d’accord, détracteurs comme promoteurs de l’IA s’accordent sur le fait qu’un risque existe dans l’utilisation de cette technologie. Mais quel risque, à quel niveau, dans quels domaines, dans quelles proportions… c’est là que les avis divergent.

La Commission européenne, par ce texte, entérine cette approche en basant tout son raisonnement sur la notion de risque : c’est ce vocable qui est la pierre angulaire de la législation, c’est sur ce mot que se décline les autorisations et les interdictions. La lecture détaillée du texte complet pose nombre de question dans le détail de son application.

Sur ce fondement, nombre d’associations s’insurgent sur l’idée même de raisonner sur ce risque qui a permis à de nombreux secteurs d’échapper à l’inscription dans la 4ème catégorie. Ainsi, pour les détracteurs de ce texte, ne pas classifier en “risque inacceptable” le spectre de la police prédictive, le contrôle de l’immigration par l’IA, la collecte de données ethniques ou sexuelles biométriques ou encore son utilisation dans le domaine du contrôle du travail est une incohérence coupable.

Beaucoup s’inquiètent du fait que certains domaines d’application ne tombent pas sous le coup d’une interdiction pure et simple comme la santé par exemple ou encore l’éducation. Mais, paradoxalement, il faut bien se rendre à l’évidence que ce sont ces secteurs mêmes qui sont les plus prometteurs en matière d’IA, qui offrent le plus de perspectives d’innovation et de progrès … Alors que faire ? Agir en fonction du principe de précaution et interdire sur le fondement du risque certains secteurs purement et simplement à l’émergence de l’IA sous quelque forme que ce soit ? Quand on pose ces questions, on touche à l’essence même de la complexité de l’exercice : la notion d’éthique. Et c’est sans doute sur ce point que ce texte est novateur… La Commission Européenne, en engageant un processus législatif sur le sujet ouvre en quelque sorte la voie à l’intrusion de l’éthique dans toutes ces questions. Ce faisant, à un niveau supra étatique, elle pose la première pierre d’une future norme internationale face aux géants de l’IA que sont les États-Unis et la Chine.

Rappelons que ce texte n’est qu’une proposition de la Commission et qu’une réglementation qui en émergerait n’est envisageable que dans un délai de plusieurs années. Son passage devant le Parlement Européen puis devant le Conseil ne se fera pas sans amendements divers, discussions, interventions de lobbies divers de toutes opinions… Aussi, il ne faut pas perdre de vue qu’il porte en son sein une importance majeure : exister.

Les catégories de risques prévues par le texte

  • Les systèmes d’IA à risque minime : à ce niveau, aucune intervention n’est prévue, les systèmes sont considérés comme sans risque pour les utilisateurs. On retrouve dans cette catégorie les jeux vidéos et les filtres anti spam fonctionnant avec une IA.
  • Les systèmes d’IA à risque limité : à ce niveau, l’utilisation requiert un consentement des utilisateurs et une conscience de l’interaction avec une IA. La volonté est d’imposer une transparence dans l’utilisation des services. On retrouve dans cette catégorie les chatbots “intelligents” par exemple.
  • Les systèmes d’IA à risque élevé : à ce niveau, des obligations strictes sont mises en place dans certains domaines d’application pour qu’une mise sur le marché soit autorisée :
  • Systèmes adéquats d’évaluation et d’atténuation des risques ;
  • Qualité élevée des ensembles de données alimentant le système afin de réduire au minimum les risques et les résultats ayant un effet discriminatoire ;
  • Enregistrement des activités afin de garantir la traçabilité des résultats ;
  • Documentation détaillée fournissant toutes les informations nécessaires sur le système et sur sa finalité pour permettre aux autorités d’évaluer sa conformité ;
  • Informations claires et adéquates à l’intention de l’utilisateur ;
  • Contrôle humain approprié pour réduire au minimum les risques ;
  • Niveau élevé de robustesse, de sécurité et d’exactitude.

Dans cette catégorie définie comme à haut risque, on trouve :

  • Les technologies d’IA qui sont utilisées dans les infrastructures critiques susceptibles de mettre en danger la vie et la santé des citoyens (notamment les transports) ;
  • Les technologies d’IA utilisées dans l’éducation ou la formation professionnelle, qui peuvent déterminer l’accès à l’éducation et le parcours professionnel d’une personne (par exemple, la notation d’épreuves d’examens) ;
  • Les technologies d’IA utilisées dans les composants de sécurité des produits (par exemple, l’application de l’IA dans la chirurgie assistée par robot) ;
  • Les technologies d’IA utilisées dans le domaine de l’emploi, de la gestion de la main d’œuvre et de l’accès à l’emploi indépendant (par exemple, les logiciels de tri des CV pour les procédures de recrutement) ;
  • Les technologies d’IA utilisées dans les services privés et publics essentiels (par exemple, l’évaluation du risque de crédit, qui prive certains citoyens de la possibilité d’obtenir un prêt) ;
  • Les technologies d’IA utilisées dans le domaine du maintien de l’ordre, qui sont susceptibles d’interférer avec les droits fondamentaux des personnes (par exemple, la vérification de la fiabilité des éléments de preuve) ;
  • Les technologies d’IA utilisées dans le domaine de la gestion de la migration, de l’asile et des contrôles aux frontières (par exemple, la vérification de l’authenticité des documents de voyage) ;
  • Les technologies d’IA utilisées dans les domaines de l’administration de la justice et des processus démocratiques (par exemple, l’application de la loi à un ensemble concret de faits).
  • Les systèmes d’IA à risque inacceptable : à ce niveau, on retrouve les systèmes d’IA considérés comme une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes. Dans cette catégorie l’utilisation de l’IA est tout simplement interdite. Y sont répertoriées les applications d’IA manipulant le comportement humain pour priver les utilisateurs de leur libre arbitre et les IA permettant la notation sociale par les états.

En outre, la Commission prévoit une réglementation spécifique entourant l’utilisation spécifique de machines garantissant aux utilisateurs et aux consommateurs une sécurité optimale et une gestion des risques élevées.

Texte complet

Nos valeurs
Au sein de l’Observatoire de la Compétence Métier, notre ambition première est de remettre l’humain au centre de l’équilibre des entreprises.

Depuis sa création, l’Observatoire de la Compétence Métier s’est donné pour mission de fédérer et d’informer les professionnels et les particuliers sur la nécessaire préservation et promotion de l’humain ainsi que de la compétence métier en entreprise. Nous sommes en effet convaincus que la compétence métier et l’expertise des femmes et des hommes qui composent l’entreprise se révèlent à long terme un patrimoine inestimable.

Notre ambition, au travers de nos publications, est d’affirmer avec conviction que ces valeurs sont le véritable patrimoine de l’entreprise, la réelle valeur ajoutée et surtout la meilleure protection contre les dérives actuelles que sont la standardisation, la vision court-termiste et le nivellement par le bas des logiques d’entreprise.