Devenez, à votre échelle, acteur du changement ?
Vos idées nous intéressent, votre opinion nous importe et votre point de vue est essentiel.
"La constitution du tout premier cadre juridique sur l’IA et d’un nouveau plan coordonné avec les états membres garantiront la sécurité et les droits fondamentaux des personnes et des entreprises, tout en renforçant l’adoption, l’investissement et l’innovation de l’IA dans toute l’UE. De nouvelles règles sur les machines et les équipements compléteront cette approche en adaptant les règles de sécurité pour accroître la confiance des utilisateurs dans la nouvelle génération polyvalente de produits."
Depuis de nombreuses années, le développement de l'IA est exponentiel dans tous les domaines d'activité. Vecteur de fascination dans sa mise en place et de défiance dans son utilisation, le mot lui-même cristallise les inquiétudes de toute une population non experte dans le domaine craignant pour ses droits, ses libertés et le respect de sa vie privée.
La Commission Européenne a donc, en réponse à ses interrogations, décidé de créer un cadre juridique dans ce domaine.
En premier lieu, il convient de rappeler ce qu'on qualifie communément d'IA : on pourrait la définir comme un ensemble d'algorithmes allouant à des machines des facultés et des comportements qualifié d'"intelligence" par les humains. On comprend par cette tentative de définition toute la complexité de la matière, sa subjectivité et surtout toute l'ampleur des domaines qu'elle englobe.
Pour classer, les domaines d'utilisation, de l'IA, la Commission européenne a décidé de classer ceux-ci par niveau de risque d'atteinte aux droits des citoyens et d'allouer des règles différentes d'utilisation suivant ces risques. Ce classement comporte 4 niveaux à retrouver en détail en bas de cet article :
Margarethe Vestager, vice-présidente exécutive pour une Europe adaptée à l’ère du numérique, résume en ces mots l'ambition de cette réglementation :
“En matière d’intelligence artificielle, la confiance n’est pas un luxe mais une nécessité absolue. En adoptant ces règles qui feront date, l’UE prend l’initiative d’élaborer de nouvelles normes mondiales qui garantiront que l’IA soit digne de confiance. En établissant les normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier, tout en préservant la compétitivité de l’UE. À l’épreuve du temps et propices à l’innovation, nos règles s’appliqueront lorsque c’est strictement nécessaire : quand la sécurité et les droits fondamentaux des citoyens de l’Union sont en jeu.”
Plusieurs spécialistes des questions liées à ce sujet nous rappellent un élément important : l'IA est conçue par des humains et, cette nature même induit certaines problématiques qu'il semble très difficile de quantifier et même de prévoir. La critique d'une tentative de législation dans le domaine est inhérente par nature.
Bien avant sa parution officielle, au bénéfice de nombreuses fuites, les critiques se sont abattues sur cette proposition de réglementation.
Le fait est là : l'IA est d'ores et déjà omniprésente dans notre société moderne et certains spécialistes ne manquent pas de s'en inquiéter. Sur un point, tout le mode semble d'accord, détracteurs comme promoteurs de l'IA s'accordent sur le fait qu'un risque existe dans l'utilisation de cette technologie. Mais quel risque, à quel niveau, dans quels domaines, dans quelles proportions… c'est là que les avis divergent.
La Commission européenne, par ce texte, entérine cette approche en basant tout son raisonnement sur la notion de risque : c'est ce vocable qui est la pierre angulaire de la législation, c'est sur ce mot que se décline les autorisations et les interdictions. La lecture détaillée du texte complet pose nombre de question dans le détail de son application.
Sur ce fondement, nombre d'associations s'insurgent sur l'idée même de raisonner sur ce risque qui a permis à de nombreux secteurs d'échapper à l'inscription dans la 4ème catégorie. Ainsi, pour les détracteurs de ce texte, ne pas classifier en "risque inacceptable" le spectre de la police prédictive, le contrôle de l'immigration par l'IA, la collecte de données ethniques ou sexuelles biométriques ou encore son utilisation dans le domaine du contrôle du travail est une incohérence coupable.
Beaucoup s'inquiètent du fait que certains domaines d'application ne tombent pas sous le coup d'une interdiction pure et simple comme la santé par exemple ou encore l'éducation. Mais, paradoxalement, il faut bien se rendre à l'évidence que ce sont ces secteurs mêmes qui sont les plus prometteurs en matière d'IA, qui offrent le plus de perspectives d'innovation et de progrès … Alors que faire ? Agir en fonction du principe de précaution et interdire sur le fondement du risque certains secteurs purement et simplement à l'émergence de l'IA sous quelque forme que ce soit ? Quand on pose ces questions, on touche à l'essence même de la complexité de l'exercice : la notion d'éthique. Et c'est sans doute sur ce point que ce texte est novateur… La Commission Européenne, en engageant un processus législatif sur le sujet ouvre en quelque sorte la voie à l'intrusion de l'éthique dans toutes ces questions. Ce faisant, à un niveau supra étatique, elle pose la première pierre d'une future norme internationale face aux géants de l'IA que sont les États-Unis et la Chine.
Rappelons que ce texte n'est qu'une proposition de la Commission et qu'une réglementation qui en émergerait n'est envisageable que dans un délai de plusieurs années. Son passage devant le Parlement Européen puis devant le Conseil ne se fera pas sans amendements divers, discussions, interventions de lobbies divers de toutes opinions… Aussi, il ne faut pas perdre de vue qu'il porte en son sein une importance majeure : exister.
Dans cette catégorie définie comme à haut risque, on trouve :
En outre, la Commission prévoit une réglementation spécifique entourant l'utilisation spécifique de machines garantissant aux utilisateurs et aux consommateurs une sécurité optimale et une gestion des risques élevées.