Digitalisation & Tendances

Loi européenne sur l’IA : la législation sur l’intelligence artificielle et son impact pour les entreprises

Coup d’oeil sur la nouvelle législation de l’Union européenne sur l’intelligence artificielle et la manière de préparer votre entreprise à la loi européenne sur l’IA

L’intelligence artificielle (IA) n’est pas uniquement une question d’innovation — elle constitue également un moteur essentiel pour l’activité économique.

L’Union Européenne (UE) estime que l’IA requiert de meilleures conditions pour se développer. Elle a dès lors défini une nouvelle norme en portant sur les fonts baptismaux la loi de l’Union Européenne sur l’Intelligence Artificielle (Loi de l’UE sur l’IA).

Dans le présent article, nous examinons ce que la Loi sur l’IA de l’UE implique pour vous, que soyez à la tête d’une start-up ou que vous gériez des activités financières en pleine croissance.

N’y voyez pas un simple ensemble de règles et de dispositions réglementaires — il s’agit pour vous de comprendre comment la Loi sur l’IA peut influer sur vos stratégies et vos investissements en matière d’IA, aujourd’hui et à l’avenir.

Nous aborderons les sujets suivants :

Qu’est-ce que la Loi de l’UE sur l’iA ?

La Loi de l’UE sur l’IA, qui devrait entrer en vigueur en 2025, est un cadre législatif destiné à réglementer l’utilisation et le développement de l’IA au sein de l’UE. L’Europe devient ainsi la première région à prévoir un jeu complet de règles transparentes en matière de systèmes IA.

L’utilisation de l’IA, la protection des données et la gestion des risques sont d’ores et déjà des paramètres pertinents pour la planification des activités et la gouvernance d’entreprise. Si vous exercez des activités dans l’UE, il se pourrait que vous deviez vous adapter aux nouvelles exigences de mise en conformité.

Lorsque vous passez à l’examen de la réglementation et de la législation IA, voyez-les tout à la fois comme

un défi : assurez-vous que vos projets pilotés par l’IA respectent ces réglementations

une opportunité : alors que toutes les entreprises doivent respecter les mêmes règles, votre manière de vous y conformer peut différer sensiblement de celle d’autres acteurs. En ne limitant pas votre périmètre à la seule dimension de la conformité et en faisant délibérément vôtres des principes d’IA éthique et responsable, vous avez l’opportunité de singulariser vos activités.

« A l’heure où l’IA se généralise, éduquer le grand public afin d’instaurer la confiance peut s’avérer particulièrement bénéfique », déclare Mark Brown, directeur général international pour la division Digital Trust Consulting de BSI.

« En se plaçant dans une perspective à long terme, les organisations peuvent se rendre compte que l’IA a la capacité d’améliorer leur cybersécurité, la protection de la vie privée ou encore le panorama des risques numériques. »

Pourquoi la loi entre-t-elle en vigueur ?

La réponse tient à la nature duale de l’IA.

Les opportunités de l’IA

L’IA offre des opportunités sans précédent en termes d’innovation, d’efficacité et de résolution de problèmes.

Au chapitre innovation, concurrence et propriété intellectuelle, l’intention de l’UE est de favoriser un paysage concurrentiel en encourageant les entreprises à investir dans la recherche et le développement de technologies IA.

Les défis de l’IA

L’IA présente d’importants risques et défis, plus particulièrement si une supervision adéquate fait défaut.

La Loi sur l’IA vous oblige à développer des systèmes IA qui respectent l’autonomie humaine et évitent les préjudices. Elle vise à créer un environnement sûr et digne de confiance pour le déploiement de l’IA de telle sorte que vous gériez vos risques opérationnels tout en maximisant les avantages retirés.

La loi classe les applications IA selon leur échelle de risques, depuis des risques inacceptables jusqu’à des risques minimaux, et, en parallèle, impose des exigences et des obligations légales correspondant à ces catégories.

Vie privée et droits de la personne

L’une des préoccupations majeures à laquelle la loi s’attaque est la faculté des systèmes IA de porter atteinte à la vie privée et aux droits de la personne.

La possibilité qu’a l’IA de traiter d’énormes quantités de données peut déboucher sur de la surveillance intrusive ou des prises de décision biaisées, impactant tout le spectre, depuis les opportunités d’emploi jusqu’à l’accès aux services.

Manque de transparence

Il peut être difficile de comprendre la manière dont les algorithmes IA en arrivent à leurs décisions en raison de leur manque de transparence. Ce qui remet en cause le principe de la responsabilité.

Autonomie de l’IA

L’autonomie des systèmes IA est source d’inquiétudes d’ordre éthique.

A mesure que l’IA progresse, le risque augmente de voir ces systèmes prendre des décisions sans supervision humaine.

Qui est responsable dans des situations où des décisions basées sur l’IA risquent d’avoir des conséquences néfastes ?

Que couvre la loi — champ d’application et dispositions

La Loi de l’UE sur l’IA couvre un large champ, englobant divers aspects du développement et du déploiement de l’IA dans son périmètre réglementaire.

Elle classifie les systèmes IA en différents niveaux, selon les risques potentiels qu’ils impliquent pour la société et pour les individus.

Systèmes IA à haut risque

La Loi de l’UE sur l’IA se concentre essentiellement sur les systèmes IA “à haut risque”, identifiant leur potentiel d’impact majeur. Ces systèmes incluent notamment des technologies IA utilisées pour les infrastructures critiques, l’enseignement, l’emploi, les services essentiels et les services publics, l’application des lois, la migration et l’administration de la justice.

« Il se peut que votre entreprise doive mettre en oeuvre des mesures telles que des mesures de cybersécurité robustes et du chiffrement de données, de telle sorte à vous assurer que vos systèmes IA résistent à des attaques adverses », déclare Aarti Dhapte, chef de département chez Market Research Future.

La Loi de l’UE sur l’IA comportera des exigences de conformité, vous enjoignant de garantir qualité des données, transparence et supervision humaine.

A mesure que l’IA se développe, le risque que ces systèmes prennent des décisions sans supervision humaine augmente, ce qui susceptible de produire des effets imprévus ou des dilemmes éthiques où la logique de la machine entre en conflit avec les valeurs humaines et les normes sociales.

Un système IA utilisé pour le recrutement doit par exemple faire preuve de transparence dans son processus de prise de décision et éviter les biais, de telle sorte à garantir un traitement équitable pour tous les candidats.

Systèmes IA à risque minimal

Les applications IA considérées comme n’engendrant que des risques minimaux — par exemple, des jeux vidéo ou des filtres anti-pourriels basés sur l’IA — ne sont soumis qu’à des exigences réglementaires minimales.

Le but ici est d’encourager l’innovation tout en garantissant que ces applications, bien qu’à faible risque, n’en préservent pas moins la confiance et la sécurité de l’utilisateur.

Pratiques interdites

La loi identifie également certaines pratiques IA considérées comme inacceptables en raison de la menace évidente qu’elles constituent pour la sécurité, les moyens de subsistance et les droits des personnes.

Cela inclut des systèmes IA qui manipulent le comportement humain afin de circonvenir le libre arbitre des utilisateurs (c’est le cas par exemple des deep fakes utilisés pour disséminer de fausses informations) ainsi que des systèmes qui autorisent la “notation sociale”, via lesquels des gouvernements utilisent la technologie afin d’évaluer et de classer les citoyens sur base de leur comportement, de leurs activités et de divers autres critères.

Obligations de transparence

La loi impose la transparence pour certains systèmes IA spécifiques, tels que les chatbots, et ce, afin que les utilisateurs soient conscients qu’ils interagissent avec une IA.

C’est là quelque chose d’essentiel dans des contextes tels que le service à la clientèle, domaine dans lequel le fait de comprendre si l’on communique avec un être humain ou avec une IA peut profondément influencer la qualité de l’interaction du point de vue du consommateur.

Quelles sont, en pratique, les implications de la Loi de l’UE sur l’IA ?

La Loi de l’UE sur l’IA souligne l’importance qu’il y a à tester et à comprendre les systèmes IA afin de réduire les risques avant leur déploiement au grand public.

Normes de conformité

Cela implique, pour les entreprises qui développent ou utilisent l’IA, de se conformer à des normes de conformité strictes, en particulier pour des applications à haut risque.

Le secteur de la cybersécurité s’est emparé du constat de nécessité d’un cadre dans les limites duquel les systèmes d’IA générative soient développés et exploités selon de stricts principes “Zero Trust” (“Zéro Confiance”).

Au lieu de considérer que l’on peut faire confiance à tout ce qui évolue au sein du réseau d’une organisation, le Zéro Trust repose sur le principe que rien (tant au sein qu’à l’extérieur du réseau) ne devrait être autorisé par défaut.

Le Zero Trust requiert une stricte vérification d’identité pour chaque personne et chaque dispositif qui tente d’accéder aux ressources d’un réseau privé, qu’elles se situent au sein ou à l’extérieur du réseau.

« Les principes Zero Trust Generative AI (ZTGAI) permettraient de garantir une conformité avec la Loi de l’UE sur l’IA en imposant une authentification rigoureuse des utilisateurs, des contrôles d’intégrité des données et une surveillance permanente des processus », déclare Tim Freestone, directeur du marketing chez Kiteworks.

« ZTGAI défend l’authentification multi-factorielle, une validation détaillée des sources de données et une détection en temps réel des anomalies afin de sécuriser les systèmes IA.

« ZTGAI souligne l’importance qu’il y a à analyser les résultats selon des indices de référence éthiques et pratiques. Cela passe par un cadre de responsabilité et la tenue d’audits d’activité exhaustifs. »

Tim Freestone ajoute que ZTGAI permettrait également de renforcer la gouvernance de l’IA grâce à une charte de sécurité sur la couche contenu, restreignant ainsi l’utilisation de données sensibles et imposant des contrôles de conformité rigoureux.

« Ce cadre garantirait que les opérations IA soient transparentes, traçables et respectent les normes élevées de gestion des données, s’alignant ainsi sur les objectifs de la loi — à savoir un avenir fondé sur l’IA qui soit digne de confiance. »

Piyush Tripathi, responsable technologique chez Square, a collaboré à plusieurs projets majeurs, en ce compris une plateforme API utilisée dans le cadre d’un programme de suivi des contacts coronavirus à New York.

« Nous avons développé une API de communication à destination des PME [petites et moyennes entreprises] », explique Piyush Tripathi.

« Nous avions compris que tout repose sur la qualité des données. Une simple petite erreur ou défaillance dans cet aspect fondamental peut être source d’importants problèmes.

Notre souci majeur fut souvent de gagner et de conserver la confiance des consommateurs. A l’heure numérique, une collecte éthique des données et les normes de gestion jouent un rôle majeur. »

Education

La Loi de l’UE sur l’IA n’impose pas de manière explicite des exigences en matière d’éducation ou de formation.

Toutefois, elle induit la nécessité d’une connaissance et d’une compréhension adéquates des technologies IA pour ceux qui les développent, les déploient et les utilisent — en particulier dans des scénarios à haut risque.

« Les entreprises commencent à se rendre compte que leurs collaborateurs ne savent pas comment utiliser correctement ces outils IA, ce qui a pour résultat que des contenus et des informations sensibles sont divulgués ou atterrissent là où ils ne le devraient pas », constate Igor Jablokov, CEO et fondateur de Pryon, société spécialisée en IA.

« Jusqu’à présent, le secteur de l’IA n’avait pas de vision claire de la manière dont ces systèmes sont régis et dont les informations sont protégées.

« Votre entreprise devrait créer une structure de gouvernance de telle sorte que vos employés comprennent ce que contiennent ces plateformes et qu’ils puissent se gérer par eux-mêmes de manière davantage appropriée, vous permettant ainsi de récolter les fruits de l’IA sans violations non intentionnelles. »

A l’occasion de la London Tech Week, Kate Janssen, responsable produits chez Cleo, expliquait que les directeurs généraux et les responsables d’entreprise devraient se saisir des opportunités qui se présentent pour procurer conseils et contexte plutôt que de contrôler les applications IA.

« Les outils IA », ajoutait-elle, « peuvent foncièrement augmenter la productivité mais leur utilisation devrait être au diapason de l’appétence pour le risque et des règles de confidentialité des données de votre entreprise.

« Pour garantir un juste équilibre, il est essentiel que les dirigeants fassent connaître les types de données que les employés peuvent partager en toute sécurité ou qu’ils peuvent utiliser dans le cadre d’applications telles que ChatGPT. »

Loi de l’UE sur l’IA : les points d’attention pour votre entreprise

Si la Loi de l’UE sur l’IA s’applique à votre entreprise, cela pourrait impliquer de procéder à d’importants ajustements dans vos stratégies de développement et de déploiement de l’IA.

  • Si votre entreprise opère dans l’espace de l’UE ou traite des données de citoyens de l’UE, vous devez vous mettre en conformité. Il vous faut comprendre dans quelle catégorie ou quelles catégories de risque IA votre entreprise se classe et vous adapter en conséquence.
  • Les applications IA à haut risque requièrent une évaluation rigoureuse, de quoi garantir qualité des données, transparence et supervision humaine, ainsi qu’une stricte gestion des registres.
  • Il se peut que vous deviez procéder à des changements opérationnels, par exemple via la refonte des systèmes IA afin de satisfaire aux normes, via la formation de vos collaborateurs aux exigences de conformité, et via la mise en place de processus réguliers d’audit et d’évaluation des risques.

Le paysage de la réglementation IA est disparate et évolue sans cesse partout dans le monde. Il est crucial de comprendre ces différences afin de se frayer un chemin dans le champ complexe de la conformité et de la stratégie IA.

Au Royaume-Uni

Tout comme c’est le cas pour l’UE, l’approche du Royaume-Uni tend à établir un équilibre entre la promotion de l’innovation et la garantie d’une utilisation responsable de l’IA. Elle ne se caractérise par contre pas par la rigidité d’une législation globale, spécifique à l’IA.

L’accent s’est porté sur l’adaptation des lois existantes et des réglementations sectorielles de telle sorte à englober les technologies IA. Cela inclut une réactualisation de la législation sur la protection des données et des directives éthiques spécifiques à l’IA.

Cette approche plus souple pourrait favoriser une intégration plus facile pour les technologies IA mais n’en exige pas moins de naviguer avec prudence dans le paysage juridique existant.

Aux Etats-Unis

Les Etats-Unis ont adopté une approche plus décentralisée de la réglementation de l’IA.

Au lieu d’opter pour une seule Loi IA exhaustive, un éventail d’initiatives et de directives ont été prises aux niveaux fédéral et des états qui, souvent, se concentrent sur des secteurs spécifiques tels que les soins de santé, la finance et les transports.

Cette approche reflète l’accent mis par les Etats-Unis sur l’innovation orientée marché, la réglementation ayant souvent un train de retard sur les progrès technologiques.

Cette focalisation sectorielle nécessite une compréhension approfondie des réglementations applicables à chaque domaine applicatif IA.

Les entreprises internationales doivent adopter une approche polyvalente de l’IA

Il est nécessaire pour votre entreprise de faire preuve de suffisamment d’agilité afin de vous conformer au large spectre des réglementations de l’UE, de vous adapter au paysage juridique en constante évolution du Royaume-Uni et de vous repérer dans les règles sectorielles en vigueur aux Etats-Unis.

Il est crucial pour vous de rester informé de ses divers environnements réglementaires afin de préserver votre conformité et vous permettre de profiter pleinement des opportunités que procure le marché global de l’IA.

De potentiels défis de conformité

L’un des principaux défis est sans doute le coût et les efforts qu’implique la mise en conformité.

Il se pourrait que vous deviez monopoliser de nombreuses ressources pour adapter des systèmes IA existants afin de vous conformer aux nouvelles normes.

Par ailleurs, le vaste champ d’application et le caractère évolutif de la nouvelle loi peuvent être source d’incertitudes, vous obligeant à demeurer agile et informé de toute évolution réglementaire.

Le Dr Clare Walsh est la directrice de l’éducation à l’Institute of Analytics (Royaume-Uni) et  une autorité académique en matière d’analyse des données et d’IA.

Voici ce qu’elle confie à Sage Advice : « La législation met en lumière un problème : nous disposons d’experts techniques et d’experts dans des domaines précis mais la communication entre les deux groupes, dans le meilleur des cas, est tendue, parfois totalement contradictoire.

« La législation n’interdit aucune technologie en particulier ou aucun usage mais exige de prendre en considération les limites et les risques de telle ou telle technologie dans un cas d’usage spécifique.

« En d’autres termes, nous devons plus que jamais mieux communiquer dans le cadre d’équipes multi-fonctions. Il ne suffit pas de disposer d’experts, opérants en silos. Nous devons améliorer notre approche des données. »

Les équipes comptables et financières devraient-elles s’intéresser à la nouvelle législation ?

Clare Walsh doute que la Loi de l’UE sur l’IA ait un impact immédiat sur les activités comptables et financières : « Le gros du travail comptable consiste dans la tenue de registres historiques et sera versé dans les catégories analytiques à faible risque, voire dénuées de risque. »

Toutefois, à mesure que le travail s’adapte à l’influence de l’IA, une part croissante du travail comptable et financier tombera sous le coup des réglementations AI de l’UE.

« De plus en plus, la valeur que les professionnels de la finance génèrent dans le cadre de leur profession passe par l’analytique prédictif », poursuit Clare Walsh. « Or, ce dernier relève de la définition des approches basées sur les probabilités, réglementées par la Loi européenne. »

Il est d’ores et déjà illégal de se contenter d’une décision uniquement basée sur les probabilités dans une situation ayant un impact concret pour les clients — l’article 21 du RGPD et la Bill of Rights américaine comportent des clauses “opt-out” similaires.

« Un exemple pourrait être le profilage d’un candidat à une hypothèque afin de déterminer le taux hypothécaire à proposer. Le processus est légal à condition qu’un être humain puisse expliquer le raisonnement suivi.

« Si la technologie est de type “boîte noire”, il est impossible de découvrir les raisons qu’a utilisées la machine pour effectuer sa sélection. Il se pourrait qu’elle soit basée sur des raisons valables, telles qu’une responsabilité financière avérée. Mais il se peut également qu’elle soit basée sur quelque chose de totalement aléatoire, comme le prénom Suzanne de la personne concernée ».

« Il se peut que les professionnels de la finance qui ont l’habitude de s’appuyer sur les résultats de logiciels fournis par des tiers doivent s’intéresser plus activement à la manière dont les décisions sont prises ainsi que sur les résultats. »

Les nouvelles réglementations concernent potentiellement d’autres applications financières tels que le profilage pour détection de fraudes ou la manière dont sont conduits les audits.

« Nous aurons besoin de professionnels de la finance qui sont capables de superviser les processus de comptabilité automatisée et de mettre à contribution certaines de leurs compétences en matière d’audit au bénéfice des clients et du traitement des données mathématiques », déclare Clare Walsh.

« Il est rare que ces technologies remplacent purement et simplement les processus humains. Elles imposent par contre de procéder à quelques adaptations de l’environnement de travail. »

De la même manière qu’il faut concevoir spécifiquement les entrepôts selon que les équipes comportent des humains ou des robots, les processus de prise de décision doivent être adaptés aux membres de l’équipe IA.

Clare Walsh explique la nécessité qu’il y a à prévoir davantage de mécanismes de rétroaction robustes afin de garantir une supervision adéquate.

« Les professionnels de la finance doivent se montrer à la hauteur de cette nouvelle réalité », ajoute-t-elle. « La nouvelle législation est une opportunité pour les individus, notamment pour les comptables, qui cherchent à réussir la transition vers des univers de travail numérisés.

« Quelqu’un doit procurer de la transparence. Or, il existe actuellement, sur le marché du travail, un manque énorme de personnes ayant les aptitudes et l’expérience nécessaires pour produire des rapports et des audits. »

Sept conseils pour aider les entreprises à se préparer et à respecter la Loi de l’UE sur l’IA

En prenant activement à bras-le-corps les défis et les changements engendrés par la loi de l’UE sur l’IA, vous pouvez garantir votre conformité et positionner votre entreprise de telle sorte qu’elle utilise les technologies IA de manière plus responsable et efficace.

1. Procédez à un audit IA exhaustif

Evaluez vos systèmes et processus IA actuels afin de déterminer dans quelle mesure ils se conforment à la loi de l’UE sur l’IA.

Identifiez les éléments qui nécessitent des changements ou des améliorations afin de respecter les normes de conformité.

2. Développez une stratégie de gestion des risques

Pour les besoins des applications IA à haut risque, constituez un cadre robuste de gestion des risques. Intégrez-y des mécanismes visant la surveillance, la génération de rapports et l’atténuation des risques associés à des systèmes IA.

Pour les applications à faible risque, il demeure crucial de préserver la transparence de leur fonctionnement et de garantir l’exactitude des informations qu’ils traitent.

Communiquez clairement à propos de la manière dont l’IA opère et de la nature des données qu’elle traite.

3. Investissez dans la formation et la sensibilisation

Assurez-vous que votre personnel est bien informé au sujet de la Loi de l’UE sur l’IA et de ses implications.

Il peut être utile de prévoir des séances de formation régulières afin de bâtir une culture centrée sur la conformité au sein de votre organisation.

4. Tournez-vous vers des experts en conformité et en éthique de l’IA

Consultez des experts en conformité et en éthique de l’IA afin de vous y retrouver efficacement dans la complexité de l’environnement réglementaire.

Ils sont à même de vous éclairer sur les bonnes pratiques et de vous aider à demeurer au fait des changements réglementaires.

5. Favoriser la transparence et la responsabilité

Développez des règles et procédures claires en termes de transparence et de responsabilité de l’IA.

Tenez des registres détaillés des processus de prise de décisions et des résultats générés par l’IA.

6. Tirez parti de la technologie pour veiller à la conformité

Recourez à des logiciels et outils de gestion de conformité spécifiques à l’IA afin de rationaliser et d’automatiser certains pans de vos processus de conformité, les rendant ainsi plus efficaces et moins sujets aux erreurs.

7. Restez informé et agile

Tenez-vous au courant des réactualisations de la réglementation et soyez prêt à adapter vos stratégies IA à mesure que le paysage réglementaire évolue.

Dernières réflexions

Il est essentiel de comprendre et de se conformer aux réglementations de la loi de l’UE sur l’IA.

Toutefois, c’est également une excellente occasion de définir des normes qui vous garantissent que vous utilisez l’IA de manière responsable, ce qui augmentera votre capital confiance auprès de vos clients et d’autres entreprises.

La loi est l’occasion de la considérer comme étant plus qu’un simple obstacle réglementaire.

Faites-en votre feuille de route pour un déploiement innovant et éthique de l’IA et faites vôtre la promesse d’un regain de transparence et de responsabilité de vos activités financières.

Se saisir de la sorte de la Loi de l’UE sur l’IA pourrait être l’occasion pour vous de démontrer que votre entreprise s’adapte non seulement au changement mais en est un levier.