Le Règlement sur l’Intelligence Artificielle (RIA) et son impact sur le service client

Le Règlement pour l’Intelligence Artificielle (RIA ou encore AI Act) a été publié au Journal Officiel de l’Union Européenne ce jeudi 12 juillet 2024. Annoncé en avril 2021 par la Commission Européenne, ce règlement a pour objectif de renforcer la sécurité et les droits fondamentaux des utilisateurs tout en favorisant l'innovation et la confiance dans l'IA.

L'Intelligence Artificielle (IA) transforme rapidement divers secteurs de notre société, allant de la santé à l'éducation, en passant par la finance et les transports (sans oublier le service client). Cependant, cette technologie puissante pose également des défis en matière de sécurité, d'éthique et de droits humains. Pour répondre à ces préoccupations, l'Union Européenne a proposé l'AI Act, un cadre réglementaire visant à garantir un développement et une utilisation sûrs et éthiques de l'IA.

AI Act

Qu’est-ce que c’est ? 

Le RIA, également connu sous le nom d'AI Act, est le premier cadre juridique mondial spécifiquement consacré à la régulation de l'intelligence artificielle. Elle aborde les risques associés à l'IA. L'objectif principal de cette législation est de promouvoir une IA digne de confiance, en garantissant que les systèmes d'IA respectent les droits fondamentaux, la sécurité et les principes éthiques, tout en s'attaquant aux risques posés par des modèles d'IA puissants et influents.

L'AI Act vise à fournir aux développeurs et utilisateurs d'IA des exigences claires et des obligations précises concernant l'utilisation de l'IA. Parallèlement, le règlement cherche à réduire les charges administratives et financières pour les entreprises, notamment les petites et moyennes entreprises (PME). Cette loi fait partie d'un ensemble plus large de mesures politiques, incluant le paquet d'innovation en matière d'IA et le plan coordonné en matière d'IA. Ensemble, ces initiatives visent à assurer la sécurité et les droits fondamentaux des citoyens et des entreprises tout en renforçant l'adoption, l'investissement et l'innovation dans l'IA à travers l'UE.

L'AI Act garantit que les Européens peuvent avoir confiance en l'IA et ses avantages. Alors que la majorité des systèmes d'IA présentent peu ou pas de risques et peuvent contribuer à résoudre de nombreux défis sociétaux, certains systèmes posent des risques significatifs qui doivent être gérés pour éviter des conséquences indésirables.

Que prévoit le RIA ? 

Le RIA propose une approche fondée sur les risques en classant les systèmes d’IA en quatre niveaux :

  • Inacceptable ; 
  • Élevé ; 
  • Limité ; 
  • Minimal ou nul.

Risque inacceptable : 

Certains systèmes d'IA sont interdits car ils posent des menaces évidentes pour la sécurité, les moyens de subsistance et les droits des personnes. Par exemple, les systèmes d'IA qui manipulent le comportement humain pour causer des dommages ou ceux qui exploitent les vulnérabilités des groupes vulnérables (comme les enfants).

Risque élevé : 

Les systèmes d'IA à risque élevé sont ceux pouvant affecter la sécurité des personnes ou leurs droits fondamentaux, justifiant des exigences strictes pour leur développement et déploiement. Les domaines concernés incluent les infrastructures critiques, l'éducation, l'emploi, les services publics essentiels, les forces de l'ordre et la gestion des migrations. Exemples spécifiques :

  • Infrastructures critiques : transports utilisant l'IA pouvant mettre en danger des vies.
  • Éducation et formation : notation des examens influençant l'accès à l'éducation.
  • Sécurité des produits : IA en chirurgie assistée par robot.
  • Emploi : logiciels de tri de CV.
  • Services essentiels : notation de crédit affectant l'accès aux prêts.
  • Forces de l'ordre : évaluation de preuves, pouvant toucher les droits fondamentaux.
  • Gestion des migrations : examen automatisé des demandes de visa.
  • Justice et démocratie : recherche de décisions de justice.

Les obligations pour ces systèmes incluent :

  • Évaluation et atténuation des risques.
  • Qualité des données pour minimiser les biais.
  • Traçabilité des activités.
  • Documentation détaillée pour les autorités.
  • Informations claires pour les utilisateurs.
  • Surveillance humaine appropriée.
  • Robustesse, sécurité et précision élevées.

L'identification biométrique à distance dans les espaces publics est en principe interdite, sauf exceptions strictes (recherche d'un enfant disparu, prévention d'une menace terroriste, etc.), sous autorisation judiciaire et avec des limites appropriées.

Pyramide des risques

Risque limité

Les systèmes d'IA à risque limité sont soumis à des obligations de transparence pour garantir la confiance et la compréhension des utilisateurs. Par exemple, les systèmes d'IA interagissant avec les humains, comme les chatbots, doivent informer les utilisateurs qu'ils communiquent avec une machine, permettant ainsi aux utilisateurs de prendre des décisions éclairées.

Les obligations spécifiques incluent :

  • Identification claire : les utilisateurs doivent savoir qu'ils interagissent avec une IA.
  • Contenu généré par l'IA : les textes, audios et vidéos produits par l'IA, en particulier ceux informant le public sur des questions d'intérêt général, doivent être étiquetés comme étant générés artificiellement.
  • Lutte contre les deepfakes : les contenus audio et vidéo manipulés par l'IA doivent être clairement identifiés pour éviter les confusions et les abus.

Ces mesures visent à renforcer la transparence et à favoriser la confiance du public dans l'utilisation de l'IA.

Risque minimal 

Pour les systèmes d'IA à risque minimal, l'AI Act n'impose pas de restrictions spécifiques. Ces applications, telles que les jeux vidéo alimentés par l'IA ou les filtres anti-spam, sont largement utilisées sans encadrement strict. Les fournisseurs sont toutefois encouragés à adopter des codes de conduite volontaires pour promouvoir des pratiques responsables.

La majorité des systèmes d'IA actuellement utilisés dans l'UE appartiennent à cette catégorie, permettant une utilisation libre et favorisant l'innovation sans lourdeurs administratives.

Modèles d'IA à usage général

Le RIA encadre également les modèles d'IA à usage général, comme les grands modèles de langage (LLM) proposés par des entreprises comme Mistral AI ou OpenAI. Ces modèles, utilisés pour diverses tâches, échappent aux classifications traditionnelles.

Pour ces modèles, le RIA impose plusieurs niveaux d'obligations, allant de la transparence minimale à une évaluation approfondie et des mesures d'atténuation des risques systémiques, tels que les accidents majeurs, les cyberattaques, et les biais discriminatoires.

Des niveaux d’exigences différents

L'AI Act établit différents niveaux d'exigences en termes de transparence, sécurité et surveillance, principalement basés sur la classification des systèmes d'IA selon leur niveau de risque. Voici un aperçu des principales exigences dans ces domaines :

Transparence

Les exigences de transparence varient selon le niveau de risque :

  • Systèmes à haut risque : Ils doivent être conçus et développés de manière à garantir un fonctionnement suffisamment transparent pour permettre aux utilisateurs d'interpréter et d'utiliser correctement les résultats. Ces systèmes doivent être accompagnés d'un mode d'emploi détaillé contenant des informations sur leurs caractéristiques, capacités et limites de performance.
  • Systèmes à risque limité : Ils sont soumis à des obligations de transparence plus légères. Les développeurs et déployeurs doivent s'assurer que les utilisateurs finaux sont conscients qu'ils interagissent avec l'IA, comme dans le cas des chatbots et des deepfakes.
  • Systèmes à risque minimal : Ils ne sont généralement pas soumis à des exigences de transparence spécifiques.

Sécurité et cybersécurité

Les exigences de sécurité sont particulièrement strictes pour les systèmes à haut risque :

  • Résilience : les systèmes à haut risque doivent être résistants aux tentatives de manipulation et aux cyberattaques.
  • Robustesse : ils doivent avoir un niveau approprié de précision, de robustesse et de cybersécurité.
  • Protocoles de cybersécurité : la mise en place de protocoles de cybersécurité est exigée pour les systèmes à haut risque.

Surveillance

La surveillance humaine est un élément clé de l'AI Act, en particulier pour les systèmes à haut risque :

  • Obligation de surveillance humaine : l'AI Act introduit une obligation de surveillance des systèmes d'IA par l'être humain.
  • Mesures d'atténuation des risques : des mesures d'atténuation des risques doivent être mises en place pour les systèmes à haut risque.
  • Surveillance continue : les fournisseurs de systèmes à haut risque doivent mettre en place un système de surveillance post-commercialisation pour collecter, documenter et analyser les données pertinentes sur les performances de ces systèmes tout au long de leur cycle de vie.

Il est important de noter que ces exigences sont plus strictes pour les systèmes à haut risque, tandis que les systèmes à risque minimal sont largement exemptés de réglementation spécifique. L'objectif global est de garantir que l'IA soit utilisée de manière sûre, transparente et éthique, tout en favorisant l'innovation dans ce domaine.

Impacts sur le Service Client

Pour comprendre l’impact de cette loi sur le service client, on peut prendre l’exemple des chatbots et assistants virtuels qui sont généralement classés dans les niveaux de risque minimal ou limité. Les entreprises devront :

  • Transparence : informer clairement les utilisateurs qu'ils interagissent avec une IA.
  • Exactitude et vérification des données : mettre en place des processus de vérification et d'entraînement de l'IA.
  • Biais algorithmiques : utiliser des ensembles de données diversifiés et effectuer des audits réguliers.
  • Protection des données : garantir la conformité avec le RGPD.

Si ces systèmes peuvent prendre des décisions significatives, comme des remboursements, ils pourraient être reclassés à un risque élevé. Les entreprises devront alors :

  • Supervision humaine : intégrer une supervision humaine significative dans les décisions.
  • Transparence et explicabilité : informer les utilisateurs de l'utilisation de l'IA et expliquer les bases des décisions.
  • Recours et non-discrimination : permettre aux clients de contester les décisions et assurer l'équité sans discrimination.

Transparence : on informe clairement l'utilisateur qu'il interagit avec une IA

Impacts sur Klark

Pour Klark, l'AI Act est à la fois un défi et une opportunité. Nous intégrons déjà les bonnes pratiques RGPD dans nos produits et nous adopterons l'AI Act comme cadre obligatoire pour nos futures fonctionnalités. Notre chatbot respecte les exigences de supervision humaine, offrant une escalade à un humain en cas de besoin, et nous précisons que ce dernier est “powered by Klark”. En anticipant ces contraintes, nous renforçons la confiance des utilisateurs et évitons des modifications coûteuses pour la conformité.

Vers un avenir éthique et sécurisé de l'IA

L'AI Act représente une avancée majeure dans la régulation de l'intelligence artificielle en Europe, établissant un cadre clair pour garantir la sécurité, l'éthique et la transparence des systèmes d'IA. En classifiant les systèmes d'IA selon leur niveau de risque, cette législation offre une protection accrue aux utilisateurs tout en stimulant l'innovation et la confiance dans les technologies d'IA.

Pour Klark, l'AI Act est une opportunité de démontrer notre engagement envers des pratiques responsables et transparentes. En intégrant dès le début ces exigences réglementaires dans nos produits, nous renforçons la confiance de nos clients et assurons la conformité de nos solutions d'IA.

En fin de compte, l'AI Act vise à créer un environnement où l'IA peut prospérer en toute sécurité, profitant ainsi à la société dans son ensemble. En adoptant ces nouvelles règles, les entreprises comme Klark peuvent non seulement se conformer à la législation mais aussi mener l'industrie vers un avenir plus éthique et fiable.

Vous pourriez aimer

• 5 MIN DE LECTURE 

L'essor des “AI Agents” et des “AI Copilots” : quelle est la différence et pourquoi est-ce important ?

Le monde de l'entreprise s'enthousiasme pour le potentiel de l'IA, en particulier pour l'émergence des “AI Agents” et des "IA Copilots". Ces termes ne sont pas aussi interchangeables que l’on pourrait le croire.
Cofondateur et Co-CEO
• 5 MIN DE LECTURE 

Données personnelles et intelligence artificielle : l’approche du RGPD de Klark pour un service client basé sur l’IA

Comment, en tant que startup basée sur l’IA, le RGPD fait partie intégrante de notre approche stratégique.
Cofondateur et Co-CEO