Ces deux prochains jours, l’AI Summit Paris mettra en lumière une scène française de l’IA plus dynamique que jamais.
On peut être fiers ! Mais surtout, on doit continuer à relever les manches. 💪
Au programme : cas d’usages concrets, technologies d’aujourd’hui et de demain… l’Agentic RAG reviendra souvent dans les discussions.
Cet article est là pour vous aider à réviser juste avant l’événement et être incollable demain. 😉
Bonne lecture !
Le Retrieval-Augmented Generation (RAG) est une technique qui combine la récupération d’informations pertinentes avec la génération de texte.
L’idée est (très) simple : plutôt que de demander à un modèle de répondre à une question en se basant uniquement sur ses connaissances générales, on lui fournit des documents spécifiques et pertinents pour enrichir sa réponse.
Dès les débuts de Klark, nous avons utilisé cette technologie pour rédiger des brouillons d’email aux agents de service client. Nous avons mis cette technologie au cœur de notre R&D pour associer à chaque question client la meilleure connaissance possible.
L’Agentic RAG pousse la logique plus loin.
Plutôt que de suivre un processus rigide, il agit comme un chef cuisinier 🧑🍳 qui ne suit pas aveuglément une recette (ou une connaissance). Il goûte en cours de route, ajuste les ingrédients et adapte la recette selon le contexte.
Contrairement à un RAG classique qui récupère des données et génère une réponse en une seule passe, un Agentic RAG est capable d’exécuter plusieurs cycles d’amélioration, tester ses propres réponses et les affiner avant de les livrer.
Plus concrètement, un Agentic RAG repose sur un LLM interagissant en continu avec plusieurs modules spécialisés : il peut reformuler la demande initiale, enrichir le contexte en intégrant d’autres sources de connaissance et, enfin, évaluer la qualité de ses propres réponses avant de les afficher.
Cette architecture permet une optimisation dynamique du processus de génération et permet une meilleure cohérence des réponses produites.
Certains diront qu’on “markete” une simple boucle while ou une condition if avec un concept tendance. En réalité, l'Agentic RAG, s’il est bien implémenté, introduit plus de flexibilité et d’adaptabilité, permettant un raisonnement dynamique plutôt qu’un simple enchaînement d’étapes fixes.
On passe donc d’un modèle déterministe à une approche plus créative où l’agent LLM a plus de liberté pour affiner ses réponses. Mais attention : qui dit moins de déterminisme, dit potentiellement plus de risques et moins de maîtrise.
👉 Enfin, même l’Agentic RAG ne peut pas faire de miracles si les données en entrée sont mauvaises.
Shit in, shit out reste la règle d’or.
La théorie, c’est important mais rien ne vaut la pratique pour vraiment comprendre 😅.
Voici, donc, trois cas d’usage de Service Client qui montrent comment l’Agentic RAG peut être concrètement mis en place :
🔹 Objectif : Déterminer si une réponse client nécessite des informations contextuelles spécifiques (ex : statut de livraison, date de fin de garantie).
🔹 Logique d’implémentation :
Désormais, grâce à cet agent IA, on peut traiter des questions en dehors du niveau 1 en s'adaptant à la situation de chaque client.
🔹 Objectif : Comment s’assurer qu’une réponse générée est pertinente avant de l’envoyer à un client ?
🔹 Logique d’implémentation :
On permet ainsi à l’IA de faire un pas de côté et prendre du recul sur sa réponse finale, limitant les incohérences.
🔹 Objectif : Maintenir une base de connaissances à jour sans efforts incommensurables.
🔹 Logique d’implémentation :
Un tel agent permet des gains de temps énormes pour les équipes support en simplifiant drastiquement la maintenance de leur connaissance tout en apportant de la confiance.
L’avenir de l’Agentic RAG pourrait passer par une meilleure structuration des connaissances via des Knowledge Graphs (comme les bases de données Neptune). Ces graphs permettent de représenter et d'organiser les informations de manière interconnectée, facilitant ainsi une analyse plus globale.
Plutôt que de comparer des documents individuellement, on pourrait raisonner à un niveau plus global, en établissant des connexions entre plusieurs sources d’information.
Actuellement, l’Agentic RAG se contente de comparer des éléments isolés, comme si l’on examinait des feuilles d’un arbre une à une. En intégrant un Knowledge Graph, il pourrait analyser des ensembles d’informations interconnectées – de la FAQ aux tickets clients, en passant par les bases de données transactionnelles –, à l’image d’une forêt de données.
Cette approche multi-dimensionnelle ouvre la voie à une capacité de raisonnement global, améliorant encore la pertinence des réponses.
L’Agentic RAG apporte une amélioration significative dans la manière dont l’IA interagit avec la connaissance. Pour le service client, de tels agents IA représentent un levier puissant pour automatiser, enrichir et valider les réponses de manière plus intelligente.
Cependant, comme toujours, l'IA n'est qu'un outil, et c'est sa mise en œuvre concrète qui fera la différence. Ainsi, avant d'implémenter une telle solution, il est crucial de se demander : Quels sont les bons cas d'usages où un agent IA pourrait apporter une réelle valeur ajoutée ?