Cette page est une traduction automatique. Pour les informations de référence, consultez la version anglaise.
Données et RAG
Comment ATG traite vos données et utilise le RAG (Retrieval-Augmented Generation) pour répondre à partir de vos connaissances et du web, avec confidentialité et sécurité.
Chez Ask This Guy, nous savons à quel point il est important pour vous de savoir ce qu'il advient de vos données lorsque vous utilisez notre plateforme. Cette page explique de façon claire et simple comment vos données sont traitées, organisées et utilisées pour fournir des réponses précises et fiables — toujours avec la confidentialité et la sécurité en tête. Nous utilisons la technologie Retrieval-Augmented Generation (RAG) pour que vos questions soient répondues à la fois à partir des dernières informations et des connaissances de votre organisation, sans compromettre l'intégrité des données.
Pour rendre ces notions faciles à saisir, imaginez notre système comme un bibliothécaire très compétent dans une bibliothèque moderne et bien organisée.
Le meilleur bibliothécaire
Qu'est-ce que le RAG ?
Imaginez votre assistant IA comme un bibliothécaire très savant. Traditionnellement, ce bibliothécaire ne connaît que ce qu'il a en tête (les données d'entraînement du LLM). Avec le RAG, le bibliothécaire peut aussi chercher dans les derniers livres, documents et pages web de la bibliothèque et en ligne pour vous donner la meilleure réponse.
Techniquement :
Le RAG permet au LLM de « consulter » des informations pertinentes dans des sources externes — documents, bases de données, web — au moment où vous posez une question. L'IA combine ses propres connaissances avec ce qu'elle trouve pour vous donner une réponse plus fiable et à jour.
Pourquoi utiliser le RAG ?
- Réponses à jour : le RAG récupère les dernières informations, au-delà de la date de coupure des connaissances du LLM
- Expertise métier : il connecte l'IA à vos connaissances internes pour des réponses adaptées
- Vérification des faits : le RAG peut citer ses sources pour faciliter la vérification et la confiance dans les résultats
Comment fonctionne le RAG ?
Restons sur la métaphore du bibliothécaire :
Le LLM est comme un bibliothécaire qui a beaucoup lu et étudié (ses données d'entraînement). Avec le RAG, il peut aussi parcourir les rayonnages et même interroger des bases en ligne pour trouver les informations les plus récentes et pertinentes pour votre question.
Le processus RAG :
- Indexation (Cataloguer la bibliothèque)
- Tous les documents et données sont convertis en « embeddings » — des empreintes mathématiques qui capturent leur sens. Ils sont stockés dans une base vectorielle, comme un catalogue ultra-efficace, pour retrouver rapidement l'information pertinente.
- Récupération (Chercher dans les rayonnages)
- Quand vous posez une question, le bibliothécaire interroge le catalogue pour trouver les livres, articles ou documents les plus pertinents grâce à :
- Recherche par mots-clés : recherche des mots exacts dans les titres ou le texte
- Recherche sémantique : compréhension du sens de votre question pour trouver des contenus liés, même avec des formulations différentes
- Quand vous posez une question, le bibliothécaire interroge le catalogue pour trouver les livres, articles ou documents les plus pertinents grâce à :
- Chunking (Diviser les livres en chapitres ou sections)
- Les grands documents sont découpés en sections pertinentes (« chunks »), pour ne récupérer que les chapitres ou pages utiles à votre question
- Augmentation (Rassembler et préparer les matériaux)
- Le bibliothécaire rassemble les sections pertinentes, les combine avec votre question et prépare une liste ou un résumé pour vous répondre précisément
- Génération (Rédiger la réponse)
- Le bibliothécaire s'appuie sur son expertise et sur les matériaux fraîchement récupérés pour fournir une réponse complète et sourcée — en vous indiquant souvent le livre ou la page exacte utilisée
Système RAG multi-agents
This Guy démocratise le prétraitement des connaissances internes en le rendant accessible à tous les utilisateurs.
Traditionnellement, de tels pipelines sont déployés par de grandes entreprises sur des projets lourds nécessitant une expertise IA. Avec This Guy, le processus est simplifié et s'exécute en quelques minutes, sans compétences IA préalables.
RAG - sélection visuelle.svg
Concepts clés
Chunking
Découper de longs textes en parties plus petites et pertinentes. Le système ne récupère ainsi que les sections les plus pertinentes pour votre question, ce qui améliore précision et efficacité.
Embeddings
Les embeddings sont comme des « empreintes » uniques pour des morceaux de texte. Ce sont des représentations mathématiques du sens d'une phrase ou d'un paragraphe, qui permettent au système de comparer et de trouver du contenu similaire — même avec des mots différents.
Tokenizers
Les tokenizers sont comme les lunettes du bibliothécaire : ils découpent le texte en unités compréhensibles. Le tokenizer découpe votre texte en unités appelées « tokens » — mots entiers, parties de mots ou caractères. Par exemple, pour « Quelle est notre politique de télétravail ? », le tokenizer peut produire : « Quelle », « est », « notre », « politique », « de », « télétravail », « ? ». Chaque token reçoit un numéro unique (comme une cote de catalogue) pour que l'IA traite votre question mathématiquement.
En pratique : un token correspond environ à ~4 caractères pour un texte en anglais courant, soit environ ¾ de mot (100 tokens ≈ 75 mots).
Exemple de tokenisation : voir OpenAI tokenizer.
Recherche sémantique vs recherche par mots-clés
- Recherche par mots-clés : comme chercher un livre par son titre exact
- Recherche sémantique : comme demander au bibliothécaire « des livres sur créer une entreprise » et qu'il trouve des ouvrages pertinents même avec d'autres mots (ex. « entrepreneuriat »)
Base vectorielle
Une base vectorielle est comme un catalogue de bibliothèque ultra-organisé. Elle stocke tous les embeddings et permet au système de retrouver rapidement l'information la plus pertinente pour votre question.
Base de recherche par mots-clés
La base de recherche par mots-clés est comme le catalogue de fiches du bibliothécaire pour trouver des livres par mots-clés. Quand vous cherchez « politique télétravail », elle parcourt les documents pour trouver ceux qui contiennent ces mots. This Guy va toutefois au-delà du simple décompte : il tient compte de la fréquence du terme dans chaque document (sans survaloriser les documents qui répètent 500 fois le même mot), de la rareté du terme dans l’ensemble des documents (un terme rare comme « sabbatical » compte plus qu’un terme courant comme « le »), et de la longueur des documents — les documents courts contenant vos mots-clés sont mieux notés que les très longs où les mots-clés sont moins pertinents.
Exemple : pour « note de frais », This Guy peut mieux noter une courte politique de 2 pages qu’un manuel RH de 50 pages qui ne mentionne les frais qu’une fois.
Prompt engineering
Il s’agit de concevoir comment l’information récupérée et votre question sont combinées avant d’être envoyées au LLM. Les Bonnes pratiques LLM aident le LLM à comprendre le contexte et à produire de meilleures réponses.
Mise à jour des données externes
Pour garder les réponses à jour, This Guy met régulièrement à jour ses sources externes et recalcule les embeddings, afin que l’IA ait toujours accès aux dernières informations.
Attribution des sources (citations)
This Guy peut fournir des références ou citations pour les informations utilisées, ce qui permet aux utilisateurs de vérifier les faits et de faire confiance aux réponses.
Exemple concret
Supposons que vous demandiez à This Guy :
« Quelle est notre politique de télétravail pour les nouvelles recrues ? »
Le système va :
- Découper votre manuel RH en chapitres ou sections
- Utiliser la recherche sémantique pour trouver la section sur le télétravail
- Envoyer cette section et votre question au LLM
- Le LLM (votre bibliothécaire expert) génère une réponse en citant la page ou la section utilisée
Résumé
| Concept | Signification | Exemple |
|---|---|---|
| RAG | LLM + recherche en temps réel pour des réponses ancrées | Bibliothécaire avec accès à toutes les ressources |
| Embeddings | Empreintes mathématiques du sens du texte | Cote unique pour chaque livre |
| Base vectorielle | Stocke et organise les embeddings pour une récupération rapide | Catalogue pour une recherche rapide |
| Recherche sémantique | Trouve le sens, pas seulement les mots | Bibliothécaire qui « comprend » ce que vous voulez |
| Recherche par mots-clés | Trouve les correspondances exactes de mots | Recherche par titre de livre |
| Chunking | Découpe les longs textes en parties pertinentes | Diviser un livre en chapitres |
| Prompt engineering | Concevoir comment l’info est présentée au LLM | Poser une question claire au bibliothécaire |
| Mise à jour des données externes | Rafraîchir sources et embeddings régulièrement | Mettre la bibliothèque à jour avec de nouveaux livres |
| Attribution des sources | Fournir des références pour les réponses | Notes de bas de page dans un rapport |
La technologie RAG rend This Guy plus fiable et digne de confiance en lui permettant de « consulter » les informations les plus récentes et pertinentes — comme un bon bibliothécaire qui vérifie toujours les rayonnages et cite ses sources avant de vous répondre.