Cette page est une traduction automatique. Pour les informations de référence, consultez la version anglaise.

Données et RAG

Comment ATG traite vos données et utilise le RAG (Retrieval-Augmented Generation) pour répondre à partir de vos connaissances et du web, avec confidentialité et sécurité.

5 min de lecture

Chez Ask This Guy, nous savons à quel point il est important pour vous de savoir ce qu'il advient de vos données lorsque vous utilisez notre plateforme. Cette page explique de façon claire et simple comment vos données sont traitées, organisées et utilisées pour fournir des réponses précises et fiables — toujours avec la confidentialité et la sécurité en tête. Nous utilisons la technologie Retrieval-Augmented Generation (RAG) pour que vos questions soient répondues à la fois à partir des dernières informations et des connaissances de votre organisation, sans compromettre l'intégrité des données.

Pour rendre ces notions faciles à saisir, imaginez notre système comme un bibliothécaire très compétent dans une bibliothèque moderne et bien organisée.

Le meilleur bibliothécaireLe meilleur bibliothécaire

Qu'est-ce que le RAG ?

Imaginez votre assistant IA comme un bibliothécaire très savant. Traditionnellement, ce bibliothécaire ne connaît que ce qu'il a en tête (les données d'entraînement du LLM). Avec le RAG, le bibliothécaire peut aussi chercher dans les derniers livres, documents et pages web de la bibliothèque et en ligne pour vous donner la meilleure réponse.

Techniquement :

Le RAG permet au LLM de « consulter » des informations pertinentes dans des sources externes — documents, bases de données, web — au moment où vous posez une question. L'IA combine ses propres connaissances avec ce qu'elle trouve pour vous donner une réponse plus fiable et à jour.

Pourquoi utiliser le RAG ?

  • Réponses à jour : le RAG récupère les dernières informations, au-delà de la date de coupure des connaissances du LLM
  • Expertise métier : il connecte l'IA à vos connaissances internes pour des réponses adaptées
  • Vérification des faits : le RAG peut citer ses sources pour faciliter la vérification et la confiance dans les résultats

Comment fonctionne le RAG ?

Restons sur la métaphore du bibliothécaire :

Le LLM est comme un bibliothécaire qui a beaucoup lu et étudié (ses données d'entraînement). Avec le RAG, il peut aussi parcourir les rayonnages et même interroger des bases en ligne pour trouver les informations les plus récentes et pertinentes pour votre question.

Le processus RAG :

  1. Indexation (Cataloguer la bibliothèque)
    • Tous les documents et données sont convertis en « embeddings » — des empreintes mathématiques qui capturent leur sens. Ils sont stockés dans une base vectorielle, comme un catalogue ultra-efficace, pour retrouver rapidement l'information pertinente.
  2. Récupération (Chercher dans les rayonnages)
    • Quand vous posez une question, le bibliothécaire interroge le catalogue pour trouver les livres, articles ou documents les plus pertinents grâce à :
      • Recherche par mots-clés : recherche des mots exacts dans les titres ou le texte
      • Recherche sémantique : compréhension du sens de votre question pour trouver des contenus liés, même avec des formulations différentes
  3. Chunking (Diviser les livres en chapitres ou sections)
    • Les grands documents sont découpés en sections pertinentes (« chunks »), pour ne récupérer que les chapitres ou pages utiles à votre question
  4. Augmentation (Rassembler et préparer les matériaux)
    • Le bibliothécaire rassemble les sections pertinentes, les combine avec votre question et prépare une liste ou un résumé pour vous répondre précisément
  5. Génération (Rédiger la réponse)
    • Le bibliothécaire s'appuie sur son expertise et sur les matériaux fraîchement récupérés pour fournir une réponse complète et sourcée — en vous indiquant souvent le livre ou la page exacte utilisée

Système RAG multi-agents

This Guy démocratise le prétraitement des connaissances internes en le rendant accessible à tous les utilisateurs.

Traditionnellement, de tels pipelines sont déployés par de grandes entreprises sur des projets lourds nécessitant une expertise IA. Avec This Guy, le processus est simplifié et s'exécute en quelques minutes, sans compétences IA préalables.

RAG - sélection visuelle.svgRAG - sélection visuelle.svg

Concepts clés

Chunking

Découper de longs textes en parties plus petites et pertinentes. Le système ne récupère ainsi que les sections les plus pertinentes pour votre question, ce qui améliore précision et efficacité.

Embeddings

Les embeddings sont comme des « empreintes » uniques pour des morceaux de texte. Ce sont des représentations mathématiques du sens d'une phrase ou d'un paragraphe, qui permettent au système de comparer et de trouver du contenu similaire — même avec des mots différents.

Tokenizers

Les tokenizers sont comme les lunettes du bibliothécaire : ils découpent le texte en unités compréhensibles. Le tokenizer découpe votre texte en unités appelées « tokens » — mots entiers, parties de mots ou caractères. Par exemple, pour « Quelle est notre politique de télétravail ? », le tokenizer peut produire : « Quelle », « est », « notre », « politique », « de », « télétravail », « ? ». Chaque token reçoit un numéro unique (comme une cote de catalogue) pour que l'IA traite votre question mathématiquement.

En pratique : un token correspond environ à ~4 caractères pour un texte en anglais courant, soit environ ¾ de mot (100 tokens ≈ 75 mots).

Exemple de tokenisation : voir OpenAI tokenizer.

Recherche sémantique vs recherche par mots-clés

  • Recherche par mots-clés : comme chercher un livre par son titre exact
  • Recherche sémantique : comme demander au bibliothécaire « des livres sur créer une entreprise » et qu'il trouve des ouvrages pertinents même avec d'autres mots (ex. « entrepreneuriat »)

Base vectorielle

Une base vectorielle est comme un catalogue de bibliothèque ultra-organisé. Elle stocke tous les embeddings et permet au système de retrouver rapidement l'information la plus pertinente pour votre question.

Base de recherche par mots-clés

La base de recherche par mots-clés est comme le catalogue de fiches du bibliothécaire pour trouver des livres par mots-clés. Quand vous cherchez « politique télétravail », elle parcourt les documents pour trouver ceux qui contiennent ces mots. This Guy va toutefois au-delà du simple décompte : il tient compte de la fréquence du terme dans chaque document (sans survaloriser les documents qui répètent 500 fois le même mot), de la rareté du terme dans l’ensemble des documents (un terme rare comme « sabbatical » compte plus qu’un terme courant comme « le »), et de la longueur des documents — les documents courts contenant vos mots-clés sont mieux notés que les très longs où les mots-clés sont moins pertinents.

Exemple : pour « note de frais », This Guy peut mieux noter une courte politique de 2 pages qu’un manuel RH de 50 pages qui ne mentionne les frais qu’une fois.

Prompt engineering

Il s’agit de concevoir comment l’information récupérée et votre question sont combinées avant d’être envoyées au LLM. Les Bonnes pratiques LLM aident le LLM à comprendre le contexte et à produire de meilleures réponses.

Mise à jour des données externes

Pour garder les réponses à jour, This Guy met régulièrement à jour ses sources externes et recalcule les embeddings, afin que l’IA ait toujours accès aux dernières informations.

Attribution des sources (citations)

This Guy peut fournir des références ou citations pour les informations utilisées, ce qui permet aux utilisateurs de vérifier les faits et de faire confiance aux réponses.

Exemple concret

Supposons que vous demandiez à This Guy :

« Quelle est notre politique de télétravail pour les nouvelles recrues ? »

Le système va :

  1. Découper votre manuel RH en chapitres ou sections
  2. Utiliser la recherche sémantique pour trouver la section sur le télétravail
  3. Envoyer cette section et votre question au LLM
  4. Le LLM (votre bibliothécaire expert) génère une réponse en citant la page ou la section utilisée

Résumé

ConceptSignificationExemple
RAGLLM + recherche en temps réel pour des réponses ancréesBibliothécaire avec accès à toutes les ressources
EmbeddingsEmpreintes mathématiques du sens du texteCote unique pour chaque livre
Base vectorielleStocke et organise les embeddings pour une récupération rapideCatalogue pour une recherche rapide
Recherche sémantiqueTrouve le sens, pas seulement les motsBibliothécaire qui « comprend » ce que vous voulez
Recherche par mots-clésTrouve les correspondances exactes de motsRecherche par titre de livre
ChunkingDécoupe les longs textes en parties pertinentesDiviser un livre en chapitres
Prompt engineeringConcevoir comment l’info est présentée au LLMPoser une question claire au bibliothécaire
Mise à jour des données externesRafraîchir sources et embeddings régulièrementMettre la bibliothèque à jour avec de nouveaux livres
Attribution des sourcesFournir des références pour les réponsesNotes de bas de page dans un rapport

La technologie RAG rend This Guy plus fiable et digne de confiance en lui permettant de « consulter » les informations les plus récentes et pertinentes — comme un bon bibliothécaire qui vérifie toujours les rayonnages et cite ses sources avant de vous répondre.