Définition technique
Base de données optimisée pour stocker et interroger des vecteurs (embeddings) : représentations numériques de textes, images ou données. La recherche se fait par similarité (distance entre vecteurs) plutôt que par correspondance exacte. C’est la brique centrale du RAG : les documents sont convertis en vecteurs, puis une requête utilisateur est transformée en vecteur pour retrouver les passages les plus proches. Exemples : Pinecone, Weaviate, pgvector, Chroma. Utilisée aussi pour la recherche sémantique, la déduplication ou les recommandations.
Comment ça fonctionne ?
Les textes sont passés dans un modèle d’embedding qui produit un vecteur (liste de nombres). Ces vecteurs sont stockés dans la base. Pour une requête, on génère son vecteur et on lance une recherche par similarité (ex. plus proches voisins). Les documents associés aux vecteurs les plus proches sont renvoyés et injectés dans le contexte du LLM.
L'erreur classique à éviter
Indexer des documents mal structurés ou obsolètes. Choisir une base sans filtres (métadonnées) pour restreindre la recherche. Sous-estimer le coût des embeddings pour de gros volumes.
Impact business : pourquoi s'en soucier ?
Une base vectorielle permet de « connecter » vos données (doc, FAQ, catalogue) à un LLM via le RAG : l’IA répond en s’appuyant sur votre contenu à jour. Sans elle, le RAG repose sur du full-text moins pertinent pour le langage naturel. L’investissement (hébergement, indexation) est modéré ; le gain en pertinence des chatbots et assistants métier est fort. Essentiel pour tout projet IA qui doit s’appuyer sur des données privées ou à jour.
La règle d'or
Nettoyer et structurer les sources avant indexation. Utiliser des métadonnées (date, type, langue) pour filtrer. Prévoir une mise à jour incrémentale des embeddings quand le contenu change.