Embeddings
Définition
Les embeddings sont des représentations vectorielles denses de texte (ou d'autres modalités). Similar content maps to nearby vectors, enabling semantic search and récupération in RAG.
Ils sont le pont entre le texte brut et les bases de données vectorielles : tant les documents que les requêtes sont embedded so similarity can be computed as vector distance (par ex. cosine). Choice of embedding model affects RAG récupération quality and cost; see semantic search for the broader use of embeddings in search.
Comment ça fonctionne
Text (a sentence, paragraph, or chunk) est alimenté dans un encoder (par ex. OpenAI embeddings, Cohere, or open-source sentence-transformers). The encoder outputs a fixed-size vector (par ex. 768 or 1536 dimensions). Training uses contrastive or similar objectives so that semantically related texts get nearby vectors; similarity at query time is usually cosine or dot product. Models can be multilingual or domain-specific. For RAG, use the same encoder for documents and queries so distances are meaningful.
Cas d'utilisation
Embeddings sont le pont entre le texte brut et la recherche par similarité; la qualité ici détermine le rappel de récupération et la précision du RAG.
- Converting documents and queries to vectors for RAG récupération
- Semantic similarity and clustering (par ex. duplicate detection)
- Cross-lingual and multimodal récupération when using matching encoders