Zum Hauptinhalt springen

Embeddings

Definition

Einbettungen sind dichte Vektorrepräsentationen von Text (oder anderer Modalitäten). Ähnliche Inhalte werden auf nahe Vektoren abgebildet, was semantische Suche und Retrieval in RAG ermöglicht.

Sie sind die Brücke zwischen Rohtext und Vektordatenbanken: sowohl Dokumente als auch Abfragen werden embedded so similarity can be computed as vector distance (z. B. cosine). Choice of embedding model affects RAG Abruf quality and cost; see semantic search für den broader use of embeddings in search.

Funktionsweise

Text (a sentence, paragraph, or chunk) wird in einen encoder (z. B. OpenAI embeddings, Cohere, or open-source sentence-transformers). The encoder outputs a fixed-size vector (z. B. 768 or 1536 dimensions). Training uses contrastive or similar objectives so that semantically related texts get nearby vectors; similarity zur Abfragezeit is usually cosine or dot product. Models can be multilingual or domain-specific. For RAG, use the same encoder for documents and queries so distances are meaningful.

Anwendungsfälle

Embeddings sind die Brücke zwischen Rohtext und Ähnlichkeitssuche; die Qualität hier bestimmt den Retrieval-Recall und die RAG-Genauigkeit.

  • Converting documents and queries to vectors for RAG Abruf
  • Semantic similarity and clustering (z. B. duplicate detection)
  • Cross-lingual and multimodal Abruf when using nachzuahmening encoders

Externe Dokumentation

Siehe auch