Zum Hauptinhalt springen

Anthropic

Definition

Anthropic ist ein KI-Sicherheitsunternehmen und Modellanbieter, der 2021 von ehemaligen OpenAI-Forschern gegründet wurde. Seine Kernthese lautet: Der Aufbau leistungsfähiger KI-Modelle und die Lösung des Alignment-Problems sind untrennbare Ziele — das Unternehmen verfolgt modernste Leistungsfähigkeit gemeinsam mit Sicherheitsforschung wie Constitutional AI, Interpretierbarkeit und mechanistisches Verstehen der Modell-Interna. Das kommerzielle Produkt dieser Forschung ist die Claude-Modellfamilie, verfügbar über die Anthropic-API und Enterprise-Produkte.

Die Claude-Modellreihe folgt einer dreigliedrigen Namenskonvention, die Leistungs- und Kosten-Kompromisse widerspiegelt: Opus (höchste Qualität, komplexes Denken), Sonnet (ausgewogene Qualität und Geschwindigkeit) und Haiku (schnellste und kosteneffizienteste). Stand 2025 ist die aktuelle Generation Claude 3.7 Sonnet — das Flaggschiffmodell mit erweitertem Denken — zusammen mit Claude 3 Opus, Claude 3.5 Sonnet und Claude 3.5 Haiku. Alle Claude 3+-Modelle unterstützen Bildeingaben, und die gesamte Familie ist auf ein 200K-Token-Kontextfenster ausgelegt, das Bücher, große Codebasen und lange Konversationsverläufe ohne Abschneiden verarbeiten kann.

Aus Plattformperspektive dreht sich Anthropics API um die Messages API — eine saubere, zweckgebaute Schnittstelle für Multi-Turn-Konversationen. Die Plattform umfasst Tool-Nutzung (Anthropics Begriff für Funktionsaufruf), erweitertes Denken (sichtbares Chain-of-Thought-Reasoning), Prompt-Caching (reduziert Kosten und Latenz bei großen wiederholten Kontexten) und Stapelverarbeitung. Das Python-SDK (anthropic) und TypeScript-SDK sind die primären Client-Bibliotheken. Claude-Modelle sind auch über Amazon Bedrock, Google Cloud Vertex AI und Enterprise-Verträge mit Optionen für Datenspeicherorte verfügbar.

Funktionsweise

Messages API

Die Messages API (POST /v1/messages) ist Anthropics primäre Schnittstelle. Im Gegensatz zu einigen APIs, die einen flachen prompt-String verwenden, ist die Messages API konversationsorientiert: Sie senden ein messages-Array mit abwechselnden user- und assistant-Turns sowie einen optionalen system-Parameter für Kontext und Persona. Das Modell gibt ein Message-Objekt zurück, das eine content-Liste enthält — standardmäßig Textblöcke, Tool-Use-Blöcke wenn das Modell ein Tool aufrufen möchte. Streaming wird unterstützt und für interaktive Nutzung empfohlen; das SDK bietet sowohl Streaming-Helfer als auch rohen SSE-Zugriff.

Tool-Nutzung

Mit Tool-Nutzung kann Claude externe Funktionen aufrufen, indem es strukturierte tool_use-Inhaltsblöcke ausgibt. Sie deklarieren Tools als JSON-Schemas im tools-Parameter. Wenn Claude entscheidet, dass ein Tool benötigt wird, enthält die Antwort einen tool_use-Block mit dem Tool-Namen und der Eingabe; Ihr Code führt die Funktion aus und gibt ein tool_result im nächsten User-Turn zurück. Claude verwendet das Ergebnis dann, um seine Antwort abzuschließen. Dieses Muster ermöglicht Agents, Code-Ausführungsumgebungen, Datenbankabfragen und API-Integrationen, ohne dass das Modell direkten Zugriff auf ein System benötigt.

Erweitertes Denken

Erweitertes Denken ist ein Modus, der auf Claude 3.7 Sonnet verfügbar ist und es dem Modell ermöglicht, ausführlich zu denken, bevor es seine endgültige Antwort produziert. Wenn Sie thinking: {type: "enabled", budget_tokens: N} setzen, gibt das Modell thinking-Inhaltsblöcke aus, die seinen internen Arbeitsbereich enthalten — ähnlich wie Chain-of-Thought, aber nativ und strukturiert. Erweitertes Denken verbessert die Leistung bei Mathematikwettbewerben, komplexem Code, mehrstufigem Denken und Aufgaben, die sorgfältige schrittweise Analyse erfordern, erheblich. Die Denk-Tokens zählen zum Token-Budget, sind aber in der Antwort sichtbar und geben Transparenz darüber, wie das Modell zu seiner Antwort gelangt ist.

Prompt-Caching

Prompt-Caching reduziert Kosten und Latenz für Workloads, die wiederholt große System-Prompts oder Dokumentkontexte verwenden, erheblich. Sie markieren Präfixabschnitte Ihrer Anfrage mit cache_control: {type: "ephemeral"}. Beim ersten Aufruf speichert Anthropic das Prompt-Präfix in seiner Infrastruktur; nachfolgende Aufrufe, die dem Präfix entsprechen, werden aus dem Cache mit 90% niedrigeren Input-Token-Kosten und deutlich reduzierter Zeit-bis-ersten-Token bedient. Dies ist besonders wertvoll für RAG-Pipelines (großer Kontext mit jeder Anfrage übergeben), Agent-Schleifen (große System-Prompts in jedem Turn wiederholt) und Stapel-Dokumentenverarbeitung.

Langer Kontext (200K Token)

Alle Claude 3 und spätere Modelle unterstützen ein 200K-Token-Kontextfenster — entspricht etwa 150.000 Wörtern oder ca. 500 Seiten Text. Langer Kontext ermöglicht es, ganze Codebasen, Rechtsdokumente, Forschungsarbeiten oder vollständige Konversationsverläufe in einem einzigen Aufruf ohne Aufteilung zu verarbeiten. Anthropics Forschung zur Langkontext-Leistung ("Nadel im Heuhaufen"-Evaluierungen) zeigt, dass Claude über den gesamten 200K-Bereich hinweg eine starke Rückrufgenauigkeit beibehält, was es zuverlässig für Dokument-Q&A, Vertragsanalyse und Code-Review über große Repositories macht. Dies ist einer von Anthropics deutlichsten Differenziatoren gegenüber GPT-4os 128K-Fenster.

Wann verwenden / Wann NICHT verwenden

Anthropic verwenden wennAlternativen in Betracht ziehen wenn
Sie ein 200K-Kontextfenster benötigen, um lange Dokumente, Codebasen oder erweiterte Konversationen ohne Aufteilung zu verarbeitenIhr Workload Bildgenerierung, Audio-Transkription oder Text-to-Speech erfordert — Claude ist nur Text/Vision; OpenAI deckt Audio ab
Sicherheitsbeschränkungen und vorhersehbares Ablehnungsverhalten kritisch sind (Compliance, Gesundheitswesen, Finanzen)Sie Open-Weights-Modelle für Self-Hosting, Feinabstimmung oder Datenspeicherort benötigen — Anthropic bietet keine Open-Weights-Option
Sie erweitertes Denken für tiefe Reasoning-Aufgaben möchten (Mathematik, komplexer Code, mehrstufige Analyse)Ihr primärer Anwendungsfall hochvolumige Embedding-Generierung ist — Anthropic bietet keine Embeddings-API
Prompt-Caching Kosten sinnvoll reduziert (große wiederholte Kontexte, Agent-System-Prompts)Sie stark auf OpenAI-spezifisches Tooling angewiesen sind (Assistants API, DALL-E, Whisper), das kein Anthropic-Äquivalent hat
Sie Tool-Nutzung oder Computer-Use-Workflows aufbauen und ein Modell möchten, das gut auf strukturierte Ausgaben kalibriert istSie die absolut niedrigsten Kosten pro Token bei großem Volumen benötigen — Claude Haiku konkurriert preislich, aber GPT-4o-mini und offene Modelle sind günstiger

Vergleiche

KriteriumAnthropicOpenAIGoogle Gemini
FlaggschiffmodellClaude 3.7 SonnetGPT-4oGemini 2.5 Pro
Kontextfenster200K (alle Claude 3+)128K (GPT-4o)Bis zu 1M (Gemini 1.5 Pro)
Reasoning / DenkenErweitertes Denken (nativer CoT)o1, o3-SerieGemini 2.5 Pro Denken
Multimodale EingabeText, BildText, Bild, Audio, VideoText, Bild, Audio, Video
Audio / SpracheNeinJa (Whisper, TTS)Ja (Gemini)
BildgenerierungNeinJa (DALL-E 3)Ja (Imagen)
Embeddings-APINeinJaJa
Open-WeightsNeinNeinGemma (partiell)
Prompt-CachingJa (nativ, 90% Rabatt)Kontextzwischenspeicherung (begrenzt)Ja (Gemini)
Tool-Nutzung / FunktionsaufrufAusgereift, Computer-Use-UnterstützungAusgereift, weit verbreitetAusgereift
SicherheitsphilosophieConstitutional AI, ablehnung-optimiertModerations-API, NutzungsrichtlinieVerantwortungsvolle KI-Richtlinien
Datenspeicherort-OptionenEnterprise-VertragEnterprise-VertragGoogle Cloud-Regionen

Vor- und Nachteile

VorteileNachteile
200K-Kontextfenster für alle Modelle — beste Klasse für lange DokumenteKeine Audio-, Sprach- oder Bildgenerierungs-APIs
Erweitertes Denken bietet transparenten Chain-of-Thought für schwierige Reasoning-AufgabenKeine Embeddings-API — Sie benötigen einen zweiten Anbieter für RAG
Prompt-Caching reduziert Kosten für wiederholte große Kontexte erheblichGeschlossenes Modell ohne Open-Weights-Option
Sicherheitsorientiertes Design mit sorgfältiger Ablehnungskalibrierung und Constitutional AIKleineres Ökosystem als OpenAI — weniger Drittanbieter-Tutorials und Integrationen
Computer-Use (Beta) ermöglicht agentische Steuerung von Desktop-GUIsPreise können für einfache Aufgaben höher sein als GPT-4o-mini oder Open-Weights-Alternativen

Codebeispiele

Messages API — grundlegende Vervollständigung und System-Prompt

import anthropic

client = anthropic.Anthropic(api_key="sk-ant-...") # or set ANTHROPIC_API_KEY env var

# Basic message
message = client.messages.create(
model="claude-3-7-sonnet-20250219",
max_tokens=1024,
system="You are a concise technical assistant. Answer in plain English.",
messages=[
{"role": "user", "content": "What is the Anthropic Messages API?"}
],
)
print(message.content[0].text)

# Multi-turn conversation
messages = [
{"role": "user", "content": "What is prompt caching?"},
{"role": "assistant", "content": "Prompt caching stores repeated large context..."},
{"role": "user", "content": "How much does it save?"},
]
response = client.messages.create(
model="claude-3-5-haiku-20241022",
max_tokens=512,
messages=messages,
)
print(response.content[0].text)

Tool-Nutzung

import json
import anthropic

client = anthropic.Anthropic()

# Define tools as JSON schemas
tools = [
{
"name": "search_docs",
"description": "Search the documentation for a given query and return relevant passages.",
"input_schema": {
"type": "object",
"properties": {
"query": {"type": "string", "description": "Search query"},
"max_results": {"type": "integer", "default": 3},
},
"required": ["query"],
},
}
]

messages = [{"role": "user", "content": "How do I enable prompt caching?"}]

# First call — Claude may request a tool
response = client.messages.create(
model="claude-3-7-sonnet-20250219",
max_tokens=1024,
tools=tools,
messages=messages,
)

# Process tool calls
if response.stop_reason == "tool_use":
messages.append({"role": "assistant", "content": response.content})

tool_results = []
for block in response.content:
if block.type == "tool_use":
# Simulated tool execution
result = f"Prompt caching docs for '{block.input['query']}': use cache_control param..."
tool_results.append({
"type": "tool_result",
"tool_use_id": block.id,
"content": result,
})

messages.append({"role": "user", "content": tool_results})

# Final call with tool result
final = client.messages.create(
model="claude-3-7-sonnet-20250219",
max_tokens=1024,
tools=tools,
messages=messages,
)
print(final.content[0].text)

Erweitertes Denken

import anthropic

client = anthropic.Anthropic()

response = client.messages.create(
model="claude-3-7-sonnet-20250219",
max_tokens=16000,
thinking={
"type": "enabled",
"budget_tokens": 10000, # tokens allocated for internal reasoning
},
messages=[{
"role": "user",
"content": (
"A train leaves city A at 9am traveling at 80 km/h. "
"Another train leaves city B (320 km away) at 10am traveling at 100 km/h. "
"At what time do they meet, and how far from city A?"
),
}],
)

for block in response.content:
if block.type == "thinking":
print("=== Model's internal reasoning ===")
print(block.thinking[:500], "...") # first 500 chars for brevity
elif block.type == "text":
print("=== Final answer ===")
print(block.text)

Prompt-Caching für wiederholten großen Kontext

import anthropic

client = anthropic.Anthropic()

# Large document loaded once — cached after first call
large_document = open("contract.txt").read() # e.g., 50K tokens

response = client.messages.create(
model="claude-3-5-sonnet-20241022",
max_tokens=1024,
system=[
{
"type": "text",
"text": "You are a legal document analyst. Answer questions based solely on the document provided.",
},
{
"type": "text",
"text": large_document,
"cache_control": {"type": "ephemeral"}, # mark for caching
},
],
messages=[{"role": "user", "content": "What are the termination clauses?"}],
)

print(response.content[0].text)
# usage.cache_creation_input_tokens — tokens cached this call (full price)
# usage.cache_read_input_tokens — tokens served from cache (10% price)
print(response.usage)

Praktische Ressourcen

Siehe auch

  • Modellanbieter — Übersicht und Vergleich aller Anbieter einschließlich einer 7-Anbieter-Vergleichstabelle
  • Fallstudie: Claude — Für einen tieferen Einblick in Modellarchitektur und Trainingsmethodik
  • OpenAI — GPT-4o, o-Serie Reasoning, Funktionsaufruf, DALL-E, Whisper
  • Prompt-Engineering — Techniken für alle Claude-Modelle anwendbar
  • Tools — Claude Code, Anthropics KI-Coding-Agent
  • Agents — Aufbau agentischer Workflows mit Claude Tool-Nutzung