Anthropic
Definition
Anthropic ist ein KI-Sicherheitsunternehmen und Modellanbieter, der 2021 von ehemaligen OpenAI-Forschern gegründet wurde. Seine Kernthese lautet: Der Aufbau leistungsfähiger KI-Modelle und die Lösung des Alignment-Problems sind untrennbare Ziele — das Unternehmen verfolgt modernste Leistungsfähigkeit gemeinsam mit Sicherheitsforschung wie Constitutional AI, Interpretierbarkeit und mechanistisches Verstehen der Modell-Interna. Das kommerzielle Produkt dieser Forschung ist die Claude-Modellfamilie, verfügbar über die Anthropic-API und Enterprise-Produkte.
Die Claude-Modellreihe folgt einer dreigliedrigen Namenskonvention, die Leistungs- und Kosten-Kompromisse widerspiegelt: Opus (höchste Qualität, komplexes Denken), Sonnet (ausgewogene Qualität und Geschwindigkeit) und Haiku (schnellste und kosteneffizienteste). Stand 2025 ist die aktuelle Generation Claude 3.7 Sonnet — das Flaggschiffmodell mit erweitertem Denken — zusammen mit Claude 3 Opus, Claude 3.5 Sonnet und Claude 3.5 Haiku. Alle Claude 3+-Modelle unterstützen Bildeingaben, und die gesamte Familie ist auf ein 200K-Token-Kontextfenster ausgelegt, das Bücher, große Codebasen und lange Konversationsverläufe ohne Abschneiden verarbeiten kann.
Aus Plattformperspektive dreht sich Anthropics API um die Messages API — eine saubere, zweckgebaute Schnittstelle für Multi-Turn-Konversationen. Die Plattform umfasst Tool-Nutzung (Anthropics Begriff für Funktionsaufruf), erweitertes Denken (sichtbares Chain-of-Thought-Reasoning), Prompt-Caching (reduziert Kosten und Latenz bei großen wiederholten Kontexten) und Stapelverarbeitung. Das Python-SDK (anthropic) und TypeScript-SDK sind die primären Client-Bibliotheken. Claude-Modelle sind auch über Amazon Bedrock, Google Cloud Vertex AI und Enterprise-Verträge mit Optionen für Datenspeicherorte verfügbar.
Funktionsweise
Messages API
Die Messages API (POST /v1/messages) ist Anthropics primäre Schnittstelle. Im Gegensatz zu einigen APIs, die einen flachen prompt-String verwenden, ist die Messages API konversationsorientiert: Sie senden ein messages-Array mit abwechselnden user- und assistant-Turns sowie einen optionalen system-Parameter für Kontext und Persona. Das Modell gibt ein Message-Objekt zurück, das eine content-Liste enthält — standardmäßig Textblöcke, Tool-Use-Blöcke wenn das Modell ein Tool aufrufen möchte. Streaming wird unterstützt und für interaktive Nutzung empfohlen; das SDK bietet sowohl Streaming-Helfer als auch rohen SSE-Zugriff.
Tool-Nutzung
Mit Tool-Nutzung kann Claude externe Funktionen aufrufen, indem es strukturierte tool_use-Inhaltsblöcke ausgibt. Sie deklarieren Tools als JSON-Schemas im tools-Parameter. Wenn Claude entscheidet, dass ein Tool benötigt wird, enthält die Antwort einen tool_use-Block mit dem Tool-Namen und der Eingabe; Ihr Code führt die Funktion aus und gibt ein tool_result im nächsten User-Turn zurück. Claude verwendet das Ergebnis dann, um seine Antwort abzuschließen. Dieses Muster ermöglicht Agents, Code-Ausführungsumgebungen, Datenbankabfragen und API-Integrationen, ohne dass das Modell direkten Zugriff auf ein System benötigt.
Erweitertes Denken
Erweitertes Denken ist ein Modus, der auf Claude 3.7 Sonnet verfügbar ist und es dem Modell ermöglicht, ausführlich zu denken, bevor es seine endgültige Antwort produziert. Wenn Sie thinking: {type: "enabled", budget_tokens: N} setzen, gibt das Modell thinking-Inhaltsblöcke aus, die seinen internen Arbeitsbereich enthalten — ähnlich wie Chain-of-Thought, aber nativ und strukturiert. Erweitertes Denken verbessert die Leistung bei Mathematikwettbewerben, komplexem Code, mehrstufigem Denken und Aufgaben, die sorgfältige schrittweise Analyse erfordern, erheblich. Die Denk-Tokens zählen zum Token-Budget, sind aber in der Antwort sichtbar und geben Transparenz darüber, wie das Modell zu seiner Antwort gelangt ist.
Prompt-Caching
Prompt-Caching reduziert Kosten und Latenz für Workloads, die wiederholt große System-Prompts oder Dokumentkontexte verwenden, erheblich. Sie markieren Präfixabschnitte Ihrer Anfrage mit cache_control: {type: "ephemeral"}. Beim ersten Aufruf speichert Anthropic das Prompt-Präfix in seiner Infrastruktur; nachfolgende Aufrufe, die dem Präfix entsprechen, werden aus dem Cache mit 90% niedrigeren Input-Token-Kosten und deutlich reduzierter Zeit-bis-ersten-Token bedient. Dies ist besonders wertvoll für RAG-Pipelines (großer Kontext mit jeder Anfrage übergeben), Agent-Schleifen (große System-Prompts in jedem Turn wiederholt) und Stapel-Dokumentenverarbeitung.
Langer Kontext (200K Token)
Alle Claude 3 und spätere Modelle unterstützen ein 200K-Token-Kontextfenster — entspricht etwa 150.000 Wörtern oder ca. 500 Seiten Text. Langer Kontext ermöglicht es, ganze Codebasen, Rechtsdokumente, Forschungsarbeiten oder vollständige Konversationsverläufe in einem einzigen Aufruf ohne Aufteilung zu verarbeiten. Anthropics Forschung zur Langkontext-Leistung ("Nadel im Heuhaufen"-Evaluierungen) zeigt, dass Claude über den gesamten 200K-Bereich hinweg eine starke Rückrufgenauigkeit beibehält, was es zuverlässig für Dokument-Q&A, Vertragsanalyse und Code-Review über große Repositories macht. Dies ist einer von Anthropics deutlichsten Differenziatoren gegenüber GPT-4os 128K-Fenster.
Wann verwenden / Wann NICHT verwenden
| Anthropic verwenden wenn | Alternativen in Betracht ziehen wenn |
|---|---|
| Sie ein 200K-Kontextfenster benötigen, um lange Dokumente, Codebasen oder erweiterte Konversationen ohne Aufteilung zu verarbeiten | Ihr Workload Bildgenerierung, Audio-Transkription oder Text-to-Speech erfordert — Claude ist nur Text/Vision; OpenAI deckt Audio ab |
| Sicherheitsbeschränkungen und vorhersehbares Ablehnungsverhalten kritisch sind (Compliance, Gesundheitswesen, Finanzen) | Sie Open-Weights-Modelle für Self-Hosting, Feinabstimmung oder Datenspeicherort benötigen — Anthropic bietet keine Open-Weights-Option |
| Sie erweitertes Denken für tiefe Reasoning-Aufgaben möchten (Mathematik, komplexer Code, mehrstufige Analyse) | Ihr primärer Anwendungsfall hochvolumige Embedding-Generierung ist — Anthropic bietet keine Embeddings-API |
| Prompt-Caching Kosten sinnvoll reduziert (große wiederholte Kontexte, Agent-System-Prompts) | Sie stark auf OpenAI-spezifisches Tooling angewiesen sind (Assistants API, DALL-E, Whisper), das kein Anthropic-Äquivalent hat |
| Sie Tool-Nutzung oder Computer-Use-Workflows aufbauen und ein Modell möchten, das gut auf strukturierte Ausgaben kalibriert ist | Sie die absolut niedrigsten Kosten pro Token bei großem Volumen benötigen — Claude Haiku konkurriert preislich, aber GPT-4o-mini und offene Modelle sind günstiger |
Vergleiche
| Kriterium | Anthropic | OpenAI | Google Gemini |
|---|---|---|---|
| Flaggschiffmodell | Claude 3.7 Sonnet | GPT-4o | Gemini 2.5 Pro |
| Kontextfenster | 200K (alle Claude 3+) | 128K (GPT-4o) | Bis zu 1M (Gemini 1.5 Pro) |
| Reasoning / Denken | Erweitertes Denken (nativer CoT) | o1, o3-Serie | Gemini 2.5 Pro Denken |
| Multimodale Eingabe | Text, Bild | Text, Bild, Audio, Video | Text, Bild, Audio, Video |
| Audio / Sprache | Nein | Ja (Whisper, TTS) | Ja (Gemini) |
| Bildgenerierung | Nein | Ja (DALL-E 3) | Ja (Imagen) |
| Embeddings-API | Nein | Ja | Ja |
| Open-Weights | Nein | Nein | Gemma (partiell) |
| Prompt-Caching | Ja (nativ, 90% Rabatt) | Kontextzwischenspeicherung (begrenzt) | Ja (Gemini) |
| Tool-Nutzung / Funktionsaufruf | Ausgereift, Computer-Use-Unterstützung | Ausgereift, weit verbreitet | Ausgereift |
| Sicherheitsphilosophie | Constitutional AI, ablehnung-optimiert | Moderations-API, Nutzungsrichtlinie | Verantwortungsvolle KI-Richtlinien |
| Datenspeicherort-Optionen | Enterprise-Vertrag | Enterprise-Vertrag | Google Cloud-Regionen |
Vor- und Nachteile
| Vorteile | Nachteile |
|---|---|
| 200K-Kontextfenster für alle Modelle — beste Klasse für lange Dokumente | Keine Audio-, Sprach- oder Bildgenerierungs-APIs |
| Erweitertes Denken bietet transparenten Chain-of-Thought für schwierige Reasoning-Aufgaben | Keine Embeddings-API — Sie benötigen einen zweiten Anbieter für RAG |
| Prompt-Caching reduziert Kosten für wiederholte große Kontexte erheblich | Geschlossenes Modell ohne Open-Weights-Option |
| Sicherheitsorientiertes Design mit sorgfältiger Ablehnungskalibrierung und Constitutional AI | Kleineres Ökosystem als OpenAI — weniger Drittanbieter-Tutorials und Integrationen |
| Computer-Use (Beta) ermöglicht agentische Steuerung von Desktop-GUIs | Preise können für einfache Aufgaben höher sein als GPT-4o-mini oder Open-Weights-Alternativen |
Codebeispiele
Messages API — grundlegende Vervollständigung und System-Prompt
import anthropic
client = anthropic.Anthropic(api_key="sk-ant-...") # or set ANTHROPIC_API_KEY env var
# Basic message
message = client.messages.create(
model="claude-3-7-sonnet-20250219",
max_tokens=1024,
system="You are a concise technical assistant. Answer in plain English.",
messages=[
{"role": "user", "content": "What is the Anthropic Messages API?"}
],
)
print(message.content[0].text)
# Multi-turn conversation
messages = [
{"role": "user", "content": "What is prompt caching?"},
{"role": "assistant", "content": "Prompt caching stores repeated large context..."},
{"role": "user", "content": "How much does it save?"},
]
response = client.messages.create(
model="claude-3-5-haiku-20241022",
max_tokens=512,
messages=messages,
)
print(response.content[0].text)
Tool-Nutzung
import json
import anthropic
client = anthropic.Anthropic()
# Define tools as JSON schemas
tools = [
{
"name": "search_docs",
"description": "Search the documentation for a given query and return relevant passages.",
"input_schema": {
"type": "object",
"properties": {
"query": {"type": "string", "description": "Search query"},
"max_results": {"type": "integer", "default": 3},
},
"required": ["query"],
},
}
]
messages = [{"role": "user", "content": "How do I enable prompt caching?"}]
# First call — Claude may request a tool
response = client.messages.create(
model="claude-3-7-sonnet-20250219",
max_tokens=1024,
tools=tools,
messages=messages,
)
# Process tool calls
if response.stop_reason == "tool_use":
messages.append({"role": "assistant", "content": response.content})
tool_results = []
for block in response.content:
if block.type == "tool_use":
# Simulated tool execution
result = f"Prompt caching docs for '{block.input['query']}': use cache_control param..."
tool_results.append({
"type": "tool_result",
"tool_use_id": block.id,
"content": result,
})
messages.append({"role": "user", "content": tool_results})
# Final call with tool result
final = client.messages.create(
model="claude-3-7-sonnet-20250219",
max_tokens=1024,
tools=tools,
messages=messages,
)
print(final.content[0].text)
Erweitertes Denken
import anthropic
client = anthropic.Anthropic()
response = client.messages.create(
model="claude-3-7-sonnet-20250219",
max_tokens=16000,
thinking={
"type": "enabled",
"budget_tokens": 10000, # tokens allocated for internal reasoning
},
messages=[{
"role": "user",
"content": (
"A train leaves city A at 9am traveling at 80 km/h. "
"Another train leaves city B (320 km away) at 10am traveling at 100 km/h. "
"At what time do they meet, and how far from city A?"
),
}],
)
for block in response.content:
if block.type == "thinking":
print("=== Model's internal reasoning ===")
print(block.thinking[:500], "...") # first 500 chars for brevity
elif block.type == "text":
print("=== Final answer ===")
print(block.text)
Prompt-Caching für wiederholten großen Kontext
import anthropic
client = anthropic.Anthropic()
# Large document loaded once — cached after first call
large_document = open("contract.txt").read() # e.g., 50K tokens
response = client.messages.create(
model="claude-3-5-sonnet-20241022",
max_tokens=1024,
system=[
{
"type": "text",
"text": "You are a legal document analyst. Answer questions based solely on the document provided.",
},
{
"type": "text",
"text": large_document,
"cache_control": {"type": "ephemeral"}, # mark for caching
},
],
messages=[{"role": "user", "content": "What are the termination clauses?"}],
)
print(response.content[0].text)
# usage.cache_creation_input_tokens — tokens cached this call (full price)
# usage.cache_read_input_tokens — tokens served from cache (10% price)
print(response.usage)
Praktische Ressourcen
- Anthropic-API-Referenz — Vollständige Endpunkt-Dokumentation mit Request/Response-Schemas und Parameterreferenz
- Anthropic Prompt-Engineering-Leitfaden — Offizielle Best Practices für System-Prompts, Chain-of-Thought und aufgabenspezifische Techniken
- Anthropic Cookbook — Ausführbare Notebooks zu Tool-Nutzung, RAG, Multimodal, Prompt-Caching und Agents
- Claude-Modellübersicht — Aktuelle Modell-IDs, Kontextfenster, Fähigkeitsvergleich und Deprecation-Zeitplan
- Anthropic Python SDK auf GitHub — Quellcode, Changelog, Typstubs und Migrationsleitfäden
Siehe auch
- Modellanbieter — Übersicht und Vergleich aller Anbieter einschließlich einer 7-Anbieter-Vergleichstabelle
- Fallstudie: Claude — Für einen tieferen Einblick in Modellarchitektur und Trainingsmethodik
- OpenAI — GPT-4o, o-Serie Reasoning, Funktionsaufruf, DALL-E, Whisper
- Prompt-Engineering — Techniken für alle Claude-Modelle anwendbar
- Tools — Claude Code, Anthropics KI-Coding-Agent
- Agents — Aufbau agentischer Workflows mit Claude Tool-Nutzung