Zum Hauptinhalt springen

30 docs getaggt mit "Advanced"

Deep technical content for practitioners

Alle Tags anzeigen

Agent security

Threats, attack vectors, and defensive techniques for securing AI agent systems in production.

Ansible

Agentloses Konfigurationsmanagement- und Automatisierungswerkzeug, das deklarative YAML-Playbooks nutzt, um Server zu konfigurieren, Software zu installieren und ML-Trainingsumgebungen im großen Maßstab zu verwalten.

Apache Airflow

DAG-based workflow orchestration for ML and data pipelines — operators, sensors, hooks, XComs, and scheduler architecture.

Apache Kafka

Distributed event streaming with Apache Kafka — topics, partitions, producers, consumers, and real-time ML feature pipelines.

Apache Spark

Distributed data processing with Apache Spark — RDDs, DataFrames, Spark SQL, MLlib, and driver/executor architecture.

Automatic Prompt Engineering (APE)

Automatic Prompt Engineering (APE) nutzt LLMs, um Prompt-Anweisungen zu generieren, zu bewerten und iterativ zu verfeinern — es ersetzt manuelles Trial-and-Error durch eine datengetriebene Optimierungsschleife, die leistungsstarke Prompts in großem Maßstab entdeckt.

Building MCP clients

How to build MCP clients that connect AI applications to MCP servers — covering client initialization, capability discovery, tool invocation, resource reading, and transport selection.

Building MCP servers

How to build MCP servers that expose tools, resources, and prompts to any MCP-compatible AI application — covering server setup, capability registration, transport configuration, and the full server lifecycle.

DAG-based agents

Directed acyclic graph workflows for agents — parallel execution, task dependencies, and dynamic graph construction.

Debiasing-Techniken

Debiasing-Techniken sind Prompt-Level- und Evaluierungsstrategien zur Identifizierung und Reduzierung systematischer Verzerrungen in LLM-Ausgaben — sie behandeln soziale Verzerrungen, Sycophancy, Positionseffekte und Evaluierungsverzerrungen, um fairere und zuverlässigere Antworten zu erzeugen.

Edge Reasoning

Leichtgewichtiges Reasoning und Inferenz am Edge (Geräte, Gateways).

Feature Stores

Zentralisierte Repositories zum Berechnen, Speichern und konsistenten Bereitstellen von ML-Features zwischen Training und Produktion.

Grafana

Open-Source-Analyse- und Visualisierungsplattform zum Erstellen interaktiver Dashboards über Zeitreihen- und Log-Daten, unverzichtbar für ML-Infrastruktur- und Modellleistungs-Monitoring.

KubeFlow

Open-Source-ML-Toolkit für Kubernetes — Pipelines, Hyperparameter-Tuning und Modell-Serving im großen Maßstab.

MCP plugins and integrations

Model Context Protocol (MCP) in Claude Code — what MCP servers are, how they extend Claude's capabilities, how to install and configure them, and how to build custom MCP servers.

ML auf Kubernetes

Ausführen von Machine-Learning-Workloads auf Kubernetes — Containerisierung von Modellen, GPU-Scheduling und Skalierungsstrategien.

Prometheus

Open-Source-Monitoring- und Alerting-Toolkit, das auf einer Zeitreihendatenbank und einem pull-basierten Scraping-Modell aufgebaut ist, weit verbreitet für ML-Infrastruktur- und Modellmetriken.

Prompt caching

How Claude Code uses prompt caching to reduce latency and token costs by reusing previously processed system prompts, tool definitions, and conversation prefixes across API calls.

Pruning

Entfernen von Gewichten oder Strukturen zur Modellverkleinerung.

Quantisierung

Verwendung niedrigerer Präzision (z. B. int8) für Gewichte und Aktivierungen.

Selbstevaluation und Kalibrierung

Techniken, die ein LLM dazu veranlassen, die Qualität und das Vertrauen seiner eigenen Ausgaben zu beurteilen — ermöglichen iterative Selbstkorrektur, Unsicherheitsquantifizierung und vertrauenswürdigere Antworten ohne externe Aufsicht.

Self-critique and reflection

Agents that evaluate their own output and iteratively improve through reflection, critic agents, and the Reflexion framework.

Terraform

Deklaratives Infrastructure-as-Code-Werkzeug von HashiCorp zur Bereitstellung und Verwaltung von Cloud-Ressourcen, weit verbreitet für reproduzierbare ML-Infrastruktur einschließlich GPU-Instanzen, Speicher-Buckets und Kubernetes-Cluster.

Wissensdestillation

Training eines kleinen Schülermodells, um ein großes Lehrermodell nachzuahmen.