Agent memory
How AI agents store, retrieve, and reason over information across turns and sessions.
Requires basic AI/ML understanding
Alle Tags anzeigenHow AI agents store, retrieve, and reason over information across turns and sessions.
Best practices for writing system prompts that produce reliable, well-scoped AI agent behavior.
AI for perception, planning, and control in robotics.
Ensuring AI systems are robust, aligned, and safe.
Claude's native function/tool calling mechanism using JSON schema definitions, tool_use and tool_result message types, with support for multi-turn tool use, parallel calls, and streaming.
Microsoft's multi-agent conversation framework enabling LLM-powered agents to collaborate via structured message exchanges, with built-in code execution and human-in-the-loop support.
Agenten, die mit minimaler menschlicher Intervention arbeiten.
Standard-Benchmarks für KI: GLUE, SuperGLUE, MMLU und mehr.
Bidirectional Encoder Representations from Transformers.
Encoder-Decoder-Vorgänger von Gemini; Denoising-Vortraining für Zusammenfassung und Generierung.
DeepSeek AIs Open-Weight-LLMs mit starkem Reasoning und Code; MoE und effiziente Skalierung.
Alibabas LLM-Familie; mehrsprachig, Programmierung und Langkontext-Unterstützung.
Step-by-step reasoning to improve LLM outputs.
Continuous integration and delivery adapted for machine learning — testing data, models, and code together.
Reusable, invocable prompt templates that extend Claude Code's capabilities — what skills are, how to write them, where to store them, and how to invoke them with /skill-name.
Enterprise-focused AI platform specializing in embeddings, reranking, and RAG for search and information retrieval at scale.
How Claude Code manages the context window across long sessions — automatic compression, conversation history strategies, and practical techniques for keeping sessions effective at scale.
Memory patterns for chat agents — buffer, summary, vector, and entity memory.
CNNs for spatial and image data.
Role-based multi-agent framework where agents have explicit roles, goals, and backstories, collaborating through structured tasks and crew processes.
An overview of data pipelines in the ML context — batch vs streaming, ETL vs ELT, data quality, and schema validation.
Git for data and models — versioning datasets, pipelines, and experiments alongside source code.
RL mit tiefen neuronalen Netzen zur Funktionsapproximation.
Chinese AI lab offering open-weights models with state-of-the-art reasoning and coding capabilities at significantly lower cost than proprietary alternatives.
Messung der Modellleistung über verschiedene Aufgaben.
How to systematically log, compare, and reproduce ML experiments using tracking tools.
Adapting LLMs to specific tasks and domains.
Generative Pre-trained Transformer and decoder-only models.
Platform and libraries for models, datasets, and pipelines.
Hardware und Systeme für KI-Training und -Serving: GPUs, TPUs, Cluster.
Framework for LLM applications and agents.
Stateful agent graphs built on LangChain, where nodes are Python functions, edges define routing, and a shared TypedDict state enables cycles, conditional branching, persistence, and human-in-the-loop checkpoints.
Data framework for LLM applications and RAG.
KI-Modelle auf Gerät oder On-Premises statt Cloud-APIs ausführen.
Metas Open-Weights-Llama-Modellfamilie — lokale Bereitstellung, API-Hosting durch Drittanbieter, Fine-Tuning und die Debatte offen vs. geschlossen.
Mistral AIs dualer Open-Weights- und kommerzieller API-Ansatz — effiziente Modelle, mehrsprachige Stärken und La Plateforme für den Unternehmenseinsatz.
Umfassender Leitfaden zum Monitoring von Machine-Learning-Modellen in der Produktion, mit Concept Drift, Data Drift, Modellverfall, Metriken, Alerting-Strategien und Werkzeugen.
Open-source platform for the complete ML lifecycle, covering experiment tracking, projects, models, and the registry.
An open standard for connecting AI models to external tools, data sources, and services — enabling portable, interoperable tool use across any AI application.
Centralized store for versioning, staging, and governing ML model artifacts across their full lifecycle.
Strategien und Frameworks für das Deployment von ML-Modellen als skalierbare Inferenz-Dienste — Batch, Echtzeit und Streaming.
Reduzierung von Modellgröße und Rechenaufwand für die Bereitstellung.
Multiple agents collaborating or competing.
Modelle, die über Text, Bild, Audio und Video Modalitäten verarbeiten und generieren.
Cross-platform, high-performance inference engine for ONNX models with support for CPU, GPU, and NPU execution providers.
Architecture where one LLM creates a step-by-step plan and another executes each step independently.
Prompts gestalten, um das Verhalten von LLMs zu steuern und die Ausgabequalität zu verbessern.
Eine Technik, die mehrere strukturell unterschiedliche Prompt-Varianten gegen dasselbe LLM ausführt und ihre Ausgaben aggregiert, wobei Inferenzkosten gegen höhere Genauigkeit und geringere Varianz eingetauscht werden, als ein einzelner Prompt erreichen kann.
Deploy PyTorch models on mobile and edge devices using TorchScript and the next-generation ExecuTorch runtime.
Components and design choices in RAG systems.
Example RAG pipelines and code snippets.
Verschränkung von Denken und Handeln in Agenten.
How LLMs and agents structure reasoning and action.
RNNs and sequential data.
Combining retrieval with LLM generation for accurate, grounded answers.
Spec-driven reasoning pattern combining retrieval and decision design.
Eine Prompting-Technik, die mehrere unabhängige Chain-of-Thought-Denkpfade generiert und die abschließende Antwort durch Mehrheitsvoting auswählt, was die Zuverlässigkeit gegenüber einzelnem Chain-of-Thought erheblich verbessert.
Suche nach Bedeutung mit Embeddings und Ähnlichkeit.
KI-Systeme aus expliziten Spezifikationen aufbauen.
Eine zweistufige Prompting-Technik, die das Modell zunächst eine übergeordnete abstrakte Frage stellt und dann diese Abstraktion als Kontext verwendet, um die ursprüngliche spezifische Frage zu beantworten — verbessert die Schlussfolgergenauigkeit bei komplexen Aufgaben.
Token-by-token output for lower perceived latency and better UX.
Techniken, um LLMs maschinenlesbare strukturierte Daten erzeugen zu lassen — JSON-Modus, Function Calling Schemas und Pydantic-basierte Extraktion — für zuverlässige Integration in APIs und automatisierte Pipelines.
Hierarchische Agenten und Delegation.
Lightweight runtime for on-device ML inference across Android, iOS, embedded systems, and microcontrollers.
Extended thinking in Claude Code — what it is, how effort levels affect reasoning depth versus speed, and how to configure thinking behavior for different task types.
Erkundung mehrerer Reasoning-Zweige.
Storing and searching embeddings for RAG.
Cloud-native MLOps platform for experiment tracking, hyperparameter sweeps, artifact management, and collaborative reporting.