Agent memory
How AI agents store, retrieve, and reason over information across turns and sessions.
Requires basic AI/ML understanding
Voir tous les tagsHow AI agents store, retrieve, and reason over information across turns and sessions.
Best practices for writing system prompts that produce reliable, well-scoped AI agent behavior.
Agents qui opèrent avec un minimum d'intervention humaine en poursuivant des objectifs à long terme.
AI for perception, planning, and control in robotics.
Ensuring AI systems are robust, aligned, and safe.
Claude's native function/tool calling mechanism using JSON schema definitions, tool_use and tool_result message types, with support for multi-turn tool use, parallel calls, and streaming.
Comment l'assemblage de prompts agrège plusieurs réponses LLM pour améliorer la précision, réduire la variance et produire des sorties plus fiables.
Comment les LLM peuvent évaluer leurs propres sorties, exprimer une incertitude calibrée et utiliser la critique pour améliorer la qualité des réponses.
Comment l'autocohérence améliore le raisonnement des LLM en générant plusieurs chaînes de pensée et en sélectionnant la réponse la plus cohérente.
Microsoft's multi-agent conversation framework enabling LLM-powered agents to collaborate via structured message exchanges, with built-in code execution and human-in-the-loop support.
Benchmarks standard pour l'IA : GLUE, SuperGLUE, MMLU et plus.
Représentations d'encodeur bidirectionnel à partir de Transformers.
Sources et atténuation des biais dans les systèmes de ML.
Prédécesseur encodeur-décodeur de Gemini ; pré-entraînement par débruitage pour le résumé et la génération.
LLM à poids ouverts de DeepSeek AI avec raisonnement et code solides ; MoE et mise à l'échelle efficace.
Famille de LLM d'Alibaba ; support multilingue, de programmation et de contexte long.
Step-by-step reasoning to improve LLM outputs.
Continuous integration and delivery adapted for machine learning — testing data, models, and code together.
Enterprise-focused AI platform specializing in embeddings, reranking, and RAG for search and information retrieval at scale.
Réduire la taille et le calcul des modèles pour le déploiement.
Memory patterns for chat agents — buffer, summary, vector, and entity memory.
Framework multi-agents basé sur les rôles où les agents ont des rôles, objectifs et historiques explicites, collaborant via des tâches structurées et des processus d'équipe.
An overview of data pipelines in the ML context — batch vs streaming, ETL vs ELT, data quality, and schema validation.
Git for data and models — versioning datasets, pipelines, and experiments alongside source code.
RL avec des réseaux de neurones profonds pour l'approximation de fonctions.
Chinese AI lab offering open-weights models with state-of-the-art reasoning and coding capabilities at significantly lower cost than proprietary alternatives.
Construire des systèmes IA à partir de spécifications explicites.
How to systematically log, compare, and reproduce ML experiments using tracking tools.
Adapter les LLM à des tâches et domaines spécifiques.
Comment Claude Code gère la fenêtre de contexte sur de longues sessions — compression automatique, stratégies d'historique de conversation et techniques pratiques pour maintenir l'efficacité des sessions à grande échelle.
Transformer génératif pré-entraîné et modèles décodeur seul.
Plateforme et bibliothèques pour modèles, jeux de données et pipelines.
Modèles qui traitent et génèrent du contenu textuel, visuel, audio et vidéo.
Exécuter des modèles IA sur l'appareil ou sur site plutôt que via des API cloud.
Matériel et systèmes pour l'entraînement et le déploiement de l'IA : GPU, TPU, clusters.
Comment l'ingénierie automatique des prompts utilise les LLM pour générer, évaluer et sélectionner des instructions de prompts optimisées sans réglage manuel.
Conception de prompts pour orienter le comportement des LLM et améliorer les sorties.
Framework for LLM applications and agents.
Stateful agent graphs built on LangChain, where nodes are Python functions, edges define routing, and a shared TypedDict state enables cycles, conditional branching, persistence, and human-in-the-loop checkpoints.
Framework de données pour applications LLM et RAG.
La famille de modèles Llama à poids ouverts de Meta — déploiement local, hébergement API tiers, fine-tuning et le débat entre modèles ouverts et fermés.
Mesurer les performances des modèles sur diverses tâches.
La plateforme duale de Mistral AI entre poids ouverts et API commerciale — modèles efficaces, forces multilingues et La Plateforme pour un usage entreprise.
Open-source platform for the complete ML lifecycle, covering experiment tracking, projects, models, and the registry.
Un standard ouvert pour connecter les modèles d'IA à des outils, des sources de données et des services externes — permettant une utilisation d'outils portable et interopérable dans n'importe quelle application IA.
Centralized store for versioning, staging, and governing ML model artifacts across their full lifecycle.
La réflexion étendue dans Claude Code — ce que c'est, comment les niveaux d'effort affectent la profondeur de raisonnement par rapport à la vitesse, et comment configurer le comportement de réflexion pour différents types de tâches.
Multiple agents collaborating or competing.
Moteur d'inférence multiplateforme haute performance pour les modèles ONNX avec support des fournisseurs d'exécution CPU, GPU et NPU.
Architecture where one LLM creates a step-by-step plan and another executes each step independently.
Comment le prompting par recul améliore le raisonnement des LLM en invitant d'abord à des questions de haut niveau avant de répondre à des questions spécifiques.
Déployer des modèles PyTorch sur des appareils mobiles et edge en utilisant TorchScript et le runtime de nouvelle génération ExecuTorch.
Components and design choices in RAG systems.
Example RAG pipelines and code snippets.
Entrelacement du raisonnement et de l'action dans les agents.
How LLMs and agents structure reasoning and action.
Recherche par sens en utilisant des embeddings et la similarité.
CNN pour les données spatiales et images.
RNN et données séquentielles.
Combining retrieval with LLM generation for accurate, grounded answers.
Spec-driven reasoning pattern combining retrieval and decision design.
Stratégies et frameworks pour déployer des modèles ML comme services d'inférence évolutifs — par lots, temps réel et streaming.
Modèles de prompts réutilisables et invocables qui étendent les capacités de Claude Code — ce que sont les skills, comment les écrire, où les stocker et comment les invoquer avec /nom-du-skill.
Comment guider les LLM pour produire des sorties dans des formats structurés comme JSON, XML, Markdown et du code, en assurant la fiabilité pour les systèmes en aval.
Agents hiérarchiques et délégation.
Sortie token par token pour une latence perçue plus faible et une meilleure UX.
Guide complet sur la surveillance des modèles de machine learning en production, couvrant la dérive conceptuelle, la dérive des données, la dégradation des modèles, les métriques, les stratégies d'alerte et les outils.
Comment identifier et atténuer les biais systématiques dans les sorties des LLM grâce à des stratégies de prompting, d'échantillonnage et d'ensemble.
Runtime léger pour l'inférence ML sur appareil sur Android, iOS, systèmes embarqués et microcontrôleurs.
Exploration de plusieurs branches de raisonnement.
Storing and searching embeddings for RAG.
Classification d'images, détection d'objets et segmentation.
Cloud-native MLOps platform for experiment tracking, hyperparameter sweeps, artifact management, and collaborative reporting.