Aller au contenu principal

73 documents tagués avec "Intermediate"

Requires basic AI/ML understanding

Voir tous les tags

Agent memory

How AI agents store, retrieve, and reason over information across turns and sessions.

Agents autonomes

Agents qui opèrent avec un minimum d'intervention humaine en poursuivant des objectifs à long terme.

AI safety

Ensuring AI systems are robust, aligned, and safe.

Anthropic Tool Use

Claude's native function/tool calling mechanism using JSON schema definitions, tool_use and tool_result message types, with support for multi-turn tool use, parallel calls, and streaming.

Assemblage de prompts

Comment l'assemblage de prompts agrège plusieurs réponses LLM pour améliorer la précision, réduire la variance et produire des sorties plus fiables.

Auto-évaluation et calibration

Comment les LLM peuvent évaluer leurs propres sorties, exprimer une incertitude calibrée et utiliser la critique pour améliorer la qualité des réponses.

Autocohérence

Comment l'autocohérence améliore le raisonnement des LLM en générant plusieurs chaînes de pensée et en sélectionnant la réponse la plus cohérente.

AutoGen

Microsoft's multi-agent conversation framework enabling LLM-powered agents to collaborate via structured message exchanges, with built-in code execution and human-in-the-loop support.

Benchmarks

Benchmarks standard pour l'IA : GLUE, SuperGLUE, MMLU et plus.

BERT

Représentations d'encodeur bidirectionnel à partir de Transformers.

Case study — BART

Prédécesseur encodeur-décodeur de Gemini ; pré-entraînement par débruitage pour le résumé et la génération.

Case study — DeepSeek

LLM à poids ouverts de DeepSeek AI avec raisonnement et code solides ; MoE et mise à l'échelle efficace.

Case study — Qwen

Famille de LLM d'Alibaba ; support multilingue, de programmation et de contexte long.

CI/CD for ML

Continuous integration and delivery adapted for machine learning — testing data, models, and code together.

Cohere

Enterprise-focused AI platform specializing in embeddings, reranking, and RAG for search and information retrieval at scale.

CrewAI

Framework multi-agents basé sur les rôles où les agents ont des rôles, objectifs et historiques explicites, collaborant via des tâches structurées et des processus d'équipe.

Data pipelines

An overview of data pipelines in the ML context — batch vs streaming, ETL vs ELT, data quality, and schema validation.

DeepSeek

Chinese AI lab offering open-weights models with state-of-the-art reasoning and coding capabilities at significantly lower cost than proprietary alternatives.

Experiment tracking

How to systematically log, compare, and reproduce ML experiments using tracking tools.

Fine-tuning

Adapter les LLM à des tâches et domaines spécifiques.

Gestion du contexte

Comment Claude Code gère la fenêtre de contexte sur de longues sessions — compression automatique, stratégies d'historique de conversation et techniques pratiques pour maintenir l'efficacité des sessions à grande échelle.

GPT

Transformer génératif pré-entraîné et modèles décodeur seul.

Hugging Face

Plateforme et bibliothèques pour modèles, jeux de données et pipelines.

IA multimodale

Modèles qui traitent et génèrent du contenu textuel, visuel, audio et vidéo.

Inférence locale

Exécuter des modèles IA sur l'appareil ou sur site plutôt que via des API cloud.

Infrastructure

Matériel et systèmes pour l'entraînement et le déploiement de l'IA : GPU, TPU, clusters.

Ingénierie automatique des prompts (APE)

Comment l'ingénierie automatique des prompts utilise les LLM pour générer, évaluer et sélectionner des instructions de prompts optimisées sans réglage manuel.

LangChain

Framework for LLM applications and agents.

LangGraph

Stateful agent graphs built on LangChain, where nodes are Python functions, edges define routing, and a shared TypedDict state enables cycles, conditional branching, persistence, and human-in-the-loop checkpoints.

LlamaIndex

Framework de données pour applications LLM et RAG.

Meta Llama

La famille de modèles Llama à poids ouverts de Meta — déploiement local, hébergement API tiers, fine-tuning et le débat entre modèles ouverts et fermés.

Mistral AI

La plateforme duale de Mistral AI entre poids ouverts et API commerciale — modèles efficaces, forces multilingues et La Plateforme pour un usage entreprise.

MLflow

Open-source platform for the complete ML lifecycle, covering experiment tracking, projects, models, and the registry.

Model Context Protocol (MCP)

Un standard ouvert pour connecter les modèles d'IA à des outils, des sources de données et des services externes — permettant une utilisation d'outils portable et interopérable dans n'importe quelle application IA.

Model registry

Centralized store for versioning, staging, and governing ML model artifacts across their full lifecycle.

Modes de réflexion et effort

La réflexion étendue dans Claude Code — ce que c'est, comment les niveaux d'effort affectent la profondeur de raisonnement par rapport à la vitesse, et comment configurer le comportement de réflexion pour différents types de tâches.

ONNX Runtime

Moteur d'inférence multiplateforme haute performance pour les modèles ONNX avec support des fournisseurs d'exécution CPU, GPU et NPU.

Prompting par recul

Comment le prompting par recul améliore le raisonnement des LLM en invitant d'abord à des questions de haut niveau avant de répondre à des questions spécifiques.

PyTorch Mobile

Déployer des modèles PyTorch sur des appareils mobiles et edge en utilisant TorchScript et le runtime de nouvelle génération ExecuTorch.

Service de modèles

Stratégies et frameworks pour déployer des modèles ML comme services d'inférence évolutifs — par lots, temps réel et streaming.

Skills Claude Code

Modèles de prompts réutilisables et invocables qui étendent les capacités de Claude Code — ce que sont les skills, comment les écrire, où les stocker et comment les invoquer avec /nom-du-skill.

Sorties structurées

Comment guider les LLM pour produire des sorties dans des formats structurés comme JSON, XML, Markdown et du code, en assurant la fiabilité pour les systèmes en aval.

Streaming (LLMs)

Sortie token par token pour une latence perçue plus faible et une meilleure UX.

Surveillance ML

Guide complet sur la surveillance des modèles de machine learning en production, couvrant la dérive conceptuelle, la dérive des données, la dégradation des modèles, les métriques, les stratégies d'alerte et les outils.

Techniques de désensibilisation

Comment identifier et atténuer les biais systématiques dans les sorties des LLM grâce à des stratégies de prompting, d'échantillonnage et d'ensemble.

TensorFlow Lite

Runtime léger pour l'inférence ML sur appareil sur Android, iOS, systèmes embarqués et microcontrôleurs.

Weights & Biases (W&B)

Cloud-native MLOps platform for experiment tracking, hyperparameter sweeps, artifact management, and collaborative reporting.