Agent memory
How AI agents store, retrieve, and reason over information across turns and sessions.
Requires basic AI/ML understanding
Ver todas as etiquetasHow AI agents store, retrieve, and reason over information across turns and sessions.
Best practices for writing system prompts that produce reliable, well-scoped AI agent behavior.
AI for perception, planning, and control in robotics.
Ensuring AI systems are robust, aligned, and safe.
Claude's native function/tool calling mechanism using JSON schema definitions, tool_use and tool_result message types, with support for multi-turn tool use, parallel calls, and streaming.
Como LLMs podem avaliar suas próprias saídas, expressar incerteza calibrada e usar crítica para melhorar a qualidade das respostas.
Como a autoconsistência melhora o raciocínio de LLMs gerando múltiplas cadeias de pensamento e selecionando a resposta mais consistente.
Microsoft's multi-agent conversation framework enabling LLM-powered agents to collaborate via structured message exchanges, with built-in code execution and human-in-the-loop support.
Representações de encoder bidirecional a partir de Transformers.
Predecessor codificador-decodificador do Gemini; pré-treinamento com remoção de ruído para resumo e geração.
LLMs de pesos abertos da DeepSeek AI com raciocínio e código robustos; MoE e escalabilidade eficiente.
Família de LLMs da Alibaba; suporte multilíngue, de programação e de contexto longo.
Step-by-step reasoning to improve LLM outputs.
Continuous integration and delivery adapted for machine learning — testing data, models, and code together.
Enterprise-focused AI platform specializing in embeddings, reranking, and RAG for search and information retrieval at scale.
Memory patterns for chat agents — buffer, summary, vector, and entity memory.
An overview of data pipelines in the ML context — batch vs streaming, ETL vs ELT, data quality, and schema validation.
Git for data and models — versioning datasets, pipelines, and experiments alongside source code.
Chinese AI lab offering open-weights models with state-of-the-art reasoning and coding capabilities at significantly lower cost than proprietary alternatives.
Como a Engenharia Automática de Prompts usa LLMs para gerar, avaliar e selecionar instruções de prompts otimizadas sem ajuste manual.
Elaboração de prompts para direcionar o comportamento de LLMs e melhorar as saídas.
Como o ensembling de prompts agrega múltiplas respostas de LLM para melhorar a precisão, reduzir a variância e produzir saídas mais confiáveis.
How to systematically log, compare, and reproduce ML experiments using tracking tools.
Adaptação de modelos pré-treinados para tarefas ou domínios específicos.
Como o Claude Code gerencia a janela de contexto em sessões longas — compressão automática, estratégias de histórico de conversas e técnicas práticas para manter as sessões eficazes em escala.
Transformer generativo pré-treinado e modelos somente-decoder.
Plataforma e bibliotecas para modelos, conjuntos de dados e pipelines.
Framework for LLM applications and agents.
Stateful agent graphs built on LangChain, where nodes are Python functions, edges define routing, and a shared TypedDict state enables cycles, conditional branching, persistence, and human-in-the-loop checkpoints.
Framework de dados para aplicações LLM e RAG.
Família de modelos Llama de pesos abertos da Meta — implantação local, hospedagem via API de terceiros, fine-tuning e o debate entre modelos abertos e fechados.
Plataforma dual de pesos abertos e API comercial da Mistral AI — modelos eficientes, pontos fortes multilíngues e La Plateforme para uso empresarial.
Open-source platform for the complete ML lifecycle, covering experiment tracking, projects, models, and the registry.
Um padrão aberto para conectar modelos de IA a ferramentas externas, fontes de dados e serviços — habilitando uso de ferramentas portável e interoperável em qualquer aplicação de IA.
Centralized store for versioning, staging, and governing ML model artifacts across their full lifecycle.
Extended thinking no Claude Code — o que é, como os níveis de esforço afetam a profundidade do raciocínio versus velocidade, e como configurar o comportamento de raciocínio para diferentes tipos de tarefas.
Guia abrangente para monitorar modelos de aprendizado de máquina em produção, cobrindo concept drift, data drift, degradação de modelos, métricas, estratégias de alertas e ferramentas.
Multiple agents collaborating or competing.
Motor de inferência de alto desempenho e multiplataforma para modelos ONNX com suporte a provedores de execução em CPU, GPU e NPU.
Architecture where one LLM creates a step-by-step plan and another executes each step independently.
Framework de deep learning com grafos de computação dinâmicos.
Implante modelos PyTorch em dispositivos móveis e de borda usando TorchScript e o runtime de próxima geração ExecuTorch.
Executar inferência de modelos de linguagem diretamente em dispositivos edge para privacidade, latência e uso offline.
Components and design choices in RAG systems.
Example RAG pipelines and code snippets.
Intercalação de raciocínio e ação em agentes.
How LLMs and agents structure reasoning and action.
CNNs para dados espaciais e de imagens.
RNNs e dados sequenciais.
Combining retrieval with LLM generation for accurate, grounded answers.
Spec-driven reasoning pattern combining retrieval and decision design.
Como guiar LLMs para produzir saídas em formatos estruturados como JSON, XML, Markdown e código, garantindo confiabilidade para sistemas downstream.
Estratégias e frameworks para implantar modelos de ML como serviços de inferência escaláveis — lote, tempo real e streaming.
Templates de prompt reutilizáveis e invocáveis que estendem as capacidades do Claude Code — o que são skills, como escrevê-las, onde armazená-las e como invocá-las com /nome-da-skill.
Como o step-back prompting melhora o raciocínio de LLMs solicitando primeiro perguntas de alto nível antes de responder às perguntas específicas.
Streaming de tokens em tempo real de LLMs.
Como identificar e mitigar vieses sistemáticos nas saídas de LLMs através de estratégias de prompting, amostragem e ensemble.
Framework de deep learning do Google.
Runtime leve para inferência de ML no dispositivo em Android, iOS, sistemas embarcados e microcontroladores.
Exploração de múltiplos ramos de raciocínio.
Storing and searching embeddings for RAG.
Cloud-native MLOps platform for experiment tracking, hyperparameter sweeps, artifact management, and collaborative reporting.