Agent memory
How AI agents store, retrieve, and reason over information across turns and sessions.
Requires basic AI/ML understanding
Ver Todas las EtiquetasHow AI agents store, retrieve, and reason over information across turns and sessions.
Best practices for writing system prompts that produce reliable, well-scoped AI agent behavior.
Agentes que operan con mínima intervención humana persiguiendo objetivos a largo plazo.
AI for perception, planning, and control in robotics.
Ensuring AI systems are robust, aligned, and safe.
Claude's native function/tool calling mechanism using JSON schema definitions, tool_use and tool_result message types, with support for multi-turn tool use, parallel calls, and streaming.
Aprendizaje a partir de muy pocos ejemplos.
Aprendizaje a partir de recompensas y toma de decisiones secuenciales.
Reutilización de modelos preentrenados para nuevas tareas.
Realización de tareas sin ejemplos de entrenamiento específicos de la tarea.
Una técnica de prompting que genera múltiples caminos de razonamiento de cadena de pensamiento independientes y selecciona la respuesta final por voto mayoritario, mejorando significativamente la fiabilidad sobre la cadena de pensamiento de un solo paso.
Microsoft's multi-agent conversation framework enabling LLM-powered agents to collaborate via structured message exchanges, with built-in code execution and human-in-the-loop support.
Benchmarks estándar para IA: GLUE, SuperGLUE, MMLU y más.
Representaciones de Encoder Bidireccional de Transformers.
Búsqueda por significado usando embeddings y similitud.
Predecesor codificador-decodificador de Gemini; preentrenamiento con eliminación de ruido para resumen y generación.
LLMs de pesos abiertos de DeepSeek AI con razonamiento y código sólidos; MoE y escalado eficiente.
Familia de LLMs de Alibaba; soporte multilingüe, de programación y de contexto largo.
Step-by-step reasoning to improve LLM outputs.
Continuous integration and delivery adapted for machine learning — testing data, models, and code together.
Enterprise-focused AI platform specializing in embeddings, reranking, and RAG for search and information retrieval at scale.
Una técnica que ejecuta múltiples variaciones de prompts estructuralmente diferentes contra el mismo LLM y agrega sus resultados, intercambiando costo de inferencia por mayor precisión y menor varianza de la que puede lograr cualquier prompt individual.
Memory patterns for chat agents — buffer, summary, vector, and entity memory.
Role-based multi-agent framework where agents have explicit roles, goals, and backstories, collaborating through structured tasks and crew processes.
An overview of data pipelines in the ML context — batch vs streaming, ETL vs ELT, data quality, and schema validation.
Git for data and models — versioning datasets, pipelines, and experiments alongside source code.
Chinese AI lab offering open-weights models with state-of-the-art reasoning and coding capabilities at significantly lower cost than proprietary alternatives.
Construcción de sistemas de IA a partir de especificaciones explícitas.
How to systematically log, compare, and reproduce ML experiments using tracking tools.
Adaptar LLMs a tareas y dominios específicos.
Cómo Claude Code gestiona la ventana de contexto en sesiones largas — compresión automática, estrategias de historial de conversación y técnicas prácticas para mantener las sesiones efectivas a escala.
Transformer Generativo Preentrenado y modelos solo-decoder.
Platform and libraries for models, datasets, and pipelines.
Hacer que las decisiones de la IA sean interpretables y explicables.
Modelos que procesan y generan a través de modalidades de texto, imagen, audio y video.
Ejecución de modelos de IA en el dispositivo o en local en lugar de APIs en la nube.
Hardware y sistemas para entrenar y servir IA: GPUs, TPUs, clústeres.
Diseño de prompts para dirigir el comportamiento de los LLM y mejorar los resultados.
Framework for LLM applications and agents.
Stateful agent graphs built on LangChain, where nodes are Python functions, edges define routing, and a shared TypedDict state enables cycles, conditional branching, persistence, and human-in-the-loop checkpoints.
Data framework for LLM applications and RAG.
La familia de modelos Llama de pesos abiertos de Meta — despliegue local, alojamiento de API por terceros, ajuste fino y el debate entre modelos abiertos y cerrados.
La plataforma dual de pesos abiertos y API comercial de Mistral AI — modelos eficientes, fortalezas multilingües y La Plateforme para uso empresarial.
Open-source platform for the complete ML lifecycle, covering experiment tracking, projects, models, and the registry.
Un estándar abierto para conectar modelos de IA a herramientas externas, fuentes de datos y servicios — habilitando el uso de herramientas portátil e interoperable en cualquier aplicación de IA.
Centralized store for versioning, staging, and governing ML model artifacts across their full lifecycle.
Pensamiento extendido en Claude Code — qué es, cómo los niveles de esfuerzo afectan la profundidad del razonamiento frente a la velocidad, y cómo configurar el comportamiento de pensamiento para diferentes tipos de tareas.
Guía completa sobre el monitoreo de modelos de machine learning en producción, que cubre el concept drift, el data drift, la degradación del modelo, métricas, estrategias de alertas y herramientas.
Multiple agents collaborating or competing.
Motor de inferencia multiplataforma de alto rendimiento para modelos ONNX con soporte para proveedores de ejecución en CPU, GPU y NPU.
Architecture where one LLM creates a step-by-step plan and another executes each step independently.
Una técnica de prompting en dos pasos que primero le pregunta al modelo una pregunta abstracta de nivel superior, luego usa esa abstracción como contexto para responder la pregunta específica original — mejorando la precisión del razonamiento en tareas complejas.
Despliega modelos PyTorch en dispositivos móviles y de borde usando TorchScript y el runtime de nueva generación ExecuTorch.
Components and design choices in RAG systems.
Example RAG pipelines and code snippets.
Intercalado de razonamiento y acción en agentes.
How LLMs and agents structure reasoning and action.
Conversión de voz a texto y tareas de audio relacionadas.
CNNs para datos espaciales e imágenes.
RNNs y datos secuenciales.
Combining retrieval with LLM generation for accurate, grounded answers.
Spec-driven reasoning pattern combining retrieval and decision design.
Técnicas para que los LLM produzcan datos estructurados legibles por máquina — modo JSON, esquemas de llamada a funciones y extracción basada en Pydantic — permitiendo una integración fiable en APIs y pipelines automatizados.
Estrategias y frameworks para desplegar modelos de ML como servicios de inferencia escalables — por lotes, tiempo real y streaming.
Fuentes y mitigación del sesgo en sistemas de ML.
Plantillas de prompts reutilizables e invocables que extienden las capacidades de Claude Code — qué son las skills, cómo escribirlas, dónde almacenarlas y cómo invocarlas con /nombre-skill.
Salida token a token para menor latencia percibida y mejor UX.
Agentes jerárquicos: padres que delegan a hijos.
Runtime ligero para inferencia ML en dispositivo en Android, iOS, sistemas embebidos y microcontroladores.
Exploración de múltiples ramas de razonamiento.
Storing and searching embeddings for RAG.
Clasificación de imágenes, detección de objetos y segmentación.
Cloud-native MLOps platform for experiment tracking, hyperparameter sweeps, artifact management, and collaborative reporting.