Saltar al contenido principal

32 documentos etiquetados con "Advanced"

Deep technical content for practitioners

Ver Todas las Etiquetas

Agent security

Threats, attack vectors, and defensive techniques for securing AI agent systems in production.

Ansible

Herramienta de gestión de configuración y automatización sin agentes que utiliza playbooks YAML declarativos para configurar servidores, instalar software y gestionar entornos de entrenamiento de ML a escala.

Apache Airflow

DAG-based workflow orchestration for ML and data pipelines — operators, sensors, hooks, XComs, and scheduler architecture.

Apache Kafka

Distributed event streaming with Apache Kafka — topics, partitions, producers, consumers, and real-time ML feature pipelines.

Apache Spark

Distributed data processing with Apache Spark — RDDs, DataFrames, Spark SQL, MLlib, and driver/executor architecture.

Autoevaluación y calibración

Técnicas que hacen un prompt a un LLM para evaluar la calidad y confianza de sus propios resultados — permitiendo la autocorrección iterativa, la cuantificación de incertidumbre y respuestas más confiables sin supervisión externa.

Caché de prompts

Cómo Claude Code usa el caché de prompts para reducir la latencia y los costos de tokens reutilizando prompts de sistema, definiciones de herramientas y prefijos de conversación previamente procesados en llamadas a la API.

Construcción de clientes MCP

Cómo construir clientes MCP que conectan aplicaciones de IA a servidores MCP — cubriendo inicialización del cliente, descubrimiento de capacidades, invocación de herramientas, lectura de recursos y selección de transporte.

Construcción de servidores MCP

Cómo construir servidores MCP que exponen herramientas, recursos y prompts a cualquier aplicación de IA compatible con MCP — cubriendo configuración del servidor, registro de capacidades, configuración de transporte y el ciclo de vida completo del servidor.

Cuantización

Uso de menor precisión (p. ej. int8) para pesos y activaciones.

DAG-based agents

Directed acyclic graph workflows for agents — parallel execution, task dependencies, and dynamic graph construction.

Feature stores

Repositorios centralizados para calcular, almacenar y servir características de ML de forma coherente entre el entrenamiento y la producción.

Grafana

Plataforma de análisis y visualización de código abierto para construir dashboards interactivos sobre datos de series temporales y logs, esencial para el monitoreo de infraestructura de ML y rendimiento de modelos.

Ingeniería automática de prompts (APE)

La ingeniería automática de prompts (APE) utiliza LLM para generar, puntuar y refinar iterativamente instrucciones de prompts, reemplazando el ensayo y error manual con un bucle de optimización basado en datos que descubre prompts de alto rendimiento a escala.

KubeFlow

Kit de herramientas ML de código abierto para Kubernetes — pipelines, ajuste de hiperparámetros y servicio de modelos a escala.

ML en Kubernetes

Ejecución de cargas de trabajo de machine learning en Kubernetes — contenerización de modelos, programación de GPU y estrategias de escalado.

Plugins e integraciones MCP

Model Context Protocol (MCP) en Claude Code — qué son los servidores MCP, cómo amplían las capacidades de Claude, cómo instalarlos y configurarlos, y cómo construir servidores MCP personalizados.

Poda (Pruning)

Eliminación de pesos o estructuras para reducir los modelos.

Prometheus

Toolkit de monitoreo y alertas de código abierto construido alrededor de una base de datos de series temporales y un modelo de scraping basado en pull, ampliamente utilizado para infraestructura de ML y métricas de modelos.

Self-critique and reflection

Agents that evaluate their own output and iteratively improve through reflection, critic agents, and the Reflexion framework.

Técnicas de eliminación de sesgos

Las técnicas de eliminación de sesgos son estrategias a nivel de prompt y de evaluación para identificar y reducir el sesgo sistemático en los resultados de los LLM — cubriendo sesgos sociales, servilismo, efectos posicionales y distorsiones de evaluación — para producir respuestas más justas y fiables.

Terraform

Herramienta declarativa de Infraestructura como Código de HashiCorp para aprovisionar y gestionar recursos en la nube, ampliamente utilizada para crear infraestructura de ML reproducible incluyendo instancias GPU, buckets de almacenamiento y clústeres de Kubernetes.