From a4e87f8bdf3647504b251c605e3b2c6953cff14b Mon Sep 17 00:00:00 2001 From: "webops-guacbot[bot]" <214537265+webops-guacbot[bot]@users.noreply.github.com> Date: Fri, 21 Nov 2025 15:03:04 +0000 Subject: [PATCH] Translated file updates --- content/es/account_management/scim/_index.md | 4 - content/es/agent/logs/agent_tags.md | 51 ++++ content/es/integrations/amazon-codedeploy.md | 86 ++++++ .../es/integrations/amazon-codewhisperer.md | 55 ++++ content/es/integrations/amazon-config.md | 158 ++++++++++ content/es/integrations/amazon-connect.md | 114 ++++++++ content/es/integrations/amazon-ec2.md | 268 +++++++++++++++++ content/es/integrations/amazon-ecs.md | 198 +++++++++++++ content/es/integrations/amazon-elb.md | 213 ++++++++++++++ .../managed_evaluations/agent_evaluations.md | 270 ++++++++++++++++++ .../monitoring/agent_monitoring.md | 38 +++ .../es/logs/log_collection/agent_checks.md | 224 +++++++++++++++ .../guide/agent_variables.md | 50 ++-- .../crest_data_systems_datarobot.md | 169 +++++++++++ ...ems_integration_backup_and_restore_tool.md | 123 ++++++++ .../harness_harness_notifications.md | 114 ++++++++ content/ja/integrations/iocs_dp2i.md | 144 ++++++++++ content/ja/software_catalog/customize.md | 156 ++++++++++ .../use_cases/pipeline_visibility.md | 65 +++++ 19 files changed, 2475 insertions(+), 25 deletions(-) create mode 100644 content/es/agent/logs/agent_tags.md create mode 100644 content/es/integrations/amazon-codedeploy.md create mode 100644 content/es/integrations/amazon-codewhisperer.md create mode 100644 content/es/integrations/amazon-config.md create mode 100644 content/es/integrations/amazon-connect.md create mode 100644 content/es/integrations/amazon-ec2.md create mode 100644 content/es/integrations/amazon-ecs.md create mode 100644 content/es/integrations/amazon-elb.md create mode 100644 content/es/llm_observability/evaluations/managed_evaluations/agent_evaluations.md create mode 100644 content/es/llm_observability/monitoring/agent_monitoring.md create mode 100644 content/es/logs/log_collection/agent_checks.md create mode 100644 content/ja/integrations/crest_data_systems_datarobot.md create mode 100644 content/ja/integrations/crest_data_systems_integration_backup_and_restore_tool.md create mode 100644 content/ja/integrations/harness_harness_notifications.md create mode 100644 content/ja/integrations/iocs_dp2i.md create mode 100644 content/ja/software_catalog/customize.md create mode 100644 content/ja/software_catalog/use_cases/pipeline_visibility.md diff --git a/content/es/account_management/scim/_index.md b/content/es/account_management/scim/_index.md index b09c8adf81c..ab13dd7bd31 100644 --- a/content/es/account_management/scim/_index.md +++ b/content/es/account_management/scim/_index.md @@ -56,10 +56,6 @@ Si utilizas una clave de aplicación vinculada a un usuario para habilitar el SC Para evitar perder el acceso a tus datos, Datadog te recomienda encarecidamente que crees una [cuenta de servicio][6] exclusiva del SCIM. Dentro de esa cuenta de servicio, crea una clave de aplicación para utilizarla en la integración del SCIM. -## Verificación del correo electrónico - -Al crear un nuevo usuario con SCIM, se le envía un correo electrónico. Para acceder por primera vez, se requiere loguear a través del enlace de invitación compartido por correo electrónico. El enlace está activo durante 2 días. Si caduca, ve a la [página de configuración de usuarios][7] y selecciona un usuario para volver a enviarle un enlace de invitación. - ## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/agent/logs/agent_tags.md b/content/es/agent/logs/agent_tags.md new file mode 100644 index 00000000000..8444ec60c3d --- /dev/null +++ b/content/es/agent/logs/agent_tags.md @@ -0,0 +1,51 @@ +--- +further_reading: +- link: /getting_started/tagging/ + tag: Documentación + text: Buenas prácticas de etiquetado +- link: /agent/configuration/agent-configuration-files/ + tag: Documentación + text: Archivos de configuración del Agent +- link: /agent/docker/tag/ + tag: Documentación + text: Etiquetado de contenedores +title: Etiquetas de logs del Agent +--- + +## Información general + +Datadog Agent añade automáticamente ciertas etiquetas a todos los logs que recopila antes de enviarlos a Datadog. Estas etiquetas se añaden **antes de la ingesta**, y se incluyen en la carga útil que se entrega a Datadog. + +## Procesamiento previo a la ingesta + +Como estas etiquetas se añaden antes de la ingesta, sucede lo siguiente: + +* Se incluyen en todos los datos de log entregados a Datadog +* Aumenta el tamaño total de tus datos de log +* Están disponibles para filtrarse, buscarse y agregarse en el Log Explorer +* Pueden utilizarse en métricas y consultas basadas en log + +## Etiquetas de Agent añadidas automáticamente a logs + +Las siguientes etiquetas son añadidas automáticamente a logs por el Datadog Agent: + +| Etiqueta (tag) | Descripción | Condiciones | +|-----|-------------|-------------| +| `source` | La fuente del log (ruta del archivo, nombre de la integración, etc.) | Siempre que esté disponible | +| `service` | El nombre del servicio si está configurado en la recopilación de logs | Siempre que esté disponible | +| `env` | La etiqueta de entorno si está configurada globalmente | Siempre que esté disponible | +| `version` | La versión del Agent | Siempre que esté disponible | +| `filename` | Nombre base del archivo en cola | Solo fuentes basadas en archivos | +| `dirname` | Directorio que contiene el archivo en cola | Solo fuentes basadas en archivos | +| `source_host` | Dirección IP del host de fuente del socket | Solo fuentes de socket (TCP/UDP) | +| `event_type` | Tipo del evento de Windows | Solo eventos de Windows | +| `event_source` | Fuente del evento de Windows | Solo eventos de Windows | +| `event_id` | ID del evento de Windows | Solo eventos de Windows, si `tag_event_id: true` | +| `sid` | Identificador de seguridad de Windows | Solo eventos de Windows, si `tag_sid: true` | +| `truncated` | Fuente de truncamiento | Si `logs_config.tag_truncated_logs: true` | +| `multiline` | Fuente de agregación multilínea | Si `logs_config.tag_multi_line_logs: true` | +| `aggregated_json` | Indica que el log se ha agregado a partir de varias entradas de log JSON | Si `logs_config.auto_multi_line.tag_aggregated_json: true` | + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/integrations/amazon-codedeploy.md b/content/es/integrations/amazon-codedeploy.md new file mode 100644 index 00000000000..3ee99c5ce2f --- /dev/null +++ b/content/es/integrations/amazon-codedeploy.md @@ -0,0 +1,86 @@ +--- +aliases: +- /es/integrations/amazon_codedeploy +app_id: amazon-codedeploy +categories: +- automatización +- aws +- nube +- configuración y despliegue +- recopilación de logs +- aprovisionamiento +custom_kind: integración +description: AWS CodeDeploy es un servicio que automatiza el despliegue de código + en instancias en la nube y on-premise. +media: [] +title: AWS CodeDeploy +--- +![CodeDeploy default dashboard](images/monitor-aws-codedeploy-dashboard.png) + +## Información general + +AWS CodeDeploy es un servicio que automatiza el despliegue de código en instancias en la nube y on-premise. + +Habilita esta integración para ver eventos de despliegue y métricas de AWS CodeDeploy en Datadog. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración Amazon Web Services](https://docs.datadoghq.com/integrations/amazon_web_services/). + +### Recopilación de métricas + +1. Añade los siguientes permisos a tu [política IAM de Datadog](https://docs.datadoghq.com/integrations/amazon_web_services/#installation) para poder recopilar métricas de AWS CodeDeploy. Para obtener más información, consulta las [políticas de CodeDeploy](https://docs.aws.amazon.com/codedeploy/latest/userguide/security-iam.html) en el sitio web de AWS. + + | Permiso AWS | Descripción | + | ------------------------------------- | ----------------------------------------------------------------------------- | + | `codedeploy:ListApplications` | Se utiliza para enumerar todas las aplicaciones CodeDeploy | + | `codedeploy:ListDeploymentGroups` | Se utiliza para enumerar todos los grupos de despliegues dentro de una aplicación (editado) | + | `codedeploy:ListDeployments` | Se utiliza para enumerar despliegues en un grupo de despliegues dentro de una aplicación (editado) | + | `codedeploy:BatchGetDeployments` | Obtiene descripciones detalladas de los despliegues (editado) | + | `codedeploy:BatchGetDeploymentGroups` | Obtiene descripciones detalladas de los grupos de despliegues | + +1. Instala la integración [Datadog - AWS CodeDeploy](https://app.datadoghq.com/integrations/amazon_codedeploy). + +### Recopilación de logs + +#### Activar logging + +Configura AWS CodeDeploy para enviar logs a un bucket de S3 o a CloudWatch. + +**Nota**: Si vas a loguear en un bucket de S3, asegúrate de que `amazon_codedeploy` está configurado como _Target prefix_ (Prefijo de destino). + +#### Enviar logs a Datadog + +1. Si aún no lo has hecho, configura la [función Lambda del Datadog Forwarder](https://docs.datadoghq.com/logs/guide/forwarder/). + +1. Una vez instalada la función de Lambda, añade manualmente un activador en el bucket de S3 o grupo de logs de CloudWatch que contenga tus logs de AWS CodeDeploy en la consola de AWS: + + - [Añadir un activador manual en el bucket S3](https://docs.datadoghq.com/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-s3-buckets) + - [Añadir un activador manual en el CloudWatch Log Group](https://docs.datadoghq.com/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-cloudwatch-log-group) + +## Datos recopilados + +### Métricas + +| | | +| --- | --- | +| **aws.codedeploy.deployment**
(count) | Recuento de despliegues.
_Se muestra como evento_ | +| **aws.codedeploy.deployment.run_time**
(gauge) | Tiempo de ejecución en segundos desde la creación del despliegue hasta su finalización.
_Se muestra como segundos_ | + +A cada una de las métricas recuperadas de AWS se le asignan las mismas etiquetas (tags) que aparecen en la consola de AWS, incluidos, entre otros, el nombre del host y los grupos de seguridad. + +### Eventos + +La integración de AWS CodeDeploy incluye eventos para despliegues exitosos, fallidos y detenidos. Consulta los eventos de ejemplo a continuación: + +![AWS CodeDeploy Event](images/aws_codedeploy_events.png) + +### Checks de servicio + +La integración de AWS CodeDeploy no incluye ningún check de servicio. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/amazon-codewhisperer.md b/content/es/integrations/amazon-codewhisperer.md new file mode 100644 index 00000000000..868e3a15211 --- /dev/null +++ b/content/es/integrations/amazon-codewhisperer.md @@ -0,0 +1,55 @@ +--- +aliases: +- /es/integrations/amazon_codewhisperer +app_id: amazon-codewhisperer +categories: +- aws +- métricas +- nube +- ia/ml +- herramientas de desarrollo +custom_kind: integración +description: Amazon CodeWhisperer es un servicio de recomendación de código basado + en ML. +media: [] +title: Amazon CodeWhisperer +--- +## Información general + +Amazon CodeWhisperer es un servicio con tecnología de machine learning que ayuda a mejorar la productividad de los desarrolladores generando recomendaciones de código basadas en sus comentarios en lenguaje natural y el código en el entorno de desarrollo integrado (IDE). + +Activa esta integración para ver todas tus métricas de CodeWhisperer en Datadog. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración Amazon Web Services](https://docs.datadoghq.com/integrations/amazon_web_services/). + +### Recopilación de métricas + +1. En la [página de la integración de AWS](https://app.datadoghq.com/integrations/amazon-web-services), asegúrate de que `CodeWhisperer` está habilitado en la pestaña `Metric Collection`. +1. Instala la integración [Datadog - Amazon CodeWhisperer](https://app.datadoghq.com/integrations/amazon-codewhisperer). + +## Datos recopilados + +### Métricas + +| | | +| --- | --- | +| **aws.codewhisperer.daily_active_user_trend**
(count) | Número de usuarios activos en un periodo de 1 día.
_Se muestra como usuario_ | +| **aws.codewhisperer.invocations**
(count) | Número de invocaciones.
_Se muestra como invocación_ | +| **aws.codewhisperer.monthly_active_unique_users**
(count) | Número de usuarios únicos que están activos en un mes determinado.
_Se muestra como usuario_ | +| **aws.codewhisperer.subscription_count**
(count) | Número de usuarios con suscripciones de pago.
_Se muestra como usuario_ | + +### Eventos + +La integración de Amazon CodeWhisperer no incluye ningún evento. + +### Checks de servicio + +La integración de Amazon CodeWhisperer no incluye ningún check de servicio. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/amazon-config.md b/content/es/integrations/amazon-config.md new file mode 100644 index 00000000000..acedf6c02f4 --- /dev/null +++ b/content/es/integrations/amazon-config.md @@ -0,0 +1,158 @@ +--- +aliases: +- /es/integrations/amazon_config +app_id: amazon-config +categories: +- aws +- métricas +- nube +custom_kind: integración +description: AWS Config te permite auditar y evaluar la configuración de tus recursos + de AWS. +integration_version: 1.0.0 +media: [] +title: AWS Config +--- +## Información general + +[AWS Config](https://docs.aws.amazon.com/config/latest/developerguide/WhatIsConfig.html) proporciona una vista detallada de la configuración de recursos AWS en tu cuenta de AWS. +Esto incluye cómo se relacionan los recursos entre sí y cómo fueron configurados en el pasado, +para que puedas ver cómo cambian las configuraciones y las relaciones a lo largo del tiempo. + +Habilita esta integración para ver todas las métricas de AWS Config en Datadog. Usa [eventos](#events) para monitorizar los cambios en tus configuraciones detectados por AWS Config. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración Amazon Web Services](https://docs.datadoghq.com/integrations/amazon_web_services/). + +### Recopilación de cambios de recursos + +{{< callout url="https://www.datadoghq.com/product-preview/recent-changes-tab/" header="Únete a la vista previa" >}} +La recopilación de cambios de recursos está en vista previa, pero puedes solicitar acceso de forma sencilla. Utiliza este formulario para enviar tu solicitud hoy mismo. +{{< /callout >}} + +Puedes recibir eventos en Datadog cuando AWS Config detecta cambios en tus snapshots y tu historial de configuración. Crea y configura los recursos necesarios con el siguiente stack tecnológico de [CloudFormation](https://docs.aws.amazon.com/cloudformation/) o configura manualmente un [Amazon Data Firehose](https://aws.amazon.com/firehose/) para reenviar tus eventos de AWS Config. + +{{< tabs >}} + +{{% tab "Terraform" %}} + +Puedes utilizar el [módulo config-changes-datadog de Terraform](https://registry.terraform.io/modules/DataDog/config-changes-datadog/aws/latest) para empezar a compartir tus datos de configuración de AWS con Datadog. Consulta el [repositorio terraform-aws-config-changes-datadog](https://github.com/DataDog/terraform-aws-config-changes-datadog?tab=readme-ov-file#aws-config-change-streaming-module) para ver un ejemplo para empezar, así como descripciones detalladas de cada parámetro que puedes especificar. + +{{% /tab %}} + +{{% tab "CloudFormation" %}} + +[![Launch Stack](https://s3.amazonaws.com/cloudformation-examples/cloudformation-launch-stack.png)](https://console.aws.amazon.com/cloudformation/home#/stacks/create/review?stackName=datadog-aws-config-stream&templateURL=https://datadog-cloudformation-template.s3.amazonaws.com/aws/main_config_stream.yaml) + +**Nota**: Si tu cuenta de Datadog **no** se encuentra en el [sitio Datadog](https://docs.datadoghq.com/getting_started/site/) US1, selecciona el valor `DatadogSite` que corresponda a tu sitio Datadog: + +| Sitio web de Datadog | Valor **DatadogSite** | +| ------------- | --------------------- | +| UE | datadoghq.eu | +| US3 | us3.datadoghq.com | +| US5 | us5.datadoghq.com | +| AP1 | ap1.datadoghq.com | + +{{% /tab %}} + +{{% tab "Manual" %}} + +Sigue estos pasos para configurar de manera manual el reenvío de eventos de AWS Config a través de Amazon Data Firehose. + +#### Requisitos previos + +1. Una cuenta de AWS integrada con Datadog. + - El rol de IAM de la integración de Datadog debe tener el permiso `s3:GetObject` contra el bucket que contiene los datos de Config. +1. Se configura un [tema SNS](https://docs.aws.amazon.com/sns/latest/dg/sns-create-topic.html) para recibir los eventos de AWS Config. +1. Se configura un [bucket S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/create-bucket-overview.html) para recibir eventos de más de 256 kB como copia de seguridad. +1. Se configura una [clave de acceso](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_credentials_access-keys.html). Asegúrate de que dispones de tu clave de API Datadog. + +#### Crear un flujo (stream) de Amazon Data Firehose + +1. En la consola AWS, haz clic en **Create Firehose stream** (Crear flujo de Firehose). + - En **Source** (Fuente), selecciona `Direct PUT`. + - En **Destination** (Destino), selecciona `Datadog`. +1. En la sección **Destination Settings** (Configuración del destino), elige la **URL del endpoint HTTP** que corresponda a tu [sitio Datadog](https://docs.datadoghq.com/getting_started/site/): + +| Sitio web de Datadog | URL de destino | +| -------------- | ------------------------------------------------------------------------------------------------------ | +| US1 | `https://cloudplatform-intake.datadoghq.com/api/v2/cloudchanges?dd-protocol=aws-kinesis-firehose` | +| US3 | `https://cloudplatform-intake.us3.datadoghq.com/api/v2/cloudchanges?dd-protocol=aws-kinesis-firehose` | +| US5 | `https://cloudplatform-intake.us5.datadoghq.com/api/v2/cloudchanges?dd-protocol=aws-kinesis-firehose` | +| UE | `https://cloudplatform-intake.datadoghq.eu/api/v2/cloudchanges?dd-protocol=aws-kinesis-firehose` | +| AP1 | `https://cloudplatform-intake.ap1.datadoghq.com/api/v2/cloudchanges?dd-protocol=aws-kinesis-firehose` | + +3. En **Authentication** (Autenticación), ingresa el valor de tu [clave de API Datadog](https://app.datadoghq.com/organization-settings/api-keys) o selecciona un secreto de AWS Secrets Manager que contenga el valor. +1. En **Content encoding** (Codificación del contenido), ingresa `GZIP`. +1. En **Retry duration** (Duración del reintento), ingresa `300`. +1. Haz clic en **Add parameter** (Añadir parámetro). + - En **Key** (Clave), ingresa `dd-s3-bucket-auth-account-id`. + - En **Value** (Valor), ingresa tu ID de cuenta de 12 dígitos de AWS. +1. En **Buffer hints** (Sugerencias de búfer), establece el **Buffer size** (Tamaño del búfer) en `4 MiB`. +1. En **Backup settings** (Configuración de copia de seguridad), selecciona un bucket de copia de seguridad de S3. +1. Haz clic en **Create Firehose stream** (Crear flujo de Firehose). + +#### Configurar métodos de entrega para AWS Config + +1. En la página de [AWS Config](https://console.aws.amazon.com/config/home), abre el panel lateral izquierdo y haz clic en **Settings** (Configuración). +1. Haz clic en **Edit** (Editar). +1. En la sección **Delivery Method** (Método de entrega), selecciona o crea el bucket de S3 para recibir eventos de más de 256 kB como copia de seguridad. +1. Haz clic en la casilla de verificación bajo **Amazon SNS topic** (Tema de Amazon SNS), y selecciona o crea el tema de SNS para recibir eventos de AWS Config. +1. Haz clic en **Save** (Guardar). + +#### Suscribir el flujo de Amazon Data Firehose a un tema de SNS + +1. Sigue los pasos indicados en la [Guía para desarrolladores de SNS](https://docs.aws.amazon.com/sns/latest/dg/firehose-endpoints-subscribe.html). Asegúrate de que el **rol de suscripción** tiene los siguientes permisos: + - `firehose:DescribeDeliveryStream` + - `firehose:ListDeliveryStreams` + - `firehose:ListTagsForDeliveryStream` + - `firehose:PutRecord` + - `firehose:PutRecordBatch` +1. Confirma que los datos fluyan a Datadog en la pestaña **Monitoring** (Monitorización) de Firehose. + +{{% /tab %}} + +{{< /tabs >}} + +### Recopilación de métricas + +1. En la [página de la integración de AWS](https://app.datadoghq.com/integrations/amazon-web-services), asegúrate de que `Config` está habilitado en la pestaña `Metric Collection`. +1. Instala la [integración Datadog - AWS Config](https://app.datadoghq.com/integrations/amazon-config). + +## Datos recopilados + +### Métricas + +| | | +| --- | --- | +| **aws.config.configuration_recorder_insufficient_permissions_failure**
(count) | Número de intentos fallidos de acceso a permisos debido a que la política de roles IAM para el grabador de configuraciones no tiene permisos suficientes.| +| **aws.config.configuration_items_recorded**
(count) | Número de elementos de configuración grabados para cada tipo de recurso o todos los tipos de recursos
_Se muestra como elemento_ | +| **aws.config.config_history_export_failed**
(count) | Número de exportaciones fallidas del historial de configuración a tu bucket de Amazon S3.| +| **aws.config.config_snapshot_export_failed**
(count) | Número de exportaciones fallidas de snapshots de configuración a tu bucket de Amazon S3.| +| **aws.config.change_notifications_delivery_failed**
(count) | Número de entregas fallidas de notificaciones de cambio al tema de Amazon SNS para tu canal de entrega.| +| **aws.config.compliance_score**
(gauge) | Porcentaje de combinaciones regla-recurso conformes en un paquete de conformidad en comparación con el total de combinaciones regla-recurso posibles
_Se muestra como porcentaje_ | + + + +#### Validación + +Inspecciona los cambios de configuración en la pestaña **Recent Changes** (Cambios recientes) disponible en el panel lateral del recurso en el [Catálogo de recursos](https://docs.datadoghq.com/infrastructure/resource_catalog/). También puedes ir a la [página Gestión de eventos](https://app.datadoghq.com/event/overview) y consultar `source:amazon_config` para validar que los datos fluyen a tu cuenta de Datadog. + +### Checks de servicio + +La integración de AWS Config no incluye checks de servicio. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). + +## Referencias adicionales + +Documentación útil adicional, enlaces y artículos: + +- [Soluciona más rápidamente los problemas relacionados con los cambios en la infraestructura gracias a los cambios recientes del Catálogo de recursos](https://www.datadoghq.com/blog/recent-changes-tab/) \ No newline at end of file diff --git a/content/es/integrations/amazon-connect.md b/content/es/integrations/amazon-connect.md new file mode 100644 index 00000000000..d932b8f2f58 --- /dev/null +++ b/content/es/integrations/amazon-connect.md @@ -0,0 +1,114 @@ +--- +aliases: +- /es/integrations/amazon_connect +app_id: amazon-connect +categories: +- nube +- aws +- recopilación de logs +custom_kind: integración +description: Amazon Connect ofrece una configuración de autoservicio y permite un + compromiso dinámico, personal y natural del cliente. +media: [] +title: Amazon Connect +--- +## Información general + +Amazon Connect ofrece una configuración autogestionada y permite una interacción dinámica, personal y natural con el cliente. + +Activa esta integración para ver todas tus métricas de Connect en Datadog. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración Amazon Web Services](https://docs.datadoghq.com/integrations/amazon_web_services/). + +### Recopilación de métricas + +1. En la [página de la integración de AWS](https://app.datadoghq.com/integrations/amazon-web-services), asegúrate de que `Connect` está habilitado en la pestaña `Metric Collection`. +1. Instala la integración [Datadog - Amazon Connect](https://app.datadoghq.com/integrations/amazon-connect). + +### Recopilación de logs + +#### Activar logging + +Configura Amazon Connect para enviar logs a un bucket de S3 o a CloudWatch. + +**Nota**: Si vas a loguear en un bucket de S3, asegúrate de que `amazon_connect` está configurado como _Target prefix_ (Prefijo de destino). + +#### Enviar logs a Datadog + +1. Si aún no lo has hecho, configura la [función Lambda del Datadog Forwarder](https://docs.datadoghq.com/logs/guide/forwarder/). + +1. Una vez instalada la función de Lambda, añade manualmente un activador en el bucket de S3 o en el grupo de logs de CloudWatch que contiene tus logs de Amazon Connect en la consola de AWS: + + - [Añadir un activador manual en el bucket S3](https://docs.datadoghq.com/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-s3-buckets) + - [Añadir un activador manual en el CloudWatch Log Group](https://docs.datadoghq.com/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-cloudwatch-log-group) + +## Datos recopilados + +### Métricas + +| | | +| --- | --- | +| **aws.connect.call_back_not_dialable_number**
(count) | Número medio de veces que no se ha podido realizar una devolución de llamada en cola a un cliente debido a que el número del cliente se encuentra en un país para el que no están permitidas las llamadas salientes para la instancia.| +| **aws.connect.call_back_not_dialable_number.maximum**
(count) | Número máximo de veces que no se ha podido realizar una devolución de llamada en cola a un cliente debido a que el número del cliente se encuentra en un país para el que no están permitidas las llamadas salientes para la instancia.| +| **aws.connect.call_back_not_dialable_number.minimum**
(count) | Número mínimo de veces que no se ha podido realizar una devolución de llamada en cola a un cliente debido a que el número del cliente se encuentra en un país para el que no están permitidas las llamadas salientes para la instancia.| +| **aws.connect.call_recording_upload_error**
(count) | Número medio de grabaciones de llamadas que no se han podido cargar en el bucket de Amazon S3 configurado para tu instancia.| +| **aws.connect.call_recording_upload_error.maximum**
(count) | Número máximo de grabaciones de llamadas que no se han podido cargar en el bucket de Amazon S3 configurado para tu instancia.| +| **aws.connect.call_recording_upload_error.minimum**
(count) | Número mínimo de grabaciones de llamadas que no se han podido cargar en el bucket de Amazon S3 configurado para tu instancia.| +| **aws.connect.calls_breaching_concurrency_quota**
(count) | Número medio de llamadas de voz que han superado el límite de llamadas activas simultáneas para la instancia.| +| **aws.connect.calls_breaching_concurrency_quota.maximum**
(count) | Número máximo de llamadas de voz que han superado el límite de llamadas activas simultáneas para la instancia.| +| **aws.connect.calls_breaching_concurrency_quota.minimum**
(count) | Número mínimo de llamadas de voz que han superado el límite de llamadas activas simultáneas para la instancia.| +| **aws.connect.calls_per_interval**
(count) | Número medio de llamadas de voz entrantes y salientes recibidas o realizadas por segundo en la instancia.| +| **aws.connect.calls_per_interval.maximum**
(count) | Número máximo de llamadas de voz entrantes y salientes recibidas o realizadas por segundo en la instancia.| +| **aws.connect.calls_per_interval.minimum**
(count) | Número mínimo de llamadas de voz entrantes y salientes recibidas o realizadas por segundo en la instancia.| +| **aws.connect.concurrent_calls**
(count) | Número medio de llamadas de voz activas simultáneas en la instancia en el momento en que se muestran los datos en el dashboard.| +| **aws.connect.concurrent_calls.maximum**
(count) | Número máximo de llamadas de voz activas simultáneas en la instancia en el momento en que se muestran los datos en el dashboard.| +| **aws.connect.concurrent_calls.minimum**
(count) | Número mínimo de llamadas de voz activas simultáneas en la instancia en el momento en que se muestran los datos en el dashboard.| +| **aws.connect.concurrent_calls_percentage**
(gauge) | Porcentaje medio del límite de servicio de llamadas de voz activas simultáneas utilizadas en la instancia.
_Se muestra como porcentaje_ | +| **aws.connect.concurrent_calls_percentage.maximum**
(gauge) | Porcentaje máximo del límite de servicio de llamadas de voz activas simultáneas utilizadas en la instancia.
_Se muestra como porcentaje_ | +| **aws.connect.concurrent_calls_percentage.minimum**
(gauge) | Porcentaje mínimo del límite de servicio de llamadas de voz activas simultáneas utilizadas en la instancia.
_Se muestra como porcentaje_ | +| **aws.connect.contact_flow_errors**
(count) | Número medio de veces que se ha ejecutado la rama de error para un flujo de contactos.| +| **aws.connect.contact_flow_errors.maximum**
(count) | Número máximo de veces que se ha ejecutado la rama de error para un flujo de contactos.| +| **aws.connect.contact_flow_errors.minimum**
(count) | Número mínimo de veces que se ha ejecutado la rama de error para un flujo de contactos.| +| **aws.connect.contact_flow_fatal_errors**
(count) | Número medio de veces que un flujo de contactos no se ha ejecutado debido a un error del sistema.| +| **aws.connect.contact_flow_fatal_errors.maximum**
(count) | Número máximo de veces que un flujo de contactos no se ha ejecutado debido a un error del sistema.| +| **aws.connect.contact_flow_fatal_errors.minimum**
(count) | Número mínimo de veces que un flujo de contactos no se ha ejecutado debido a un error del sistema.| +| **aws.connect.longest_queue_wait_time**
(count) | Promedio de la mayor cantidad de tiempo en segundos que un contacto ha esperado en una cola. Este es el tiempo que un contacto ha esperado en una cola durante el intervalo de actualización.| +| **aws.connect.longest_queue_wait_time.maximum**
(count) | Promedio de la mayor cantidad de tiempo en segundos que un contacto ha esperado en una cola. Este es el tiempo que un contacto ha esperado en una cola durante el intervalo de actualización.| +| **aws.connect.longest_queue_wait_time.minimum**
(count) | Promedio de la mayor cantidad de tiempo en segundos que un contacto ha esperado en una cola. Este es el tiempo que un contacto ha esperado en una cola durante el intervalo de actualización.| +| **aws.connect.misconfigured_phone_numbers**
(count) | Número medio de llamadas fallidas debido a que el número de teléfono no está asociado a un flujo de contactos.| +| **aws.connect.misconfigured_phone_numbers.maximum**
(count) | Número máximo de llamadas fallidas debido a que el número de teléfono no está asociado a un flujo de contactos.| +| **aws.connect.misconfigured_phone_numbers.minimum**
(count) | Número mínimo de llamadas fallidas debido a que el número de teléfono no está asociado a un flujo de contactos.| +| **aws.connect.missed_calls**
(count) | Número medio de llamadas de voz perdidas por los agentes durante el intervalo de actualización.| +| **aws.connect.missed_calls.maximum**
(count) | Número máximo de llamadas de voz perdidas por los agentes durante el intervalo de actualización.| +| **aws.connect.missed_calls.minimum**
(count) | Número mínimo de llamadas de voz perdidas por los agentes durante el intervalo de actualización.| +| **aws.connect.public_signing_key_usage**
(count) | Número medio de veces que se ha utilizado una clave de seguridad de flujo de contactos (clave de firma pública) para cifrar la entrada del cliente en un flujo de contactos.| +| **aws.connect.public_signing_key_usage.maximum**
(count) | Número máximo de veces que se ha utilizado una clave de seguridad de flujo de contactos (clave de firma pública) para cifrar la entrada del cliente en un flujo de contactos.| +| **aws.connect.public_signing_key_usage.minimum**
(count) | Número mínimo de veces que se ha utilizado una clave de seguridad de flujo de contactos (clave de firma pública) para cifrar la entrada del cliente en un flujo de contactos.| +| **aws.connect.queue_size**
(count) | Número medio de contactos en la cola.| +| **aws.connect.queue_size.maximum**
(count) | Número máximo de contactos en la cola.| +| **aws.connect.queue_size.minimum**
(count) | Número mínimo de contactos en la cola.| +| **aws.connect.throttled_calls**
(count) | Número medio de llamadas de voz rechazadas debido a que la proporción de llamadas por segundo ha superado el límite máximo admitido.| +| **aws.connect.throttled_calls.maximum**
(count) | Número máximo de llamadas de voz rechazadas debido a que la proporción de llamadas por segundo ha superado el límite máximo admitido.| +| **aws.connect.throttled_calls.minimum**
(count) | Número mínimo de llamadas de voz rechazadas debido a que la proporción de llamadas por segundo ha superado el límite máximo admitido.| +| **aws.connect.to_instance_packet_loss_rate**
(count) | Proporción media de pérdida de paquetes para llamadas en la instancia notificada cada 10 segundos.| +| **aws.connect.to_instance_packet_loss_rate.maximum**
(count) | Proporción máxima de pérdida de paquetes para llamadas en la instancia notificada cada 10 segundos.| +| **aws.connect.to_instance_packet_loss_rate.minimum**
(count) | Proporción mínima de pérdida de paquetes para llamadas en la instancia notificada cada 10 segundos.| +| **aws.connect.queue_capacity_exceeded_error**
(count) | Número medio de llamadas rechazadas debido a que la cola estaba llena.| +| **aws.connect.queue_capacity_exceeded_error.maximum**
(count) | Número máximo de llamadas rechazadas debido a que la cola estaba llena.| +| **aws.connect.queue_capacity_exceeded_error.minimum**
(count) | Número mínimo de llamadas rechazadas debido a que la cola estaba llena.| + +### Eventos + +La integración de Amazon Connect no incluye ningún evento. + +### Checks de servicio + +La integración de Amazon Connect no incluye ningún check de servicio. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/amazon-ec2.md b/content/es/integrations/amazon-ec2.md new file mode 100644 index 00000000000..a29e56ce6c9 --- /dev/null +++ b/content/es/integrations/amazon-ec2.md @@ -0,0 +1,268 @@ +--- +aliases: +- /es/integrations/amazon_ec2 +app_id: amazon-ec2 +categories: +- nube +- sistema operativo y sistema +- aws +- recopilación de logs +custom_kind: integración +description: Amazon Elastic Compute Cloud (Amazon EC2) es un servicio web que proporciona + capacidad informática redimensionable en la nube. +media: [] +title: Amazon EC2 +--- +## Información general + +Amazon Elastic Compute Cloud (Amazon EC2) es un servicio web que proporciona capacidad informática redimensionable en la nube. Está diseñado para facilitar la computación en la nube a escala web para los desarrolladores. + +Habilita esta integración para ver en Datadog todas tus métricas EC2 y eventos adicionales, como mantenimientos programados. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración Amazon Web Services](https://docs.datadoghq.com/integrations/amazon_web_services/). + +### Configuración + +1. En la [página de la integración AWS](https://app.datadoghq.com/integrations/amazon-web-services), asegúrate de que `EC2` está habilitado en la pestaña `Metric Collection`. + +1. Añade los siguientes permisos obligatorios a tu [política IAM de Datadog](https://docs.datadoghq.com/integrations/amazon_web_services/#installation) para poder recopilar métricas de Amazon EC2. Para obtener más información, consulta las [políticas de EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/security-iam.html) en el sitio web de AWS. + + | AWS Permiso | Descripción | + | ---------------------------- | ------------------------------------------------------------------------------------------------------------------------------------- | + | `ec2:DescribeInstanceStatus` | Utilizado por la integración ELB para declara la salud de una instancia. Utilizado por la integración EC2 para describir el estado de todas las instancias. | + | `ec2:DescribeSecurityGroups` | Añade nombres de SecurityGroup y etiquetas personalizadas a las instancias EC2. | + | `ec2:DescribeInstances` | Añade etiquetas a instancias EC2 y métricas CloudWatch EC2. | + +1. Instala la integración [Datadog - Amazon EC2](https://app.datadoghq.com/integrations/amazon-ec2). + +**Nota**: Si quieres monitorizar un subconjunto de tus instancias EC2 con Datadog, asigna una etiqueta AWS, como por ejemplo `datadog:true`, a esas instancias EC2. A continuación, especifica esa etiqueta en el cuadro de texto **Limitar la recopilación de métricas a recursos específicos** en la pestaña **Recopilación de métricas** de la [página de tu integración AWS en Datadog](https://app.datadoghq.com/integrations/amazon-web-services). + +#### Autosilenciado en EC2 + +Datadog puede silenciar de forma proactiva los monitores relacionados con el apagado manual de instancias EC2 y con el cierre de instancias activadas por el autoescalado de AWS, en función del estado de los hosts de la API CloudWatch. Las instancias EC2 autosilenciadas se enumeran en la página de [tiempo de inactividad del monitor](https://app.datadoghq.com/monitors/downtimes) seleccionando la opción **Mostrar automáticamente hosts silenciados**. + +Ten en cuenta que la integración EC2 debe estar instalada para que el autosilenciado surta efecto. Si la recopilación de métricas se limita a hosts con etiquetas, sólo se autosilenciarán las instancias que coincidan con esas etiquetas. + +Para silenciar los monitores de apagados esperados de instancias EC2, selecciona la casilla **Autosilenciado de EC2** en la [página de la integración AWS](https://app.datadoghq.com/integrations/amazon-web-services): + +![Amazon EC2 Automuting](images/aws_ec2_automuting_2024.png) + +### Instalar el Agent + +Datadog ofrece dos estrategias para configurar el Datadog Agent en instancias EC2. Para conocer las ventajas de instalar el Agent en tus instancias Amazon EC2, consulta [¿Por qué debería instalar el Datadog Agent en mis instancias en la nube?](https://docs.datadoghq.com/agent/faq/why-should-i-install-the-agent-on-my-cloud-instances/). + +{{< tabs >}} + +{{% tab "AWS Systems Manager (SSM)" %}} + +#### Instalación del Agent a través de la interfaz de usuario de Amazon Systems Manager (recomendado) + +Sigue los pasos que se indican a continuación para instalar el Datadog Agent en instancias de EC2 con AWS Systems Manager. + +1. Configura el [rol IAM](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/iam-roles-for-amazon-ec2.html) en tus instancias EC2 para que el [permiso AmazonSSMManagedInstanceCore](https://docs.aws.amazon.com/systems-manager/latest/userguide/setup-instance-permissions.html) esté habilitado. + +1. Ve a la [pestaña de documento de AWS SSM](https://docs.aws.amazon.com/systems-manager/latest/userguide/documents.html). + +1. Busca `datadog`. Nota: Puede que necesites buscar el documento correspondiente a tu región cambiando de región en la barra de navegación superior de la consola de AWS Management. + +1. Elige el documento Linux o Windows, según tus necesidades. + +- Linux: datadog-agent-installation-linux +- Windows: datadog-agent-installation-windows + +5. Rellena los parámetros del comando. +1. Selecciona las instancias de destino en las que quieres instalar el Agent. +1. Haz clic en **Run** (Ejecutar). +1. Espera a que finalice la confirmación y luego consulta la lista de infraestructuras en Datadog. + +#### Instalación alternativa personalizada del Agent + +##### Almacén de parámetros + +En el [Almacén de parámetros](https://console.aws.amazon.com/systems-manager/parameters), crea un parámetro con: + +- Nombre: `dd-api-key-for-ssm` +- Descripción: (opcional) +- Tipo: `SecureString` +- Fuente de claves KMS: `My current account` +- ID de clave KMS: Utiliza el valor predeterminado seleccionado +- Valor: Tu [clave de API Datadog](https://app.datadoghq.com/organization-settings/api-keys) + +##### Documentos + +En el gestor de sistemas, crea un nuevo [documento](https://console.aws.amazon.com/systems-manager/documents): + +- Nombre: `dd-agent-install` +- Tipo de destino: (opcional) +- Tipo de documento: `Command document` +- Contenido: `JSON` + +Si te encuentras en un sitio US de Datadog, utiliza el archivo [dd-agent-install-us-site.json](https://docs.datadoghq.com/resources/json/dd-agent-install-us-site.json), actualizado con tu `` en `runCommand`, como `us-east-1`. Si te encuentras en un sitio EU de Datadog, utiliza el archivo [dd-agent-install-eu-site.json](https://docs.datadoghq.com/resources/json/dd-agent-install-eu-site.json). + +##### Ejecutar comando + +En [Ejecutar comando](https://console.aws.amazon.com/systems-manager/run-command/executing-commands), haz clic en el botón **Run command** (Ejecutar comando) y sigue los pasos que se indican a continuación: + +- **Documento de comando**: + - Haz clic en la casilla de búsqueda y selecciona **Propietario -> Propiedad mía**. + - Haz clic en el botón de opción situado junto a tu documento. + - Si es necesario, elige la **versión del documento**. +- **Destinos**: + - Selecciona la instancia EC2 de destino. +- **Opciones de resultados** (opcional): + - Selecciona la casilla **Resultado de CloudWatch** para registrar cualquier problema. +- **Otras secciones** (opcional): + - Modifica otras secciones, según sea necesario para tu configuración. + +Haz clic en el botón **Run** (Ejecutar) y aparecerá una página de confirmación mostrando el estado. Espera a que finalice y comprueba la [lista de infraestructuras](https://app.datadoghq.com/infrastructure) en Datadog. + +{{% /tab %}} + +{{% tab "EC2 Image Builder" %}} + +#### Instalación del Agent a través de EC2 Image Builder + +Datadog publica un componente de EC2 Image Builder para el Datadog Agent a través de AWS Marketplace. Los usuarios pueden suscribirse al producto y utilizar el componente Image Builder para crear una AMI personalizada. + +Sigue estos pasos para crear una Amazon Machine Image personalizada con el Datadog Agent y aprovisionar instancias de EC2 con un Datadog Agent preinstalado. + +
+Para la versión inicial, el componente se probó con Amazon Linux 2023. Debería funcionar con cualquier distribución de Linux compatible con el Datadog Agent +
+ +##### Crear una suscripción + +1. Accede a la consola de EC2 Image Builder y ve a 'Discover products' (Descubrir productos). +1. Selecciona la pestaña **Components** (Componentes) y busca _Datadog Agent _. +1. Haz clic en **View subscription options** (Ver opciones de suscripción) y sigue las instrucciones para crear una suscripción. + +Consulta [Gestión de suscripciones a AWS Marketplace](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/marketplace-manage-subscriptions.html) para obtener más información. + +##### Crear una receta de imagen + +1. Navega hasta **Image recipes** (Recetas de imágenes) en la consola de EC2 Image Builder. +1. Crea una nueva receta con la siguiente configuración: + - Imagen de base: `arn:aws:imagebuilder:us-east-1:aws:image/amazon-linux-2023-x86/x.x.x`. + - Componente: `arn:aws:imagebuilder:us-east-1:aws-marketplace:component/datadog-agent-for-linux-prod-wwo2b4p7dgrkk/0.1.0/1` + - Opcionalmente, configura los parámetros del componente. Este documento asume que se utilizan los valores por defecto. + +Consulta [Recetas de EC2 Image Builder](https://docs.aws.amazon.com/imagebuilder/latest/userguide/create-image-recipes.html) para obtener más información. + +##### Crear un canal de imágenes y construir la imagen + +**Requisitos previos**: + +- El rol por defecto `EC2InstanceProfileForImageBuilder` requiere los siguientes permisos adicionales: + - `imagebuilder:GetMarketplaceResource` para obtener el componente Datadog Agent de Marketplace. + - `secretsmanager:GetSecretValue` para recuperar las claves de API y de aplicación almacenadas en el almacén de secretos. +- Crea un secreto llamado `mp-ib-datadog-agent-secret` que almacene la API de Datadog y las claves de aplicación asignadas a `dd-api-key` y `dd-app-key` respectivamente. + +Procede a la creación de pipelines y a la creación de imágenes: + +1. Ve a **Image pipelines** (Pipelines de imagen) en la consola de EC2 Image Builder. +1. Crea un pipeline para la receta. Este es un asistente de varios pasos; el siguiente aborda el escenario más simple: + - Paso 1: indica el nombre del pipeline y establece el programa de creación en manual. + - Paso 2: elige la receta creada en la sección anterior. + - Paso 3: deja los valores por defecto. + - Paso 4: deja la opción por defecto para usar el rol `EC2InstanceProfileForImageBuilder` con políticas adicionales adjuntas. + - Paso 5: deja los valores por defecto. + - Paso 6: revisar y crear. +1. Navega hasta el pipeline recién creado y ejecútelo. +1. Una vez finalizado el pipeline, un resumen muestra el nuevo ARN de la imagen. +1. Si has configurado tu secreto `mp-ib-datadog-agent-secret` correctamente, el Datadog Agent comienza a informar métricas poco después de que la instancia de EC2 se inicie con la imagen. + +Consulta [Pipelines de EC2 Image Builder](https://docs.aws.amazon.com/imagebuilder/latest/userguide/ami-image-pipelines.html) para obtener más información. + +##### Parámetros de los componentes + +El Agent puede personalizarse utilizando los siguientes parámetros en la receta: + +- `DD_SITE`: sitio al que enviar los datos de telemetría. Por defecto: `datadoghq.com`. +- `HOST_TAGS`: etiquetas (tags) de host. Por defecto: `installer:ec2_image_builder`. +- `SM_SECRET_NAME`: nombre del secreto para almacenar las claves de la API y de la aplicación. Por defecto: `mp-ib-datadog-agent-secret`. +- `SM_API_KEY`: para buscar la clave de la API en el secreto. Por defecto: `dd-api-key` +- `SM_API_KEY`: clave para buscar la clave de aplicación en el secreto. Por defecto: `dd-app-key` + +{{% /tab %}} + +{{< /tabs >}} + +### Recopilación de logs + +Utiliza el [Datadog Agent](https://docs.datadoghq.com/agent/logs/) u otro [remitente de logs](https://docs.datadoghq.com/integrations/rsyslog/) para enviar tus logs a Datadog. + +## Datos recopilados + +### Métricas + +| | | +| --- | --- | +| **aws.ec2.cpucredit_balance**
(gauge) | Número de créditos de CPU que ha acumulado una instancia.
_Se muestra como unidad_ | +| **aws.ec2.cpucredit_usage**
(gauge) | Número de créditos de CPU consumidos.
_Se muestra como unidad_ | +| **aws.ec2.cpuutilization**
(gauge) | Porcentaje medio de unidades de cálculo EC2 asignadas que se utilizan actualmente en la instancia.
_Se muestra como porcentaje_ | +| **aws.ec2.cpuutilization.maximum**
(gauge) | Porcentaje máximo de unidades de cálculo EC2 asignadas que se utilizan actualmente en la instancia.
_Se muestra como porcentaje_ | +| **aws.ec2.disk_read_bytes**
(gauge) | Bytes leídos de todos los discos efímeros disponibles para la instancia.
_Se muestra como bytes_ | +| **aws.ec2.disk_read_ops**
(gauge) | Operaciones de lectura completadas de todos los discos efímeros disponibles para la instancia.
_Se muestra como operación_ | +| **aws.ec2.disk_write_bytes**
(gauge) | Bytes escritos en todos los discos efímeros disponibles para la instancia.
_Se muestra como bytes_ | +| **aws.ec2.disk_write_ops**
(gauge) | Operaciones de escritura completadas en todos los discos efímeros disponibles para la instancia.
_Se muestra como operación_ | +| **aws.ec2.ebsbyte_balance**
(gauge) | Porcentaje de créditos de rendimiento restantes en el bucket de ráfagas para instancias basadas en Nitro.
_Se muestra como porcentaje_ | +| **aws.ec2.ebsiobalance**
(gauge) | Porcentaje de créditos de E/S restantes en el bucket de ráfagas para instancias basadas en Nitro.
_Se muestra como porcentaje_ | +| **aws.ec2.ebsread_bytes**
(gauge) | Promedio de bytes leídos de todos los volúmenes EBS adjuntos a la instancia para instancias basadas en Nitro.
_Se muestra como bytes_ | +| **aws.ec2.ebsread_bytes.sum**
(gauge) | Total de bytes leídos de todos los volúmenes EBS adjuntos a la instancia para instancias basadas en Nitro.
_Se muestra como bytes_ | +| **aws.ec2.ebsread_ops**
(count) | Promedio de operaciones de lectura completadas de todos los volúmenes de Amazon EBS adjuntos a la instancia para instancias basadas en Nitro.
_Se muestra como operación_ | +| **aws.ec2.ebsread_ops.sum**
(count) | Total de operaciones de lectura completadas de todos los volúmenes de Amazon EBS adjuntos a la instancia para instancias basadas en Nitro.
_Se muestra como operación_ | +| **aws.ec2.ebswrite_bytes**
(gauge) | Promedio de bytes escritos en todos los volúmenes EBS adjuntos a la instancia para instancias basadas en Nitro.
_Se muestra como bytes_ | +| **aws.ec2.ebswrite_bytes.sum**
(gauge) | Total de bytes escritos en todos los volúmenes EBS adjuntos a la instancia para instancias basadas en Nitro.
_Se muestra como bytes_ | +| **aws.ec2.ebswrite_ops**
(gauge) | Promedio de operaciones de escritura completadas en todos los volúmenes EBS adjuntos a la instancia para instancias basadas en Nitro.
_Se muestra como operación_ | +| **aws.ec2.ebswrite_ops.sum**
(gauge) | Total de operaciones de escritura completadas en todos los volúmenes EBS adjuntos a la instancia para instancias basadas en Nitro.
_Se muestra como operación_ | +| **aws.ec2.network_address_usage**
(gauge) | Número máximo de unidades NAU para una VPC.
_Se muestra como unidad_ | +| **aws.ec2.network_address_usage_peered**
(gauge) | Número máximo de unidades NAU para una VPC y todas sus VPC emparejadas.
_Se muestra como unidad_ | +| **aws.ec2.network_in**
(gauge) | Número medio de bytes recibidos en todas las interfaces de red por la instancia.
_Se muestra como bytes_ | +| **aws.ec2.network_in.maximum**
(gauge) | Número máximo de bytes recibidos en todas las interfaces de red por la instancia.
_Se muestra como bytes_ | +| **aws.ec2.network_out**
(gauge) | Número medio de bytes enviados en todas las interfaces de red por la instancia.
_Se muestra como bytes_ | +| **aws.ec2.network_out.maximum**
(gauge) | Número máximo de bytes enviados en todas las interfaces de red por la instancia.
_Se muestra como bytes_ | +| **aws.ec2.network_packets_in**
(gauge) | Número de paquetes recibidos en todas las interfaces de red por la instancia
_Se muestra como paquete_ | +| **aws.ec2.network_packets_out**
(gauge) | Número de paquetes enviados en todas las interfaces de red por la instancia
_Se muestra como paquete_ | +| **aws.ec2.status_check_failed**
(gauge) | 1 si falla uno de los checks de estado.| +| **aws.ec2.status_check_failed_instance**
(gauge) | 0 si la instancia ha aprobado el check de estado de la instancia EC2.| +| **aws.ec2.status_check_failed_system**
(gauge) | 0 si la instancia ha aprobado el check de estado del sistema EC2.| +| **aws.ec2.cpusurplus_credit_balance**
(gauge) | Número de créditos excedentes que han sido utilizados por una instancia ilimitada cuando su valor CPUCreditBalance es cero.
_Se muestra como unidad_ | +| **aws.ec2.cpusurplus_credits_charged**
(gauge) | Número de créditos excedentes gastados que no se amortizan con créditos de CPU ganados y que, por tanto, incurren en un cargo adicional.
_Se muestra como unidad_ | +| **aws.ec2.host_ok**
(gauge) | 1 si el estado del sistema de la instancia es correcto.| +| **aws.ec2.instance_age**
(gauge) | Tiempo transcurrido desde el inicio de la instancia
_Se muestra como segundos_ | + +A cada una de las métricas recuperadas de AWS se le asignan las mismas etiquetas (tags) que aparecen en la consola de AWS, incluidos, entre otros, el nombre del host y los grupos de seguridad. + +**Notas**: + +- `aws.ec2.instance_age` no se recopila de forma predeterminada con la integración Datadog - EC2. Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/) para activar esta recopilación de métricas. +- `aws.ec2.host_ok` se recopila de forma predeterminada, incluso si desactiva la recopilación de métricas de la integración Amazon EC2 y puede provocar que aparezcan hosts inesperados en la lista de infraestructuras. Para garantizar que solo se monitorizan los hosts deseados, asigna una etiqueta AWS, como `datadog:true`, a esas instancias EC2. A continuación, especifica dicha etiqueta en el cuadro de texto **Limitar la recopilación de métricas a recursos específicos** de la pestaña **Recopilación de métricas** de la [página de tu integración AWS en Datadog](https://app.datadoghq.com/integrations/amazon-web-services). + +### Checks de servicio + +**aws.ec2.host_status** + +Devuelve el estado de tu instancia EC2 tal y como lo informa la consola AWS. Devuelve `CRITICAL` cuando hay un problema con tu instancia. Devuelve `UNKNOWN` cuando AWS no tiene datos suficientes para ejecutar un check de estado. Devuelve `OK` cuando tu instancia está funcionando o se ha apagado correctamente. + +_Estados: ok, crítico, desconocido_ + +## Monitorización predefinida + +La integración Amazon EC2 proporciona funciones de monitorización predefinidas para monitorizar y optimizar el rendimiento. + +- Dashboard de información general de Amazon EC2: Obtén una vista completa de tus instancias EC2 con el [dashboard de información general de Amazon EC2] predefinido (https://app.datadoghq.com/dash/integration/60/aws-ec2-overview). +- Monitores recomendados: Habilita los [monitores recomendados de Amazon EC2](https://app.datadoghq.com/monitors/recommended) para detectar problemas de forma proactiva y recibir alertas oportunas. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). + +## Referencias adicionales + +- [Métricas clave para la monitorización de EC2](https://www.datadoghq.com/blog/ec2-monitoring) +- [Recopilar métricas de EC2](https://www.datadoghq.com/blog/collecting-ec2-metrics) +- [Monitorizar instancias EC2 con Datadog](https://www.datadoghq.com/blog/monitoring-ec2-instances-with-datadog) \ No newline at end of file diff --git a/content/es/integrations/amazon-ecs.md b/content/es/integrations/amazon-ecs.md new file mode 100644 index 00000000000..0cb81c6d5ec --- /dev/null +++ b/content/es/integrations/amazon-ecs.md @@ -0,0 +1,198 @@ +--- +aliases: +- /es/integrations/amazon_ecs +app_id: amazon-ecs +categories: +- nube +- rastreo +- aws +- recopilación de logs +custom_kind: integración +description: Servicio de gestión de contenedores escalable y de alto rendimiento, + compatible con contenedores Docker. +further_reading: +- link: https://www.datadoghq.com/blog/amazon-ecs-metrics + tag: blog + text: Métricas ECS clave para monitorizar +- link: https://docs.datadoghq.com/integrations/ecs_fargate + tag: documentación + text: Documentación de Amazon ECS +media: [] +title: Amazon ECS +--- +
+¿Quieres desplegar el Datadog Agent contenedorizado en tu clúster ECS? Consulta la documentación del Agent con Amazon ECS. +
+ +## Información general + +Amazon ECS en EC2 es un servicio de gestión de contenedores de gran escalabilidad y alto rendimiento para contenedores Docker que se ejecutan en instancias EC2. + +Recopila métricas ECS automáticamente desde CloudWatch utilizando la integración Amazon ECS en Datadog. Amplía esas métricas consultando la API de ECS para ver eventos ECS, etiquetas (tags) y el estado de instancias de contenedor, tareas y servicios. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración Amazon Web Services](https://docs.datadoghq.com/integrations/amazon_web_services/?tab=automaticcloudformation#setup). + +### Recopilación de métricas + +1. Sigue las instrucciones para [configurar la delegación de roles](https://docs.datadoghq.com/integrations/amazon_web_services/?tab=automaticcloudformation#setup) de la integración AWS. +1. Asegúrate de que los siguientes permisos de tu [política IAM Datadog](https://docs.datadoghq.com/integrations/amazon_web_services/#datadog-aws-iam-policy) están configurados para recopilar métricas de Amazon ECS. Para obtener más información sobre las políticas de ECS, consulta [Acciones, recursos y condiciones clave del servicio de contenedores Amazon Elastic](https://docs.aws.amazon.com/IAM/latest/UserGuide/list_amazonelasticcontainerservice.html) en la documentación de AWS. + +| Permiso de AWS | Descripción | +| -------------------------------- | ------------------------------------------------------------- | +| `ecs:ListClusters` | Devuelve una lista de los clústeres existentes. | +| `ecs:ListContainerInstances` | Devuelve una lista de instancias de contenedor en un clúster especificado. | +| `ecs:ListServices` | Enumera los servicios que se están ejecutando en un clúster especificado. | +| `ecs:DescribeContainerInstances` | Describe las instancias de contenedor Amazon ECS. | + +3. En la [página de la integración AWS](https://app.datadoghq.com/integrations/amazon-web-services), asegúrate de que `ECS` está habilitado en la pestaña `Metric Collection`. + + ![Amazon ECS Configuration](images/aws_tile.png) + +Cuando la recopilación de métricas está activada, hay un [dashboard predefinodo](https://app.datadoghq.com/screen/integration/82/aws-ecs) disponible para esta integración que proporciona información detallada sobre tus métricas de ECS. Consulta [Monitorización de ECS con Datadog](https://www.datadoghq.com/blog/monitoring-ecs-with-datadog/#get-comprehensive-visibility-with-datadog-dashboards) para obtener más detalles. + +## Datos recopilados + +### Métricas + +| | | +| --- | --- | +| **aws.ecs.cpureservation**
(gauge) | Porcentaje de unidades de CPU reservadas por tareas en ejecución en el clúster.
_Se muestra como porcentaje_ | +| **aws.ecs.cpureservation.maximum**
(gauge) | Porcentaje máximo de unidades de CPU reservadas por tareas en ejecución en el clúster.
_Se muestra como porcentaje_ | +| **aws.ecs.cpureservation.minimum**
(gauge) | Porcentaje mínimo de unidades de CPU reservadas por tareas en ejecución en el clúster.
_Se muestra como porcentaje_ | +| **aws.ecs.cpureservation.samplecount**
(count) | Recuento de muestra de unidades de CPU reservadas por tareas en ejecución en el clúster.| +| **aws.ecs.cpuutilization**
(gauge) | Porcentaje de unidades CPU que se utilizan en el clúster o servicio, filtradas por ClusterName y ServiceName.
_Se muestra como porcentaje_ | +| **aws.ecs.cpuutilization.maximum**
(gauge) | Porcentaje máximo de unidades de CPU que se utilizan en el clúster o servicio.
_Se muestra como porcentaje_ | +| **aws.ecs.cpuutilization.minimum**
(gauge) | Porcentaje mínimo de unidades de CPU que se utilizan en el clúster o servicio.
_Se muestra como porcentaje_ | +| **aws.ecs.cpuutilization.samplecount**
(count) | Recuento de muestra de unidades de CPU que se utilizan en el clúster o servicio.| +| **aws.ecs.memory_reservation**
(gauge) | Porcentaje de memoria reservado por tareas en ejecución en el clúster.
_Se muestra como porcentaje_ | +| **aws.ecs.memory_reservation.maximum**
(gauge) | Porcentaje máximo de memoria reservado por tareas en ejecución en el clúster.
_Se muestra como porcentaje_ | +| **aws.ecs.memory_reservation.minimum**
(gauge) | Porcentaje mínimo de memoria reservado por tareas en ejecución en el clúster.
_Se muestra como porcentaje_ | +| **aws.ecs.memory_utilization**
(gauge) | Porcentaje de memoria utilizado en el clúster o servicio.
_Se muestra como porcentaje_ | +| **aws.ecs.memory_utilization.maximum**
(gauge) | Porcentaje máximo de memoria utilizado en el clúster o servicio.
_Se muestra como porcentaje_ | +| **aws.ecs.memory_utilization.minimum**
(gauge) | Porcentaje mínimo de memoria utilizado en el clúster o servicio.
_Se muestra como porcentaje_ | +| **aws.ecs.cluster.cpureservation**
(gauge) | Porcentaje de unidades de CPU reservadas por tareas en ejecución en el clúster.
_Se muestra como porcentaje_ | +| **aws.ecs.cluster.cpureservation.maximum**
(gauge) | Porcentaje máximo de unidades de CPU reservadas por tareas en ejecución en el clúster.
_Se muestra como porcentaje_ | +| **aws.ecs.cluster.cpureservation.minimum**
(gauge) | Porcentaje mínimo de unidades de CPU reservadas por tareas en ejecución en el clúster.
_Se muestra como porcentaje_ | +| **aws.ecs.cluster.cpuutilization**
(gauge) | Porcentaje de unidades de CPU que se utilizan en el cluster o servicio, filtradas por ClusterName.
_Se muestra como porcentaje_ | +| **aws.ecs.cluster.cpuutilization.maximum**
(gauge) | Porcentaje máximo de unidades de CPU que se utilizan en el clúster o servicio.
_Se muestra como porcentaje_ | +| **aws.ecs.cluster.cpuutilization.minimum**
(gauge) | Porcentaje mínimo de unidades de CPU que se utilizan en el clúster o servicio.
_Se muestra como porcentaje_ | +| **aws.ecs.cluster.memory_reservation**
(gauge) | Porcentaje de memoria reservado por tareas en ejecución en el clúster.
_Se muestra como porcentaje_ | +| **aws.ecs.cluster.memory_reservation.maximum**
(gauge) | Porcentaje máximo de memoria reservado por tareas en ejecución en el clúster.
_Se muestra como porcentaje_ | +| **aws.ecs.cluster.memory_reservation.minimum**
(gauge) | Porcentaje mínimo de memoria reservado por tareas en ejecución en el clúster.
_Se muestra como porcentaje_ | +| **aws.ecs.cluster.memory_utilization**
(gauge) | Porcentaje de memoria utilizado en el clúster o servicio.
_Se muestra como porcentaje_ | +| **aws.ecs.cluster.memory_utilization.maximum**
(gauge) | Porcentaje máximo de memoria utilizado en el clúster o servicio.
_Se muestra como porcentaje_ | +| **aws.ecs.cluster.memory_utilization.minimum**
(gauge) | Porcentaje mínimo de memoria utilizado en el clúster o servicio.
_Se muestra como porcentaje_ | +| **aws.ecs.pending_tasks_count**
(gauge) | Número de tareas en la instancia de contenedor que están en estado PENDIENTE.
_Se muestra como tarea_ | +| **aws.ecs.registered_cpu**
(gauge) | Número de unidades de CPU registradas en la instancia de contenedor| +| **aws.ecs.registered_memory**
(gauge) | Número de unidades de memoria registradas en la instancia de contenedor| +| **aws.ecs.remaining_cpu**
(gauge) | Número de unidades de CPU restantes en la instancia de contenedor| +| **aws.ecs.remaining_memory**
(gauge) | Número de unidades de memoria restantes en la instancia de contenedor| +| **aws.ecs.running_tasks_count**
(gauge) | Número de tareas en la instancia de contenedor que están en estado EN EJECUCIÓN.
_Se muestra como tarea_ | +| **aws.ecs.service.cpuutilization**
(gauge) | Porcentaje medio de unidades de CPU que se utilizan en el servicio.
_Se muestra como porcentaje_ | +| **aws.ecs.service.cpuutilization.maximum**
(gauge) | Porcentaje máximo de unidades CPU que se utilizan en el servicio.
_Se muestra como porcentaje_ | +| **aws.ecs.service.cpuutilization.minimum**
(gauge) | Porcentaje mínimo de unidades de CPU que se utilizan en el servicio.
_Se muestra como porcentaje_ | +| **aws.ecs.service.desired**
(gauge) | Número de tareas del clúster que se encuentran en el estado deseado| +| **aws.ecs.service.memory_utilization**
(gauge) | Porcentaje medio de memoria que se utiliza en el servicio.
_Se muestra como porcentaje_ | +| **aws.ecs.service.memory_utilization.maximum**
(gauge) | Porcentaje máximo de memoria que se utiliza en el servicio.
_Se muestra como porcentaje_ | +| **aws.ecs.service.memory_utilization.minimum**
(gauge) | Porcentaje mínimo de memoria que se utiliza en el servicio.
_Se muestra como porcentaje_ | +| **aws.ecs.service.pending**
(gauge) | Número de tareas del clúster que se encuentran en estado pendiente
_Se muestra como tarea_ | +| **aws.ecs.service.running**
(gauge) | Número de tareas del clúster que se encuentran en estado de ejecución
_Se muestra como tarea_ | +| **aws.ecs.services**
(gauge) | Número de servicios que se ejecutan por clúster| +| **ecs.containerinsights.container_instance_count**
(count) | Número de instancias EC2 que ejecutan el agente de Amazon ECS, registradas en un clúster.
_Se muestra como instancia_ | +| **ecs.containerinsights.container_instance_count.maximum**
(count) | Número máximo de instancias EC2 que ejecutan el agente de Amazon ECS, registradas en un clúster.
_Se muestra como instancia_ | +| **ecs.containerinsights.container_instance_count.minimum**
(count) | Número mínimo de instancias EC2 que ejecutan el agente de Amazon ECS, registradas en un clúster.
_Se muestra como instancia_ | +| **ecs.containerinsights.container_instance_count.samplecount**
(count) | Recuento de muestra de las instancias EC2 que ejecutan el agente de Amazon ECS y que están registradas en un clúster.
_Se muestra como instancia_ | +| **ecs.containerinsights.container_instance_count.sum**
(count) | Suma de instancias EC2 que ejecutan el agente de Amazon ECS y que están registradas en un clúster.
_Se muestra como instancia_ | +| **ecs.containerinsights.cpu_reserved**
(gauge) | Unidades de CPU reservadas por tareas en el recurso especificado para la dimensión elegida.| +| **ecs.containerinsights.cpu_reserved.maximum**
(gauge) | Unidades de CPU máximas reservadas por tareas en el recurso especificado para la dimensión elegida.| +| **ecs.containerinsights.cpu_reserved.minimum**
(gauge) | Unidades de CPU mínimas reservadas por tareas en el recurso especificado para la dimensión elegida.| +| **ecs.containerinsights.cpu_reserved.samplecount**
(gauge) | Recuento de muestra de unidades de CPU reservadas por tareas en el recurso especificado para la dimensión elegida.| +| **ecs.containerinsights.cpu_reserved.sum**
(gauge) | Suma de unidades de CPU reservadas por tareas en el recurso especificado para la dimensión elegida.| +| **ecs.containerinsights.cpu_utilized**
(gauge) | Unidades de CPU utilizadas por tareas en el recurso especificado para la dimensión elegida.
_Se muestra como porcentaje_ | +| **ecs.containerinsights.cpu_utilized.maximum**
(gauge) | Unidades de CPU máximas utilizadas por tareas en el recurso especificado para la dimensión elegida.
_Se muestra como porcentaje_ | +| **ecs.containerinsights.cpu_utilized.minimum**
(gauge) | Unidades de CPU mínimas utilizadas por tareas en el recurso especificado para la dimensión elegida.
_Se muestra como porcentaje_ | +| **ecs.containerinsights.cpu_utilized.samplecount**
(gauge) | Recuento de muestra de unidades de CPU utilizadas por tareas en el recurso especificado para la dimensión elegida.
_Se muestra como porcentaje_ | +| **ecs.containerinsights.cpu_utilized.sum**
(gauge) | Suma de unidades de CPU utilizadas por tareas en el recurso especificado para la dimensión elegida.
_Se muestra como porcentaje_ | +| **ecs.containerinsights.deployment_count**
(count) | Número de despliegues en un servicio de Amazon ECS.| +| **ecs.containerinsights.deployment_count.maximum**
(count) | Número máximo de despliegues en un servicio de Amazon ECS.| +| **ecs.containerinsights.deployment_count.minimum**
(count) | Número mínimo de despliegues en un servicio de Amazon ECS.| +| **ecs.containerinsights.deployment_count.samplecount**
(count) | Recuento de muestra de despliegues en un servicio de Amazon ECS.| +| **ecs.containerinsights.deployment_count.sum**
(count) | Suma de despliegues en un servicio de Amazon ECS.| +| **ecs.containerinsights.desired_task_count**
(count) | Número de tareas deseadas para un servicio de Amazon ECS.
_Se muestra como tarea_ | +| **ecs.containerinsights.desired_task_count.maximum**
(count) | Número máximo de tareas deseadas para un servicio de Amazon ECS.
_Se muestra como tarea_ | +| **ecs.containerinsights.desired_task_count.minimum**
(count) | Número mínimo de tareas deseadas para un servicio de Amazon ECS.
_Se muestra como tarea_ | +| **ecs.containerinsights.desired_task_count.samplecount**
(count) | Recuento de muestra de tareas deseadas para un servicio de Amazon ECS.
_Se muestra como tarea_ | +| **ecs.containerinsights.desired_task_count.sum**
(count) | Suma de tareas deseadas para un servicio de Amazon ECS.
_Se muestra como tarea_ | +| **ecs.containerinsights.memory_reserved**
(gauge) | Memoria reservada por las tareas en el recurso especificado para la dimensión elegida.
_Se muestra como megabytes_ | +| **ecs.containerinsights.memory_reserved.maximum**
(gauge) | Memoria máxima reservada por las tareas en el recurso especificado para la dimensión elegida.
_Se muestra como megabytes_ | +| **ecs.containerinsights.memory_reserved.minimum**
(gauge) | Memoria mínima reservada por las tareas en el recurso especificado para la dimensión elegida.
_Se muestra como megabytes_ | +| **ecs.containerinsights.memory_reserved.samplecount**
(gauge) | Recuento de muestra de la memoria reservada por tareas en el recurso especificado para la dimensión elegida.
_Se muestra como megabytes_ | +| **ecs.containerinsights.memory_reserved.sum**
(indicador) | Suma de la memoria reservada por tareas en el recurso especificado para la dimensión elegida.
_Se muestra como megabytes_ | +| **ecs.containerinsights.memory_utilized**
(gauge) | Memoria que están utilizando las tareas en el recurso especificado para la dimensión elegida.
_Se muestra como megabytes_ | +| **ecs.containerinsights.memory_utilized.maximum**
(gauge) | Memoria máxima utilizada por las tareas en el recurso especificado para la dimensión elegida.
_Se muestra como megabytes_ | +| **ecs.containerinsights.memory_utilized.minimum**
(gauge) | Memoria mínima utilizada por las tareas en el recurso especificado para la dimensión elegida.
_Se muestra como megabytes_ | +| **ecs.containerinsights.memory_utilized.samplecount**
(gauge) | Recuento de muestra de la memoria utilizada por tareas en el recurso especificado para la dimensión elegida.
_Se muestra como megabytes_ | +| **ecs.containerinsights.memory_utilized.sum**
(gauge) | Suma de la memoria utilizada por tareas en el recurso especificado para la dimensión elegida.
_Se muestra como megabytes_ | +| **ecs.containerinsights.pending_task_count**
(count) | Número de tareas actualmente en estado PENDIENTE.
_Se muestra como tarea_ | +| **ecs.containerinsights.pending_task_count.maximum**
(count) | Número máximo de tareas actualmente en estado PENDIENTE.
_Se muestra como tarea_ | +| **ecs.containerinsights.pending_task_count.minimum**
(count) | Número mínimo de tareas actualmente en estado PENDIENTE.
_Se muestra como tarea_ | +| **ecs.containerinsights.pending_task_count.samplecount**
(count) | Recuento de muestra de las tareas actualmente en estado PENDIENTE.
_Se muestra como tarea_ | +| **ecs.containerinsights.pending_task_count.sum**
(count) | Suma de tareas actualmente en estado PENDIENTE.
_Se muestra como tarea_ | +| **ecs.containerinsights.running_task_count**
(count) | Número de tareas actualmente en estado EN EJECUCIÓN.
_Se muestra como tarea_ | +| **ecs.containerinsights.running_task_count.maximum**
(count) | Número máximo de tareas actualmente en estado EN EJECUCIÓN.
_Se muestra como tarea_ | +| **ecs.containerinsights.running_task_count.minimum**
(count) | Número mínimo de tareas actualmente en estado EN EJECUCIÓN.
_Se muestra como tarea_ | +| **ecs.containerinsights.running_task_count.samplecount**
(count) | Recuento de muestra de las tareas actualmente en estado EN EJECUCIÓN.
_Se muestra como tarea_ | +| **ecs.containerinsights.running_task_count.sum**
(count) | Suma de tareas actualmente en estado EN EJECUCIÓN.
_Se muestra como tarea_ | +| **ecs.containerinsights.service_count**
(count) | Número de servicios en el clúster.
_Se muestra como servicio_ | +| **ecs.containerinsights.service_count.maximum**
(count) | Número máximo de servicios en el clúster.
_Se muestra como servicio_ | +| **ecs.containerinsights.service_count.minimum**
(count) | Número mínimo de servicios en el clúster.
_Se muestra como servicio_ | +| **ecs.containerinsights.service_count.samplecount**
(count) | Recuento de muestra de los servicios en el clúster.
_Se muestra como servicio_ | +| **ecs.containerinsights.service_count.sum**
(count) | Suma de servicios en el cluster.
_Se muestra como servicio_ | +| **ecs.containerinsights.storage_read_bytes**
(gauge) | Número de bytes leídos del almacenamiento en el recurso especificado para la dimensión elegida.
_Se muestra como bytes_ | +| **ecs.containerinsights.storage_read_bytes.maximum**
(gauge) | Número máximo de bytes leídos del almacenamiento en el recurso especificado para la dimensión elegida.
_Se muestra como bytes_ | +| **ecs.containerinsights.storage_read_bytes.minimum**
(gauge) | Número mínimo de bytes leídos del almacenamiento en el recurso especificado para la dimensión elegida.
_Se muestra como bytes_ | +| **ecs.containerinsights.storage_read_bytes.samplecount**
(gauge) | Recuento de muestra de bytes leídos del almacenamiento en el recurso especificado para la dimensión elegida.
_Se muestra como bytes_ | +| **ecs.containerinsights.storage_read_bytes.sum**
(gauge) | Suma de bytes leídos del almacenamiento en el recurso especificado para la dimensión elegida.
_Se muestra como bytes_ | +| **ecs.containerinsights.storage_write_bytes**
(gauge) | Número de bytes escritos en el almacenamiento en el recurso especificado para la dimensión elegida.
_Se muestra como bytes_ | +| **ecs.containerinsights.storage_write_bytes.maximum**
(gauge) | Número máximo de bytes escritos en el almacenamiento en el recurso especificado para la dimensión elegida.
_Se muestra como bytes_ | +| **ecs.containerinsights.storage_write_bytes.minimum**
(gauge) | Número mínimo de bytes escritos en el almacenamiento en el recurso especificado para la dimensión elegida.
_Se muestra como bytes_ | +| **ecs.containerinsights.storage_write_bytes.samplecount**
(gauge) | Recuento de muestra de bytes escritos en el almacenamiento en el recurso especificado para la dimensión elegida.
_Se muestra como bytes_ | +| **ecs.containerinsights.storage_write_bytes.sum**
(gauge) | Suma de bytes escritos en el almacenamiento en el recurso especificado para la dimensión elegida.
_Se muestra como bytes_ | +| **ecs.containerinsights.task_count**
(count) | Número de tareas en ejecución en el servicio.
_Se muestra como tarea_ | +| **ecs.containerinsights.task_count.maximum**
(count) | Número máximo de tareas en ejecución en el servicio.
_Se muestra como tarea_ | +| **ecs.containerinsights.task_count.minimum**
(count) | Número mínimo de tareas en ejecución en el servicio.
_Se muestra como tarea_ | +| **ecs.containerinsights.task_count.samplecount**
(count) | Recuento de muestra de tareas en ejecución en el servicio.
_Se muestra como tarea_ | +| **ecs.containerinsights.task_count.sum**
(count) | Suma de tareas en ejecución en el servicio.
_Se muestra como tarea_ | +| **ecs.containerinsights.task_set_count**
(count) | Número de conjuntos de tareas en el servicio.
_Se muestra como tarea_ | +| **ecs.containerinsights.task_set_count.maximum**
(count) | Número máximo de conjuntos de tareas en ejecución en el servicio.
_Se muestra como tarea_ | +| **ecs.containerinsights.task_set_count.minimum**
(count) | Número mínimo de conjuntos de tareas en ejecución en el servicio.
_Se muestra como tarea_ | +| **ecs.containerinsights.task_set_count.samplecount**
(count) | Recuento de muestra de conjuntos de tareas en el servicio.
_Se muestra como tarea_ | +| **ecs.containerinsights.task_set_count.sum**
(count) | Suma de conjuntos de tareas en el servicio.
_Se muestra como tarea_ | + +A cada una de las métricas recuperadas de AWS se le asignan las mismas etiquetas que aparecen en la consola de AWS, donde se incluyen el nombre del host y los grupos de seguridad, entre otras cosas. + +**Nota**: Las métricas prefijadas con `ecs.containerinsights.*` pueden recopilarse activando `Collect custom metrics` en la pestaña `Metric Collection` de la [página de la integración AWS](https://app.datadoghq.com/integrations/amazon-web-services). + +### Eventos + +Para reducir el ruido, la integración Amazon ECS se configura automáticamente para incluir sólo eventos que contengan las siguientes palabras: `drain`, `error`, `fail`, `insufficient memory`, `pending`, `reboot` `terminate`. Consulta el siguiente ejemplo de eventos: + +![Amazon ECS Events](images/aws_ecs_events.png) + +Para eliminar la lista de inclusión y recibir todos los eventos de tu integración con Datadog Amazon ECS, ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). + +### Checks de servicio + +**aws.ecs.agent_connected** + +Si el ECS Agent está conectado. + +_Estados: ok, crítico_ + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/amazon-elb.md b/content/es/integrations/amazon-elb.md new file mode 100644 index 00000000000..91928154f26 --- /dev/null +++ b/content/es/integrations/amazon-elb.md @@ -0,0 +1,213 @@ +--- +aliases: +- /es/integrations/amazon_elb +app_id: amazon-elb +categories: +- aws +- métricas +- nube +custom_kind: integración +description: Amazon ELB distribuye automáticamente el tráfico entre varias instancias + EC2. +media: [] +title: Equilibrio de carga de Amazon Elastic +--- +## Información general + +Amazon Elastic Load Balancing distribuye automáticamente el tráfico entrante de las aplicaciones entre varias instancias de Amazon EC2 en la nube. + +Datadog recopila métricas y metadatos de los tres tipos de Equilibradores de carga Elastic que ofrece AWS: Application (ALB), Classic (ELB) y Network Load Balancers (NLB). + +Habilita esta integración para ver en Datadog todas tus métricas de Equilibrio de carga Elastic. + +Nota: Esta integración requiere que los permisos 'ec2:describe*\*' y 'elasticloadbalancing:describe\*' estén completamente habilitados. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración Amazon Web Services](https://docs.datadoghq.com/integrations/amazon_web_services/). + +### Recopilación de métricas + +1. En la [página de la integración AWS](https://app.datadoghq.com/integrations/amazon-web-services), asegúrate de que `ApplicationELB`, `ELB` y `NetworkELB` están habilitados en la pestaña `Metric Collection`. +1. Instala la integración [Datadog - Amazon ELB](https://app.datadoghq.com/integrations/amazon-elb). + +### Recopilación de logs + +#### Habilitar el registro de Amazon ELB o ALB + +Habilita primero la generación de logs en tu ELB o ALB para recopilar logs. Los logs de ALB y ELB pueden escribirse en un bucket de Amazon S3 y [ser consumidos por una función Lambda](https://docs.datadoghq.com/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function). Para obtener más información, consulta [Habilitar logs de acceso para tu equilibrador de carga clásico](https://docs.aws.amazon.com/elasticloadbalancing/latest/classic/enable-access-logs.html). + +![amazon elb log enable](images/aws_elb_log_enable.png) + +Configura el intervalo en 5 minutos y define tu bucket de S3 y el prefijo. Para evitar tener una [configuración de notificación de eventos de S3 definida de forma ambigua](https://aws.amazon.com/premiumsupport/knowledge-center/lambda-s3-event-configuration-error/), asegúrate de utilizar una **ubicación única** que no se superponga con la ubicación de logs de ningún otro equilibrador de carga. Cuando varios equilibradores de carga generan logs en el mismo bucket, asegúrate de utilizar un **prefijo único**, como `my-bucket-for-elb-logs/my-elb-name`, para que sus logs se almacenen en ubicaciones separadas. + +![amazon elb log configuration](images/aws_elb_configure_log.png) + +#### Enviar logs a Datadog + +1. Si aún no lo has hecho, configura la [función Lambda del Datadog Forwarder](https://docs.datadoghq.com/logs/guide/forwarder/) en tu cuenta de AWS. +1. Una vez configurado, ve a la función Lambda del Datadog Forwarder. Configura tus activadores [automáticamente](https://docs.datadoghq.com/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#automatically-set-up-triggers) o [manualmente](https://docs.datadoghq.com/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-s3-buckets) en el bucket de S3 que contiene tus logs de ELB. Para la configuración manual, utiliza el tipo de evento `All object create events`. +1. Utiliza el [Explorador de logs](https://app.datadoghq.com/logs) para explorar tus logs. + +Para obtener más información sobre la recopilación de logs de servicios de AWS, consulta [Enviar logs de servicios de AWS con la función Lambda de Datadog](https://docs.datadoghq.com/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/). + +## Datos recopilados + +### Métricas + +| | | +| --- | --- | +| **aws.applicationelb.active_connection_count**
(count) | Número total de conexiones TCP simultáneas activas desde los clientes al equilibrador de carga y desde este a los destinos.
_Se muestra como conexión_ | +| **aws.applicationelb.client_tlsnegotiation_error_count**
(count) | Número de errores de negociación TLS
_Se muestra como error_ | +| **aws.applicationelb.consumed_lcus**
(gauge) | Número de unidades de capacidad del equilibrador de carga (LCU) utilizadas por tu equilibrador de carga.
_Se muestra como unidad_ | +| **aws.applicationelb.grpc_request_count**
(count) | Número de solicitudes gRPC procesadas a través de IPv4 e IPv6.
_Se muestra como solicitud_ | +| **aws.applicationelb.healthy_host_count**
(gauge) | Número medio de instancias sanas en cada zona de disponibilidad.
_Se muestra como host_ | +| **aws.applicationelb.healthy_host_count.maximum**
(gauge) | Número máximo de instancias sanas en cada zona de disponibilidad.
_Se muestra como host_ | +| **aws.applicationelb.healthy_host_count.minimum**
(gauge) | Número mínimo de instancias sanas en cada zona de disponibilidad.
_Se muestra como host_ | +| **aws.applicationelb.healthy_host_count_deduped**
(count) | Número de instancias sanas por zona de disponibilidad, independientemente de si la opción de balanceo de carga entre zonas está activada o no.
_Se muestra como host_ | +| **aws.applicationelb.ipv_6processed_bytes**
(count) | Número total de bytes procesados por el equilibrador de carga a través de IPv6.
_Se muestra como bytes_ | +| **aws.applicationelb.ipv_6request_count**
(count) | Número de solicitudes IPv6 recibidas por el equilibrador de carga.
_Se muestra como solicitud_ | +| **aws.applicationelb.new_connection_count**
(count) | Número total de nuevas conexiones TCP establecidas desde los clientes al equilibrador de carga y desde este a los destinos.
_Se muestra como conexión_ | +| **aws.applicationelb.processed_bytes**
(count) | Número total de bytes procesados por el equilibrador de carga a través de IPv4 e IPv6.
_Se muestra como bytes_ | +| **aws.applicationelb.rejected_connection_count**
(count) | Número de conexiones rechazadas debido a que el equilibrador de carga ha alcanzado su número máximo de conexiones.
_Se muestra como conexión_ | +| **aws.applicationelb.request_count**
(count) | Número total de solicitudes completadas que fueron recibidas y enrutadas a las instancias registradas. No incluye HTTP 460, HTTP 400 y algunos tipos de HTTP 503 y 500.
_Se muestra como solicitud_ | +| **aws.applicationelb.request_count_per_target**
(count) | Número medio de solicitudes recibidas por cada objetivo en un grupo de destino.
_Se muestra como solicitud_ | +| **aws.applicationelb.reserved_lcus**
(count) | Número de unidades de capacidad del equilibrador de carga (LCU) reservadas para el equilibrador de carga mediante LCU Reservation.
_Se muestra como unidad_ | +| **aws.applicationelb.rule_evaluations**
(count) | Número de reglas procesadas por el equilibrador de carga dada una tasa de solicitudes promediada durante una hora.| +| **aws.applicationelb.target_connection_error_count**
(count) | Número de conexiones que no se han establecido correctamente entre el equilibrador de carga y las instancias registradas.
_LCU Reservation como error_ | +| **aws.applicationelb.target_response_time.average**
(gauge) | Tiempo medio transcurrido desde que la solicitud abandona el equilibrador de carga hasta que se recibe una respuesta.
_Se muestra como segundos_ | +| **aws.applicationelb.target_response_time.maximum**
(gauge) | Tiempo máximo transcurrido desde que la solicitud abandona el equilibrador de carga hasta que se recibe una respuesta.
_Se muestra como segundos_ | +| **aws.applicationelb.target_response_time.p50**
(gauge) | Percentil 50 del tiempo transcurrido desde que la solicitud abandona el equilibrador de carga hasta que se recibe una respuesta.
_Se muestra como segundos_ | +| **aws.applicationelb.target_response_time.p90**
(gauge) | Percentil 90 del tiempo transcurrido desde que la solicitud abandona el equilibrador de carga hasta que se recibe una respuesta.
_Se muestra como segundos_ | +| **aws.applicationelb.target_response_time.p95**
(gauge) | Percentil 95 del tiempo transcurrido desde que la solicitud abandona el equilibrador de carga hasta que se recibe una respuesta.
_Se muestra como segundos_ | +| **aws.applicationelb.target_response_time.p99**
(gauge) | Percentil 99 del tiempo transcurrido desde que la solicitud abandona el equilibrador de carga hasta que se recibe una respuesta.
_Se muestra como segundos_ | +| **aws.applicationelb.un_healthy_host_count**
(gauge) | Número medio de instancias no sanas en cada zona de disponibilidad.
_Se muestra como host_ | +| **aws.applicationelb.un_healthy_host_count.maximum**
(gauge) | Número máximo de instancias no sanas en cada zona de disponibilidad.
_Se muestra como host_ | +| **aws.applicationelb.un_healthy_host_count.minimum**
(gauge) | Número mínimo de instancias no sanas en cada zona de disponibilidad.
_Se muestra como host_ | +| **aws.applicationelb.un_healthy_host_count_deduped**
(count) | Número de instancias no sanas por zona de disponibilidad, independientemente de si la opción de equilibrio de carga entre zonas está activada o no.
_Se muestra como host_ | +| **aws.elb.backend_connection_errors**
(rate) | Número de conexiones que no se han establecido correctamente entre el equilibrador de carga y las instancias registradas.
_Se muestra como error_ | +| **aws.elb.estimated_albactive_connection_count**
(count) | Número total estimado de conexiones TCP simultáneas activas desde los clientes al equilibrador de carga y desde este a los destinos.
_Se muestra como conexión_ | +| **aws.elb.estimated_albconsumed_lcus**
(gauge) | Número total estimado de unidades de capacidad del equilibrador de carga (LCU) utilizadas por un equilibrador de carga de aplicación.
_Se muestra como unidad_ | +| **aws.elb.estimated_albnew_connection_count**
(count) | Número total estimado de nuevas conexiones TCP establecidas desde los clientes al equilibrador de carga y desde este a los objetivos
_equilibrador como conexión_ | +| **aws.elb.estimated_processed_bytes**
(count) | Número total estimado de bytes procesados por un equilibrador de carga de aplicación.
_Se muestra como bytes_ | +| **aws.elb.healthy_host_count**
(gauge) | Número medio de instancias sanas en cada zona de disponibilidad.
_Se muestra como host_ | +| **aws.elb.healthy_host_count.maximum**
(gauge) | Número máximo de instancias sanas en cada zona de disponibilidad.
_Se muestra como host_ | +| **aws.elb.healthy_host_count.minimum**
(gauge) | Número mínimo de instancias sanas en cada zona de disponibilidad.
_Se muestra como host_ | +| **aws.elb.healthy_host_count_deduped**
(gauge) | Número de instancias sanas por zona de disponibilidad, independientemente de si la opción de equilibrio de carga entre zonas está activada o no.
_Se muestra como host_ | +| **aws.elb.httpcode_backend_2xx**
(rate) | Número de códigos de respuesta HTTP 2XX generados por instancias registradas.
_Se muestra como respuesta_ | +| **aws.elb.httpcode_backend_3xx**
(rate) | Número de códigos de respuesta HTTP 3XX generados por instancias registradas.
_Se muestra como respuesta_ | +| **aws.elb.httpcode_backend_4xx**
(rate) | Número de códigos de respuesta HTTP 4XX generados por instancias registradas.
_Se muestra como respuesta_ | +| **aws.elb.httpcode_backend_5xx**
(rate) | Número de códigos de respuesta HTTP 5XX generados por instancias registradas.
_Se muestra como respuesta_ | +| **aws.elb.httpcode_elb_4xx**
(rate) | Número de códigos de error de cliente HTTP 4XX generados por el equilibrador de carga.
_Se muestra como respuesta_ | +| **aws.elb.httpcode_elb_5_0_0**
(count) | Número de códigos de error HTTP 500 que se originan en el equilibrador de carga.
_Se muestra como respuesta_ | +| **aws.elb.httpcode_elb_5_0_2**
(count) | Número de códigos de error HTTP 502 que se originan en el equilibrador de carga.
_Se muestra como respuesta_ | +| **aws.elb.httpcode_elb_5_0_3**
(count) | Número de códigos de error HTTP 503 que se originan en el equilibrador de carga.
_Se muestra como respuesta_ | +| **aws.elb.httpcode_elb_5_0_4**
(count) | Número de códigos de error HTTP 504 que se originan en el equilibrador de carga.
_Se muestra como respuesta_ | +| **aws.elb.httpcode_elb_5xx**
(rate) | Número de códigos de error de cliente HTTP 5XX generados por el equilibrador de carga.
_Se muestra como respuesta_ | +| **aws.elb.latency**
(gauge) | Tiempo medio transcurrido desde que la solicitud abandona el equilibrador de carga hasta que se recibe una respuesta. (ELB v1)
_Se muestra como segundos_ | +| **aws.elb.latency.maximum**
(gauge) | Tiempo máximo transcurrido desde que la solicitud abandona el equilibrador de carga hasta que se recibe una respuesta. (ELB v1)
_Se muestra como segundos_ | +| **aws.elb.latency.minimum**
(gauge) | Tiempo mínimo transcurrido desde que la solicitud abandona el equilibrador de carga hasta que se recibe una respuesta. (ELB v1)
_Se muestra como segundos_ | +| **aws.elb.latency.p95**
(gauge) | Percentil 95 del tiempo transcurrido desde que la solicitud abandona el equilibrador de carga hasta que se recibe una respuesta. (ELB v1)
_Se muestra como segundos_ | +| **aws.elb.latency.p99**
(gauge) | Percentil 99 del tiempo transcurrido desde que la solicitud abandona el equilibrador de carga hasta que se recibe una respuesta. (ELB v1)
_Se muestra como segundos_ | +| **aws.elb.request_count**
(rate) | Número total de solicitudes completadas que se han recibido y enviado a instancias registradas.
_Se muestra como solicitud_ | +| **aws.elb.spillover_count**
(rate) | Número total de solicitudes rechazadas debido a que la cola estaba llena.
_Se muestra como solicitud_ | +| **aws.elb.spillover_count.maximum**
(rate) | Número máximo de solicitudes rechazadas debido a que la cola estaba llena.
_Se muestra como solicitud_ | +| **aws.elb.surge_queue_length**
(gauge) | Número máximo de solicitudes pendientes de envío a una instancia registrada.
_Se muestra como solicitud_ | +| **aws.elb.un_healthy_host_count**
(gauge) | Número medio de instancias no sanas en cada zona de disponibilidad.
_Se muestra como host_ | +| **aws.elb.un_healthy_host_count.maximum**
(gauge) | Número máximo de instancias no sanas en cada zona de disponibilidad.
_Se muestra como host_ | +| **aws.elb.un_healthy_host_count.minimum**
(gauge) | Número mínimo de instancias no sanas en cada zona de disponibilidad.
_Se muestra como host_ | +| **aws.elb.un_healthy_host_count_deduped**
(gauge) | Número de instancias no sanas por zona de disponibilidad, independientemente de si la opción de equilibrio de carga entre zonas está activada o no.
_Se muestra como host_ | +| **aws.networkelb.active_flow_count**
(gauge) | Número medio de conexiones activas establecidas desde clientes a destinos
_Se muestra como conexión_ | +| **aws.networkelb.active_flow_count.maximum**
(gauge) | Número máximo de conexiones activas establecidas desde clientes a destinos
_Se muestra como conexión_ | +| **aws.networkelb.active_flow_count.minimum**
(gauge) | Número mínimo de conexiones activas establecidas desde clientes a destinos
_Se muestra como conexión_ | +| **aws.networkelb.active_flow_count_tcp**
(count) | Número medio de flujos (o conexiones) TCP simultáneos desde clientes a destinos.
_Se muestra como conexión_ | +| **aws.networkelb.active_flow_count_tls**
(count) | Número medio de flujos (o conexiones) TLS simultáneos desde clientes a destinos.
_Se muestra como conexión_ | +| **aws.networkelb.active_flow_count_udp**
(count) | Número medio de flujos (o conexiones) UDP simultáneos desde clientes a destinos.
_Se muestra como conexión_ | +| **aws.networkelb.client_tlsnegotiation_error_count**
(count) | Número total de handshakes TLS que han fallado durante la negociación entre un cliente y un receptor TLS.
_Se muestra como error_ | +| **aws.networkelb.consumed_lcus**
(count) | Número de LCU utilizadas por el equilibrador de carga.
_Se muestra como unidad_ | +| **aws.networkelb.consumed_lcus_tcp**
(count) | Número de LCU utilizadas por el equilibrador de carga para TCP.
_Se muestra como unidad_ | +| **aws.networkelb.consumed_lcus_tls**
(count) | Número de LCU utilizadas por el equilibrador de carga para TLS.
_Se muestra como unidad_ | +| **aws.networkelb.consumed_lcus_udp**
(count) | Número de LCU utilizadas por el equilibrador de carga para UDP.
_Se muestra como unidad_ | +| **aws.networkelb.healthy_host_count**
(gauge) | Número medio de destinos sanos
_Se muestra como host_ | +| **aws.networkelb.healthy_host_count.maximum**
(gauge) | Número máximo de destinos sanos
_Se muestra como host_ | +| **aws.networkelb.healthy_host_count.minimum**
(gauge) | Número mínimo de destinos sanos
_Se muestra como host_ | +| **aws.networkelb.new_flow_count**
(count) | Número de nuevas conexiones TCP de clientes a destinos
_Se muestra como conexión_ | +| **aws.networkelb.new_flow_count_tcp**
(count) | Número total de nuevos flujos (o conexiones) TCP establecidos desde clientes a destinos en el periodo de tiempo.
_Se muestra como conexión_ | +| **aws.networkelb.new_flow_count_tls**
(count) | Número total de nuevos flujos (o conexiones) TLS establecidos desde clientes a destinos en el periodo de tiempo.
_Se muestra como conexión_ | +| **aws.networkelb.new_flow_count_udp**
(count) | Número total de nuevos flujos (o conexiones) UDP establecidos desde clientes a destinos en el periodo de tiempo.
_Se muestra como conexión_ | +| **aws.networkelb.peak_packets_per_second**
(gauge) | Tasa media más alta de paquetes de las seis ventanas de medición de 10 segundos en el periodo de tiempo.
_Se muestra como paquete_ | +| **aws.networkelb.port_allocation_error_count**
(count) | Número total de errores de asignación de puertos efímeros durante una operación de traducción de IP de cliente.
_Se muestra como error_ | +| **aws.networkelb.processed_bytes**
(count) | Número total de bytes procesados por el equilibrador de carga, incluidas las cabeceras TCP/IP.
_Se muestra como bytes_ | +| **aws.networkelb.processed_bytes_tcp**
(count) | Número total de bytes procesados por receptores TCP.
_Se muestra como bytes_ | +| **aws.networkelb.processed_bytes_tls**
(count) | Número total de bytes procesados por receptores TLS.
_Se muestra como bytes_ | +| **aws.networkelb.processed_bytes_udp**
(count) | Número total de bytes procesados por receptores UDP.
_Se muestra como bytes_ | +| **aws.networkelb.processed_packets**
(count) | Número total de paquetes procesados por el equilibrador de carga.
_Se muestra como paquete_ | +| **aws.networkelb.reserved_lcus**
(count) | Número de unidades de capacidad del equilibrador de carga (LCU) reservadas para el equilibrador de carga mediante LCU Reservation.
_Se muestra como unidad_ | +| **aws.networkelb.target_tlsnegotiation_error_count**
(count) | Número total de handshakes TLS que han fallado durante la negociación entre un receptor TLS y un destino.
_Se muestra como error_ | +| **aws.networkelb.tcpclient_reset_count**
(count) | Número de paquetes de reinicio (RST) creados por un cliente y enviados a un destino
_Se muestra como paquete_ | +| **aws.networkelb.tcpelbreset_count**
(count) | Número de paquetes de reinicio (RST) creados por un equilibrador de carga
_Se muestra como paquete_. | +| **aws.networkelb.tcptarget_reset_count**
(count) | Número de paquetes de reinicio (RST) creados por un destino y enviados a un cliente
_Se muestra como paquete_ | +| **aws.networkelb.un_healthy_host_count**
(gauge) | Número medio de destinos no saludables
_Se muestra como host_ | +| **aws.networkelb.un_healthy_host_count.maximum**
(gauge) | Número máximo de destinos no saludables
_Se muestra como host_ | +| **aws.networkelb.un_healthy_host_count.minimum**
(gauge) | Número mínimo de destinos no saludables
_Se muestra como host_ | +| **aws.applicationelb.desync_mitigation_mode_non_compliant_request**
(count) | Número de solicitudes que no cumplen con RFC 7230.
_Se muestra como solicitud_ | +| **aws.applicationelb.elb_auth_error**
(count) | Número de autenticaciones de usuarios que no se han podido completar debido a un error de configuración de una acción de autenticación, a que el equilibrador de carga no ha podido establecer una conexión con el IdP o que el equilibrador de carga no ha podido completar el flujo de autenticación debido a un error interno.
_Se muestra como error_ | +| **aws.applicationelb.elb_auth_failure**
(count) | Número de autenticaciones de usuario que no se han podido completar debido a que el IdP ha denegado el acceso al usuario o a que se ha utilizado un código de autorización más de una vez.
_Se muestra como error_ | +| **aws.applicationelb.elb_auth_latency**
(gauge) | Tiempo transcurrido, en milisegundos, para consultar al IdP el token de ID y la información de usuario. Si una o varias de estas operaciones fallan, este es el tiempo transcurrido hasta el fallo.
_Se muestra como milisegundos_ | +| **aws.applicationelb.elb_auth_refresh_token_success**
(count) | Número de veces que el equilibrador de carga ha actualizado correctamente afirmaciones de usuarios utilizando un token de actualización proporcionado por el IdP.
_Se muestra como realizado con éxito_ | +| **aws.applicationelb.elb_auth_success**
(count) | Número de acciones de autenticación exitosas.
_Se muestra como realizado con éxito_ | +| **aws.applicationelb.elb_authuser_claims_size_exceeded**
(count) | Número de veces que un IdP configurado ha devuelto afirmaciones de usuario que superaban los 11K bytes de tamaño.| +| **aws.applicationelb.httpcode_elb_3xx**
(count) | Número de códigos de redirección HTTP 3XX que se originan en el equilibrador de carga.
__Se muestra como respuesta_ | +| **aws.applicationelb.httpcode_elb_4xx**
(count) | Número de códigos de error de cliente HTTP 4XX generados por el equilibrador de carga.
_Se muestra como respuesta_ | +| **aws.applicationelb.httpcode_elb_5_0_0**
(count) | Número de códigos de error HTTP 500 que se originan en el equilibrador de carga.
_Se muestra como respuesta_ | +| **aws.applicationelb.httpcode_elb_5_0_2**
(count) | Número de códigos de error HTTP 502 que se originan en el equilibrador de carga.
_Se muestra como respuesta_ | +| **aws.applicationelb.httpcode_elb_5_0_3**
(count) | Número de códigos de error HTTP 503 que se originan en el equilibrador de carga.
_Se muestra como respuesta_ | +| **aws.applicationelb.httpcode_elb_5_0_4**
(count) | Número de códigos de error HTTP 504 que se originan en el equilibrador de carga.
_Se muestra como respuesta_ | +| **aws.applicationelb.httpcode_elb_5xx**
(count) | Número de códigos de error de cliente HTTP 5XX generados por el equilibrador de carga.
_Se muestra como respuesta_ | +| **aws.applicationelb.httpcode_redirect**
(count) | Número de acciones de redirección exitosas.
_Se muestra como respuesta_ | +| **aws.applicationelb.httpcode_target_2xx**
(count) | Número de códigos de respuesta HTTP 2XX generados por instancias registradas.
_Se muestra como respuesta_ | +| **aws.applicationelb.httpcode_target_3xx**
(count) | Número de códigos de respuesta HTTP 3XX generados por instancias registradas.
_Se muestra como respuesta_ | +| **aws.applicationelb.httpcode_target_4xx**
(count) | Número de códigos de respuesta HTTP 4XX generados por instancias registradas.
_Se muestra como respuesta_ | +| **aws.applicationelb.httpcode_target_5xx**
(count) | Número de códigos de respuesta HTTP 5XX generados por instancias registradas.
_Se muestra como respuesta_ | +| **aws.applicationelb.httpfixed_response**
(count) | Número de acciones de respuesta fija exitosas.
_Se muestra como respuesta_ | +| **aws.applicationelb.httpredirect**
(count) | Número de acciones de redireccionamiento exitosas.| +| **aws.applicationelb.httpredirect_url_limit_exceeded**
(count) | Número de acciones de redirección que no se han podido completar debido a que la URL de la cabecera de ubicación de la respuesta es superior a 8K.| +| **aws.applicationelb.lambda_internal_error**
(count) | Número de solicitudes a una función Lambda que han fallado debido a un problema interno del equilibrador de carga o AWS Lambda.
_Se muestra como sollicitud_ | +| **aws.applicationelb.lambda_target_processed_bytes**
(gauge) | Número total de bytes procesados por el equilibrador de carga para solicitudes y respuestas de una función Lambda.
_Se muestra como bytes_ | +| **aws.applicationelb.lambda_user_error**
(count) | Número de peticiones a una función Lambda que han fallado debido a un problema con la función Lambda.
_Se muestra como solicitud_ | +| **aws.applicationelb.non_sticky_request_count**
(count) | Número de solicitudes en las que el equilibrador de carga ha elegido un nuevo destino debido a que no ha podido utilizar una sesión fija existente.
_Se muestra como solicitud_ | +| **aws.applicationelb.target_tlsnegotiation_error_count**
(count) | Número de conexiones TLS iniciadas por el equilibrador de carga que no han establecido una sesión con el destino.
_Se muestra como conexión_ | +| **aws.elb.active_connection_count**
(count) | Número total de conexiones TCP simultáneas activas desde los clientes al equilibrador de carga y desde este a los destinos.
_Se muestra como conexión_ | +| **aws.elb.client_tlsnegotiation_error_count**
(count) | Número de errores de negociación TLS
_Se muestra como error_ | +| **aws.elb.consumed_lbcapacity_units**
(gauge) | Número de unidades de capacidad ELB consumidas.
_Se muestra como unidad_ | +| **aws.elb.consumed_lcus**
(gauge) | Número de unidades de capacidad del equilibrador de carga (LCU) utilizadas por tu equilibrador de carga.
_Se muestra como unidad_ | +| **aws.elb.httpcode_redirect**
(count) | Número de acciones de redirección exitosas.
_Se muestra como respuesta_ | +| **aws.elb.httpcode_target_2xx**
(count) | Número de códigos de respuesta HTTP 2XX generados por los destinos.
_Se muestra como respuesta_ | +| **aws.elb.httpcode_target_3xx**
(count) | Número de códigos de respuesta HTTP 3XX generados por los destinos.
_Se muestra como respuesta_ | +| **aws.elb.httpcode_target_4xx**
(count) | Número de códigos de respuesta HTTP 4XX generados por los destinos.
_Se muestra como respuesta_ | +| **aws.elb.httpcode_target_5xx**
(count) | Número de códigos de respuesta HTTP 5XX generados por los destinos.
_Se muestra como respuesta_ | +| **aws.elb.ipv_6processed_bytes**
(count) | Número total de bytes procesados por el equilibrador de carga a través de IPv6.
_Se muestra como bytes_ | +| **aws.elb.ipv_6request_count**
(count) | Número de solicitudes IPv6 recibidas por el equilibrador de carga.
_Se muestra como solicitud_ | +| **aws.elb.new_connection_count**
(count) | Número total de nuevas conexiones TCP establecidas desde los clientes al equilibrador de carga y desde este a los destinos.
_Se muestra como conexión_ | +| **aws.elb.processed_bytes**
(count) | Número total de bytes procesados por el equilibrador de carga a través de IPv4 e IPv6.
_Se muestra como bytes_ | +| **aws.elb.request_count_per_target**
(count) | Número medio de solicitudes recibidas por cada objetivo en un grupo de destino.
_Se muestra como solicitud_ | +| **aws.elb.rule_evaluations**
(count) | Número de reglas procesadas por el equilibrador de carga dada una tasa de solicitudes promediada durante una hora.| +| **aws.elb.target_connection_error_count**
(count) | Número de conexiones que no se han establecido correctamente entre el equilibrador de carga y las instancias registradas.
_Se muestra como error_ | +| **aws.elb.target_response_time.average**
(gauge) | Tiempo medio transcurrido desde que la solicitud abandona el equilibrador de carga hasta que se recibe una respuesta. Idéntico a `aws.applicationelb.target_response_time.average`.
_Se muestra como segundos_ | +| **aws.elb.target_response_time.maximum**
(gauge) | Tiempo máximo transcurrido desde que la solicitud abandona el equilibrador de carga hasta que se recibe una respuesta. Idéntico a `aws.applicationelb.target_response_time.maximum`.
_Se muestra como segundos_ | +| **aws.elb.target_response_time.p95**
(gauge) | Percentil 95 del tiempo transcurrido desde que la solicitud abandona el equilibrador de carga hasta que se recibe una respuesta. Idéntico a `aws.applicationelb.target_response_time.p95`.
_Se muestra como segundos_ | +| **aws.elb.target_response_time.p99**
(gauge) | Percentil 99 del tiempo transcurrido desde que la solicitud abandona el equilibrador de carga hasta que se recibe una respuesta. Idéntico a `aws.applicationelb.target_response_time.p99`.
_Se muestra como segundos_ | + +### Eventos + +La integración de Equilibrio de carga Amazon Elastic no incluye eventos. + +### Checks de servicio + +La integración de Equilibrio de carga Amazon Elastic no incluye checks de servicio. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/llm_observability/evaluations/managed_evaluations/agent_evaluations.md b/content/es/llm_observability/evaluations/managed_evaluations/agent_evaluations.md new file mode 100644 index 00000000000..dddc7500300 --- /dev/null +++ b/content/es/llm_observability/evaluations/managed_evaluations/agent_evaluations.md @@ -0,0 +1,270 @@ +--- +aliases: +- /es/llm_observability/evaluations/agent_evaluations +description: Aprende a configurar evaluaciones gestionadas para tus aplicaciones LLM. +further_reading: +- link: /llm_observability/terms/ + tag: Documentación + text: Conoce los términos y conceptos de LLM Observability +- link: /llm_observability/setup + tag: Documentación + text: Aprende a configurar la observabilidad de LLM +- link: https://www.datadoghq.com/blog/llm-observability-hallucination-detection/ + tag: Blog + text: Detecta alucinaciones en tus aplicaciones RAG LLM con Datadog LLM Observability +title: Evaluaciones del Agent +--- + +El Agent ayudan a garantizar que las aplicaciones basadas en LLM realizan las llamadas a las herramientas adecuadas y resuelven correctamente las solicitudes de los usuarios. Estos checks están diseñados para detectar modos de fallo habituales cuando los agents interactúan con herramientas, API o flujos de trabajo externos. + + +## Selección de herramientas + +Esta evaluación comprueba si el agent ha seleccionado correctamente las herramientas adecuadas para atender la solicitud del usuario. La elección incorrecta o irrelevante de herramientas provoca llamadas desperdiciadas, mayor latencia y tareas fallidas. + +### Resumen de la evaluación + +| **Tipo de tramo** | **Método** | **Definición** | +|---|---|---| +| Evaluado en **tramos LLM**| Evaluado mediante un LLM | Verifica que las herramientas elegidas por el LLM se ajustan a la solicitud del usuario y al conjunto de herramientas disponibles. Marca las llamadas a herramientas irrelevantes o incorrectas. | + +### Ejemplo + +{{< img src="llm_observability/evaluations/tool_selection_1.png" alt="Un error de selección de herramienta detectada por la evaluación en LLM Observability" style="width:100%;" >}} + +### Cómo utilizarlo +
La selección de herramientas solo está disponible para OpenAI y Azure OpenAI.
+ +1. Asegúrate de que estás ejecutando `dd-trace` v3.12+. +1. Instrumenta tu agent con las herramientas disponibles. El siguiente ejemplo utiliza el SDK de Agents de OpenAI para ilustrar cómo las herramientas se ponen a disposición del agent y de la evaluación: +1. Activa la evaluación `ToolSelection` en la interfaz de usuario de Datadog [creando una nueva evaluación][1] o [editando una evaluación existente][2]. + +Esta evaluación está admitida en `dd-trace` versión 3.12+. El siguiente ejemplo utiliza el SDK de Agents de OpenAI para ilustrar cómo las herramientas se ponen a disposición del agent y de la evaluación. Consulta el **[código completo y paquetes necesarios][3]** para ejecutar esta evaluación. + +{{< code-block lang="python" >}} +from ddtrace.llmobs import LLMObs +from agents import Agent, ModelSettings, function_tool + +@function_tool +def add_numbers(a: int, b: int) -> int: + """ + Adds two numbers together. + """ + return a + b + +@function_tool +def subtract_numbers(a: int, b: int) -> int: + """ + Subtracts two numbers. + """ + return a - b + + +# Lista de herramientas disponibles para el Agent +math_tutor_agent = Agent( + name="Math Tutor", + handoff_description="Specialist agent for math questions", + instructions="You provide help with math problems. Please use the tools to find the answer.", + model="o3-mini", + tools=[ + add_numbers, subtract_numbers + ], +) + +history_tutor_agent = Agent( + name="History Tutor", + handoff_description="Specialist agent for history questions", + instructions="You provide help with history problems.", + model="o3-mini", +) + +# El agent de triaje decide a qué agent especializado entregar la tarea, otro tipo de selección de herramientas cubierto por esta evaluación. +triage_agent = Agent( + 'openai:gpt-4o', + model_settings=ModelSettings(temperature=0), + instructions='What is the sum of 1 to 10?', + handoffs=[math_tutor_agent, history_tutor_agent], +) +{{< /code-block >}} + +### Solucionar problemas + +- Si ves con frecuencia llamadas a herramientas irrelevantes, revisa las descripciones de tus herramientas: pueden ser demasiado vagas para que el LLM las distinga. +- Asegúrate de incluir descripciones de las herramientas (es decir, las comillas que contienen la descripción de la herramienta bajo el nombre de la función, el sdk autoparsea esto como la descripción) + +## Corrección de los argumentos de la herramienta + +Aunque se seleccione la herramienta adecuada, los argumentos que se le pasen deben ser válidos y relevantes desde el punto de vista contextual. Los formatos de argumento incorrectos (por ejemplo, una cadena en lugar de un número entero) o los valores irrelevantes provocan fallos en la ejecución posterior. + +### Resumen de la evaluación + +| **Tipo de tramo** | **Método** | **Definición** | +|---|---|---| +| Evaluado en **tramos LLM** | Evaluado mediante un LLM | Verifica que los argumentos proporcionados a una herramienta son correctos y pertinentes según el esquema de la herramienta. Identifica argumentos no válidos o irrelevantes. | + +### Ejemplo + +{{< img src="llm_observability/evaluations/tool_argument_correctness_1.png" alt="Un error de argumento incorrecto de la herramienta detectado por la evaluación en LLM Observability" style="width:100%;" >}} + +##### Instrumentación + +Esta evaluación es compatible con `dd-trace` v3.12+. El siguiente ejemplo utiliza el SDK de Agents de OpenAI para ilustrar cómo las herramientas se ponen a disposición del agent y de la evaluación. Consulta el **[código completo y paquetes necesarios][4]** para ejecutar esta evaluación. + +### Cómo utilizarlo +
Los argumentos correctos de la herramienta solo están disponible para OpenAI y Azure OpenAI.
+ +1. Instala `dd-trace` v3.12+. +1. Instrumenta tu agent con herramientas disponibles que requieran argumentos. El siguiente ejemplo utiliza SDK de Agents de Pydantic AI para ilustrar cómo las herramientas se ponen a disposición del agent y de la evaluación: + +Activa la evaluación ToolArgumentCorrectness en la interfaz de usuario de Datadog [creando una nueva evaluación][1] o [editando una evaluación existente][2]. + +{{< code-block lang="python" >}} +import os + +from ddtrace.llmobs import LLMObs +from pydantic_ai import Agent + + +# Definir herramientas como funciones regulares con sugerencias de tipo +def add_numbers(a: int, b: int) -> int: + """ + Adds two numbers together. + """ + return a + b + + +def subtract_numbers(a: int, b: int) -> int: + """ + Subtracts two numbers. + """ + return a - b + + +def multiply_numbers(a: int, b: int) -> int: + """ + Multiplies two numbers. + """ + return a * b + + +def divide_numbers(a: int, b: int) -> float: + """ + Divides two numbers. + """ + return a / b + + +# Activar LLMObs +LLMObs.enable( + ml_app="jenn_test", + api_key=os.environ["DD_API_KEY"], + site=os.environ["DD_SITE"], + agentless_enabled=True, +) + + +# Crear el agent Math Tutor con herramientas +math_tutor_agent = Agent( + 'openai:gpt-5-nano', + instructions="You provide help with math problems. Please use the tools to find the answer.", + tools=[add_numbers, subtract_numbers, multiply_numbers, divide_numbers], +) + +# Crea el agent History Tutor (nota: gpt-5-nano no existe, utiliza gpt-4o-mini) +history_tutor_agent = Agent( + 'openai:gpt-5-nano', + instructions="You provide help with history problems.", +) + +# Crear el agent de triaje +# Nota: pydantic_ai gestiona los traspasos de forma diferente; normalmente se utiliza result_type +# o lógica personalizada para enrutar entre agents +triage_agent = Agent( + 'openai:gpt-5-nano', + instructions=( + 'DO NOT RELY ON YOUR OWN MATHEMATICAL KNOWLEDGE, ' + 'MAKE SURE TO CALL AVAILABLE TOOLS TO SOLVE EVERY SUBPROBLEM.' + ), + tools=[add_numbers, subtract_numbers, multiply_numbers, divide_numbers], +) + + +# Ejecutar el agent de forma sincrónica +result = triage_agent.run_sync( + ''' + Help me solve the following problem: + What is the sum of the numbers between 1 and 100? + Make sure you list out all the mathematical operations (addition, subtraction, multiplication, division) in order before you start calling tools in that order. + ''' +) +{{< /code-block >}} + +### Solucionar problemas +- Asegúrate de que tus herramientas utilizan sugerencias de tipos: la evaluación se basa en definiciones de esquemas. +- Asegúrate de incluir una descripción de la herramienta (por ejemplo, la descripción entre comillas bajo el nombre de la función), ya que se utiliza en el proceso de autoinstrumentación para analizar el esquema de la herramienta. +- Valida que tu prompt de LLM incluye suficiente contexto para la correcta construcción de argumentos. + + +## Cumplimiento de objetivos + +Un agent puede llamar a las herramientas correctamente y aun así no lograr el objetivo previsto por el usuario. Esta evaluación comprueba si tu chatbot de LLM puede llevar a cabo con éxito una sesión completa satisfaciendo eficazmente las necesidades del usuario de principio a fin. Esta medida de cumplimiento sirve como indicador de la satisfacción del usuario a lo largo de una interacción de varios turnos y es especialmente valiosa para las aplicaciones de chatbot de LLM. + +### Resumen de la evaluación +| **Tipo de tramo** | **Método** | **Definición** | +|---|---|---| +| Evaluado en tramos LLM | Evaluado mediante un LLM | Comprueba si el agent ha resuelto la intención del usuario analizando períodos de sesión completos. Solo se ejecuta en sesiones marcadas como completadas. | + +### Ejemplo +{{< img src="llm_observability/evaluations/goal_completeness_1.png" alt="Una evaluación de Cumplimiento de objetivos detectada por un LLM en LLM Observability" style="width:100%;" >}} + + +##### Cómo utilizarlo +
El cumplimiento de objetivos solo está disponible para OpenAI y Azure OpenAI.
+ +Para habilitar la evaluación de cumplimiento de objetivos, debes instrumentar tu aplicación para realizar un seguimiento de las sesiones y su estado de finalización. Esta evaluación analiza las sesiones completas para determinar si se han cumplido todas las intenciones del usuario. + +La evaluación requiere el envío de un tramo con una etiqueta específica cuando finaliza la sesión. Esta señal permite a la evaluación identificar los límites de la sesión y activar la evaluación de integridad: + +Para una precisión óptima de la evaluación y el control de costes, es preferible enviar una etiqueta cuando la sesión haya terminado y configurar la evaluación para que se ejecute solo en la sesión con esta etiqueta. La evaluación devuelve un desglose detallado que incluye las intenciones resueltas, las intenciones no resueltas y el razonamiento de la evaluación. Una sesión se considera incompleta si más del 50% de las intenciones identificadas siguen sin resolverse. + + +{{< code-block lang="python" >}} +from ddtrace.llmobs import LLMObs +from ddtrace.llmobs.decorators import llm + +# Llama a esta función cuando tu sesión haya terminado +@llm(model_name="model_name", model_provider="model_provider") +def send_session_ended_span(input_data, output_data) -> None: + """Send a span to indicate the chat session has ended.""" + LLMObs.annotate( + input_data=input_data, + output_data=output_data, + tags={"session_status": "completed"} + ) +{{< /code-block >}} + +Sustituye `session_status` y `completed` por la clave y el valor de etiqueta que prefieras. + +El tramo debe contener `input_data` y `output_data` significativos que representen el estado final de la sesión. Esto ayuda a la evaluación a comprender el contexto y los resultados de la sesión cuando se evalúa la integridad. + +##### Configuración del cumplimiento de los objetivos + +Después de instrumentar tu aplicación para enviar intervalos de fin de sesión, configura la evaluación para que se ejecute solo en sesiones con tu etiqueta específica. Este enfoque específico garantiza que la evaluación analice sesiones completas en lugar de interacciones parciales. + +1. Ve a la configuración de **Goal Completeness** (Cumplimiento de objetivos). +2. Configura los datos de evaluación: + - Selecciona **tramos** como tipo de datos, ya que Cumplimiento de objetivos se ejecuta en tramos LLM, que contiene el historial completo de la sesión. + - Elige el nombre de etiqueta asociado al tramo que corresponda a tu función de fin de sesión (por ejemplo, `send_session_ended_span`). + - En la sección **tags** (etiquetas), especifica la etiqueta que configuraste en tu instrumentación (por ejemplo, `session_status:completed`). + +Esta configuración garantiza que las evaluaciones se ejecuten solo en sesiones completas. Esto proporciona evaluaciones precisas de la resolución de la intención del usuario. + +### Solucionar problemas +- Si se omiten evaluaciones, comprueba que estás etiquetando correctamente los tramos de fin de sesión. +- Asegúrate de que tu agent está configurado para señalar el final del ciclo de solicitud de un usuario. + + +[1]: /es/llm_observability/evaluations/managed_evaluations/#create-new-evaluations +[2]: /es/llm_observability/evaluations/managed_evaluations/#edit-existing-evaluations +[3]: https://github.com/DataDog/llm-observability/blob/main/evaluation_examples/1-tool-selection-demo.py +[4]: https://github.com/DataDog/llm-observability/blob/main/evaluation_examples/2-tool-argument-correctness-demo.py \ No newline at end of file diff --git a/content/es/llm_observability/monitoring/agent_monitoring.md b/content/es/llm_observability/monitoring/agent_monitoring.md new file mode 100644 index 00000000000..77ccb1e8327 --- /dev/null +++ b/content/es/llm_observability/monitoring/agent_monitoring.md @@ -0,0 +1,38 @@ +--- +aliases: +- /es/llm_observability/agent_monitoring +further_reading: +- link: https://www.datadoghq.com/blog/openai-agents-llm-observability/ + tag: Blog + text: Monitorizar tus agents de OpenAI con Datadog LLM Observability +- link: https://www.datadoghq.com/blog/monitor-ai-agents/ + tag: Blog + text: Monitorizar, resolver problemas y mejorar los agents de IA con Datadog +- link: https://www.datadoghq.com/blog/llm-observability-bedrock-agents/ + tag: Blog + text: Monitorizar agents construidos en Amazon Bedrock con Datadog LLM Observability +title: Monitorización del Agent +--- + +## Información general + +LLM Observability te permite monitorizar, solucionar problemas y mejorar tus aplicaciones con agent. Con el SDK de LLM Observability para Python, puedes monitorizar el estado y calidad de tus sistemas de uno o múltiples agents construidos sobre [el SDK de Agents de OpenAI][1], [LangGraph][2], o [CrewAI][3]. + +Para tus aplicaciones con agent, LLM Observability te permite: + +- Monitorizar la tasa de error, acumulación de latencia o coste +- Visualizar las decisiones de los agents, como las herramientas utilizadas o el agent al que se ha encomendado una tarea +- Rastrear y solucionar las solicitudes de extremo a extremo de las ejecuciones de los agents + + +{{< callout url="http://www.datadoghq.com/product-preview/llm-observability" btn_hidden="false" header="Únete a la vista previa">}} +La visualización basada en gráficos de LLM para sistemas con agent está en vista previa. +{{< /callout >}} + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/llm_observability/setup/auto_instrumentation?tab=python#openai-agents +[2]: /es/llm_observability/setup/auto_instrumentation?tab=python#langgraph +[3]: /es/llm_observability/setup/auto_instrumentation?tab=python#crew-ai \ No newline at end of file diff --git a/content/es/logs/log_collection/agent_checks.md b/content/es/logs/log_collection/agent_checks.md new file mode 100644 index 00000000000..beff1a4cfdc --- /dev/null +++ b/content/es/logs/log_collection/agent_checks.md @@ -0,0 +1,224 @@ +--- +further_reading: +- link: /developers/integrations/agent_integration/ + tag: Documentación + text: Crear una integración basada en el Agent +- link: /logs/log_configuration/processors + tag: Documentación + text: Aprender a procesar tus logs +- link: /logs/log_configuration/parsing + tag: Documentación + text: Obtener más información sobre el análisis +- link: /logs/explorer/ + tag: Documentación + text: Aprender a explorar tus logs +- link: https://datadoghq.dev/integrations-core/base/api/#datadog_checks.base.checks.base.AgentCheck.send_log + tag: API de integración del Agent + text: Parámetros de la API send_logs +title: Recopilación de logs de la integración del Agent +--- + +## Información general + +Cuando desarrolles integraciones personalizadas del Agent, puedes enviar logs directamente al backend de ingesta de logs de Datadog utilizando el método `send_log`. Esto permite que tus checks personalizados emitan logs junto con métricas, eventos y checks de servicio. + +Este enfoque es útil tanto para extraer datos de logs de la aplicación o servicio supervisado como para capturar logs producidos a partir del propio check de integración. + +## Requisitos previos + +- Una integración o check personalizado del Agent. Consulta [Crear una integración basada en el Agent][1] para obtener instrucciones de configuración. +- El Datadog Agent instalado y en funcionamiento con [la recopilación de logs activada][2]. + +## Configuración + +Para habilitar el envío de logs desde tu check personalizado del Agent, debes configurar la recopilación de logs en el archivo de configuración de tu integración. + +1. Asegúrate de que la recopilación de logs está activada globalmente en el archivo de configuración principal del Agent (`datadog.yaml`): + ```yaml + logs_enabled: true + ``` + +2. Añade una sección `logs` al archivo de configuración de tu integración (por ejemplo, `conf.d/my_integration.d/conf.yaml`): + ```yaml + init_config: + + instances: + - + + logs: + - type: integration + source: + service: + ``` + + Donde: + - `type`: establécelo en `integration` para indicar que los logs son recopilados por una integración + - `source`: la fuente de logs (normalmente el nombre de tu integración) + - `service`: el nombre del servicio que se asociará a los logs (también puede ser el nombre de la integración si no se aplica nada más). + +3. [Reinicia el Agent][6] para aplicar los cambios de configuración. + +Una vez configurada, tu integración puede utilizar el [método`send_log`][7] para enviar logs. Estos logs se etiquetan con `source` y `service` especificados en la configuración. + +## Utilización del método send_log + +El método `send_log` está disponible en cualquier clase de `AgentCheck` y permite enviar entradas de log a Datadog. + +### Firma del método + +```python +send_log(data, cursor=None, stream='default') +``` + +### Parámetros + +| Parámetro | Tipo | Obligatorio | Descripción | +|-----------|------|----------|-------------| +| `data` | `dict[str, str]` | Sí | Los datos de log a enviar. Debe incluir al menos una clave `message`. | +| `cursor` | `dict[str, Any]` | No | Metadatos opcionales asociados al log, guardados en disco. Pueden recuperarse posteriormente con `get_log_cursor()`. | +| `stream` | `str` | No | Nombre del flujo asociado al log para la persistencia del cursor. Solo se utiliza si se proporciona `cursor`. Por defecto es `'default'`. | + +### Claves especiales en el diccionario de datos + +El diccionario `data` admite las siguientes claves especiales que el método `send_log` gestiona automáticamente: + +- `timestamp`: número de segundos desde el epoch Unix. Por defecto es la hora actual si no se indica. +- `ddtags`: cadena de etiquetas separadas por comas. Si no se proporciona, el Agent añade automáticamente las etiquetas de la configuración de la instancia de integración. + +Todas las demás claves del diccionario `data` se transmiten como atributos de log. Atributos comunes a incluir: + +- `message`: el contenido del mensaje de log +- `status`: nivel de estado del log (como `info`, `error`, `warning`, `debug`) +- `service`: nombre del servicio para el log (debe coincidir con el nombre del servicio en la configuración del check). +- `source`: fuente del log (normalmente tu nombre de integración; también debería coincidir con el nombre de fuente configurada) +- `hostname`: nombre de host asociado al log +- Cualquier campo personalizado relevante para tu integración + +## Ejemplo de uso + +### Envío básico de logs + +```python +from datadog_checks.base import AgentCheck +import time + +class MyCustomCheck(AgentCheck): + def check(self, instance): + # Submit a simple log message + self.send_log({ + 'message': 'Custom check executed successfully', + 'timestamp': time.time(), + 'status': 'info' + }) +``` + +### Registro estructurado con metadatos + +```python +from datadog_checks.base import AgentCheck +import time + +class MyCustomCheck(AgentCheck): + def check(self, instance): + # Submit a structured log with additional fields + self.send_log({ + 'message': 'Database query completed', + 'timestamp': time.time(), + 'status': 'info', + 'service': 'my-custom-integration', + 'source': 'custom_check', + 'query_duration_ms': 145, + 'rows_returned': 1024 + }) +``` + +### Utilización de cursores para el registro con estado + +Los cursores permiten mantener los metadatos a lo largo de los checks, lo que resulta útil para seguir el progreso o mantener el estado: + +```python +from datadog_checks.base import AgentCheck +import time + +class MyCustomCheck(AgentCheck): + def check(self, instance): + # Retrieve the last cursor for this stream + last_cursor = self.get_log_cursor('my_stream') + last_position = last_cursor.get('position', 0) if last_cursor else 0 + + # Process logs from the last position + new_logs = self.fetch_logs_since(last_position) + + for log in new_logs: + # Submit each log with an updated cursor + self.send_log( + data={ + 'message': log['message'], + 'timestamp': log['timestamp'], + 'status': log['level'] + }, + cursor={'position': log['position']}, + stream='my_stream' + ) +``` + +### Registro de errores + +```python +from datadog_checks.base import AgentCheck +import time + +class MyCustomCheck(AgentCheck): + def check(self, instance): + try: + # Your check logic here + self.perform_check() + except Exception as e: + # Log the error + self.send_log({ + 'message': f'Check failed: {str(e)}', + 'timestamp': time.time(), + 'status': 'error', + 'error_type': type(e).__name__, + 'service': 'my-custom-integration' + }) + raise +``` + +## Consultar tus logs + +Tras el envío, los logs de tu check personalizado aparecen en el [Log Explorer][3]. Puedes: + +- Filtrar logs por `source`, `service`, o etiquetas personalizadas +- Analizar los datos estructurados del log utilizando [pipelines de procesamiento de logs][4] +- Crear monitores y alertas basados en el contenido de logs +- Correlacionar logs con métricas y trazas de la misma integración + +## Prácticas recomendadas + +- **Utilizar registro** estructurado: incluye campos adicionales en el diccionario `data` en lugar de incrustar toda la información en la cadena del mensaje. +- **Establecer los niveles de estado adecuados**: utiliza `error`, `warning`, `info`, o `debug` para ayudar con el filtrado y las alertas. +- **Incluir marcas de tiempo**: proporciona siempre un `timestamp` para una ordenación precisa del log, especialmente al procesar datos históricos. +- **Etiquetar de forma coherente**: utiliza la misma estrategia de etiquetado en logs, métricas y eventos de tu integración. +- **Utilizar cursores para el procesamiento con estado**: cuando realices el seguimiento del progreso a través de las fuentes de log, utiliza cursores para evitar el reprocesamiento de los datos. + +## Solucionar problemas + +Si los logs no aparecen en Datadog: + +1. Comprueba que la recopilación de logs está activada en la configuración del Datadog Agent. +2. Comprueba los logs del Agent en busca de errores relacionados con el envío de logs. +3. Asegúrate de que tu diccionario `data` incluye al menos una clave `message`. +4. Ejecuta el [comando de estado del Agent][5] para confirmar que tu check se está realizando sin errores. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/developers/integrations/agent_integration/ +[2]: /es/agent/logs/?tab=tailfiles#activate-log-collection +[3]: /es/logs/explorer/ +[4]: /es/logs/log_configuration/processors +[5]: /es/agent/configuration/agent-commands/?tab=agentv6v7#agent-status-and-information +[6]: /es/agent/configuration/agent-commands/?tab=agentv6v7#restart-the-agent +[7]: https://datadoghq.dev/integrations-core/base/api/#datadog_checks.base.checks.base.AgentCheck.send_log \ No newline at end of file diff --git a/content/es/security/cloud_security_management/guide/agent_variables.md b/content/es/security/cloud_security_management/guide/agent_variables.md index 918df91383f..649ba6d9320 100644 --- a/content/es/security/cloud_security_management/guide/agent_variables.md +++ b/content/es/security/cloud_security_management/guide/agent_variables.md @@ -1,10 +1,10 @@ --- aliases: - /es/security/cloud_security_management/setup/agent_variables -title: Variables de Cloud Security Management en el Agent +title: Variables del Agent de Cloud Security --- -El Datadog Agent tiene varias variables de entorno que pueden ser habilitadas para Cloud Security Management. Este artículo describe el propósito de cada variable de entorno. +El Datadog Agent tiene varias variables de entorno que pueden ser habilitadas para Cloud Security. Este artículo describe el propósito de cada variable de entorno. @@ -13,34 +13,42 @@ El Datadog Agent tiene varias variables de entorno que pueden ser habilitadas pa - + - + - - + + - - + + - - - - - - - Habilita el subsistema de recopilación Software Bill of Materials (SBOM). - - - + + + + + + + + + + + + + + + + + + + - - + +
DD_COMPLIANCE_CONFIG_ENABLEDHabilita el Agent Cloud Security Posture Management (CSPM) (se ejecuta en el Security Agent).Habilita el Agent de Cloud Security Posture Management (CSPM) (se ejecuta en el Security Agent).
DD_COMPLIANCE_CONFIG_HOST_BENCHMARKS_ENABLEDHabilita puntos de referencia del host CSPM. Requiere el Agent CSPM. (DD_COMPLIANCE_CONFIG_ENABLED).Habilita las referencias de host de CSPM. Requiere el Agent de CSPM (DD_COMPLIANCE_CONFIG_ENABLED).
DD_RUNTIME_SECURITY_CONFIG_ENABLED Habilita Cloud Workload Security (CWS). Se debe habilitar para el System Probe y el Security Agent.DD_RUNTIME_SECURITY_CONFIG_ENABLEDHabilita Cloud Workload Security (CWS). Debe estar habilitado para System Probe y Security Agent.
DD_SYSTEM_PROBE_ENABLED Habilita el System Probe, que es un Agent complemento. De manera similar al Trace Agent o al Process Agent, admite diferentes funcionalidades en comparación con el Datadog Agent vainilla. Se utiliza principalmente con NPM y CWS.DD_SYSTEM_PROBE_ENABLEDHabilita el System Probe, que es un Agent complementario. Es similar al Trace Agent o al Process Agent, admite distintas funcionalidades de las que admite el Datadog Agent común. Se usa principalmente con NPM y CWS.
DD_RUNTIME_SECURITY_CONFIG_REMOTE
_CONFIGURATION_ENABLED
Habilita la Configuración remota de actualizaciones automáticas de reglas predeterminadas del Agent y de los despliegues automáticos de reglas predeterminadas del Agent.
DD_SBOM_ENABLED -
DD_SBOM_CONTAINER_IMAGE_ENABLED Habilita la recopilación SBOM de imágenes de contenedor.
DD_RUNTIME_SECURITY_CONFIG_REMOTE
_CONFIGURATION_ENABLED
Habilita Remote Configuration para las actualizaciones automáticas de las reglas predeterminadas del Agent y el despliegue automático de las reglas personalizadas del Agent.
DD_SBOM_ENABLEDHabilita el subsistema de recopilación Software Bill of Materials (SBOM).
DD_SBOM_CONTAINER_IMAGE_ENABLEDHabilita la recopilación SBOM en imágenes de contenedor.
DD_SBOM_HOST_ENABLEDHabilita la recopilación de SBOM en hosts.
DD_SBOM_CONTAINER_IMAGE_CONTAINER_EXCLUDEPermite hacer una lista de denegación con contenedores específicos de la recopilación SBOM.
DD_SBOM_HOST_ENABLEDHabilita la recopilación SBOM en hosts.DD_SBOM_CONTAINER_IMAGE_CONTAINER_INCLUDEPermite hacer una lista de permitidos con contenedores específicos en la recopilación SBOM.
\ No newline at end of file diff --git a/content/ja/integrations/crest_data_systems_datarobot.md b/content/ja/integrations/crest_data_systems_datarobot.md new file mode 100644 index 00000000000..69720e38a6f --- /dev/null +++ b/content/ja/integrations/crest_data_systems_datarobot.md @@ -0,0 +1,169 @@ +--- +algolia: + subcategory: Marketplace インテグレーション +app_id: crest-data-systems-datarobot +app_uuid: 144ff7c9-134e-4075-90c3-bda4f1081c7b +assets: + dashboards: + CDS DataRobot - Deployments: assets/dashboards/cds_datarobot_deployments.json + CDS DataRobot - LLM: assets/dashboards/cds_datarobot_llm.json + CDS DataRobot - Models: assets/dashboards/cds_datarobot_models.json + CDS DataRobot - Overview: assets/dashboards/cds_datarobot_overview.json + CDS DataRobot - Predictions: assets/dashboards/cds_datarobot_predictions.json + CDS DataRobot - Use Cases: assets/dashboards/cds_datarobot_use_cases.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: cds.datarobot.deployments.totalPredictions + metadata_path: metadata.csv + prefix: cds.datarobot + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 28626114 + source_type_name: crest_data_systems_datarobot +author: + homepage: https://www.crestdata.ai + name: Crest Data + sales_email: datadog-sales@crestdata.ai + support_email: datadog.integrations@crestdata.ai + vendor_id: crest-data-systems +categories: +- marketplace +- ai/ml +custom_kind: integration +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: crest_data_systems_datarobot +integration_id: crest-data-systems-datarobot +integration_title: DataRobot +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: crest_data_systems_datarobot +pricing: +- billing_type: flat_fee + includes_assets: true + product_id: datarobot + short_description: 月額の定額料金。 + unit_price: 200.0 +public_title: DataRobot +short_description: DataRobot のデータを可視化します。 +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::Marketplace + - Category::AI/ML + - Offering::Integration + - Submitted Data Type::Logs + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: DataRobot のデータを可視化します。 + media: + - caption: CDS DataRobot - Overview + image_url: images/cds_datarobot_overview.png + media_type: image + - caption: CDS DataRobot - Deployments + image_url: images/cds_datarobot_deployments.png + media_type: image + - caption: CDS DataRobot - Models + image_url: images/cds_datarobot_models.png + media_type: image + - caption: CDS DataRobot - Prediction + image_url: images/cds_datarobot_prediction.png + media_type: image + - caption: CDS DataRobot - LLM + image_url: images/cds_datarobot_llm.png + media_type: image + - caption: CDS DataRobot - Use Cases + image_url: images/cds_datarobot_use_cases.png + media_type: image + overview: README.md#Overview + support: README.md#Support + title: DataRobot + uninstallation: README.md#Uninstallation +--- + + + +## 概要 +[**DataRobot**][1] は、機械学習を用いてモデルの構築・デプロイ・運用管理までのプロセスを自動化する AI プラットフォームです。あらゆる規模の組織が AI を活用してビジネス成果を高められるように設計されています。DataRobot を利用することで、ユーザーは自社のデータセットに対して予測を行うモデルを作成・デプロイできるだけでなく、機械学習ワークフロー向けのカスタム ブループリントも設計できます。 + +このインテグレーションを使うと、DataRobot のデータを Datadog でメトリクスやログとしてシームレスに収集・可視化できます。次のコンポーネントを構成できます: + +**インベントリ データ**: + + +- デプロイ + - 依存コンポーネント: BatchServiceStats, Accuracy, ServiceStatsOverTime, ServiceStats [Metric Ingestion], PredictionsVsActualsOverTime, HumilityStatsOverTime, FeatureDrift, TargetDrift +- LLM + - 関連コンポーネント: LLMApiCalls [Metric Ingestion] +- プロジェクト + - 依存コンポーネント: Models + - プロジェクトとモデルの依存コンポーネント: ModelDetails, NumIterationsTrained, MissingReport, Features, CrossValidationScores +- ModelPackages +- ExternalDataSources +- ExternalDataDrivers +- ExternalDataStores +- BatchPredictions + +**非インベントリ データ**: + +- UseCases + - 依存コンポーネント: Data, Projects +- LLMBlueprints +- Playground + +このインテグレーションには、あらかじめ用意されたダッシュボードが 6 つ含まれています: + + 1. **Use Cases**: UseCases の統計を監視・可視化し、関連するデータセットやプロジェクトも含めて確認できます。 + + 2. **Deployments**: ユーザーが指定した `interval_for_inventory` 間隔で収集された Deployments の概要を表示します。 + + 3. **Models**: ユーザーが指定した `interval_for_inventory` 間隔で収集されたモデルの統計情報を監視します。 + + 4. **LLM**: ユーザーが指定した `interval_for_inventory` 間隔で収集された LLM 関連情報の概要を表示します。 + + 5. **Predictions**: ユーザーが指定した `interval_for_inventory` 間隔で収集された予測関連情報の概要を表示します。 + + 6. **Overview**: ユーザーが指定した `interval_for_inventory` 間隔で収集された Playgrounds、ExternalDataSources、ExternalDataStores、ExternalDataDrivers のデータを集約して表示します。 + +## サポート +サポートまたは機能リクエストをご希望の場合は、以下のチャンネルから Crest Data にお問い合わせください。 + +- サポート用メール: [datadog.integrations@crestdata.ai][10] + +- 営業メール: [datadog-sales@crestdata.ai][11] + +- Web サイト: [crestdata.ai][12] + +- よくあるご質問: [Crest Data Datadog Marketplace インテグレーションのよくあるご質問][3] + + +[1]: https://www.datarobot.com/ +[2]: https://docs.crestdata.ai/datadog-integrations-readme/Datarobot.pdf +[3]: https://docs.crestdata.ai/datadog-integrations-readme/Crest_Data_Datadog_Integrations_FAQ.pdf +[4]: https://docs.datadoghq.com/ja/agent/?tab=Linux +[5]: https://app.datarobot.com/ +[6]: https://docs.datadoghq.com/ja/agent/guide/agent-configuration-files/?tab=agentv6v7 +[7]: https://docs.datadoghq.com/ja/account_management/api-app-keys +[8]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/?tab=agentv6v7#start-stop-and-restart-the-agent +[9]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information +[10]: mailto:datadog.integrations@crestdata.ai +[11]: mailto:datadog-sales@crestdata.ai +[12]: https://www.crestdata.ai/ +--- +このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。利用するには、Marketplace でこのアプリケーションを購入してください。 \ No newline at end of file diff --git a/content/ja/integrations/crest_data_systems_integration_backup_and_restore_tool.md b/content/ja/integrations/crest_data_systems_integration_backup_and_restore_tool.md new file mode 100644 index 00000000000..ba4baed1c1d --- /dev/null +++ b/content/ja/integrations/crest_data_systems_integration_backup_and_restore_tool.md @@ -0,0 +1,123 @@ +--- +algolia: + subcategory: Marketplace インテグレーション +app_id: crest-data-systems-integration-backup-and-restore-tool +app_uuid: bac70338-c588-4766-90ea-3ca10fe259d1 +assets: + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 28271702 + source_type_name: crest_data_systems_integration_backup_and_restore_tool +author: + homepage: https://www.crestdata.ai + name: Crest Data + sales_email: datadog-sales@crestdata.ai + support_email: datadog.integrations@crestdata.ai + vendor_id: crest-data-systems +categories: +- marketplace +custom_kind: integration +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: crest_data_systems_integration_backup_and_restore_tool +integration_id: crest-data-systems-integration-backup-and-restore-tool +integration_title: Backup and Restore Tool +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: crest_data_systems_integration_backup_and_restore_tool +pricing: +- billing_type: flat_fee + includes_assets: true + product_id: integration-backup-and-restore-tool + short_description: Integration Backup and Restore Tool (IBRT) インテグレーション向けの料金は、月額の定額制です。 + unit_price: 499.0 +public_title: Integration Backup and Restore Tool +short_description: Agent の設定ファイル、インテグレーション、および依存関係をすべてバックアップし、必要に応じてすばやくリストアできます。 +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::Marketplace + - Offering::Integration + configuration: README.md#Setup + description: Agent の設定ファイル、インテグレーション、および依存関係をすべてバックアップし、必要に応じてすばやくリストアできます。 + media: + - caption: Integration Backup and Restore Overview + image_url: images/integration_backup_restore_overview.png + media_type: image + overview: README.md#Overview + support: README.md#Support + title: Integration Backup and Restore Tool + uninstallation: README.md#Uninstallation +--- + + + + +## 概要 + +Integration Backup and Restore Tool (IBRT) を使って、Datadog での体験をさらにレベルアップしましょう。この強力なツールにより、Datadog の設定を簡単にバックアップできるため、Agent のアップグレードや移行後でも、すぐに元の構成を復元できます。 + +### 機能 + +- Datadog の設定を、次の内容も含めて丸ごとバックアップします。 + - インテグレーション + - 依存関係 + - 設定ファイル (例: 各インテグレーションの `datadog.yaml` や `conf.yaml` など) +- 複数のバックアップ先に対応しており、用途に合わせて最適な場所にバックアップを保存できます。 +- 柔軟なバックアップ スケジュール: + - 必要なタイミングでオンデマンド バックアップを実行できます。 + - 要件に応じて、定期バックアップを自動実行するようにスケジュールできます。 +- リストア時には、次のようなオプションを選択できます。 + 1. **Agent の移行または再インストール**: すべてのインテグレーションをインストールし、各インテグレーションの `conf.yaml` や `datadog.yaml` などの YAML ファイルをコピーして、スムーズな移行を実現します。 + 2. **Agent のアップグレード**: インテグレーションを YAML 設定としてインストールし、アップグレード処理の間も依存関係を保持します。 + +### サポートされているバックアップ先 + +- ローカル マシン +- リモート マシン +- クラウド サービス: + - AWS S3 バケット + - Azure Blob Storage + - Google Cloud Storage + +### 使いやすさ + +手作業でのインストールや設定が必要な従来型のバックアップ方法とは異なり、IBRT はシンプルで便利なバックアップ手段を提供します。Agent レベルでオンデマンド コマンドを実行して Datadog の設定をすぐにバックアップしたり、要件に合わせて定期バックアップを自動実行するようスケジュールしたりできます。さらに、バックアップからのリストアも同じくらい簡単で、1 つのスクリプトを実行するだけで設定を元どおりに復元できます。 + +## サポート + +サポートまたは機能リクエストをご希望の場合は、以下のチャンネルから Crest Data にお問い合わせください。 + +* サポートメール: [datadog.integrations@crestdata.ai][7] +* 営業メール: [datadog-sales@crestdata.ai][8] +* Web サイト: [crestdata.ai][3] +* よくあるご質問: [Crest Data Datadog Marketplace インテグレーションのよくあるご質問][6] + +[1]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/?tab=agentv6v7#start-stop-and-restart-the-agent +[2]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information +[3]: https://www.crestdata.ai/ +[4]: https://docs.crestdata.ai/datadog-integrations-readme/IBRT.pdf +[5]: https://docs.datadoghq.com/ja/agent/ +[6]: https://docs.crestdata.ai/datadog-integrations-readme/Crest_Data_Datadog_Integrations_FAQ.pdf +[7]: mailto:datadog.integrations@crestdata.ai +[8]: mailto:datadog-sales@crestdata.ai + +--- +このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。利用するには、Marketplace でこのアプリケーションを購入してください。 \ No newline at end of file diff --git a/content/ja/integrations/harness_harness_notifications.md b/content/ja/integrations/harness_harness_notifications.md new file mode 100644 index 00000000000..709f510b784 --- /dev/null +++ b/content/ja/integrations/harness_harness_notifications.md @@ -0,0 +1,114 @@ +--- +app_id: harness-harness-notifications +app_uuid: 0194c0d4-f822-7117-be7a-1ed1ccf587e7 +assets: + dashboards: + Harness Notifications Integration Overview: assets/dashboards/harness_notifications_integration_overview.json + integration: + auto_install: true + events: + creates_events: true + process_signatures: [] + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 38607293 + source_type_name: harness_notifications +author: + homepage: https://www.harness.io/ + name: Harness + sales_email: sales@harness.io + support_email: support@harness.io + vendor_id: harness +categories: +- notifications +- event management +- alerting +custom_kind: integration +dependencies: +- https://github.com/DataDog/integrations-extras/blob/master/harness_harness_notifications/README.md +display_on_public_website: true +draft: false +git_integration_title: harness_harness_notifications +integration_id: harness-harness-notifications +integration_title: Harness Notifications +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: harness_harness_notifications +public_title: Harness Notifications +short_description: Harness のパイプライン通知を Datadog Events に取り込む +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Notifications + - Category::Event Management + - Category::Alerting + - Offering::Integration + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Submitted Data Type::Events + configuration: README.md#Setup + description: Harness のパイプライン通知を Datadog Events に取り込む + media: + - caption: Datadog の Harness Notifications Integration Overview ダッシュ ボード + image_url: images/Screenshot 2025-03-05 at 11.45.07 PM-2560x1440.png + media_type: image + - caption: Datadog に取り込まれた Harness のパイプライン通知 + image_url: images/Screenshot 2025-03-05 at 9.18.27 AM-2560x1440.png + media_type: image + - caption: Harness で通知対象のパイプライン イベントを選択する + image_url: images/Screenshot 2025-02-03 at 2.34.46 PM-2560x1440.png + media_type: image + overview: README.md#Overview + support: README.md#Support + title: Harness Notifications + uninstallation: README.md#Uninstallation +--- + + + + +## 概要 + +Harness は、エンジニアや DevOps チームが必要なときにソフトウェアをビルド、テスト、デプロイし、検証まで行えるセルフ サービス型の CI/CD プラットフォームです。このインテグレーションを使うと、Harness のパイプライン イベント通知を Datadog にシームレスに送信でき、既存のモニタリング ワークフローの中で重要なパイプライン更新をリアル タイムに把握できます。これらの通知は Datadog の [Events Explorer][1] で確認でき、標準で用意されているダッシュ ボードにも表示されます。 + +**注**: Datadog 通知を Harness 内で設定する機能は Feature Flag によって制御されています。機能を有効化するには [Harness サポート][2] に問い合わせてください。このインテグレーションの詳細については [Harness ドキュメント][3] を参照してください。 + +## セットアップ + +インテグレーションをインストールすると、これらのイベントには `source:harness_notifications` というタグが付きます。 + +### Harness で Datadog パイプライン通知を設定する + +1. Harness の Pipeline Studio で、右側のサイドバーにある **Notify** をクリックします。 +2. 新しいチャネルを作成するには、**+ Notifications** をクリックします。 +3. Datadog 通知チャネルの名前を入力します。 +4. 監視したい Pipeline Events を選択します。 +5. Notification Method で、Channel Type として **Datadog(/v1/events API)** を選択します。 +6. Datadog の URL を入力します。末尾は `/api/v1/events` にする必要があります (例 : `https://app.datadoghq.com/api/v1/events/`)。 +7. [Datadog API キー][4] を入力します。 +8. (任意) 必要に応じてヘッダーを追加します。 +9. 設定をテストし、**Finish** をクリックします。 + +## アンインストール + +Notifications ページから、通知チャネルを有効化・無効化したり、削除したりできます。 +- 通知ルールを有効化または無効化するには、**Enabled** スイッチを切り替えます。 +- 削除するには、その他のオプションで **:** を選択し、**Delete** をクリックします。 + + +## サポート + +サポートが必要な場合は [Harness サポート][5]にお問い合わせください。 + + +[1]: https://docs.datadoghq.com/ja/service_management/events/explorer/ +[2]: mailto:support@harness.io +[3]: https://developer.harness.io/docs/continuous-delivery/x-platform-cd-features/cd-steps/notify-users-of-pipeline-events/#datadog-notifications +[4]: https://docs.datadoghq.com/ja/account_management/api-app-keys/ +[5]: https://www.harness.io/support \ No newline at end of file diff --git a/content/ja/integrations/iocs_dp2i.md b/content/ja/integrations/iocs_dp2i.md new file mode 100644 index 00000000000..4bbe75f09f2 --- /dev/null +++ b/content/ja/integrations/iocs_dp2i.md @@ -0,0 +1,144 @@ +--- +algolia: + subcategory: Marketplace インテグレーション +app_id: iocs-dp2i +app_uuid: 30256b66-a6d2-4a19-a952-0c0473e4532d +assets: + dashboards: + 'PayPal® Billing Plan & Subscription: Activity Overview': assets/dashboards/PayPalBillingPlanSubscription_ActivityOverview.json + 'PayPal® Execs: Transactions and Revenue': assets/dashboards/PayPalExecs_TransactionsandRevenue.json + 'PayPal® Merchant: Integration and Migration': assets/dashboards/PayPalMerchant_IntegrationandMigration.json + 'PayPal® Payment and Checkout: Activity Overview': assets/dashboards/PayPalPaymentandCheckout_ActivityOverview.json + 'PayPal® Payouts: Activity Overview': assets/dashboards/PayPalPayouts_ActivityOverview.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: ioconnect.paypal.agent + metadata_path: metadata.csv + prefix: ioconnect.paypal + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 26186824 + source_type_name: iocs_dp2i + monitors: + PayPal® High Transaction Volume Monitor: assets/monitors/PayPalHighTransactionVolumeMonitor.json + PayPal® Revenue Drop Monitor: assets/monitors/PayPalRevenueDropMonitor.json + PayPal® Transaction Failure Rate Monitor: assets/monitors/PayPalTransactionFailureRateMonitor.json +author: + homepage: https://www.novacloud.io/ + name: Nova + sales_email: products.sales@novacloud.io + support_email: support_ddp@novacloud.io + vendor_id: ioconnect +categories: +- marketplace +- cost management +- cloud +custom_kind: integration +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: iocs_dp2i +integration_id: iocs-dp2i +integration_title: Paypal® +integration_version: '' +is_public: true +legal_terms: + eula: assets/eula.pdf +manifest_version: 2.0.0 +name: iocs_dp2i +pricing: +- billing_type: flat_fee + includes_assets: true + product_id: dp2i + short_description: 月額固定料金 + unit_price: 5.0 +public_title: Paypal® +short_description: Datadog で PayPal® からメトリクスを収集します。 +supported_os: +- linux +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Category::Marketplace + - Category::Cost Management + - Category::Cloud + - Offering::Integration + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: Datadog で PayPal® からメトリクスを収集します。 + media: + - caption: 'PayPal® 経営層向け: トランザクションと売上ダッシュボード' + image_url: images/PayPalExecsTransactionsAndRevenueDashboard.png + media_type: image + - caption: 'PayPal® 請求プラン & サブスクリプション: アクティビティ概要' + image_url: images/PayPalBillingPlanSubscriptionActivityOverview.png + media_type: image + - caption: 'PayPal® マーチャント: インテグレーションと移行' + image_url: images/PayPalMerchant_IntegrationandMigration.png + media_type: image + - caption: 'PayPal® 決済および Checkout: アクティビティ概要' + image_url: images/PayPalPaymentandCheckout_ActivityOverview.png + media_type: image + - caption: 'PayPal® Payouts: アクティビティ概要' + image_url: images/PayPalPayoutsActivityOverview.png + media_type: image + overview: README.md#Overview + support: README.md#Support + title: Paypal® + uninstallation: README.md#Uninstallation +--- + + + + +## 概要 + +**Agent ベース**の Datadog インテグレーションにより、PayPal® イベントから強力なインサイトを引き出せます。PayPal® は、世界中のビジネスが支払い処理、トランザクション管理、さまざまな財務オペレーションを行えるオンライン ペイメント プラットフォームです。このインテグレーションを使うと、PayPal® トランザクションから 100 を超えるメトリクスを監視・可視化でき、充実した分析とモニタリングを実現します。[PayPal® の詳細][6]。 + +主な機能: + +- **モニタリング**: 支払いトランザクション、返金、オーソリゼーション、顧客アクティビティを追跡・分析し、PayPal® データの状況を即座に把握できます。 +- **包括的なメトリクス カバレッジ**: PayPal® から 100 を超える主要イベントにアクセスし、支払いトレンド、エラー レート、財務パフォーマンスに関するインサイトを得られます。 +- **あらかじめ用意されたダッシュボードとモニター**: 柔軟にカスタマイズ可能なダッシュボードをすぐにデプロイし、異常を検知してビジネスへ影響が及ぶ前に潜在的な問題へ対処するためのモニターを設定できます。 +- **シームレスなデータ ハンドリング**: Webhook 経由で PayPal® イベントを受信し、メッセージ ブローカー (ActiveMQ) でデータを処理して Datadog に送信することで、レイテンシを抑えつつ信頼性の高いモニタリングを実現します。 +- **スケーラブルで信頼性の高い設計**: 大量の PayPal® イベントを処理できるため、成長段階にあるビジネスでも、PayPal® Webhook から必要なイベントだけを選択して、正確かつタイムリーなデータ レポーティングに活用できます。 + +このインテグレーションを最大限に活用し、PayPal® イベント データを実行可能なインサイトへと変換することで、自信を持ってデータ ドリブンな意思決定を行えるようになります。 + +**セキュリティに関する注意**: +このインテグレーションは、クレジット カード情報や個人の顧客データなどの機微な支払い情報を保存・処理しません。取得するのは、イベント タイプをカウント メトリクスとして、また支払いインテント トランザクションの金額をゲージ メトリクスとして集計したデータのみです。金融データの安全性は維持され、PCI-DSS などの業界規制へのコンプライアンスも確保されます。 + +## 収集データ + +### メトリクス +{{< get-metrics-from-git "iocs_dp2i" >}} + +### イベント + +Datadog Paypal インテグレーションには、イベントは含まれません。 + +## サポート + +サポートや機能リクエストは、次の窓口から Nova Support へご連絡ください: + +- [support_ddp@novacloud.io][2] + +[1]: https://app.datadoghq.com/account/settings#agent/overview +[2]: mailto:support_ddp@novacloud.io +[3]: https://docs.datadoghq.com/ja/agent/autodiscovery/integrations +[4]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#restart-the-agent +[5]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/?tab=agentv6v7#agent-information +[6]: https://developer.paypal.com/home/ +[7]: https://app.datadoghq.com/account/settings/agent/latest +[8]: https://github.com/DataDog/integrations-core/blob/master/iocs_dpi/metadata.csv +[9]: https://github.com/DataDog/integrations-core/blob/master/iocs_dpi/service_checks.json +[10]: https://www.paypal.com/signin + +--- +このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。利用するには、Marketplace でこのアプリケーションを購入してください。 \ No newline at end of file diff --git a/content/ja/software_catalog/customize.md b/content/ja/software_catalog/customize.md new file mode 100644 index 00000000000..abcb9723cd9 --- /dev/null +++ b/content/ja/software_catalog/customize.md @@ -0,0 +1,156 @@ +--- +aliases: +- /ja/software_catalog/manage_entries/ +- /ja/software_catalog/enrich_default_catalog/ +- /ja/service_catalog/manage_entries/ +- /ja/service_catalog/enrich_default_catalog/ +- /ja/service_catalog/customize/ +- /ja/software_catalog/best-practices +- /ja/software_catalog/guides/best-practices +- /ja/service_catalog/guides/best-practices +- /ja/service_catalog/use_cases/best_practices +- /ja/software_catalog/use_cases/best_practices +further_reading: +- link: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/service_definition_yaml + tag: 外部サイト + text: Terraform によるサービス定義の作成と管理 +- link: /api/latest/service-definition/ + tag: API + text: サービス定義 API について +- link: /integrations/github + tag: ドキュメント + text: GitHub インテグレーションについて +- link: https://www.datadoghq.com/blog/service-catalog-backstage-yaml/ + tag: ブログ + text: Backstage の YAML ファイルを Datadog にインポート +title: ソフトウェアカタログをカスタマイズする +--- + +以下の機能を使って、Software Catalog におけるエンジニアリング チームの体験をカスタマイズできます。 + +## プレビュー中の Developer Homepage で、チーム専用のランディング ページを作成します。 + +"{{< callout url="https://forms.gle/nkAu2z4gc2dGWcGw5" d_target="#signupModal" btn_hidden="false" >}} +Developer Homepage は、優先度付きのタスクや Pull Request、Alert、インサイトなどに 1 か所からアクセスできる、開発者向けのパーソナライズされたダッシュボードです。アクセス リクエスト をクリックして、利用をリクエストしてください。 +{{< /callout >}}" + + +## 自動検出されたサービスにメタデータを追加 +サービスのオンコール情報、ソース コード、ドキュメントを指定するには、UI や API、または [その他の自動化][10] を使って、既存のサービスにメタデータを追加できます。v3 が推奨バージョンです。 + +### Entity Definition Schema (v3) (推奨) +エンティティ定義スキーマは、ソフトウェア コンポーネントに関する基本情報を保持するための構造です。 + +詳細については、[Definition Schema v3.0][3] を参照してください。 + +### Service Definition Schema (v2.2) + +Service Definition Schema は、サービスの基本情報を格納する構造体です。[GitHub にあるフルスキーマ][5]を参照してください。 + +#### 例 +{{< code-block lang="yaml" filename="service.datadog.yaml" collapsible="true" >}} +schema-version: v2.2 +dd-service: shopping-cart +team: e-commerce +application: shopping-app +tier: "1" +type: web +languages: + - go + - python +contacts: + - type: slack + contact: https://yourorg.slack.com/archives/e-commerce + - type: email + contact: ecommerce@example.com + - type: microsoft-teams + contact: https://teams.microsoft.com/example +links: + - name: Runbook + type: runbook + url: http://runbook/shopping-cart + - name: Source + type: repo + provider: github + url: https://github.com/shopping-cart + - name: Deployment + type: repo + provider: github + url: https://github.com/shopping-cart + - name: Config + type: repo + provider: github + url: https://github.com/consul-config/shopping-cart + - name: E-Commerce Team + type: doc + provider: wiki + url: https://wiki/ecommerce + - name: Shopping Cart Architecture + type: doc + provider: wiki + url: https://wiki/ecommerce/shopping-cart + - name: Shopping Cart RFC + type: doc + provider: google doc + url: https://doc.google.com/shopping-cart +tags: + - business-unit:retail + - cost-center:engineering +integrations: + pagerduty: + service-url: https://www.pagerduty.com/service-directory/PSHOPPINGCART + opsgenie: + service-url: "https://www.opsgenie.com/service/uuid" + region: "US" +ci-pipeline-fingerprints: + - id1 + - id2 +extensions: + additionalProperties: + customField1: customValue1 + customField2: customValue2 +{{< /code-block >}} + +## Software Catalog アクションを探す +Software Catalog に関連するアクションを一覧で確認するには、[Datadog Action Catalog][6] を開きます。必要なアクションに絞り込むには、次の方法を使います。 + +1. **アクションカタログにアクセス**: Datadog Workflow Automation 環境内でアクションカタログを探します。 +2. **Search Functionality**: search bar を使って "Software Catalog" のようなキーワードや、目的のアクションに関連するより具体的な用語 (例: "get service dependencies") を検索します。 + +### Available Software Catalog Actions + +以下は、Datadog Workflow Automation で Software Catalog に対して利用できるアクションの一覧です。新しいアクションの追加に伴い、この一覧は今後変更される可能性があります。 + +- **サービス情報の取得** + - "Get service definition" (サービス定義の取得) で単一のサービスの定義を取得します + - "List service definitions" to get all definitions from Datadog Software Catalog + - "Get service dependencies" (サービスの依存関係を取得) でサービスの直接の上流および下流のサービスを取得します +- **インシデントのトリアージ** + - "Get service PagerDuty on call" (サービスの PagerDuty オンコールを取得) + - 他のアクションと連携させることで、重大なイベントに基づいたワークフローをトリガーできます (例: ランブックの実行)。 + +## サービスの色を変更する +サービスの色は、トレースの視覚化に使用されます。サービスタイプのアイコンをクリックして変更できます。 + +{{< img src="tracing/software_catalog/change_service_color.png" alt="サービス アイコンをクリックして、別のアイコン色を選択します。" style="width:80%;" >}} + +## サービスタイプと言語を更新する +[Software Catalog メタデータ スキーマ 2.2][5] を使うと、ユーザー定義のサービスについて、サービスの種類と使用言語を指定したり、計測済みサービスに対して自動検出された種類と使用言語を上書きしたりできます。サービスの種類と言語を正しくラベル付けすることで、他のチームがそのサービスの役割や連携方法をよりよく理解できるようになります。 + + +## 参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ja/universal_service_monitoring/ +[2]: /ja/tracing/ +[3]: /ja/software_catalog/service_definitions/v3-0/ +[4]: https://forms.gle/zbLfnJYhD5Ab4Wr18 +[5]: https://github.com/DataDog/schema/tree/main/service-catalog/v2.2 +[6]: /ja/actions/actions_catalog/ +[7]: /ja/tracing/services/inferred_services +[8]: /ja/tracing/guide/service_overrides/#remove-service-overrides +[9]: /ja/tracing/guide/service_overrides/ +[10]: /ja/software_catalog/service_definitions/#add-metadata-with-automation +[11]: /ja/software_catalog/endpoints/discover_endpoints/ +[12]: /ja/integrations/github/ \ No newline at end of file diff --git a/content/ja/software_catalog/use_cases/pipeline_visibility.md b/content/ja/software_catalog/use_cases/pipeline_visibility.md new file mode 100644 index 00000000000..add539a0fad --- /dev/null +++ b/content/ja/software_catalog/use_cases/pipeline_visibility.md @@ -0,0 +1,65 @@ +--- +aliases: +- /ja/tracing/software_catalog/use_cases/pipeline_visibility +- /ja/service_catalog/use_cases/pipeline_visibility +- /ja/service_catalog/use_cases/streamlining-development-lifecycle-with-ci-visibility/ +- /ja/tracing/service_catalog/guides/streamlining-development-lifecycle-with-ci-visibility +- /ja/service_catalog/guides/streamlining-development-lifecycle-with-ci-visibility +- /ja/tracing/service_catalog/use_cases/pipeline_visibility +- /ja/tracing/software_catalog/guides/streamlining-development-lifecycle-with-ci-visibility +- /ja/software_catalog/guides/streamlining-development-lifecycle-with-ci-visibility +- /ja/service_catalog/use_cases/ci_visibility +- /ja/software_catalog/use_cases/ci_visibility +further_reading: +- link: /security/code_security/static_analysis/ + tag: ドキュメント + text: Static Analysis +- link: /dora_metrics/ + tag: ドキュメント + text: DORA メトリクス +title: CI Visibility で開発ライフサイクルを効率化する +--- + + +Software Catalog 内の Delivery タブでは、サービスにひも付く CI パイプラインや Static Analysis で検出された違反内容を可視化し、本番リリース前の状態を評価・最適化できます。 + +{{< img src="tracing/software_catalog/pipeline-visibility-software-delivery.png" alt="Software Catalog で本番前状態を監視するための Delivery タブ" style="width:100%;" >}} + +Delivery を使うと、次のことが行えます: + +- サービスに関連する CI パイプラインのパフォーマンスを監視できます。 +- [Static Analysis][1] から、セキュリティやコード品質に関する問題を洗い出せます。 +- 本番前環境で発生する遅延や失敗の原因をトラブルシューティングできます。 +- [DORA メトリクス][2] と連携して、変更リードタイムを追跡できます。 + +デフォルトでは、サービスはリポジトリの URL を通じて CI パイプラインと関連付けられます。サービスに紐づくパイプラインを追加・削除するには、次の手順を実行します。 + +1. [Software Catalog][4] で対象のサービスをクリックしてサービスのサイド パネルを開き、Ownership タブをクリックして Entity Metadata の編集オプションを探します。 + + **注**: この機能は、Software Catalog schema v2.2 以降でのみ利用できます。 + + {{< img src="tracing/software_catalog/edit_metadata.png" alt="サービスの詳細なサイド パネル ビュー。メタデータの編集オプションが強調表示されている" style="width:100%;" >}} + +2. パイプラインを追加または削除するには、サービス メタデータを編集します。 + + - **Edit in UI**: Software Delivery セクションで、サービスに関連付けたいパイプラインを検索して選択します。 + + {{< img src="tracing/software_catalog/pipeline-visibility-update-metadata.png" alt="サービス メタデータを更新するための設定ページ。関連パイプラインの追加・削除に使用する Software Delivery フィールドが表示されている" style="width:100%;" >}} + + - **Edit in GitHub**: サービス メタデータの YAML ファイル内で、`ci-pipeline-fingerprints` の下にパイプライン フィンガープリントを手動で追加します ( [この例][6] を参照)。パイプラインのフィンガープリントを確認するには、[Pipelines][5] ページで対象のパイプラインをクリックし、歯車アイコンを選択します。 + + {{< img src="tracing/software_catalog/pipeline-visibility-pipeline-fingerprint.png" alt="パイプライン フィンガープリントの例" style="width:100%;" >}} + +特定のサービスに関連付けられているパイプラインの CI ステータスや Static Analysis の違反内容をより詳しく確認するには、そのサービスをクリックし、**Delivery** タブに移動します。 + +{{< img src="tracing/software_catalog/delivery_tab.png" alt="サービスの Delivery タブ。成功率や最終実行日時などのパイプライン情報が表示されている" style="width:100%;" >}} + +## 参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ja/security/code_security/static_analysis/ +[2]: /ja/dora_metrics/ +[4]: https://app.datadoghq.com/software +[5]: https://app.datadoghq.com/ci/pipelines +[6]: /ja/software_catalog/service_definitions/v2-2/#example-yaml \ No newline at end of file