diff --git a/content/es/account_management/billing/pricing.md b/content/es/account_management/billing/pricing.md index 96db100285f62..9400c139c5570 100644 --- a/content/es/account_management/billing/pricing.md +++ b/content/es/account_management/billing/pricing.md @@ -1,4 +1,7 @@ --- +description: Comprender los modelos de precios de Datadog y los cálculos de facturación + de varios productos, incluidos Infrastructure Monitoring, APM, Logs y Synthetic + Monitoring Tests. further_reading: - link: https://www.datadoghq.com/pricing tag: Precios @@ -13,7 +16,7 @@ Datadog ofrece varios planes de precios que se adaptan a tus necesidades. Para o * Un **host** es una instancia de sistema operativo físico o virtual. Cada hora, Datadog registra el número de hosts únicos que estás monitorizando en el servicio de la infraestructura. * En un plan de marca de agua alta (HWMP), el recuento facturable de hosts se calcula al final del mes utilizando el recuento máximo (marca de agua alta) del 99% inferior del consumo de esas horas. Datadog excluye el 1% superior para reducir el impacto de los picos de consumo en tu factura. * Con un plan híbrido mensual/hora (MHP), Datadog cobra por el compromiso mensual mínimo que seleccionas y aplica una tarifa horaria por cada hora de host que supera ese compromiso. -* Un **contenedor** es un entorno operativo autónomo que incluye software de aplicación, además de librerías y configuraciones del sistema operativo limitadas. Cada cinco minutos, Datadog registra el número de contenedores únicos que estás monitorizando en el servicio de la infraestructura de Datadog. Cada mes, Datadog te cobra en función del número de horas proporcionales dedicadas a la monitorización de tus contenedores. +* Un **contenedor** es un entorno operativo autónomo que incluye software de aplicación, además de bibliotecas y configuraciones del sistema operativo limitadas. Cada cinco minutos, Datadog registra el número de contenedores únicos que estás monitorizando en el servicio de la infraestructura de Datadog. Cada mes, Datadog te cobra en función del número de horas proporcionales dedicadas a la monitorización de tus contenedores. * Una [**métrica personalizada**][2] es una combinación única de un nombre de métrica, un ID de host y cualquier etiqueta (tag). Datadog te cobra en función del promedio mensual de métricas personalizadas únicas, enviadas al servicio de la infraestructura de Datadog por hora. * Un **dispositivo** es un sensor físico que incluye uno o más ordenadores monoplaca en un solo gabinete. Datadog registra y cobra en función del número de dispositivos y hosts que estás monitorizando de forma simultánea en el servicio de la infraestructura de Datadog. * Una **tarea de Fargate** de AWS es una recopilación de contenedores configurados a través de la plataforma de orquestación de contenedores ECS de AWS. Datadog registra cada cinco minutos el número de instancias de tareas que estás monitorizando en el servicio Infrastructure (o APM) de Datadog. Datadog suma estas mediciones a final de mes y cobra en función del número total de horas que tus aplicaciones se estuvieron ejecutando y monitorizando. @@ -28,7 +31,7 @@ Datadog ofrece varios planes de precios que se adaptan a tus necesidades. Para o Puedes establecer sistemas de control tanto para los volúmenes de tramos indexados como para los de ingeridos. Para obtener más información, consulta la documentación sobre [Ingesta de trazas][4] y [Retención][5]. -## Monitorización de bases de datos +## Database Monitoring * Datadog registra cada hora el número de hosts de bases de datos únicos que estás monitorizando con la herramienta de monitorización de bases de datos de Datadog. * En un plan de marca de agua alta (HWMP), el recuento facturable de hosts se calcula al final del mes utilizando el recuento máximo (marca de agua alta) del 99% inferior del consumo de esas horas. Datadog excluye el 1% superior para reducir el impacto de los picos de consumo en tu factura. @@ -42,7 +45,7 @@ Puedes establecer sistemas de control tanto para los volúmenes de tramos indexa ## Cloud SIEM -* Un **log analizado** es un registro basado en texto de la actividad generada por un sistema operativo, una aplicación o cualquier otra fuente analizada para detectar posibles amenazas a la seguridad. Datadog cobra por los logs analizados en función del número total de gigabytes ingeridos y analizados por el servicio Cloud SIEM de Datadog. +* Un **log analizado** es un registro basado en texto de la actividad generada por un sistema operativo, una aplicación o por otras fuentes analizadas para detectar posibles amenazas a la seguridad. Datadog cobra por los logs analizados en función de los millones de eventos al mes analizados por el servicio Datadog Cloud SIEM. ## Monitorización Synthetic @@ -50,7 +53,7 @@ Puedes establecer sistemas de control tanto para los volúmenes de tramos indexa * Un **test de navegador** permite simular una secuencia de comandos de acciones de usuario en una aplicación web utilizando un navegador web virtualizado. Datadog cobra por cada mil tests de navegador ejecutados al servicio de monitorización Synthetic de Datadog. -## Monitorización de red en la nube +## Monitorización de redes en la nube * Datadog registra el número de hosts de **Monitorización de red en la nube** (CNM) que estás monitorizando simultáneamente con el servicio de CNM de Datadog una vez por hora. * El recuento facturable de hosts se calcula al final del mes utilizando el recuento máximo (marca de agua alta) del 99% inferior del consumo de esas horas. Datadog excluye el 1% superior para reducir el impacto de los picos de consumo en tu factura. @@ -60,7 +63,10 @@ Puedes establecer sistemas de control tanto para los volúmenes de tramos indexa * Una **sesión** es un recorrido del usuario en tu aplicación web. Expira tras 15 minutos de inactividad o 4 horas de actividad continua. -* Datadog recopila todas las páginas visitadas por tus usuarios finales junto con la telemetría relevante: carga de recursos (XHRs, imágenes, archivos CSS, scripts JS, etc.), errores de frontend, y tareas largas. Todo estos elementos se incluyen en la sesión del usuario. Datadog cobra por cada mil (1000) sesiones ingeridas en el servicio Real User Monitoring (RUM) de Datadog. +* Datadog recopila todas las páginas visitadas por tus usuarios finales junto con la telemetría que importa: carga de recursos (XHRs, imágenes, archivos CSS, scripts JS, etc), errores de frontend y tareas largas. Todo ello se incluye en la sesión de usuario. Datadog cobra por cada mil (1000) sesiones ingestadas en el servicio Datadog Real User Monitoring (RUM) con la siguiente distinción: + +- [Medida RUM][10]: se te cobran las sesiones rastreadas por kit de desarrollo de software (SDK) y enviadas a Datadog. +- [RUM without Limits][11]: se te cobra por separado en función del volumen de sesiones que fluyen desde el kit de desarrollo de software (SDK) a Datadog, y del volumen de sesiones que mantienes después de los filtros de retención. ## Continuous Profiler @@ -72,8 +78,18 @@ Puedes establecer sistemas de control tanto para los volúmenes de tramos indexa ## Gestión de incidencias -* Datadog hace un seguimiento del número de usuarios activos mensuales que participan en la gestión y respuesta de incidencias. - * Un **usuario activo** solo se contabiliza si aporta comentarios o señales (gráficos, enlaces, etc.) en una incidencia. No se tienen en cuenta los usuarios que solo abren o cierran una incidencia, ni los que solo la visualizan. Además, no se trata de entradas con nombre, por lo que no es necesario determinar qué usuarios concretos tienen acceso. +* Para las organizaciones con un plan basado en el número de plazas, Datadog cobra en función del número de plazas comprometidas por la organización. +* En el caso de las organizaciones con el antiguo plan basado en el uso, Datadog realiza un seguimiento del número de usuarios activos mensuales de Incident Management. + * Datadog cuenta a un usuario como **usuario activo** si ha utilizado las funciones de Datadog para contribuir sustancialmente a la respuesta ante incidentes. Por ejemplo, te conviertes en un usuario activo para el mes al: + * Actualizar el estado, la gravedad u otros campos del incidente + * Comentar la cronología del incidente + * Enviar notificaciones del incidente + * Añadir respondedores o asignar tipos de respondedores + * Crear, modificar o asignar seguimientos del incidente) + * _No_ te conviertes en usuario activo cuando: + * Declarar, visualizar o buscar incidentes + * Unirse a canales, reuniones o llamadas de terceros que estén conectados al incidente + * Publicar mensajes en el canal de Slack del incidente o en el canal de Microsoft Teams (incluso si el mensaje se sincroniza automáticamente con la cronología del incidente). ## CI Visibility @@ -97,3 +113,5 @@ Contacta con [ventas][8] o con tu gestor de [satisfacción al cliente][9] para i [7]: /es/help/ [8]: mailto:sales@datadoghq.com [9]: mailto:success@datadoghq.com +[10]: /es/real_user_monitoring/rum_without_limits/ +[11]: https://www.datadoghq.com/pricing/?product=real-user-monitoring#products \ No newline at end of file diff --git a/content/es/account_management/billing/usage_attribution.md b/content/es/account_management/billing/usage_attribution.md index e7924b98f41da..238aa3d9aa780 100644 --- a/content/es/account_management/billing/usage_attribution.md +++ b/content/es/account_management/billing/usage_attribution.md @@ -15,10 +15,6 @@ title: Atribución de uso ## Información general -
L -Atribución de uso es una prestación incluida en el plan empresarial. Si quieres usarla en otros planes, ponte en contacto con la persona encargada de tu cuenta o escribe a success@datadoghq.com para solicitarla. -
- Los administradores o usuarios con permiso de Lectura de uso pueden acceder a la Atribución de uso pestaña desde la sección Plan y uso en Datadog. La página de Atribución de uso proporciona la siguiente información y funcionalidad: - Consultar una lista del reparto de uso en función de las diferentes claves de etiquetas y añadir o modificar claves nuevas (hasta un máximo de tres). diff --git a/content/es/account_management/guide/csv_headers/usage-trends.md b/content/es/account_management/guide/csv_headers/usage-trends.md index c4dc343d2edf6..5591606d21309 100644 --- a/content/es/account_management/guide/csv_headers/usage-trends.md +++ b/content/es/account_management/guide/csv_headers/usage-trends.md @@ -1,4 +1,7 @@ --- +description: Se ha actualizado la estructura CSV de los informes de devolución de + costes con nuevos encabezados para el nombre de la organización, el ID público, + el mes, el nombre del producto y el coste. title: Nuevos encabezados CSV para las devoluciones --- @@ -7,4 +10,4 @@ Los cambios en el encabezado CSV entrarán en vigor la semana del 19 de febrero | Nombre de la organización | Identificación pública | Mes | Nombre del producto | Coste | |----| ---| ---| ---| ---| |Org 1 | public_id_1 | 2024-01 | Infra hosts | $100.18 | -|Org 1 | public_id_1 | 2024-01 | Integración | $50.00 | \ No newline at end of file +|Org 1 | public_id_1 | 2024-01 | Métricas personalizadas | $50.00 | \ No newline at end of file diff --git a/content/es/account_management/login_methods.md b/content/es/account_management/login_methods.md index 8157af16be835..9b5b3c3218895 100644 --- a/content/es/account_management/login_methods.md +++ b/content/es/account_management/login_methods.md @@ -1,4 +1,7 @@ --- +description: Activa o desactiva métodos de autenticación como nombre de usuario/contraseña, + Google OAuth y SAML para tu organización de Datadog con opciones de aplicación de + MFA. title: Configuración de métodos de inicio de sesión --- diff --git a/content/es/account_management/multi_organization.md b/content/es/account_management/multi_organization.md index 62e55f4f4e7a6..ac509e8f17c9d 100644 --- a/content/es/account_management/multi_organization.md +++ b/content/es/account_management/multi_organization.md @@ -4,6 +4,9 @@ aliases: - /es/account_management/mult_account - /es/account_management/faq/what-data-from-my-sub-organizations-can-i-see-in-my-parent-account - /es/account_management/multi_organisations +description: Gestiona varias organizaciones secundarias desde una cuenta principal + con facturación independiente, rastreo del uso y control de acceso para proveedores + de servicios gestionados. further_reading: - link: https://docs.datadoghq.com/account_management/multi_organization/ tag: Blog diff --git a/content/es/account_management/org_settings.md b/content/es/account_management/org_settings.md index a0a13c7811466..af055ef4e7bd8 100644 --- a/content/es/account_management/org_settings.md +++ b/content/es/account_management/org_settings.md @@ -1,4 +1,6 @@ --- +description: Gestiona usuarios, equipos, autenticaciones, claves de API, roles y parámetros + de seguridad de tu organización Datadog desde la sección Parámetros de organización. further_reading: - link: /account_management/api-app-keys/ tag: Documentación @@ -9,11 +11,11 @@ further_reading: title: Parámetros de organización --- ## Información general -Los [administradores][1] pueden acceder a los parámetros de organización haciendo clic en **Organization Settings**, en el menú de la cuenta que aparece en la parte inferior del panel izquierdo de navegación, o seleccionando **Organization Settings** en el menú desplegable de la página Personal Settings (Parámetros personales). +Los [administradores][1] pueden acceder a los parámetros de organización haciendo clic en **Organization Settings** (Parámetros de organización), en el menú de la cuenta que aparece en la parte inferior del panel izquierdo de navegación, o seleccionando **Organization Settings** en el menú desplegable de la página Personal Settings (Parámetros personales). {{< img src="account_management/org_settings/nav.png" alt="Ir a los parámetros de tu organización en Datadog" style="width:80%;" >}} -Desde Organization Settings, puedes gestionar usuarios, grupos, la configuración del control de acceso basado en roles (RBAC), claves y tokens. En esta página, se describen todas las secciones y se indica dónde encontrar información sobre tareas específicas de **Organization Settings** en la documentación. +Desde Parámetros de organización, puedes gestionar usuarios, grupos, la configuración del control de acceso basado en roles (RBAC), claves y tokens. En esta página, se describen todas las secciones y se indica dónde encontrar información sobre tareas específicas de **Parámetros de organización** en la documentación. ## Identidad y cuentas diff --git a/content/es/account_management/org_settings/oauth_apps.md b/content/es/account_management/org_settings/oauth_apps.md index 46a82e509c712..90be262e2bf0b 100644 --- a/content/es/account_management/org_settings/oauth_apps.md +++ b/content/es/account_management/org_settings/oauth_apps.md @@ -1,4 +1,6 @@ --- +description: Gestiona y monitoriza aplicaciones OAuth en tu organización, incluidos + los permisos, el acceso de los usuarios y los controles del estado de las aplicaciones. further_reading: - link: /account_management/org_settings/ tag: Documentación @@ -18,11 +20,11 @@ En forma predeterminada, los usuarios con el [rol de administrador de Datadog][2 Sólo los usuarios con el rol de administrador de Datadog o el permiso `org_management` pueden gestionar aplicaciones OAuth en esta page (página), como desactivar aplicaciones o revocar el acceso de un usuario a OAuth. -### Activar +### Habilitar Las aplicaciones OAuth habilitadas permiten a los usuarios con los permisos necesarios autorizar el acceso en su nombre. Las aplicaciones OAuth incluyen la aplicación móvil Datadog . -### Desactivar +### Deshabilitar Si deshabilitas el acceso de OAuth para una aplicación, se revocará su acceso a todos los usuarios de tu organización. Mientras la aplicación permanezca instalada, los usuarios ya no podrán usarla y recibirán un mensaje de error si intentan autorizarla. diff --git a/content/es/account_management/org_switching.md b/content/es/account_management/org_switching.md index adf0c593bab34..502df6877060e 100644 --- a/content/es/account_management/org_switching.md +++ b/content/es/account_management/org_switching.md @@ -1,4 +1,7 @@ --- +description: Navega entre varias organizaciones de Datadog utilizando el conmutador + de organizaciones con la autenticación y la gestión de sesiones adecuadas en las + distintas organizaciones. further_reading: - link: account_management/multi_organization/ tag: Documentación @@ -6,7 +9,7 @@ further_reading: title: Cambiar de una organización a otra --- -Si perteneces a varias organizaciones de Datadog, el conmutador de organizaciones situado en la parte inferior izquierda de la barra de navegación te permite alternar entre ellas. También puedes ver todas las organizaciones y cambiar entre ellas desde la página [**Organizations**][1] (Organizaciones) en **Personal Settings** (Configuración personal). +Si perteneces a varias organizaciones de Datadog, el conmutador de organizaciones situado en la parte inferior izquierda de la barra de navegación te permite alternar entre ellas. También puedes ver todas las organizaciones y cambiar entre ellas desde la página [**Organizations** (Organizaciones)][1] en **Personal Settings** (Parámetros personales). {{< img src="account_management/org_switching_062024.png" alt="Dos formas de conmutar entre organizaciones" style="width:90%;" >}} @@ -34,7 +37,7 @@ Si tienes un problema y no puedes iniciar sesión, intenta lo siguiente: Si los pasos anteriores de solucionar problemas fallan, ponte en contacto con el [equipo de soporte de Datadog][3] e indícales el comportamiento esperado y lo que has intentado hasta ahora. -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/account_management/rbac/permissions.md b/content/es/account_management/rbac/permissions.md index dad2c7b337a70..a216baf107daf 100644 --- a/content/es/account_management/rbac/permissions.md +++ b/content/es/account_management/rbac/permissions.md @@ -5,6 +5,8 @@ algolia: subcategory: Permisos de Rol en Datadog aliases: - /es/account_management/faq/managing-global-role-permissions +description: Referencia completa de los permisos de Datadog, incluidas los roles gestionados, + los roles personalizados, los permisos confidenciales y la lista de permisos. disable_toc: true further_reading: - link: /account_management/rbac/ @@ -47,11 +49,11 @@ El modo de vista previa ofrece a los administradores de tu organización la posi Por defecto, los usuarios existentes están asociados a uno de los tres roles gestionados: -- Administrador Datadog -- Datadog Estándar -- Datadog Solo lectura +- Rol de administrador de Datadog +- Rol estándar de Datadog +- Rol de sólo lectura de Datadog -Todos los usuarios con uno de estos roles pueden leer todos los tipos de datos, excepto los recursos [de lectura restringida individualmente][1]. Los usuarios Administradores y Estándar tienen permisos de escritura sobre los recursos. Los usuarios Administradores tienen permisos adicionales de lectura y escritura para los recursos sensibles relacionados con la gestión de usuarios, la gestión de la organización, la facturación y el uso. +Todos los usuarios con uno de estos roles pueden leer datos, excepto los recursos [con restricción de lectura individual][1]. Los usuarios Admin y Standard tienen permisos de escritura sobre los recursos. Los usuarios Admin tienen permisos adicionales de lectura y escritura para activos confidenciales relacionados con la gestión de usuarios, la gestión de la organización, la facturación y el uso. Los roles gestionados son creados y mantenidos por Datadog. Sus permisos pueden ser actualizados automáticamente por Datadog a medida que se añaden nuevas funciones o cambian los permisos. Los usuarios no pueden modificar los roles gestionados directamente, pero pueden clonarlos para crear [roles personalizados](#custom-roles) con permisos específicos. Si es necesario, los usuarios pueden eliminar roles gestionados de sus cuentas. @@ -59,6 +61,8 @@ Los roles gestionados son creados y mantenidos por Datadog. Sus permisos pueden Crea un rol personalizado para combinar permisos en nuevos roles. Un rol personalizado te permite definir una persona, por ejemplo, un administrador de facturación, y luego asignar los permisos apropiados para ese rol. Después de crear un rol, asigna permisos a este rol o elimínalos directamente [updating the role in Datadog (actualizando el rol en Datadog)][2], o a través de la [Datadog Permission API (API de permiso de Datadog)][3]. +A diferencia de los roles gestionados, los roles personalizados no reciben nuevos permisos cuando Datadog lanza nuevos productos y funciones. Los roles personalizados solo reciben nuevos permisos para mantener la compatibilidad cuando Datadog lanza un nuevo permiso que bloquea una funcionalidad existente. + **Nota**: Al añadir un nuevo rol personalizado a un usuario, asegúrate de eliminar el rol de Datadog gestionado, asociado a ese usuario, para aplicar los permisos del nuevo rol. ## Lista de permisos diff --git a/content/es/account_management/saml/google.md b/content/es/account_management/saml/google.md index 78cdcc857cf14..8e292d830b97a 100644 --- a/content/es/account_management/saml/google.md +++ b/content/es/account_management/saml/google.md @@ -1,6 +1,9 @@ --- aliases: - /es/account_management/faq/how-do-i-configure-google-as-a-saml-idp/ +description: Configura Google como proveedor de identidad SAML para Datadog con los + detalles del proveedor de servicios y la asignación de atributos para un inicio + de sesión único seguro. further_reading: - link: /account_management/saml/ tag: Documentación diff --git a/content/es/account_management/saml/okta.md b/content/es/account_management/saml/okta.md index 7d5dffb423e37..f51dc3d5d3d06 100644 --- a/content/es/account_management/saml/okta.md +++ b/content/es/account_management/saml/okta.md @@ -1,4 +1,6 @@ --- +description: Configura Okta como proveedor de identidad SAML para Datadog con IdP + y SSO iniciado por SP, aprovisionamiento JIT y configuración de asignación de roles. further_reading: - link: /account_management/saml/ tag: Documentación @@ -11,32 +13,32 @@ title: Configuración del poveedor de identidad Okta SAML {{% site-region region="gov" %}}
- En el sitio {{< region-param key="dd_site_name" >}}, debes configurar manualmente la aplicación Datadog en Okta siguiendo las instrucciones heredadas . Ignora las instrucciones de esta página sobre la aplicación Datadog preconfigurada en el catálogo de aplicaciones de Okta. + En el sitio {{< region-param key="dd_site_name" >}}, debes configurar manualmente la aplicación de Datadog en Okta siguiendo las instrucciones heredadas. Ignora las instrucciones de esta página sobre la aplicación de Datadog preconfigurada en el catálogo de aplicaciones de Okta.
{{% /site-region %}} -## Información general +## Resumen -En esta página se explica cómo configurar la aplicación Datadog en Okta. +Esta página te explica cómo configurar la aplicación de Datadog en Okta. -Antes de continuar, asegúrate de estar utilizando la última versión de la aplicación Datadog: -1. En Okta, haz clic en **Aplicaciones**. -1. Abre la aplicación Datadog. +Antes de continuar, asegúrate de que estás utilizando la última versión de la aplicación de Datadog: +1. En Okta, haz clic en **Applications** (Aplicaciones). +1. Abre la aplicación de Datadog. 1. 2. Selecciona la pestaña **General**. -1. 2. Busca el campo **SSO Base URL**. +1. 2. Busca el campo **SSO Base URL** (URL base de SSO). -{{< img src="account_management/saml/okta/sso_base_url.png" alt="Configuración de la aplicación Datadog en Okta, que destaca la SSO base URL" style="width:80%;" >}} +{{< img src="account_management/saml/okta/sso_base_url.png" alt="Configuracion de la aplicación de Datadog en Okta, que resalta la URL base de SSO" style="width:80%;" >}} -Si no ves el campo URL Base SSO, configura Okta utilizando las [instrucciones heredadas][1]. +Si no ves el campo URL base de SSO, configura Okta utilizando las [instrucciones heredadas][1]. -## Funciones admitidas +## Características admitidas -La integración de Datadog Okta SAML es compatible con lo siguiente: +La integración de Datadog Okta SAML admite lo siguiente: - SSO iniciado por IdP -- SSO iniciado por el SP -- Aprovisionamiento de JIT +- SSO iniciado por SP +- Aprovisionamiento JIT -Para las definiciones de los términos anteriores, consulta el [glosario][2] de Okta. +Para las definiciones de los términos anteriores, consulta el [glosario] de Okta[2]. ## Configuración @@ -44,41 +46,41 @@ Configura Okta como el proveedor de identidad (IdP) SAML para Datadog con las si ### Añadir la integración de Datadog en Okta -1. Inicia sesión en tu dashboard de administrador de Okta. -1. En la navegación de la izquierda, haz clic en **Aplicaciones**. -1. Haz clic en **Buscar en el catálogo de aplicaciones**. +1. Inicia sesión en el dashboard de administración de Okta. +1. En la barra de navegación de la izquierda, haz clic en **Applications** (Aplicaciones). +1. Haz clic en **Browse App Catalog** (Navegar el catálogo de aplicación). 1. Utiliza la barra de búsqueda para buscar "Datadog". -1. 2. Selecciona la aplicación Datadog para SAML y SCIM. -1. Haz clic en **Añadir integración**. Aparece el cuadro de diálogo Configuración general. -1. Completa el campo **SSO Base URL** con tu [URL del sitio web de Datadog][3]. -1. Haz clic en **Hecho**. +1. Selecciona la aplicación de Datadog para SAML y SCIM. +1. Haz clic en **Add integration** (Añadir integración). Aparecerá el cuadro de configuración general. +1. Rellena el campo **SSO Base URL** (URL base de SSO) con tu [URL de Datadog del sitio web][3]. +1. Haz clic en **Done** (Hecho). -**Nota:** El campo URL base SSO acepta subdominios personalizados si no utilizas una URL del sitio web Datadog estándar. +**Nota:** El campo URL base de SSO acepta subdominios personalizados si no utilizas una URL de sitio web de Datadog estándar. A continuación, descarga los detalles de metadatos para cargarlos en Datadog: -1. En el cuadro de diálogo de configuración de la aplicación Datadog en Okta, haz clic en la pestaña **Iniciar sesión**. -1. Desplázate hacia abajo hasta que veas la **URL de metadatos**. -1. Haz clic en **Copiar**. -1. Abre una nueva pestaña de navegador y pega la URL de metadatos en la barra de direcciones. +1. Es el cuadro de dialogo de configuración para la aplicación de Datadog en Okta, haz clic en la pestaña **Sign On** (Iniciar sesión). +1. Desplázate hacia abajo hasta que veas la **Metadata URL** (URL de metadatos). +1. Haz clic en **Copy** (Copiar). +1. Abre una nueva pestaña del navegador y pega la URL de metadatos en la barra de direcciones. 1. Utiliza el navegador para guardar el contenido de la URL de metadatos como un archivo XML. -{{< img src="account_management/saml/okta/metadata_url.png" alt="Inicia sesión en configuración in Okta" style="width:80%;" >}} +{{< img src="account_management/saml/okta/metadata_url.png" alt="Inicia sesión en la configuración en Okta" style="width:80%;" >}} ### Configurar Datadog #### Cargar detalles de metadatos -1. Ve a [Métodos de inicio de sesión][4] en Parámetros de organización. -1. 2. En el componente SAML, haz clic en **Configurar** o **Actualizar**, según si has configurado SAML previamente. Aparecerá la page (página) de configuración de SAML. -1. Haz clic en **Seleccionar archivo** y selecciona el archivo de metadatos que descargaste previamente de Okta. +1. Navega hasta [Métodos de inicio de sesión][4] en Configuración de la organización. +1. En el componente SAML, haz clic en **Configure** (Configurar) o **Update** (Actualizar), dependiendo de si has configurado SAML previamente. Aparecerá la página de configuración de SAML. +1. Haz clic en **Select file** (Seleccionar archivo) y selecciona el archivo de metadatos que descargaste previamente de Okta. -{{< img src="account_management/saml/okta/choose_file.png" alt="Configuración de SAML en Datadog, que destaca el botón de carga de metadatos" style="width:100%;" >}} +{{< img src="account_management/saml/okta/choose_file.png" alt="Configuración de SAML en Datadog, que resalta el botón de carga de metadatos" style="width:100%;" >}} #### Activar inicio de sesión iniciado por IdP -Para que la aplicación Datadog funcione correctamente, debes activar el inicio de sesión iniciado por IdP. +Para que la aplicación de Datadog funcione correctamente, debes activar el inicio de sesión iniciado por IdP. -
Después de activar el inicio de sesión iniciado por IdP, los usuarios pueden iniciar sesión en Datadog desde Okta
+
Después de activar el inicio de sesión iniciado por IdP, los usuarios pueden iniciar sesión en Datadog desde Okta.
Para activar el inicio de sesión iniciado por IdP, ejecuta los siguientes pasos: 1. Ve a la página de [configuración de SAML][5]. diff --git a/content/es/account_management/users/_index.md b/content/es/account_management/users/_index.md index 0f5374a475849..6bc36fedc155a 100644 --- a/content/es/account_management/users/_index.md +++ b/content/es/account_management/users/_index.md @@ -8,7 +8,7 @@ further_reading: text: Configurar SAML para tu cuenta de Datadog - link: /account_management/rbac/ tag: Documentación - text: Aprende cómo crear, actualizar y borrar un rol + text: Aprende cómo crear, actualizar y borrar un rol. - link: /account_management/rbac/permissions/ tag: Documentación text: Descubre la lista de permisos disponibles @@ -18,23 +18,23 @@ further_reading: title: Gestión de usuarios --- {{< site-region region="gov" >}} -
El sitio Datadog for Government solo permite el inicio de sesión con SAML.
+
El sitio de Datadog for Government solo admite el inicio de sesión SAML.
{{< /site-region >}} -La pestaña **User** (Usuario) en **Organization Settings** (Parámetros de la organización) te permite gestionar los usuarios y sus roles asociados. Puedes alternar entre las vistas de lista y de cuadrícula haciendo clic en **List View** (Vista de lista) y **Grid View** (Vista de cuadrícula) a la derecha. +La pestaña **User** (Usuario) en **Organization Settings** (Parámetros de la organización) te permite gestionar los usuarios y sus roles asociados. Puedes alternar entre las vistas de lista y de cuadrícula haciendo clic en **List View** (Vista de lista) y **Grid View** (Vista de cuadrícula), a la derecha. ## Añadir miembros y gestionar invitaciones Si quieres añadir algún miembro a tu organización: 1. Accede la página Organization Settings (Parámetros de la organización) y haz clic en la pestaña **Users** (Usuarios). -2. Haz clic en **Invite Users** (Invitar usuarios) en la esquina superior derecha de la página. +2. Haz clic en **Invite Users** (Invitar usuarios), en la esquina superior derecha de la página. 3. Ingresa la dirección de correo electrónico del usuario al que quieres invitar a tu cuenta de Datadog. 4. Asigna uno o más [roles de usuario][1] a los usuarios. **Nota**: Los usuarios con el permiso Invite User (Invitar usuarios) pueden invitar a otros usuarios a los roles que les pertenecen. Los usuarios con los permisos Invite User y Access Management (Gestión de acceso) pueden invitar a otros usuarios a cualquier rol. 5. Haz clic en **Send Invites** (Enviar invitaciones). -El nuevo usuario recibe un correo electrónico con un enlace para iniciar sesión y tendrá el estado `Invite Pending` hasta que complete el proceso. Si quieres cancelar la invitación antes de que inicie sesión, haz clic en el botón **Delete Invite** (Borrar invitación), que aparece a la derecha del usuario en la vista de lista, o en la casilla del usuario en la vista de cuadrícula. +El nuevo usuario recibe un correo electrónico con un enlace para iniciar sesión. Este enlace es válido durante 48 horas. El usuario será marcado con el estado `Invite Pending` hasta que inicie sesión. Para cancelar la invitación antes de que inicie sesión, haz clic en el botón **Delete Invite** (Eliminar invitación) situado a la derecha de la línea de usuario en la vista de lista, o en el cuadro de usuario en la vista de cuadrícula. Para reenviar una invitación en la vista de lista, haz clic en el usuario y se abrirá el panel lateral. Haz clic en **Resend Invite** (Reenviar invitación). En la vista de cuadrícula, pasa el cursor sobre la casilla del usuario y haz clic en **Resend Invite**. @@ -57,18 +57,18 @@ Para descubrir los roles disponibles y cómo crear roles personalizados, consult Sólo los usuarios con el permiso User Access Management (Gestión de acceso de usuarios), por ejemplo los que tienen un rol de administrador en Datadog, pueden modificar los métodos de inicio de sesión de otros usuarios. -Los métodos de inicio de sesión predeterminados de una organización se pueden configurar en la página de métodos de inicio de sesión, desde donde podrás autorizar o no a todos los usuarios de tu organización a utilizar un nombre de usuario o una contraseña de Datadog, a iniciar sesión con Google o para iniciar sesión con SAML. En User Management (Gestión de usuarios) también puedes hacer modificaciones individuales a cada usuario para permitirle utilizar un método de inicio de sesión concreto o varios. Esto puede resultar útil si quieres que todos los usuarios utilicen SAML, pero necesitas que algunos de ellos puedan iniciar sesión con su usuario y contraseña en caso de emergencia. +Los métodos de inicio de sesión predeterminados de una organización se pueden configurar en la página de métodos de inicio de sesión, desde donde podrás autorizar o no a todos los usuarios de tu organización a utilizar un nombre de usuario o una contraseña de Datadog, a iniciar sesión con Google o a iniciar sesión con SAML. En User Management (Gestión de usuarios), también puedes hacer modificaciones individuales a cada usuario para permitirle utilizar un método de inicio de sesión concreto o varios. Esto puede resultar útil si quieres que todos los usuarios utilicen SAML, pero necesitas que algunos de ellos puedan iniciar sesión con su usuario y contraseña en caso de emergencia. Para editar los métodos de inicio de sesión de un usuario: 1. Accede a la pestaña **Users** (Usuarios) en **Organization Settings** (Parámetros de la organización). 2. Selecciona **Edit** (Editar) a la derecha del usuario. -3. Activa **Override Default Login Methods** (Anular los métodos de inicio de sesión predeterminados) para activar o desactivar parámetros específicos para un usuario. +3. Activa **Override Default Login Methods** (Anular los métodos de inicio de sesión predeterminados), para activar o desactivar parámetros específicos para un usuario. 4. Si activas esta opción, elige un conjunto de métodos de inicio de sesión que el usuario puede utilizar para conectarse a Datadog. Puedes definir un único método o todos los que tengas configurados para tu organización. 5. Haz clic en **Save** (Guardar). -**Nota**: Las anulaciones pueden definirse únicamente en métodos de inicio de sesión válidos. Si no has configurado SAML, no podrás utilizarlo como anulación para un usuario. +**Nota**: Las anulaciones pueden definirse únicamente en métodos de inicio de sesión válidos. Si no has configurado SAML, no podrás utilizar ese método de inicio de sesión como anulación para un usuario. ## Desactivar miembros existentes @@ -82,7 +82,7 @@ Sólo los usuarios con el permiso Access Management (Gestión de acceso), por ej **Nota**: Por defecto, los usuarios desactivados se excluyen de la lista de usuarios de la página User Management (Gestión de usuarios). Si tienes los permisos correctos, puedes filtrar los usuarios con estado `Disabled` y reactivarlos. -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/actions/app_builder/components/_index.md b/content/es/actions/app_builder/components/_index.md index 578f61b53899b..c12944d19c16c 100644 --- a/content/es/actions/app_builder/components/_index.md +++ b/content/es/actions/app_builder/components/_index.md @@ -1,6 +1,8 @@ --- aliases: - /es/service_management/app_builder/components +description: Referencia completa de los componentes de interfaz de usuario de App + Builder, incluyendo botones, formularios, tablas, gráficos y elementos interactivos. disable_toc: true further_reading: - link: /service_management/app_builder/tables/ @@ -12,6 +14,9 @@ further_reading: - link: /service_management/app_builder/expressions/ tag: Documentación text: Expresiones de JavaScript +- link: https://learn.datadoghq.com/courses/app-builder-integration + tag: Centro de aprendizaje + text: Crear aplicaciones de autoservicio con App Builder para integraciones de terceros title: Componentes --- @@ -25,7 +30,7 @@ Los componentes de botón tienen las siguientes propiedades. ### General -Etiqueta +Etiqueta (Label) : Texto que se muestra en el botón.
**Valor**: cadena o expresión @@ -84,7 +89,7 @@ Los componentes de valor de llamada tienen las siguientes propiedades. ### General -Etiqueta +Etiqueta (Label) : Texto que aparece en la parte superior del componente.
**Valor**: cadena o expresión @@ -132,35 +137,35 @@ Para ver este componente en contexto, consulta el plano de la aplicación [Gesto {{% collapse-content title="Casilla de verificación" level="h3" %}} -Los componentes de una casilla de verificación tienen las siguientes propiedades. +Los componentes de casilla de verificación tienen las siguientes propiedades. ### General -Etiqueta +Etiqueta (Label) : Texto que aparece en la parte superior del componente.
**Valor**: cadena o expresión Opciones -: Lista de casillas de verificación que el usuario puede seleccionar. El formato es una matriz de objetos donde cada objeto consiste en un par clave-valor `label` y `value`. El número mínimo de opciones es 1.
+: La lista de casillas de verificación que el usuario puede seleccionar. El formato es una matriz de objetos donde cada objeto consiste en un par clave-valor `label` y `value`. El número mínimo de opciones es 1.
**Valor**: expresión
**Ejemplo**:
-: ```json - ${[ - { - "label": "Staging", - "value": "staging" - }, - { - "label": "Production", - "value": "production" - } - ]} - ``` - -### Apariencia +: ```json + ${[ + { + "label": "Staging", + "value": "staging" + }, + { + "label": "Production", + "value": "production" + } + ]} + ``` + +### Aspecto Es multilínea -: Determina si el texto de la casilla de verificación debe envolverse en una nueva línea o ser truncado por una elipsis.
+: Determina si el texto de la casilla de verificación debe aparecer en una nueva línea o ser truncado por una elipsis.
**Valores proporcionados**: on, off Está desactivado @@ -177,7 +182,7 @@ Evento : **Valor**: cambio
Reacción -: **Valores**: personalizados, definir estado del componente, activar consulta, abrir modal, cerrar modal, descargar archivo, definir valor de la variable de estado. +: **Valores**: personalizado, definir estado del componente, activar consulta, abrir modal, cerrar modal, descargar archivo, definir valor de variable de estado. Función de estado : Recuperar
@@ -191,15 +196,15 @@ Muestra pares de propiedades y valores en formato JSON. ### Ejemplo -Para ver este componente en contexto, consulta el esquema del [Explorador de métricas y Creador de monitores][2] de la aplicación. -{{% /collapse-content %}} +Para ver este componente en contexto, consulta el plano de la aplicación [Explorador de métricas y Builder de monitores][2]. +{{% /collapse-content %}} {{% collapse-content title="Contenedor" level="h3" %}} Los componentes de contenedor tienen las siguientes propiedades. -### Apariencia +### Aspecto Es visible : Determina si el componente es visible para el usuario final. En modo edición, todos los componentes permanecen visibles.
@@ -211,20 +216,20 @@ Muestra pares de propiedades y valores en formato JSON. ### Ejemplo -Para ver este componente en contexto, consulta el esquema del [Explorador de métricas y Creador de monitores][2] de la aplicación. -{{% /collapse-content %}} +Para ver este componente en contexto, consulta el plano de la aplicación [Explorador de métricas y Builder de monitores][2]. +{{% /collapse-content %}} {{% collapse-content title="Gráfico personalizado" level="h3" %}} -Los componentes de gráficos personalizados tienen las siguientes propiedades. +Los componentes de gráfico personalizado tienen las siguientes propiedades. ### General Especificación Vega -: Una cadena que representa una especificación Vega-Lite o Vega JSON válida. +: Cadena que representa una especificación Vega-Lite o Vega JSON válida. -### Apariencia +### Aspecto Está cargando : Muestra un indicador de carga.
@@ -240,22 +245,22 @@ Muestra pares de propiedades y valores en formato JSON. ### Ejemplo -Para ver un ejemplo de cómo utilizar este componente, consulta [Gráficos personalizados][10]. +Para ver un ejemplo de uso de este componente, consulta [Gráficos personalizados][10]. {{% /collapse-content %}} -{{% collapse-content title="Selector de rango de fechas" level="h3" %}} -Los componentes del selector de rango de fechas tienen las siguientes propiedades. +{{% collapse-content title="Selector de rangos de fechas" level="h3" %}} +Los componentes de selector de rangos de fechas tienen las siguientes propiedades. ### General -Rango de fechas por defecto -: El marco de tiempo por defecto que muestra el selector de fecha.
+Periodo de tiempo por defecto +: El periodo de tiempo por defecto que muestra el selector de fechas.
**Valores proporcionados**: pasados 5 minutos, pasados 30 minutos, pasada 1 hora, pasadas 4 horas, pasado 1 día -### Apariencia +### Aspecto Es visible : Determina si el componente es visible para el usuario final. En modo edición, todos los componentes permanecen visibles.
@@ -267,10 +272,10 @@ Evento : **Valor**: cambio Reacción -: **Valores**: personalizados, definir estado del componente, activar consulta, abrir modal, cerrar modal, descargar archivo +: **Valores**: personalizado, definir el estado del componente, activar consulta, abrir modal, cerrar modal, descargar archivo -Estado Función -: recuperar
+Función de estado +: Recuperar
**Ejemplo**: Consulta [Eventos][9]. Para obtener más información sobre eventos, consulta [Eventos][1]. @@ -281,20 +286,20 @@ Muestra pares de propiedades y valores en formato JSON. ### Ejemplo -Para ver este componente en contexto, consulta el esquema del [Explorador de métricas y Creador de monitores][2] de la aplicación. -{{% /collapse-content %}} +Para ver este componente en contexto, consulta el plano de la aplicación [Explorador de métricas y Builder de monitores][2]. +{{% /collapse-content %}} -{{% collapse-content title="Ingreso de archivos" level="h3" %}} -Los componentes de ingreso de archivos tienen las siguientes propiedades. +{{% collapse-content title="Entrada de archivos" level="h3" %}} +Los componentes de entrada de archivos tienen las siguientes propiedades. ### General Tipos de archivo aceptados -: Determina qué tipos de archivo acepta el componente de ingreso de archivos.
+: Determina qué tipos de archivo acepta el componente de entrada de archivos.
**Valores**: .csv, .json -### Apariencia +### Aspecto Es visible : Determina si el componente es visible para el usuario final. En modo edición, todos los componentes permanecen visibles.
@@ -306,10 +311,10 @@ Evento : **Valor**: cambio Reacción -: **Valores**: personalizado, definir estado del componente, activar consulta, abrir modal, cerrar modal, descargar archivo, definir valor de la variable de estado. +: **Valores**: personalizado, definir estado del componente, activar consulta, abrir modal, cerrar modal, descargar archivo, definir valor de variable de estado. Función de estado -: recuperar
+: Recuperar
**Ejemplo**: Consulta [Eventos][9]. Para obtener más información sobre eventos, consulta [Eventos][1]. @@ -321,6 +326,41 @@ Muestra pares de propiedades y valores en formato JSON. {{% /collapse-content %}} +{{% collapse-content title="Logotipo de integración" level="h3" %}} +Los componentes de logotipo de integración tienen las siguientes propiedades. + +### General + +ID de integración +: Especifica el icono del logotipo de integración que se mostrará.
+**Valor**: cadena o expresión
+**Ejemplos**: datadog, amazon-s3, postgres, okta + +### Aspecto + +Alineación horizontal +: Controla la posición horizontal del logotipo dentro del componente.
+**Valores proporcionados**: alinear a la izquierda, alinear al centro, alinear a la derecha + +Alineación vertical +: Controla la posición vertical del logotipo dentro del componente.
+**Valores proporcionados**: alinear arriba, alinear al centro, alinear abajo + +Es visible +: Determina si el componente es visible para el usuario final. En modo edición, todos los componentes permanecen visibles.
+**Valores proporcionados**: on, off + +Está cargando +: Muestra un indicador de carga.
+**Valores proporcionados**: on, off + +### Inspeccionar datos + +Muestra pares de propiedades y valores en formato JSON. + +{{% /collapse-content %}} + + {{% collapse-content title="Formulario" level="h3" %}} Los componentes de formulario tienen las siguientes propiedades. @@ -341,11 +381,11 @@ Cada elemento representa un campo del formulario. Cada campo tiene uno de los si Los campos tienen algunas o todas las propiedades siguientes dependiendo de su tipo de campo: Nombre del campo -: Identificador único del campo. Puedes utilizar este identificador para hacer referencia al campo en una expresión.
+: El identificador único de un campo. Puedes utilizar este identificador para hacer referencia al campo en una expresión.
**Valor**: cadena o expresión -Etiqueta -: La etiqueta que aparece sobre el campo.
+Etiqueta (Label) +: Etiqueta que aparece arriba del campo.
**Valor**: cadena o expresión Contenido @@ -354,7 +394,7 @@ Contenido Opciones : Las opciones disponibles en un campo `select`. Las opciones deben ser una matriz de objetos, con una clave `const` para el valor de la opción y una clave opcional `title` para la etiqueta de la opción.
**Valor**: Los campos `label` y `value` de cada objeto pueden ser una cadena o una expresión.
-Puedes rellenar cada objeto utilizando la interfaz gráfica de usuario (por defecto) o activar **Raw** para utilizar la entrada JSON sin procesar para proporcionar toda la matriz de objetos. +Puedes rellenar cada objeto utilizando la interfaz gráfica de usuario (por defecto), o activar **Raw** para utilizar la entrada JSON sin procesar para proporcionar toda la matriz de objetos. Texto del parámetro : El texto que aparece en un campo `textInput` o `textArea` cuando no se introduce ningún valor.
@@ -372,7 +412,7 @@ Es obligatorio : Determina si el campo es obligatorio para enviar el formulario.
**Valores proporcionados**: on, off -### Apariencia +### Aspecto Es visible : Determina si el componente es visible para el usuario final. En modo edición, todos los componentes permanecen visibles.
@@ -385,10 +425,10 @@ Está desactivado ### Eventos Evento -: **Valor**: enviar, modificar, confirmar +: **Valor**: enviar, modificar, validar Reacción -: **Valores**: personalizados, definir estado del componente, activar consulta, abrir modal, cerrar modal, descargar archivo, definir valor de la variable de estado +: **Valores**: personalizado, definir estado del componente, activar consulta, abrir modal, cerrar modal, descargar archivo, definir valor de variable de estado. Función de estado : setValue
@@ -404,20 +444,20 @@ Muestra pares de propiedades y valores en formato JSON. {{% collapse-content title="Entrada JSON" level="h3" %}} -Los componentes de entrada JSON tienen las siguientes propiedades. +Los componentes de entradas JSON tienen las siguientes propiedades. ### General -Etiqueta -: El texto que aparece en la parte superior del componente. +Etiqueta (Label) +: Texto que aparece en la parte superior del componente. Valor por defecto : El valor JSON por defecto que muestra el componente. -### Apariencia +### Aspecto -Sólo lectura -: Determina si el componente es de sólo lectura.
+Solo lectura +: Determina si el componente es de solo lectura.
**Valores proporcionados**: on, off Es visible @@ -430,10 +470,10 @@ Evento : **Valor**: cambio Reacción -: **Valores**: personalizados, definir estado del componente, activar consulta, abrir modal, cerrar modal, descargar archivo, definir valor de la variable de estado. +: **Valores**: personalizado, definir estado del componente, activar consulta, abrir modal, cerrar modal, descargar archivo, definir valor de variable de estado. Función de estado -: recuperar
+: Recuperar
**Ejemplo**: Consulta [Eventos][9]. Para obtener más información sobre eventos, consulta [Eventos][1]. @@ -446,7 +486,7 @@ Muestra pares de propiedades y valores en formato JSON. {{% collapse-content title="Modal" level="h3" %}} -Los componentes de modal tienen las siguientes propiedades. +Los componentes de modales tienen las siguientes propiedades. ### General @@ -454,7 +494,7 @@ Título : El título del modal.
**Valor**: cadena o expresión -### Apariencia +### Aspecto Tamaño : La escala del modal.
@@ -470,11 +510,11 @@ Evento : **Valores**: toggleOpen, close, open Reacción -: **Valores**: personalizados, definir estado del componente, activar consulta, abrir modal, cerrar modal, descargar archivo, definir valor de variable de estado +: **Valores**: personalizado, definir estado del componente, activar consulta, abrir modal, cerrar modal, descargar archivo, definir valor de variable de estado. Funciones de estado -: recuperar
-**Ejemplo**: Consulta [Eventos][9]. +: fetch
+**Ejemplo**: Consulta los [eventos][9]. : setIsOpen
**Ejemplo**: `modal0.setIsOpen(true)` define el estado de `modal0` como abierto. @@ -486,37 +526,37 @@ Muestra pares de propiedades y valores en formato JSON. ### Ejemplo -Para ver este componente en contexto, consulta el esquema de [Explorador de métricas y Creador de monitores][2] de la aplicación. -{{% /collapse-content %}} +Para ver este componente en contexto, consulta el plano de la aplicación [Explorador de métricas y Builder de monitores][2]. +{{% /collapse-content %}} -{{% collapse-content title="Entrada de número" level="h3" %}} -Los componentes de entrada de número tienen las siguientes propiedades. +{{% collapse-content title="Entrada numérica" level="h3" %}} +Los componentes de entradas numéricas tienen las siguientes propiedades. -Etiqueta -: El texto que se muestra en la parte superior del componente.
+Etiqueta (Label) +: Texto que aparece en la parte superior del componente.
**Valor**: cadena o expresión Valor por defecto : El valor por defecto que la aplicación rellena en el cuadro de entrada.
-**Valor**: número o expresión que se evalúa como un número +**Valor**: número o expresión que se evalúa a un número Texto del parámetro -: El texto que aparece cuando no se introduce ningún valor.
+: Texto que aparece cuando no se introduce ningún valor.
**Valor**: cadena o expresión -### Confirmación +### Validación -Mínimo +Mín : El valor mínimo que acepta la entrada numérica.
-**Valor**: número o expresión que se evalúa como un número +**Valor**: número o expresión que se evalúa a un número Máx : El valor máximo que acepta la entrada numérica.
-**Valor**: número o expresión que se evalúa como un número +**Valor**: número o expresión que se evalúa a un número. -### Apariencia +### Aspecto Está desactivado : Aplica el estilo desactivado y elimina las interacciones.
@@ -532,11 +572,11 @@ Evento : **Valor**: cambio Reacción -: **Valores**: personalizados, definir estado de componente, activar consulta, abrir modal, cerrar modal, descargar archivo, definir valor de variable de estado. +: **Valores**: personalizado, definir estado del componente, activar consulta, abrir modal, cerrar modal, descargar archivo, definir valor de variable de estado. Funciones de estado -: recuperar
-**Ejemplo**: Consulta [Eventos][9]. +: fetch
+**Ejemplo**: Consulta los [eventos][9]. : setValue
**Ejemplo**: `numberInput0.setValue(3)` define el valor del componente `numberInput0` como `3`. @@ -548,7 +588,7 @@ Muestra pares de propiedades y valores en formato JSON. ### Ejemplo -Para ver este componente en contexto, consulta el esquema de [ECS Task Manager][4] de la aplicación. +Para ver este componente en contexto, consulta el plano de la aplicación [ECS Task Manager][4]. {{% /collapse-content %}} @@ -559,26 +599,26 @@ Los componentes de radio tienen las siguientes propiedades. ### General -Etiqueta -: El texto que aparece en la parte superior del componente.
+Etiqueta (Label) +: Texto que aparece en la parte superior del componente.
**Valor**: cadena o expresión Opciones : La lista de opciones del botón de radio que el usuario puede seleccionar. El formato es una matriz de objetos donde cada objeto consiste en un par clave-valor `label` y `value`.
**Valor**: expresión
**Ejemplo**:
-```json - ${[ - { - "label": "Staging", - "value": "staging" - }, - { - "label": "Production", - "value": "production" - } - ]} - ``` +: ```json + ${[ + { + "label": "Staging", + "value": "staging" + }, + { + "label": "Production", + "value": "production" + } + ]} + ``` Valor por defecto : Valor que se selecciona cuando se carga radio.
@@ -669,14 +709,12 @@ Muestra pares de propiedades y valores en formato JSON. Para ver este componente en contexto, consulta el plano de la aplicación [Gestor de instancias EC2][3]. {{% /collapse-content %}} - - {{% collapse-content title="Seleccionar" level="h3" %}} Los componentes de selección tienen las siguientes propiedades. ### General -Etiqueta +Etiqueta (Label) : Texto que aparece en la parte superior del componente.
**Valor**: cadena o expresión @@ -684,22 +722,22 @@ Texto del parámetro : Texto que aparece cuando no se introduce ningún valor.
**Valor**: cadena o expresión -Options -: The list of select options that a user can select from. The format is an array of objects where each object consists of a `label` and `value` key-value pair.
-**Value**: expression
-**Example**:
-: ```json - ${[ - { - "label": "Staging", - "value": "staging" - }, - { - "label": "Production", - "value": "production" - } - ]} - ``` +Opciones +: La lista de opciones que el usuario puede seleccionar. El formato es una matriz de objetos donde cada objeto consta de un par clave-valor de `label` y `value`.
+**Valor**: expresión
+**Ejemplo**:
+: ```json + ${[ + { + "label": "Staging", + "value": "staging" + }, + { + "label": "Production", + "value": "production" + } + ]} + ``` Valor por defecto : Valor que se selecciona cuando se carga la selección.
@@ -746,6 +784,7 @@ Para ver este componente en contexto, consulta el plano de la aplicación [Explo {{% collapse-content title="Pestaña" level="h3" %}} + Los componentes de pestañas tienen las siguientes propiedades. ### Tabs @@ -805,10 +844,15 @@ Muestra pares de propiedades y valores en formato JSON. {{% /collapse-content %}} {{% collapse-content title="Tabla" level="h3" %}} + Los componentes de tablas tienen las siguientes propiedades. ### General +Título +: Un título para la tabla. Selecciona **Markdown** para un formato personalizado.
+**Valor**: cadena + Fuente de datos : Matriz de objetos que se muestran en una tabla.
**Valores**: consulta, datos de demostración, componentes @@ -817,7 +861,7 @@ Fuente de datos Cada columna de datos de la fuente de datos se representa aquí y tiene las siguientes propiedades: -Etiqueta +Etiqueta (Label) : Texto que aparece en la parte superior de la columna.
**Valor**: cadena o expresión @@ -830,7 +874,14 @@ Formato **Valores proporcionados**: cadena, enlace, píldora de estado, fecha/hora, markdown, etiquetas (tags), barra de porcentaje, número, barra de puntuación, avatar. Clasificable -: Determina si el usuario puede clasificar por columna.
+: Determina si el usuario puede clasificar por la columna.
+ +Copiable +: Determina si el usuario puede hacer clic para copiar el contenido de la columna.
+**Valores proporcionados**: on, off + +Filtrable +: Determina si una opción de filtro está disponible para la columna.
**Valores proporcionados**: on, off Algunas columnas tienen propiedades adicionales basadas en su propiedad **Formato**. @@ -853,11 +904,22 @@ Tipo : Determina el tipo de paginación.
**Valores proporcionados**: lado cliente, lado servidor. +### Clasificación + +Selecciona la clasificación de la tabla por columna y dirección por defecto. +Columna +: La columna por la que se clasificará.
+**Valor**: nombre de columna + +Dirección +: La dirección para clasificar.
+**Valores proporcionados**: ascendente, descendente + ### Acciones de fila -Al añadir una acción de fila se añade una columna **Acciones** a la tabla, que contiene botones de acción definidos por el usuario. Estos botones tienen las siguientes propiedades: +Al añadir una acción de fila se añade una columna **Actions** (Acciones) a la tabla, que contiene botones de acción definidos por el usuario. Las filas pueden tener múltiples acciones. Las acciones tienen las siguientes propiedades: -Etiqueta +Etiqueta (Label) : Texto que se muestra en el botón de acción.
**Valor**: cadena o expresión @@ -877,9 +939,10 @@ Nivel : Controla el color del botón según su intención.
**Valores proporcionados**: por defecto, peligro, éxito, advertencia -Reacción -: Tipo de reacción que activa el botón. -**Valores**: personalizado, definir estado del componente, activar consulta, abrir modal, cerrar modal, descargar archivo, definir valor de variable de estado. +Reacciones +: Las reacciones que activa el botón. Un botón puede tener varias reacciones.
+**Valores proporcionados**: descargar archivo, abrir modal, cerrar modal, abrir panel lateral, cerrar panel lateral, abrir URL, definir estado del componente, definir valor de variable de estado, notificación Toast, activar acción, personalizado
+Algunos tipos de reacciones tienen propiedades adicionales. Función de estado : Recuperar
@@ -887,17 +950,37 @@ Función de estado ### Aspecto +Desplazable +: Determina de qué formas se puede desplazar la tabla.
+**Valores proporcionados**: ambos, vertical + Está cargando : Muestra un indicador de carga.
**Valores proporcionados**: on, off -Incluye ajuste de texto +Tiene ajuste de texto : Determina si el texto de la celda se ajusta.
-**Valores proporcionados**: on, off
+**Valores proporcionados**: on, off -Desplazable -: Determina de qué formas se puede desplazar la tabla.
-**Valores proporcionados**: ambos, vertical +Tiene subfilas +: Habilita subfilas para cada fila. Incluiye la propiedad `subRows` en la fuente de datos.
+**Valores proporcionados**: on, off + +Se puede buscar +: Determina si se añade una barra de búsqueda a la tabla.
+**Valores proporcionados**: on, off + +Mostrar opciones de clasificación +: Añade un botón **Clasificar** a la tabla que ofrece a los usuarios opciones de clasificación.
+**Valores proporcionados**: on, off + +Mostrar opciones de columna +: Añade un botón **Columnas** a la tabla para mostrar, ocultar o reorganizar las columnas de la tabla.
+**Valores proporcionados**: on, off + +Tiene filtro de intervalo de fechas +: Añade un filtro de intervalo de fechas a la tabla.
+**Valores proporcionados**: on, off Es visible : Determina si el componente es visible para el usuario final. En modo edición, todos los componentes permanecen visibles.
@@ -909,7 +992,7 @@ Evento : **Valores**: pageChange, tableRowClick Reacción -: **Valores**: personalizado, definir estado del componente, activar consulta, abrir modal, cerrar modal, descargar archivo, definir valor de variable de estado. +: **Valores**: descargar archivo, abrir modal, cerrar modal, abrir panel lateral, cerrar panel lateral, definir estado de componente, definir valor de variable de estado, notificación Toast, activar acción, personalizado Funciones de estado : Recuperar
@@ -966,6 +1049,10 @@ Es visible Muestra pares de propiedades y valores en formato JSON. +### Relaciones + +Muestra las dependencias entre los datos de la tabla y los componentes de la aplicación. + ### Ejemplo Para ver este componente en contexto, consulta el plano de la aplicación [Explorador de métricas y Builder de monitores][2]. @@ -975,7 +1062,7 @@ Para ver este componente en contexto, consulta el plano de la aplicación [Explo {{% collapse-content title="Área de texto" level="h3" %}} Los componentes de área de texto tienen las siguientes propiedades. -Etiqueta +Etiqueta (Label) : Texto que aparece en la parte superior del componente.
**Valor**: cadena o expresión @@ -1022,7 +1109,7 @@ Muestra pares de propiedades y valores en formato JSON. {{% collapse-content title="Entrada de texto" level="h3" %}} Los componentes de entrada de texto tienen las siguientes propiedades. -Etiqueta +Etiqueta (Label) : Texto que aparece en la parte superior del componente.
**Valor**: cadena o expresión diff --git a/content/es/agent/basic_agent_usage/puppet.md b/content/es/agent/basic_agent_usage/puppet.md index 805b9ddfc9c74..4974c2d675f0c 100644 --- a/content/es/agent/basic_agent_usage/puppet.md +++ b/content/es/agent/basic_agent_usage/puppet.md @@ -5,20 +5,16 @@ title: Puppet --- Este módulo instala el Datadog Agent y envía informes de Puppet a Datadog. -### Requisitos +## Requisitos previos -El módulo Puppet Datadog admite Linux y Windows y es compatible con la versión 7.34.x o posterior de Puppet o con la versión 2021.7.x o posterior -de Puppet Enterprise. Para obtener información detallada sobre la compatibilidad, consulta la [página del módulo en Puppet Forge][1]. +El módulo Puppet Datadog admite Linux y Windows, y es compatible con las versiones >= 7.34.x de Puppet o con +las versiones >= 2021.7.x de Puppet Enterprise. Para obtener información detallada sobre la compatibilidad, consulta la [página del módulo en Puppet Forge][1]. -### Instalación +## Instalación -Instala el módulo Puppet de [datadog_agent][1] en la ruta del módulo de tu nodo maestro Puppet: +Sigue la [guia de instalacion en la aplicación en Fleet Automation][9] para seleccionar las funciones requeridas, copiar el fragmento de manifiesto generado, agregarlo a tu manifiesto de Puppet y aplicar tu despliegue estandar de Puppet para implementar el Agent. Consulta el [módulo del Datadog Agent][1] o la [sección de configuraciones avanzadas](#advanced-configurations) para consultar configuraciones adicionales, incluyendo la gestión de actualizaciones del Agent, la habilitación de integraciones del Agent y la configuración de informes de ejecución de Puppet. -```shell -puppet module install datadog-datadog_agent -``` - -#### Actualización +### Actualización del Agent > [!IMPORTANTE] > La v4.x del módulo Puppet Datadog deja de ser compatible con la v6 o anterior de Puppet y con la v5 del Datadog Agent. Para actualizar o instalar la v5 del Datadog Agent @@ -101,6 +97,9 @@ Una vez que el módulo `datadog_agent` esté instalado en tu `puppetserver`/`pup 5. (Opcional) Para recopilar métricas y eventos sobre Puppet, consulta la sección [Informes](#reporting). + +## Configuraciones avanzadas + ### Actualización de las integraciones Para instalar y anclar versiones de integraciones específicas, utiliza `datadog_agent::install_integration`. De este modo, se invoca el comando `datadog-agent integration` para garantizar la instalación o desinstalación de una integración específica. Ejemplo: @@ -349,4 +348,5 @@ class { "datadog_agent": [5]: https://app.datadoghq.com/event/stream [6]: https://github.com/DataDog/puppet-datadog-agent/blob/master/manifests/integrations/mongo.pp [7]: https://github.com/DataDog/puppet-datadog-agent/tree/master/manifests/integrations -[8]: https://github.com/DataDog/puppet-datadog-agent/blob/master/manifests/init.pp \ No newline at end of file +[8]: https://github.com/DataDog/puppet-datadog-agent/blob/master/manifests/init.pp +[9]: https://app.datadoghq.com/fleet/install-agent/latest?platform=puppet \ No newline at end of file diff --git a/content/es/agent/guide/heroku-ruby.md b/content/es/agent/guide/heroku-ruby.md index 710883c441d7f..e474ff243307c 100644 --- a/content/es/agent/guide/heroku-ruby.md +++ b/content/es/agent/guide/heroku-ruby.md @@ -1,4 +1,7 @@ --- +description: Guía paso a paso para desplegar e instrumentar una aplicación Ruby on + Rails en Heroku con Datadog para recopilar métricas, logs, trazas (traces) y datos + de integración. further_reading: - link: /agent/basic_agent_usage/heroku/ tag: Documentación @@ -9,7 +12,7 @@ further_reading: title: Instrumentar una aplicación de Ruby on Rails en Heroku con Datadog --- -Heroku es una plataforma popular entre los desarrolladores de Ruby y, más específicamente, los de Ruby on Rails. Datadog es compatible con Heroku y Ruby, por lo que puedes enviar las métricas, logs y trazas (traces) de tu aplicación de Ruby en Heroku a Datadog. +Heroku es una plataforma popular entre los desarrolladores de Ruby y, más específicamente, los de Ruby on Rails. Datadog es compatible con Heroku y Ruby, por lo que puedes enviar las métricas, logs y trazas de tu aplicación de Ruby en Heroku a Datadog. En esta guía, te explicaremos los pasos necesarios para utilizar una aplicación de Rails desplegada en Heroku y hacer que las métricas, datos de integración, logs y trazas se envíen a Datadog. @@ -521,7 +524,7 @@ Collector [...] ``` -## Trazas (traces) +## Trazas Habilita la instrumentación para obtener un rastreo distribuido de tu aplicación de Ruby en Heroku. @@ -772,7 +775,7 @@ Para obtener más información sobre el significado de cada uno de estos valores Sigue los mismos pasos de la sección anterior para generar métricas con una retención de 15 meses para cada una de esas medidas. -#### Correlaciona logs y trazas +#### Correlacionar logs y trazas Si sigues las instrucciones de configuración anteriores, los logs enviados desde la purga de logs de Heroku se correlacionan con las trazas. diff --git a/content/es/agent/guide/integration-management.md b/content/es/agent/guide/integration-management.md index 2b6995982b013..bf95b6ab77d67 100644 --- a/content/es/agent/guide/integration-management.md +++ b/content/es/agent/guide/integration-management.md @@ -1,15 +1,18 @@ --- algolia: tags: - - Gestión de integraciones + - Gestión de las integraciones +description: Guía para gestionar las integraciones oficiales de Datadog mediante el + comando de integración datadog-agent, incluyendo las operaciones para instalar, + eliminar, mostrar y congelar. title: Gestión de integraciones --- ## Información general -El Agent viene con una serie de integraciones oficiales de Datadog para que los usuarios puedan monitorizar sus aplicaciones de forma rápida. Estas integraciones están disponibles como paquetes individuales de Python y pueden actualizarse por separado. +El Agent viene con una serie de integraciones oficiales de Datadog para que los usuarios puedan monitorizar sus aplicaciones de forma rápida. Estas integraciones están disponibles como paquetes Python individuales y pueden actualizarse por separado. -**Nota**: Las integraciones Community, Partner y Marketplace no se conservan cuando se actualiza Agent. Estas integraciones deben volver a instalarse al actualizar la versión del Agent. +**Nota**: A partir de la versión 7.69 de Agent, las integraciones de Community, Partner y Marketplace se conservan automáticamente durante las actualizaciones. Para desactivar esta función, crea un archivo vacío llamado `.skip_install_python_third_party_deps` en el directorio `/etc/datadog-agent/` antes de actualizar. Si este archivo está presente, las integraciones no se conservan y deben reinstalarse manualmente después de la actualización. Para el Agent 6.8 o versiones posteriores, el comando `datadog-agent integration` permite a los usuarios gestionar las integraciones oficiales de Datadog que están disponibles para el Agent. Incluye los siguientes subcomandos: diff --git a/content/es/agent/guide/use-community-integrations.md b/content/es/agent/guide/use-community-integrations.md index ff291805f4bcb..08c2ba5df2c21 100644 --- a/content/es/agent/guide/use-community-integrations.md +++ b/content/es/agent/guide/use-community-integrations.md @@ -1,6 +1,8 @@ --- aliases: - /es/agent/guide/community-integrations-installation-with-docker-agent +description: Guía de instalación y configuración para integraciones desarrolladas + por la comunidad y Marketplace con el Datadog Agent en distintos entornos. further_reading: - link: /agent/troubleshooting/ tag: Documentación @@ -40,7 +42,7 @@ En las versiones 7.21/6.21 del Agent (y posteriores): [1]: /es/getting_started/integrations/ [2]: /es/agent/configuration/agent-commands/#restart-the-agent {{% /tab %}} -{{% tab "Contenedorizado" %}} +{{% tab "Contenedores" %}} Para utilizar una integración de la comunidad o el mercado en un entorno contenerizado debes crear una imagen personalizada que incluya la integración comunitaria que quieras. @@ -51,7 +53,7 @@ FROM gcr.io/datadoghq/agent:latest RUN agent integration install -r -t datadog-== ``` -El comando `datadog-agent integration install` (ejecutado dentro de Docker) emite la siguiente advertencia inofensiva: `Error loading config: Config File "datadog" Not Found in "[/etc/datadog-agent]": warn`. Puedes ignorarla. +El comando `agent integration install` (ejecutado dentro de Docker) emite la siguiente advertencia inofensiva: `Error loading config: Config File "datadog" Not Found in "[/etc/datadog-agent]": warn`. Puedes ignorar esta advertencia. Si utilizas Kubernetes, actualiza tu gráfico de Helm o tu configuración de operador Datadog para extraer tu imagen personalizada. diff --git a/content/es/agent/guide/why-should-i-install-the-agent-on-my-cloud-instances.md b/content/es/agent/guide/why-should-i-install-the-agent-on-my-cloud-instances.md index bbc74bae6aa18..3300e6c551046 100644 --- a/content/es/agent/guide/why-should-i-install-the-agent-on-my-cloud-instances.md +++ b/content/es/agent/guide/why-should-i-install-the-agent-on-my-cloud-instances.md @@ -3,6 +3,9 @@ aliases: - /es/agent/faq/why-should-i-install-the-agent-on-my-aws-instances/ - /es/integrations/faq/why-is-my-aws-error-count-metric-orders-of-magnitude-lower-in-datadog-than-cloudwatch/ - /es/agent/faq/why-should-i-install-the-agent-on-my-cloud-instances/ +description: Explica las ventajas de instalar el Datadog Agent en instancias en la + nube, incluida una mejor resolución, más métricas, integraciones y funciones de + monitorización personalizadas. further_reading: - link: /integrations/guide/cloud-metric-delay/ tag: Guía diff --git a/content/es/agent/iot/_index.md b/content/es/agent/iot/_index.md index 134248d3efa1d..7a21bb0815683 100644 --- a/content/es/agent/iot/_index.md +++ b/content/es/agent/iot/_index.md @@ -1,4 +1,6 @@ --- +description: Monitorizar dispositivos IoT y aplicaciones integradas con el Datadog + IoT Agent optimizado para entornos con recursos limitados. further_reading: - link: /getting_started/agent/ tag: Documentación @@ -46,7 +48,7 @@ Los requisitos exactos de un recurso varían en función del uso que hace de ell ### Instalación -#### Automática +#### Automático Para descargar e instalar automáticamente el IoT Agent correcto para tu sistema operativo y la arquitectura de tu conjunto de chips, usa el siguiente comando: diff --git a/content/es/agent/logs/log_transport.md b/content/es/agent/logs/log_transport.md index 01cf2ab06bc87..02590b3e4828e 100644 --- a/content/es/agent/logs/log_transport.md +++ b/content/es/agent/logs/log_transport.md @@ -67,7 +67,7 @@ De forma predeterminada, el Datadog Agent utiliza el puerto `443` para enviar su Al usar HTTP, el Agent envía lotes de logs con los siguientes límites: * Tamaño máximo del lote: 1 MB -* Tamaño máximo para un log único: 256 kB +* Tamaño máximo de un único log: 900 kB * Número máximo de Logs en un lote: 1000 ### Compresión de logs diff --git a/content/es/agent/logs/proxy.md b/content/es/agent/logs/proxy.md index ccda51ae8da7f..7dcc0571eb302 100644 --- a/content/es/agent/logs/proxy.md +++ b/content/es/agent/logs/proxy.md @@ -1,4 +1,6 @@ --- +description: Configura el Datadog Agent para enviar logs a través de proxies TCP y + SOCKS5, con ejemplos detallados de configuración de HAProxy y NGINX. further_reading: - link: /logs/ tag: Documentación @@ -14,7 +16,7 @@ title: Proxy TCP del Agent para el envío de logs {{% site-region region="us3,eu,us5,gov,ap1,ap2" %}}
- TCP no está disponible para el sitio {{< region-param key="dd_site_name" >}} site. Para obtener más información, ponte en contacto con el servicio de asistencia. + TCP no está disponible para el sitio {{< region-param key="dd_site_name" >}}. Ponte en contacto con el servicio de asistencia para obtener más información.
{{% /site-region %}} @@ -299,6 +301,5 @@ stream { {{< partial name="whats-next/whats-next.html" >}} - [1]: /es/agent/logs/log_transport?tab=https [2]: /es/agent/configuration/proxy/ \ No newline at end of file diff --git a/content/es/agent/troubleshooting/integrations.md b/content/es/agent/troubleshooting/integrations.md index 59e10c1dd12cf..dbe338a9246a9 100644 --- a/content/es/agent/troubleshooting/integrations.md +++ b/content/es/agent/troubleshooting/integrations.md @@ -1,6 +1,8 @@ --- aliases: - /es/integrations/faq/issues-getting-integrations-working +description: Soluciona problemas de configuración de la integración Datadog y resuelve + problemas relacionados con archivos YAML, checks de estado y métricas faltantes. further_reading: - link: /agent/troubleshooting/debug_mode/ tag: Documentación diff --git a/content/es/agent/troubleshooting/site.md b/content/es/agent/troubleshooting/site.md index 34bb6fab5046b..db2dd06e47fe5 100644 --- a/content/es/agent/troubleshooting/site.md +++ b/content/es/agent/troubleshooting/site.md @@ -1,4 +1,6 @@ --- +description: Configura el Datadog Agent para enviar datos al sitio de Datadog correcto + estableciendo el parámetro de sitio o la variable de entorno DD_SITE. title: Problemas con el sitio del Agent --- diff --git a/content/es/api/latest/_index.md b/content/es/api/latest/_index.md index ce35dadb55014..9ffa0fbe0973b 100644 --- a/content/es/api/latest/_index.md +++ b/content/es/api/latest/_index.md @@ -62,7 +62,7 @@ Gradle - Añade esta dependencia al archivo de compilación de tu proyecto: compile "com.datadoghq:datadog-api-client:{{< sdk-version "datadog-api-client-java" >}}" ``` -#### Uso +#### Utilización ```java import com.datadog.api.client.ApiClient; @@ -126,7 +126,7 @@ Ejemplo de ejecución con el comando `gradle run`. ```sh pip install datadog ``` -#### Uso +#### Utilización ```python import datadog ``` @@ -137,7 +137,7 @@ import datadog ```console pip3 install datadog-api-client ``` -#### Uso +#### Utilización ```python import datadog_api_client ``` @@ -148,7 +148,7 @@ import datadog_api_client ```sh gem install dogapi ``` -#### Uso +#### Utilización ```ruby require 'dogapi' ``` @@ -159,7 +159,7 @@ require 'dogapi' ```sh gem install datadog_api_client -v {{< sdk-version "datadog-api-client-ruby" >}} ``` -#### Uso +#### Utilización ```ruby require 'datadog_api_client' ``` @@ -170,7 +170,7 @@ require 'datadog_api_client' ```sh go mod init main && go get github.com/DataDog/datadog-api-client-go/v2/api/datadog ``` -#### Uso +#### Utilización ```go import ( "github.com/DataDog/datadog-api-client-go/v2/api/datadog" @@ -192,7 +192,7 @@ npm install @datadog/datadog-api-client yarn add @datadog/datadog-api-client ``` -#### Uso +#### Utilización ```js import { } from 'datadog-api-client'; ``` @@ -209,7 +209,7 @@ Ejecuta `cargo add datadog-api-client` o añade lo siguiente a `Cargo.toml` en ` datadog-api-client = "0" ``` -#### Uso +#### Utilización Prueba el siguiente fragmento para validar la clave de tu API Datadog: ```rust use datadog_api_client::datadog::Configuration; @@ -250,4 +250,4 @@ O consulta directamente en las bibliotecas: [4]: /es/api/v1/using-the-api/ [5]: https://brew.sh [6]: https://docs.datadoghq.com/es/developers/community/libraries/ -[7]: /es/getting_started/application/ +[7]: /es/getting_started/application/ \ No newline at end of file diff --git a/content/es/api/latest/rate-limits/_index.md b/content/es/api/latest/rate-limits/_index.md index 6054755f86a00..eb965c6c87203 100644 --- a/content/es/api/latest/rate-limits/_index.md +++ b/content/es/api/latest/rate-limits/_index.md @@ -19,7 +19,7 @@ En cuanto a la política de límite de tasa de API: - Los límites de tasa para los endpoints varían y se incluyen en los encabezados que se detallan a continuación. Estos pueden ampliarse bajo demanda.
- La lista no incluye todos los límites de tasa de las API de Datadog. Si experimentas limitaciones de tasa, ponte en contacto con el soporte para obtener más información sobre las API que utilizas y sus límites.
+La lista anterior no incluye todos los límites de velocidad de las APIs de Datadog. Si experimentas limitaciones de velocidad, ponte en contacto con el servicio de asistencia para obtener más información sobre las APIs que utilizas y sus límites. | Cabeceras de límites de tasa | Descripción | | ----------------------- | -------------------------------------------------------- | @@ -223,4 +223,4 @@ Para obtener una visibilidad más detallada de la actividad de la API, considera [1]: /es/help/ [2]: /es/api/v1/metrics/ [3]: /es/metrics/custom_metrics/ -[4]: /es/account_management/audit_trail/events/ +[4]: /es/account_management/audit_trail/events/ \ No newline at end of file diff --git a/content/es/api/latest/scopes/_index.md b/content/es/api/latest/scopes/_index.md index 9d23456bd27c0..bda1f40d2ee32 100644 --- a/content/es/api/latest/scopes/_index.md +++ b/content/es/api/latest/scopes/_index.md @@ -5,20 +5,20 @@ type: api --- ## Contextos de autorización para clientes OAuth -Los contextos son un mecanismo de autorización que permite limitar y definir el acceso específico que tienen las aplicaciones a los datos de Datadog de una organización. Cuando se autoriza el acceso a los datos en nombre de un usuario o cuenta de servicio, las aplicaciones sólo pueden acceder a la información explícitamente permitida por su contexto asignado. +Los contextos son un mecanismo de autorización que permite limitar y definir el acceso específico que tienen las aplicaciones a los datos de Datadog de una organización. Cuando se autoriza el acceso a los datos en nombre de un usuario o cuenta de servicio, las aplicaciones solo pueden acceder a la información explícitamente permitida por su contexto asignado. -
Esta página enumera únicamente los contextos de autorización que pueden asignarse a los clientes OAuth. Para ver la lista completa de permisos asignables para claves de aplicación delimitadas, consulta Permisos para roles Datadog. +
Esta página enumera solo los ámbitos de autorización que pueden asignarse a los clientes de OAuth. Para ver la lista completa de permisos asignables para claves de aplicación con ámbito, consulta Permisos de rol de Datadog.
    -
  • Clientes OAuth → Sólo se les pueden asignar contextos de autorización (conjunto limitado).
  • -
  • Claves de aplicación delimitadas → Se les puede asignar cualquier permiso Datadog.
  • +
  • Clientes de OAuth → Solo se pueden asignar ámbitos de autorización (conjunto limitado).
  • +
  • Claves de aplicación de ámbito → Se les puede asignar cualquier permiso de Datadog.
-La práctica recomendada para delimitar las aplicaciones es seguir el principio del mínimo privilegio. Asigna sólo el mínimo contexto necesario para que una aplicación funcione según lo previsto. Esto mejora la seguridad y proporciona visibilidad de cómo interactúan las aplicaciones con los datos de tu organización. Por ejemplo, una aplicación de terceros que sólo lee dashboards no necesita permisos para eliminar o gestionar usuarios. +La práctica recomendada para delimitar las aplicaciones es seguir el principio del mínimo privilegio. Asigna solo el mínimo contexto necesario para que una aplicación funcione según lo previsto. Esto mejora la seguridad y proporciona visibilidad de cómo interactúan las aplicaciones con los datos de tu organización. Por ejemplo, una aplicación de terceros que solo lee dashboards no necesita permisos para eliminar o gestionar usuarios. Puede utilizar contextos de autorización con clientes OAuth2 para tus [aplicaciones Datadog][1]. {{< api-scopes >}} -[1]: https://docs.datadoghq.com/es/developers/datadog_apps/#oauth-api-access +[1]: https://docs.datadoghq.com/es/developers/datadog_apps/#oauth-api-access \ No newline at end of file diff --git a/content/es/bits_ai/mcp_server/setup/_index.md b/content/es/bits_ai/mcp_server/setup/_index.md new file mode 100644 index 0000000000000..7cbe0a16bdc8f --- /dev/null +++ b/content/es/bits_ai/mcp_server/setup/_index.md @@ -0,0 +1,433 @@ +--- +description: Aprende a instalar y configurar el servidor MCP de Datadog para conectar + tus agentes de IA a las herramientas y datos de capacidad de observación de Datadog. +further_reading: +- link: https://www.datadoghq.com/blog/datadog-remote-mcp-server/ + tag: Blog + text: Conecta tus agentes de IA a las herramientas y el contexto de Datadog mediante + el servidor MCP de Datadog. +- link: bits_ai/mcp_server + tag: Documentación + text: Servidor MCP de Datadog +- link: developers/ide_plugins/vscode/?tab=cursor + tag: Documentación + text: Extensión para Cursor de Datadog +- link: https://www.datadoghq.com/blog/datadog-cursor-extension/ + tag: Blog + text: Depuración de problemas de producción en directo con la extensión Cursor de + Datadog +- link: https://www.datadoghq.com/blog/openai-datadog-ai-devops-agent/ + tag: Blog + text: 'Datadog + OpenAI: integración de Codex CLI para DevOps asistidos por IA' +private: true +title: Configurar el servidor MCP de Datadog +--- + +{{< callout url="https://www.datadoghq.com/product-preview/datadog-mcp-server/" >}} +El servidor MCP de Datadog está en vista previa. El uso del servidor MCP de Datadog durante la vista previa es gratuito. Si estás interesado en esta función y necesitas acceso, completa este formulario. Más información sobre el servidor MCP en el blog de Datadog . +{{< /callout >}} + +## Descargo de responsabilidad + +- El servidor MCP de Datadog no es compatible con el uso en producción durante la vista previa. +- Solo las organizaciones de Datadog que hayan sido específicamente autorizadas pueden utilizar el Servidor MCP de Datadog. No está disponible para el público en general. +- El servidor MCP de Datadog no está disponible para organizaciones que requieran el cumplimiento de HIPAA. +- Datadog recopila determinada información sobre el uso que haces del Servidor MCP remoto de Datadog, incluida la forma en que interactúas con él, si se han producido errores al utilizarlo, cuál ha sido la causa de dichos errores e identificadores de usuario, de conformidad con la Política de privacidad de Datadog y el EULA de Datadog. Estos datos se utilizan para ayudar a mejorar el rendimiento y las funciones del servidor, incluidas las transiciones hacia y desde el servidor y la page (página) de inicio de sesión de Datadog aplicable para acceder a los Servicios y el contexto (por ejemplo, los avisos al usuario) que conducen al uso de las herramientas de MCP. Los datos se almacenan durante 120 días. + +## Información general + +El servidor MCP gestionado por Datadog actúa como puente entre tus datos de capacidad de observación en Datadog y los agentes de IA compatibles con el [Protocolo de Contexto de Modelo (MCP)][1]. Al proporcionar acceso estructurado a los contextos, funciones y herramientas pertinentes de Datadog, el servidor MCP te permite consultar y recuperar información de capacidad de observación directamente desde clientes de IA como Cursor, OpenAI Codex, Claude Code o tu propio agente de IA. + +Esta page (página) proporciona instrucciones para conectar tu agente de IA al servidor MCP de Datadog, enumera las herramientas disponibles e incluye ejemplos de avisos. + +Esta demostración muestra el Servidor MCP de Datadog mientras se utiliza en Cursor y Claude Code (desactiva el silencio para el audio): + +{{< img src="bits_ai/mcp_server/mcp_cursor_demo_3.mp4" alt="Demostración del servidor MCP de Datadog en Cursor y Claude Code" video="true" >}} + +## Compatibilidad con los clientes + +Los siguientes clientes de la IA son compatibles con el servidor MCP de Datadog. + +
El servidor MCP de Datadog se encuentra en fase de desarrollo, por lo que es posible que aparezcan otros clientes compatibles.
+ +| Cliente | Desarrollador | Notas | +|--------|------|------| +| [Cursor][8] | Anysphere | Se recomienda la [extensión Cursor y VS Code](#connect-in-cursor-and-vs-code) de Datadog. | +| [Claude Code][5] | Anthropic | | +| [Claude Desktop][6] | Anthropic | Compatibilidad limitada para la autenticación remota. Utiliza la [autenticación binaria local](?tab=localbinaryauthentication#connect-in-supported-ai-clients) según sea necesario. | +| [Codex CLI][7] | OpenAI | | +| [VS Code][11] | Microsoft | Se recomienda la [extensión Cursor y VS](#connect-in-cursor-and-vs-code) de Datadog. | +| [Goose][9] | Bloque | | +| [Q CLI][10] | Amazon | Para la autenticación remota, añade `"oauthScopes": []` a la [configuración] del servidor(?tab=remoteauthentication#example-configurations). | +| [Cline][18] | Cline Bot | Compatibilidad limitada para la autenticación remota. Utiliza la [autenticación binaria local](?tab=localbinaryauthentication#connect-in-supported-ai-clients) según sea necesario. | + +## Requisitos + +Los usuarios de Datadog deben tener el [permiso][19] `Incidents Read` para utilizar el Servidor MCP. + +## Conectar en Cursor y VS Code + +La [extensión de Cursor y VS Code][12] de Datadog incluye acceso integrado al servidor MCP gestionado de Datadog. Las ventajas incluyen: + +* No es necesaria ninguna otra configuración del el servidor MCP después de instalar la extensión y conectarse a Datadog. +* Transiciones con un solo clic entre varias organizaciones de Datadog. +* [Solo Cursor] Mejores correcciones de **Fix in Chat** en Code Insights (problemas de Error Tracking, vulnerabilidades de código y vulnerabilidades de bibliotecas), informadas por contexto desde el Servidor MCP. + +Para instalar la extensión: + +1. Si previamente instalaste manualmente el Servidor MCP de Datadog, elimínalo de la configuración del IDE para evitar conflictos. Para encontrar la configuración del Servidor MCP: + - Cursor: Ve a **Cursor Settings** (Configuración de Cursor) (`Shift` + `Cmd/Ctrl` + `J`) y selecciona la pestaña **MCP**. + - VS Code: Abre la paleta de comandos (`Shift` + `Cmd/Ctrl` + `P`) y ejecuta `MCP: Open User Configuration`. +2. Instala la extensión de Datadog siguiendo [estas instrucciones][14]. Si ya tienes instalada la extensión, asegúrate de que sea la última versión, ya que periódicamente se publican nuevas funciones. +3. Inicia sesión en tu cuenta de Datadog. Si tienes varias cuentas, utiliza la cuenta incluida en tu vista previa del producto. + {{< img src="bits_ai/mcp_server/ide_sign_in.png" alt="Inicia sesión en Datadog desde la extensión del IDE" style="width:70%;" >}} +4. **Reinicia el IDE. +5. Confirma que el servidor MCP de Datadog esté disponible y que las [herramientas](#available-tools) aparezcan en tu IDE: + - Cursor: Ve a **Cursor Settings** (Configuración de Cursor) (`Shift` + `Cmd/Ctrl` + `J`) y selecciona la pestaña **MCP**. + - VS Code: Abre el panel del chat, selecciona el modo agente y haz clic en el botón **Configure Tools** (Configurar herramientas). + {{< img src="bits_ai/mcp_server/vscode_configure_tools_button.png" alt="Botón Configurar herramientas en VS Code" style="width:70%;" >}} + +## Conectar en clientes de IA compatibles + +Las siguientes instrucciones son para todos los [clientes compatibles con MCP](#client-compatibility). Para Cursor o VS Code, utiliza la [extensión de Datadog ](#connect-in-cursor-and-vs-code) para un acceso integrado al Servidor MCP de Datadog. + +{{< tabs >}} +{{% tab "Autenticación remota" %}} +Este método utiliza el mecanismo de transmisión [HTTP transmisible][1] de la especificación de MCP para conectarse al Servidor MCP. + +Dirige tu agente de IA al endpoint del servidor MCP para tu [sitio regional de Datadog ][2]. Por ejemplo, si utilizas `app.datadoghq.com` para acceder a Datadog, utiliza el endpoint del sitio US1. + +Si tu organización utiliza un [subdominio personalizado][3], utiliza el endpoint que corresponda a tu sitio regional de Datadog. Por ejemplo, si tu subdominio personalizado es `myorg.datadoghq.com`, utiliza el endpoint US1. + +| Sitio web de Datadog | Endpoint del servidor MCP | +|--------|------| +| **US1** (`app.datadoghq.com`) | `https://mcp.datadoghq.com/api/unstable/mcp-server/mcp` | +| **US3** (`us3.datadoghq.com`) | `https://mcp.us3.datadoghq.com/api/unstable/mcp-server/mcp` | +| **US5** (`us5.datadoghq.com`) | `https://mcp.us5.datadoghq.com/api/unstable/mcp-server/mcp` | +| **UE1** (`app.datadoghq.eu`) | `https://mcp.datadoghq.eu/api/unstable/mcp-server/mcp` | +| **AP1** (`ap1.datadoghq.com`) | `https://mcp.ap1.datadoghq.com/api/unstable/mcp-server/mcp` | +| **AP2** (`ap2.datadoghq.com`) | `https://mcp.ap2.datadoghq.com/api/unstable/mcp-server/mcp` | + +### Ejemplos de configuraciones + +Estos ejemplos corresponden al sitio US1: + +* **Línea de comandos: Para Claude Code, ejecuta: + ```bash + claude mcp add --transport http datadog-mcp https://mcp.datadoghq.com/api/unstable/mcp-server/mcp + ``` + +* **Archivo de configuración**: Edita el archivo de configuración de tu agente de IA: + * Codex CLI: `~/.codex/config.toml` + * Gemini CLI: `~/.gemini/settings.json` + + ```json + { + "mcpServers": { + "datadog": { + "type": "http", + "url": "https://mcp.datadoghq.com/api/unstable/mcp-server/mcp" + } + } + } + ``` + * Amazon Q CLI: `~/.aws/amazonq/default.json` + + ```json + { + "mcpServers": { + "datadog": { + "type": "http", + "url": "https://mcp.datadoghq.com/api/unstable/mcp-server/mcp", + "oauthScopes": [] + } + } + } + ``` + +[1]: https://modelcontextprotocol.io/specification/2025-03-26/basic/transports#streamable-http +[2]: /es/getting_started/site/ +[3]: /es/account_management/multi_organization/#custom-sub-domains +{{% /tab %}} + +{{% tab "Autenticación binaria local" %}} + +Este método utiliza el mecanismo de transmisión [stdio][1] de la especificación de MCP para conectarse al servidor MCP. + +Utiliza esta opción si no dispones de autenticación remota directa. Tras la instalación, normalmente no es necesario actualizar el binario local para beneficiarse con las actualizaciones del servidor MCP, ya que las herramientas son remotas. + +1. Instala el binario del Servidor MCP de Datadog: + * macOS y Linux: + ```bash + curl -sSL https://coterm.datadoghq.com/mcp-cli/install.sh | bash + ``` + + Esto instala el binario del Servidor MCP en `~/.local/bin/datadog_mcp_cli` y entonces puedes utilizarlo como cualquier otro servidor MCP stdio.

+ + * Windows: Descarga la [versión Windows][2]. + +2. Ejecuta `datadog_mcp_cli login` manualmente para recorrer el flujo de inicio de sesión de OAuth. + + El servidor MCP inicia automáticamente el flujo de OAuth si un cliente lo necesita, pero hacerlo manualmente te permite elegir un [sitio Datadog][3] y evitar que el cliente de IA se desconecte. + +3. Configura tu cliente de IA para utilizar el Servidor MCP de Datadog. Sigue las instrucciones de configuración de tu cliente, ya que la configuración del Servidor MCP varía entre clientes de IA de terceros. + + Por ejemplo, para Claude Code, añade esto a `~/.claude.json`, asegúrate de sustituir `` en la ruta del comando: + + ```json + { + "mcpServers": { + "datadog": { + "type": "stdio", + "command": "/Users//.local/bin/datadog_mcp_cli", + "args": [], + "env": {} + } + } + } + ``` + + Alternativamente, también puedes configurar Claude Code ejecutando lo siguiente: + ```bash + claude mcp add datadog --scope user -- ~/.local/bin/datadog_mcp_cli + ``` + +[1]: https://modelcontextprotocol.io/specification/2025-03-26/basic/transports#stdio +[2]: https://coterm.datadoghq.com/mcp-cli/datadog_mcp_cli.exe +[3]: /es/getting_started/site/ +{{% /tab %}} +{{< /tabs >}} + +### Autenticación + +El servidor MCP utiliza OAuth 2.0 para la [autenticación][2]. Si no puedes pasar por el flujo de OAuth (por ejemplo, en un servidor), puedes proporcionar una [clave de API y clave de aplicación][3] de Datadog como `DD_API_KEY` y `DD_APPLICATION_KEY` encabezados HTTP. Por ejemplo: + +{{< code-block lang="json" >}} +{ + "mcpServers": { + "datadog": { + "type": "http", + "url": "https://mcp.datadoghq.com/api/unstable/mcp-server/mcp", + "headers": { + "DD_API_KEY": "", + "DD_APPLICATION_KEY": "" + } + } + } +} +{{< /code-block >}} + +### Test de acceso al servidor MCP + +1. Instala el [inspector de MCP][4], una herramienta de desarrollo para testing y depuración de servidores MCP. + + ```bash + npx @modelcontextprotocol/inspector + ``` +2. En la interfaz web del inspector, en **Transport Type** (Tipo de transmisión), selecciona **Streamable HTTP** (HTTP transmisible). +3. En **URL**, introduce la [URL del servidor MCP](?tab=remoteauthentication#connect-in-supported-ai-clients) de tu sitio regional de Datadog. +4. Haz clic en **Connect** (Conectar), luego ve a **Tools** (Herramientas) > **List Tools** (Enumerar herramientas). +5. Check si aparecen las [herramientas disponibles](#available-tools). + +## Conjuntos de herramientas + +El servidor MCP de Datadog admite _conjuntos de herramientas_, que te permiten utilizar solo las herramientas que necesitas, ahorrando un valioso espacio en la ventana contextual. Estos conjuntos de herramientas están disponibles: + +- `core`: El conjunto de herramientas predeterminado +- `synthetics`: Herramientas para interactuar con [tests de Synthetic Monitoring][21] de Datadog + +Para utilizar un conjunto de herramientas, incluye el parámetro de consulta `toolsets` en la URL del endpoint al conectarte al servidor MCP ([autenticación remota](?tab=remote-authentication#connect-in-supported-ai-clients) únicamente). Por ejemplo + +- `https://mcp.datadoghq.com/api/unstable/mcp-server/mcp` recupera solo las herramientas básicas (es el valor predeterminado si no se especifica `toolsets` ). +- `https://mcp.datadoghq.com/api/unstable/mcp-server/mcp?toolsets=synthetics` recupera solo las herramientas relacionadas con tests de Synthetic Monitoring. +- `https://mcp.datadoghq.com/api/unstable/mcp-server/mcp?toolsets=core,synthetics` recupera las herramientas de tests básicas y de Synthetic Monitoring. + +## Herramientas disponibles + +En esta sección se enumeran las herramientas disponibles en el servidor MCP de Datadog y se ofrecen avisos de cómo utilizarlas. + +
Las herramientas del servidor MCP de Datadog se encuentran en fase de desarrollo y están sujetas a cambios. Utiliza este formulario de comentarios para compartir cualquier comentario, casos de uso o problemas encontrados con sus avisos y consultas.
+ +### `search_datadog_docs` +*Toolset: **core***\ +Devuelve respuestas generadas por IA a preguntas de Datadog, extraídas de la [documentación de Datadog][15]. +- ¿Cómo se activa la generación de perfiles de Datadog en Python? +- ¿Cuál es la mejor manera de correlacionar logs y traces (trazas)? +- ¿Cómo funciona la instrumentación automática de RUM? + +### `search_datadog_events` +*Toolset: **core***\ +Busca eventos como alertas en monitor (noun), notificaciones de despliegue, cambios en la infraestructura, hallazgos de seguridad y cambios en el estado de los servicios. + +- Muestra todos los eventos de despliegue de las últimas 24 horas. +- Busca eventos relacionados con nuestro entorno de producción con estado de error. +- Obtén los eventos etiquetados con `service:api` de la última hora. + +**Nota**: Consulta la [API de Event Management][16] para obtener más detalles. + +### `get_datadog_incident` +*Toolset: **core***\ +Recupera información detallada sobre un incident (incidente). + +- Obtén información detallada para el incident (incidente) ABC123. +- ¿Cuál es la situación del incident (incidente) ABC123? +- Recupera la información completa sobre el incident (incidente) Redis de ayer. + +**Nota**: La herramienta está operativa, pero no incluye datos cronológicos del incident (incidente). + +### `get_datadog_metric` +*Toolset: **core***\ +Consulta y analiza datos de métricas históricas o en tiempo real, que admiten consultas y agregaciones personalizadas. + +- Muéstrame las métricas de utilización de CPU de todos los hosts en las últimas 4 horas. +- Obtén métricas de latencia de Redis del entorno de producción. +- Despliega las tendencias de uso de memoria de nuestros servidores de bases de datos. + +### `search_datadog_monitors` +*Toolset: **core***\ +Recupera información sobre los monitores de Datadog, incluidos sus estados, umbrales y condiciones de alerta. + +- Enumera todos los monitores que están alertando actualmente. +- Muéstrame monitores relacionados con nuestro servicio de pagos. +- Busca monitores etiquetados con `team:infrastructure`. + +### `get_datadog_trace` +*Toolset: **core***\ +Obtiene una trace (traza) completa de Datadog APM con un identificador de trace (traza). + +- Obtén la trace (traza) completa del identificador 7d5d747be160e280504c099d984bcfe0. +- Muéstrame todos los spans (tramos) de la trace (traza) abc123 con información de tiempo. +- Recupera detalles de trace (traza) que incluyen consultas a la base de datos del identificador xyz789. + +**Nota**: Las traces (trazas) grandes con miles de spans (tramos) pueden quedar truncadas (e indicarse como tales) sin una forma de recuperar todos los spans (tramos). + +### `search_datadog_dashboards` +*Toolset: **core***\ +Enumera los dashboards disponibles y los detalles claves de Datadog. + +- Muéstrame todos los dashboards disponibles en nuestra cuenta. +- Enumera los dashboards relacionados con la monitorización de la infraestructura. +- Encuentra dashboards compartidos para el equipo de ingeniería. + +**Nota**: Esta herramienta enumera los dashboards pertinentes, pero ofrece detalles limitados sobre su contenido. + +### `search_datadog_hosts` +*Toolset: **core***\ +Enumera y proporciona información sobre los hosts monitorizados, que admite filtrado y búsqueda. + +- Muéstrame todos los hosts de nuestro entorno de producción. +- Enumera los hosts incorrectos que no han informado en la última hora. +- Obtén todos los hosts etiquetados con `role:database`. + +### `search_datadog_incidents` +*Toolset: **core***\ +Recupera una lista de incidentes de Datadog, incluido su estado, gravedad y metadatos. + +- Muéstrame todos los incidentes activos por gravedad. +- Enumera los incidentes resueltos la semana pasada. +- Encuentra incidentes que afecten a los clientes. + +### `search_datadog_metrics` +*Toolset: **core***\ +Enumera las métricas disponibles, con opciones de filtrado y metadatos. + +- Muéstrame todas las métricas disponibles de Redis. +- Enumera las métricas relacionadas con la CPU de nuestra infraestructura. +- Busca métricas etiquetadas con `service:api`. + +### `search_datadog_services` +*Toolset: **core***\ +Enumera los servicios del Software Catalog de Datadog con detalles e información del equipo. + +- Muéstrame todos los servicios de nuestra arquitectura de microservicios. +- Enumera los servicios propiedad del equipo de la plataforma. +- Busca servicios relacionados con el procesamiento de pagos. + +### `search_datadog_spans` +*Toolset: **core***\ +Recupera spans (tramos) de las traces (trazas) de APM con filtros como servicio, hora, recurso, etc. + +- Muéstrame spans (tramos) con errores del servicio de pagos. +- Busca consultas lentas a la base de datos en los últimos 30 minutos. +- Obtén los spans (tramos) de las solicitudes de API fallidas a nuestro servicio de pagos. + +### `search_datadog_logs` +*Toolset: **core***\ +Busca en logs con filtros (hora, consulta, servicio, host, nivel de almacenamiento, etc.) y devuelve los detalles de logs. Renombrado de `get_logs`. + +- Muéstrame logs de error del servicio NGINX en la última hora. +- Busca logs que contengan 'tiempo de espera de la connection (conexión)' de nuestro servicio de API. +- Obtén los 500 logs de códigos de estado de la producción. + +### `search_datadog_rum_events` +*Toolset: **core***\ +Busca eventos de RUM de Datadog mediante la utilización de una sintaxis de consulta avanzada. + +- Muestra errores y advertencias de la consola de JavaScript en RUM. +- Busca las páginas que se cargan lentamente (más de 3 segundos). +- Muestra las interacciones recientes de los usuarios en las páginas de detalles de los productos. + +### `get_synthetics_tests` +*Toolset **sintéticos***\ +Busca tests de Synthetic Monitoring de Datadog. + +- Ayúdame a comprender por qué el test de Synthetic Monitoring en el endpoint `/v1/my/tested/endpoint` está fallando. +- Hay una interrupción; busca todos los tests de Synthetic Monitoring que fallan en el dominio `api.mycompany.com`. +- ¿Siguen funcionando los tests de Synthetic Monitoring en mi sitio web `api.mycompany.com` en la última hora? + +### `edit_synthetics_tests` +*Tooset: **sintética***\ +Edita tests de la API de HTTP de Synthetic Monitoring de Datadog. + +- Mejora las afirmaciones del test de Synthetic Monitoring definido en mi endpoint `/v1/my/tested/endpoint`. +- Pon en pausa el test `aaa-bbb-ccc` y configura las ubicaciones solo en lugares europeos. +- Añade la etiqueta de mi equipo al test `aaa-bbb-ccc` . + +### `synthetics_test_wizard` +*Toolset: **synthetics***\ +Previsualiza y crea tests de la API de HTTP de Synthetic Monitoring de Datadog. + +- Crea tests de Synthetic Monitoring en cada endpoint definido en este archivo de código. +- Crea un test de Synthetic Monitoring en `/path/to/endpoint`. +- Crea un test de Synthetic Monitoring que compruebe si mi dominio `mycompany.com` permanece activo. + +## Eficiencia del contexto + +El servidor MCP de Datadog se optimiza para proporcionar respuestas de forma que los agentes de IA obtengan el contexto pertinente sin sobrecargarse con información innecesaria. Por ejemplo: + +- Las respuestas se truncan en función de la longitud estimada de las respuestas que proporciona cada herramienta. Las herramientas responden a los agentes de IA con instrucciones sobre cómo solicitar más información si la respuesta estaba truncada. +- La mayoría de las herramientas tienen un parámetro `max_tokens` que permite a los agentes de IA solicitar menos o más información. + +## Rastrea las llamadas a herramientas en Audit Trail + +Puedes ver información sobre las llamadas realizadas por las herramientas del servidor MCP en [Audit Trail][17] de Datadog. Busca o filtra por el nombre del evento `MCP Server`. + +## Comentarios + +El servidor MCP de Datadog se encuentra en fase de desarrollo. Durante la vista previa, utiliza [este formulario de comentarios][20] para compartir comentarios, casos de uso o problemas encontrados con sus avisos y consultas. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://modelcontextprotocol.io/ +[2]: https://modelcontextprotocol.io/specification/draft/basic/authorization +[3]: /es/account_management/api-app-keys/ +[4]: https://github.com/modelcontextprotocol/inspector +[5]: https://www.anthropic.com/claude-code +[6]: https://claude.ai/download +[7]: https://help.openai.com/en/articles/11096431-openai-codex-cli-getting-started +[8]: https://www.cursor.com/ +[9]: https://github.com/block/goose +[10]: https://github.com/aws/amazon-q-developer-cli +[11]: https://code.visualstudio.com/ +[12]: /es/developers/ide_plugins/vscode/ +[13]: https://nodejs.org/en/about/previous-releases +[14]: /es/developers/ide_plugins/vscode/?tab=cursor#installation +[15]: /es/ +[16]: /es/api/latest/events/ +[17]: /es/account_management/audit_trail/ +[18]: https://cline.bot/ +[19]: /es/account_management/rbac/permissions/#case-and-incident-management +[20]: https://docs.google.com/forms/d/e/1FAIpQLSeorvIrML3F4v74Zm5IIaQ_DyCMGqquIp7hXcycnCafx4htcg/viewform +[21]: /es/synthetics/ \ No newline at end of file diff --git a/content/es/cloud_cost_management/reports/_index.md b/content/es/cloud_cost_management/reports/_index.md new file mode 100644 index 0000000000000..935e5ad260ca3 --- /dev/null +++ b/content/es/cloud_cost_management/reports/_index.md @@ -0,0 +1,110 @@ +--- +description: Realiza un seguimiento de los gastos de tu organización con los informes + de Cloud Cost Management. +further_reading: +- link: /cloud_cost_management/reports/scheduled_reports + tag: Documentación + text: Informes de costes programados +- link: /cloud_cost_management/ + tag: Documentación + text: Más información sobre Cloud Cost Management +private: true +title: Informes +--- + +## Información general + +Los informes de Cloud Cost Monitoring (CCM) de Datadog agilizan las operaciones financieras y permiten a los equipos de finanzas gestionar eficazmente los costes de la nube. Esta función proporciona una plataforma centralizada para el análisis detallado de los costes, que te permite explorar, analizar y compartir datos de costes o presupuestos de nube. + +Con los informes, puedes: + +- **Centralizar análisis de costes de nube**: Visualiza y gestiona los costes de [AWS][1], [Azure][2], [Google Cloud][3], [Oracle][12] y [proveedores de SaaS][4] en un solo lugar. +- **Filtrar y agrupar**: Filtra por proveedor, etiquetas (tags), regiones y agrupa por servicio, proveedor o etiquetas personalizadas. +- **Visualizar gráficos**: Utiliza gráficos de barras, resúmenes y vistas diarias para detectar tendencias y anomalías. +- **Utilizar controles avanzados**: Cambia entre tipos de costes, alterna la asignación de contenedores y céntrate en los gastos de uso o en todos los gastos. +- **Crear informes de presupuestos**: Elabora informes de presupuestos, además de informes de costes, para realizar un seguimiento de los gastos con respecto a los objetivos de presupuesto y anticipa costes futuros. +- **Colaborar y compartir**: Guarda, marca, exporta y comparta informes con tu equipo. + +## Crear un informe de CCM + +1. Ve a [**Cloud Cost > Analyze > Reports** (Cloud Cost > Análisis > Informes)][5] en Datadog. +1. Haz clic en **New Report** (Nuevo informe) para empezar desde cero, o selecciona una plantilla de la galería para acelerar tu flujo de trabajo. + + {{< img src="cloud_cost/cost_reports/create-new-report.png" alt="Crear un informe nuevo o a partir de una plantilla." style="width:100%;" >}} + + **Plantillas disponibles:** + - **Gasto de AWS por nombre de servicio**: Comprende tus costes de EC2, S3 y Lambda. + - **Gasto de Azure por nombre de servicio**: Desglosa los costes por servicios Azure como máquinas virtuales y monitor Azure. + - **Gasto de GCP por nombre de servicio**: Desglosa los costes por servicios GCP como Compute Engine, BigQuery y Kubernetes Engine. + - **Gasto por proveedor**: Compara costes en AWS, Azure, Google Cloud, etc. + +## Personalización del informe + +{{< img src="cloud_cost/cost_reports/customization-options-aws-1.png" alt="Personaliza tu informe seleccionando proveedores de nube, filtrando, agrupando, cambiando la visualización y utilizando opciones avanzadas." style="width:100%;" >}} + +### Seleccionar el tipo de informe + +Selecciona el tipo de informe que quieres crear: + +- **Coste**: Comprende en qué se gasta tu dinero en servicios, regiones, equipos, etc. +- **Presupuesto**: Realiza un seguimiento de los gastos con respecto a los objetivos de presupuesto predefinidos y anticipa costes futuros. + +### Aplicar filtros + +Utiliza filtros para incluir solo los costes específicos que quieres asignar, como por proveedor, producto, etiqueta, región o tipo de coste, de modo que tu regla apunte exactamente al subconjunto adecuado de tus gastos de nube. + +| Filtrar por | Caso práctico | +|--------|----------| +| Proveedor de nube (como AWS, Azure, GCP, Snowflake) | Aplica tu regla de asignación solo a los costes de un proveedor de nube específico, como por ejemplo a las tarifas de asistencia de AWS, pero no a los costes de Azure o GCP. | +| Producto o servicio (como EC2, S3, RDS) | Asigna costes relacionados con un producto o servicio específico. Por ejemplo, divide solo los costes de EC2 entre equipos, en lugar de todos los costes de AWS. | +| Etiquetas (`env:prod`, `team:analytics`) | Incluye o excluye costes en función de las etiquetas de los recursos. Por ejemplo, asigna costes solo a los recursos de producción (`env:prod`) o solo a los recursos etiquetados para el equipo de análisis. | +| Región | Asigna costes solo a los recursos de una región geográfica específica. Por ejemplo, divide los costes de los recursos de `us-east-1` separados de los de `eu-west-1`. | +| Tipo de coste (uso, soporte, no etiquetado) | Asigna solo determinados tipos de costes, como cargos por uso, tarifas de soporte o costes no etiquetados. Por ejemplo, asigna solo costes no etiquetados para incentivar a los equipos a etiquetar sus recursos. | +| Criterios personalizados | Cuando tengas un requisito empresarial único que combine varios filtros, crea un criterio personalizado. Por ejemplo, quieres asignar solo los costes de EC2 en una región específica `us-west-2`, etiquetados como `env:prod`. | + +### Datos del grupo +- Agrupa por nombre de proveedor, nombre de servicio o etiquetas de recursos personalizadas para obtener información más detallada. + +### Cambia la forma de ver tus datos +- Selecciona una **opción de visualización**: + - **Gráfico de barras**: Compara los costes de varias categorías para identificar los principales factores de coste. + - **Gráfico circular**: Muestra la cuota porcentual de cada segmento, ideal para comprender la proporción relativa de costes entre un número reducido de categorías. + - **Diagrama de árbol**: Muestra datos jerárquicos y el tamaño relativo de muchas categorías a la vez, para que puedas ver la estructura general y los mayores colaboradores en una sola vista. +- Cambia la **vista de tabla**: + - **Resumen**: Una imagen consolidada y global de tus costes. + - **Día a día**, **semana a semana** o **mes a mes**: Analiza cómo cambian tus costes día a día, semana a semana o mes a mes, e identifica tendencias o fluctuaciones inusuales. +- Actualiza el **marco temporal** para monitorizar tendencias sobre tus gastos en la nube. + +### Opciones avanzadas (opcionales) + +- **Mostrar solo gastos de uso**: Elige incluir todos los gastos (tarifas, impuestos, reembolsos) o centrarte solo en los gastos de uso. +- **Tipo de coste**: Elige el tipo de coste que mejor se adapte a tus necesidades de elaboración de informes, análisis o gestión financiera. Revisa las definiciones de cada tipo de coste según tu proveedor: [AWS][7], [Azure][8], [Google Cloud][9], [Personalizado][10]. + + **Nota**: La disponibilidad de estas opciones varía en función del/de los proveedor(es) seleccionado(s). + +## Guardar y compartir tu informe + +Una vez creado y personalizado el informe, puedes guardarlo y compartirlo desde la página principal de informes y desde las vistas individuales de informes. + +- **Guarda tu informe** para que esté disponible para uso personal o del equipo. +- **Comparte tu informe** copiando la URL o exportándolo a CSV o PNG. +- **Programa informes** para que se envíen automáticamente a tu equipo. [Más información sobre la programación de informes][11]. +- **Exporta vistas de informes a dashboards** para realizar un seguimiento de los costes junto con otros widgets. +- **Busca informes guardados** para encontrar lo que necesitas (solo disponible en la página de informes principales. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/cloud_cost_management/aws/ +[2]: /es/cloud_cost_management/azure/?tab=billingaccounts +[3]: /es/cloud_cost_management/google_cloud/ +[4]: /es/cloud_cost_management/saas_costs/ +[5]: https://app.datadoghq.com/cost/analyze/reports +[6]: /es/cloud_cost_management/container_cost_allocation/ +[7]: /es/cloud_cost_management/setup/aws/#cost-types +[8]: /es/cloud_cost_management/setup/azure/#cost-types +[9]: /es/cloud_cost_management/setup/google_cloud/#cost-types +[10]: /es/cloud_cost_management/setup/custom/#cost-metric-types +[11]: /es/cloud_cost_management/reports/scheduled_reports +[12]: /es/cloud_cost_management/oracle/ \ No newline at end of file diff --git a/content/es/cloudprem/manage/_index.md b/content/es/cloudprem/manage/_index.md new file mode 100644 index 0000000000000..098788465e3fc --- /dev/null +++ b/content/es/cloudprem/manage/_index.md @@ -0,0 +1,82 @@ +--- +description: Aprende a monitorizar, mantener y operar tu despliegue de CloudPrem. +title: Gestiona y monitoriza CloudPrem +--- + +{{< callout btn_hidden="true" >}} + CloudPrem de Datadog está en vista previa. +{{< /callout >}} + +## Política de retención + +La política de retención especifica cuánto tiempo se almacenan los datos antes de ser eliminados. En forma predeterminada, el periodo de retención está configurado en 30 días. Los datos se eliminan automáticamente en forma diaria por el conserje, que borra las divisiones (archivos de índice) más antiguas que el umbral de retención definido. + +Para cambiar el periodo de retención, actualiza el parámetro `cloudprem.index.retention` en el archivo de valores del gráfico de Helm, luego actualiza la versión de Helm y opcionalmente reinicia el pod de conserje para aplicar los cambios de inmediato: + +1. Actualiza el periodo de retención en el archivo de valores del gráfico de Helm con una cadena legible por humanos (por ejemplo, `15 days`, `6 months` o `3 years`): +{{< code-block lang="yaml" filename="datadog-values.yaml">}} +cloudprem: + índice: + retención: 6 meses +{{< /code-block >}} + +2. Actualiza la versión del gráfico de Helm: + + ```shell + helm upgrade datadog/cloudprem \ + -n \ + -f datadog-values.yaml + ``` + +3. Reinicia el pod de conserje (opcional, pero recomendado para un efecto inmediato): + + ```shell + kubectl delete pod -l app.kubernetes.io/component=janitor -n + ``` + +## Dashboards + +CloudPrem proporciona un dashboard predefinido que monitoriza las métricas clave de CloudPrem. + +### Configuración + +[DogStatsD][1] exporta estas métricas. Puedes: + +- Ejecutar DogStatsD como servicio independiente o +- Ejecutar el Datadog Agent (que incluye DogStatsD en forma predeterminada) + +Configura cualquiera de las opciones con la clave de API de tu organización para exportar estas métricas. En cuanto tu clúster de CloudPrem se conecte a Datadog, se creará automáticamente el dashboard predefinido al que podrás acceder desde tu [Lista de dashboards][2]. + +### Datos recopilados + +| Métrica | Descripción | +|---|---| +| **indexed_events.count**
(Contador) | Número de eventos indexados | +| **indexed_events_bytes.count**
(Contador) | Número de bytes indexados | +| **ingest_requests.count**
(Contador) | Número de solicitudes de ingesta | +| **object_storage_delete_requests.count**
(Contador) | Número de solicitudes de eliminación en el almacenamiento de objetos | +| **object_storage_get_requests.count**
(Contador) | Número de solicitudes de obtención en el almacenamiento de objetos | +| **object_storage_get_requests_bytes.count**
(Contador) | Total de bytes leídos del almacenamiento de objetos mediante solicitudes GET | +| **object_storage_put_requests.count**
(Contador) | Número de solicitudes PUT en el almacenamiento de objetos | +| **object_storage_put_requests_bytes.count**
(Contador) | Total de bytes escritos en el almacenamiento de objetos mediante solicitudes PUT | +| **pending_merge_ops.gauge**
(Gauge) | Número de operaciones de fusión pendientes | +| **search_requests.count**
(Contador) | Número de solicitudes de búsqueda | +| **search_requests.duration_seconds**
(Histograma) | Latencia de las solicitudes de búsqueda | +| **metastore_requests.count**
(Contador) | Número de solicitudes de metastore | +| **metastore_requests.duration_seconds**
(Histograma) | Latencia de las solicitudes de metastore | +| **cpu.usage.gauge**
(Gauge) | Porcentaje de uso de la CPU | +| **uptime.gauge**
(Gauge) | Tiempo de actividad del servicio en segundos | +| **memory.allocated_bytes.gauge**
(Gauge) | Memoria asignada en bytes | +| **disk.bytes_read.counter**
(Contador) | Total de bytes leídos desde el disco | +| **disk.bytes_written.counter**
(Contador) | Total de bytes escritos en el disco | +| **disk.available_space.gauge**
(Gauge) | Espacio disponible en disco en bytes | +| **disk.total_space.gauge**
(Gauge) | Capacidad total del disco en bytes | +| **network.bytes_recv.counter**
(Contador) | Total de bytes recibidos por la red | +| **network.bytes_sent.counter**
(Contador) | Total de bytes enviados por la red | + + + +[1]: https://docs.datadoghq.com/es/developers/dogstatsd/?tab=hostagent +[2]: https://app.datadoghq.com/dashboard/lists?q=cloudprem&p=1 \ No newline at end of file diff --git a/content/es/containers/amazon_ecs/_index.md b/content/es/containers/amazon_ecs/_index.md index e545b529fb431..b5ccab24745c3 100644 --- a/content/es/containers/amazon_ecs/_index.md +++ b/content/es/containers/amazon_ecs/_index.md @@ -4,6 +4,7 @@ algolia: - ecs aliases: - /es/agent/amazon_ecs/ +description: Instalar y configurar el Datadog Agent en Amazon Elastic Container Service further_reading: - link: /agent/amazon_ecs/logs/ tag: Documentación @@ -30,11 +31,21 @@ title: Amazon ECS Amazon ECS es un servicio escalable de orquestación de contenedores de alto rendimiento compatible con contenedores de Docker. Con el Datadog Agent, puedes monitorizar contenedores y tareas de ECS en cada instancia EC2 de tu clúster. +Para configurar Amazon ECS con Datadog, puedes utilizar **Fleet Automation** o la **instalación manual**. Si prefieres la instalación manual, ejecuta un contenedor del Agent por host de Amazon EC2 creando una definición de tarea del Datadog Agent e implementándola como servicio daemon. A continuación, cada Agent monitoriza los demás contenedores de tu host. Consulta la sección [Instalación manual](#install-manually) para obtener más detalles. + + +## Configuración de Fleet Automation +Sigue la [guía de instalación de la aplicación en Fleet Automation][32] para completar la configuración en ECS. Tras completar los pasos descritos en la guía de la aplicación, [Fleet Automation][33] genera una definición de tarea o plantilla de CloudFormation lista para usar, con tu clave de API preinyectada. + +{{< img src="agent/basic_agent_usage/ecs_install_page.png" alt="Pasos de instalación en la aplicación para el Datadog Agent en ECS." style="width:90%;">}} +
Si deseas monitorizar ECS en Fargate, consulta Amazon ECS en AWS Fargate.
-## Configuración +
+ +## Configuración manual Para monitorizar tus contenedores y tareas de ECS, despliega el Datadog Agent como un contenedor **una vez en cada instancia de EC2** en tu clúster de ECS. Para ello, crea una definición de tarea para el contenedor de Datadog Agent y despliégala como servicio daemon. Cada contenedor de Datadog Agent luego monitoriza los otros contenedores en su respectiva instancia de EC2. @@ -211,10 +222,10 @@ Para recopilar la información de Live Process de todos tus contenedores y envia } {{< /highlight >}} -#### Cloud Network Monitoring +#### Monitorización de redes en la nube
-Esta función sólo está disponible para Linux. +Esta función solo está disponible para Linux.
Consulta el archivo de ejemplo [datadog-agent-sysprobe-ecs.json][25]. @@ -355,4 +366,6 @@ Puedes ejecutar el Agent en modo `awsvpc`, pero Datadog no lo recomienda porque [28]: #run-the-agent-as-a-daemon-service [29]: #set-up-additional-agent-features [30]: https://docs.aws.amazon.com/AmazonECS/latest/developerguide/task_definitions.html -[31]: /es/network_monitoring/network_path \ No newline at end of file +[31]: /es/network_monitoring/network_path +[32]: https://app.datadoghq.com/fleet/install-agent/latest?platform=ecs +[33]:https://app.datadoghq.com/fleet/install-agent/latest?platform=ecs \ No newline at end of file diff --git a/content/es/containers/amazon_ecs/logs.md b/content/es/containers/amazon_ecs/logs.md index b45c4a8b94f97..6f6b0a4a399b2 100644 --- a/content/es/containers/amazon_ecs/logs.md +++ b/content/es/containers/amazon_ecs/logs.md @@ -1,6 +1,8 @@ --- aliases: - /es/agent/amazon_ecs/logs +description: Configurar la recopilación de logs desde aplicaciones en contenedores + que se ejecutan en Amazon ECS con el Datadog Agent further_reading: - link: /agent/amazon_ecs/apm/ tag: Documentación @@ -255,7 +257,7 @@ Consulta la [documentación sobre montajes de AWS Bind][6] para obtener más det El atributo `source` sirve para identificar la integración que usar para cada contenedor. Sobrescríbelo directamente en tus etiquetas de contenedores para empezar a usar las [integraciones de logs de Datadog][2]. Para obtener más información sobre este proceso, lee la [guía de Autodiscovery para logs][1]. -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/containers/docker/log.md b/content/es/containers/docker/log.md index 0ff8bb54e88b2..2c21627d42114 100644 --- a/content/es/containers/docker/log.md +++ b/content/es/containers/docker/log.md @@ -4,6 +4,8 @@ aliases: - /es/logs/languages/docker - /es/logs/log_collection/docker - /es/agent/docker/log +description: Configura la recopilación de logs de aplicaciones que se ejecutan en + contenedores de Docker utilizando el Datadog Agent further_reading: - link: logs/explorer tag: Documentación @@ -32,11 +34,11 @@ Datadog Agent v6 y posteriores recopila logs de contenedores. Hay dos tipos de i La configuración de la recopilación de logs depende de tu entorno actual. Elige una de las siguientes instalaciones para empezar: -- Si tu entorno escribe **todos** los logs en `stdout`/`stderr`, sigue la instalación del [Agent contenedorizado](?tab=containerized-agent#installation). +- Si tu entorno escribe **todos** los logs en `stdout`/`stderr`, sigue la instalación del [containerized Agent](?tab=containerized-agent#installation). -- Si no puedes desplegar el Agent contenedorizado y tu contenedor escribe **todos** los logs en `stdout`/`stderr`, sigue la instalación del [Agent de host](?tab=hostagent#installation) para activar la gestión de logs contenedorizados en tu archivo de configuración del Agent. +- Si no puedes desplegar el Agent contenedorizado y tu contenedor escribe **todos** los logs en `stdout`/`stderr`, sigue la instalación del [host Agent](?tab=hostagent#installation) para activar la gestión de logs contenedorizados en tu archivo de configuración del Agent. -- Si tu contenedor escribe logs en archivos (sólo escribe logs parcialmente en `stdout`/`stderr` y escribe logs en archivos O escribe logs en archivos completamente), sigue la instalación del [Agent de host con recopilación de logs personalizada](?tab=hostagentwithcustomlogging#installation) o sigue la instalación del [Agent contenedorizado](?tab=containerized-agent#installation) y comprueba la [recopilación de logs de archivos con el ejemplo de configuración de Autodiscovery](?tab=logcollectionfromfile#examples). +- Si tu contenedor escribe logs en archivos (sólo escribe logs parcialmente en `stdout`/`stderr` y escribe logs en archivos O escribe logs en archivos completamente), sigue la instalación del [host Agent with custom log collection](?tab=hostagentwithcustomlogging#installation) o sigue la instalación del [containerized Agent](?tab=containerized-agent#installation) y comprueba la [recopilación de logs de archivos con el ejemplo de configuración de Autodiscovery](?tab=logcollectionfromfile#examples). Los comandos CLI en esta página son para el tiempo de ejecución del Docker. Sustituye `docker` por `nerdctl` para el tiempo de ejecución de containerd, o por `podman`, para el tiempo de ejecución de Podman. La compatibilidad con la recopilación de logs containerd y Podman es limitada. @@ -318,7 +320,7 @@ labels: ## Recopilación avanzada de logs -Utiliza etiquetas de logs (labels) de Autodiscovery para aplicar la lógica de procesamiento de la recopilación avanzada de logs, por ejemplo: +Utiliza etiquetas (labels) de logs de Autodiscovery para aplicar la lógica de procesamiento de la recopilación avanzada de logs, por ejemplo: - [Filtra los logs antes de enviarlos a Datadog][7]. - [Limpia los datos confidenciales en tus logs][8]. @@ -363,4 +365,4 @@ Para entornos Kubernetes, consulta la [documentación de contendores de Kubernet [9]: /es/agent/logs/advanced_log_collection/?tab=docker#multi-line-aggregation [10]: /es/logs/guide/docker-logs-collection-troubleshooting-guide/ [11]: /es/agent/guide/autodiscovery-management/ -[12]: /es/agent/kubernetes/log/?tab=daemonset#short-lived-containers +[12]: /es/agent/kubernetes/log/?tab=daemonset#short-lived-containers \ No newline at end of file diff --git a/content/es/containers/kubernetes/configuration.md b/content/es/containers/kubernetes/configuration.md index 2b6d25d32f8ea..a68c2248e5435 100644 --- a/content/es/containers/kubernetes/configuration.md +++ b/content/es/containers/kubernetes/configuration.md @@ -3,6 +3,8 @@ aliases: - /es/integrations/faq/gathering-kubernetes-events - /es/agent/kubernetes/event_collection - /es/agent/kubernetes/configuration +description: Opciones de configuración adicionales para APM, logs, procesos, eventos + y otras funciones después de instalar el Datadog Agent title: Configurar mejor el Datadog Agent en Kubernetes --- diff --git a/content/es/containers/kubernetes/data_collected.md b/content/es/containers/kubernetes/data_collected.md index 3fb168f042670..6d913f2d7fa90 100644 --- a/content/es/containers/kubernetes/data_collected.md +++ b/content/es/containers/kubernetes/data_collected.md @@ -2,6 +2,8 @@ aliases: - /es/agent/kubernetes/metrics - /es/agent/kubernetes/data_collected +description: Guía de referencia para las métricas y eventos recopilados por el Datadog + Agent de clústeres de Kubernetes further_reading: - link: /agent/kubernetes/log/ tag: Documentación diff --git a/content/es/containers/kubernetes/installation.md b/content/es/containers/kubernetes/installation.md index dee639b0ed9a2..d04354d54a67f 100644 --- a/content/es/containers/kubernetes/installation.md +++ b/content/es/containers/kubernetes/installation.md @@ -3,6 +3,8 @@ aliases: - /es/agent/kubernetes/daemonset_setup - /es/agent/kubernetes/helm - /es/agent/kubernetes/installation +description: Instala y configura el Datadog Agent en Kubernetes utilizando el Datadog + OperatorHelm o kubectl further_reading: - link: /agent/kubernetes/configuration tag: Documentación @@ -28,7 +30,7 @@ Para obtener documentación específica y ejemplos de monitorización del plano Algunas funciones relacionadas con versiones posteriores de Kubernetes requieren una versión mínima de Datadog Agent. -| Versión de Kubernetes | Versión del Agent | Motivo | +| Versión de Kubernetes | Agent version | Motivo | | ------------------ | ------------- | ------------------------------------- | | 1.16.0+ | 7.19.0+ | Obsolescencia de las métricas de Kubelet | | 1.21.0+ | 7.36.0+ | Eliminación de recursos de Kubernetes | @@ -84,7 +86,7 @@ Utiliza la página [Instalación en Kubernetes][16] de Datadog como guía para e 4. **Despliega el Agent con el archivo de configuración anterior** - Ejecuta lo siguiente: + Ejecuta: ```shell kubectl apply -f datadog-agent.yaml ``` @@ -112,9 +114,11 @@ Utiliza la página [Instalación en Kubernetes][16] de Datadog como guía para e ```yaml datadog: apiKeyExistingSecret: datadog-secret + clusterName: site: ``` + - Replace `` with a name for your cluster. - Replace `` with your [Datadog site][2]. Your site is {{< region-param key="dd_site" code="true" >}}. (Ensure the correct SITE is selected on the right). 4. **Deploy Agent with the above configuration file** @@ -152,11 +156,18 @@ Utiliza la página [Instalación en Kubernetes][16] de Datadog como guía para e ### Unprivileged installation +To run an unprivileged installation, add the following `securityContext` to your configuration relative to your desired `` and ``: + +- Replace `` with the UID to run the Datadog Agent. Datadog recommends setting this value to `100` for the preexisting `dd-agent` user [for Datadog Agent v7.48+][26]. +- Replace `` with the group ID that owns the Docker or containerd socket. + +This sets the `securityContext` at the pod level for the Agent. + {{< tabs >}} {{% tab "Datadog Operator" %}} To run an unprivileged installation, add the following to `datadog-agent.yaml`: -{{< highlight yaml "hl_lines=13-18" >}} +{{< highlight yaml "hl_lines=14-19" >}} apiVersion: datadoghq.com/v2alpha1 kind: DatadogAgent metadata: @@ -169,18 +180,14 @@ spec: apiSecret: secretName: datadog-secret keyName: api-key -agent: - config: - securityContext: - runAsUser: - supplementalGroups: - - -{{< /highlight >}} -- Replace `` with the UID to run the Datadog Agent. Datadog recommends [setting this value to 100 since Datadog Agent v7.48+][1]. -- Replace `` with the group ID that owns the Docker or containerd socket. - -[1]: /es/data_security/kubernetes/#running-container-as-root-user + override: + nodeAgent: + securityContext: + runAsUser: + supplementalGroups: + - +{{< /highlight >}} Then, deploy the Agent: @@ -192,19 +199,17 @@ kubectl apply -f datadog-agent.yaml {{% tab "Helm" %}} To run an unprivileged installation, add the following to your `datadog-values.yaml` file: -{{< highlight yaml "hl_lines=4-7" >}} +{{< highlight yaml "hl_lines=5-8" >}} datadog: apiKeyExistingSecret: datadog-secret + clusterName: site: securityContext: - runAsUser: - supplementalGroups: - - + runAsUser: + supplementalGroups: + - {{< /highlight >}} -- Replace `` with the UID to run the Datadog Agent. -- Replace `` with the group ID that owns the Docker or containerd socket. - Then, deploy the Agent: ```shell @@ -307,7 +312,7 @@ La sección [Kubernetes][21] ofrece una visión general de todos tus recursos de {{< nextlink href="/agent/kubernetes/configuration">}}Configuración adicional: Recopila eventos, sobrescribe parámetros de proxy, envía métricas personalizadas con DogStatsD, configura listas de autorizaciones y exclusiones de contenedores, y haz referencia a la lista completa de variables de entorno disponibles.{{< /nextlink >}} {{< /whatsnext >}} -## Para leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} @@ -335,4 +340,5 @@ La sección [Kubernetes][21] ofrece una visión general de todos tus recursos de [22]: https://app.datadoghq.com/orchestration/overview [23]: https://app.datadoghq.com/orchestration/resource/pod [24]: /es/infrastructure/containers/orchestrator_explorer -[25]: /es/infrastructure/containers/kubernetes_resource_utilization \ No newline at end of file +[25]: /es/infrastructure/containers/kubernetes_resource_utilization +[26]: /es/data_security/kubernetes/#running-container-as-root-user \ No newline at end of file diff --git a/content/es/containers/kubernetes/integrations.md b/content/es/containers/kubernetes/integrations.md index ba08bf0f802bc..bc26810ff02a5 100644 --- a/content/es/containers/kubernetes/integrations.md +++ b/content/es/containers/kubernetes/integrations.md @@ -4,6 +4,8 @@ aliases: - /es/guides/servicediscovery/ - /es/guides/autodiscovery/ - /es/agent/kubernetes/integrations +description: Configura la monitorización de integraciones para aplicaciones que se + ejecutan en Kubernetes utilizando plantillas de Autodiscovery further_reading: - link: /agent/kubernetes/log/ tag: Documentación @@ -29,7 +31,7 @@ Si utilizas Docker o Amazon ECS, consulta [Docker e integraciones][1].
Algunas integraciones de Datadog no funcionan con Autodiscovery, ya que requieren datos del árbol de procesos o un acceso a los sistemas de archivos: Ceph, Varnish, Postfix, nodetools Cassandra y Gunicorn.

-Para monitorizar integraciones que no son compatibles con Autodiscovery, puedes utilizar un exportador Prometheus en el pod, para exponer un endpoint HTTP, y luego puedes utilizar la integración con OpenMetrics (compatible con Autodiscovery) para encontrar el pod y consultar el endpoint. +Para monitorizar integraciones que no son compatibles con Autodiscovery, puedes utilizar un exportador Prometheus en el pod, para exponer un endpoint HTTP, y luego puedes utilizar la integración con OpenMetrics (compatible con Autodiscovery) para encontrar el pod y consultar el endpoint.
## Configurar tu integración @@ -50,7 +52,7 @@ O: 3. [Proporciona valores](#placeholder-values) para estos parámetros. {{< tabs >}} -{{% tab "Anotaciones" %}} +{{% tab "Annotations" %}} Si defines tus pods de Kubernetes directamente con `kind: Pod`, añade las anotaciones de cada pod directamente bajo su sección `metadata`, como se muestra a continuación: @@ -78,7 +80,7 @@ spec: # (...) ``` -**Anotaciones de Autodiscovery v1** +**Anotaciones de Autodiscovery v1** ```yaml apiVersion: v1 @@ -101,7 +103,7 @@ spec: Si defines pods indirectamente (con despliegues, ReplicaSets o ReplicationControllers), añade anotaciones de pod en `spec.template.metadata`. {{% /tab %}} -{{% tab "Archivo local" %}} +{{% tab "Local file" %}} Puedes almacenar plantillas de Autodiscovery como archivos locales en el directorio montado `conf.d` (`/etc/datadog-agent/conf.d`). Debes reiniciar tus contenedores del Agent cada vez que cambias, añades o eliminas plantillas. @@ -122,6 +124,29 @@ Puedes almacenar plantillas de Autodiscovery como archivos locales en el directo 2. Monta tu carpeta host `conf.d/` en la carpeta `conf.d` del Agent contenedorizado. + Para Datadog Operator: + ```yaml + spec: + override: + nodeAgent: + volumes: + - hostPath: + path: /conf.d + name: confd + ``` + + Para Helm: + ```yaml + agents: + volumes: + - hostPath: + path: /conf.d + name: confd + volumeMounts: + - name: confd + mountPath: /conf.d + ``` + {{% /tab %}} {{% tab "ConfigMap" %}} @@ -236,8 +261,9 @@ spec: logs: ``` +
Cuando varios CRDs del DatadogAgent desplegados utilizan configDataMap, cada CRD escribe en un ConfigMap compartido llamado nodeagent-extra-confd. Esto puede provocar que las configuraciones se anulen entre sí.
-Para monitorizar un [check de clústeres][1], añade una sobreescritura `extraConfd.configDataMap` al componente `clusterAgent`. También debes activar los checks de clústeres configurando `features.clusterChecks.enabled: true`. +Para monitorizar un [check de clústeres][1], añade una sobreescritura `extraConfd.configDataMap` al componente `clusterAgent`. También debes activar los checks de clústeres configurando `features.clusterChecks.enabled: true`. ```yaml apiVersion: datadoghq.com/v2alpha1 @@ -292,7 +318,7 @@ datadog: ``` -Para monitorizar un [check de clústeres][3], define tu plantilla en `clusterAgent.confd`. Puedes encontrar ejemplos en línea en [values.yaml][2]. También debes habilitar el Cluster Agent, configurando `clusterAgent.enabled: true`, y habilitar los checks de clústeres, configurando `datadog.clusterChecks.enabled: true`. +Para monitorizar un [check de clústeres][3], define tu plantilla en `clusterAgent.confd`. Puedes encontrar ejemplos en línea en [values.yaml][2]. También debes habilitar el Cluster Agent, configurando `clusterAgent.enabled: true`, y habilitar los checks de clústeres, configurando `datadog.clusterChecks.enabled: true`. ```yaml datadog: @@ -379,7 +405,7 @@ Aquí, `` corresponde a la contraseña del usuario `datadog` que has c Para aplicar esta configuración a tus contenedores de Postgres: {{< tabs >}} -{{% tab "Anotaciones" %}} +{{% tab "Annotations" %}} En el manifiesto de tu pod: @@ -393,7 +419,7 @@ metadata: annotations: ad.datadoghq.com/postgres.checks: | { - "postgresql": { + "postgres": { "instances": [ { "host": "%%host%%", @@ -418,7 +444,7 @@ spec: - name: postgres ``` -**Anotaciones de Autodiscovery v1** +**Anotaciones de Autodiscovery v1** ```yaml apiVersion: v1 @@ -426,7 +452,7 @@ kind: Pod metadata: name: postgres annotations: - ad.datadoghq.com/postgres.check_names: '["postgresql"]' + ad.datadoghq.com/postgres.check_names: '["postgres"]' ad.datadoghq.com/postgres.init_configs: '[{}]' ad.datadoghq.com/postgres.instances: | [ @@ -452,7 +478,7 @@ spec: ``` {{% /tab %}} -{{% tab "Archivo local" %}} +{{% tab "Local file" %}} 1. Crea un archivo `conf.d/postgresql.d/conf.yaml` en tu host: ```yaml @@ -472,6 +498,30 @@ spec: ``` 2. Monta tu carpeta host `conf.d/` en la carpeta `conf.d` del Agent contenedorizado. + + Para Datadog Operator: + ```yaml + spec: + override: + nodeAgent: + volumes: + - hostPath: + path: /conf.d + name: confd + ``` + + Para Helm: + ```yaml + agents: + volumes: + - hostPath: + path: /conf.d + name: confd + volumeMounts: + - name: confd + mountPath: /conf.d + ``` + {{% /tab %}} {{% tab "ConfigMap" %}} @@ -527,7 +577,7 @@ Los siguientes comandos etcd crean una plantilla de integración con Postgres co ```conf etcdctl mkdir /datadog/check_configs/postgres -etcdctl set /datadog/check_configs/postgres/check_names '["postgresql"]' +etcdctl set /datadog/check_configs/postgres/check_names '["postgres"]' etcdctl set /datadog/check_configs/postgres/init_configs '[{}]' etcdctl set /datadog/check_configs/postgres/instances '[{"host": "%%host%%","port":"5432","username":"datadog","password":"%%env_PG_PASSWORD%%"}]' ``` diff --git a/content/es/containers/kubernetes/log.md b/content/es/containers/kubernetes/log.md index 78daa95ef57e9..7cc2f4b7cdc4c 100644 --- a/content/es/containers/kubernetes/log.md +++ b/content/es/containers/kubernetes/log.md @@ -1,6 +1,8 @@ --- aliases: - /es/agent/kubernetes/log +description: Configura la recopilación de logs de las aplicaciones en contenedores + que se ejecutan en Kubernetes utilizando el Datadog Agent further_reading: - link: /agent/kubernetes/apm/ tag: Documentación @@ -139,13 +141,13 @@ datadog:
Advertencia para instalaciones sin privilegios

-Cuando se ejecuta una instalación sin privilegios, el Agent necesita poder leer archivos de logs en /var/log/pods. +Cuando se ejecuta una instalación sin privilegios, el Agent debe poder leer archivos de log en /var/log/pods.

-Si estás utilizando el tiempo de ejecución contenedorizado, los archivos de logs en /var/log/pods son legibles por los miembros del grupo raíz. Con las instrucciones anteriores, el Agent se ejecuta con el grupo raíz. No es necesario realizar ninguna acción. +Si estás utilizando el tiempo de ejecución de containerd, los archivos de log en /var/log/pods son legibles por los miembros del grupo raíz. Con las instrucciones anteriores, el Agent se ejecuta con el grupo raíz. No es necesario realizar ninguna acción.

-Si estás utilizando el tiempo de ejecución Docker, los archivos de logs en /var/log/pods son enlaces simbólicos a /var/lib/docker/containers, que sólo puede recorrer el usuario raíz. Consecuentemente, con el tiempo de ejecución Docker, no es posible para un Agent no raíz leer logs en /var/log/pods. El socket Docker debe estar montado en el contenedor del Agent, para que pueda obtener logs de pod a través del Docker daemon. +Si estás utilizando el tiempo de ejecución de Docker, los archivos de log en /var/log/pods son enlaces simbólicos a /var/lib/docker/containers que solo puede recorrer el usuario raíz. Consecuentemente, con el tiempo de ejecución de Docker, no es posible para un Agent que no raíz leer logs en /var/log/pods. El socket de Docker debe estar montado en contenedor del Agent, para que pueda obtener logs de pod a través del daemon de Docker.

-Para recopilar logs de /var/log/pods cuando el socket Docker está montado, define la variable de entorno DD_LOGS_CONFIG_K8S_CONTAINER_USE_FILE (o logs_config.k8s_container_use_file en datadog.yaml) como true. Esto fuerza al Agent a utilizar el modo de recopilación de archivos. +Para recopilar logs de /var/log/pods/ cuando el socket de Docker está montado, establece la variable entorno DD_LOGS_CONFIG_K8S_CONTAINER_USE_FILE (o logs_config.k8s_container_use_file en datadog.yaml) en true. Esto fuerza al Agent a utilizar el modo de recopilación de archivos.
## Detección de logs @@ -262,7 +264,7 @@ spec: Puedes proporcionar archivos de configuración al Datadog Agent para que ejecute una integración especificada cuando detecte un contenedor que utiliza el identificador de imagen coincidente. Esto permite crear una configuración de log genérica que se aplica a un conjunto de imágenes de contenedor. {{< tabs >}} -{{% tab "Datadog Operador" %}} +{{% tab "Datadog Operator" %}} Puede personalizar la colección Logs por integración con un override en el `override.nodeAgent.extraConfd.configDataMap`. Este método crea el ConfigMap y monta el archivo Configuración deseado en el Agent Contenedor . ```yaml @@ -392,7 +394,7 @@ Utiliza etiquetas (labels) de logs de Autodiscovery para aplicar la lógica de p Datadog recomienda que utilices los flujos de salida `stdout` y `stderr` para aplicaciones en contenedores, de modo que puedas configurar más automáticamente la recopilación de logs. -Sin embargo, el Agent también puede recopilar directamente logs de un archivo basándose en una anotación. Para recopilar estos logs, utiliza `ad.datadoghq.com/.logs` con una configuración `type: file` y `path`. Los logs recopilados de archivos con es´ta anotación se etiquetan automáticamente con el mismo conjunto de etiquetas (tags) que los logs procedentes del propio contenedor. Datadog recomienda que utilices los flujos de salida `stdout` y `stderr` para aplicaciones en contenedores, de modo que puedas configurar automáticamente la recopilación de logs. Para obtener más información, consulta las [configuraciones recomendadas](#recommended-configurations). +Sin embargo, el Agent también puede recopilar directamente logs de un archivo basándose en una anotación. Para recopilar estos logs, utiliza `ad.datadoghq.com/.logs` con una configuración de `type: file` y `path`. Los logs recopilados de archivos con dicha anotación se etiquetan automáticamente con el mismo conjunto de etiquetas que los logs procedentes del propio contenedor. Datadog recomienda utilizar los flujos de salida `stdout` y `stderr` para las aplicaciones en contenedores, de modo que puedas configurar automáticamente la recopilación de logs. Para más información, consulta [Configuraciones recomendadas](#recommended-configurations). Estas rutas de archivo son **relativas** al contenedor del Agent. Por lo tanto, el directorio que contiene el archivo de log debe montarse tanto en la aplicación como en el contenedor del Agent para que éste pueda tener la visibilidad adecuada. diff --git a/content/es/containers/kubernetes/prometheus.md b/content/es/containers/kubernetes/prometheus.md index 1475ee52249b0..95b29f2faa28c 100644 --- a/content/es/containers/kubernetes/prometheus.md +++ b/content/es/containers/kubernetes/prometheus.md @@ -5,6 +5,8 @@ aliases: - /es/agent/openmetrics - /es/agent/prometheus - /es/agent/kubernetes/prometheus +description: Recopila Prometheus y OpenMetrics de las cargas de trabajo de Kubernetes + utilizando el módulo Datadog Agent con Autodiscovery further_reading: - link: /agent/kubernetes/log/ tag: Documentación diff --git a/content/es/continuous_integration/_index.md b/content/es/continuous_integration/_index.md index 39324d2854de1..394dd203b3abd 100644 --- a/content/es/continuous_integration/_index.md +++ b/content/es/continuous_integration/_index.md @@ -42,10 +42,14 @@ further_reading: - link: https://www.datadoghq.com/blog/datadog-detection-as-code/ tag: Blog text: Cómo utilizamos Datadog para la detección como código +- link: https://www.datadoghq.com/blog/cache-purge-ci-cd/ + tag: Blog + text: Patrones para una purga de caché segura y eficaz en pipelines de Continuous + Integration Continuous Delivery title: Continuous Integration Visibility --- -
Esta página trata sobre traer tus métricas y datos de Continuous Integration (CI) a dashboards de Datadog. Si deseas ejecutar tests de Continuous Testing en tus pipelines de CI, consulta la sección Continuous Testing y CI/CD.
+
Esta página trata sobre traer tus métricas y datos de integración continua (CI) en dashboards de Datadog. Si deseas ejecutar tests de Continuous Testing en tus pipelines de CI, consulta la sección Continuous Testing y CI/CD.
{{< learning-center-callout header="Join an enablement webinar session" hide_image="true" btn_title="Sign Up" btn_url="https://www.datadoghq.com/technical-enablement/sessions/?etiquetas (tags).topics-0=CI">}} Únete a la sesión de Introducción a CI Visibility para comprender cómo Datadog CI Visibility mejora la eficiencia de los pipelines de CI y cómo configurar los productos de Testing Visibility y Pipeline Visibility. diff --git a/content/es/continuous_integration/guides/_index.md b/content/es/continuous_integration/guides/_index.md index 059fd79d3d12e..43157485c15d8 100644 --- a/content/es/continuous_integration/guides/_index.md +++ b/content/es/continuous_integration/guides/_index.md @@ -9,9 +9,11 @@ private: true title: Guías de CI Visibility --- -{{< whatsnext desc="Pipeline Visibility Guides:" >}} +{{< whatsnext desc="Guías de Pipeline Visibility:" >}} {{< nextlink href="/continuous_integration/guides/ingestion_control" >}}Creación de filtros de exclusión para el control de ingesta{{< /nextlink >}} {{< nextlink href="/continuous_integration/guides/pipeline_data_model" >}}Comprender el modelo de datos de pipeline y tipos de ejecución{{< /nextlink >}} {{< nextlink href="/continuous_integration/guides/infrastructure_metrics_with_gitlab" >}}Correlación de métricas de infraestructura con trabajos de GitLab en Datadog{{< /nextlink >}} {{< nextlink href="/account_management/billing/ci_visibility/" >}}Consideraciones de facturación de CI Visibility{{< /nextlink >}} + {{< nextlink href="/continuous_integration/guides/identify_highest_impact_jobs_with_critical_path/" >}}Identificación de trabajos de CI en la ruta crítica para reducir la duración del pipeline{{< /nextlink >}} + {{< nextlink href="/continuous_integration/guides/use_ci_jobs_failure_analysis/" >}} Uso de análisis de error de trabajos de CI para identificar causas raíz en trabajos fallidos{{< /nextlink >}} {{< /whatsnext >}} \ No newline at end of file diff --git a/content/es/continuous_integration/troubleshooting.md b/content/es/continuous_integration/troubleshooting.md index c8edf000f9649..92a0fc0a9b50a 100644 --- a/content/es/continuous_integration/troubleshooting.md +++ b/content/es/continuous_integration/troubleshooting.md @@ -38,16 +38,20 @@ La falta de etapas o tareas en la página _Detalles del pipeline_ puede deberse [Las variables definidas por el usuario en Gitlab][16] deben ser informadas en el campo `@ci.parameters` en CI Visibility. Sin embargo, esta información sólo está presente en algunos casos, como los pipelines aguas abajo, y puede faltar en el resto de los casos, ya que Gitlab [no siempre proporciona esta información][17] a Datadog. -### Limitaciones en la ejecución de pipelines +## Limitaciones en la ejecución de pipelines -#### La entrega de eventos de webhook no está garantizada por los proveedores de CI +### La entrega de eventos de webhook no está garantizada por los proveedores de CI El soporte para la ejecución de pipelines depende de los datos enviados por los proveedores de CI, indicando el estado de la ejecución. Si estos datos no están disponibles, es posible que las ejecuciones marcadas como `Running` en Datadog ya hayan finalizado. -#### Duración máxima de la ejecución de un pipeline +### Duración máxima de la ejecución de un pipeline Una ejecución de pipeline puede conservar el estado `Running` durante un máximo de tres días. Si sigue en ejecución después de ese tiempo, la ejecución del pipeline no aparece en CI Visibility. Si una ejecución de pipeline finaliza después de tres días, la ejecución del pipeline finalizada aparece en CI Visibility con su correspondiente estado final (`Success`, `Error`, `Canceled`, `Skipped`) y con la duración correcta. +## Limitaciones a los trabajos terminados de los pipelines + +Los datos de trabajo tienen un límite de tres días para ser procesados tras su finalización. Si un pipeline incluye trabajos que finalizan más de tres días antes de que se reciba el pipeline, esos trabajos no se procesan y no aparecen en CI Visibility. + ## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/dashboards/functions/exclusion.md b/content/es/dashboards/functions/exclusion.md index 687bc5c04acb9..b089f1cc61092 100644 --- a/content/es/dashboards/functions/exclusion.md +++ b/content/es/dashboards/functions/exclusion.md @@ -1,6 +1,8 @@ --- aliases: - /es/graphing/functions/exclusion/ +description: Excluye los valores nulos y aplica un filtrado basado en umbrales utilizando + funciones de sujeción y corte en las métricas. title: Exclusión --- diff --git a/content/es/dashboards/functions/interpolation.md b/content/es/dashboards/functions/interpolation.md index 89d6368aaad84..45018e504e442 100644 --- a/content/es/dashboards/functions/interpolation.md +++ b/content/es/dashboards/functions/interpolation.md @@ -1,6 +1,8 @@ --- aliases: - /es/graphing/functions/interpolation/ +description: Rellena los valores de métricas faltantes utilizando métodos de interpolación + lineal, de último valor, cero o nulo en datos de series temporales. further_reading: - link: /dashboards/functions/ tag: Documentación @@ -37,7 +39,7 @@ Lee la sección de [La interpolación y el modificador de relleno][1] para obten La función `default_zero()` rellena los intervalos de tiempo vacíos con el valor 0 o, si la interpolación se encuentra habilitada, con la interpolación. **Nota**: La interpolación se encuentra habilitada por defecto para las métricas de tipo `GAUGE`. Como la mayoría de las funciones, `default_zero()` se aplica **después** de la [agregación temporal y espacial][2]. -### Casos de uso +### Casos prácticos La función `default_zero()` está destinada a abordar los siguientes casos de uso (aunque también puede servir para otros): @@ -92,7 +94,7 @@ default_zero(avg:custom_metric{*}) +---------------------+-----------------------------+ ``` -## Lectura adicional +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/dashboards/functions/rate.md b/content/es/dashboards/functions/rate.md index 75d9a2b4df8ad..66b8e0cb35ebb 100644 --- a/content/es/dashboards/functions/rate.md +++ b/content/es/dashboards/functions/rate.md @@ -1,6 +1,8 @@ --- aliases: - /es/graphing/functions/rate/ +description: Calcula tasas, derivadas y diferencias de tiempo para analizar cambios + en métricas por segundo, minuto u hora. further_reading: - link: /monitors/guide/alert-on-no-change-in-value/ tag: Documentación @@ -75,6 +77,6 @@ Calcula la diferencia entre cada intervalo por intervalo. Por ejemplo, una métr {{< nextlink href="/dashboards/functions/timeshift" >}}Cambio temporal: cambia el punto de datos de tu métrica dentro de la línea de tiempo. {{< /nextlink >}} {{< /whatsnext >}} -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/dashboards/functions/rollup.md b/content/es/dashboards/functions/rollup.md index beb7e8a2016f5..5412d022f0d60 100644 --- a/content/es/dashboards/functions/rollup.md +++ b/content/es/dashboards/functions/rollup.md @@ -1,6 +1,8 @@ --- aliases: - /es/graphing/functions/rollup/ +description: Controla la agregación temporal y los intervalos de puntos de datos mediante + funciones de rollup personalizadas y rollups móviles para métricas. further_reading: - link: /dashboards/guide/rollup-cardinality-visualizations tag: Documentación diff --git a/content/es/dashboards/functions/smoothing.md b/content/es/dashboards/functions/smoothing.md index 99b93a63058b1..fbc7a7a2e5d16 100644 --- a/content/es/dashboards/functions/smoothing.md +++ b/content/es/dashboards/functions/smoothing.md @@ -1,6 +1,8 @@ --- aliases: - /es/graphing/functions/smoothing/ +description: Reduce el ruido en los datos métricos utilizando autosmooth, medias móviles + ponderadas exponencialmente, filtros de mediana y funciones ponderadas. title: Suavizado --- diff --git a/content/es/dashboards/functions/timeshift.md b/content/es/dashboards/functions/timeshift.md index 1586f08725f03..f951e55d0a0e7 100644 --- a/content/es/dashboards/functions/timeshift.md +++ b/content/es/dashboards/functions/timeshift.md @@ -1,6 +1,9 @@ --- aliases: - /es/graphing/functions/timeshift/ +description: Compara los valores actuales de las métricas con los datos históricos + mediante las funciones de cambio temporal, desplazamiento de calendario y comparación + basada en el tiempo. further_reading: - link: /dashboards/faq/how-can-i-graph-the-percentage-change-between-an-earlier-value-and-a-current-value/ tag: FAQ @@ -51,7 +54,7 @@ Este es un ejemplo de `system.load.1` con el valor `hour_before()` mostrado como ## Día anterior -
La función de día anterior está obsoleta. En su lugar, utiliza el desplazamiento del calendario con un valor de "-1d".
+
La función de día anterior está obsoleta. En su lugar, utiliza el desplazamiento de calendario con un valor de "-1d".
| Función | Descripción | Ejemplo | |:---------------|:---------------------------------------------------------------------|:-------------------------------| @@ -63,7 +66,7 @@ Este es un ejemplo de `nginx.net.connections` con el valor de `day_before()` mos ## Semana anterior -
La función de semana anterior está obsoleta. En su lugar, utiliza el desplazamiento del calendario con un valor de "-7d".
+
La función de semana anterior está obsoleta. En su lugar, utiliza el desplazamiento de calendario con un valor de "-7d".
| Función | Descripción | Ejemplo | |:----------------|:-------------------------------------------------------------------------------|:--------------------------------| diff --git a/content/es/dashboards/guide/custom_time_frames.md b/content/es/dashboards/guide/custom_time_frames.md index 318287b3d173c..8c60ca746f5f3 100644 --- a/content/es/dashboards/guide/custom_time_frames.md +++ b/content/es/dashboards/guide/custom_time_frames.md @@ -1,4 +1,7 @@ --- +description: Utiliza sintaxis de marcos temporales personalizados, incluidas fechas + fijas, fechas relativas y periodos alineados con el calendario en los dashboards + de Datadog. title: Marco temporal personalizadas --- @@ -10,7 +13,7 @@ Muchas de las vistas de Datadog pueden ajustarse a un marco temporal específico Para incrementar por mes, día, año, hora o minuto, resalta una parte del marco temporal y utiliza las teclas `[↑]` y `[↓]`: -{{< img src="dashboards/guide/custom_time_frames/increment_with_arrow_keys.mp4" alt="Incrementar el tiempo con teclas de flechas" video="true" width="500" >}} +{{< img src="dashboards/guide/custom_time_frames/increment_with_arrow_keys.mp4" video="true" alt="Incrementar el tiempo con teclas de flechas" width="500" >}} ## Sintaxis admitidas diff --git a/content/es/dashboards/guide/how-to-graph-percentiles-in-datadog.md b/content/es/dashboards/guide/how-to-graph-percentiles-in-datadog.md index e8bcbea2fb937..911c1661b18e9 100644 --- a/content/es/dashboards/guide/how-to-graph-percentiles-in-datadog.md +++ b/content/es/dashboards/guide/how-to-graph-percentiles-in-datadog.md @@ -2,6 +2,8 @@ aliases: - /es/graphing/faq/how-to-graph-percentiles-in-datadog - /es/graphing/guide/how-to-graph-percentiles-in-datadog +description: Envía datos de histograma a través de DogStatsD para generar métricas + de percentiles, incluidos los percentiles 95 y 50, la media, el máximo y el recuento. title: ¿Cómo representar gráficamente los percentiles en Datadog? --- diff --git a/content/es/dashboards/guide/how-to-use-terraform-to-restrict-dashboard-edit.md b/content/es/dashboards/guide/how-to-use-terraform-to-restrict-dashboard-edit.md index bfe54a367921d..f259fb45e818e 100644 --- a/content/es/dashboards/guide/how-to-use-terraform-to-restrict-dashboard-edit.md +++ b/content/es/dashboards/guide/how-to-use-terraform-to-restrict-dashboard-edit.md @@ -2,6 +2,8 @@ aliases: - /es/dashboards/faq/how-to-use-terraform-to-restrict-dashboards - /es/dashboards/guide/how-to-use-terraform-to-restrict-dashboards +description: Utiliza el atributo restricted_roles en Terraform para controlar los + permisos de edición de dashboards para roles de usuario específicos. title: Cómo utilizar Terraform para restringir la edición de un dashboard --- @@ -23,7 +25,7 @@ recurso "datadog_dashboard" "ejemplo" { ## Restringir un dashboard utilizando una política de restricción -
Las políticas de restricción están en Vista previa. Para obtener acceso, ponte en contacto con el servicio de asistencia de Datadog o con tu asesor de clientes.
+
Las políticas de restricción están en vista previa. Ponte en contacto con el servicio de asistencia de Datadog o con tu asesor de clientes para obtener acceso.
Las [políticas de restricción][1] te permiten restringir la edición de dashboards y otros recursos a responsables específicos, incluyendo roles, equipos, usuarios y cuentas de servicio. diff --git a/content/es/dashboards/guide/query-to-the-graph.md b/content/es/dashboards/guide/query-to-the-graph.md index 0112db00b637d..daedfd80a5c85 100644 --- a/content/es/dashboards/guide/query-to-the-graph.md +++ b/content/es/dashboards/guide/query-to-the-graph.md @@ -1,6 +1,8 @@ --- aliases: - /es/dashboards/faq/query-to-the-graph +description: Comprende cómo el sistema de gráficos de Datadog procesa las consultas + y las representa mediante líneas de gráficos con pasos de ejecución de backend. title: Consulta al gráfico --- @@ -103,7 +105,7 @@ Datadog ofrece 4 agregadores espaciales: * `máx.` * `mín.` * `prom.` -* `suma` +* `sum` ## Aplica funciones (opcional) diff --git a/content/es/dashboards/template_variables.md b/content/es/dashboards/template_variables.md index 864597480f5ef..40fa85d1729f2 100644 --- a/content/es/dashboards/template_variables.md +++ b/content/es/dashboards/template_variables.md @@ -3,6 +3,9 @@ aliases: - /es/graphing/dashboards/template_variables/correlate-metrics-and-events-using-dashboard-template-variables - /es/graphing/dashboards/template_variables/how-do-i-overlay-events-onto-my-dashboards - /es/graphing/dashboards/template_variables/ +description: Utiliza variables de plantilla para filtrar dinámicamente los widgets + del dashboard por etiquetas, atributos y facetas para una exploración flexible de + los datos. further_reading: - link: https://www.datadoghq.com/blog/template-variable-associated-values/ tag: Blog @@ -29,7 +32,7 @@ title: Variables de plantilla ## Información general -Las variables de plantilla te permiten filtrar dinámicamente uno o más widgets en un dashboard. Puedes crear vistas guardadas, a partir de tus selecciones de variables de plantilla, para organizar y navegar por tus visualizaciones a través de las selecciones desplegables. +Las variables de plantilla permiten filtrar o agrupar dinámicamente los widgets de un dashboard. Puedes crear vistas guardadas a partir de tus selecciones de variables de plantilla para organizar y navegar por tus visualizaciones a través de las selecciones desplegables. Una variable de plantilla se determina por: @@ -43,20 +46,28 @@ Una variable de plantilla se determina por: **Nota**: Si no ves la etiqueta o el atributo que buscas, puede deberse a que esos datos no se han informado a Datadog recientemente. Para obtener más información, consulta [Datos históricos][4]. ## Añadir una variable de plantilla +Si las variables de plantilla ya están definidas, consulta [Editar una variable de plantilla](#edit-a-template-variable). Si tu dashboard no tiene ninguna variable de plantilla, puedes hacer clic en el icono del signo de interrogación para abrir un modal de ayuda sobre cómo utilizar las variables del dashboard. + +{{< img src="/dashboards/template_variables/template_variable_menu.png" alt="Menú de Variable de entorno que muestra la opción Configurar los valores desplegables" style="width:70%;" >}} Para añadir una variable de plantilla en un dashboard: -1. Haz clic en **Add Variables** (Añadir variables). -1. Si las variables de plantilla ya están definidas, pasa el cursor sobre el encabezado del dashboard y haz clic en el botón **Edit** (Editar) para acceder al modo de edición. -1. En el modo de edición, haz clic en el icono **+ (más)** para crear una nueva variable de plantilla. +1. Haz clic en **Add Variable** (Añadir variable). +1. Puedes añadir tipos de variables **Filter** (Filtrar) y **Group by** (Agrupar por). + 1. Filtrar: añade una etiqueta o atributo para filtrar las consultas y visualizaciones del dashboard. + 1. Agrupar por: añade una etiqueta o atributo para mostrar un desglose de los grupos dentro de tus datos.
**Nota**: `Group by` solo es compatible con determinados widgets---Series temporales, Tabla, Mapa de árbol, Gráfico de barras, Comodín, Distribución, Lista principal, Mapa de calor, Gráfico circular, Geomapa, Cambio, Gráfico de dispersión, Valor de consulta, Mapa de hosts y Resumen de SLO. 1. (Opcional) Después de seleccionar una etiqueta, haz clic en el botón **+ Configure Dropdown Values** (+ Configurar valores desplegables), para cambiar el nombre de la variable y establecer valores predeterminados o disponibles. - {{< img src="dashboards/template_variables/add_template_variable_configure_dropdown_values.png" alt="Añadir ventana emergente de la variable que muestra el botón **+ Configure Dropdown Values** (+ Configurar valores desplegables)" style="width:80%;" >}} +1. Haz clic en **Save** (Guardar). +1. Para añadir más variables de plantilla, consulta [Editar una variable de plantilla](#edit-a-template-variable) + ## Editar una variable de plantilla -Para editar una variable de plantilla en un dashboard: -1. Haz clic en el botón **Edit** (Editar) del encabezado del dashboard. +Para editar una variable de plantilla o añadir variables: +1. Pasa el ratón por encima del encabezado del dashboard y haz clic en el botón **Edit** (Editar). 1. En el modo de edición, haz clic en una variable de plantilla y realiza cambios en la ventana emergente. 1. Para reorganizar las variables en el encabezado, pasa el cursor sobre una variable, y luego haz clic y arrastra el asa del icono de arrastre. +1. Haz clic en el icono **+ (plus)** (+ (más)) para añadir una nueva variable de plantilla. +1. (Opcional) Después de seleccionar una etiqueta, haz clic en el botón **+ Configure Dropdown Values** (+ Configurar valores desplegables), para cambiar el nombre de la variable y establecer valores predeterminados o disponibles. {{< img src="dashboards/template_variables/edit_template_variable_drag.png" alt="Ventana emergente del modo de edición de una variable de plantilla que muestra el icono de arrastre y te permite volver a acomodar el orden" style="width:100%;" >}} ## Aplicar una variable de plantilla a widgets @@ -77,7 +88,7 @@ Para añadir una variable de plantilla a las consultas de widgets: ### Crear 1. Haz clic en el menú desplegable **Saved Views** (Vistas guardadas) a la izquierda de las variables de plantilla en tu dashboard. Al actualizar el valor de una variable de plantilla, dicho valor no se guarda automáticamente en una vista. -1. Para guardar los valores actuales de variables de plantilla en una vista, selecciona **Guardar selecciones como vista** en el menú desplegable **Vistas guardadas**. +1. Para guardar los valores actuales de las variables de plantilla en una vista, selecciona **Save selections as view** (Guardar selecciones como vista) en el menú desplegable **Saved Views** (Vistas guardadas). 1. Introduce un nombre único para la vista con una descripción en opcional. 1. Haz clic en **Save** (Guardar). @@ -87,14 +98,14 @@ La vista guardada aparecerá en el menú desplegable. Haz clic en ella para recu ### Borrar -1. Haz clic en el menú desplegable de vistas guardadas y pasa el ratón por encima de la vista guardada deseada. +1. Haz clic en el menú desplegable de vistas guardadas y pasa el ratón por encima de la vista guardada que desees. 1. Haz clic en **Delete View** (Eliminar vista). ### Modificar La **vista por defecto** sólo puede editarse cambiando los valores por defecto de las variables de plantilla. Para editar la vista por defecto: 1. Pasa el ratón por encima de las plantillas. -1. Haz clic en **Edit** (Editar) cuando aparezca el botón. +1. Haz clic en **Edit** (Editar) cuando aparezca el botón. 1. Haz clic en **Done** (Listo) para guardar. Para modificar valores de variables de plantilla para otras vistas guardadas: @@ -125,7 +136,7 @@ En los widgets de log, APM y RUM, se pueden utilizar comodines en mitad de un va ### Widgets -Al crear o editar un widget, las variables de plantilla existentes se muestran como opciones en el campo `from`. Por ejemplo, si configuras la variable de plantilla `environment`, la opción `$environment` estará disponible como variable dinámica en el widget. +Al crear o editar un widget, las variables de plantilla de filtro existentes se muestran como opciones en el campo `from`, y las variables de plantilla de Agrupar por existentes se muestran como opciones a continuación del campo `by`. Por ejemplo, si configuras la variable de plantilla `environment`, la opción `$environment` estará disponible como variable dinámica en el widget. {{< img src="dashboards/template_variables/dynamic_template_variable.png" alt="La variable de plantilla puede definirse de forma dinámica en los widgets" style="width:100%;">}} diff --git a/content/es/dashboards/widgets/_index.md b/content/es/dashboards/widgets/_index.md index f256665096341..575480b1300be 100644 --- a/content/es/dashboards/widgets/_index.md +++ b/content/es/dashboards/widgets/_index.md @@ -3,215 +3,94 @@ aliases: - /es/graphing/dashboards/widgets - /es/graphing/faq/widgets - /es/graphing/widgets +description: Bloques de construcción de dashboard para visualizar y correlacionar + datos en toda la infraestructura con varios tipos de gráficos y visualizaciones. further_reading: -- link: /dashboards/guide/context-links/ +- link: /dashboards/ tag: Documentación - text: Enlaces personalizados -- link: https://www.datadoghq.com/blog/observability-pipelines-transform-and-enrich-logs/ - tag: Blog - text: Transformar y enriquecer tus logs con pipelines de observabilidad de datos + text: Más información sobre dashboards +- link: /dashboards/widgets/configuration + tag: Documentación + text: Conoce las opciones de configuración de los widgets y las mejores prácticas +- link: /dashboards/widgets/types/ + tag: Documentación + text: Explorar todos los tipos de widgets disponibles title: Widgets --- ## Información general -Los widgets son componentes básicos de tus dashboards. Te permiten visualizar y correlacionar los datos en tu infraestructura. - -### Gráficos -{{< whatsnext desc="Widgets genéricos para graficar datos a partir de productos Datadog: ">}} - {{< nextlink href="/dashboards/widgets/change" - img="dashboards/widgets/icons/change_light_large.png">}} Cambio {{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/distribution" - img="dashboards/widgets/icons/distribution_light_large.png">}} Distribución {{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/funnel" - img="dashboards/widgets/icons/funnel_light_large.png">}} Embudo {{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/geomap" - img="dashboards/widgets/icons/geomap_light_large.png">}} Geomap {{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/heat_map" - img="dashboards/widgets/icons/heatmap_light_large.png">}} Heatmap {{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/pie_chart" - img="dashboards/widgets/icons/pie_light_large.png">}} Gráfico circular {{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/query_value" - img="dashboards/widgets/icons/query-value_light_large.png">}} Valor de consulta {{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/sankey" img="dashboards/widgets/icons/sankey_light_large.svg">}} Sankey{{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/scatter_plot" - img="dashboards/widgets/icons/scatter-plot_light_large.png">}} Diagrama de dispersión {{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/table" - img="dashboards/widgets/icons/table_light_large.png">}} Tabla {{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/treemap" - img="dashboards/widgets/icons/treemap_light_large.png">}} Treemap {{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/timeseries" - img="dashboards/widgets/icons/timeseries_light_large.png">}} Series temporales {{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/top_list" - img="dashboards/widgets/icons/top-list_light_large.png">}} .Lista principal {{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/wildcard" - img="/dashboards/widgets/icons/wildcard_light_large.svg">}} Comodín {{< /nextlink >}} -{{< /whatsnext >}} - -### Groups (grupos) -{{< whatsnext desc="Muestra tus widgets en grupos: ">}} - {{< nextlink href="/dashboards/widgets/group" - img="dashboards/widgets/icons/group_default_light_large.svg">}} Grupo{{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/powerpack" - img="dashboards/widgets/icons/group_powerpack_light_large.svg">}} Powerpack{{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/split_graph" - img="dashboards/widgets/icons/group-split_light_small.svg">}} Gráfica dividida{{< /nextlink >}} -{{< /whatsnext >}} - -### Anotaciones y embeds -{{< whatsnext desc="Widgets de decoración para estructurar y comentar dashboards de manera visual: ">}} - {{< nextlink href="/dashboards/widgets/free_text" - img="dashboards/widgets/icons/free-text_light_large.png">}} Texto libre{{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/iframe" - img="dashboards/widgets/icons/iframe_light_large.png">}} Iframe{{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/image" - img="dashboards/widgets/icons/image_light_large.png">}} Imagen{{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/note" - img="dashboards/widgets/icons/notes_light_large.png">}} Notas y enlaces{{< /nextlink >}} -{{< /whatsnext >}} +Los widgets de dashboard son representaciones visuales de los datos. Sirven como bloques de construcción para tus [dashboards][2] para visualizar y correlacionar tus datos a través de tu infraestructura. Pueden contener distintos tipos de información, como gráficos, imágenes, logs y estados, para ofrecerte una visión general de tus sistemas y entornos. -### Listas y flujos -{{< whatsnext desc="Muestra una lista de eventos y problemas provenientes de diferentes fuentes: ">}} - {{< nextlink href="/dashboards/widgets/list" - img="dashboards/widgets/icons/change_light_large.png">}} Lista{{< /nextlink >}} -{{< /whatsnext >}} +## Para empezar -### Alerta y respuesta -{{< whatsnext desc="Widgets de resumen para mostrar información de monitorización: ">}} - {{< nextlink href="/dashboards/widgets/alert_graph" - img="dashboards/widgets/icons/alert-graph_light_large.png">}} Gráfica de alertas{{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/alert_value" - img="dashboards/widgets/icons/alert-value_light_large.png">}}Valor de alerta{{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/check_status" - img="dashboards/widgets/icons/check-status_light_large.png">}} Estado del check{{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/monitor_summary" - img="dashboards/widgets/icons/monitor-summary_light_large.png">}} Resumen de monitores{{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/run_workflow" - img="dashboards/widgets/icons/run-workflow_light_small.svg">}} Ejecutar flujo de trabajo{{< /nextlink >}} -{{< /whatsnext >}} +La forma más rápida de incorporar widgets relevantes para tus datos es clonar un dashboard de la [lista de preajustes][1], que incluye dashboards creados por otros miembros de tu organización y plantillas predefinidas para tus integraciones instaladas. Después de clonar un dashboard, puedes personalizar los widgets según tu caso de uso. -### Arquitectura -{{< whatsnext desc="Visualiza los datos de la infraestructura y la arquitectura: ">}} - {{< nextlink href="/dashboards/widgets/hostmap" - img="dashboards/widgets/icons/host-map_light_large.png">}} Mapa de host{{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/topology_map" - img="dashboards/widgets/icons/service-map_light_large.png">}} Mapa de topología{{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/service_summary" - img="dashboards/widgets/icons/service-summary_light_large.png">}} Resumen de servicio{{< /nextlink >}} -{{< /whatsnext >}} -### Rendimiento y fiabilidad -{{< whatsnext desc="Visualizaciones de fiabilidad del sitio: ">}} - {{< nextlink href="/dashboards/widgets/profiling_flame_graph" - img="dashboards/widgets/icons/profiling_flame_graph.svg">}} Gráfica de llamas de perfiles{{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/slo" - img="dashboards/widgets/icons/slo-summary_light_large.png">}} Resumen de objetivos de nivel de servicio (SLOs){{< /nextlink >}} - {{< nextlink href="/dashboards/widgets/slo_list" - img="dashboards/widgets/icons/slo-list_light_large.png">}} Objetivo de nivel de servicio (SLO){{< /nextlink >}} +{{< whatsnext desc="Guías adicionales y cursos para conocer sobre widgets:" >}} + {{< nextlink href="/getting_started/dashboards/" >}}Introducción a dashboards: instrucciones para crear un dashboard con widgets{{< /nextlink >}} + {{< nextlink href="https://learn.datadoghq.com/courses/dashboard-graph-widgets" >}}Widgets de gráfico de dashboard: curso del centro de aprendizaje que explica cómo crear, configurar y usar widgets de gráfico de dashboard{{< /nextlink >}} + {{< nextlink href="https://learn.datadoghq.com/courses/intro-dashboards" >}}Introducción a dashboards: curso del centro de aprendizaje que explica cómo crear un dashboard en un entorno de pruebas{{< /nextlink >}} {{< /whatsnext >}} -## Pantalla completa - -Puedes ver la mayoría de los widgets en el modo de pantalla completa y hacer lo siguiente: - -* Cambiar los períodos -* Retroceder o avanzar en función del período de tiempo seleccionado -* Pausar la gráfica en el momento actual o visualizar la gráfica en directo -* Restablecer el período de tiempo -* Exportar la gráfica a un dashboard o notebook, o copiar la consulta -* Descargar los datos que producen la gráfica en formato CSV - -Para acceder directamente a la vista general del widget, haz clic en el botón de pantalla completa en la esquina superior derecha del widget. - -Hay opciones adicionales disponibles para los [widgets de serie temporal][1]. - -## Enlaces personalizados - -Los enlaces personalizados conectan valores de datos a URLs, como una página de Datadog o tu consola de AWS. - -Para personalizar las interacciones con los datos en línea de tus widgets genéricos, consulta la sección de [Enlaces personalizados][2]. - -## Anulación de unidad - -Personaliza los valores de las unidades que se muestran en los widgets para añadir contexto a tus datos. Para obtener más información y casos de uso, consulta la sección de [Personalizar las visualizaciones con anulaciones de unidades][3]. -- **Anulación de unidad**: elige mostrar unidades en la familia de la «memoria» y haz que Datadog se encargue de mostrar la escala adecuada en función de los datos (como megabytes o gigabytes). -- **Anulación de unidad y escala**: fija las unidades en una sola escala (muestra los datos en megabytes independientemente del valor). -- **Definir unidades personalizadas**: define unidades completamente personalizadas (como «pruebas» en lugar de un recuento genérico). - -Esta no es una alternativa para asignar unidades a tus datos. -{{< whatsnext desc="Establece unidades a nivel de la organización: ">}} - {{< nextlink href="/metrics/units/">}} Establecer unidades de métricas{{< /nextlink >}} - {{< nextlink href="/logs/explorer/facets/#units">}} Establecer unidades para consultas basadas en eventos{{< /nextlink >}} -{{< /whatsnext >}} - -## Selector de hora global - -Para utilizar el selector de hora global, al menos un widget basado en la hora debe tener configurado el uso de `Global Time`. Para ello, selecciona el widget en el editor de widgets, en **Set display preferences** (Configurar las preferencias de visualización), o añade un widget (la configuración de hora por defecto es la hora global). - -El selector de tiempo general establece el mismo período de tiempo para todos los widgets mediante la opción `Global Time` en el mismo dashboard. Selecciona un intervalo móvil en el pasado (por ejemplo, `Past 1 Hour` o `Past 1 Day`) o un período fijo con la opción `Select from calendar...`, o [ingresa un período de tiempo personalizado][11]. Si se elige un intervalo móvil, los widgets se actualizan para moverse junto con dicho intervalo. - -Los widgets no vinculados a la hora global muestran los datos de su periodo de tiempo local aplicados a la ventana global. Por ejemplo, si el selector de hora global está configurado del 1 de enero de 2019 al 2 de enero de 2019, un widget configurado con el marco de hora local para `Past 1 Minute` muestra el último minuto del 2 de enero de 2019 a partir de las 23:59. - -## Copiar y pegar widgets - -
Debes contar con los permisos dashboard_public_share y habilitar el uso compartido de datos públicos estáticos en los parámetros de organización para utilizar esta característica.
- -Los widgets se pueden copiar en [dashboards][4], [notebooks][5], [servicios de APM][6] y la página de [recursos de APM][7] con `Ctrl + C` (`Cmd + C` para Mac), o al seleccionar el icono de compartir y elegir «Copy» (Copiar). - -Los widgets copiados se pueden pegar dentro de Datadog con `Ctrl + V` (`Cmd + V` para Mac) en: - -* **Dashboards**: añade un widget nuevo ubicado debajo del cursor del mouse. -* **Notebooks**: añade una celda nueva al final del notebook. - -También puedes pegar el widget en tu programa de chat favorito que muestre previsualizaciones de enlaces (como Slack o Microsoft Teams). Esto muestra una imagen snapshot de tu gráfica junto con un enlace directo al widget. +### Añadir un widget a tu dashboard -### Grupos de widgets +Para empezar a utilizar widgets en tus dashboards: -Los widgets del grupo del timeboard se pueden copiar al colocar el cursor por encima de la zona del widget del grupo y al utilizar `Ctrl + C` (`Cmd + C` para Mac) o seleccionar el icono de compartir y elegir «Copy» (Copiar). +1. Navega hasta la [Lista de dashboards][1] en Datadog. +2. Haz clic en **New Dashboard** (Nuevo dashboards) o selecciona un dashboard existente para editarlo. +3. Haz clic en **Add Widget** (Añadir widget). Elige entre una variedad de tipos de widgets como series de tiempo, gráfico de barras, tabla o flujo de eventos. +4. Configurar tu widget: + - Seleccionar la fuente de datos: elija métricas, logs, trazas u otras fuentes de datos. + - Personalizar la visualización: ajusta la configuración de visualización, las unidades y los plazos para adaptarlos a tus necesidades. + - Añadir contexto: utiliza enlaces personalizados, formato condicional y agrupación para obtener información mejorada. +5. Guarda tu dashboard y compártelo con tu equipo o externamente según sea necesario. -**Nota**: Al pegar gráficas en screenboards o notebooks, se pegan widgets individuales en el grupo. +Para más información, consulta [Configuración de widgets][3] y explora los [Tipos de widgets][4] disponibles. -Para copiar varios widgets de screenboard (solo en el modo de edición), pulsa `shift + click` en los widgets y utiliza `Ctrl + C` (`Cmd + C` para Mac). +## Fuentes de datos -**Nota**: Esto solo funciona cuando se comparte dentro de Datadog. No genera una imagen de vista previa. +Los widgets pueden visualizar datos de múltiples fuentes de Datadog, entre ellas: -## Gráficas de widget +- **Trazas de APM**: datos de monitorización del rendimiento de las aplicaciones +- **Eventos**: eventos personalizados, despliegues y anotaciones. +- **Logs**: eventos de log, análisis de logs y métricas basadas en logs +- **Métricas**: infraestructura, aplicación y métricas personalizadas +- **RUM**: Real User Monitoring y datos de synthetic test +- **SLOs**: objetivos de nivel de servicio (SLO) y presupuestos de errores +- **Seguridad**: señales de seguridad y datos de cumplimiento -### Exportar +## Casos de uso común -| Formato | Instrucciones | -| ----- | ----------------------- | -| PNG | Para descargar un widget en formato PNG, haz clic en el botón de exportación en la parte superior derecha del widget y selecciona **Download as PNG** (Descargar como PNG). | -| CSV | Para descargar los datos de un widget de lista de principales, serie temporal o tabla en formato CSV, haz clic en el botón de exportación en la parte superior derecha del widget y selecciona **Download as CSV** (Descargar como CSV).| +{{% collapse-content title="Monitorización de infraestructura" level="h4" expanded=false %}} +- Utiliza widgets **Series temporales** para las métricas de CPU, memoria y red a lo largo del tiempo +- Utiliza widgets **Mapa de host** para visualizar el uso de recursos en toda tu infraestructura +- Utiliza los widgets **Lista principal** para identificar los hosts o servicios que consumen más recursos. +{{% /collapse-content %}} -### Menú de gráficos +{{% collapse-content title="Rendimiento de las aplicaciones" level="h4" expanded=false %}} +- Utiliza widgets **Series temporales** para realizar un seguimiento de los tiempos de respuesta, las tasas de error y el rendimiento. +- Utiliza los widgets **Resumen de servicios** para obtener una visión general del estado de los servicios. +- Utiliza los widgets **Mapa de topología** para visualizar las dependencias de los servicios y el flujo de datos. +{{% /collapse-content %}} -Haz clic en cualquier gráfico del dashboard para abrir un menú de opciones: +{{% collapse-content title="Inteligencia empresarial" level="h4" expanded=false %}} +- Utiliza widgets **Valor de consulta** para indicadores clave de rendimiento y métricas empresariales. +- Utiliza widgets **Embudo** para realizar un seguimiento de la conversión de los usuarios a través de tu aplicación. +- Utiliza widgets de **Retención** para analizar el compromiso y la rotación de los usuarios. +{{% /collapse-content %}} -| Opción | Descripción | -|------------------------|--------------------------------------------------------------------| -| Send snapshot (Enviar snapshot) | Crea y envía un snapshot de tu gráfico. | -| Find correlated metrics (Encontrar métricas correlacionadas)| Encuentra correlaciones de servicios de APM, integraciones y dashboards. | -| View in full screen (Ver en pantalla completa) | Visualiza el gráfico en [modo pantalla completa][5]. | -| Lock cursor (Bloquear el cursor) | Bloquea el cursor en la página. | -| View related processes (Ver procesos relacionados) | Accede a la página [Live Processes][6] que se corresponde con tu gráfico. | -| View related hosts (Ver hosts relacionados) | Accede a la página [Mapa del host][7] que se corresponde con tu gráfico. | -| View related logs (Ver logs relacionados) | Accede a la página [Navegador de logs][8] que se corresponde con tu gráfico. | -| View related traces (Ver trazas relacionadas) | Rellena un panel de [Trazas][9] que se corresponde con tu gráfico. | -| View related profiles (Ver perfiles relacionados) | Accede a la página [Elaboración de perfiles][7] que se corresponde con tu gráfico. | +{{% collapse-content title="Respuesta a incidentes" level="h4" expanded=false %}} +- Utiliza los widgets **Gráfico de alertas** para mostrar el historial y las tendencias de las alertas +- Utiliza los widgets **Resumen de monitor** para conocer el estado actual de las alertas en toda tu infraestructura. +- Utiliza los widgets **Flujo de eventos** para controlar los eventos en tiempo real +{{% /collapse-content %}} ## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} -[1]: /es/dashboards/widgets/timeseries/#full-screen -[2]: /es/dashboards/guide/context-links/ -[3]: /es/dashboards/guide/unit-override -[4]: /es/dashboards/ -[5]: /es/notebooks/ -[6]: /es/tracing/services/service_page/ -[7]: /es/tracing/services/resource_page/ -[8]: /es/logs/explorer/ -[9]: /es/tracing/trace_explorer/ -[10]: /es/profiler/profile_visualizations/ -[11]: /es/dashboards/guide/custom_time_frames/ \ No newline at end of file +[1]: https://app.datadoghq.com/dashboard/lists/preset/1 +[2]: /es/dashboards/ +[3]: /es/dashboards/widgets/configuration/ +[4]: /es/dashboards/widgets/types/ \ No newline at end of file diff --git a/content/es/dashboards/widgets/configuration/_index.md b/content/es/dashboards/widgets/configuration/_index.md new file mode 100644 index 0000000000000..9a41815e222c8 --- /dev/null +++ b/content/es/dashboards/widgets/configuration/_index.md @@ -0,0 +1,193 @@ +--- +description: Aprende a configurar los widgets en los dashboards de Datadog, incluidas + las opciones de pantalla completa, enlaces personalizados, información sobre métricas + y anulaciones de unidades. +further_reading: +- link: /dashboards/widgets/ + tag: Documentación + text: Información general del widget +- link: /dashboards/widgets/types + tag: Documentación + text: Tipos de widgets +title: Configuración del widget +--- + +## Información general + +La configuración de widgets es esencial para crear dashboards eficaces que proporcionen información significativa sobre tu infraestructura y aplicaciones. En esta guía se describen las principales opciones de configuración y las consideraciones que debes tener en cuenta a la hora de configurar los widgets. + + +## Pantalla completa + +El modo de pantalla completa ofrece funciones mejoradas de visualización y análisis de tus widgets. Puedes ver la mayoría de los widgets en modo de pantalla completa y hacer lo siguiente: + +* Cambiar los períodos +* Retroceder o avanzar en función del período de tiempo seleccionado +* Pausar la gráfica en el momento actual o visualizar la gráfica en directo +* Restablecer el período de tiempo +* Exportar la gráfica a un dashboard o notebook, o copiar la consulta +* Descargar los datos que producen la gráfica en formato CSV + +Para acceder directamente a la vista general del widget, haz clic en el botón de pantalla completa en la esquina superior derecha del widget. + +Hay opciones adicionales disponibles para los [widgets de serie temporal][1]. + +## Vista previa de datos + +Puedes unir varias fuentes de datos en el editor de gráficos para enriquecer tus visualizaciones con contexto y metadatos adicionales. Con la vista previa de datos, puedes ver qué datos estás uniendo o si la consulta está funcionando como se esperaba. Esta función te ayuda a: + +- Confirmar estructura de datos y nombres de columnas +- Identificar las claves coincidentes +- Validar los resultados antes de ejecutar la consulta completa + +{{% collapse-content title="Ejemplo" level="h4" expanded=false %}} +Podrías unir tus logs de pago con una tabla de referencia (tabla de búsqueda) que contenga detalles del producto para mostrar el precio de venta o la fecha de lanzamiento junto con los datos de la transacción. O bien, podrías enriquecer los datos de sesión de RUM uniéndolos a la información de cliente de una fuente externa, como Salesforce o Snowflake, para segmentar a los usuarios por nivel de cliente. + +Las fuentes de datos compatibles para las uniones incluyen (entre otras): + +- Logs +- Métricas +- RUM +- Recomendaciones de costes en la nube +- Netflow +- Tramos de APM +- Trazas de APM +- Perfiles +- Lotes de CI de Synthetic Monitoring +- Ejecución de Synthetic Monitoring +- Análisis estático +- Tests CI +- Conclusiones sobre el cumplimiento +- Product Analytics +- Tablas de referencia + +El uso de uniones y previsualizaciones de datos facilita la selección de los campos adecuados y enriquece tus gráficos con detalles relevantes, mejorando la calidad y utilidad de tus dashboards. + + +{{% /collapse-content %}} + +## Enlaces personalizados + +Los enlaces personalizados mejoran la interacción con los datos conectando los valores de los datos del widget a URL relevantes, como las páginas de Datadog o tu consola de AWS. + +Para personalizar las interacciones con datos en línea de tus widgets genéricos, consulta [Enlaces contextuales][2]. + +## Información de las métricas + +En el gráfico de una métrica, haz clic en el menú contextual (tres puntos verticales) para encontrar la opción **Metrics info** (Información de la métrica). Esto abre un panel con una descripción de la métrica. Al hacer clic en el nombre de la métrica en este panel, se abre la métrica en la página del resumen de métricas para su posterior análisis o edición. + +## Anulación de unidad + +Las modificaciones de unidad son una opción de visualización clave que te permiten personalizar la forma en que se presentan los valores de los datos en los widgets, añadiendo un contexto significativo a tus datos. Para obtener más información y casos de uso, consulta [Personaliza tus visualizaciones con modificaciones de unidad][3]. +- **Anulación de unidad**: elige mostrar unidades en la familia de la «memoria» y haz que Datadog se encargue de mostrar la escala adecuada en función de los datos (como megabytes o gigabytes). +- **Anulación de unidad y escala**: fija las unidades en una sola escala (muestra los datos en megabytes independientemente del valor). +- **Definir unidades personalizadas**: define unidades completamente personalizadas (como «pruebas» en lugar de un recuento genérico). + +Esta no es una alternativa para asignar unidades a tus datos. +{{< whatsnext desc="Establece unidades a nivel de la organización: ">}} + {{< nextlink href="/metrics/units/">}} Establecer unidades de métricas{{< /nextlink >}} + {{< nextlink href="/logs/explorer/facets/#units">}} Establecer unidades para consultas basadas en eventos{{< /nextlink >}} +{{< /whatsnext >}} + +## Selector de hora global + +El selector de hora global es una opción de configuración horaria fundamental que sincroniza todos los widgets de un dashboard para que utilicen el mismo marco temporal. Para utilizar el selector de hora global, al menos un widget basado en la hora debe estar configurado para utilizar `Global Time`. Haz la selección en el editor de widgets en **Set display preferences** (Configurar preferencias de visualización), o añade un widget (la hora global es la configuración horaria por defecto). + +El selector de tiempo global establece el mismo marco temporal para todos los widgets que utilicen la opción `Global Time` en el mismo dashboard. Selecciona un intervalo móvil en el pasado (por ejemplo, `Past 1 Hour` o `Past 1 Day`) o un periodo fijo con la opción `Select from calendar...` o [introduce un marco temporal personalizado][8]. Si se elige un intervalo móvil, los widgets se actualizan para moverse junto con el intervalo. + +Los widgets no vinculados a la hora global muestran los datos de su periodo de tiempo local aplicados a la ventana global. Por ejemplo, si el selector de hora global está configurado del 1 de enero de 2019 al 2 de enero de 2019, un widget configurado con el marco de hora local para `Past 1 Minute` muestra el último minuto del 2 de enero de 2019 a partir de las 23:59. + +## Copiar y pegar widgets + +Copiar y pegar es una función clave para compartir y colaborar que permite reutilizar widgets en distintos contextos de Datadog y herramientas externas. + +
Activa Uso compartido de datos públicos estáticos en la Configuración de la organización para utilizar esta función.
+ +Los widgets pueden copiarse en [Dashboards][4], [Notebooks][5], [APM Service][6] y la page (página) del [recurso de APM][7] utilizando Ctrl/Cmd + C o seleccionando el ícono de compartir y seleccionando "Copiar". + +Los widgets copiados pueden pegarse en Datadog utilizando Ctrl/Cmd + V: + +* **Dashboards**: añade un widget nuevo ubicado debajo del cursor del mouse. +* **Notebooks**: añade una celda nueva al final del notebook. + +También puedes pegar el widget en tu programa de chat favorito que muestre previsualizaciones de enlaces (como Slack o Microsoft Teams). Esto muestra una imagen snapshot de tu gráfica junto con un enlace directo al widget. + +Para obtener más información, consulta el [Portapapeles de Datadog][9]. + +## Grupos de widgets + +Copia los widgets de grupos de timeboard pasando el ratón sobre el área del widget de grupo y utilizando Ctrl/Cmd + C o seleccionando el ícono de compartir y seleccionando "Copy" (Copiar). + +**Nota**: Al pegar gráficos en screenboard o notebook, Datadog pega cada widget del grupo individualmente. + +Para copiar varios widgets de screenboard (sólo en modo de edición), pulsa Mayúsculas + clic en los widgets y utiliza Ctrl/Cmd + C. + +**Nota**: Esto solo funciona cuando se comparte dentro de Datadog. No genera una imagen de vista previa. + +## Widget de menús gráficos + +Los menús de gráficos del widget proporcionan opciones esenciales para la interacción con los datos. Pasa el cursor sobre un gráfico para acceder a las siguientes opciones de menú. + +### View in full screen (Ver en pantalla completa) + +Ve el gráfico en [modo pantalla completa](#full-screen). + +### Exportar + +Haz clic en el icono de exportación de cualquier gráfico del dashboard para abrir un menú de opciones: + +| Opción | Descripción | +|------------------------|--------------------------------------------------------------------| +| Copia | Crea una copia del gráfico del dashboard. | +| Compartir snapshot | Crea y envía un snapshot de tu gráfico. | + +#### Utilización en Datadog + +| Opción | Descripción | +|------------------------|--------------------------------------------------------------------| +| Declarar incidente | Declara un incidente del gráfico. | +| Añadir al incidente | Añade el gráfico a una página existente del incidente. | +| Crear incidencia | Crea una incidencia a partir del gráfico. | +| Guardar en notebook | Guarda el gráfico en un notebook. | +| Enlace al widget | Obtén un enlace al widget copiado en el portapapeles. | + +#### Compartir externamente + +| Formato | Descripción | +| ----- | ----------------------- | +| Descargar como PNG | Descarga el widget en formato PNG. | +| Descargar como SVG | Descarga el widget en formato SVG. | +| Descargar como CSV | Descarga el widget en formato CSV. | + +### Editar + +Haz clic en el icono del lápiz de cualquier gráfico del dashboard para realizar modificaciones. + +### Opciones adicionales + +Haz clic en el menú contextual (tres puntos verticales) de cualquier gráfico del dashboard para abrir un menú de opciones: + +| Opción | Descripción | +|------------------------|--------------------------------------------------------------------| +| Editar | Edita el gráfico. | +| Clonar | Crea una copia adyacente del gráfico. | +| Gráfica dividida | Crea un [gráfico dividido][10]. | +| Crear enlaces personalizados | Crea [enlaces personalizados](#custom-links). | +| Crear monitor | Crea un monitor preconfigurado con la consulta del gráfico. | +| Información de la métrica (solo gráficos de métrica) | Obtén una descripción de las métricas en este gráfico. Puedes hacer clic en los nombres de las métricas para abrirlas en la página Resumen de métricas. | +| Borrar | Borra el gráfico. | + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/dashboards/widgets/timeseries/#full-screen +[2]: /es/dashboards/guide/context-links/ +[3]: /es/dashboards/guide/unit-override +[4]: /es/dashboards/ +[5]: /es/notebooks/ +[6]: /es/tracing/services/service_page/ +[7]: /es/tracing/services/resource_page/ +[8]: /es/dashboards/guide/custom_time_frames/ +[9]: /es/service_management/incident_management/datadog_clipboard/ +[10]: /es/dashboards/widgets/split_graph/ \ No newline at end of file diff --git a/content/es/dashboards/widgets/table.md b/content/es/dashboards/widgets/table.md index c74d56994f064..fa72c57821b2b 100644 --- a/content/es/dashboards/widgets/table.md +++ b/content/es/dashboards/widgets/table.md @@ -1,6 +1,8 @@ --- aliases: - /es/graphing/widgets/table/ +description: Visualiza datos tabulares con columnas, filas y funciones de clasificación + para un análisis detallado de métricas y eventos. further_reading: - link: /dashboards/graphing_json/ tag: Documentación @@ -22,7 +24,7 @@ La visualización de tablas muestra columnas de datos agregados agrupados por cl ### Configuración -1. Elige los datos a graficar: +1. Elige los datos para los que crear gráficas: * Métrica: consulta la [Documentación principal de crear gráficas][1] para configurar una consulta a la métrica. * Fuentes de datos no métrica: consulta la [Documentación de búsqueda de log][2] para configurar una consulta de evento. @@ -34,18 +36,19 @@ La visualización de tablas muestra columnas de datos agregados agrupados por cl * Configura si se muestra o no la barra de búsqueda. **Auto** es el valor predeterminado y muestra la barra de búsqueda según el tamaño del widget, esto significa que si tu pantalla se hace demasiado pequeña, prioriza la visualización de los datos en el widget y oculta la barra de búsqueda, pero sigue estando disponible en el modo de pantalla completa. #### Formato de columnas + Personaliza la visualización de los valores de las celdas de cada columna con las Reglas de formato de columna. Crea códigos de color para tus datos para visualizar tendencias y cambios. * Formato de umbral: resalta las celdas con colores cuando se cumplan determinados rangos de valores. * Formato de rango: codifica por colores las celdas con un rango de valores. * Formato de texto: sustituye las celdas por valores de texto de alias para mejorar la legibilidad. +* Información de tendencias: visualiza las consultas de métricas y eventos. -{{< img src="/dashboards/widgets/table/range_conditional_formatting.png" alt="Configuración del widget que muestra las opciones de formato de columna" style="width:90%;" >}} +{{< img src="/dashboards/widgets/table/conditional_formatting_trends.png" alt="Widget de tabla que muestra el formato condicional con indicadores de tendencia" style="width:100%;" >}} #### Enlaces contextuales Los [enlaces contextuales][10] están activados por defecto y pueden activarse o desactivarse. Los enlaces contextuales sirven de puente entre widgets de dashboard con otras páginas de Datadog, o con aplicaciones de terceros. - ## Valores N/A Las columnas del widget de tabla se consultan independientemente unas de otras. Los grupos solapados con nombres coincidentes se unen en tiempo real para formar las filas de la tabla. Como resultado de dicho proceso, puede haber situaciones sin solapamiento total, por lo que se muestran celdas N/A. Para mitigar esto: @@ -60,7 +63,7 @@ La [definición del esquema de widget JSON][9] dedicada al widget de la tabla es {{< dashboards-widgets-api >}} -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/dashboards/widgets/types/_index.md b/content/es/dashboards/widgets/types/_index.md new file mode 100644 index 0000000000000..cfa2a0aa67cdc --- /dev/null +++ b/content/es/dashboards/widgets/types/_index.md @@ -0,0 +1,118 @@ +--- +title: Tipos de widgets +description: Descubre los tipos de widgets de dashboard disponibles en Datadog para visualizar y analizar tus datos, incluidos gráficos, tablas, grupos y widgets de análisis. +further_reading: +- link: /dashboards/widgets/ + tag: Documentación + text: Información general del widget +- link: dashboards/widgets/configuración + tag: Documentación + text: Configuraciones de widgets +--- + +## Gráficos +{{< whatsnext desc="Widgets generales para graficar los datos desde productos de Datadog: ">}} + {{< nextlink href="/dashboards/widgets/bar_chart" + img="/dashboards/widgets/icons/bar-chart_light_large.svg">}}Gráfico de barras{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/change" + img="dashboards/widgets/icons/change_light_large.png">}} Cambio{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/distribution" + img="dashboards/widgets/icons/distribution_light_large.png">}} Distribución{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/geomap" + img="dashboards/widgets/icons/geomap_light_large.png">}} Mapa geográfico{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/heat_map" + img="dashboards/widgets/icons/heatmap_light_large.png">}} Mapa de calor{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/pie_chart" + img="dashboards/widgets/icons/pie_light_large.png">}} Gráfico de tortas{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/query_value" + img="dashboards/widgets/icons/query-value_light_large.png">}} Valor de consulta{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/scatter_plot" + img="dashboards/widgets/icons/scatter-plot_light_large.png">}} Diagrama de dispersión{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/table" + img="dashboards/widgets/icons/table_light_large.png">}} Tabla{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/treemap" + img="dashboards/widgets/icons/treemap_light_large.png">}} Mapa de árbol{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/timeseries" + img="dashboards/widgets/icons/timeseries_light_large.png">}} Serie temporal{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/top_list" + img="dashboards/widgets/icons/top-list_light_large.png">}} Lista de principales{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/wildcard" + img="/dashboards/widgets/icons/wildcard_light_large.svg">}} Comodín{{< /nextlink >}} +{{< /whatsnext >}} + +## Grupos +{{< whatsnext desc="Muestra tus widgets en grupos: ">}} + {{< nextlink href="/dashboards/widgets/group" + img="dashboards/widgets/icons/group_default_light_large.svg">}} Grupo{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/powerpack" + img="dashboards/widgets/icons/group_powerpack_light_large.svg">}} Powerpack{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/split_graph" + img="dashboards/widgets/icons/group-split_light_small.svg">}} Gráfica dividida{{< /nextlink >}} +{{< /whatsnext >}} + +## Product Analytics +{{< whatsnext desc="Visualizar datos de Product Analytics: ">}} + {{< nextlink href="/dashboards/widgets/sankey" + img="dashboards/widgets/icons/sankey_light_large.svg">}} Sankey{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/funnel" + img="dashboards/widgets/icons/funnel_light_large.png">}} Túnel{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/retention" + img="/dashboards/widgets/icons/cohort_light_small.svg">}} Retención{{< /nextlink >}} +{{< /whatsnext >}} + +## Arquitectura +{{< whatsnext desc="Visualizar datos de infraestructura y arquitectura: ">}} + {{< nextlink href="/dashboards/widgets/hostmap" + img="dashboards/widgets/icons/host-map_light_large.png">}} Mapa de host{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/topology_map" + img="dashboards/widgets/icons/service-map_light_large.png">}} Mapa de topología{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/service_summary" + img="dashboards/widgets/icons/service-summary_light_large.png">}} Resumen de servicio{{< /nextlink >}} +{{< /whatsnext >}} + +## Anotaciones y embeds +{{< whatsnext desc="Widgets de decoración para estructurar y anotar visualmente dashboards: ">}} + {{< nextlink href="/dashboards/widgets/free_text" + img="dashboards/widgets/icons/free-text_light_large.png">}} Texto libre{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/iframe" + img="dashboards/widgets/icons/iframe_light_large.png">}} Iframe{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/image" + img="dashboards/widgets/icons/image_light_large.png">}} Imagen{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/note" + img="dashboards/widgets/icons/notes_light_large.png">}} Notas y enlaces{{< /nextlink >}} +{{< /whatsnext >}} + +## Listas y flujos +{{< whatsnext desc="Muestra una lista de eventos y problemas provenientes de diferentes fuentes: ">}} + {{< nextlink href="/dashboards/widgets/list" + img="dashboards/widgets/icons/change_light_large.png">}} Lista{{< /nextlink >}} +{{< /whatsnext >}} + +## Alerta y respuesta +{{< whatsnext desc="Widgets de resumen para mostrar información de monitorización: ">}} + {{< nextlink href="/dashboards/widgets/alert_graph" + img="dashboards/widgets/icons/alert-graph_light_large.png">}} Gráfico de alertas{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/alert_value" + img="dashboards/widgets/icons/alert-value_light_large.png">}}Valor de alerta{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/check_status" + img="dashboards/widgets/icons/check-status_light_large.png">}} Comprobar estado{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/monitor_summary" + img="dashboards/widgets/icons/monitor-summary_light_large.png">}} Resumen de monitor{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/run_workflow" + img="dashboards/widgets/icons/run-workflow_light_small.svg">}} Ejecutar flujo de trabajo{{< /nextlink >}} +{{< /whatsnext >}} + +## Rendimiento y fiabilidad +{{< whatsnext desc="Visualizaciones de fiabilidad del sitio: ">}} + {{< nextlink href="/dashboards/widgets/profiling_flame_graph" + img="dashboards/widgets/icons/profiling_flame_graph.svg">}} Perfilado del gráfico de llamas{{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/slo" + img="dashboards/widgets/icons/slo-summary_light_large.png">}} Resumen de objetivo de nivel de servicio (SLO){{< /nextlink >}} + {{< nextlink href="/dashboards/widgets/slo_list" + img="dashboards/widgets/icons/slo-list_light_large.png">}} Objetivo de nivel de servicio (SLO){{< /nextlink >}} +{{< /whatsnext >}} + + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/data_security/logs.md b/content/es/data_security/logs.md index 401a17fad5e12..0ee2fd50ee83a 100644 --- a/content/es/data_security/logs.md +++ b/content/es/data_security/logs.md @@ -7,11 +7,7 @@ further_reading: text: Revisar las principales categorías de datos enviados a Datadog - link: /data_security/pci_compliance/ tag: Documentación - text: Establecer una organización de Datadog que cumpla el estándar PCI -- link: https://www.datadoghq.com/blog/datadog-pci-compliance-log-management-apm/ - tag: Blog - text: Datadog presenta los servicios de Log Management y APM compatibles con el - PCI + text: Cumplimiento del estándar PCI DSS title: Seguridad de los datos en Log Management --- @@ -19,7 +15,9 @@ title: Seguridad de los datos en Log Management El producto Log Management es compatible con múltiples [entornos y formatos][1], lo que te permite enviar a Datadog casi cualquier dato. En este artículo se describen las principales garantías de seguridad y los controles de filtrado disponibles al enviar logs a Datadog. -**Nota**: Es posible ver logs en varios productos de Datadog. Todos los logs que se ven en la interfaz de usuario de Datadog, incluidos los que se ven en las páginas de trazas de APM, forman parte del producto Log Management. +**Notas**: +- Los logs pueden visualizarse en distintos productos de Datadog. Todos los logs visualizados en la interfaz de usuario de Datadog, incluidos los logs visualizados en las pages (páginas) de traces (trazas) de APM, forman parte del producto de Log Management. +- Las herramientas y políticas de Datadog cumplen PCI v4.0. Para obtener más información, consulta [Cumplimiento de PCI DSS][10]. ## Seguridad de la información @@ -43,31 +41,6 @@ Sensitive Data Scanner también está disponible como [procesador][8] en [Observ {{% hipaa-customers %}} -## Cumplimiento del PCI DSS para Log Management - -{{< site-region region="us" >}} - -
-El cumplimiento del PCI DSS para Log Management sólo está disponible para organizaciones de Datadog en el sitio US1. -
- -Datadog permite a los clientes enviar logs a organizaciones de Datadog que cumplen el PCI DSS, si así lo solicitan. Para configurar una organización de Datadog que cumpla el PCI, sigue estos pasos: - -{{% pci-logs %}} - -Consulta [Cumplimiento del PCI DSS][1] para obtener más información. Para activar el cumplimiento del PCI para APM, consulte [Cumplimientol del PCI DSS para APM][1]. - -[1]: /es/data_security/pci_compliance/ -[2]: /es/data_security/pci_compliance/?tab=apm - -{{< /site-region >}} - -{{< site-region region="us3,us5,eu,gov,ap1,ap2" >}} - -El cumplimiento del PCI DSS para Log Management no está disponible para el sitio {{< region-param key="dd_site_name" >}}. - -{{< /site-region >}} - ## Cifrado de endpoints Todos los endpoints de envío de logs están cifrados. Los siguientes endpoints heredados siguen siendo compatibles: @@ -89,4 +62,5 @@ Todos los endpoints de envío de logs están cifrados. Los siguientes endpoints [6]: https://www.datadoghq.com/legal/hipaa-eligible-services/ [7]: /es/security/sensitive_data_scanner/ [8]: /es/observability_pipelines/processors/sensitive_data_scanner -[9]: /es/observability_pipelines/ \ No newline at end of file +[9]: /es/observability_pipelines/ +[10]: /es/data_security/pci_compliance/ \ No newline at end of file diff --git a/content/es/data_streams/_index.md b/content/es/data_streams/_index.md index 0f33ce9203271..16da55649db10 100644 --- a/content/es/data_streams/_index.md +++ b/content/es/data_streams/_index.md @@ -1,4 +1,6 @@ --- +aliases: +- /es/data_streams/troubleshooting cascade: algolia: rank: 70 @@ -9,9 +11,9 @@ further_reading: - link: /integrations/amazon_sqs/ tag: Documentación text: Integración de Amazon SQS -- link: /tracing/service_catalog/ +- link: /tracing/software_catalog/ tag: Documentación - text: Catálogo de servicios + text: Catálogo de software - link: https://www.datadoghq.com/blog/data-streams-monitoring/ tag: Blog text: Controlar y mejorar el rendimiento de los pipelines de datos de transmisión @@ -23,44 +25,77 @@ further_reading: - link: https://www.datadoghq.com/blog/data-streams-monitoring-sqs/ tag: Blog text: Monitorizar SQS con Data Streams Monitoring +- link: https://www.datadoghq.com/blog/confluent-connector-dsm-autodiscovery/ + tag: Blog + text: Detectar automáticamente conectores de Confluent Cloud y consultar fácilmente + el rendimiento de los monitores en Data Streams Monitoring +- link: https://www.datadoghq.com/blog/data-observability/ + tag: Blog + text: Garantizar la confianza durante todo el ciclo de vida de los datos con Datadog + Data Observability title: Data Streams Monitoring --- -{{% site-region region="gov,ap1" %}} +{{% site-region region="gov" %}}
- Data Streams Monitoring no está disponible para el sitio de {{< region-param key="dd_site_name" >}}. + Data Streams Monitoring no está disponible para el sitio {{< region-param key="dd_site_name" >}}.
{{% /site-region %}} +{{< img src="data_streams/map_view2.png" alt="Página de Data Streams Monitoring en Datadog, que muestra la vista Mapas. Se resalta un servicio llamado 'autenticador'. Visualización de un mapa de topología de flujos de datos de izquierda a derecha, donde el servicio autenticador se muestra en el centro con sus servicios y colas ascendentes y descendentes." style="width:100%;" >}} + Data Streams Monitoring proporciona un método estandarizado para que los equipos comprendan y gestionen los pipelines a escala y así facilita: * Mide el estado de los pipelines con latencias de extremo a extremo para eventos que atraviesan tu sistema. * Localiza los productores, consumidores o colas defectuosos y, a continuación, dirígete a logs o clústeres para solucionar los problemas con mayor rapidez. * Evita los retrasos en cascada equipando a los propietarios de servicio para impedir que la acumulación de eventos desborde los servicios de flujo descendente. -## Ajustes +### Lenguajes y tecnologías compatibles + +Data Streams Monitoring instrumenta los _clientes_ de Kafka (consumidores/productores). Si puedes instrumentar tu infraestructura de clientes, puedes utilizar Data Streams Monitoring. + +| | Java | Python | .NET | Node.js | Go | +| - | ---- | ------ | ---- | ------- | -- | +| Apache Kafka
(autoalojado, Amazon MSK, Confluent Cloud o cualquier otra plataforma de alojamiento) | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | +| Amazon Kinesis | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | +| Amazon SNS | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | +| Amazon SQS | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | +| Azure Service Bus | | | {{< X >}} | | | +| Google Pub/Sub | {{< X >}} | | | {{< X >}} | | +| IBM MQ | | | {{< X >}} | | | +| RabbitMQ | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | -Para empezar, sigue las instrucciones de instalación para configurar servicios con Data Streams Monitoring: +Data Streams Monitoring requiere versiones mínimas del rastreador Datadog. Para obtener más detalles, consulta cada página de configuración. + +#### Compatibilidad con OpenTelemetry +Data Streams Monitoring es compatible con OpenTelemetry. Si has configurado Datadog APM para que funcione con OpenTelemetry, no es necesaria ninguna configuración adicional para utilizar Data Streams Monitoring. Consulta [Compatibilidad de OpenTelemetry][11]. + +## Configuración + +### Por lenguaje {{< partial name="data_streams/setup-languages.html" >}} -
-| Tiempo de ejecución | Tecnologías compatibles | -|---|----| -| Java/Scala | Kafka (autoalojado, Amazon MSK, Confluent Cloud/Plataform), RabbitMQ, HTTP, gRPC, Amazon SQS | -| Python | Kafka (autoalojado, Amazon MSK, Confluent Cloud/Plataform), RabbitMQ, Amazon SQS | -| .NET | Kafka (autoalojado, Amazon MSK, Confluent Cloud/Plataform), RabbitMQ, Amazon SQS | -| Node.js | Kafka (autoalojado, Amazon MSK, Confluent Cloud/Plataform), RabbitMQ, Amazon SQS | -| Go | Todos (con [Instrumentación manual][1]) | +### Por tecnología + +{{< partial name="data_streams/setup-technologies.html" >}} + +
## Explorar Data Streams Monitoring +### Visualizar la arquitectura de tus pipelines de transmisión de datos + +{{< img src="data_streams/topology_map.png" alt="Visualización de un mapa de topología de DSM. " style="width:100%;" >}} + +Data Streams Monitoring proporciona un [mapa de topología[10] predefinido para que puedas visualizar el flujo de datos a través de tus pipelines e identificar los servicios productores/consumidores, las dependencias de las colas, la propiedad del servicio y las métricas de salud claves. + ### Medir el estado de los pipelines de extremo a extremo con las nuevas métricas -Una vez configurado Data Streams Monitoring, puedes medir el tiempo que suelen tardar los eventos en recorrer el trayecto entre dos puntos cualesquiera de tu sistema asíncrono: +Con Data Streams Monitoring, puedes medir el tiempo que suelen tardar los eventos en recorrer el trayecto entre dos puntos cualesquiera de tu sistema asíncrono: -| Nombre de la métrica | Etiquetas notables | Descripción | +| Nombre de la métrica | Etiquetas (tags) notables | Descripción | |---|---|-----| | data_streams.latency | `start`, `end`, `env` | Latencia de extremo a extremo de un trayecto desde un origen especificado hasta un servicio de destino. | | data_streams.kafka.lag_seconds | `consumer_group`, `partition`, `topic`, `env` | Retraso en segundos entre el productor y el consumidor. Requiere Java Agent v1.9.0 o posterior. | @@ -73,7 +108,7 @@ También puedes representar gráficamente y visualizar estas métricas en cualqu ### Monitorizar la latencia de extremo a extremo de cualquier ruta -Según cómo los eventos atraviesen tu sistema, diferentes rutas pueden conducir a un aumento de la latencia. Con la [pestaña **Measure** (Medir)][7], puedes seleccionar un servicio de inicio y un servicio final para obtener información sobre la latencia de extremo a extremo para identificar cuellos de botella y optimizar el rendimiento. Crea fácilmente un monitor para esa ruta o expórtalo a un dashboard. +Según cómo los eventos atraviesen tu sistema, diferentes rutas pueden conducir a un aumento de la latencia. Con la [pestaña **Medida**][7], puedes seleccionar un servicio de inicio y un servicio final para obtener información sobre la latencia de extremo a extremo para identificar cuellos de botella y optimizar el rendimiento. Crea fácilmente un monitor para esa ruta o expórtalo a un dashboard. También puedes hacer clic en un servicio para abrir un panel lateral detallado y ver la pestaña **Pathways** (Rutas) para conocer la latencia entre el servicio y servicios de flujo ascendente. @@ -81,30 +116,39 @@ También puedes hacer clic en un servicio para abrir un panel lateral detallado Las ralentizaciones causadas por un retraso elevado de los consumidores o por mensajes obsoletos pueden provocar fallos en cascada y aumentar la caída del sistema. Gracias a las alertas predefinidas, puedes determinar con precisión dónde se producen los cuellos de botella en tus pipelines y responder a ellos de inmediato. Para complementar métricas, Datadog proporciona integraciones adicionales para tecnologías de colas de mensajes como [Kafka][4] y [SQS][5]. -A través de monitores recomendados predefinidos de Data Streams Monitoring, puedes configurar monitores en métricas como el retraso del consumidor, el rendimiento y la latencia en un solo clic. +A través de las plantillas de monitor predefinidas de Data Stream Monitoring puedes configurar monitores de métricas como el retraso del consumidor, el rendimiento y la latencia en un solo clic. -{{< img src="data_streams/add_monitors_and_synthetic_tests.png" alt="Monitores recomendados de Datadog Data Streams Monitoring" style="width:100%;" caption="Click 'Add Monitors and Synthetic Tests' to view Recommended Monitors" >}} +{{< img src="data_streams/add_monitors_and_synthetic_tests.png" alt="Plantillas de monitor de Datadog Data Streams Monitoring" style="width:100%;" caption="Haz clic en 'Add Monitors and Synthetic Tests' (Añadir monitores y tests Synthetic para ver los monitores recomendados" >}} ### Atribuye los mensajes entrantes a cualquier cola, servicio o clúster Un retraso elevado en un servicio consumidor, un mayor uso de recursos en un intermediario de Kafka y un aumento del tamaño de la cola de RabbitMQ o Amazon SQS se explican con frecuencia por cambios en la forma en que los servicios adyacentes están produciendo o consumiendo estas entidades. -Haz clic en la pestaña **Throughput** (Rendimiento) en cualquier servicio o cola en Data Streams Monitoring para detectar rápidamente los cambios en el rendimiento y en qué servicio de flujo ascendente o descendente se originan estos cambios. Una vez configurado el [Catálogo de servicios][2], puedes pasar inmediatamente al canal de Slack del equipo correspondiente o al ingeniero de guardia. +Haz clic en la pestaña **Rendimiento** de cualquier servicio o cola en Data Streams Monitoring para detectar rápidamente cambios en el rendimiento y ver de qué servicio ascendente o descendente proceden los cambios. Una vez configurado el [Catálogo de software][2], puedes cambiar inmediatamente al canal Slack del equipo correspondiente o al ingeniero de turno. Al filtrar a un único clúster de Kafka, RabbitMQ o Amazon SQS, puedes detectar cambios en el tráfico entrante o saliente para todos los temas o colas detectados que se ejecuten en ese clúster: -### Pasa rápidamente para identificar las causas raíz en infraestructura, logs o trazas +### Cambiar rápidamente para identificar las causas raíz en la infraestructura, los logs o las trazas (traces) + +Datadog vincula automáticamente la infraestructura que alimenta tus servicios y los logs relacionados a través del [Etiquetado de servicios unificado][3], para que puedas localizar fácilmente los cuellos de botella. Haz clic en las pestañas **Infra**, **Logs** o **Trazas** para solucionar el problema de por qué ha aumentado la latencia de la ruta o el retraso del consumidor. + +### Monitorizar el rendimiento y el estado del conector +{{< img src="data_streams/connectors_topology.png" alt="A DSM topology (topología) map, showing a connector called 'analytics-sink'. The visualization indicates that the connector has a status of FAILED." style="width:100%;" >}} -Datadog vincula automáticamente la infraestructura que alimenta tus servicios y los logs relacionados a través del [Etiquetado de servicios unificado][3], para que puedas localizar fácilmente los cuellos de botella. Haz clic en las pestañas **Infra**, **Logs** o **Traces** (Trazas) para solucionar el problema de por qué ha aumentado la latencia de la ruta o el retraso del consumidor. +Datadog puede detectar automáticamente tus conectores gestionados de [Confluent Cloud][8] y visualizarlos en el mapa de Data Streams Monitoring topology (topología) . Instala y configura la [integración de Confluent Cloud][9] para recopilar información de tus conectores de Confluent Cloud, incluido el rendimiento, el estado y las dependencias de temas. -## Para leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} [1]: /es/data_streams/go#manual-instrumentation -[2]: /es/tracing/service_catalog/ +[2]: /es/tracing/software_catalog/ [3]: /es/getting_started/tagging/unified_service_tagging [4]: /es/integrations/kafka/ [5]: /es/integrations/amazon_sqs/ [6]: /es/tracing/trace_collection/runtime_config/ -[7]: https://app.datadoghq.com/data-streams/measure \ No newline at end of file +[7]: https://app.datadoghq.com/data-streams/measure +[8]: https://www.confluent.io/confluent-cloud/ +[9]: /es/integrations/confluent_cloud/ +[10]: https://app.datadoghq.com/data-streams/map +[11]: /es/opentelemetry/compatibility \ No newline at end of file diff --git a/content/es/database_monitoring/guide/_index.md b/content/es/database_monitoring/guide/_index.md index 0c2da5af5e6f3..a71b479fda1af 100644 --- a/content/es/database_monitoring/guide/_index.md +++ b/content/es/database_monitoring/guide/_index.md @@ -10,17 +10,18 @@ title: Guías de Database Monitoring --- {{< whatsnext desc="Guías generales:" >}} - {{< nextlink href="database_monitoring/guide/heroku-postgres" >}}Configurar Heroku Postgres para Database Monitoring{{< /nextlink >}} - {{< nextlink href="database_monitoring/guide/tag_database_statements" >}}Etiquetar sentencias de bases de datos{{< /nextlink >}} - {{< nextlink href="database_monitoring/guide/managed_authentication" >}}Conectar con Managed Authentication{{< /nextlink >}} - {{< nextlink href="database_monitoring/guide/aurora_autodiscovery" >}}Configurar Database Monitoring para clústeres de bases de datos Amazon Aurora{{< /nextlink >}} - {{< nextlink href="database_monitoring/guide/rds_autodiscovery" >}}Configurar Database Monitoring para instancias de bases de datos de Amazon RDS{{< /nextlink >}} - {{< nextlink href="database_monitoring/guide/database_identifier" >}}Especificar un identificador de bases de datos{{< /nextlink >}} + {{< nextlink href="database_monitoring/guide/tag_database_statements" >}}Etiquetado de afirmaciones de base de datos{{< /nextlink >}} + {{< nextlink href="database_monitoring/guide/managed_authentication" >}}Conexión con autenticación administrada{{< /nextlink >}} + {{< nextlink href="database_monitoring/guide/aurora_autodiscovery" >}}Configuración de la monitorización de base de datos para clústeres de base de datos de Amazon Aurora{{< /nextlink >}} + {{< nextlink href="database_monitoring/guide/rds_autodiscovery" >}}Configuración de la monitorización de base de datos para instancias de base de datos de Amazon RDS{{< /nextlink >}} + {{< nextlink href="database_monitoring/guide/database_identifier" >}}Especificación de un identificador de base de datos{{< /nextlink >}} {{< /whatsnext >}} {{< whatsnext desc="Guías de SQL Server:" >}} - {{< nextlink href="database_monitoring/guide/sql_alwayson" >}}Exploración de los grupos de disponibilidad AlwaysOn de SQL Server{{< /nextlink >}} - {{< nextlink href="database_monitoring/guide/sql_deadlock" >}}Configuración de Deadlock Monitoring en SQL Server{{< /nextlink >}} + {{< nextlink href="database_monitoring/guide/sql_alwayson" >}}Exploración de grupos de disponibilidad AlwaysOn de SQL Server{{< /nextlink >}} + {{< nextlink href="database_monitoring/guide/sql_deadlock" >}}Configuración de la monitorización de Deadlock en SQL Server{{< /nextlink >}} + {{< nextlink href="database_monitoring/guide/sql_extended_events" >}}Configuración de la finalización de consultas y la recopilación de errores de consulta en SQL Server{{< /nextlink >}} + {{< nextlink href="database_monitoring/guide/parameterized_queries" >}}Captura de los valores de parámetros de consultas SQL con Database Monitoring{{< /nextlink >}} {{< /whatsnext >}} {{< whatsnext desc="Guías de PostgreSQL:" >}} diff --git a/content/es/database_monitoring/setup_mysql/rds.md b/content/es/database_monitoring/setup_mysql/rds.md index bbfb87cc08242..e6af78c424d20 100644 --- a/content/es/database_monitoring/setup_mysql/rds.md +++ b/content/es/database_monitoring/setup_mysql/rds.md @@ -14,7 +14,7 @@ title: Configuración de la monitorización de bases de datos para MySQL gestion La monitorización de bases de datos proporciona una amplia visibilidad de tus bases de datos MySQL mediante la exposición de métricas de consultas, ejemplos de consultas, planes de explicación, datos de conexión, métricas de sistemas y telemetría para el motor de almacenamiento InnoDB. -El Agent recopila telemetría directamente de la base de datos iniciando sesión como usuario de sólo lectura. Realiza la siguiente configuración para habilitar la monitorización de bases de datos con tu base de datos MySQL: +El Agent recopila telemetría directamente de la base de datos iniciando sesión como usuario de solo lectura. Realiza la siguiente configuración para habilitar la monitorización de bases de datos con tu base de datos MySQL: 1. [Configura la integración AWS](#configure-the-aws-integration). 1. [Configura parámetros de bases de datos](#configure-mysql-settings). @@ -77,9 +77,9 @@ Configura lo siguiente en el [grupo de parámetros de base de datos][3] y luego ## Conceder acceso al Agent -El Datadog Agent requiere acceso de sólo lectura a la base de datos para poder recopilar estadísticas y realizar consultas. +El Datadog Agent requiere acceso de solo lectura a la base de datos para poder recopilar estadísticas y realizar consultas. -Las siguientes instrucciones conceden permiso al Agent para iniciar sesión desde cualquier host que utilice `datadog@'%'`. Puedes restringir al usuario `datadog` para que sólo pueda iniciar sesión desde el host local utilizando `datadog@'localhost'`. Para obtener más información, consulta la [documentación de MySQL][4]. +Las siguientes instrucciones conceden permiso al Agent para iniciar sesión desde cualquier host que utilice `datadog@'%'`. Puedes restringir al usuario `datadog` para que solo pueda iniciar sesión desde el host local utilizando `datadog@'localhost'`. Para obtener más información, consulta la [documentación de MySQL][4]. {{< tabs >}} {{% tab "MySQL ≥ 5.7" %}} @@ -175,7 +175,7 @@ GRANT EXECUTE ON PROCEDURE datadog.enable_events_statements_consumers TO datadog ## Instala y configura el Agent -Para monitorizar hosts de RDS, instala el Datadog Agent en tu infraestructura y configúralo para conectarse a cada endpoint de instancia de forma remota. El Agent no necesita ejecutarse en la base de datos, sólo necesita conectarse a ella. Para conocer otros métodos de instalación del Agent no mencionados aquí, consulta las [instrucciones de instalación del Agent][5]. +Para monitorizar hosts de RDS, instala el Datadog Agent en tu infraestructura y configúralo para conectarse a cada endpoint de instancia de forma remota. El Agent no necesita ejecutarse en la base de datos, solo necesita conectarse a ella. Para conocer otros métodos de instalación del Agent no mencionados aquí, consulta las [instrucciones de instalación del Agent][5]. {{< tabs >}} {{% tab "Host" %}} @@ -192,13 +192,14 @@ init_config: instances: - dbm: true host: '' - port: 3306 + port: username: datadog password: 'ENC[datadog_user_database_password]' # from the CREATE USER step earlier, stored as a secret # After adding your project and instance, configure the Datadog AWS integration to pull additional cloud data such as CPU and Memory. aws: instance_endpoint: '' + region: ``` [Reinicia el Agent][3] para empezar a enviar métricas de MySQL a Datadog. @@ -220,7 +221,7 @@ Ponte en marcha rápidamente con el siguiente comando para ejecutar el Agent des ```bash export DD_API_KEY=xxxxxxxxxxxxxxxxxxxxxxxxxxxxxx -export DD_AGENT_VERSION=7.36.1 +export DD_AGENT_VERSION= docker run -e "DD_API_KEY=${DD_API_KEY}" \ -v /var/run/docker.sock:/var/run/docker.sock:ro \ @@ -229,9 +230,13 @@ docker run -e "DD_API_KEY=${DD_API_KEY}" \ -l com.datadoghq.ad.instances='[{ "dbm": true, "host": "", - "port": 3306, + "port": , "username": "datadog", - "password": "" + "password": "", + "aws": { + "instance_endpoint": "", + "region": "" + } }]' \ gcr.io/datadoghq/agent:${DD_AGENT_VERSION} ``` @@ -241,11 +246,11 @@ docker run -e "DD_API_KEY=${DD_API_KEY}" \ Las etiquetas también pueden especificarse en un `Dockerfile`, por lo que puedes crear y desplegar un Agent personalizado sin cambiar la configuración de tu infraestructura: ```Dockerfile -FROM gcr.io/datadoghq/agent:7.36.1 +FROM gcr.io/datadoghq/agent: LABEL "com.datadoghq.ad.check_names"='["mysql"]' LABEL "com.datadoghq.ad.init_configs"='[{}]' -LABEL "com.datadoghq.ad.instances"='[{"dbm": true, "host": "", "port": 3306,"username": "datadog","password": "ENC[datadog_user_database_password]"}]' +LABEL "com.datadoghq.ad.instances"='[{"dbm": true, "host": "", "port": ,"username": "datadog","password": "ENC[datadog_user_database_password]", "aws": {"instance_endpoint": "", "region": ""}}]' ``` [1]: /es/agent/docker/integrations/?tab=docker @@ -256,11 +261,62 @@ Si tienes un clúster Kubernetes, utiliza el [Datadog Cluster Agent][1] para la Sigue las instrucciones para [habilitar checks de clúster][2], si no están habilitados en tu clúster Kubernetes. Puedes declarar la configuración de MySQL mediante archivos estáticos integrados en el contenedor del Cluster Agent o utilizando anotaciones de servicios: -### Helm +### Operator + +Utilizando como referencia las [Instrucciones para operadores en Kubernetes e integraciones][3], sigue los pasos que se indican a continuación para configurar la integración de MySQL: + +1. Cree o actualice el archivo `datadog-agent.yaml` con la siguiente configuración: + + ```yaml + apiVersion: datadoghq.com/v2alpha1 + kind: DatadogAgent + metadata: + name: datadog + spec: + global: + clusterName: + site: + credentials: + apiSecret: + secretName: datadog-agent-secret + keyName: api-key + + features: + clusterChecks: + enabled: true + + override: + nodeAgent: + image: + name: agent + tag: + + clusterAgent: + extraConfd: + configDataMap: + mysql.yaml: |- + cluster_check: true + init_config: + instances: + - host: + port: + username: datadog + password: 'ENC[datadog_user_database_password]' + dbm: true + aws: + instance_endpoint: + region: + ``` + +2. Aplica los cambios al Datadog Operator utilizando el siguiente comando: + + ```shell + kubectl apply -f datadog-agent.yaml + ``` -Realiza los siguientes pasos para instalar el [Datadog Cluster Agent][1] en tu clúster Kubernetes. Sustituye los valores para que coincidan con tu cuenta y tu entorno. +### Helm -1. Sigue las [instrucciones de instalación del Datadog Agent][3] para Helm. +1. Complete las [instrucciones de instalación del Datadog Agent][4] para Helm. 2. Actualiza tu archivo de configuración YAML (`datadog-values.yaml` en las instrucciones de instalación del Cluster Agent) para incluir lo siguiente: ```yaml clusterAgent: @@ -270,16 +326,20 @@ Realiza los siguientes pasos para instalar el [Datadog Cluster Agent][1] en tu c init_config: instances: - dbm: true - host: - port: 3306 + host: + port: username: datadog password: 'ENC[datadog_user_database_password]' + aws: + instance_endpoint: + region: clusterChecksRunner: enabled: true ``` 3. Despliega el Agent con el archivo de configuración anterior desde la línea de comandos: + ```shell helm install datadog-agent -f datadog-values.yaml datadog/datadog ``` @@ -288,10 +348,6 @@ Realiza los siguientes pasos para instalar el [Datadog Cluster Agent][1] en tu c For Windows, append --set targetSystem=windows to the helm install command.
-[1]: https://app.datadoghq.com/organization-settings/api-keys -[2]: /es/getting_started/site -[3]: /es/containers/kubernetes/installation/?tab=helm#installation - ### Configuración con archivos integrados Para configurar un check de clúster con un archivo de configuración integrado, integra el archivo de configuración del contenedor del Cluster Agent en la ruta `/conf.d/mysql.yaml`: @@ -302,14 +358,17 @@ init_config: instances: - dbm: true host: '' - port: 3306 + port: username: datadog password: 'ENC[datadog_user_database_password]' + aws: + instance_endpoint: + region: ``` ### Configuración con anotaciones de servicios de Kubernetes -En lugar de montar un archivo, puedes declarar la configuración de la instancia como servicio Kubernetes. Para configurar este check en un Agent que se ejecuta en Kubernetes, crea un servicio en el mismo espacio de nombres que el Datadog Cluster Agent: +En lugar de montar un archivo, puedes declarar la configuración de la instancia como un servicio de Kubernetes. Para configurar este check para un Agent que se ejecuta en Kubernetes, crea un servicio utilizando la siguiente sintaxis: ```yaml @@ -328,24 +387,34 @@ metadata: { "dbm": true, "host": "", - "port": 3306, + "port": , "username": "datadog", - "password": "ENC[datadog_user_database_password]" + "password": "ENC[datadog_user_database_password]", + "aws": { + "instance_endpoint": "", + "region": "" + } } ] spec: ports: - - port: 3306 + - port: protocol: TCP - targetPort: 3306 + targetPort: name: mysql ``` El Cluster Agent registra automáticamente esta configuración y comienza a ejecutar el check de SQL Server. -[1]: /es/agent/cluster_agent -[2]: /es/agent/cluster_agent/clusterchecks/ -[3]: https://helm.sh +Para evitar exponer la contraseña del usuario de `datadog` en texto plano, utilice el [paquete de gestión de secretos][6] de Agent y declare la contraseña utilizando la sintaxis de `ENC[]`. + +[1]: /es/containers/cluster_agent/setup/ +[2]: /es/containers/cluster_agent/clusterchecks/ +[3]: /es/containers/kubernetes/integrations/?tab=datadogoperator +[4]: /es/containers/kubernetes/integrations/?tab=helm +[5]: /es/containers/kubernetes/integrations/?tab=annotations#configuration +[6]: /es/agent/configuration/secrets-management + {{% /tab %}} {{< /tabs >}} diff --git a/content/es/database_monitoring/setup_mysql/selfhosted.md b/content/es/database_monitoring/setup_mysql/selfhosted.md index a8a5e4dd523dd..b44305dea9615 100644 --- a/content/es/database_monitoring/setup_mysql/selfhosted.md +++ b/content/es/database_monitoring/setup_mysql/selfhosted.md @@ -109,7 +109,6 @@ Crea el siguiente esquema: ```sql CREATE SCHEMA IF NOT EXISTS datadog; GRANT EXECUTE ON datadog.* to datadog@'%'; -GRANT CREATE TEMPORARY TABLES ON datadog.* TO datadog@'%'; ``` Crea el procedimiento `explain_statement` para que el Agent pueda recopilar los planes de explicación: @@ -143,6 +142,15 @@ DELIMITER ; GRANT EXECUTE ON PROCEDURE .explain_statement TO datadog@'%'; ``` +Para recopilar métricas de índice, concede al usuario `datadog` un privilegio adicional: + +```sql +GRANT SELECT ON mysql.innodb_index_stats TO datadog@'%'; +``` + +A partir del Agent v7.65, el Datadog Agent puede recopilar información de esquemas de bases de datos MySQL. Para obtener más información sobre cómo conceder al Agent permisos para esta recopilación, consulta la sección [Recopilación de esquemas][14] a continuación. + + ### Consumidores de configuración en tiempo de ejecución Datadog recomienda crear el siguiente procedimiento para que el Agent pueda habilitar los consumidores de `performance_schema.events_*` en tiempo de ejecución. @@ -165,7 +173,7 @@ GRANT EXECUTE ON PROCEDURE datadog.enable_events_statements_consumers TO datadog Al instalar el Datadog Agent también se instala el check de MySQL, necesario para Database Monitoring en MySQL. Si aún no has instalado el Agent para el host de tu base de datos de MySQL, consulta las [Instrucciones de instalación del Agent][6]. -A fin de configurar este check para un Agent que se ejecuta en un host: +Para configurar este check para un Agent que se ejecuta en un host: Edita el archivo `mysql.d/conf.yaml`, en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][7] para empezar a recopilar [métricas](#metric-collection) y [logs](#log-collection-optional) de MySQL. Consulta el [archivo mysql.d/conf.yaml de ejemplo][8] para conocer todas las opciones de configuración disponibles, incluidas las de métricas personalizadas. @@ -181,7 +189,7 @@ instances: host: 127.0.0.1 port: 3306 username: datadog - password: 'ENC[datadog_user_database_password]' # del paso CREAR USUARIO anterior + password: 'ENC[datadog_user_database_password]' # from the CREATE USER step earlier ``` Ten en cuenta que el usuario `datadog` debe establecerse en la configuración de la integración de MySQL como `host: 127.0.0.1` en lugar de `localhost`. Como alternativa, también puedes utilizar `sock`. @@ -224,7 +232,7 @@ Además de la telemetría recopilada de la base de datos por el Agent, también } ``` -2. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Habilítala en tu archivo `datadog.yaml`: +2. La recopilación de logs está deshabilitada por defecto en el Datadog Agent; habilítala en tu archivo `datadog.yaml`: ```yaml logs_enabled: true @@ -275,7 +283,7 @@ Además de la telemetría recopilada de la base de datos por el Agent, también 4. [Reinicia el Agent][9]. -## Validar +## Validación [Ejecuta el subcomando de estado del Agent][10] y busca `mysql` en la sección Checks. Si no, consulta la página [Bases de datos][11] para empezar. @@ -302,4 +310,5 @@ Si has instalado y configurado las integraciones y el Agent como se describe, pe [10]: /es/agent/configuration/agent-commands/#agent-status-and-information [11]: https://app.datadoghq.com/databases [12]: /es/database_monitoring/troubleshooting/?tab=mysql -[13]: /es/database_monitoring/setup_mysql/troubleshooting/#mariadb-known-limitations \ No newline at end of file +[13]: /es/database_monitoring/setup_mysql/troubleshooting/#mariadb-known-limitations +[14]: /es/database_monitoring/setup_mysql/selfhosted?tab=mysql57#collecting-schemas \ No newline at end of file diff --git a/content/es/database_monitoring/setup_postgres/gcsql.md b/content/es/database_monitoring/setup_postgres/gcsql.md index 8a619dfecec11..57830e46495cf 100644 --- a/content/es/database_monitoring/setup_postgres/gcsql.md +++ b/content/es/database_monitoring/setup_postgres/gcsql.md @@ -20,8 +20,8 @@ El Agent recopila telemetría directamente de la base de datos iniciando sesión ## Antes de empezar -Versiones de PostgreSQL compatibles -: 10, 11, 12, 13, 14, 15 +Versiones PostgreSQL compatibles +: 10, 11, 12, 13, 14, 15, 16, 17 Versiones del Agent compatibles : v7.36.1 o posterior @@ -332,7 +332,7 @@ instances: ### Configuración con anotaciones de servicios de Kubernetes -En lugar de montar un archivo, puedes declarar la configuración de instancia como un servicio de Kubernetes. Para configurar este check para un Agent que se ejecuta en Kubernetes, crea un servicio en el mismo espacio de nombres que el Datadog Cluster Agent : +En lugar de montar un archivo, puedes declarar la configuración de la instancia como servicio Kubernetes. Para configurar este check para un Agent que se ejecuta en Kubernetes, crea un servicio con la siguiente sintaxis: #### Anotaciones de Autodiscovery v2 @@ -345,22 +345,24 @@ metadata: tags.datadoghq.com/env: '' tags.datadoghq.com/service: '' annotations: - ad.datadoghq.com/service.check_names: '["postgres"]' - ad.datadoghq.com/service.init_configs: '[{}]' - ad.datadoghq.com/service.instances: | - [ - { - "dbm": true, - "host": "", - "port": 5432, - "username": "datadog", - "password": "ENC[datadog_user_database_password]", - "gcp": { - "project_id": "", - "instance_id": "" - } + ad.datadoghq.com/postgres.checks: | + { + "postgres": { + "instances": [ + { + "dbm": true, + "host": "", + "port": 5432, + "username": "datadog", + "password": "ENC[datadog_user_database_password]", + "gcp": { + "project_id": "", + "instance_id": "" + } + } + ] } - ] + } spec: ports: - port: 5432 diff --git a/content/es/database_monitoring/setup_postgres/selfhosted.md b/content/es/database_monitoring/setup_postgres/selfhosted.md index c9679baaf0061..1f33f5ac8d643 100644 --- a/content/es/database_monitoring/setup_postgres/selfhosted.md +++ b/content/es/database_monitoring/setup_postgres/selfhosted.md @@ -17,8 +17,8 @@ El Agent recopila telemetría directamente de la base de datos iniciando sesión ## Antes de empezar -Versiones de PostgreSQL compatibles -: 9.6, 10, 11, 12, 13, 14, 15, 16 +Versiones PostgreSQL soportadas +: 9.6, 10, 11, 12, 13, 14, 15, 16, 17 Requisitos previos : Los módulos de Postgres adicionales proporcionados deben estar instalados. En la mayoría de las instalaciones, esto se incluye por defecto, pero las instalaciones menos convencionales pueden requerir una instalación adicional de tu versión del [paquete `postgresql-contrib`][1]. @@ -207,318 +207,38 @@ Cuando se te pida una contraseña, utiliza la que introdujiste al crear el usuar ## Instalación del Agent -Al instalar el Datadog Agent también se instala el check de Postgres, necesario para Database Monitoring en Postgres. +Al instalar el Datadog Agent también se instala el check Postgres, necesario para Database Monitoring en Postgres. +Si aún no has instalado el Agent, consulta las [instrucciones de instalación del Agent][8], y luego regresa aquí para continuar con las instrucciones de tu método de instalación. -1. Si aún no has instalado el Agent, consulta las [instrucciones de instalación del Agent][8] y luego regresa aquí para configurar el check de Postgres. - -2. Sigue las siguientes instrucciones, dependiendo de cómo hayas instalado el Agent. - - -{{< tabs >}} - -{{% tab "Host" %}} - -Después de instalar el Agent host, edita el archivo `conf.d/postgres.d/conf.yaml` del Agent para indicar la instancia de Postgres que quieres monitorizar. Para ver una lista completa de las opciones de configuración, consulta el [ejemplo postgres.d/conf.yaml][1]. - - ```yaml - init_config: - instances: - - dbm: true - host: localhost - port: 5432 - username: datadog - password: 'ENC[datadog_user_database_password]' - - ## Required for Postgres 9.6: Uncomment these lines to use the functions created in the setup - # pg_stat_statements_view: datadog.pg_stat_statements() - # pg_stat_activity_view: datadog.pg_stat_activity() - - ## Optional: Connect to a different database if needed for `custom_queries` - # dbname: '' - - ``` - -**Nota**: Si su contraseña incluye caracteres especiales, enciérrala entre comillas simples. - -[Reinicia el Agent][2] para aplicar los cambios. - -[1]: https://github.com/DataDog/integrations-core/blob/master/postgres/datadog_checks/postgres/data/conf.yaml.example -[2]: /es/agent/configuration/agent-commands/#restart-the-agent - -{{% /tab %}} - -{{% tab "Docker" %}} - -Para configurar una integración para un Agent que se ejecuta en un contenedor Docker, hay algunos métodos disponibles que se cubren en detalle en la [documentación de configuración de Docker][1]. - -Los siguientes ejemplos muestran cómo utilizar [etiquetas (labels) de Docker][2] y [plantillas de Autodiscovery][3] para configurar la integración Postgres. - -**Nota**: El Agent debe tener acceso de lectura al socket Docker para que funcione el Autodiscovery basado en etiquetas. - -### Línea de comandos - -Ejecuta el siguiente comando desde tu [línea de comandos][4] para iniciar el Agent. Sustituye los valores de los marcadores de posición por los de tu cuenta y entorno. - -```bash -export DD_API_KEY=xxxxxxxxxxxxxxxxxxxxxxxxxxxxxx -export DD_AGENT_VERSION= - -docker run -e "DD_API_KEY=${DD_API_KEY}" \ - -v /var/run/docker.sock:/var/run/docker.sock:ro \ - -l com.datadoghq.ad.checks='{"postgres": { - "init_config": {}, - "instances": [{ - "dbm": true, - "host": "", - "port": 5432, - "username": "datadog", - "password": "ENC[datadog_user_database_password]" - }] - }}' \ - gcr.io/datadoghq/agent:${DD_AGENT_VERSION} -``` - -**Nota**: Para Postgres v9.6, añade las siguientes líneas a la configuración de la instancia: - -```json -"pg_stat_statements_view": "datadog.pg_stat_statements()", -"pg_stat_activity_view": "datadog.pg_stat_activity()", -``` - -### Archivo Docker - -También puedes especificar etiquetas en `Dockerfile`, lo que te permite crear y desplegar un Agent personalizado sin modificar la configuración de tu infraestructura: - -```Dockerfile -FROM gcr.io/datadoghq/agent: - -LABEL "com.datadoghq.ad.checks"='{"postgres": {"init_config": {}, "instances": [{"dbm": true, "host": "", "port": 5432, "username": "datadog", "password": "ENC[datadog_user_database_password]"}]}}' -``` - -**Nota**: Para Postgres v9.6, añade las siguientes líneas a la configuración de la instancia donde se especifican el host y el puerto: - -```json -"pg_stat_statements_view": "datadog.pg_stat_statements()", "pg_stat_activity_view": "datadog.pg_stat_activity()", -``` - -Para evitar exponer la contraseña del usuario `datadog` en texto plano, utiliza el [paquete de gestión de secretos][5] del Agent y declara la contraseña utilizando la sintaxis `ENC[]`. Alternativamente, consulta la [documentación de variables de plantilla de Autodiscovery][6] para proporcionar la contraseña como una variable de entorno. - -[1]: /es/containers/docker/integrations/?tab=labels#configuration -[2]: https://docs.docker.com/engine/manage-resources/labels/ -[3]: /es/getting_started/containers/autodiscovery/ -[4]: /es/containers/docker/integrations/?tab=labels#using-docker-run-nerdctl-run-or-podman-run -[5]: /es/agent/configuration/secrets-management -[6]: /es/agent/faq/template_variables/ - -{{% /tab %}} - -{{% tab "Kubernetes" %}} - -Si estás ejecutando el clúster de Kubernetes, utiliza el [Datadog Cluster Agent][1] para activar Database Monitoring. - -**Nota**: Asegúrate de que los [checks de clúster][2] estén activados para tu Datadog Cluster Agent antes de continuar. - -A continuación encontrarás instrucciones paso a paso para configurar la integración Postgres utilizando diferentes métodos de despliegue del Datadog Cluster Agent. - -### Operator - -Utilizando como referencia las [Instrucciones del Operator en Kubernetes e integraciones][3], sigue los pasos que se indican a continuación para configurar la integración Postgres: - -1. Crea o actualiza el archivo `datadog-agent.yaml` con la siguiente configuración: - - ```yaml - apiVersion: datadoghq.com/v2alpha1 - kind: DatadogAgent - metadata: - name: datadog - spec: - global: - clusterName: - site: - credentials: - apiSecret: - secretName: datadog-agent-secret - keyName: api-key - - features: - clusterChecks: - enabled: true - - override: - nodeAgent: - image: - name: agent - tag: 7.63.3 - - clusterAgent: - extraConfd: - configDataMap: - postgres.yaml: |- - cluster_check: true - init_config: - instances: - - host: - port: 5432 - username: datadog - password: 'ENC[datadog_user_database_password]' - dbm: true - ``` - - **Nota**: Para Postgres v9.6, añade las siguientes líneas a la configuración de la instancia donde se especifican el host y el puerto: - - ```yaml - pg_stat_statements_view: datadog.pg_stat_statements() - pg_stat_activity_view: datadog.pg_stat_activity() - ``` - -2. Aplica los cambios al Datadog Operator utilizando el siguiente comando: - - ```shell - kubectl apply -f datadog-agent.yaml - ``` - -### Helm - -Utilizando como referencia las [instrucciones de Helm en Kubernetes e integraciones][4], sigue los pasos que se indican a continuación para configurar la integración Postgres: - -1. Actualiza tu archivo `datadog-values.yaml` (utilizado en las instrucciones de instalación del Cluster Agent) con la siguiente configuración: - - ```yaml - datadog: - clusterChecks: - enabled: true - - clusterChecksRunner: - enabled: true - - clusterAgent: - enabled: true - confd: - postgres.yaml: |- - cluster_check: true - init_config: - instances: - - dbm: true - host: - port: 5432 - username: datadog - password: 'ENC[datadog_user_database_password]' - - ``` - - **Nota**: Para Postgres v9.6, añade las siguientes líneas a la configuración de la instancia donde se especifican el host y el puerto: - - ```yaml - pg_stat_statements_view: datadog.pg_stat_statements() - pg_stat_activity_view: datadog.pg_stat_activity() - ``` - -2. Despliega el Agent con el archivo de configuración anterior utilizando el siguiente comando: - - ```shell - helm install datadog-agent -f datadog-values.yaml datadog/datadog - ``` - -
-For Windows, append --set targetSystem=windows to the helm install command. -
- -### Configuración con archivos integrados - -Para configurar un check de clúster con un archivo de configuración montado, monta el archivo de configuración en el contenedor del Cluster Agent en la ruta: `/conf.d/postgres.yaml`: +Edita el archivo `conf.d/postgres.d/conf.yaml` del Agent para apuntar a la instancia Postgres que quieres monitorizar. Para ver una lista completa de las opciones de configuración, consulta el [ejemplo postgres.d/conf.yaml][9]. ```yaml -cluster_check: true # Make sure to include this flag init_config: instances: - - dbm: true - host: '' - port: 5432 - username: datadog - password: 'ENC[datadog_user_database_password]' - - ## Required: For Postgres 9.6, uncomment these lines to use the functions created in the setup - # pg_stat_statements_view: datadog.pg_stat_statements() - # pg_stat_activity_view: datadog.pg_stat_activity() -``` - -### Configuración con anotaciones de servicios de Kubernetes - -En lugar de montar un archivo, puedes declarar la configuración de la instancia como un servicio de Kubernetes. Para configurar este check para un Agent que se ejecuta en Kubernetes, crea un servicio en el mismo espacio de nombres que el Datadog Cluster Agent: - -#### Anotaciones de Autodiscovery v2 - -```yaml -apiVersion: v1 -kind: Service -metadata: - name: postgres - labels: - tags.datadoghq.com/env: '' - tags.datadoghq.com/service: '' - annotations: - ad.datadoghq.com/.checks: | - { - "postgres": { - "init_config": , - "instances": [ - { - "dbm": true, - "host": "", - "port": 5432, - "username": "datadog", - "password": "ENC[datadog_user_database_password]" - } - ] - } - } -spec: - ports: - - port: 5432 - protocol: TCP - targetPort: 5432 - name: postgres -``` - -Para obtener más información, consulta [Anotaciones de Autodiscovery][5]. - -Si utilizas Postgres v9.6, añade lo siguiente a la configuración de la instancia: - -```json -"pg_stat_statements_view": "datadog.pg_stat_statements()", -"pg_stat_activity_view": "datadog.pg_stat_activity()" + - dbm: true + host: localhost + port: 5432 + username: datadog + password: 'ENC[datadog_user_database_password]' + + ## Optional: Connect to a different database if needed for `custom_queries` + # dbname: '' ``` -El Cluster Agent registra automáticamente esta configuración y comienza a ejecutar el check de Postgres. - -Para evitar exponer la contraseña del usuario `datadog` en texto simple, utiliza el [paquete de gestión de secretos][6] del Agent y declara la contraseña utilizando la sintaxis `ENC[]`. - -[1]: /es/containers/cluster_agent/setup/ -[2]: /es/containers/cluster_agent/clusterchecks/ -[3]: /es/containers/kubernetes/integrations/?tab=datadogoperator -[4]: /es/containers/kubernetes/integrations/?tab=helm -[5]: /es/containers/kubernetes/integrations/?tab=annotations#configuration -[6]: /es/agent/configuration/secrets-management - +**Nota**: Si su contraseña incluye caracteres especiales, enciérrala entre comillas simples. -{{% /tab %}} - -{{< /tabs >}} +[Reinicia el Agent][16] para aplicar los cambios. ### Recopilación de logs (opcional) La generación de logs por defecto de PostgreSQL es en `stderr`. Estos logs no incluyen información detallada. Se recomienda hacerlo en un archivo con detalles adicionales especificados en el prefijo de la línea de logs. Para obtener más detalles, consulta la [documentación][11] de PostgreSQL sobre este tema. -1. La generación de logs se configura en el archivo `/etc/postgresql//main/postgresql.conf`. Para obtener resultados regulares en logs, incluidos los resultados de sentencias, descomenta los siguientes parámetros en la sección de logs: +1. La generación de logs está configurada en el archivo `/etc/postgresql//main/postgresql.conf`. Para obtener resultados regulares de logs, incluidos los resultados de sentencias, configura los siguientes parámetros en la sección de logs: ```conf logging_collector = on - log_directory = 'pg_log' # directory where log files are written, - # can be absolute or relative to PGDATA - log_filename = 'pg.log' # log file name, can include pattern - log_statement = 'all' # log all queries - #log_duration = on - log_line_prefix= '%m [%p] %d %a %u %h %c ' + log_line_prefix = '%m [%p] %d %a %u %h %c ' # this pattern is required to correlate metrics in the Datadog product log_file_mode = 0644 + ## For Windows #log_destination = 'eventlog' ``` @@ -533,7 +253,7 @@ La generación de logs por defecto de PostgreSQL es en `stderr`. Estos logs no i #log_statement = 'all' #log_duration = on ``` -3. La recopilación de logs está deshabilitada por defecto en el Datadog Agent; habilítala en tu archivo `datadog.yaml`: +3. La recopilación de logs está desactivada por omisión en el Datadog Agent, actívala en tu archivo `datadog.yaml`: ```yaml logs_enabled: true ``` @@ -560,7 +280,7 @@ La generación de logs por defecto de PostgreSQL es en `stderr`. Estos logs no i ## Configuraciones del Agent de ejemplo {{% dbm-postgres-agent-config-examples %}} -## Solucionar problemas +## Resolución de problemas Si has instalado y configurado las integraciones y el Agent como se describe, pero no funcionan como se esperaba, consulta [Solucionar problemas][15]. @@ -568,9 +288,7 @@ Si has instalado y configurado las integraciones y el Agent como se describe, pe {{< partial name="whats-next/whats-next.html" >}} - -[1]: https://www.postgresql.org/docs/12/contrib.html - +[1]: https://www.postgresql.org/docs/current/contrib.html [2]: /es/database_monitoring/agent_integration_overhead/?tab=postgres [3]: /es/database_monitoring/data_collected/#sensitive-information [4]: https://www.postgresql.org/docs/current/config-setting.html @@ -584,4 +302,5 @@ Si has instalado y configurado las integraciones y el Agent como se describe, pe [12]: https://www.postgresql.org/message-id/20100210180532.GA20138@depesz.com [13]: /es/agent/configuration/agent-commands/#agent-status-and-information [14]: https://app.datadoghq.com/databases -[15]: /es/database_monitoring/troubleshooting/?tab=postgres \ No newline at end of file +[15]: /es/database_monitoring/troubleshooting/?tab=postgres +[16]: /es/agent/configuration/agent-commands/#restart-the-agent \ No newline at end of file diff --git a/content/es/database_monitoring/setup_sql_server/rds.md b/content/es/database_monitoring/setup_sql_server/rds.md index bbef17bef9569..3f5a8da1bc88b 100644 --- a/content/es/database_monitoring/setup_sql_server/rds.md +++ b/content/es/database_monitoring/setup_sql_server/rds.md @@ -10,6 +10,9 @@ further_reading: - link: /database_monitoring/guide/sql_deadlock/ tag: Documentación text: Configurar la monitorización de interbloqueos +- link: /database_monitoring/guide/sql_extended_events/ + tag: Documentación + text: Configurar la finalización de consultas y la recopilación de errores de consulta title: Configuración de Database Monitoring para SQL Server en Amazon RDS --- @@ -37,7 +40,7 @@ Habilita la **Recopilación estándar** en la sección **Recopilación de recurs El Datadog Agent requiere acceso de sólo lectura al servidor de la base de datos para recopilar estadísticas y consultas. -Crea un inicio de sesión de solo lectura para conectarte a tu servidor y concede los permisos necesarios: +Crea un inicio de sesión de solo lectura para conectarte a tu servidor y conceder los permisos necesarios: ```SQL USE [master]; @@ -243,11 +246,11 @@ Utiliza las etiquetas (tags) `service` y `env` para vincular la telemetría de t Si estás ejecutando un clúster de Kubernetes, utiliza el [Datadog Cluster Agent][1] para habilitar Database Monitoring. Si los checks de clúster aún no están habilitados, [sigue estas instrucciones][2] para habilitarlos antes de continuar. -### Operator +### Operador Sigue los pasos que se indican a continuación para configurar la integración SQL Server, utilizando como referencia las [instrucciones del Operator en Kubernetes e integraciones][6]. -1. Crea o actualiza el archivo `datadog-agent.yaml` con la siguiente configuración: +1. Crea o actualiza el archivo `Datadog-Agent.yaml` con la siguiente configuración: ```yaml apiVersion: datadoghq.com/v2alpha1 @@ -295,7 +298,7 @@ Sigue los pasos que se indican a continuación para configurar la integración S instance_endpoint: ``` -2. Aplica los cambios al Datadog Operator utilizando el siguiente comando: +2. Aplica los cambios al Datadog Operator con el siguiente comando: ```shell kubectl apply -f datadog-agent.yaml @@ -338,7 +341,7 @@ Realiza los siguientes pasos para instalar el [Datadog Cluster Agent][1] en tu c ```
-For Windows, append --set targetSystem=windows to the helm install command. +Para Windows, adjunta --set targetSystem=windows al comando de instalación de Helm.
### Configuración con archivos integrados @@ -366,7 +369,7 @@ instances: ### Configuración con anotaciones de servicios de Kubernetes -En lugar de montar un archivo, puedes declarar la configuración de la instancia como un servicio de Kubernetes. Para configurar este check para un Agent que se ejecuta en Kubernetes, crea un servicio en el mismo espacio de nombres que el Datadog Cluster Agent: +En lugar de montar un archivo, puedes declarar la configuración de la instancia como servicio Kubernetes. Para configurar este check para un Agent que se ejecuta en Kubernetes, crea un servicio con la siguiente sintaxis: ```yaml apiVersion: v1 diff --git a/content/es/database_monitoring/setup_sql_server/selfhosted.md b/content/es/database_monitoring/setup_sql_server/selfhosted.md index de70170e51ec0..58350a597e9d7 100644 --- a/content/es/database_monitoring/setup_sql_server/selfhosted.md +++ b/content/es/database_monitoring/setup_sql_server/selfhosted.md @@ -10,6 +10,9 @@ further_reading: - link: /database_monitoring/guide/sql_deadlock/ tag: Documentación text: Configurar la Monitorización Deadlock +- link: /database_monitoring/guide/sql_extended_events/ + tag: Documentación + text: Configurar la finalización de consultas y la recopilación de errores de consulta - link: https://www.datadoghq.com/blog/migrate-sql-workloads-to-azure-with-datadog/ tag: Blog text: Establecer estrategias de migración Azure para cargas de trabajo SQL con Datadog @@ -38,7 +41,7 @@ Versiones de SQL Server compatibles El Datadog Agent requiere acceso de sólo lectura al servidor de la base de datos para recopilar estadísticas y consultas. -Crea un inicio de sesión de solo lectura para conectarte a tu servidor y concede los permisos necesarios: +Crea un inicio de sesión de solo lectura para conectarte a tu servidor y conceder los permisos necesarios: {{< tabs >}} {{% tab "SQL Server 2014 o posterior" %}} @@ -75,8 +78,8 @@ Crea el usuario `datadog` en cada base de datos de aplicaciones adicional: USE [database_name]; CREATE USER datadog FOR LOGIN datadog; ``` -{{% /tab%}} -{{< /tabs>}} +{{% /tab %}} +{{< /tabs >}} ### Guarda tu contraseña de forma segura {{% dbm-secret %}} @@ -86,22 +89,14 @@ CREATE USER datadog FOR LOGIN datadog; Se recomienda instalar el Agent directamente en el host de SQL Server, ya que esto permite al Agent recopilar una variedad de telemetrías del sistema (CPU, memoria, disco, red), además de la telemetría específica del SQL Server. {{< tabs >}} -{{% tab "Host de Windows" %}} +{{% tab "Windows Host" %}} {{% dbm-alwayson %}} {{% dbm-sqlserver-agent-setup-windows %}} {{% /tab %}} -{{% tab "Host de Linux" %}} +{{% tab "Linux Host" %}} {{% dbm-alwayson %}} {{% dbm-sqlserver-agent-setup-linux %}} {{% /tab %}} -{{% tab "Docker" %}} -{{% dbm-alwayson %}} -{{% dbm-sqlserver-agent-setup-docker %}} -{{% /tab %}} -{{% tab "Kubernetes" %}} -{{% dbm-alwayson %}} -{{% dbm-sqlserver-agent-setup-kubernetes %}} -{{% /tab %}} {{< /tabs >}} ## Configuraciones del Agent de ejemplo diff --git a/content/es/datadog_cloudcraft/_index.md b/content/es/datadog_cloudcraft/_index.md new file mode 100644 index 0000000000000..75cee2759a7f4 --- /dev/null +++ b/content/es/datadog_cloudcraft/_index.md @@ -0,0 +1,149 @@ +--- +description: Visualizar y analizar la infraestructura de la nube de AWS con diagramas + en directo de Cloudcraft en Datadog para solucionar los problemas, analizar la seguridad + y optimizar los costes +further_reading: +- link: https://www.datadoghq.com/blog/cloud-architecture-diagrams-cost-compliance-cloudcraft-datadog/ + tag: Blog + text: Planificar nuevas arquitecturas y realiza un seguimiento de tu huella en la + nube con Cloudcraft (independiente) +- link: https://www.datadoghq.com/blog/introducing-cloudcraft/ + tag: Blog + text: Crear visualizaciones ricas y actualizadas de tu infraestructura AWS con Cloudcraft + en Datadog +- link: https://www.datadoghq.com/blog/cloudcraft-security/ + tag: Blog + text: Identificar y priorizar visualmente los riesgos de seguridad con Cloudcraft +title: Cloudcraft en Datadog +--- + +## Información general + +Cloudcraft ofrece una potente herramienta de visualización en directo de solo lectura de la arquitectura de la nube que te permite explorar, analizar y gestionar tu infraestructura con facilidad. Esta guía, que no debe confundirse con la documentación de [Cloudcraft independiente][1], describe la funcionalidad, la configuración y los casos de uso de Cloudcraft *en Datadog*, detalla sus ventajas para varios usuarios y destaca las características y capacidades clave. + +
Esta documentación se aplica al producto Cloudcraft en Datadog. Para obtener información sobre el producto Cloudcraft independiente, consulta la documentación Cloudcraft (independiente).
+ +La función central de Cloudcraft es su capacidad para generar diagramas de arquitectura detallados. Estos diagramas representan visualmente los recursos de la nube de AWS para permitirte explorar y analizar tus entornos. Los diagramas de Cloudcraft están optimizados para ofrecer claridad y rendimiento, y te proporcionan una interfaz intuitiva para navegar por despliegues a gran escala. Esto ayuda a los equipos a: + +- Rastrear las causas de los incidentes a través de dependencias de la infraestructura. +- Determinar si la infraestructura es la causa de un incidente, como el tráfico entre regiones que genera latencia o mayores costes. +- Analizar y abordar los errores de configuración de seguridad más relevantes. +- Incorporar nuevos miembros al equipo. +- Acelerar el MTTR de los incidentes y las tareas de gobernanza proactivas, simplificando la navegación por la infraestructura. + +{{< img src="datadog_cloudcraft/cloudcraft_with_ccm_2.mp4" alt="Cloudcraft en un vídeo de Datadog" video=true >}} + +
Cloudcraft en Datadog solo está disponible actualmente para cuentas de AWS.
+ +### Requisitos previos + +- Para acceder a Cloudcraft en Datadog, necesitas el [permiso](#permissions) `cloudcraft_read`. +- La [recopilación de recursos][2] debe estar activada para tus cuentas de AWS. +- Para obtener la mejor experiencia, Datadog recomienda altamente utilizar la política [`SecurityAudit`][5] administrada por AWS o la política [`ReadOnlyAccess`][6] más permisiva. +- La visualización de contenidos en la [superposición de seguridad][10] requiere la activación de productos adicionales: + - Para ver errores de configuración de seguridad y riesgos de identidad, se debe activar [Cloud Security][3]. + - Para ver datos confidenciales, [Sensitive Data Scanner][12] debe estar activado. Para que un usuario active la capa, debe tener el permiso [`data_scanner_read`][13]. + +**Nota**: Cloudcraft se adapta a los permisos restrictivos excluyendo los recursos inaccesibles. Por ejemplo, si no concedes permiso para enumerar buckets S3, el diagrama excluye esos buckets. Si los permisos bloquean ciertos recursos, se muestra una alerta en la interfaz de usuario. + +
Activar la recopilación de recursos puede repercutir en los costes de AWS CloudWatch. Para evitar estos cargos, desactiva las métricas de uso en la pestaña Recopilación de métricas de la integración Datadog AWS.
+ +{{< img src="/infrastructure/resource_catalog/aws_usage_toggle.png" alt="Conmutador del uso de AWS en los parámetros de la cuenta" style="width:100%;" >}}
+ +## Empezando + +Para empezar a utilizar Cloudcraft, sigue estos pasos: +1. Ve a [**Infrastructure > Resources > Cloudcraft** (Infraestructura > Recursos > Cloudcraft)][7]. +2. Se muestra un diagrama en tiempo real de los recursos de tu entorno. + + **Nota**: Para entornos con más de 10.000 recursos, debes filtrar el diagrama por cuenta, región o etiquetas (tags) antes de poder mostrarlo. + +{{< img src="datadog_cloudcraft/getting_started_3.mp4" alt="Vídeo que muestra cómo empezar en Cloudcraft seleccionando la cuenta, la región y el recurso" video=true;" >}} + +**Nota**: El nombre de la cuenta en el desplegable **Account** (Cuenta) se origina a partir de las etiquetas de tu cuenta de AWS en el cuadro de integración de AWS. + +### Agrupar por + +Con la opción Agrupar por, Cloudcraft divide tu diagrama en distintas secciones basadas en diferentes tipos de grupos. Esta función ofrece una perspectiva clara y organizada de tus recursos, por lo que resulta especialmente útil para visualizar entornos de nube complejos. + +Activa la casilla **Show All Controls** (Mostrar todos los controles) para mostrar las opciones disponibles de **Agrupar por**. También puedes eliminar agrupaciones específicas desmarcando opciones como VPC y Región. Para ver la estructura de anidamiento actual y añadir la capa ACL de red (lista de control de acceso de red), haz clic en el desplegable **More** (Más). + +{{< img src="datadog_cloudcraft/cloudcraft_group_by_with_ccm.png" alt="Función Agrupar for en Cloudcraft, resaltando el menú Agrupar por" >}} + +#### Agrupar por etiquetas + +Puedes agrupar los recursos por etiquetas de AWS, como app, service, team o cost center, para organizar la vista por equipo o carga de trabajo. + +**Nota**: La agrupación por etiquetas solo es compatible con las etiquetas de AWS. Las etiquetas del Datadog Agent (por ejemplo, `env`, o `team` de la configuración local) no son compatibles. + +{{< img src="datadog_cloudcraft/group_by_tag.mp4" alt="Función Agrupar por etiqueta en Cloudcraft, donde se agrupa por equipo y centro de costes" video=true >}} + +### Vistas guardadas + +Las vistas guardadas te permiten guardar en tu diagrama los filtros específicos que son más importantes para ti. Esto permite una solución eficiente de los problemas con consultas delimitadas a tus cuentas, regiones, entornos y recursos. + +Para aplicar una vista guardada a tu diagrama: + +- Ve a [**Infrastructure > Resources > Cloudcraft** (Infraestructura > Recursos > Cloudcraft)][7]. Selecciona una o más cuentas, regiones y recursos. Aplica los filtros deseados a la vista guardada y haz clic en **+Save as new view** (+Guardar como nueva vista). +- Selecciona la vista guardada deseada en el menú situado en la parte superior de la vista del diagrama. El diagrama se actualiza automáticamente para reflejar la vista elegida. + +{{< img src="datadog_cloudcraft/saved_views.png" alt="Captura de pantalla de las vistas guardadas" style="width:50%;" >}} + +### Explorar recursos + +Utiliza las funciones de ampliar y pasar el cursor por encima para localizar los recursos más importantes. A medida que se amplía la imagen, aparecen más nombres de recursos. Al pasar el cursor por encima de un recurso, aparece un panel con información básica, mientras que al hacer clic en un recurso se abre un panel lateral con datos de observabilidad, costes y seguridad, junto con enlaces cruzados a otros productos relevantes de Datadog. + +{{< img src="datadog_cloudcraft/cloudcraft_with_ccm_2.mp4" alt="Vídeo que muestra la función de ampliar y pasar el cursor por encima en Cloudcraft, y el clic en un recurso para abrir el panel lateral" video=true >}} + +#### Conmutador de proyección + +Cambia el conmutador de la proyección 3D (por defecto) a 2D para visualizar tus recursos desde arriba. + +{{< img src="datadog_cloudcraft/cloudcraft_2D.png" alt="Págiuna de inicio de Cloudcraft con el conmutador 2D activado" >}} + + +### Filtrado y búsqueda + +Los diagramas pueden filtrarse por etiquetas, como team, application o service, lo que te permite concentrarte en los recursos pertinentes y conservar el contexto en los recursos conectados. Además, Cloudcraft ofrece una potente función de búsqueda y resaltado que facilita la localización de recursos o grupos de recursos específicos. + +Haz clic en el menú **\+Filter** (+Filtrar) para filtrar rápidamente tus recursos con las etiquetas más utilizadas, como service, team, region, etc. Además, haz clic en la opción **More Filters** (Más filtros) para filtrar por etiquetas AWS, etiquetas personalizadas y etiquetas Terraform. La opción de filtro vuelve a cargar el diagrama para mostrar solo la infraestructura que coincide con los criterios de filtrado. + +{{< img src="datadog_cloudcraft/cloudcraft_filter.png" alt="Filtrar funciones en Cloudcraft" >}} + +### Buscar y resaltar + +Utiliza la barra de búsqueda para localizar recursos en el diagrama por nombre, ID o etiqueta. Esta función es muy eficaz para encontrar recursos específicos dentro de tu arquitectura de nube. Resalta los criterios de búsqueda en el diagrama, sin crear un nuevo diagrama, poniendo en gris los elementos que no coinciden con los criterios de búsqueda. + +{{< img src="datadog_cloudcraft/search_highlight_2.mp4" alt="Vídeo que muestra la función de búsqueda y resaltado en Cloudcraft" video=true >}} + +## Permisos + +Para acceder a Cloudcraft en Datadog, necesitas el permiso `cloudcraft_read`. Este permiso está incluido por defecto en el rol de solo lectura de Datadog. Si tu organización utiliza roles personalizados, añade este permiso al rol apropiado. Para obtener más información sobre la gestión de permisos, consulta la [documentación de RBAC][14]. + +## Siguientes pasos + +Aprende a navegar entre las [superposiciones integradas][4] para visualizar tu arquitectura desde diferentes perspectivas. Cada superposición está diseñada para respaldar objetivos operativos específicos, como: + +- [Infraestructura][8]: Vista clara de servicios y recursos. +- [Observabilidad][9]: Indica qué hosts tienen instalado el Agent y qué características de observabilidad están activadas. +- [Seguridad][10]: Visibilidad de IAM, cortafuegos y grupos de seguridad. +- [Cloud Cost Management][11]: Seguimiento y optimización de gastos de recursos. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/cloudcraft +[2]: /es/integrations/amazon_web_services/#resource-collection +[3]: /es/security/cloud_security_management +[4]: /es/datadog_cloudcraft/overlays +[5]: https://docs.aws.amazon.com/aws-managed-policy/latest/reference/SecurityAudit.html +[6]: https://docs.aws.amazon.com/aws-managed-policy/latest/reference/ReadOnlyAccess.html +[7]: https://app.datadoghq.com/cloud-maps +[8]: /es/datadog_cloudcraft/overlays#infrastructure +[9]: /es/datadog_cloudcraft/overlays#observability +[10]: /es/datadog_cloudcraft/overlays#security +[11]: /es/datadog_cloudcraft/overlays#cloud-cost-management +[12]: /es/security/sensitive_data_scanner +[13]: /es/account_management/rbac/permissions/#compliance +[14]: /es/account_management/rbac/ \ No newline at end of file diff --git a/content/es/ddsql_reference/_index.md b/content/es/ddsql_reference/_index.md new file mode 100644 index 0000000000000..2a29c507b7639 --- /dev/null +++ b/content/es/ddsql_reference/_index.md @@ -0,0 +1,856 @@ +--- +aliases: +- /es/logs/workspaces/sql_reference +- /es/ddsql_reference/ddsql_default +description: Referencia completa de sintaxis, tipos de datos, funciones, operadores + y sentencias DDSQL para consultar datos de Datadog con SQL. +further_reading: +- link: /ddsql_editor/ + tag: Documentación + text: Más información sobre DDSQL Editor +products: +- icon: ddsql + name: Editor DDSQL + url: /ddsql_editor/ +- icon: notebook + name: Notebooks + url: /notebooks/ +title: Referencia DDSQL +--- + +{{< product-availability >}} + +## Información general + +DDSQL es SQL para datos de Datadog. Implementa varias operaciones SQL estándar, como `SELECT`, y permite realizar consultas de datos no estructurados. Puedes realizar acciones, como obtener exactamente los datos que buscas, escribiendo tu propia sentencia `SELECT`, o consultar etiquetas (tags) como si fueran columnas de tablas estándar. + +Esta documentación cubre el soporte SQL disponible e incluye: +- [Sintaxis compatible con PostgreSQL](#syntax) +- [Tipos de datos](#data-types) +- [Tipos literales](#type-literals) +- [Funciones de SQL](#functions) +- [Expresiones regulares](#regular-expressions) +- [Funciones de ventana](#window-functions) +- [Funciones JSON](#json-functions-and-operators) +- [Funciones de tabla](#table-functions) +- [Etiquetas](#tags) + + +{{< img src="/logs/workspace/sql_reference/sql_syntax_analysis_cell.png" alt="Celda de Workspace de ejemplo con sintaxis de SQL" style="width:100%;" >}} + +## Sintaxis + +Se admite la siguiente sintaxis de SQL: + +`SELECT (DISTINCT)` (DISTINCT: Opcional) +: Recupera filas de una base de datos, con `DISTINCT` filtrando los registros duplicados. + + {{< code-block lang="sql" >}}SELECT DISTINCT customer_id +FROM orders {{< /code-block >}} + +`JOIN` +: Combina filas de dos o más tablas basándose en una columna relacionada entre ellas. Admite FULL JOIN, INNER JOIN, LEFT JOIN, RIGHT JOIN. + + {{< code-block lang="sql" >}}SELECT orders.order_id, customers.customer_name +FROM orders +JOIN customers +ON orders.customer_id = customers.customer_id {{< /code-block >}} + +`GROUP BY` +: Agrupa las filas que tienen los mismos valores en las columnas especificadas en filas de resumen. + + {{< code-block lang="sql" >}}SELECT product_id, SUM(quantity) +FROM sales +GROUP BY product_id {{< /code-block >}} + +`||` (concat) +: Concatena dos o más cadenas. + + {{< code-block lang="sql" >}}SELECT first_name || ' ' || last_name AS full_name +FROM employees {{< /code-block >}} + +`WHERE` (Incluye compatibilidad con los filtros `LIKE`, `IN`, `ON`, `OR`) +: Filtra los registros que cumplen una condición especificada. + + {{< code-block lang="sql" >}}SELECT * +FROM employees +WHERE department = 'Sales' AND name LIKE 'J%' {{< /code-block >}} + +`CASE` +: Proporciona una lógica condicional para devolver diferentes valores basados en condiciones especificadas. + + {{< code-block lang="sql" >}}SELECT order_id, + CASE + WHEN quantity > 10 THEN 'Bulk Order' + ELSE 'Standard Order' + END AS order_type +FROM orders {{< /code-block >}} + +`WINDOW` +: Realiza un cálculo a través de un conjunto de filas de tabla relacionadas con la fila actual. + + {{< code-block lang="sql" >}}SELECT + timestamp, + service_name, + cpu_usage_percent, + AVG(cpu_usage_percent) OVER (PARTITION BY service_name ORDER BY timestamp ROWS BETWEEN 2 PRECEDING AND CURRENT ROW) AS moving_avg_cpu +FROM + cpu_usage_data {{< /code-block >}} + +`IS NULL`/`IS NOT NULL` +: Comprueba si un valor es nulo o no. + + {{< code-block lang="sql" >}}SELECT * +FROM orders +WHERE delivery_date IS NULL {{< /code-block >}} + +`LIMIT` +: Especifica el número máximo de registros a devolver. + + {{< code-block lang="sql" >}}SELECT * +FROM customers +LIMIT 10 {{< /code-block >}} + +`OFFSET` +: Omite un número especificado de registros antes de empezar a devolver registros de la consulta. + + {{< code-block lang="sql" >}}SELECT * +FROM employees +OFFSET 20 {{< /code-block >}} + +`ORDER BY` +: Ordena el conjunto de resultados de una consulta por una o varias columnas. Incluye ASC, DESC para el orden de clasificación. + + {{< code-block lang="sql" >}}SELECT * +FROM sales +ORDER BY sale_date DESC {{< /code-block >}} + +`HAVING` +: Filtra los registros que cumplen una condición especificada después de la agrupación. + + {{< code-block lang="sql" >}}SELECT product_id, SUM(quantity) +FROM sales +GROUP BY product_id +HAVING SUM(quantity) > 10 {{< /code-block >}} + +`IN`, `ON`, `OR` +: Se utilizan para especificar condiciones en las consultas. Disponible en las cláusulas `WHERE`, `JOIN`. + + {{< code-block lang="sql" >}}SELECT * +FROM orders +WHERE order_status IN ('Shipped', 'Pending') {{< /code-block >}} + +`USING` +: Esta cláusula es una abreviatura para uniones en las que las columnas unidas tienen el mismo nombre en ambas tablas. Toma una lista separada por comas de esas columnas y crea una condición de igualdad independiente para cada par coincidente. Por ejemplo, unir `T1` y `T2` con `USING (a, b)` equivale a `ON T1.a = T2.a AND T1.b = T2.b`. + + {{< code-block lang="sql" >}}SELECT orders.order_id, customers.customer_name +FROM orders +JOIN customers +USING (customer_id) {{< /code-block >}} + +`AS` +: Renombra una columna o tabla con un alias. + + {{< code-block lang="sql" >}}SELECT first_name AS name +FROM employees {{< /code-block >}} + +Operaciones aritméticas +: Realiza cálculos básicos utilizando operadores como `+`, `-`, `*`, `/`. + + {{< code-block lang="sql" >}}SELECT price, tax, (price * tax) AS total_cost +FROM products {{< /code-block >}} + +`INTERVAL value unit` +: Intervalo que representa una duración de tiempo especificada en una unidad determinada. +Unidades admitidas:
- `milliseconds`/`millisecond`
- `seconds`/`second`
- `minutes`/`minute`
- `hours`/`hour`
- `days`/`day` + +## Tipos de datos + +DDSQL admite los siguientes tipos de datos: + +| Tipo de datos | Descripción | +|-----------|-------------| +| `BIGINT` | Enteros con signo de 64 bits. | +| `BOOLEAN` | Valores `true` o `false`. | +| `DOUBLE` | Números de coma flotante de doble precisión. | +| `INTERVAL` | Valores de duración. | +| `JSON` | Datos JSON. | +| `TIMESTAMP` | Valores de fecha y hora. | +| `VARCHAR` | Cadenas de caracteres de longitud variable. | + +### Tipos de matrices + +Todos los tipos de datos admiten tipos de matrices. Las matrices pueden contener varios valores del mismo tipo de datos. + +## Tipos literales + +DDSQL admite tipos literales explícitos utilizando la sintaxis `[TYPE] [value]`. + +| Tipo | Sintaxis | Ejemplo | +|------|--------|---------| +| `BIGINT` | `BIGINT value` | `BIGINT 1234567` | +| `BOOLEAN` | `BOOLEAN value` | `BOOLEAN true` | +| `DOUBLE` | `DOUBLE value` | `DOUBLE 3.14159` | +| `INTERVAL` | `INTERVAL 'value unit'` | `INTERVAL '30 minutes'` | +| `JSON` | `JSON 'value'` | `JSON '{"key": "value", "count": 42}'` | +| `TIMESTAMP` | `TIMESTAMP 'value'` | `TIMESTAMP '2023-12-25 10:30:00'` | +| `VARCHAR` | `VARCHAR 'value'` | `VARCHAR 'hello world'` | + +El prefijo del tipo puede omitirse y el tipo se deduce automáticamente del valor. Por ejemplo, `'hello world'` se deduce como `VARCHAR`, `123` como `BIGINT` y `true` como `BOOLEAN`. Utiliza prefijos de tipo explícitos cuando los valores puedan ser ambiguos. Por ejemplo,`TIMESTAMP '2025-01-01'` se deduciría como `VARCHAR` sin el prefijo. + +### Matrices literales + +Las matrices literales utilizan la sintaxis `ARRAY[value1, value2, ...]`. El tipo de matriz se deduce automáticamente de los valores. + +{{< code-block lang="sql" >}} +SELECT ARRAY['apple', 'banana', 'cherry'] AS fruits; -- Inferred as VARCHAR array +SELECT ARRAY[1, 2, 3] AS numbers; -- Inferred as BIGINT array +SELECT ARRAY[true, false, true] AS flags; -- Inferred as BOOLEAN array +SELECT ARRAY[1.1, 2.2, 3.3] AS decimals; -- Inferred as DOUBLE array +{{< /code-block >}} + +### Ejemplo + +{{< code-block lang="sql" >}} +-- Using type literals in queries +SELECT + VARCHAR 'Product Name: ' || name AS labeled_name, + price * DOUBLE 1.08 AS price_with_tax, + created_at + INTERVAL '7 days' AS expiry_date +FROM products +WHERE created_at > TIMESTAMP '2025-01-01'; +{{< /code-block >}} + +## Funciones + +Se admiten las siguientes funciones de SQL. Para la función de ventana, consulta la sección [función de ventana](#window-functions) de esta documentación. + +| Función | Tipo de retorno | Descripción | +|--------------------------------------------------|---------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| +| `MIN(variable v)` | Variable typeof | Devuelve el valor más pequeño de un conjunto de datos. | +| `MAX(variable v)` | Variable typeof | Devuelve el valor máximo de todos los valores de entrada. | +| `COUNT(any a)` | numérico | Devuelve el número de valores de entrada que no son nulos. | +| `SUM(numeric n)` | numérico | Devuelve la suma de todos los valores de entrada. | +| `AVG(numeric n)` | numérico | Devuelve el valor medio (media aritmética) de todos los valores de entrada. | +| `BOOL_AND(boolean b)` | booleano | Devuelve si todos los valores de entrada no nulos son verdaderos. | +| `BOOL_OR(boolean b)` | booleano | Devuelve si cualquier valor de entrada no nulo es verdadero. | +| `CEIL(numeric n)` | numérico | Devuelve el valor redondeado al entero más próximo. | +| `FLOOR(numeric n)` | numérico | Devuelve el valor redondeado al entero más próximo. | +| `ROUND(numeric n)` | numérico | Devuelve el valor redondeado al entero más próximo. | +| `POWER(numeric base, numeric exponent)` | numérico | Devuelve el valor de la base elevado a la potencia del exponente. | +| `LOWER(string s)` | cadena | Devuelve la cadena en minúsculas. | +| `UPPER(string s)` | cadena | Devuelve la cadena en mayúsculas. | +| `ABS(numeric n)` | numérico | Devuelve el valor absoluto. | +| `COALESCE(args a)` | typeof first non-null a OR null | Devuelve el primer valor no nulo o nulo si todos son nulos. | +| `CAST(value AS type)` | tipo | Convierte el valor dado al tipo de datos especificado. | +| `LENGTH(string s)` | entero | Devuelve el número de caracteres de la cadena. | +| `TRIM(string s)` | cadena | Elimina los espacios en blanco iniciales y finales de la cadena. | +| `REPLACE(string s, string from, string to)` | cadena | Sustituye las apariciones de una subcadena dentro de una cadena por otra subcadena. | +| `SUBSTRING(string s, int start, int length)` | cadena | Extrae una subcadena de una cadena, comenzando en una posición dada y para una longitud especificada. | +| `STRPOS(string s, string substring)` | entero | Devuelve la primera posición del índice de la subcadena en una cadena dada, o 0 si no hay coincidencia. | +| `SPLIT_PART(string s, string delimiter, integer index)` | cadena | Divide la cadena en el delimitador dado y devuelve la cadena en la posición dada contando desde uno. | +| `EXTRACT(unit from timestamp/interval)` | numérico | Extrae una parte de un campo de fecha u hora (como el año o el mes) de una marca temporal o intervalo. | +| `TO_TIMESTAMP(string timestamp, string format)` | marca de tiempo | Convierte una cadena en una marca de tiempo según el formato dado. | +| `TO_CHAR(timestamp t, string format)` | cadena | Convierte una marca de tiempo en una cadena según el formato dado. | +| `DATE_BIN(interval stride, timestamp source, timestamp origin)` | marca de tiempo | Alinea una marca de tiempo (fuente) en buckets de longitud par (stride). Devuelve el inicio del bucket que contiene la fuente, calculado como la mayor marca de tiempo que es menor o igual que la fuente y es un múltiplo de longitudes de stride desde el origen. | +| `DATE_TRUNC(string unit, timestamp t)` | marca de tiempo | Trunca una marca de tiempo a una precisión especificada basada en la unidad proporcionada. | +| `CURRENT_SETTING(string setting_name)` | cadena | Devuelve el valor actual del parámetro especificado. Admite los parámetros `dd.time_frame_start` y `dd.time_frame_end`, que devuelven el inicio y el final del marco temporal global, respectivamente. | +| `NOW()` | marca de tiempo | Devuelve la marca de tiempo actual al inicio de la consulta actual. | +| `CARDINALITY(array a)` | entero | Devuelve el número de elementos de la matriz. | +| `ARRAY_POSITION(array a, typeof_array value)` | entero | Devuelve el índice de la primera aparición del valor encontrado en la matriz, o null (nulo) si no se encuentra el valor. | +| `STRING_TO_ARRAY(string s, string delimiter)` | matriz de cadenas | Divide la cadena dada en una matriz de cadenas utilizando el delimitador dado. | +| `ARRAY_AGG(expression e)` | matriz de tipo de entrada | Crea una matriz al recopilar todos los valores de entrada. | +| `UNNEST(array a [, array b...])` | filas de a [, b...] | Expande matrices en un conjunto de filas. Esta forma sólo se permite en una cláusula FROM. | + +{{% collapse-content title="Ejemplos" level="h3" %}} + +### `MIN` +{{< code-block lang="sql" >}} +SELECT MIN(response_time) AS min_response_time +FROM logs +WHERE status_code = 200 +{{< /code-block >}} + +### `MAX` +{{< code-block lang="sql" >}} +SELECT MAX(response_time) AS max_response_time +FROM logs +WHERE status_code = 200 +{{< /code-block >}} + +### `COUNT` +{{< code-block lang="sql" >}}SELECT COUNT(request_id) AS total_requests +FROM logs +WHERE status_code = 200 {{< /code-block >}} + +### `SUM` +{{< code-block lang="sql" >}}SELECT SUM(bytes_transferred) AS total_bytes +FROM logs +GROUP BY service_name +{{< /code-block >}} + +### `AVG` +{{< code-block lang="sql" >}}SELECT AVG(response_time) +AS avg_response_time +FROM logs +WHERE status_code = 200 +GROUP BY service_name +{{< /code-block >}} + +### `BOOL_AND` +{{< code-block lang="sql" >}}SELECT BOOL_AND(status_code = 200) AS all_success +FROM logs +{{< /code-block >}} + +### `BOOL_OR` +{{< code-block lang="sql" >}}SELECT BOOL_OR(status_code = 200) AS some_success +FROM logs +{{< /code-block >}} + +### `CEIL` +{{< code-block lang="sql" >}} +SELECT CEIL(price) AS rounded_price +FROM products +{{< /code-block >}} + +### `FLOOR` +{{< code-block lang="sql" >}} +SELECT FLOOR(price) AS floored_price +FROM products +{{< /code-block >}} + +### `ROUND` +{{< code-block lang="sql" >}} +SELECT ROUND(price) AS rounded_price +FROM products +{{< /code-block >}} + +### `POWER` +{{< code-block lang="sql" >}} +SELECT POWER(response_time, 2) AS squared_response_time +FROM logs +{{< /code-block >}} + +### `LOWER` +{{< code-block lang="sql" >}} +SELECT LOWER(customer_name) AS lowercase_name +FROM customers +{{< /code-block >}} + +### `UPPER` +{{< code-block lang="sql" >}} +SELECT UPPER(customer_name) AS uppercase_name +FROM customers +{{< /code-block >}} + +### `ABS` +{{< code-block lang="sql" >}} +SELECT ABS(balance) AS absolute_balance +FROM accounts +{{< /code-block >}} + +### `COALESCE` +{{< code-block lang="sql" >}} +SELECT COALESCE(phone_number, email) AS contact_info +FROM users +{{< /code-block >}} + +### `CAST` + +Tipos de objetivos de cast admitidos: +- `BIGINT` +- `DECIMAL` +- `TIMESTAMP` +- `VARCHAR` + +{{< code-block lang="sql" >}} +SELECT + CAST(order_id AS VARCHAR) AS order_id_string, + 'Order-' || CAST(order_id AS VARCHAR) AS order_label +FROM + orders +{{< /code-block >}} + +### `LENGTH` +{{< code-block lang="sql" >}} +SELECT + customer_name, + LENGTH(customer_name) AS name_length +FROM + customers +{{< /code-block >}} + +### `INTERVAL` +{{< code-block lang="sql" >}} +SELECT + TIMESTAMP '2023-10-01 10:00:00' + INTERVAL '30 days' AS future_date, + INTERVAL '1 MILLISECOND 2 SECONDS 3 MINUTES 4 HOURS 5 DAYS' +{{< /code-block >}} + +### `TRIM` +{{< code-block lang="sql" >}} +SELECT + TRIM(name) AS trimmed_name +FROM + users +{{< /code-block >}} + +### `REPLACE` +{{< code-block lang="sql" >}} +SELECT + REPLACE(description, 'old', 'new') AS updated_description +FROM + products +{{< /code-block >}} + +### `SUBSTRING` +{{< code-block lang="sql" >}} +SELECT + SUBSTRING(title, 1, 10) AS short_title +FROM + books +{{< /code-block >}} + +### `STRPOS` +{{< code-block lang="sql" >}} +SELECT + STRPOS('foobar', 'bar') +{{< /code-block >}} + +### `SPLIT_PART` +{{< code-block lang="sql" >}} +SELECT + SPLIT_PART('aaa-bbb-ccc', '-', 2) +{{< /code-block >}} + +### `EXTRACT` + +Unidades de extracción compatibles: +| Literal | Tipo de entrada | Descripción | +| ------------------| ------------------------ | -------------------------------------------- | +| `day` | `timestamp` / `interval` | día del mes | +| `dow` | `timestamp` | día de la semana `1` (lunes) a `7` (domingo) | +| `doy` | `timestamp` | día del año (`1` - `366`) | +| `hour` | `timestamp` / `interval` | hora del día (`0` - `23`) | +| `minute` | `timestamp` / `interval` | minuto de la hora (`0` - `59`) | +| `second` | `timestamp` / `interval` | segundo del minuto (`0` - `59`) | +| `week` | `timestamp` | semana del año (`1` - `53`) | +| `month` | `timestamp` | mes del año (`1` - `12`) | +| `quarter` | `timestamp` | trimestre del año (`1` - `4`) | +| `year` | `timestamp` | año | +| `timezone_hour` | `timestamp` | hora del inicio del huso horario | +| `timezone_minute` | `timestamp` | minuto del inicio del huso horario | + +{{< code-block lang="sql" >}} +SELECT + EXTRACT(year FROM purchase_date) AS purchase_year +FROM + sales +{{< /code-block >}} + +### `TO_TIMESTAMP` + +Patrones compatibles para el formato fecha/hora: +| Patrón | Descripción | +| ----------- | ------------------------------------ | +| `YYYY` | año (4 dígitos) | +| `YY` | año (2 dígitos) | +| `MM` | número de mes (01 - 12) | +| `DD` | día del mes (01 - 31) | +| `HH24` | hora del día (00 - 23) | +| `HH12` | hora del día (01 - 12) | +| `HH` | hora del día (01 - 12) | +| `MI` | minuto (00 - 59) | +| `SS` | segundo (00 - 59) | +| `MS` | milisegundo (000 - 999) | +| `TZ` | abreviatura del huso horario | +| `OF` | inicio del huso horario desde UTC | +| `AM` / `am` | indicador del meridiano (sin puntos) | +| `PM` / `pm` | indicador del meridiano (sin puntos) | + +{{< code-block lang="sql" >}} +SELECT + TO_TIMESTAMP('25/12/2025 04:23 pm', 'DD/MM/YYYY HH:MI am') AS ts +{{< /code-block >}} + +### `TO_CHAR` + +Patrones compatibles para el formato fecha/hora: +| Patrón | Descripción | +| ----------- | ------------------------------------ | +| `YYYY` | año (4 dígitos) | +| `YY` | año (2 dígitos) | +| `MM` | número de mes (01 - 12) | +| `DD` | día del mes (01 - 31) | +| `HH24` | hora del día (00 - 23) | +| `HH12` | hora del día (01 - 12) | +| `HH` | hora del día (01 - 12) | +| `MI` | minuto (00 - 59) | +| `SS` | segundo (00 - 59) | +| `MS` | milisegundo (000 - 999) | +| `TZ` | abreviatura del huso horario | +| `OF` | inicio del huso horario desde UTC | +| `AM` / `am` | indicador del meridiano (sin puntos) | +| `PM` / `pm` | indicador del meridiano (sin puntos) | + +{{< code-block lang="sql" >}} +SELECT + TO_CHAR(order_date, 'MM-DD-YYYY') AS formatted_date +FROM + orders +{{< /code-block >}} + +### `DATE_BIN` +{{< code-block lang="sql" >}} +SELECT DATE_BIN('15 minutes', TIMESTAMP '2025-09-15 12:34:56', TIMESTAMP '2025-01-01') +-- Returns 2025-09-15 12:30:00 + +SELECT DATE_BIN('1 day', TIMESTAMP '2025-09-15 12:34:56', TIMESTAMP '2025-01-01') +-- Returns 2025-09-15 00:00:00 +{{< /code-block >}} + +### `DATE_TRUNC` + +Truncamientos admitidos: +- `milliseconds` +- `seconds` / `second` +- `minutes` / `minute` +- `hours` / `hour` +- `days` / `day` +- `weeks` / `week ` +- `months` / `month` +- `quarters` / `quarter` +- `years` / `year` + +{{< code-block lang="sql" >}} +SELECT + DATE_TRUNC('month', event_time) AS month_start +FROM + events +{{< /code-block >}} + +### `CURRENT_SETTING` + +Parámetros de configuración admitidos: +- `dd.time_frame_start`: Devuelve el inicio de la marca de tiempo seleccionada en formato RFC 3339 (`YYYY-MM-DD HH:mm:ss.sss±HH:mm`). +- `dd.time_frame_end`: Devuelve el final de la marca de tiempo seleccionada en formato RFC 3339 (`YYYY-MM-DD HH:mm:ss.sss±HH:mm`). + +{{< code-block lang="sql" >}} +-- Define the current analysis window +WITH bounds AS ( + SELECT CAST(CURRENT_SETTING('dd.time_frame_start') AS TIMESTAMP) AS time_frame_start, + CAST(CURRENT_SETTING('dd.time_frame_end') AS TIMESTAMP) AS time_frame_end +), +-- Define the immediately preceding window of equal length + previous_bounds AS ( + SELECT time_frame_start - (time_frame_end - time_frame_start) AS prev_time_frame_start, + time_frame_start AS prev_time_frame_end + FROM bounds +) +SELECT * FROM bounds, previous_bounds +{{< /code-block >}} + +### `NOW` +{{< code-block lang="sql" >}} +SELECT + * +FROM + sales +WHERE + purchase_date > NOW() - INTERVAL '1 hour' +{{< /code-block >}} + +### `CARDINALITY` +{{< code-block lang="sql" >}} +SELECT + CARDINALITY(recipients) +FROM + emails +{{< /code-block >}} + +### `ARRAY_POSITION` +{{< code-block lang="sql" >}} +SELECT + ARRAY_POSITION(recipients, 'hello@example.com') +FROM + emails +{{< /code-block >}} + +### `STRING_TO_ARRAY` +{{< code-block lang="sql" >}} +SELECT + STRING_TO_ARRAY('a,b,c,d,e,f', ',') +{{< /code-block >}} + +### `ARRAY_AGG` +{{< code-block lang="sql" >}} +SELECT + sender, + ARRAY_AGG(subject) subjects, + ARRAY_AGG(ALL subject) all_subjects, + ARRAY_AGG(DISTINCT subject) distinct_subjects +FROM + emails +GROUP BY + sender +{{< /code-block >}} + +### `UNNEST` +{{< code-block lang="sql" >}} +SELECT + sender, + recipient +FROM + emails, + UNNEST(recipients) AS recipient +{{< /code-block >}} + +{{% /collapse-content %}} + +## Expresiones regulares + +### Sabor + +Todas las funciones de expresión regular (regex) utilizan el formato ICU (International Components for Unicode): + +- [Metacaracteres][5] +- [Operadores][6] +- [Expresiones de conjuntos (clases de caracteres)][7] +- [Opciones de marcadores para marcadores en patrones][8]. Consulta la [sección sobre marcadores a continuación](#function-level-flags) para conocer los marcadores a nivel de función. +- [Buscar y reemplazar (utilizando grupos de captura)][9] + +### Funciones + +| Función | Tipo de retorno | Descripción | +|------------------------------------------------------------------------------------------------------------------|------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| +| `REGEXP_LIKE(string input, string pattern)` | Booleano | Evalúa si una cadena coincide con un patrón de expresión regular. | +| `REGEXP_MATCH(string input, string pattern [, string flags ])` | matriz de cadenas | Devuelve las subcadenas de la primera coincidencia de patrón en la cadena.

Esta función busca en la cadena de entrada utilizando el patrón dado y devuelve las subcadenas capturadas (grupos de captura) de la primera coincidencia. Si no hay grupos de captura, devuelve la coincidencia completa. | +| `REGEXP_REPLACE(string input, string pattern, string replacement [, string flags ])` | cadena | Sustituye la subcadena que es la primera coincidencia con el patrón, o todas las coincidencias si utilizas el [marcador opcional `g` ](#function-level-flags). | +| `REGEXP_REPLACE (string input, string pattern, string replacement, integer start, integer N [, string flags ] )` | cadena | Sustituye la subcadena que es la enésima coincidencia con el patrón, o todas las coincidencias si `N` es cero, empezando por `start`. | + +{{% collapse-content title="Ejemplos" level="h3" %}} + +### `REGEXP_LIKE` +{{< code-block lang="sql" >}} +SELECT + * +FROM + emails +WHERE + REGEXP_LIKE(email_address, '@example\.com$') +{{< /code-block >}} + +### `REGEXP_MATCH` +{{< code-block lang="sql" >}} +SELECT regexp_match('foobarbequebaz', '(bar)(beque)'); +-- {bar,beque} + +SELECT regexp_match('foobarbequebaz', 'barbeque'); +-- {barbeque} + +SELECT regexp_match('abc123xyz', '([a-z]+)(\d+)(x(.)z)'); +-- {abc,123,xyz,y} +{{< /code-block >}} + +### `REGEXP_REPLACE` +{{< code-block lang="sql" >}} +SELECT regexp_replace('Auth success token=abc123XYZ789', 'token=\w+', 'token=***'); +-- Auth success token=*** + +SELECT regexp_replace('status=200 method=GET', 'status=(\d+) method=(\w+)', '$2: $1'); +-- GET: 200 + +SELECT regexp_replace('INFO INFO INFO', 'INFO', 'DEBUG', 1, 2); +-- INFO DEBUG INFO +{{< /code-block >}} + +{{% /collapse-content %}} + +### Marcadores de función + +Puedes utilizar los siguientes marcadores con [funciones de expresión regular](#regular-expressions): + +`i` +: Coincidencia que no distingue mayúsculas y minúsculas + +`n` o `m` +: Coincidencia que reconoce nuevas líneas + +`g` +: Global; sustiyuye _todas_ las subcadenas coincidentes en lugar de solo la primera + +{{% collapse-content title="Ejemplos" level="h3" %}} + +### Marcador `i` + +{{< code-block lang="sql" >}} +SELECT regexp_match('INFO', 'info') +-- NULL + +SELECT regexp_match('INFO', 'info', 'i') +-- ['INFO'] +{{< /code-block >}} + +### Marcador `n` + +{{< code-block lang="sql" >}} +SELECT regexp_match('a +b', '^b'); +-- NULL + +SELECT regexp_match('a +b', '^b', 'n'); +-- ['b'] +{{< /code-block >}} + +### Marcador `g` + +{{< code-block lang="sql" >}} +SELECT icu_regexp_replace('Request id=12345 completed, id=67890 pending', 'id=\d+', 'id=XXX'); +-- Request id=XXX completed, id=67890 pending + +SELECT regexp_replace('Request id=12345 completed, id=67890 pending', 'id=\d+', 'id=XXX', 'g'); +-- Request id=XXX completed, id=XXX pending +{{< /code-block >}} + +{{% /collapse-content %}} + +## Funciones de ventana + +Esta tabla proporciona información general de las funciones de ventana admitidas. Para ver más detalles y ejemplos, consulte la [documentación de PostgreSQL][2]. + +| Función | Tipo de retorno | Descripción | +|-------------------------|-------------------|------------------------------------------------------------------------| +| `OVER` | N/A | Define una ventana para un conjunto de filas sobre las que pueden operar otras funciones de ventana. | +| `PARTITION BY` | N/A | Divide el conjunto de resultados en particiones, específicamente para aplicar funciones de ventana. | +| `RANK()` | entero | Asigna un rango a cada fila dentro de una partición, con espacios para los empates. | +| `ROW_NUMBER()` | entero | Asigna un número secuencial único a cada fila dentro de una partición. | +| `LEAD(column n)` | columna typeof | Devuelve el valor de la siguiente fila de la partición. | +| `LAG(column n)` | columna typeof | Devuelve el valor de la fila anterior de la partición. | +| `FIRST_VALUE(column n)` | columna typeof | Devuelve el primer valor de un conjunto ordenado de valores. | +| `LAST_VALUE(column n)` | columna typeof | Devuelve el último valor de un conjunto ordenado de valores. | +| `NTH_VALUE(column n, offset)`| columna typeof | Devuelve el valor en el desplazamiento especificado en un conjunto ordenado de valores. | + + +## Funciones y operadores JSON + +| Nombre | Tipo de devolución | Descripción | +|-----------------------------------------------|--------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| +| json_extract_path_text(text json, text path...) | texto | Extrae un subobjeto JSON como texto, definido por la ruta. Su comportamiento es equivalente a la [función Postgres del mismo nombre][3]. Por ejemplo, `json_extract_path_text(col, ‘forest')` devuelve el valor de la clave `forest` para cada objeto JSON en `col`. Consulta el ejemplo siguiente para ver la sintaxis de una matriz JSON. | +| json_extract_path(text json, text path...) | JSON | Misma funcionalidad que `json_extract_path_text`, pero devuelve una columna de tipo JSON en lugar de tipo texto. | +| json_array_elements(text json) | filas de JSON | Expande una matriz JSON en un conjunto de filas. Esta forma solo se permite en una cláusula FROM. | +| json_array_elements_text(text json) | filas de texto | Expande una matriz JSON en un conjunto de filas. Esta forma solo se permite en una cláusula FROM. | + +## Funciones de tabla + +{{< callout url="https://www.datadoghq.com/product-preview/logs-metrics-support-in-ddsql-editor/" >}} +La consulta de logs y métricas mediante DDSQL está en vista previa. Utiliza este formulario para solicitar accesso. +{{< /callout >}} + +Las funciones de tabla se utilizan para consultar logs y métricas. + + + + + + + + + + + + + + + + + + + + + +
FunciónDescripciónEjemplo
+
+dd.logs(
+    filter => varchar,
+    columns => array < varchar >,
+    indexes => array < varchar >,
+    from_timestamp => timestamp,
+    to_timestamp => timestamp
+) AS (column_name type [, ...])
+
Devuelve los datos de logs en forma de tabla. El parámetro de columna especifica qué campos de log extraer, y la cláusula AS define el esquema de la tabla devuelta. Opcional: Filtrado por índice o rango temporal. Si no se especifica la hora, se utilizará por defecto la última hora de los datos. + {{< code-block lang="sql" >}} +SELECT timestamp, host, service, message +FROM dd.logs( + filter => 'source (fuente):java', + columns => ARRAY['timestamp','host', 'service','message'] +) AS ( + timestamp TIMESTAMP, + host VARCHAR, + service VARCHAR, + message VARCHAR +){{< /code-block >}} +
+
+dd.metric_scalar(
+    query varchar
+    reducer varchar [, from_timestamp timestamp, to_timestamp timestamp]
+)
+
Devuelve datos de métricas como un valor escalar. La función acepta una consulta de métricas (con agrupación opcional), un reductor para determinar cómo se agregan los valores (medio, máx, etc.) y parámetros opcionales de fecha y hora (por defecto 1 hora) para definir el intervalo de tiempo. + {{< code-block lang="sql" >}} +SELECT * +FROM dd.metric_scalar( + 'avg:system.cpu.user{*} by {service}', + 'avg', + TIMESTAMP '2025-07-10 00:00:00.000-04:00', + TIMESTAMP '2025-07-17 00:00:00.000-04:00' +) +ORDER BY value DESC;{{< /code-block >}} +
+ + + + + +## Etiquetas + +DDSQL expone etiquetas como un tipo `hstore`, inspirado en PostgreSQL. Puedes acceder a los valores de determinadas claves de etiqueta utilizando el operador de flecha de PostgreSQL. Por ejemplo: + +```sql +SELECT instance_type, count(instance_type) +FROM aws.ec2_instance +WHERE tags->'region' = 'us-east-1' -- region is a tag, not a column +GROUP BY instance_type +``` + +Las etiquetas son pares clave-valor en los que cada clave puede tener cero, uno o varios valores de etiqueta correspondientes. Cuando se accede al valor de la etiqueta, se devuelve una única cadena que contiene _todos_ los valores correspondientes. Cuando los datos tienen varios valores de etiqueta para la misma clave de etiqueta, se representan como una cadena ordenada y separada por comas. Por ejemplo: + +```sql +SELECT tags->'team', instance_type, architecture, COUNT(*) as instance_count +FROM aws.ec2_instance +WHERE tags->'team' = 'compute_provisioning,database_ops' +GROUP BY tags->'team', instance_type, architecture +ORDER BY instance_count DESC +``` + +También puedes comparar valores de etiquetas como cadenas o conjuntos completos de etiquetas: + +```sql +SELECT * +FROM k8s.daemonsets da INNER JOIN k8s.deployments de +ON da.tags = de.tags -- for a specific tag: da.tags->'app' = de.tags->'app' +``` + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/notebooks/advanced_analysis +[2]: https://www.postgresql.org/docs/current/functions-window.html +[3]: https://www.postgresql.org/docs/current/functions-json.html +[4]: /es/ddsql_editor/ +[5]: https://unicode-org.github.io/icu/userguide/strings/regexp.html#regular-expression-metacharacters +[6]: https://unicode-org.github.io/icu/userguide/strings/regexp.html#regular-expression-operators +[7]: https://unicode-org.github.io/icu/userguide/strings/regexp.html#set-expressions-character-classes +[8]: https://unicode-org.github.io/icu/userguide/strings/regexp.html#flag-options +[9]: https://unicode-org.github.io/icu/userguide/strings/regexp.html#find-and-replace \ No newline at end of file diff --git a/content/es/developers/dogstatsd/unix_socket.md b/content/es/developers/dogstatsd/unix_socket.md index 6adde3c63cd69..d265b20d9af6f 100644 --- a/content/es/developers/dogstatsd/unix_socket.md +++ b/content/es/developers/dogstatsd/unix_socket.md @@ -38,7 +38,7 @@ Para habilitar el UDS del DogStatsD del Agent: {{< tabs >}} {{% tab "Host" %}} -
Nota: El script de instalación del Agent crea el archivo de socket con los permisos correctos, y use_dogstatsd: true y dogstatsd_socket: "/var/run/datadog/dsd.socket" se establecen por defecto.
+
El script de instalación del Agent crea automáticamente el archivo de socket con los permisos correctos, y use_dogstatsd: true y dogstatsd_socket: "/var/run/datadog/dsd.socket" están configurados por defecto.
1. Crea un archivo de socket para que DogStatsD lo utilice como socket de escucha. Por ejemplo: ```shell diff --git a/content/es/getting_started/feature_flags/_index.md b/content/es/getting_started/feature_flags/_index.md new file mode 100644 index 0000000000000..1a34564e27f2d --- /dev/null +++ b/content/es/getting_started/feature_flags/_index.md @@ -0,0 +1,139 @@ +--- +description: Gestiona la entrega de funciones con capacidad de observación integrada, + métricas en tiempo real y lanzamientos graduales compatibles con OpenFeature. +further_reading: +- link: https://openfeature.dev/docs/reference/technologies/client/web/ + tag: Sitio externo + text: Documentación del kit de desarrollo de software (SDK) de OpenFeature Web +- link: https://www.datadoghq.com/blog/feature-flags/ + tag: Blog + text: Envía funciones de forma más rápida y segura con Datadog Feature Flags +site_support_id: getting_started_feature_flags +title: Empezando con los Feature Flags +--- + +{{< callout url="http://datadoghq.com/product-preview/feature-flags/" >}} +Feature Flags está en vista previa. Completa el formulario para solicitar acceso. +{{< /callout >}} + +## Información general + +Los marcadores de funciones de Datadog ofrecen una forma potente e integrada de gestionar la entrega de funciones, con capacidad de observación incorporada y una integración perfecta en toda la plataforma. + +* **Métricas en tiempo real:** Conoce quién recibe cada variante y la manera en que tu marcador afecta al estado y al rendimiento de tu aplicación, todo en tiempo real. + +* **Admite cualquier tipo de datos:** Utiliza booleanos, cadenas, números u objetos completos de JSON, el que necesite tu uso en case (incidencia). + +* **Creado para la experimentación:** Dirígete a audiencias específicas para tests A/B, lanza funciones gradualmente con versiones canarias y retrocede automáticamente cuando se detecten regresiones. + +* **Compatible con OpenFeature:** Se basa en la norma de OpenFeature, lo que garantiza la compatibilidad con las implementaciones existentes de OpenFeature y proporciona un enfoque independiente del proveedor para la gestión de marcadores de funciones. + +## Configura tus entornos + +Es probable que tu organización ya disponga de entornos preconfigurados para Desarrollo, Escenificación y Producción. Si necesitas configurar estos u otros entornos, ve a la page (página) [**Entornos**][3] para crear consultas de etiquetas para cada entorno. También puedes identificar qué entorno debe considerarse como entorno de Producción. + +{{< img src="getting_started/feature_flags/environments-list.png" alt="Lista de entornos" style="width:100%;" >}} + +## Crea tu primer marcador de funciones + +### Step (UI) / paso (generic) 1: Importar e inicializar el kit de desarrollo de software (SDK) + +En primer lugar, instala `@datadog/openfeature-browser`, `@openfeature/web-sdk`, y `@openfeature/core` como dependencias en tu project (proyecto): + + +``` +yarn add @datadog/openfeature-browser@preview @openfeature/web-sdk @openfeature/core +``` + +A continuación, añade lo siguiente a tu project (proyecto) para inicializar el kit de desarrollo de software (SDK): + +```js +import { DatadogProvider } from '@datadog/openfeature-browser'; +import { OpenFeature } from '@openfeature/web-sdk'; + +// Initialize the provider +const provider = new DatadogProvider({ + clientToken: '', + applicationId: '', + enableExposureLogging: true, + site: 'datadoghq.com', + env: '', // Same environment normally passed to the RUM SDK + service: '', + version: '1.0.0', +}); + +// Set the provider +await OpenFeature.setProviderAndWait(provider); +``` + +Puedes encontrar más información sobre las opciones de configuración del kit de desarrollo de software (SDK) de OpenFeature en tu [documentación][1]. Para obtener más información sobre la creación de tokens del cliente e identificadores de la aplicación, consulta [Claves de API y de aplicaciones][4]. + +### Ptep (UI) / paso (generic) 2: Crear un marcador de función + +Utiliza la [interfaz de usuario de creación de marcadores de funciones][2] para arrancar tu primer marcador de función. En forma predeterminada, el marcador está desactivado en todos los entornos. + +### Step (UI) / paso (generic) 3: Evaluar el marcador y escribir el código de la función + +En el código de tu aplicación, utiliza el kit de desarrollo de software (SDK) para evaluar el marcador y la puerta de la nueva función. + +```js +import { OpenFeature } from '@openfeature/web-sdk'; + +const client = OpenFeature.getClient(); + +// If applicable, set relevant attributes on the client's global context +// (e.g. org id, user email) +await OpenFeature.setContext({ + org: { id: 2 }, + user: { id: 'user-123', email: 'user@example.com' }, + targetingKey: 'user-123', +}); + +// This is what the SDK returns if the flag is disabled in +// the current environment +const fallback = false; + +const showFeature = await client.getBooleanValue('show-new-feature', fallback); +if (showFeature) { + // Feature code here +} +``` + +Una vez que hayas finalizado este step (UI) / paso (generic), vuelve a desplegar la aplicación para recoger estos cambios. Puedes encontrar más ejemplos de uso en la [documentación][1] del kit de desarrollo de software (SDK). + +### Step (UI) / paso (generic) 4: Definir las reglas de selección y activar el marcador de función + +Ahora que la aplicación está lista para check el valor de su marcador, puedes empezar a añadir reglas de orientación. Las reglas de orientación te permiten definir dónde o a quién servir diferentes variantes de tu función. + +Ve a **Feature Flags**, selecciona tu marcador y busca la sección **Targeting Rules & Rollouts** (Reglas de oriengación y lanzamientos. Selecciona el entorno cuyas reglas deseas modificar y haz clic en **Edit Targeting Rules** (Editar reglas de orientación). + +{{< img src="getting_started/feature_flags/ff-targeting-rules-and-rollouts.png" alt="Reglas de orientación y lanzamientos" style="width:100%;" >}} + +### Ptep (UI) / paso (generic) 5: Publicar las normas en tus entornos + +Tras guardar los cambios en las reglas de orientación, publícalas activando tu marcador en el entorno que desees. + +
+Como práctica general, los cambios deben implementarse en un entorno de pruebas antes de implementarlos en producción. +
+ +En la sección **Reglas de orientación y lanzamientos**, cambia el entorno seleccionado a **Activado**. + +{{< img src="getting_started/feature_flags/publish-targeting-rules.png" alt="Publicar reglas de orientación" style="width:100%;" >}} + +El marcador sirve tus reglas de orientación en este entorno. Puedes seguir editando estas reglas de orientación para controlar dónde se sirven las variantes. + +### Step (UI) / paso (generic) 6: Monitorizar tu despliegue + +Monitoriza el despliegue de la función desde la page (página) de detalles del marcador de función, en que se proporciona un rastreo de la exposición en tiempo real y métricas como **la tasa de errores** y **el tiempo de carga de la page (página) **. A medida que vayas lanzando la función con el marcador, consulta el panel **Real-Time Metric Overview** (Información general de métricas en tiempo real) de la interfaz de usuario de Datadog para ver cómo afecta la función al rendimiento de la aplicación. + +{{< img src="getting_started/feature_flags/real-time-flag-metrics.png" alt="Panel de métricas de marcadores en tiempo real" style="width:100%;" >}} + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://openfeature.dev/docs/reference/technologies/client/web/ +[2]: https://app.datadoghq.com/feature-flags/create +[3]: https://app.datadoghq.com/feature-flags/environments +[4]: https://docs.datadoghq.com/es/account_management/api-app-keys/#client-tokens \ No newline at end of file diff --git a/content/es/getting_started/learning_center.md b/content/es/getting_started/learning_center.md index 11e466530a856..a88303a173aa0 100644 --- a/content/es/getting_started/learning_center.md +++ b/content/es/getting_started/learning_center.md @@ -36,6 +36,8 @@ aliases: - /es/videos/apm - /es/videos/aws - /es/videos/host-map +description: Accede a cursos prácticos y tutoriales para conocer las funciones de + la plataforma Datadog, las prácticas recomendadas y las estrategias de implementación. title: Centro de aprendizaje de Datadog --- diff --git a/content/es/getting_started/serverless/_index.md b/content/es/getting_started/serverless/_index.md index 786255008953f..234652ce5ffb5 100644 --- a/content/es/getting_started/serverless/_index.md +++ b/content/es/getting_started/serverless/_index.md @@ -1,8 +1,10 @@ --- +description: Monitoriza aplicaciones sin servidor con métricas, trazas y logs de Lambda + mejorados para solucionar problemas de rendimiento y errores. further_reading: -- link: /agent/basic_agent_usage/ +- link: agent/ tag: Documentación - text: Uso básico del Agent + text: El Datadog Agent - link: https://dtdg.co/fe tag: Habilitar los fundamentos text: Participa en una sesión interactiva para saber más sobre monitorización serverless. diff --git a/content/es/getting_started/synthetics/_index.md b/content/es/getting_started/synthetics/_index.md index a22da5fa2740b..f46683e148f10 100644 --- a/content/es/getting_started/synthetics/_index.md +++ b/content/es/getting_started/synthetics/_index.md @@ -2,16 +2,21 @@ algolia: tags: - synthetics +description: Monitoriza el rendimiento del sistema con solicitudes simuladas de API, + navegador y tests móviles en ubicaciones globales. further_reading: -- link: https://learn.datadoghq.com/courses/intro-to-synthetic-tests +- link: https://learn.datadoghq.com/courses/getting-started-with-synthetic-browser-testing tag: Centro de aprendizaje - text: Introducción a los tests Synthetic + text: Primeros pasos con Synthetic Monitoring Browser Testing - link: /synthetics/api_tests tag: Documentación text: Más información sobre los tests de API - link: /synthetics/multistep tag: Documentación text: Más información sobre los tests de API multipaso +- link: /synthetics/mobile_app_testing + tag: Documentación + text: Más información sobre tests de móviles - link: /synthetics/browser_tests tag: Documentación text: Más información sobre los tests de navegador @@ -20,12 +25,12 @@ further_reading: text: Más información sobre las localizaciones privadas - link: /continuous_testing/cicd_integrations tag: Documentación - text: Más información sobre los tests Synthetic en el pipeline de integración continua - (CI) + text: Más información sobre los tests Synthetic en la canalización de integración + continua (CI) - link: https://dtdg.co/fe - tag: Habilitar los fundamentos - text: Participa en una sesión interactiva para mejorar tus capacidades de synthetic - testing + tag: Habilitación de los fundamentos + text: Participa en una sesión interactiva para mejorar tus capacidades de ejecutar + tests synthetic title: Empezando con la monitorización Synthetic --- @@ -37,9 +42,9 @@ Las pruebas Synthetic te permiten observar el rendimiento de tus sistemas y apli ## Tipos de tests Synthetic -Datadog ofrece **tests de API**, **tests de API multipaso** y **tests de navegador**. +Datadog ofrece **tests de API**, **tests de API multipaso**, **tests de navegador** y **tests de móviles**. -Para monitorizar aplicaciones internas, lleva a cabo tus tests desde localizaciones gestionadas o privadas. Los tests Synthetic pueden activarse manualmente, de manera programada o directamente desde tus pipelines de integración/distribución continuas (CI/CD). +Para monitorizar aplicaciones internas, ejecute tus tests desde localizaciones gestionadas o privadas. Los tests Synthetic se pueden activar manualmente, en un horario, o [directamente desde tus pipelines CI/CD][7]. ## Requisitos previos @@ -52,9 +57,32 @@ Para configurar tu primer test Synthetic con Datadog, elige alguna de las siguie - [Crea un test de API][2] para empezar a monitorizar el tiempo de actividad de los endpoints de tu API. - [Crea un test de API multipaso][3] para vincular varias solicitudes HTTP y empezar a monitorizar flujos de trabajo clave en la API. - [Crea un test de navegador][4] para empezar a testar transacciones empresariales críticas en tus aplicaciones. +- [Crea un test de móvil][6] para empezar a probar flujos de trabajo empresariales clave en tus aplicaciones Android e iOS. - [Crea una localización privada][5] para empezar a monitorizar aplicaciones internas con todos los tipos de tests Synthetic. -## Leer más +## Notificaciones de Synthetic Monitoring + +Utiliza y mejora los monitores de Synthetic para enviar notificaciones cuando un test de Synthetic Monitoring esté fallando. Están disponibles los siguientes casos de uso: + +Mensajes de monitor prerellenados +: los mensajes de monitor prerellenados proporcionan un punto de partida estructurado para las alertas de Synthetic test. Cada mensaje incluye un título normalizado, un resumen y un pie de página con metadatos de test, lo que facilita la comprensión de la alerta de un vistazo. + +Variables de plantilla +: las variables de plantilla permiten inyectar datos específicos de test en las notificaciones de monitor de forma dinámica. Estas variables se extraen del objeto `synthetics.attributes`. + +Uso avanzado +: el uso avanzado incluye técnicas para profundizar en el test o estructurar mensajes complejos utilizando plantillas de identificadores. + +Alerta condicional +: las alertas condicionales te permiten cambiar el contenido de una notificación de monitor en función de resultados específicos de test o de condiciones de fallo. + +Para más información, consulta [notificaciones de Synthetic Monitoring][9]. + +## Historial de versiones + +Utiliza [Historial de versiones en Synthetic Monitoring][8] para ejecutar una versión anterior de un test, restaurar tu test a cualquier versión guardada o clonar una versión para crear un nuevo test de Synthetic Monitoring. + +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} @@ -62,4 +90,8 @@ Para configurar tu primer test Synthetic con Datadog, elige alguna de las siguie [2]: /es/getting_started/synthetics/api_test/ [3]: /es/getting_started/synthetics/api_test/#create-a-multistep-api-test [4]: /es/getting_started/synthetics/browser_test/ -[5]: /es/getting_started/synthetics/private_location/ \ No newline at end of file +[5]: /es/getting_started/synthetics/private_location/ +[6]: /es/getting_started/synthetics/mobile_app_testing/ +[7]: /es/getting_started/continuous_testing/ +[8]: /es/synthetics/guide/version_history/ +[9]: /es/synthetics/notifications/ \ No newline at end of file diff --git a/content/es/getting_started/synthetics/private_location.md b/content/es/getting_started/synthetics/private_location.md index 4860c9d35ceac..fc5666c0f0e68 100644 --- a/content/es/getting_started/synthetics/private_location.md +++ b/content/es/getting_started/synthetics/private_location.md @@ -1,17 +1,17 @@ --- +description: Configura localizaciones privadas para monitorizar aplicaciones internas + y URL privadas. Crea localizaciones personalizadas para áreas de misión crítica + y entornos de pruebas internos. further_reading: - link: https://www.datadoghq.com/blog/synthetic-private-location-monitoring-datadog/ tag: Blog text: Monitoriza tus localizaciones privadas Synthetic con Datadog -- link: /getting_started/synthetics/api_test - tag: Documentación - text: Crea tu primer test de API -- link: /getting_started/synthetics/browser_test - tag: Documentación - text: Crea tu primer test de navegador - link: /synthetics/private_locations tag: Documentación text: Más información sobre las localizaciones privadas +- link: /synthetics/guide/kerberos-authentication/ + tag: Guía + text: Autenticación Kerberos para la monitorización Synthetic title: Empezando con las localizaciones privadas --- @@ -19,13 +19,14 @@ title: Empezando con las localizaciones privadas Las localizaciones privadas te permiten **monitorizar aplicaciones internas** o direcciones URL privadas que no son accesibles a través de la red pública de Internet. -{{< img src="synthetics/private_locations/private_locations_worker_1.png" alt="Diagrama de arquitectura que muestra cómo funciona una localización privada durante la monitorización de Synthetic" style="width:100%;">}} +{{< img src="synthetics/private_locations/private_locations_worker_1.png" alt="Diagrama de arquitectura que muestra cómo funciona una localización privada durante la monitorización Synthetic" style="width:100%;">}} También puedes utilizar las localizaciones privadas para: - **Crear localizaciones personalizadas** en áreas consideradas críticas para el desarrollo de tu negocio. - **Verificar el rendimiento de la aplicación en tu entorno de testeo interno** antes de lanzar nuevas funciones a la fase de producción con [tests Synthetic en tus pipelines de integración/distribución continuas (CI/CD)][1]. - **Comparar el rendimiento de la aplicación** desde dentro y fuera de tu red interna. +- **[Autenticar tests de monitorización Synthetic utilizando el inicio de sesión único de Kerberos][16]** para sitios y API internos basados en Windows. Las localizaciones privadas son contenedores Docker o servicios Windows que puedes instalar en cualquier lugar dentro de tu red privada. Busca la imagen Docker en [Google Container Registry][2] o descarga el [instalador de Windows][13].**\*** @@ -87,10 +88,10 @@ Los resultados de los tests de las localizaciones privadas se muestran de forma ## Ejecuta tests Synthetic con tu localización privada -Utiliza tu nueva localización privada como si fuese una localización gestionada en tus test de Synthetic. +Utiliza tu nueva localización privada como si fuese una localización gestionada en tus tests Synthetic. 1. Crea un [test de API][2], un [test de API multipaso][8] o un [test de navegador][9] en cualquier endpoint interno o aplicación que quieras monitorizar. -2. En la sección **Private Locations**, selecciona tu nueva localización privada: +2. En la sección **Private Locations** (Localizaciones privadas), selecciona tu nueva localización privada: {{< img src="synthetics/private_locations/assign-test-pl-2.png" alt="Asignar un test Synthetic a una localización privada" style="width:100%;">}} @@ -116,4 +117,5 @@ Utiliza tu nueva localización privada como si fuese una localización gestionad [12]: /es/synthetics/private_locations?tab=windows#install-your-private-location [13]: https://ddsynthetics-windows.s3.amazonaws.com/datadog-synthetics-worker-{{< synthetics-worker-version "synthetics-windows-pl" >}}.amd64.msi [14]: https://www.datadoghq.com/legal/eula/ -[15]: https://www.datadoghq.com/support/ \ No newline at end of file +[15]: https://www.datadoghq.com/support/ +[16]: /es/synthetics/guide/kerberos-authentication/ \ No newline at end of file diff --git a/content/es/getting_started/tagging/_index.md b/content/es/getting_started/tagging/_index.md index 1e41c66bfe544..04da88be4c309 100644 --- a/content/es/getting_started/tagging/_index.md +++ b/content/es/getting_started/tagging/_index.md @@ -1,4 +1,7 @@ --- +algolia: + tags: + - etiquetado aliases: - /es/getting_started/getting_started_with_tags - /es/guides/getting_started/tagging/ @@ -27,7 +30,12 @@ title: Empezando con las etiquetas (tags) Las etiquetas son una forma de añadir dimensiones a las telemetrías de Datadog para que puedan filtrarse, agregarse y compararse en las visualizaciones de Datadog. [Usar etiquetas][1] te permite observar el rendimiento conjunto en varios hosts y, de manera opcional, reducir ese conjunto en función de ciertos elementos. En resumen, el etiquetado es un método para observar puntos de datos de manera conjunta. -El etiquetado vincula distintos tipos de datos en Datadog, lo cual hace posible la correlación y la llamada a la acción entre métricas, trazas y logs. Esto se logra con claves de etiquetas **reservadas**. +Las etiquetas son pares `key:value` que contienen dos partes: + +- La clave de etiqueta es el identificador. La clave de etiqueta sólo puede existir una vez en cada recurso y distingue entre mayúsculas y minúsculas. +- El valor de etiqueta son los datos específicos o la información asociada a la clave. Los valores de etiqueta no son únicos por recurso y pueden utilizarse en muchos recursos en un par `key-value`. + +El etiquetado vincula distintos tipos de datos en Datadog, lo que permite la correlación y las llamadas a la acción entre métricas, trazas (traces) y logs. Esto se consigue con claves de etiqueta **reservadas**: | Clave de etiqueta | Qué permite | | --------- | --------------------------------------------------------------------- | @@ -37,6 +45,7 @@ El etiquetado vincula distintos tipos de datos en Datadog, lo cual hace posible | `service` | Control sobre datos específicos de la aplicación en métricas, trazas y logs. | | `env` | Control sobre datos específicos de la aplicación en métricas, trazas y logs. | | `version` | Control sobre datos específicos de la aplicación en métricas, trazas y logs. | +| `team` | Asignar una propiedad a cualquier recurso | Datadog recomienda analizar los contenedores, las máquinas virtuales y la infraestructura en la nube de forma conjunta a nivel de `service`. Por ejemplo, puedes observar el uso de la CPU en una serie de hosts que represente un servicio, en lugar del uso de la CPU para el servidor A o B por separado. @@ -57,7 +66,7 @@ Estos son los requisitos de etiquetado de Datadog: Los demás caracteres especiales se convertirán en guiones bajos. -2. Las etiquetas (tags) pueden tener **hasta 200 caracteres** y admiten letras Unicode (que incluyen la mayoría de conjuntos de caracteres, incluidos idiomas como el japonés). +2. Las etiquetas pueden tener **hasta 200 caracteres** y admiten letras Unicode (que incluyen la mayoría de conjuntos de caracteres, incluidos idiomas como el japonés). 3. Las etiquetas se cambiarán a minúsculas. Por tanto, no se recomiendan las etiquetas `CamelCase`. Las integraciones basadas en (un rastreador de) autenticación convierten ese tipo de ortografía en guiones bajos. Ejemplo: `TestTag` --> `test_tag`. 4. Una etiqueta puede estar en formato `value` o `:`. Las claves de etiquetas más utilizadas son `env`, `instance` y `name`. La clave siempre precede a los primeros dos puntos de la definición de la etiqueta global. Ejemplo: @@ -67,7 +76,7 @@ Estos son los requisitos de etiquetado de Datadog: | `env_staging:east` | `env_staging` | `east` | 5. Las etiquetas no deben originarse en fuentes sin enlazar, como marcas de tiempo epoch, ID de usuario o ID de solicitud. De ser así, [la cantidad de métricas podría aumentar][2] infinitamente en tu organización y afectar a tu facturación. -6. Las limitaciones (como el cambio a minúsculas) solo se aplican a las etiquetas de métricas, no a los atributos de logs ni a las span tagss. +6. Las limitaciones (como el cambio a minúsculas) solo se aplican a las etiquetas de métricas, no a los atributos de logs ni a las etiquetas de tramos. ## Asignación de etiquetas @@ -82,36 +91,55 @@ Las etiquetas se pueden asignar con cualquiera de los siguientes métodos o con | [API][5] | Al usar la API de Datadog. | | [DogStatsD][6] | Al enviar métricas con DogStatsD. | -Para más información, consulta la sección [Asignar etiquetas (tags)][7]. +Para más información, consulta la sección [Asignar etiquetas][7]. + #### Etiquetado de servicios unificado Datadog recomienda utilizar el etiquetado de servicios unificado al asignar etiquetas. Este sistema asocia toda la telemetría de Datadog mediante el uso de tres etiquetas estándar: `env`, `service` y `version`. Para saber cómo configurar tu entorno con el etiquetado unificado, consulta la sección [Etiquetado de servicios unificado][8]. +### Herencia de etiquetas + +Todas las métricas, logs, trazas e integraciones pasan por un proceso de herencia de `host-tag` a medida que los datos se introducen en Datadog. Dado que los datos están asociados a un nombre de host determinado, esos componentes heredan todas las etiquetas `host-level` asociadas a ese host. Estas etiquetas son visibles en la [lista de infraestructura][12] de un host determinado, y proceden del proveedor de la nube o del Datadog Agent. Consulta [las etiquetas `host-level` faltantes en nuevos hosts o nodos][25] para más información. + +### Precedencia de las etiquetas + +El Datadog Agent **no** impone un orden de precedencia para las etiquetas establecidas a partir de diferentes fuentes. En su lugar, el Agent recopila todas las etiquetas de cada fuente disponible, almacena cada valor único para una clave de etiqueta determinada y los emite todos con la telemetría. + +Esto significa que una misma clave de etiqueta puede tener varios valores si está configurada de forma diferente en las distintas fuentes. Por ejemplo, si la etiqueta `service` se establece como `payments` en una variable de entorno, `checkout` en el YAML Agent y `orders` en una configuración de cliente de rastreo, la telemetría para ese servicio podría incluir: + +``` +service:payments +service:checkout +service:orders +``` + +Los filtros o dashboards descendentes deben filtrar explícitamente el valor deseado si solo se espera uno. + ## Utilización -Cuando tengas las [etiquetas asignadas][7] en el host y la [integración][9], empieza a usarlas para filtrar y agrupar tus métricas, trazas y logs. Las etiquetas se utilizan en las siguientes áreas de tu plataforma Datadog. +Después de haber [asignado etiquetas][7] a nivel de host e [integración][9], comienza a utilizarlas para filtrar y agrupar tus métricas, trazas y logs. Las etiquetas se utilizan en las siguientes áreas de tu plataforma Datadog. | Área | Uso de las etiquetas para | | -------------------- | ------------------------------------------------------------------------------------------------ | | [Events (Eventos)][10] | Filtrar el flujo de eventos. | | [Dashboards][11] | Filtrar y agrupar métricas en gráficos. | -| [Infrastructure (Infraestructura)][12] | Filtrar y agrupar en el mapa del host, la lista de infraestructuras, los Live Containers y las visualizaciones de Live Processes. | -| [Monitors (Monitores)][13] | Crear y gestionar monitores, o controlar caídas del sistema. | -| [Metrics (Métricas)][14] | Filtrar y agrupar en el navegador de métricas. | -| [Integrations (Integraciones)][15] | Limitar opcionalmente las métricas de AWS, Google Cloud y Azure. | +| [Infrastructura][12] | Filtrar y agrupar en el mapa del host, la lista de infraestructuras, los Live Containers y las visualizaciones de Live Processes. | +| [Monitores][13] | Crear y gestionar monitores, o controlar caídas del sistema. | +| [Métricas][14] | Filtrar y agrupar en el navegador de métricas. | +| [Integraciones][15] | Limitar opcionalmente las métricas de AWS, Google Cloud y Azure. | | [APM][16] | Filtrar servicios, trazas y perfiles, o navegar a otras áreas con el Mapa de servicios. | | [RUM y Session Replay][17] | Filtrar la búsqueda de eventos, análisis, patrones, reproducciones y problemas en el navegador RUM. | -| [Monitorización y pruebas continuas de Synthetic][18] | Filtra y agrupa las pruebas de Synthetic o las pruebas que se ejecutan en los pipelines CI con el explorador de monitorización y pruebas continuas de Synthetic. | +| [Monitorización Synthetic y tests continuos][18] | Filtra y agrupa los tests Synthetic o aquellos que se ejecutan en pipelines CI con el Explorador de monitorización Synthetic y de resultados de tests. | | [Notebooks][19] | Filtrar y agrupar métricas en gráficos. | | [Logs][20] | Filtrar la búsqueda de logs, análisis, patrones, Live Tail y pipelines. | | [SLOs][21] | Buscar SLOs, SLOs basados en métricas agrupadas y SLOs basados en monitores agrupados. | -| [Developers (Desarrolladores)][22] | Obtener información o configurar distintas áreas en la IU con la API. | -| [Billing (Facturación)][23] | Generar informes sobre el uso de Datadog eligiendo hasta tres etiquetas, por ejemplo: `env`, `team` y `account_id`. | -| [Visibilidad CI][24] | Filtra y agrupa ejecuciones de pruebas o pipelines con el explorador de visibilidad CI. | +| [Desarrolladores][22] | Obtener información o configurar distintas áreas en la IU con la API. | +| [Facturación][23] | Generar informes sobre el uso de Datadog eligiendo hasta tres etiquetas, por ejemplo: `env`, `team` y `account_id`. | +| [CI Visibility][24] | Filtra y agrupa ejecuciones de pruebas o pipelines con el explorador de visibilidad CI. | -Para más información, consulta la sección [Usar etiquetas][1]. +Para obtener más información, consulta la sección [Uso de etiquetas][1]. -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} @@ -139,3 +167,4 @@ Para más información, consulta la sección [Usar etiquetas][1]. [22]: /es/getting_started/tagging/using_tags/#developers [23]: /es/account_management/billing/usage_attribution/ [24]: /es/getting_started/tagging/using_tags/#ci-visibility +[25]: /es/containers/kubernetes/log/?tab=datadogoperator#missing-host-level-tags-on-new-hosts-or-nodes \ No newline at end of file diff --git a/content/es/getting_started/tagging/unified_service_tagging.md b/content/es/getting_started/tagging/unified_service_tagging.md index 67ad445f8324c..339b2c9dbd697 100644 --- a/content/es/getting_started/tagging/unified_service_tagging.md +++ b/content/es/getting_started/tagging/unified_service_tagging.md @@ -5,6 +5,9 @@ algolia: - unificado - servicio unificado - etiquetas (tags) de servicios +description: Conecta la telemetría a través de trazas, métricas y logs utilizando + etiquetas estandarizadas de entorno, servicio y versión para una monitorización + coherente. further_reading: - link: /getting_started/tagging/using_tags tag: Documentación @@ -45,7 +48,7 @@ Estas tres etiquetas (tags) te permiten: | Lenguaje | Versión mínima del rastreador | |--------------|------------| -| .NET | 1.17.0 o posterior | +| .NET | 1.17.0+ | | C++ | v0.1.0 o posterior | | Go | 1.24.0 o posterior | | Java | 0.50.0 o posterior | @@ -131,7 +134,7 @@ También puedes utilizar las variables de atributos de recursos de OpenTelemetry - name: OTEL_SERVICE_NAME value: "" ``` -
Nota: La variable de entorno OTEL_SERVICE_NAME tiene prioridad sobre el atributo service.name de la variable de entorno OTEL_RESOURCE_ATTRIBUTES.
+
La variable de entorno OTEL_SERVICE_NAME tiene prioridad sobre el atributo service.name de la variable de entorno OTEL_RESOURCE_ATTRIBUTES.
##### Configuración parcial @@ -210,7 +213,7 @@ containers: Puedes utilizar la etiqueta (tag) `version` en APM para [monitorizar despliegues][7] e identificar despliegues de código fallidos mediante la [detección automática de despliegues fallidos][8]. -Para los datos de APM, Datadog configura la etiqueta (tag) `version` en el siguiente orden de prioridad. Si configuras `version` manualmente, Datadog no anula su valor `version`. +Para datos de APM, Datadog configura la etiqueta (tag) `version` en el siguiente orden de prioridad. Si configuras `version` manualmente, Datadog no anula su valor `version`. | Prioridad | Valor de versión | |--------------|------------| @@ -287,7 +290,7 @@ Como se explica en la configuración completa, estas etiquetas (labels) se puede Puedes utilizar la etiqueta (tag) `version` en APM para [monitorizar despliegues][1] e identificar despliegues de código fallidos mediante la [detección automática de despliegues fallidos][2]. -Para los datos de APM, Datadog configura la etiqueta (tag) `version` en el siguiente orden de prioridad. Si configuras `version` manualmente, Datadog no anula su valor `version`. +Para datos de APM, Datadog configura la etiqueta (tag) `version` en el siguiente orden de prioridad. Si configuras `version` manualmente, Datadog no anula su valor `version`. | Prioridad | Valor de versión | |--------------|------------| @@ -310,7 +313,7 @@ Requisitos: {{% tab "ECS" %}}
-En ECS Fargate que utiliza Fluent Bit o FireLens, el etiquetado de servicios unificado sólo está disponible para métricas y trazas, no para la recopilación de logs. +En ECS Fargate con Fluent Bit o FireLens, el etiquetado de servicios unificado solo está disponible para métricas y trazas, no para la recopilación de logs.
##### Configuración completa @@ -339,6 +342,9 @@ Configura las variables de entorno `DD_ENV`, `DD_SERVICE` y `DD_VERSION` (con el "com.datadoghq.tags.version": "" } ``` +
+En ECS Fargate, debes añadir estas etiquetas a tu contenedor de aplicaciones, no al contenedor del Datadog Agent. +
##### Configuración parcial @@ -407,14 +413,14 @@ Para crear un único punto de configuración de toda la telemetría emitida dire [1]: /es/tracing/setup/ [2]: /es/developers/dogstatsd/ -{{% /tab %}} + {{% /tab %}} {{% tab "Logs" %}} Si utilizas [trazas y logs conectados][1], activa la introducción automática de logs siempre que tu rastreador de APM lo permita. De esta forma, el rastreador de APM introducirá automáticamente `env`, `service` y `version` en tus logs, lo que significa que no tendrás que configurar esos campos manualmente en otros lugares. [1]: /es/tracing/other_telemetry/connect_logs_and_traces/ -{{% /tab %}} + {{% /tab %}} {{% tab "RUM y Session Replay" %}} @@ -423,9 +429,9 @@ Si utilizas [RUM y trazas conectados][1], especifica la aplicación de navegador Cuando [crees una aplicación de RUM][2], confirma los nombres de `env` y `service`. -[1]: /es/real_user_monitoring/platform/connect_rum_and_traces/ -[2]: /es/real_user_monitoring/browser/setup -{{% /tab %}} +[1]: /es/real_user_monitoring/correlate_with_other_telemetry/apm/ +[2]: /es/real_user_monitoring/browser/setup/ + {{% /tab %}} {{% tab "Synthetics" %}} @@ -435,7 +441,7 @@ Si utilizas [trazas y tests conectados del navegador Synthetic][1], especifica u [1]: /es/synthetics/apm/ [2]: https://app.datadoghq.com/synthetics/settings/integrations -{{% /tab %}} + {{% /tab %}} {{% tab "Métricas personalizadas" %}} @@ -446,7 +452,7 @@ Si tu servicio tiene acceso a `DD_ENV`, `DD_SERVICE` y `DD_VERSION`, el cliente **Nota**: Los clientes DogStatsD de Datadog en .NET y PHP no admiten esta funcionalidad. [1]: /es/metrics/ -{{% /tab %}} + {{% /tab %}} {{% tab "Métricas de sistema" %}} @@ -498,7 +504,7 @@ instances: ### Entorno serverless -Para obtener más información sobre las funciones de AWS Lambda, consulta [cómo conectar tu telemetría de Lambda mediante el uso de etiquetas (tags))][15]. +Para obtener más información sobre las funciones de AWS Lambda, consulta [cómo conectar tu telemetría de Lambda mediante el uso de etiquetas (tags)][15]. ### OpenTelemetry @@ -514,10 +520,10 @@ Cuando utilices OpenTelemetry, asigna los siguientes [atributos de recursos][16] 1: `deployment.environment` queda obsoleto en favor de `deployment.environment.name` en [convenciones semánticas de OpenTelemetry v1.27.0][17]. 2: `deployment.environment.name` es compatible con el Datadog Agent v7.58.0 o posterior y con Datadog Exporter v0.110.0 o posterior. -
Algunas variables de entorno específicas de Datadog como DD_SERVICE, DD_ENV o DD_VERSION no son compatibles de forma predefinida en tu configuración de OpenTelemetry.
+
Las variables de entorno específicas de Datadog como DD_SERVICE, DD_ENV o DD_VERSION no se admiten predefinidas en la configuración de OpenTelemetry.
{{< tabs >}} -{{% tab "Variables de entorno" %}} +{{% tab "Environment variables" %}} Para definir atributos de recursos utilizando variables de entorno, configura `OTEL_RESOURCE_ATTRIBUTES` con los valores adecuados: @@ -581,7 +587,7 @@ processors: [7]: /es/agent/docker/?tab=standard#optional-collection-agents [8]: /es/getting_started/tracing/ [9]: /es/getting_started/logs/ -[10]: /es/real_user_monitoring/platform/connect_rum_and_traces/ +[10]: /es/real_user_monitoring/correlate_with_other_telemetry/apm/ [11]: /es/getting_started/synthetics/ [12]: /es/integrations/statsd/ [13]: https://www.chef.io/ diff --git a/content/es/gpu_monitoring/_index.md b/content/es/gpu_monitoring/_index.md new file mode 100644 index 0000000000000..66e2553b6e4a1 --- /dev/null +++ b/content/es/gpu_monitoring/_index.md @@ -0,0 +1,52 @@ +--- +further_reading: +- link: /gpu_monitoring/setup + tag: Documentación + text: Configurar GPU Monitoring +- link: https://www.datadoghq.com/blog/datadog-gpu-monitoring/ + tag: Blog + text: Optimiza y soluciona los problemas de la infraestructura de IA con Datadog + GPU Monitoring +private: true +title: GPU Monitoring +--- + +{{< callout url="https://www.datadoghq.com/product-preview/gpu-monitoring/" >}} +GPU Monitoring está en vista previa. Para unirse a la vista previa, haz clic en Solicitar acceso y completa el formulario. +{{< /callout >}} + +## Información general +[GPU Monitoring][1] de Datadog proporciona una visión centralizada del estado, costo y rendimiento de la flota de GPU. GPU Monitoring permite a los equipos tomar mejores decisiones de aprovisionamiento, solucionar problemas de cargas de trabajo fallidas y eliminar costos de GPU inactiva sin tener que configurar manualmente herramientas de proveedores individuales (como DCGM de NVIDIA). Puedes acceder a la información de tu flota de GPU mediante el despliegue del Datadog Agent. + +Para obtener instrucciones de configuración, consulta [Configurar GPU Monitoring][2]. + +### Tomar decisiones de asignación y aprovisionamiento de GPU basadas en datos +Gracias a la visibilidad de la utilización de la GPU por el host, nodo o pod, es posible identificar los puntos conflictivos o la subutilización de la costosa infraestructura de GPU. + +{{< img src="gpu_monitoring/funnel-2.png" alt="Visualización del embudo titulada 'Tu flota de GPU de un vistazo.' Muestra dispositivos totales, asignados, activos y eficaces. Pone de relieve los núcleos de GPU subutilizados y los dispositivos inactivos." style="width:100%;" >}} + +### Solucionar cargas de trabajo fallidas debido a la contención de recursos +Conoce tu disponibilidad actual de dispositivos y prevé cuántos dispositivos se necesitan para determinados equipos o cargas de trabajo para evitar cargas de trabajo fallidas por contención de recursos. + +{{< img src="gpu_monitoring/device_allocation.png" alt="Gráficos para ayudar a visualizar la asignación de GPU. Gráfica lineal titulada 'Asignación de dispositivos en el tiempo', en la que se grafican counts de dispositivos totales/asignados/activos, incluida una previsión futura a 4 semanas. Un gráfico de anillos titulado 'Desglose de instancias de proveedores en la nube', en que se muestra el predominio de instancias de proveedores en la nube en toda la flota. Un 'Desglose por tipo de dispositivo' en que se muestran dispositivos asignados/totales para distintas GPU." style="width:100%;" >}} + +### Identificar y eliminar los costos de GPU desperdiciada e inactiva +Identifica el gasto total en infraestructura de GPU y atribuye esos costos a cargas de trabajo e instancias específicas. Correlaciona directamente el uso de la GPU con los pods o procesos relacionados. + +{{< img src="gpu_monitoring/fleet_costs.png" alt="Vista detallada de un clúster, en el que se muestra la visualización de embudo de dispositivos (totales/asignados/activos/eficaces), el costo total de la nube, el costo de la nube inactiva y la visualización y los detalles de distintas entidades conectadas (pods, procesadores, trabajos SLURM)." style="width:100%;" >}} + +### Maximizar el rendimiento del modelo y la aplicación +Con la telemetría de recursos de GPU Monitoring, puedes analizar las tendencias de los recursos y las métricas de la GPU (incluida la utilización de la GPU, la potencia y la memoria) a lo largo del tiempo, lo que te ayudará a comprender sus efectos en el rendimiento de tu modelo y tu aplicación. + +{{< img src="gpu_monitoring/device_metrics.png" alt="Vista detallada de un dispositivo, en la que se muestran visualizaciones de series temporales configurables de la actividad de SM, la utilización de la memoria, la potencia y la actividad del motor." style="width:100%;" >}} + +## ¿Estás listo para comenzar? + +Consulta [Configurar GPU Monitoring][2] para obtener instrucciones sobre cómo configurar GPU Monitoring de Datadog. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/gpu-monitoring +[2]: /es/gpu_monitoring/setup \ No newline at end of file diff --git a/content/es/infrastructure/list.md b/content/es/infrastructure/list.md index ad7cd4ee3dd05..0c4b9a52da046 100644 --- a/content/es/infrastructure/list.md +++ b/content/es/infrastructure/list.md @@ -17,7 +17,7 @@ title: Lista de infraestructuras ## Información general -La lista de infraestructuras muestra todos tus hosts con actividad durante las últimas dos horas (por defecto) y hasta una semana, monitorizados por Datadog. Busca tus hosts o agrúpalos por etiquetas (tags). En Datadog, ve a [**infraestructura > Hosts**][10] para ver la lista de infraestructuras. Esta lista no debe utilizarse para estimar tu facturación por el host de la infraestructura. Para obtener más información sobre facturación, consulta la página [Facturación][11]. +La lista de infraestructuras te ofrece un inventario en tiempo real de todos los hosts que se comunican con Datadog a través de las integraciones en el Agent o en la nube. En forma predeterminada, muestra los hosts con actividad en las últimas dos horas, pero puedes ampliar la vista para cubrir hasta una semana. Busca tus hosts o agrúpalos por etiquetas. En Datadog, ve a [**Infraestructure > Hosts**][10] (Infraestructura > Hosts) para ver la lista de infraestructuras. Esta lista no debe utilizarse para estimar la facturación de tu host de infraestructura. Consulta la page (página) de [facturación][11] para obtener más información sobre la facturación. ## Hosts @@ -47,7 +47,7 @@ Carga 15 Aplicaciones : Las integraciones de Datadog que informan métricas del host. -Sistema operativo +Sistema operativo : El sistema operativo rastreado. Plataforma en la nube @@ -74,6 +74,7 @@ Haz clic en un host para ver más detalles, incluido: - [contenedores][4] - [logs][5] (si se encuentra habilitado) - [Configuración del Agent](#agent-configuration) (si se encuentra habilitado) +- [Configuración del recopilador de OpenTelemetry](#OpenTelemetry-collector-configuration) (si está activada) {{< img src="infrastructure/index/infra-list2.png" alt="Detalles del host de la lista de infraestructuras" style="width:100%;">}} @@ -85,17 +86,26 @@ Datadog crea alias para nombres de host cuando hay varios nombres unívocos para #### Configuración del Agent -El Agent puede enviar su propia configuración a Datadog para que se muestre en la sección `Agent Configuration` del panel de detalles del host. +Puedes ver y gestionar las configuraciones del Agent en toda tu infraestructura utilizando [Fleet Automation][12]. -La configuración del Agent no incluye información confidencial y sólo contiene la configuración que has establecido mediante el archivo de configuración o las variables de entorno. Los cambios de configuración se actualizan cada 10 minutos. +Para ver las configuraciones del Agent: +1. Haz clic en **Open Host** (Abrir host) en la esquina superior derecha del panel de detalles del host. +2. Selecciona **View Agent Configurations** (Ver configuraciones del Agent) en el menú desplegable para ir directamente a Fleet Automation. -La vista de la configuración del Agent está activada en forma predeterminada en el Agent versión >= 7.47.0/6.47.0. En el Agent versiones >= 7.39/6.39, puedes activarla manualmente: +{{< img src="infrastructure/index/infra-list-config-4.png" alt="Ver configuraciones del Agent en Fleet Automation" style="width:100%;">}} -Para activar o desactivar la vista de la configuración: -- Configura el valor de `inventories_configuration_enabled` en tu [archivo de configuración del Agent][6] en `true` para activar la vista de configuración o `false` para desactivarla. -- También puedes utilizar la variable de entorno`DD_INVENTORIES_CONFIGURATION_ENABLED` para activar o desactivar la vista de configuración. +#### Configuración de OpenTelemetry Collector + +Cuando la [extensión de Datadog][14] está configurada con tu recopilador de OpenTelemetry, puedes ver la configuración del recopilador y la información de creación directamente en el panel de detalles del host de la lista de infraestructuras. La extensión de Datadog proporciona visibilidad de tu flota de recopiladores desde la interfaz de usuario de Datadog, lo que te ayuda a gestionar y depurar tus despliegues de recopiladores de OpenTelemetry. + +Para ver las configuraciones del recopilador de OpenTelemetry: +1. Haz clic en un host que ejecute el recopilador de OpenTelemetry en la lista Infraestructuras. +2. En el panel de detalles del host, selecciona la pestaña **OpenTelemetry Collector** (Recopilador de OpenTelemetry) para ver la información de creación y la configuración completa del recopilador. + +Para obtener instrucciones y requisitos de configuración detallados, como la coincidencia de nombres de host y la configuración de pipeline, consulta la [documentación principal de la extensión de Datadog][14]. + +{{< img src="infrastructure/index/infra-list-config-OpenTelemetry.png" alt="Ver configuraciones del recopilador de OpenTelemetry en la lista de infraestructuras" style="width:100%;">}} -{{< img src="infrastructure/index/infra-list-config3.png" alt="La vista de configuración del Agent" style="width:100%;">}} ### Exportar @@ -106,7 +116,7 @@ Para obtener una lista con formato JSON de tus hosts que informan a Datadog, uti #### Agent version -En ciertas ocasiones, también puede resultar útil auditar tus versiones del Agent para asegurarte de que estás ejecutando la última versión. Para ello, utiliza el [script get_host_agent_list][9], que aprovecha el enlace permanente de JSON para generar los Agents en ejecución actuales con sus números de versión. También puedes utilizar el script `json_to_csv` para convertir el resultado JSON en un archivo CSV. +Puede ser útil auditar tus versiones del Agent para asegurarte de que estés ejecutando la última versión. Para ello, utiliza el [script get_host_agent_list][9], que aprovecha el vínculo permanente a JSON para mostrar los Agents que se están ejecutando con los números de versión. También hay un script `json_to_csv` para convertir la salida JSON en un archivo CSV. #### Sin Agent @@ -142,7 +152,6 @@ for host in infra['rows']: {{< partial name="whats-next/whats-next.html" >}} - [1]: /es/agent/faq/how-datadog-agent-determines-the-hostname/ [2]: /es/getting_started/tagging/ [3]: /es/metrics/ @@ -153,4 +162,7 @@ for host in infra['rows']: [8]: /es/developers/guide/query-the-infrastructure-list-via-the-api/ [9]: https://github.com/DataDog/Miscellany/tree/master/get_hostname_agentversion [10]: https://app.datadoghq.com/infrastructure -[11]: https://docs.datadoghq.com/es/account_management/billing/ \ No newline at end of file +[11]: https://docs.datadoghq.com/es/account_management/billing/ +[12]: https://app.datadoghq.com/release-notes/fleet-automation-is-now-generally-available +[13]: /es/agent/fleet_automation +[14]: /es/opentelemetry/integrations/datadog_extension/ \ No newline at end of file diff --git a/content/es/infrastructure/process/increase_process_retention.md b/content/es/infrastructure/process/increase_process_retention.md index 4342f212ff4b3..5742b4eafcb2a 100644 --- a/content/es/infrastructure/process/increase_process_retention.md +++ b/content/es/infrastructure/process/increase_process_retention.md @@ -40,7 +40,7 @@ Puedes generar una nueva métrica basada en procesos directamente a partir de co {{< img src="infrastructure/process/process2metrics_create.png" alt="Crear una métrica basada en procesos" style="width:80%;">}} -1. **Selecciona etiquetas (tags) para filtrar tu consulta**: Las etiquetas (tags) disponibles son las mismas que para [Procesos activos][2]. Sólo se tendrán en cuenta para la agregación los procesos que coincidan con el ámbito de tus filtros. Los filtros de búsqueda de texto sólo se admiten en la page (página) Procesos activos. +1. **Selecciona etiquetas para filtrar tu consulta**: Las etiquetas disponibles son las mismas que para [Procesos activos][2]. Sólo se tendrán en cuenta para la agregación los procesos que coincidan con el ámbito de tus filtros. Los filtros de búsqueda de texto sólo se admiten en la page (página) Procesos activos. 2. **Seleccionar la medida de la que deseas realizar un seguimiento**: ingresa una medida como `Total CPU %` para agregar un valor numérico y crear sus métricas agregadas `count`, `min`, `max`, `sum` y `avg` correspondientes. 3. **Añadir etiquetas a `group by`**: selecciona etiquetas que se añadirán como dimensiones a tus métricas, para que se puedan filtrar, agregar y comparar. De manera predeterminada, las métricas generadas a partir de procesos no tienen etiquetas a menos que se añadan de manera explícita. En este campo se puede utilizar cualquier etiqueta disponible para consultas de Live Processes. 4. **Nombrar la métrica**: completa el nombre de tu métrica. Las métricas basadas en procesos siempre tienen el prefijo _proc._ y el sufijo _[selección_de_medida]_. diff --git a/content/es/integrations/guide/source-code-integration.md b/content/es/integrations/guide/source-code-integration.md index 4ef643d0e6615..1139b3bb1d606 100644 --- a/content/es/integrations/guide/source-code-integration.md +++ b/content/es/integrations/guide/source-code-integration.md @@ -1,6 +1,6 @@ --- description: Configura la integración del código fuente que se integra con APM para - vincular tu telemetría con tus repositorios, incorporar información git en artefactos + vincular tu telemetría con tus repositorios, incorporar información Git en artefactos de tu pipeline CI y utilizar la integración GitHub para generar fragmentos de código en línea. further_reading: @@ -18,7 +18,7 @@ further_reading: text: Más información sobre Serverless Monitoring - link: /tests/developer_workflows/ tag: Documentación - text: Más información sobre la optimización de test + text: Más información sobre Test Optimization - link: /security/code_security/ tag: Documentación text: Más información sobre Code Security @@ -43,7 +43,7 @@ La integración del código fuente en Datadog te permite conectar tus repositori ## Conectar tus repositorios Git con Datadog -Para utilizar la mayoría de las funciones relacionadas con el código fuente, debes conectar tus repositorios Git con Datadog. Por defecto, al sincronizar tus repositorios, Datadog no almacena el contenido real de los archivos de tu repositorio, sólo los objetos Git commit y tree. +Para utilizar la mayoría de las funciones relacionadas con el código fuente, debes conectar tus repositorios Git con Datadog. Por defecto, al sincronizar tus repositorios, Datadog no almacena el contenido real de los archivos de tu repositorio, solo los objetos Git commit y tree. ### Proveedores de gestión de código fuente @@ -58,7 +58,7 @@ Datadog admite las siguientes funciones para los siguientes proveedores de gesti | **Comentarios en solicitudes pull** | Sí | Sí | Sí | No | {{< tabs >}} -{{% tab "GitHub (SaaS & On-Prem)" %}} +{{% tab "GitHub (SaaS y On-Prem)" %}}
Los repositorios de las instancias de GitHub son compatibles con GitHub.com, GitHub Enterprise Cloud (SaaS) y GitHub Enterprise Server (On-Prem). Para GitHub Enterprise Server, tu instancia debe ser accesible desde Internet. Si es necesario, puedes permitir direcciones IP de webhooks de Datadog para que Datadog pueda conectarse a tu instancia. @@ -70,10 +70,10 @@ Instala la [integración GitHub][101] de Datadog utilizando el [cuadro de la int [102]: https://app.datadoghq.com/integrations/github/ {{% /tab %}} -{{% tab "GitLab (SaaS & On-Prem)" %}} +{{% tab "GitLab (SaaS y On-Prem)" %}}
-Los repositorios de las instancias de GitLab son compatibles con la vista previa cerrada. Los repositorios de las instancias de GitLab son compatibles tanto con GitLab.com (SaaS) como con GitLab Self-Managed/Dedicated (On-Prem). Para GitLab Self-Managed, tu instancia debe ser accesible desde Internet. Si es necesario, puedes permitir direcciones IP de webhooks de Datadog para que Datadog pueda conectarse a tu instancia. Únete a la vista previa. +Los repositorios de las instancias de GitLab son compatibles con la vista previa cerrada. Los repositorios de las instancias de GitLab son compatibles tanto con GitLab.com (SaaS) como con GitLab Self-Managed/Dedicated (On-Prem). Para GitLab Self-Managed, tu instancia debe ser accesible desde Internet. Si es necesario, puedes permitir direcciones IP de webhooks de Datadog para permitir que Datadog se conecte a tu instancia. Únete a la vista previa.
Instala la [integración del código fuente de GitHub][101] de Datadog utilizando el [cuadro de la integración][102] o mientras accedes a otros productos de Datadog para conectarte a tus repositorios de GitHub. @@ -82,21 +82,22 @@ Instala la [integración del código fuente de GitHub][101] de Datadog utilizand [102]: https://app.datadoghq.com/integrations/gitlab-source-code/ {{% /tab %}} -{{% tab "Azure DevOps (SaaS Only)" %}} +{{% tab "Azure DevOps (solo SaaS)" %}}
Los repositorios de Azure DevOps son compatibles con la vista previa cerrada. Únete a la vista previa.
-Instala la integración del código fuente de Azure DevOps de Datadog mientras accedes a [Datadog Code Security][101]. La funcionalidad de esta integración se limita a Code Security. +Instala la integración de código fuente de Azure DevOps de Datadog utilizando el [cuadro de integración][102] o mientras se incorpora a [Datadog Code Security][101]. [101]: https://app.datadoghq.com/security/configuration/code-security/setup?provider=azure-devops&steps=static +[102]: https://app.datadoghq.com/integrations/azure-devops-source-code/ {{% /tab %}} -{{% tab "Other SCM Providers" %}} +{{% tab "Otros proveedores de SCM" %}}
-Los repositorios en instancias autoalojadas o URL privadas no son compatibles de forma predefinida. Para activar esta función, ponte en contacto con el servicio de asistencia. +Los repositorios en instancias autoalojadas o URL privadas no son compatibles de forma predeterminada. Para activar esta función, ponte en contacto con el servicio de asistencia.
Si estás utilizando cualquier otro proveedor SCM, aún puedes vincular manualmente la telemetría con tu código fuente. Para ello, carga los metadatos de tu repositorio con el comando [`datadog-ci git-metadata upload`][1]. Se requiere `datadog-ci v2.10.0` o posterior. @@ -120,7 +121,7 @@ Successfully synced git DB in 3.579 seconds. ✅ Uploaded in 5.207 seconds. ``` -[1]: https://github.com/DataDog/datadog-ci/tree/master/src/commands/git-metadata +[1]: https://github.com/DataDog/datadog-ci/tree/master/packages/base/src/commands/git-metadata {{% /tab %}} {{< /tabs >}} @@ -128,7 +129,7 @@ Successfully synced git DB in 3.579 seconds. Se requiere el Datadog Agent v7.35.0 o posterior. -Si ya tienes [APM][6] configurado, ve a [**Integrations** > **Link Source Code**][7] y configura la integración del código fuente para tus servicios de backend. +Si ya tienes [APM][6] configurado, ve a [**Integrations** > **Link Source Code** (Integraciones > Vincular código fuente)][7] y configura la integración del código fuente para tus servicios de backend. Tu telemetría debe estar etiquetada con información Git que vincule la versión de la aplicación en ejecución con un repositorio y una confirmación concretos. @@ -145,11 +146,11 @@ Selecciona uno de los siguientes lenguajes que sea compatible con la integració {{< tabs >}} {{% tab "Go" %}} -
Se requiere la librería del cliente Go versión 1.48.0 o posterior.
+
Se requiere la biblioteca del cliente Go versión 1.48.0 o posterior.
#### Contenedores -Si utilizas contenedores Docker, tienes tres opciones: utilizar Docker, utilizar la librería de rastreo de Datadog o configurar tu aplicación con variables de entorno `DD_GIT_*`. +Si utilizas contenedores Docker, tienes tres opciones: utilizar Docker, utilizar la biblioteca de rastreo de Datadog o configurar tu aplicación con variables de entorno `DD_GIT_*`. ##### Opción 1: Docker @@ -179,7 +180,7 @@ Si utilizas la opción serverless, tienes tres opciones en función de la config {{% sci-dd-git-env-variables %}} -#### host +#### Host Si utilizas un host, tienes dos opciones. @@ -200,11 +201,11 @@ Si utilizas un host, tienes dos opciones. {{% tab "Python" %}} -
Se requiere la librería del cliente Python versión 1.12.0 o posterior.
+
Se requiere la biblioteca del cliente Python versión 1.12.0 o posterior.
#### Contenedores -Si utilizas contenedores Docker, tienes tres opciones: utilizar Docker, utilizar la librería de rastreo de Datadog o configurar tu aplicación con variables de entorno `DD_GIT_*`. +Si utilizas contenedores Docker, tienes tres opciones: utilizar Docker, utilizar la biblioteca de rastreo de Datadog o configurar tu aplicación con variables de entorno `DD_GIT_*`. ##### Opción 1: Docker @@ -237,7 +238,7 @@ Si utilizas la opción serverless, tienes tres opciones en función de la config {{% sci-dd-git-env-variables %}} -#### host +#### Host Si utilizas un host, tienes dos opciones. @@ -252,14 +253,14 @@ Si utilizas un host, tienes dos opciones. {{% /tab %}} {{% tab ".NET" %}} -
Se requiere la librería del cliente .NET versión 2.24.1 o posterior.
+
Se requiere la biblioteca del cliente .NET versión 2.24.1 o posterior.
Como primer paso, asegúrate de que tus archivos `.pdb` se despliegan junto con tus ensamblados .NET (`.dll` o `.exe`) en la misma carpeta. A continuación, sigue el resto de las instrucciones en función de tu modelo de despliegue específico: #### Contenedores -Si utilizas contenedores Docker, tienes tres opciones: utilizar Docker, utilizar la librería de rastreo de Datadog o configurar tu aplicación con variables de entorno `DD_GIT_*`. +Si utilizas contenedores Docker, tienes tres opciones: utilizar Docker, utilizar la biblioteca de rastreo de Datadog o configurar tu aplicación con variables de entorno `DD_GIT_*`. ##### Opción 1: Docker @@ -289,7 +290,7 @@ Si utilizas la opción serverless, tienes tres opciones en función de la config {{% sci-dd-git-env-variables %}} -#### host +#### Host Si utilizas un host, tienes dos opciones: utilizar Microsoft SourceLink o configurar tu aplicación con variables de entorno `DD_GIT_*`. @@ -305,7 +306,7 @@ Si utilizas un host, tienes dos opciones: utilizar Microsoft SourceLink o config {{% tab "Node.js" %}}
- Se requiere la librería de cliente de Node.js versión 3.21.0 o posterior. + Se requiere la biblioteca de cliente de Node.js versión 3.21.0 o posterior.

Para aplicaciones de Node.js transpiladas (por ejemplo, TypeScript), asegúrate de generar y publicar mapas de fuentes con la aplicación desplegada, y de ejecutar Node.js con la opción --enable-source-maps. De lo contrario, los enlaces de código y fragmentos no funcionarán. @@ -313,38 +314,52 @@ Si utilizas un host, tienes dos opciones: utilizar Microsoft SourceLink o config #### Contenedores -Si utilizas contenedores Docker, tienes dos opciones: utilizar Docker o configurar tu aplicación con variables de entorno `DD_GIT_*`. +Si utilizas contenedores de Docker, tienes varias opciones: utilizar un complemento si tu aplicación está empaquetada, utilizar Docker, o configurar tu aplicación con variables de entorno `DD_GIT_*`. -##### Opción 1: Docker +##### Opción 1: Complemento empaquetador + +{{% sci-dd-tags-bundled-node-js %}} + +##### Opción 2: Docker {{% sci-docker %}} -##### Opción 2: Variables de entorno `DD_GIT_*` +##### Opción 3: Variables de entorno `DD_GIT_*` {{% sci-dd-git-env-variables %}} #### Serverless -Si utilizas la opción serverless, tienes dos opciones en función de la configuración de tu aplicación serverless. +Si estás utilizando Serverless, tienes varias opciones dependiendo de la configuración de tu aplicación serverless. -##### Opción 1: Herramientas de Datadog +##### Opción 1: Complemento empaquetador + +{{% sci-dd-tags-bundled-node-js %}} + +##### Opción 2: Herramientas de Datadog {{% sci-dd-serverless %}} -##### Opción 2: Variables de entorno `DD_GIT_*` +##### Opción 3: Variables de entorno `DD_GIT_*` {{% sci-dd-git-env-variables %}} -#### host +#### Host -Si utilizas un host, configura tu aplicación con variables de entorno `DD_GIT_*`. +Para entornos basados en host, tienes dos opciones basadas en tu configuración de compilación y despliegue. + +##### Opción 1: Complemento empaquetador + +{{% sci-dd-tags-bundled-node-js %}} + +##### Opción 2: Variables de entorno `DD_GIT_*` {{% sci-dd-git-env-variables %}} {{% /tab %}} {{% tab "Ruby" %}} -
Se requiere la librería del cliente Ruby versión 1.6.0 o posterior.
+
Se requiere la biblioteca del cliente Ruby versión 1.6.0 o posterior.
#### Contenedores @@ -370,7 +385,7 @@ Si utilizas la opción serverless, tienes dos opciones en función de la configu {{% sci-dd-tags-env-variable %}} -#### host +#### Host Si utilizas un host, configura tu aplicación con la variable de entorno `DD_TAGS`. @@ -379,7 +394,7 @@ Si utilizas un host, configura tu aplicación con la variable de entorno `DD_TAG {{% /tab %}} {{% tab "Java" %}} -
Se requiere la librería del cliente Java versión 1.12.0 o posterior.
+
Se requiere la biblioteca del cliente Java versión 1.12.0 o posterior.
#### Contenedores @@ -405,7 +420,7 @@ Si utilizas la opción serverless, tienes dos opciones en función de la configu {{% sci-dd-git-env-variables %}} -#### host +#### Host Si utilizas un host, configura tu aplicación con variables de entorno `DD_GIT_*`. @@ -414,7 +429,7 @@ Si utilizas un host, configura tu aplicación con variables de entorno `DD_GIT_* {{% /tab %}} {{% tab "PHP" %}} -
Se requiere la librería del cliente PHP versión 1.2.0 o posterior.
+
Se requiere la biblioteca del cliente PHP versión 1.2.0 o posterior.
#### Contenedores @@ -428,7 +443,7 @@ Si utilizas contenedores Docker, tienes dos opciones: utilizar Docker o configur {{% sci-dd-git-env-variables %}} -#### host +#### Host Si utilizas un host, configura tu aplicación con variables de entorno `DD_GIT_*`. @@ -468,8 +483,8 @@ Para los lenguajes no compatibles, utiliza las etiquetas `git.commit.sha` y `git En [Error Tracking][1], puedes ver los enlaces de los marcos de stack tecnológico hasta su repositorio de origen. 1. Ve a [**APM** > **Error Tracking**][2]. -2. Haz clic en un problema. El panel **Issue Details** aparece a la derecha. -3. En **Último evento**, si utilizas las integraciones GitHub o GitLab, haz clic en **Connect to preview** (Conectar para previsualizar) en los marcos de stack tecnológico. Puedes ver fragmentos de código en línea directamente en la traza de stack tecnológico. De lo contrario, puedes hacer clic en el botón **View** (Ver) a la derecha de un marco o seleccionar **View file** (Ver archivo), **View Git blame* (Ver Git blame) o **View commit** (Ver commit) para ser redirigido a tu herramienta de gestión de código fuente. +2. Haz clic en un problema. El panel **Issue Details** (información del incidente) aparece a la derecha. +3. En **Latest Event** (Último evento), si utilizas las integraciones GitHub o GitLab, haz clic en **Connect to preview** (Conectar para previsualizar) en los marcos de stack tecnológico. Puedes ver fragmentos de código en línea directamente en la traza de stack tecnológico. De lo contrario, puedes hacer clic en el botón **View** (Ver) a la derecha de un marco o seleccionar **View file** (Ver archivo), **View Git blame* (Ver Git blame) o **View commit** (Ver commit) para ser redirigido a tu herramienta de gestión de código fuente. {{< img src="integrations/guide/source_code_integration/error-tracking-panel-full.png" alt="Botón de visualización de repositorio con tres opciones (ver archivo, ver blame y ver confirmación) disponibles a la derecha de una stack trace de error en Error Tracking, junto con fragmentos de código en línea en la stack trace" style="width:100%;">}} @@ -479,22 +494,17 @@ En [Error Tracking][1], puedes ver los enlaces de los marcos de stack tecnológi {{% /tab %}} {{% tab "Continuous Profiler" %}} -En [Continuous Profiler][1], puedes ver una vista previa del código fuente de los marcos de perfiles. - -1. Ve a [**APM** > **Profile Search**][2]. -2. Pasa el cursor sobre un método en el gráfico de llamas. -3. Si es necesario, pulsa `Opt` o `Alt` para habilitar la vista previa. -4. Si utilizas las integraciones GitHub o GitLab, haz clic en **Connect to preview** (Conectar para previsualizar) para ver fragmentos de código en línea directamente en el gráfico de llamas. - -{{< img src="integrations/guide/source_code_integration/profiler-source-code-preview.png" alt="Vista previa del código fuente en Continuous Profiler" style="width:100%;">}} - -También puedes ver los enlaces de los marcos de perfiles hasta su repositorio de origen. Esto es compatible con los perfiles desglosados por línea, método o archivo. +Puedes ver vistas previas del código fuente directamente en gráficas de llamas de [Continuous Profiler][1]. -1. Ve a [**APM** > **Profile Search**][2]. -2. Pasa el cursor sobre un método en el gráfico de llamas. A la derecha aparece un icono con tres puntos con la etiqueta **More actions**. -3. Haz clic en **More actions** > **View in repo** para abrir la traza en su repositorio de código fuente. +1. Ve a [**APM** > **Profiles** > **Explorer**][2] (APM > Perfiles > Explorador). +2. Selecciona el servicio que deseas investigar. +3. Pasa el cursor sobre un método en el gráfico de llamas. +4. Pulsa `Opt` (en macOS) o `Ctrl` (en otros sistemas operativos) para bloquear la información sobre herramientas y poder interactuar con su contenido. +5. Si se te solicita, haz clic en **Connect to preview** (Conectar para previsualizar). La primera vez que hagas esto para un repositorio, serás redirigido a GitHub para **Authorize** (Autorizar) la aplicación de Datadog. +6. Después de autorizar, la vista previa del código fuente aparece en el tooltip. +7. Haz clic en el enlace de archivo en el tooltip para abrir el archivo de código fuente completo en tu repositorio. -{{< img src="integrations/guide/source_code_integration/profiler-link-to-git.png" alt="Enlace a GitHub desde Continuous Profiler" style="width:100%;">}} +{{< img src="integrations/guide/source_code_integration/profiler-source-code-preview-2.png" alt="Vista previa de código fuente en el Continuous Profiler" style="width:100%;">}} [1]: /es/profiler/ [2]: https://app.datadoghq.com/profiling/explorer @@ -503,8 +513,8 @@ También puedes ver los enlaces de los marcos de perfiles hasta su repositorio d En **Serverless Monitoring**, puedes ver los enlaces de los errores en tus stack traces, asociadas a funciones Lambda, hasta su repositorio de origen. -1. Ve a [**Infrastructure** > **Serverless**][101] y haz clic en la pestaña **AWS**. -2. Haz clic en una función Lambda y luego en el botón **Open Trace** para una invocación con una stack trace asociada. +1. Ve a [**Infrastructure** > **Serverless** (Infraestructura > Serverless)][101] y haz clic en la pestaña **AWS**. +2. Haz clic en una función Lambda y luego en el botón **Open Trace** (Abrir traza) para una invocación con una stack trace asociada. 3. Si utilizas las integraciones GitHub o GitLab, haz clic en **Connect to preview** (Conectar para previsualizar) en los marcos de stack tecnológico. Puedes ver fragmentos de código en línea directamente en la traza de stack tecnológico. De lo contrario, puedes hacer clic en el botón **View** (Ver) a la derecha de un marco o seleccionar **View file** (Ver archivo), **View Git blame* (Ver Git blame) o **View commit** (Ver commit) para ser redirigido a tu herramienta de gestión de código fuente. {{< img src="integrations/guide/source_code_integration/serverless-aws-function-errors.mp4" alt="Enlace a GitHub desde Serverless Monitoring" video="true" >}} @@ -512,11 +522,11 @@ En **Serverless Monitoring**, puedes ver los enlaces de los errores en tus stack [101]: https://app.datadoghq.com/functions?cloud=aws&entity_view=lambda_functions {{% /tab %}} -{{% tab "Optimización de test" %}} +{{% tab "Test Optimization" %}} -Puedes ver los enlaces de los tests fallidos a tu repositorio fuente en **Optimización de test**. +Puedes ver los enlaces de los tests fallidos a tu repositorio fuente en **Test Optimization**. -1. Ve a [**Software Delivery** > **Test Optimization** > **Test Runs**][101] (Entrega de software > Optimización de test > Ejecuciones de test) y selecciona un test fallido. +1. Ve a [**Software Delivery** > **Test Optimization** > **Test Runs**][101] (Entrega de software > Test Optimization > Ejecuciones de test) y selecciona un test fallido. 2. Si utilizas las integraciones GitHub o GitLab, haz clic en **Connect to preview** (Conectar para previsualizar) en los marcos de stack tecnológico. Puedes ver fragmentos de código en línea directamente en la traza de stack tecnológico. De lo contrario, puedes hacer clic en el botón **View** (Ver) a la derecha de un marco o seleccionar **View file** (Ver archivo), **View Git blame* (Ver Git blame) o **View commit** (Ver commit) para ser redirigido a tu herramienta de gestión de código fuente. {{< img src="integrations/guide/source_code_integration/test_run_blurred.png" alt="Enlace a GitHub desde CI Visibility Explorer" style="width:100%;">}} @@ -531,8 +541,8 @@ Para obtener más información, consulta [Mejora de los flujos de trabajo de los Puedes ver los enlaces de los escaneos fallidos de Static Analysis y Software Composition Analysis a tu repositorio de fuentes en **Code Security**. -1. Navega hasta [**Software Delivery** > **Code Security**][101] y selecciona un repositorio. -2. En la vista **Vulnerabilidades de código** o **Code Quality**, haz clic en una vulnerabilidad o infracción de código. En la sección **Detalles**, si utilizas las integraciones GitHub, GitLab o Azure DevOps, haga clic en **Connect to preview** (Conectar para previsualizar). Puedes ver fragmentos de código en línea que resaltan las líneas exactas de código que desencadenaron la vulnerabilidad o infracción. De lo contrario, puedes hacer clic en el botón **View** (Ver) a la derecha de un marco o seleccionar **View file** (Ver archivo), **View Git blame* (Ver Git blame) o **View commit** (Ver commit) para ser redirigido a tu herramienta de gestión de código fuente. +1. Ve a [**Software Delivery** > **Code Security** (Entrega de software > Code Security)][101] y selecciona un repositorio. +2. En la vista **Code Vulnerabilities** (Vulnerabilidades de código) o **Code Quality** (Callidad del còdigo), haz clic en una vulnerabilidad o infracción de código. En la sección **Detalles**, si utilizas las integraciones GitHub, GitLab o Azure DevOps, haga clic en **Connect to preview** (Conectar para previsualizar). Puedes ver fragmentos de código en línea que resaltan las líneas exactas de código que desencadenaron la vulnerabilidad o infracción. De lo contrario, puedes hacer clic en el botón **View** (Ver) a la derecha de un marco o seleccionar **View file** (Ver archivo), **View Git blame* (Ver Git blame) o **View commit** (Ver commit) para ser redirigido a tu herramienta de gestión de código fuente. {{< img src="integrations/guide/source_code_integration/code-analysis-scan.png" alt="Enlace a GitHub desde la vista Code Security Code Vulnerabilities" style="width:100%;">}} @@ -546,28 +556,28 @@ Para más información, consulta la [Documentación sobre Code Security][102]. Puedes ver los enlaces de los errores en los stack traces asociados de tus señales de seguridad a tu repositorio fuente en **App and API Protection Monitoring**. -1. Navega a [**Security** > **App and API Protection**][101] (Seguridad > App and API Protection) y selecciona una señal de seguridad. -2. Desplázate hasta la sección **Traces**, en la pestaña **Related Signals**, y haz clic en una stack trace asociada. +1. Ve a [**Security** > **App and API Protection** (Seguridad > Protección de aplicaciones y API)][101] y selecciona una señal de seguridad. +2. Desplázate hasta la sección **Traces**, en la pestaña **Señales relacionadas**, y haz clic en una stack trace asociada. 3. Si utilizas las integraciones GitHub o GitLab, haz clic en **Connect to preview** (Conectar para previsualizar) en los marcos de stack tecnológico. Puedes ver fragmentos de código en línea directamente en la traza de stack tecnológico. De lo contrario, puedes hacer clic en el botón **View** (Ver) a la derecha de un marco o seleccionar **View file** (Ver archivo), **View Git blame* (Ver Git blame) o **View commit** (Ver commit) para ser redirigido a tu herramienta de gestión de código fuente. -{{< img src="integrations/guide/source_code_integration/asm-signal-trace-blur.png" alt="Enlace a GitHub desde App and API Protection Monitoring" style="width:100%;">}} +{{< img src="integrations/guide/source_code_integration/asm-signal-trace-blur.png" alt="Enlace a GitHub desde Monitorización de la protección de aplicaciones y API" style="width:100%;">}} [101]: https://app.datadoghq.com/security/appsec {{% /tab %}} {{% tab "Dynamic Instrumentation" %}} -Puedes ver los archivos de código fuente completos en [**Dynamic Instrumentation**][102] al crear o editar una instrumentación (log dinámico, métrica, tramo o span tags). +Puedes ver los archivos de código fuente completos en [**Dynamic Instrumentation**][102] (Instrumentación dinámica) al crear o editar una instrumentación (log dinámico, métrica, tramo o etiquetas de tramo). #### Crear nueva instrumentación -1. Ve a [**APM** > **Dynamic Instrumentation**][101]. +1. Ve a [**APM** > **Dynamic Instrumentation** (APM > Instrumentación dinámica)][101]. 2. Selecciona **Create New Instrumentation** (Crear nueva instrumentación) y elige un servicio a instrumentar. 3. Busca y selecciona un nombre de archivo o método de código fuente. #### Ver o editar instrumentación -1. Ve a [**APM** > **Dynamic Instrumentation**][101]. +1. Ve a [**APM** > **Dynamic Instrumentation** (APM > Instrumentación dinámica)][101]. 2. Selecciona una instrumentación existente en la lista y haz clic en **View Events** (Ver eventos). 3. Selecciona la tarjeta de instrumentación para ver su localización en el código fuente. @@ -585,9 +595,9 @@ Para más información, consulta la [documentación de Dynamic Instrumentation][ {{< tabs >}} {{% tab "CI Visibility" %}} -Los comentarios en solicitudes pull están habilitados por defecto cuando se accede por primera vez a CI Visibility, si la integración GitHub o GitLab está instalada correctamente. Estas integraciones publican un comentario resumiendo los trabajos fallidos detectados en tu solicitud pull. +Los comentarios de solicitud pull están habilitados por defecto cuando se accede por primera vez a CI Visibility si la integración con GitHub o GitLab está instalada correctamente. Estas integraciones publican un comentario resumiendo los trabajos fallidos detectados en tu solicitud pull. -{{< img src="integrations/guide/source_code_integration/ci-visibility-pr-comment.png" alt="Comentario en solicitud pull que resume los trabajos fallidos detectados por CI Visibility" style="width:100%;">}} +{{< img src="integrations/guide/source_code_integration/ci-visibility-pr-comment.png" alt="Comentario en solicitud pull que resume los trabajos fallidos detectados por CI Visibility" style="width:100%;">}} Para desactivar los comentarios en solicitudes pull para CI Visibility, ve a los [parámetros de repositorios de CI Visibility][101]. @@ -596,9 +606,9 @@ Para desactivar los comentarios en solicitudes pull para CI Visibility, ve a los {{% /tab %}} {{% tab "Code Security" %}} -Los comentarios en solicitudes pull están habilitados por defecto cuando se accede por primera vez a Code Security, si la integración GitHub, GitLab o Azure DevOps está instalada correctamente. Estas integraciones publican dos tipos de comentarios en tus solicitudes pull. +Los comentarios de solicitud pull están habilitados por defecto al acceder por primera vez a Code Security si la integración con GitHub, GitLab o Azure DevOps está instalada correctamente. Estas integraciones publican dos tipos de comentarios en tus solicitudes pull: -1. Un único comentario que resume las nuevas infracciones detectadas en tu solicitud pull. +1. Un único comentario que resuma las nuevas infracciones detectadas en tu solicitud pull. {{< img src="integrations/guide/source_code_integration/code-security-summary-pr-comment.png" alt="Comentario en solicitud pull que resume las nuevas infracciones detectadas por Code Security" style="width:100%;">}} @@ -611,9 +621,9 @@ Para desactivar los comentarios en solicitudes pull para Code Security, ve a los [101]: https://app.datadoghq.com/security/configuration/code-security/settings {{% /tab %}} -{{% tab "Optimización de test" %}} +{{% tab "Test Optimization" %}} -Los comentarios en solicitudes pull están habilitados por defecto cuando se accede por primera vez a Test Optimization, si la integración GitHub o GitLab está instalada correctamente. Estas integraciones publican un comentario resumiendo los tests fallidos o defectuosos detectados en tu solicitud pull. +Los comentarios de solicitud pull están habilitados por defecto cuando se accede por primera vez a Test Optimization (optimización de tests) si la integración con GitHub o GitLab está instalada correctamente. La integración publica un comentario en el que se resumen los tests fallidos y defectuosos detectados en tu solicitud pull. {{< img src="integrations/guide/source_code_integration/test-optimization-pr-comment.png" alt="Comentario en solicitud pull que resume los tests fallidos y defectuosos detectados por Test Optimization" style="width:100%;">}} @@ -635,4 +645,4 @@ Para desactivar los comentarios en solicitudes pull para Test Optimization, ve a [6]: /es/tracing/ [7]: https://app.datadoghq.com/source-code/setup/apm [8]: /es/tracing/error_tracking/ -[9]: /es/tracing/trace_collection/dd_libraries/ +[9]: /es/tracing/trace_collection/dd_libraries/ \ No newline at end of file diff --git a/content/es/integrations/honeybadger.md b/content/es/integrations/honeybadger.md index a357548c779cc..cf45eebce406f 100644 --- a/content/es/integrations/honeybadger.md +++ b/content/es/integrations/honeybadger.md @@ -1,54 +1,15 @@ --- app_id: honeybadger -app_uuid: 385c386e-6394-41f4-8c92-5944e6b203f5 -assets: - integration: - auto_install: true - events: - creates_events: true - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 130 - source_type_name: Honeybadger -author: - homepage: https://www.datadoghq.com - name: Datadog - sales_email: info@datadoghq.com - support_email: help@datadoghq.com categories: - event management - issue tracking custom_kind: integración -dependencies: [] -display_on_public_website: true -draft: false -git_integration_title: honeybadger -integration_id: honeybadger -integration_title: Honeybadger -integration_version: '' -is_public: true -manifest_version: 2.0.0 -name: honeybadger -public_title: Honeybadger -short_description: Visualiza, busca y analiza excepciones de Honeybadger en tu flujo - de eventos. -supported_os: [] -tile: - changelog: CHANGELOG.md - classifier_tags: - - Category::Event Management - - Category::Issue Tracking - - Offering::Integration - configuration: README.md#Configuración - description: Visualiza, busca y analiza excepciones de Honeybadger en tu flujo de - eventos. - media: [] - overview: README.md#Información general - support: README.md#Soporte - title: Honeybadger +description: Visualizar, buscar y discutir excepciones de Honeybadger en tu evento + stream. +integration_version: 1.0.0 +media: [] +title: Honeybadger --- - - ## Información general Honeybadger proporciona monitorización de excepciones y tiempo de actividad para mantener tus aplicaciones web libres de errores. Conecta Honeybadger a Datadog para recibir alertas de Honeybadger en tu flujo de eventos de Datadog. @@ -59,13 +20,13 @@ Honeybadger proporciona monitorización de excepciones y tiempo de actividad par Para capturar errores de Honeybadger: -1. Abre tu [lista de proyectos][1] de Honeybadger. -2. Haz clic en «Settings» (Configuración) del proyecto que deseas monitorizar. -3. Haz clic en «Alerts & Integrations» (Alertas e integraciones). -4. Selecciona «Datadog» como integración nueva. -5. Añade tu [clave de API][2]. -6. Guarda la integración. -7. Haz clic en el botón **Install Integration** (Instalar integración) del [cuadro de integración de Honeybadger][3]. +1. Abre tu [lista de proyectos](https://app.honeybadger.io/users/sign_in). de Honeybadger. +1. Haz clic en «Settings» (Configuración) del proyecto que deseas monitorizar. +1. Haz clic en «Alerts & Integrations» (Alertas e integraciones). +1. Selecciona «Datadog» como integración nueva. +1. Añade tu [clave de API](https://app.datadoghq.com/organization-settings/api-keys). +1. Guarda la integración. +1. Haz clic en el botón **Install Integration** (Instalar integración) del [cuadro de integración de Honeybadger](https://app.datadoghq.com/account/settings#integrations/honeybadger). ## Datos recopilados @@ -83,9 +44,4 @@ La integración de Honeybadger no incluye checks de servicio. ## Solucionar problemas -¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][4]. - -[1]: https://app.honeybadger.io/users/sign_in -[2]: https://app.datadoghq.com/organization-settings/api-keys -[3]: https://app.datadoghq.com/account/settings#integrations/honeybadger -[4]: https://docs.datadoghq.com/es/help/ \ No newline at end of file +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/jenkins.md b/content/es/integrations/jenkins.md index 27753bf7ad23a..ee9dd83d51bcc 100644 --- a/content/es/integrations/jenkins.md +++ b/content/es/integrations/jenkins.md @@ -1,21 +1,11 @@ --- -categories: -- configuration & deployment +app_id: jenkins custom_kind: integración -dependencies: -- https://github.com/jenkinsci/datadog-plugin/blob/master/README.md description: Reenvía automáticamente tus métricas, eventos y checks de servicio de Jenkins to Datadog. -doc_link: https://docs.datadoghq.com/integrations/jenkins/ -git_integration_title: jenkins -has_logo: true -integration_title: Jenkins -is_public: true -name: jenkins -public_title: Integración de Datadog y Jenkins -short_description: Reenvía automáticamente tus métricas, eventos y servicios de Jenkins - checks to Datadog. +title: Jenkins --- + Un complemento de Jenkins para reenviar automáticamente métricas, eventos y checks de servicio a una cuenta de Datadog. ![Dashboard de Jenkins Datadog][16] @@ -274,7 +264,7 @@ pipeline { datadog(testOptimization: [ enabled: true, serviceName: "my-service", // the name of service or library being tested - languages: ["JAVA"], // languages that should be instrumented (available options are "JAVA", "JAVASCRIPT", "PYTHON", "DOTNET", "RUBY") + languages: ["JAVA"], // languages that should be instrumented (available options are "JAVA", "JAVASCRIPT", "PYTHON", "DOTNET", "RUBY", "GO") additionalVariables: ["my-var": "value"] // additional tracer configuration settings (optional) ]) } @@ -425,7 +415,7 @@ NOTA: Como se menciona en la sección [personalización del trabajo](#job-custom **Nota**: Esta configuración sólo se aplica a aquellos que utilizan la [configuración del Datadog Agent](#plugin-user-interface). -1. La recopilación de logs está deshabilitada por defecto en el Datadog Agent; habilítala en tu archivo `datadog.yaml`: +1. La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent, actívala en tu archivo `datadog.yaml`: ```yaml logs_enabled: true @@ -449,7 +439,7 @@ NOTA: Como se menciona en la sección [personalización del trabajo](#job-custom Crea el estado `jenkins.job.status` con las siguientes etiquetas predeterminadas: `jenkins_url`, `job`, `node`, `user_id` -## Resolución de problemas +## Solucionar problemas ### Generación de un flare de diagnóstico. diff --git a/content/es/integrations/journald.md b/content/es/integrations/journald.md index 2c1e7c86e959e..441020a791fa4 100644 --- a/content/es/integrations/journald.md +++ b/content/es/integrations/journald.md @@ -1,89 +1,46 @@ --- app_id: journald -app_uuid: 2ee4cbe2-2d88-435b-9ed9-dbe07ca1d059 -assets: - integration: - auto_install: true - configuration: - spec: assets/configuration/spec.yaml - events: - creates_events: false - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 10167 - source_type_name: journald -author: - homepage: https://www.datadoghq.com - name: Datadog - sales_email: info@datadoghq.com - support_email: help@datadoghq.com categories: - recopilación de logs custom_kind: integración -dependencies: -- https://github.com/DataDog/integrations-core/blob/master/journald/README.md -display_on_public_website: true -draft: false -git_integration_title: journald -integration_id: journald -integration_title: journald +description: Monitoriza tus logs systemd-journald con Datadog. integration_version: 3.0.0 -is_public: true -manifest_version: 2.0.0 -name: journald -public_title: journald -short_description: Monitoriza tus logs systemd-journald con Datadog. +media: [] supported_os: - linux - macos - windows -tile: - changelog: CHANGELOG.md - classifier_tags: - - Supported OS::Linux - - Supported OS::macOS - - Supported OS::Windows - - Category::Log Collection - - Offering::Integration - configuration: README.md#Setup - description: Monitoriza tus logs systemd-journald con Datadog. - media: [] - overview: README.md#Overview - support: README.md#Support - title: journald +title: journald --- - - - - ## Información general -Systemd-journald es un servicio de sistema que recopila y almacena datos de registro. -Crea y mantiene diarios estructurados e indexados basados en información de registro procedente de diversas fuentes. +Systemd-journald es un servicio de sistema que recopila y almacena datos de generación de logs. +Este servicio crea y conserva registros estructurados e indexados basados en la información de generación de logs procedente de diversas fuentes. ## Configuración ### Instalación -El check de journald está incluido en el paquete del [Datadog Agent ][1]. +El check de journald está incluido en el paquete del [Datadog Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). No es necesaria ninguna instalación adicional en tu servidor. ### Configuración -Los archivos del diario, por defecto, son propiedad del grupo del sistema systemd-journal y pueden ser leidos por él. Para empezar a recopilar tus logs de diario, debes hacer lo siguiente: +Los archivos del registro, por defecto, son propiedad del grupo del sistema systemd-journal y pueden ser leidos por él. Para empezar a recopilar tus logs de registro, debes hacer lo siguiente: -1. [Instala el Agent][2] en la instancia que ejecuta el diario. -2. Añade el usuario `dd-agent` al grupo `systemd-journal` ejecutando: - ```text - usermod -a -G systemd-journal dd-agent - ``` +1. [Instala el Agent](https://app.datadoghq.com/account/settings/agent/latest) en la instancia que ejecuta el registro. +1. Añade el usuario `dd-agent` al grupo `systemd-journal` ejecutando: + ```text + usermod -a -G systemd-journal dd-agent + ``` {{< tabs >}} + {{% tab "Host" %}} Para configurar este check para un Agent que se ejecuta en un host: -Edita el archivo `journald.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent][1] para empezar a recopilar logs. +Edita el archivo `journald.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory) para empezar a recopilar logs. #### Recopilación de logs @@ -105,50 +62,44 @@ Para rellenar los atributos `source` y `service`, el Agent recopila `SYSLOG_IDEN **Nota**: Con Agent 7.17+, si `container_mode` se establece en `true`, el comportamiento por defecto cambia para logs procedentes de contenedores de Docker. El atributo `source` de tus logs se establecen automáticamente en el nombre corto de imagen correspondiente del contenedor en lugar de simplemente `docker`. -[Reinicia el Agent][2]. +[Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). - -[1]: https://docs.datadoghq.com/es/agent/guide/agent-configuration-files/#agent-configuration-directory -[2]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent {{% /tab %}} -{{% tab "Contenedorizado" %}} -Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][1] para obtener orientación sobre la aplicación de los parámetros que se indican a continuación. +{{% tab "En contenedores" %}} -#### Recopilación de logs +Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/kubernetes/integrations/) para obtener orientación sobre la aplicación de los parámetros que se indican a continuación. +#### Recopilación de logs -La recopilación de logs está desactivada por defecto en Datadog Agent. Para activarla, consulta [recopilación de logs de Kubernetes][2]. +La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent. Para activarla, consulta [Recopilación de logs de Kubernetes](https://docs.datadoghq.com/agent/kubernetes/log/?tab=containerinstallation#setup). | Parámetro | Valor | | -------------- | ------------------------------------------------------ | | `` | `{"source": "journald", "service": ""}` | -[1]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/ -[2]: https://docs.datadoghq.com/es/agent/kubernetes/log/?tab=containerinstallation#setup {{% /tab %}} -{{< /tabs >}} +{{< /tabs >}} #### Funciones avanzadas -##### Cambiar la localización del diario +##### Cambiar la localización del registro -Por defecto, el Agent busca el diario en las siguientes localizaciones: +Por defecto, el Agent busca el registro en las siguientes localizaciones: - `/var/log/journal` - `/run/log/journal` -Si tu diario se encuentra en otro lugar, añade un parámetro `path` con la ruta del diario correspondiente. +Si tu registro se encuentra en otro lugar, añade un parámetro `path` con la ruta del registro correspondiente. -##### Filtrar unidades del diario +##### Filtrar unidades del registro Puedes filtrar unidades específicas _a nivel de sistema_ utilizando estos parámetros: - `include_units`: incluye todas las unidades de nivel de sistema especificadas. - `exclude_units`: excluye todas las unidades de nivel de sistema especificadas. - Ejemplo: ```yaml @@ -177,14 +128,13 @@ logs: - '*' ``` -##### Filtrar los mensajes del diario +##### Filtrar los mensajes del registro En el Datadog Agent versión `7.39.0`+, puedes filtrar mensajes arbitrarios utilizando pares de clave-valor con estos parámetros: - `include_matches`: incluye mensajes coincidentes con `key=value` - `exclude_matches`: excluye los mensajes que coinciden con `key=value` - Ejemplo: ```yaml @@ -195,11 +145,11 @@ logs: - _TRANSPORT=kernel ``` -##### Seguimiento del mismo diario varias veces +##### Seguimiento del mismo registro varias veces Si deseas informar de unidades con diferentes fuentes o etiquetas de servicio, éstas deben aparecer en configuraciones de journald separadas. -Para ello debes identificar unívocamente la configuración del diario con un `config_id` (disponible en Agent `7.41.0` +). +Para ello debes identificar unívocamente la configuración del registro con un `config_id` (disponible en Agent `7.41.0` +). ```yaml logs: @@ -222,34 +172,28 @@ logs: Las etiquetas son fundamentales para encontrar información en entornos en contenedores altamente dinámicos, por lo que el Agent puede recopilar etiquetas de contenedor en logs de journald. -Esto funciona automáticamente cuando el Agent se está ejecutando desde el host. Si estás utilizando la versión en contenedores del Datadog Agent, integra la ruta de tu diario y el siguiente archivo: +Esto funciona automáticamente cuando el Agent se está ejecutando desde el host. Si estás utilizando la versión en contenedores del Datadog Agent, integra la ruta de tu registro y el siguiente archivo: -- `/etc/machine-id`: esto asegura que el Agent puede consultar el diario almacenado en el host. +- `/etc/machine-id`: esto asegura que el Agent puede consultar el registro almacenado en el host. ### Validación -Ejecuta el [subcomando de estado][3] del Agent y busca `journald` en la sección Logs del Agent. +[Ejecuta el [subcomando de estado del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `journald` en la sección Checks. ## Datos recopilados ### Métricas -journald no incluye ninguna métrica. +Journald no incluye métricas. ### Checks de servicio -journald no incluye ningún check de servicio. +Journald no incluye checks de servicio. ### Eventos -journald no incluye ningún evento. +Journald no incluye eventos. ## Solucionar problemas -¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][4]. - - -[1]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent -[2]: https://app.datadoghq.com/account/settings/agent/latest -[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information -[4]: https://docs.datadoghq.com/es/help/ \ No newline at end of file +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/lambdatest.md b/content/es/integrations/lambdatest.md index 96682ea60748d..74cac5fe97178 100644 --- a/content/es/integrations/lambdatest.md +++ b/content/es/integrations/lambdatest.md @@ -1,78 +1,21 @@ --- app_id: lambdatest -app_uuid: 8d4556af-b5e8-4608-a4ca-4632111931c1 -assets: - dashboards: - LambdaTest: assets/dashboards/overview.json - integration: - auto_install: true - configuration: {} - events: - creates_events: false - metrics: - check: [] - metadata_path: metadata.csv - prefix: lambdatest. - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 10243 - source_type_name: LambdaTest - logs: - source: lambdatest - oauth: assets/oauth_clients.json -author: - homepage: https://github.com/DataDog/integrations-extras - name: LambdaTest - sales_email: prateeksaini@lambdatest.com - support_email: prateeksaini@lambdatest.com categories: - automatización - contenedores - rum - seguimiento de problemas - tests -custom_kind: integration -dependencies: -- https://github.com/DataDog/integrations-extras/blob/master/lambdatest/README.md -display_on_public_website: true -draft: false -git_integration_title: lambdatest -integration_id: lambdatest -integration_title: LambdaTest -integration_version: '' -is_public: true -manifest_version: 2.0.0 -name: lambdatest -public_title: LambdaTest -short_description: La plataforma de tests de automatización más potente +custom_kind: integración +description: La plataforma de tests de automatización más potente +integration_version: 1.0.0 +media: [] supported_os: - Linux - Windows - macOS -tile: - changelog: CHANGELOG.md - classifier_tags: - - Categoría::Automatización - - Categoría::Contenedores - - Categoría::Incidentes - - Categoría::Seguimiento de problemas - - Categoría::Tests - - Sistema operativo compatible::Linux - - Sistema operativo compatible::Windows - - Sistema operativo compatible::macOS - - Oferta::Integración - configuration: README.md#Configuración - description: La plataforma de tests de automatización más potente - media: [] - overview: README.md#Información general - support: README.md#Soporte - title: LambdaTest - uninstallation: README.md#Desinstalación +title: LambdaTest --- - - - - ## Información general Realiza una integración con LambdaTest y permite a tus equipos colaborar y realizar tests de forma eficaz. LambdaTest es una plataforma de tests en la nube que permite a los usuarios ejecutar tests manuales y automatizados en sus sitios web y aplicaciones web en más de 2000 navegadores, versiones de navegadores y sistemas operativos. @@ -92,31 +35,28 @@ A continuación podrás ver todo lo que puedes hacer con LambdaTest: ## Configuración -Toda la configuración ocurre en el dashboard de LambdaTest. Consulta la documentación de configuración de la [integración de LambdaTest en Datadog][1]. +Toda la configuración ocurre en el dashboard de LambdaTest. Consulta la documentación de configuración de la [integración LambdaTest-Datadog](https://www.lambdatest.com/support/docs/datadog-integration/). ### Configuración A continuación se explica cómo realizar un seguimiento de los problemas en Datadog con LambdaTest: 1. Haz clic en **Connect Accounts** (Conectar cuentas) para iniciar la autorización de la integración de LambdaTest desde la página de inicio de sesión en LambdaTest. -2. Inicia sesión en tu cuenta de LambdaTest, en el sitio web de LambdaTest, para que se te redirija a la página de autorización de Datadog. -3. Haz clic en **Authorize** (Autorizar) para completar el proceso de integración. -4. Una vez que se haya completado la configuración de la integración se enviará un correo electrónico de confirmación. -5. Una vez que Datadog esté integrado en tu cuenta de LambdaTest, comienza a registrar errores y a realizar tests entre navegadores. +1. Inicia sesión en tu cuenta de LambdaTest, en el sitio web de LambdaTest, para que se te redirija a la página de autorización de Datadog. +1. Haz clic en **Authorize** (Autorizar) para completar el proceso de integración. +1. Una vez que se haya completado la configuración de la integración se enviará un correo electrónico de confirmación. +1. Una vez que Datadog esté integrado en tu cuenta de LambdaTest, comienza a registrar errores y a realizar tests entre navegadores. ## Desinstalación -Una vez que se desinstala esta integración, se revocan todas las autorizaciones anteriores. +Una vez que desinstales esta integración, se revocarán todas las autorizaciones anteriores. -Además, asegúrate de que todas las claves de API asociadas a esta integración se han deshabilitado, buscando el nombre de la integración en la [página de gestión de las claves de API][2]. +Además, asegúrate de que todas las claves de API asociadas a esta integración se han desactivado, buscando el nombre de la integración en la [página de gestión de claves de API](/organization-settings/api-keys?filter=LambdaTest). -## Compatibilidad +## Soporte Para recibir asistencia o solicitar funciones, ponte en contacto con LambdaTest a través de los siguientes canales: Correo electrónico: support@lambdatest.com Teléfono: +1-(866)-430-7087 -Sitio web: https://www.lambdatest.com/ - -[1]: https://www.lambdatest.com/support/docs/datadog-integration/ -[2]: https://app.datadoghq.com/organization-settings/api-keys?filter=LambdaTest \ No newline at end of file +Sitio web: https://www.lambdatest.com/ \ No newline at end of file diff --git a/content/es/integrations/microsoft_365.md b/content/es/integrations/microsoft_365.md index aaf2afba0d135..530ba3dbebe12 100644 --- a/content/es/integrations/microsoft_365.md +++ b/content/es/integrations/microsoft_365.md @@ -1,36 +1,23 @@ --- +app_id: microsoft_365 categories: - recopilación de logs - seguridad -custom_kind: integration -dependencies: [] -description: Conéctate a Microsoft 365 para extraer los logs de auditoría de una organización - a la plataforma de registro de Datadog. -doc_link: https://docs.datadoghq.com/integrations/microsoft_365/ -draft: false +custom_kind: integración +description: 'Visualiza los logs de auditoría de Microsoft 365 en Datadog desde servicios + como: Microsoft Teams, Power BI, Azure Active Directory, Dynamics 365 y más' further_reading: - link: https://www.datadoghq.com/blog/microsoft-365-integration/ tag: Blog text: Recopilar y monitorizar logs de auditoría de Microsoft 365 con Datadog -git_integration_title: microsoft_365 -has_logo: true -integration_id: '' -integration_title: Logs de auditoría y seguridad de Microsoft 365 -integration_version: '' -is_public: true -manifest_version: '1.0' -name: microsoft_365 -public_title: Logs de auditoría y seguridad de Microsoft 365 y Datadog -short_description: 'Visualiza los logs de auditoría de Microsoft 365 en Datadog desde - servicios como: Microsoft Teams, Power BI, Azure Active Directory, Dynamics 365 - y más' -team: web-integrations -version: '1.0' +title: Logs de auditoría y seguridad de Microsoft 365 --- - - ## Información general +
+Si utilizas Cloud SIEM, Datadog recomienda utilizar la integración de Microsoft Entra ID para una mejor cobertura de detección de seguridad. +
+ Integra con Microsoft 365 para: - Ver y analizar los logs de auditoría con el producto de registro de Datadog @@ -41,19 +28,19 @@ Integra con Microsoft 365 para: ### Instalación -Usa el [cuadro de Microsoft 365 y Datadog][1] para instalar la integración. +Utiliza el [ícono de Datadog Microsoft 365](https://app.datadoghq.com/integrations/microsoft-365) para instalar la integración. Haz clic en **Install a New Tenant** (Instalar un inquilino nuevo). Esto te indicará que debes iniciar sesión en tu cuenta de Microsoft 365 para obtener autorización. Debes iniciar sesión con una cuenta de administrador. De manera opcional, añade etiquetas (tags) personalizadas separadas por comas que se adjunten a cada log para este inquilino recién configurado, por ejemplo, `environment:prod,team:us`. Estas etiquetas se pueden usar para filtrar o analizar logs. -**Nota**: Tu organización debe tener el [registro de auditoría habilitado][2] para usar el registro de auditoría de Datadog. +**Nota**: Tu organización debe tener [activado el registro de auditoría](https://docs.microsoft.com/en-us/microsoft-365/compliance/turn-audit-log-search-on-or-off?view=o365-worldwide#turn-on-audit-log-search) para utilizar el registro de auditoría de Datadog. ## Datos recopilados ### Logs -Puedes recopilar logs de auditoría para todos los servicios que se mencionan en los [esquemas de la API de gestión de Office 365][3], como: +Puedes recopilar logs de auditoría de todos los servicios mencionados en los [esquemas de la API de gestión de Office 365](https://learn.microsoft.com/en-us/office/office-365-management-api/office-365-management-activity-api-schema#office-365-management-api-schemas), como: - Microsoft Teams - Power BI @@ -65,90 +52,90 @@ Puedes recopilar logs de auditoría para todos los servicios que se mencionan en La integración de Microsoft 365 produce un evento de log por log de auditoría. Los logs recopilados se etiquetan con la fuente `microsoft-365`. Haz clic a continuación para obtener una lista de fuentes de log comunes con resúmenes y enlaces a consultas de log preestablecidas en Datadog.
- Haz clic para ver las fuentes de log comunes + Haz clic para ver las sources (fuentes) de logs habituales -[`AirInvestigation`][4] -: Relacionado con las investigaciones de Advanced eDiscovery y Advanced Threat Protection (ATP) dentro de Microsoft 365. Estos logs contienen información sobre incidencias de seguridad, investigaciones y acciones tomadas para mitigar amenazas, como alertas, pasos de corrección y datos forenses. +[`AirInvestigation`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AAirInvestigation%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true) +: Relacionado con investigaciones de Advanced eDiscovery y Advanced Threat Protection (ATP) en Microsoft 365. Estos logs contienen información sobre incidents (incidentes) de seguridad, investigaciones y medidas tomadas para mitigar amenazas, como alertas, steps (UI) / pasos (generic) de corrección y datos forenses. -[`Audit.AzureActiveDirectory`][5] -: Representa a los logs que genera Azure Active Directory (Azure AD), el servicio de gestión de identidad y acceso basado en la nube de Microsoft. Los logs de Azure AD proporcionan información sobre las actividades de inicio de sesión de los usuarios, la gestión de directorios y grupos, el acceso a las aplicaciones, y los eventos relacionados con la seguridad. Permite a las organizaciones gestionar el acceso de los usuarios y detectar posibles riesgos de seguridad. +[`Audit.AzureActiveDirectory`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AAzureActiveDirectory%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true) +: Representa logs generados Azure Active Directory (Azure AD), identidad basada en la nube de Microsoft y servicio de gestión de acceso. Los logs de Azure AD brindan información sobre las actividades de inicio de sesión del usuario, gestión de grupos y directorios, acceso a aplicaciones y eventos relacionados con la seguridad. Permite que las organizaciones gestionen el acceso del usuario y detecten posibles riesgos de seguridad. -[`Audit.Exchange`][6] -: Se refiere a los logs que genera Microsoft Exchange Server. Los logs de Exchange contienen información sobre la entrega de correos electrónicos, el acceso al buzón, las conexiones de clientes y las acciones administrativas dentro del entorno de Exchange. Ayuda a las organizaciones a monitorizar y solucionar problemas relacionados con correos electrónicos. +[`Audit.Exchange`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AExchange%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true) +: Se relaciona con logs generados por Microsoft Exchange Server. Los logs de Exchange contienen información sobre entrega de correo electrónico, acceso al buzón, conexiones de clientes y acciones administrativas en el entorno de Exchange. Ayda a las organizaciones a monitorizar y solucionar problemas relacionados con el correo electrónico. -[`Audit.General`][7] -: Contiene información sobre diversas actividades y eventos que se producen en tu entorno de Microsoft 365, como actividades de usuarios y administradores, eventos del sistema, incidencias de seguridad y otras acciones que no están directamente asociadas con servicios específicos como Exchange o SharePoint. +[`Audit.General`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true) +: Contiene información sobre distintas actividades y eventos que se producen en tu entorno de Microsoft 365, como actividades del usuario y del administrador, eventos del sistema, incidents (incidentes) de seguridad y otras medidas que no se relacionan directamente con servicios específicos como Exchange o SharePoint. -[`Audit.MicrosoftForms`][8] -: Representa a los logs que genera Microsoft Forms, una herramienta para crear encuestas, cuestionarios y formularios. Los logs de Forms incluyen información sobre la creación de formularios, el acceso, las respuestas y las actividades de los usuarios. Ayuda a las organizaciones a rastrear y proteger los datos de sus formularios. +[`Audit.MicrosoftForms`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AMicrosoftForms%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true) +: Representa logs generados por Microsoft Forms, una herramienta para crear encuestas, cuestionarios y formularios. Los logs de formularios incluyen información sobre creación de formularios, acceso, respuestas y actividades del usuario. Brinda asistencia a las organizaciones en el rastreo y la obtención de datos de sus formularios. -[`Audit.MicrosoftStream`][9] -: Hace referencia a los logs que genera Microsoft Stream, una plataforma para compartir vídeos dentro del ecosistema de Microsoft. Los logs de Stream contienen información sobre las cargas de vídeos, el acceso, el uso compartido y las actividades de los usuarios. Ayuda a las organizaciones a rastrear y proteger su contenido de vídeos. +[`Audit.MicrosoftStream`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AMicrosoftStream%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true) +: Se refiere a logs generados por Microsoft Stream, una plataforma para compartir videos en el ecosistema de Microsoft. Los logs de Stream contienen información sobre cargas de videos, acceso, compartir y actividades del usuario. Ayuda a las organizaciones a rastrear y obtener su contenido de video. -[`Audit.MicrosoftTeams`][10] -: Incluye los logs que genera Microsoft Teams, una plataforma de colaboración y comunicación. Los logs de Teams incluyen información sobre las actividades de los usuarios, la gestión de equipos y canales, el uso compartido de archivos, y los eventos de reuniones. Ayuda a las organizaciones a monitorizar las interacciones de los usuarios y garantizar una colaboración segura. +[`Audit.MicrosoftTeams`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AMicrosoftTeams%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true) +: Comprende logs producidos por Microsoft Teams, una plataforma de colaboración y comunicación. Los logs de Teams incluyen información sobre actividades del usuario, gestión de equipos y canales, archivos compartidos y eventos de reuniones. Ayuda a las organizaciones a monitorizar interacciones de usuarios y garantizar una colaboración segura. -[`Audit.OneDrive`][11] -: Hace referencia a los logs que genera OneDrive, el servicio de sincronización y almacenamiento de archivos basado en la nube de Microsoft. Los logs de OneDrive incluyen información sobre el acceso a los archivos, el uso compartido, las modificaciones y las actividades de los usuarios. Ayuda a las organizaciones a monitorizar y proteger sus datos basados ​​en la nube. +[`Audit.OneDrive`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AOneDrive%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true) +: Se refiere a logs generados por OneDrive, el servicio de almacenamiento y sincronización de archivos basado en la nube de Microsoft. Los logs de OneDrive incluyen información sobre acceso a archivos, compartida, modificaciones y actividades del usuario. Ayuda a las organizaciones a monitorizar y obtener datos basados en la nube. -[`Audit.PowerBI`][12] -: Hace referencia a los logs que genera Power BI, la herramienta de análisis empresarial y visualización de datos de Microsoft. Los logs de Power BI contienen información sobre el acceso a los datos, la generación de informes, las actividades del dashboard y las interacciones de los usuarios. Ayuda a las organizaciones a monitorizar y proteger sus datos de inteligencia empresarial. +[`Audit.PowerBI`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3APowerBI%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true) +: Se refiere a logs producidos por Power BI, la herramienta de análisis comerciales y visualización de datos de Microsoft. Los logs de Power BI contienen información sobre acceso a datos, generación de informes, actividades de dashboard e interacciones de usuarios. Ayuda a las organizaciones a monitorizar y obtener sus datos de inteligencia comercial. -[`Audit.Project`][13] -: Hace referencia a los logs de auditoría de Microsoft Project, una herramienta de gestión de proyectos dentro del conjunto de aplicaciones de Microsoft 365. Estos logs capturan eventos relacionados con actividades de los usuarios, acciones administrativas y eventos del sistema dentro de Microsoft Project, como la creación de proyectos, actualizaciones de tareas, asignación de recursos y cambios de permisos. +[`Audit.Project`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AProject%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true) +: Se refiere a logs de auditoría de Microsoft Project, una herramienta de gestión de projects (proyectos) en la serie Microsoft 365. Estos logs capturan eventos relacionados con actividades del usuario, medidas administrativas y eventos del sistema en Microsoft Project, como creación de projects (proyectos), actualizaciones de tareas, asignación de recursos y cambios de permisos. -[`Audit.SharePoint`][14] -: Hace referencia a los logs que genera Microsoft SharePoint. Los logs de SharePoint registran el acceso de los usuarios, las modificaciones de documentos, la administración del sitio y los eventos relacionados con la seguridad. Permite a las organizaciones mantener la integridad de los datos y proteger sus sitios y contenidos de SharePoint. +[`Audit.SharePoint`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3ASharePoint%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true) +: Se refiere a logs producidos por Microsoft SharePoint. Los logs de SharePoint registran el acceso del usuario, modificaciones de documentos, administración de sitios y eventos relacionados con la seguridad. Permite que las organizaciones mantengan la integridad de los datos y obtengan sus sitios y contenido de SharePoint. -[`Audit.SkypeForBusiness`][15] -: Hace referencia a los logs de auditoría de las actividades de Skype Empresarial. Estos logs capturan eventos relacionados con acciones administrativas y de usuarios dentro del servicio de Skype Empresarial, como registros de detalles de llamadas, registros de detalles de conferencias, actividades de mensajería y acciones de administración, como la administración de usuarios y actualizaciones de políticas. +[`Audit.SkypeForBusiness`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3ASkypeForBusiness%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true) +: Se refiere a los logs de auditoría de actividades de Skype for Business. Estos logs capturan eventos relacionados con acciones del usuario y administrativas en el servicio de Skype for Business, como registros de detalles de llamadas, registros de detalles de conferencias, actividades de mensajería y medidas administrativas como actualizaciones de gestión y políticas del usuario. -[`Audit.Yammer`][16] -: Representa a los logs que genera Yammer, una plataforma de redes sociales para empresas. Los logs de Yammer incluyen información sobre las actividades de los usuarios, la gestión de grupos y comunidades, y el uso compartido de contenido. Ayuda a las organizaciones a monitorizar y proteger sus redes sociales internas. +[`Audit.Yammer`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AYammer%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true) +: Representa logs producidos por Yammer, una plataforma de redes sociales para empresas. Los logs de Yammer incluyen información sobre actividades del usuario, gestión de grupos y comunidades y contenido compartido. Ayuda a las organizaciones a monitorizar y obtener sus redes sociales internas. -[`ComplianceManager`][17] -: Relacionado con la herramienta Microsoft Compliance Manager, que ayuda a las organizaciones a evaluar, gestionar y rastrear sus actividades de cumplimiento en Microsoft 365. Estos logs contienen información sobre evaluaciones de cumplimiento, tareas, acciones de mejora y progreso hacia el cumplimiento de los requisitos normativos. +[`ComplianceManager`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AComplianceManager%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true) +: Se relaciona con la herramienta Microsoft Compliance Manager, que ayuda a las organizaciones a evaluar, gestionar y rastrear sus actividades de cumplimiento en Microsoft 365. Estos logs contienen información sobre evaluaciones de complimiento, tareas, medidas de mejoramiento y progreso hacia requisitos regulatorios de reuniones. `DLP.All` -: Captura eventos relacionados con políticas, detecciones y acciones de DLP en todos los servicios de Microsoft 365, incluidos Exchange, SharePoint, OneDrive, Microsoft Teams y otros. Estos logs proporcionan información sobre infracciones de políticas, detecciones de información confidencial y acciones tomadas para proteger los datos, como bloquear contenido, notificar a usuarios o administradores, y más. +: Captura eventos relacionados con políticas de DLP, detecciones y acciones en todos los servicios de Microsoft 365, incluidos Exchange, SharePoint, OneDrive, Microsoft Teams y otros. Estos logs brindan información sobre incumplimientos de políticas detecciones de información confidencial y las medidas tomadas para proteger los datos, como bloqueo de contenido, notificación a usuarios o administradores y más. `Dynamics365` -: Recopila eventos de cualquiera de tus servicios y aplicaciones de [Microsoft Dynamics 365][18]. +: Recopila eventos de cualquiera de tus servicios y aplicaciones de [Microsoft Dynamics 365](https://learn.microsoft.com/dynamics365/). -[`MicrosoftFlow`][19] -: Asociado con el servicio de Microsoft Power Automate (antes conocido como Microsoft Flow), una plataforma basada en la nube que permite a los usuarios crear y gestionar flujos de trabajo automatizados entre varias aplicaciones y servicios. Estos logs capturan eventos relacionados con ejecuciones de flujos de trabajo, errores y acciones administrativas, como la creación, actualización o eliminación de flujos. +[`MicrosoftFlow`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AMicrosoftFlow%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true) +: Asociado con el servicio Microsoft Power Automate (anteriormente denominado Microsoft Flow), una plataforma basada en la nube que permite que los usuarios creen y gestionen workflows (UI) / procesos (generic) automatizados entre distintas aplicaciones y servicios. Estos logs capturan eventos relacionados con ejecuciones de workflows, errores y medidas administrativas, como la creación, actualización o eliminación de flujos. -[`Mip`][20] -: Se refiere a los logs que genera Microsoft Information Protection (MIP), un conjunto de herramientas y servicios para clasificar, etiquetar y proteger datos confidenciales. Los logs de MIP proporcionan información sobre la clasificación de datos, el acceso y los eventos de protección. Permite a las organizaciones gestionar y proteger su información confidencial. +[`Mip`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AMip%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true) +: Se relaciona con logs generados por Microsoft Information Protection (MIP), una serie de herramientas y servicios para clasificar, etiquetar y proteger datos confidenciales. Los logs de MIP brindan información sobre eventos de clasificación, acceso y protección de datos. Permite que las organizaciones gestionen y aseguren su información confidencial. -[`MyAnalytics`][21] -: Relacionado con el servicio de Microsoft MyAnalytics, que proporciona información sobre los hábitos de trabajo y las tendencias de productividad de una persona dentro del conjunto de aplicaciones de Microsoft 365. Estos logs contienen información sobre las actividades de los usuarios, como el tiempo dedicado a reuniones, correos electrónicos, colaboración y tiempo de concentración. +[`MyAnalytics`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AMyAnalytics%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true) +: Relacionado con el servicio Microsoft MyAnalytics, que brinda información sobre los hábitos laborales y las tendencias de productividad de una persona en la serie Microsoft 365. Estos logs contienen información sobre actividades de usuarios, el tiempo transcurrido en reuniones, correos electrónico, colaboración y tiempo de concentración. -[`PowerApps`][22] -: Hace referencia a los logs que genera Power Apps, la plataforma de desarrollo de aplicaciones de poco código de Microsoft. Los logs de Power Apps contienen información sobre la creación de aplicaciones, el acceso, el uso y las actividades del usuario. +[`PowerApps`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3APowerApps%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true) +: Se refiere a logs generados por Power Apps, la plataforma de código mínimo para el desarrollo de aplicaciones de Microsoft. Los logs de Power Apps contienen información sobre creación de aplicaciones, acceso, uso y actividades del usuario. -[`Quarantine`][23] -: Representa a los logs que generan los sistemas de cuarentena de correos electrónicos que se usan para aislar y revisar los correos electrónicos potencialmente maliciosos o no deseados. Los logs de cuarentena incluyen información sobre los correos electrónicos en cuarentena, los detalles del remitente y el destinatario, y las medidas adoptadas. Ayuda a las organizaciones a gestionar la seguridad de los correos electrónicos y a prevenir amenazas. +[`Quarantine`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AQuarantine%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true) +: Representa logs generados por sistemas de cuarentena de correo electrónico utilizados para aislar y revisar correos electrónicos posiblemente maliciosos o no deseados. Los logs de cuarentena incluyen información sobre correos electrónicos en cuarentena, datos del remitente y del destinatario y medidas tomadas. Ayuda a las organizaciones a gestionar la seguridad del correo electrónico email y a protegerse de amenazas. -[`Rdl`][24] -: Relacionado con SQL Server Reporting Services (SSRS), una plataforma de generación de informes basada en servidores que permite a los usuarios crear, publicar y gestionar informes en varios formatos. La fuente de log Rdl captura eventos relacionados con la ejecución de informes, el acceso y las acciones administrativas, como la generación, actualización o eliminación de informes. +[`Rdl`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3ARdl%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true) +: Relacionado con SQL Server Reporting Services (SSRS), una plataforma de informes basada en el servidor que permite que los usuarios creen, publiquen y gestionen informes en distintos formatos. La source (fuente) de logs de Rdl captura eventos relacionados con la ejecución de informes, el acceso y las medidas administrativas, como generar, actualizar o eliminar informes. -[`SecurityComplianceCenter`][25] -: Se refiere a los logs que genera el Centro de seguridad y cumplimiento de Microsoft, una plataforma centralizada para gestionar las funciones de seguridad y cumplimiento en todos los servicios de Microsoft 365. Estos logs proporcionan información sobre incidencias de seguridad, infracciones de políticas y actividades de gestión del cumplimiento. Ayuda a las organizaciones a mantener un entorno de TI seguro y que cumpla con las normas. +[`SecurityComplianceCenter`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3ASecurityComplianceCenter%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true) +: Se refiere a logs generados por Microsoft's Security & Compliance Center, una plataforma centralizada para gestionar funciones de seguridad y cumplimiento en todos los servicios de Microsoft 365. Estos logs brindan información sobre incidents (ncidentes) de seguridad, incumplimientos de políticas y actividades de gestión de cumplimiento. Ayuda a las organizaciones a mantener un entorno seguro y cumplidor de TI. -[`SecurityMonitoringEntityReducer`][26] -: Asociado con logs de eventos de seguridad y actividades de agregación de alertas en Microsoft 365. Estos logs proporcionan información sobre eventos de seguridad, anomalías y posibles amenazas detectadas en el entorno de Microsoft 365. +[`SecurityMonitoringEntityReducer`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3ASecurityMonitoringEntityReducer%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true) +: Asociado con logs de eventos de seguridad y actividades de agregación de alertas en Microsoft 365. Estos logs brindan informaciones sobre eventos de seguridad, anomalías y posibles amenazas detectadas en todo el entorno de Microsoft 365. -[`ThreatIntelligence`][27] -: Incluye logs que generan los sistemas o herramientas de inteligencia de amenazas que recopilan, analizan y comparten información sobre amenazas de seguridad emergentes. Los logs de inteligencia de amenazas proporcionan información sobre posibles amenazas, vulnerabilidades e indicadores de riesgo. Ayuda a las organizaciones a defenderse de manera proactiva contra los ciberataques. +[`ThreatIntelligence`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AThreatIntelligence%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true) +: Comprende logs generados por sistemas o herramientas de inteligencia de amenazas que recopilan, analizan y comparten información sobre amenazas a la seguridad surgidas. Los logs de inteligencia de amenazas brindan información sobre posibles amenazas, vulnerabilidades e indicadores de compromiso. Ayuda a las organizaciones a defenderse en forma proactiva de ciberataques.
-Consulta los [esquemas de la API de gestión de Office 365][3] para obtener la lista completa de posibles fuentes de log. +Consulta [Esquemas de la API de gestión de Office 365](https://learn.microsoft.com/en-us/office/office-365-management-api/office-365-management-activity-api-schema#office-365-management-api-schemas) para ver la lista completa de posibles sources (fuentes) de logs. ### Seguridad -Puedes usar [Cloud SIEM][28] de Datadog para detectar amenazas en tiempo real en tu entorno con logs de auditoría de Microsoft 365. Consulta la lista completa de [reglas de detección de Microsoft 365 predefinidas][29] o [crea una regla de detección personalizada][30]. +Puedes utilizar [Cloud SIEM] de Datadog (https://docs.datadoghq.com/security/#cloud-siem) para detectar amenazas en tiempo real en tu entorno con logs de auditoría de Microsoft 365. Consulte la lista completa de [reglas de detección predefinidas de Microsoft 365](https://docs.datadoghq.com/security/default_rules/?category=cat-cloud-siem-log-detection&search=microsoft+365) o [crea una regla de detección personalizada](https://docs.datadoghq.com/security/detection_rules/#create-detection-rules). {{< img src="integrations/microsoft_365/microsoft_365_rules.png" alt="La página de reglas de seguridad predefinidas con Cloud SIEM seleccionado y Microsoft 365 ingresado en la barra de búsqueda" style="width:80;" popup="true">}} @@ -156,50 +143,18 @@ Puedes usar [Cloud SIEM][28] de Datadog para detectar amenazas en tiempo real en La integración de Microsoft 365 no recopila métricas. -### Checks de servicios +### Checks de servicio La integración de Microsoft 365 no recopila checks de servicio. -## Resolución de problemas +## Solucionar problemas La entrada de logs de Datadog solo permite retrotraer eventos de log hasta 18 horas atrás. Se descartan los eventos de log con una marca de tiempo anterior. Datadog no es compatible con los inquilinos de DoD, gobierno de CCG o gobierno de GCC High, porque requieren diferentes endpoints de Microsoft. -¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][31]. - -## Leer más - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: https://app.datadoghq.com/integrations/microsoft-365 -[2]: https://docs.microsoft.com/en-us/microsoft-365/compliance/turn-audit-log-search-on-or-off?view=o365-worldwide#turn-on-audit-log-search -[3]: https://learn.microsoft.com/en-us/office/office-365-management-api/office-365-management-activity-api-schema#office-365-management-api-schemas -[4]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AAirInvestigation%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true -[5]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AAzureActiveDirectory%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true -[6]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AExchange%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true -[7]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true -[8]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AMicrosoftForms%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true -[9]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AMicrosoftStream%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true -[10]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AMicrosoftTeams%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true -[11]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AOneDrive%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true -[12]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3APowerBI%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true -[13]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AProject%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true -[14]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3ASharePoint%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true -[15]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3ASkypeForBusiness%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true -[16]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AYammer%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true -[17]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AComplianceManager%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true -[18]: https://learn.microsoft.com/dynamics365/ -[19]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AMicrosoftFlow%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true -[20]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AMip%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true -[21]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AMyAnalytics%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true -[22]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3APowerApps%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true -[23]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AQuarantine%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true -[24]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3ARdl%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true -[25]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3ASecurityComplianceCenter%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true -[26]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3ASecurityMonitoringEntityReducer%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true -[27]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AThreatIntelligence%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true -[28]: https://docs.datadoghq.com/es/security/#cloud-siem -[29]: https://docs.datadoghq.com/es/security/default_rules/?category=cat-cloud-siem-log-detection&search=microsoft+365 -[30]: https://docs.datadoghq.com/es/security/detection_rules/#create-detection-rules -[31]: https://docs.datadoghq.com/es/help/ \ No newline at end of file +¿Necesitas ayuda? Ponte en contacto con [asistencia técnica de Datadog](https://docs.datadoghq.com/help/). + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/integrations/mysql.md b/content/es/integrations/mysql.md index b106ffc6b73ca..4da709691e412 100644 --- a/content/es/integrations/mysql.md +++ b/content/es/integrations/mysql.md @@ -1,110 +1,50 @@ --- -app_id: "mysql" -app_uuid: "f6177896-da1e-4bc4-ab19-fd32e8868647" -assets: - dashboards: - mysql: "assets/dashboards/overview.json" - mysql-screenboard: "assets/dashboards/overview-screenboard.json" - integration: - auto_install: true - configuration: - spec: "assets/configuration/spec.yaml" - events: - creates_events: true - metrics: - check: "mysql.net.connections" - metadata_path: "metadata.csv" - prefix: "mysql." - process_signatures: - - "mysqld" - service_checks: - metadata_path: "assets/service_checks.json" - source_type_id: !!int "18" - source_type_name: "MySQL" - monitors: - MySQL database replica is not running properly: "assets/monitors/replica_running.json" - SELECT query volume is dropping: "assets/monitors/select_query_rate.json" - saved_views: - mysql_processes: "assets/saved_views/mysql_processes.json" - operations: "assets/saved_views/operations.json" - operations_overview: "assets/saved_views/operations_overview.json" - slow_operations: "assets/saved_views/slow_operations.json" -author: - homepage: "https://www.datadoghq.com" - name: "Datadog" - sales_email: "info@datadoghq.com" - support_email: "help@datadoghq.com" +app_id: mysql categories: -- "data stores" -- "log collection" -custom_kind: "integración" -dependencies: -- "https://github.com/DataDog/integrations-core/blob/master/mysql/README.md" -display_on_public_website: true -draft: false -git_integration_title: "mysql" -integration_id: "mysql" -integration_title: "MySQL" -integration_version: "14.3.0" -is_public: true -manifest_version: "2.0.0" -name: "mysql" -public_title: "MySQL" -short_description: "Recopila métricas de esquema de rendimiento, rendimiento de consultas, métricas personalizadas y mucho más." +- data stores +- log collection +custom_kind: integración +description: Recopila métricas de esquemas de rendimiento, rendimiento de consultas + y métricas personalizadas, and more. +further_reading: +- link: https://www.datadoghq.com/blog/monitoring-mysql-performance-metrics + tag: blog + text: Monitorización de las métricas de rendimiento de MySQL +integration_version: 15.7.1 +media: [] supported_os: -- "linux" -- "macos" -- "windows" -tile: - changelog: "CHANGELOG.md" - classifier_tags: - - "Supported OS::Linux" - - "Supported OS::macOS" - - "Supported OS::Windows" - - "Category::Data Stores" - - "Category::Log Collection" - - "Offering::Integration" - configuration: "README.md#Setup" - description: "Recopila métricas de esquema de rendimiento, rendimiento de consultas, métricas personalizadas y mucho más." - media: [] - overview: "README.md#Overview" - resources: - resource_type: "blog" - url: "https://www.datadoghq.com/blog/monitoring-mysql-performance-metrics" - support: "README.md#Support" - title: "MySQL" +- linux +- macos +- windows +title: MySQL --- - - - - -![Dashboard de MySQL][1] +![Dashboard de MySQL](https://raw.githubusercontent.com/DataDog/integrations-core/master/mysql/images/mysql-dash-dd-2.png) ## Información general La integración de MySQL controla el rendimiento de tus instancias de MySQL. Recopila métricas en relación con el rendimiento, las conexiones, los errores y métricas de InnoDB. -Activa la [Monitorización de base de datos][2] (DBM) para obtener información mejorada sobre el rendimiento de las consultas y el estado de la base de datos. Además de la integración estándar, Datadog DBM proporciona métricas a nivel de consulta, snapshots de consultas en tiempo real e históricas, análisis de eventos en espera, carga de la base de datos y planes de explicación de consultas. +Activa [Database Monitoring](https://docs.datadoghq.com/database_monitoring/) (DBM) para obtener información mejorada sobre el rendimiento de las consultas y el estado de la base de datos. Además de la integración estándar, DBM de Datadog proporciona métricas a nivel de consulta, instantáneas de consultas históricas y en tiempo real, análisis de eventos de espera, carga de base de datos y planes de explicación de consultas. -Se admiten las versiones 5.6, 5.7 y 8.0 de MySQL, y las versiones 10.5, 10.6, 10.11 y 11.1 de MariaDB. +Se admiten las versiones 5.6, 5.7 y 8.0 de MySQL y las versiones 10.5, 10.6, 10.11 y 11.1 de MariaDB. ## Configuración -
En esta página, se describe la integración estándar del Agent de MySQL. Si buscas el producto de Monitorización de base de datos para MySQL, consulta Monitorización de base de datos de Datadog.
+
En esta page (página), se describe la integración estándar del Agent de MySQL. Si buscas el producto de Database Monitoring para MySQL, consulta Database Monitoring de Datadog.
### Instalación -El check de MySQL está incluido en el paquete del [Datadog Agent ][3]. No es necesaria ninguna instalación adicional en tu servidor de MySQL. +El check de MySQL está incluido en el paquete del [Datadog Agent ](https://app.datadoghq.com/account/settings/agent/latest). No es necesaria ninguna instalación adicional en tu servidor de MySQL. #### Preparar MySQL -**Nota**: Para instalar la Monitorización de base de datos para MySQL, selecciona tu solución de alojamiento en la [documentación de Monitorización de base de datos][4] para obtener instrucciones. +**Nota**: Para instalar Database Monitoring para MySQL, selecciona tu solución de alojamiento en la [documentación de Database Monitoring](https://docs.datadoghq.com/database_monitoring/#mysql) para obtener instrucciones. -Procede con los siguientes pasos de esta guía solo si vas a instalar únicamente la integración estándar. +Procede con los siguientes pasos de esta guía solo si vas a instalar la integración estándar únicamente. En cada servidor MySQL, crea un usuario de base de datos para el Datadog Agent. -Las siguientes instrucciones conceden al Agent permiso para iniciar sesión desde cualquier host mediante `datadog@'%'`. Puedes restringir al usuario `datadog` para que sólo pueda iniciar sesión desde el host local mediante `datadog@'localhost'`. Consulta [Añadir cuentas de MySQL, asignar privilegios y eliminar cuentas][5] para obtener más información. +Las siguientes instrucciones conceden al Agent permiso para iniciar sesión desde cualquier host mediante `datadog@'%'`. Puedes restringir al usuario `datadog` para que solo pueda iniciar sesión desde un host local mediante `datadog@'localhost'`. Consulta [Añadir cuentas, asignar privilegios y eliminar cuentas de MySQL](https://dev.mysql.com/doc/refman/8.0/en/creating-accounts.html) para obtener más información. Crea el usuario `datadog` con el siguiente comando: @@ -169,22 +109,31 @@ mysql> GRANT SELECT ON performance_schema.* TO 'datadog'@'%'; Query OK, 0 rows affected (0.00 sec) ``` +Para recopilar métricas de índices, concede al usuario `datadog` un privilegio adicional: + +```shell + +mysql> GRANT SELECT ON mysql.innodb_index_stats TO 'datadog'@'%'; +Query OK, 0 rows affected (0.00 sec) +``` + ### Configuración -Sigue las instrucciones a continuación para configurar este check para un Agent que se ejecuta en un host. Para entornos en contenedores, consulta las secciones de [Docker](?tab=docker#docker), [Kubernetes](?tab=kubernetes#kubernetes), o [ECS](?tab=ecs#ecs). +Sigue las instrucciones a continuación para configurar este check para un Agent que se ejecuta en un host. Para entornos en contenedores, consulta las secciones [Docker](?tab=docker#docker), [Kubernetes](?tab=kubernetes#kubernetes) o [ECS](?tab=ecs#ecs). -**Nota**: Para obtener una lista completa de las opciones de configuración disponibles, consulta el [mysql.d/conf.yaml de ejemplo][6]. +**Nota**: Para obtener una lista completa de las opciones de configuración disponibles, consulta el [ejemplo mysql.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/mysql/datadog_checks/mysql/data/conf.yaml.example). {{< tabs >}} + {{% tab "Host" %}} #### Host Para configurar este check para un Agent que se ejecuta en un host: -Edita el archivo `mysql.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent][1] para iniciar la recopilación de tus [métricas](#métrica-collection) y [logs](#log-collection) de MySQL. +Edita el archivo `MySQL.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory) para empezar a recopilar tus [métricas](#metric-collection) y [logs](#log-collection) de MySQL. -Para obtener una lista completa de las opciones de configuración disponibles, consulta el [`mysql.d/conf.yaml` de ejemplo][2]. +Para obtener una lista completa de las opciones de configuración disponibles, consulta el [ejemplo `mysql.d/conf.yaml`](https://github.com/DataDog/integrations-core/blob/master/mysql/datadog_checks/mysql/data/conf.yaml.example). ##### Recopilación de métricas @@ -209,19 +158,20 @@ Para obtener una lista completa de las opciones de configuración disponibles, c **Nota**: Escribe tu contraseña entre comillas simples en caso de que haya un carácter especial. -Para recopilar `extra_performance_metrics`, tu servidor de MySQL debe tener habilitado `performance_schema`; de lo contrario, configura `extra_performance_metrics` en `false`. Para obtener más información sobre `performance_schema`, consulta [inicio rápido del esquema de rendimiento de MySQL][3]. +Para recopilar `extra_performance_metrics`, tu servidor de MySQL debe tener `performance_schema` activado, de lo contrario, configura `extra_performance_metrics` en `false`. Para obtener más información sobre `performance_schema`, consulta [Inicio rápido del esquema de rendimiento de MySQL](https://dev.mysql.com/doc/refman/5.7/en/performance-schema-quick-start.html). **Nota**: El usuario `datadog` debe establecerse en la configuración de la integración de MySQL como `host: 127.0.0.1` en lugar de `localhost`. Como alternativa, también puedes utilizar `sock`. -[Reinicia el Agent][4] para empezar a enviar métricas de MySQL a Datadog. +[Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent) para empezar a enviar métricas de MySQL a Datadog. ##### Recopilación de logs -_Disponible para el Agent versión 6.0 o posterior_ +_Disponible para las versiones 6.0 o posteriores del Agent_ -1. Por defecto, MySQL loguea todo en `/var/log/syslog` que requiere acceso raíz para la lectura. Para que los logs sean más accesibles, sigue estos pasos: +1. De manera predeterminada, MySQL registra todo en `/var/log/syslog` que requiere acceso raíz para la lectura. Para que los logs sean más accesibles, sigue estos pasos: - Edita `/etc/mysql/conf.d/mysqld_safe_syslog.cnf` y elimina o comenta las líneas. + - Edita `/etc/mysql/my.cnf` y añade las siguientes líneas para activar los logs de consultas generales, de error y lentas: ```conf @@ -239,7 +189,9 @@ _Disponible para el Agent versión 6.0 o posterior_ - Guarda el archivo y reinicia MySQL con los siguientes comandos: `service mysql restart` + - Asegúrate de que el Agent tiene acceso de lectura al directorio `/var/log/mysql` y a todos los archivos que contiene. Vuelve a controlar tu configuración de logrotate para asegurarte de que esos archivos se tienen en cuenta y que los permisos se establecen correctamente allí también. + - En `/etc/logrotate.d/mysql-server` debería haber algo parecido a: ```text @@ -252,13 +204,13 @@ _Disponible para el Agent versión 6.0 o posterior_ } ``` -2. La recopilación de logs está desactivada por defecto en el Datadog Agent, actívala en tu archivo `datadog.yaml`: +1. La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent, actívala en tu archivo `datadog.yaml`: ```yaml logs_enabled: true ``` -3. Añade este bloque de configuración en tu archivo `mysql.d/conf.yaml` para empezar a recopilar tus logs de MySQL: +1. Añade este bloque de configuración a tu archivo `mysql.d/conf.yaml` para empezar a recopilar logs de MySQL: ```yaml logs: @@ -301,23 +253,21 @@ _Disponible para el Agent versión 6.0 o posterior_ # pattern: \t\t\s*\d+\s+|\d{6}\s+\d{,2}:\d{2}:\d{2}\t\s*\d+\s+ ``` - Para conocer todas las opciones de configuración disponibles, incluidas las de métricas personalizadas, consulta el [mysql.yaml de ejemplo][2]. + Consulta el [ejemplo mysql.yaml](https://github.com/DataDog/integrations-core/blob/master/mysql/datadog_checks/mysql/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles, incluidas las de métricas personalizadas. -4. [Reinicia el Agent][4]. +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). -[1]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory -[2]: https://github.com/DataDog/integrations-core/blob/master/mysql/datadog_checks/mysql/data/conf.yaml.example -[3]: https://dev.mysql.com/doc/refman/5.7/en/performance-schema-quick-start.html -[4]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent {{% /tab %}} + {{% tab "Docker" %}} + #### Docker Para configurar este check para un Agent que se ejecuta en un contenedor: ##### Recopilación de métricas -Establece [plantillas de integración de Autodiscovery][1] como etiquetas de Docker en tu contenedor de aplicación: +Configura [Plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/docker/integrations/?tab=docker) como etiquetas de Docker en tu contenedor de aplicaciones: ```yaml LABEL "com.datadoghq.ad.check_names"='["mysql"]' @@ -325,35 +275,31 @@ LABEL "com.datadoghq.ad.init_configs"='[{}]' LABEL "com.datadoghq.ad.instances"='[{"server": "%%host%%", "username": "datadog","password": ""}]' ``` -Consulta las [variables de plantilla de Autodiscovery][2] para obtener más detalles sobre cómo usar `` como una variable de entorno en lugar de una etiqueta (label). +Consulta [variables de plantillas de Autodiscovery](https://docs.datadoghq.com/agent/faq/template_variables/) para obtener más detalles sobre el uso de `` como variable de entorno en lugar de una etiqueta. #### Recopilación de logs +La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent . Para activarla, consulta [Recopilación de logs de Docker](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#installation). -La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [recopilación de logs de Docker][3]. - -A continuación, establece [integraciones de log][4] como etiquetas de Docker: +A continuación, configura [Integraciones de logs](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations) como etiquetas de Docker: ```yaml LABEL "com.datadoghq.ad.logs"='[{"source":"mysql","service":"mysql"}]' ``` -[1]: https://docs.datadoghq.com/agent/docker/integrations/?tab=docker -[2]: https://docs.datadoghq.com/agent/faq/template_variables/ -[3]: https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#installation -[4]: https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations {{% /tab %}} + {{% tab "Kubernetes" %}} #### Kubernetes -Para configurar este check para un Agent que se ejecuta en Kubernetes: +Para Configurar este check para un Agent que se ejecuta en Kubernetes: ##### Recopilación de métricas -Establece [plantillas de integraciones de Autodiscovery][1] como anotaciones de pod en tu contenedor de aplicación. Alternativamente, puedes configurar plantillas con un [archivo, configmap, o almacén de clave-valor][2]. +Configura [Plantillas de integraciones de Autodiscovery](https://docs.datadoghq.com/agent/kubernetes/integrations/?tab=kubernetes) como anotaciones de pod en tu contenedor de aplicaciones. Alternativamente, puedes configurar plantillas con un [archivo, mapa de configuración o almacenamiento de valores de claves](https://docs.datadoghq.com/agent/kubernetes/integrations/?tab=kubernetes#configuration). -**Anotaciones v1** (para el Datadog Agent v7.36 o anterior) +**Annotations v1** (para el Datadog Agent \< v7.36) ```yaml apiVersion: v1 @@ -405,16 +351,15 @@ spec: - name: mysql ``` -Consulta las [variables de plantilla de Autodiscovery][3] para obtener más detalles sobre cómo usar `` como una variable de entorno en lugar de una etiqueta. +Consulta [variables de plantilla de Autodiscovery](https://docs.datadoghq.com/agent/faq/template_variables/) para más detalles sobre el uso de `` como variable de entorno en lugar de una etiqueta. #### Recopilación de logs +La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [Recopilación de logs de Kubernetes](https://docs.datadoghq.com/agent/kubernetes/log/?tab=containerinstallation#setup). -La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [Recopilación de logs de Kubernetes][4]. +A continuación, configura [Integraciones de logs](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations) como anotaciones del pod. Alternativamente, puedes configurar esto con un [archivo, mapa de configuración o almacenamiento de valores de claves](https://docs.datadoghq.com/agent/kubernetes/log/?tab=daemonset#configuration). -A continuación, establece [integraciones de log][5] como anotaciones del pod. Alternativamente, puedes configurar esto con un [archivo, configmap, o almacén de clave-valor][6]. - -**Anotaciones v1/v2** +**Annotations v1/v2** ```yaml apiVersion: v1 @@ -427,13 +372,8 @@ metadata: name: mysql ``` -[1]: https://docs.datadoghq.com/agent/kubernetes/integrations/?tab=kubernetes -[2]: https://docs.datadoghq.com/agent/kubernetes/integrations/?tab=kubernetes#configuration -[3]: https://docs.datadoghq.com/agent/faq/template_variables/ -[4]: https://docs.datadoghq.com/agent/kubernetes/log/?tab=containerinstallation#setup -[5]: https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations -[6]: https://docs.datadoghq.com/agent/kubernetes/log/?tab=daemonset#configuration {{% /tab %}} + {{% tab "ECS" %}} #### ECS @@ -442,7 +382,7 @@ Para configurar este check para un Agent que se ejecuta en ECS: ##### Recopilación de métricas -Establece las [plantillas de integraciones de Autodiscovery][1] como etiquetas de Docker en el contenedor de tu aplicación: +Configura [Plantillas de integraciones de Autodiscovery](https://docs.datadoghq.com/agent/docker/integrations/?tab=docker) como etiquetas de Docker en el contenedor de tu aplicación: ```json { @@ -458,15 +398,15 @@ Establece las [plantillas de integraciones de Autodiscovery][1] como etiquetas d } ``` -Consulta las [variables de plantilla de Autodiscovery][2] para obtener más detalles sobre cómo usar `` como una variable de entorno en lugar de una etiqueta. +Consulta [variables de plantilla de Autodiscovery](https://docs.datadoghq.com/agent/faq/template_variables/) para obtener más detalles sobre el uso de `` como variable de entorno en lugar de una etiqueta. ##### Recopilación de logs -_Disponible para el Agent versión 6.0 o posterior_ +_Disponible para las versiones 6.0 o posteriores del Agent_ -La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [recopilación de logs de ECS][3]. +La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent. Para activarla, consulta [Recopilación de logs de ECS](https://docs.datadoghq.com/agent/amazon_ecs/logs/?tab=linux). -A continuación, establece [integraciones de log][4] como etiquetas de Docker: +A continuación, configura [Integraciones de logs](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations) como etiquetas de Docker: ```yaml { @@ -479,22 +419,260 @@ A continuación, establece [integraciones de log][4] como etiquetas de Docker: }] } ``` -[1]: https://docs.datadoghq.com/agent/docker/integrations/?tab=docker -[2]: https://docs.datadoghq.com/agent/faq/template_variables/ -[3]: https://docs.datadoghq.com/agent/amazon_ecs/logs/?tab=linux -[4]: https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations + {{% /tab %}} + {{< /tabs >}} ### Validación -[Ejecuta el subcomando de estado del Agent][7] y busca `mysql` en la sección Checks. +[Ejecuta el subcomando de estado del Agent(https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `MySQL` en la sección Checks. ## Datos recopilados ### Métricas -{{< get-metrics-from-git "mysql" >}} +| | | +| --- | --- | +| **mysql.binlog.cache_disk_use**
(gauge) | El número de transacciones que utilizaron la caché temporal de logs binarios, pero que excedieron el valor de `binlog_cache_size` y utilizaron un archivo temporal para almacenar sentencias de la transacción.
_Mostrado como transacción_ | +| **mysql.binlog.cache_use**
(gauge) | El número de transacciones que utilizaron la caché de logs binarios.
_Mostrado como transacción_ | +| **mysql.binlog.disk_use**
(gauge) | Tamaño total del archivo de log binario.
_Mostrado como byte_ | +| **mysql.galera.wsrep_cert_deps_distance**
(gauge) | Muestra la distancia media entre los valores más bajos y más altos del número de secuencia, o seqno, que el nodo puede aplicar en paralelo.| +| **mysql.galera.wsrep_cluster_size**
(gauge) | El número actual de nodos en el clúster Galera.
_Mostrado como nodo_ | +| **mysql.galera.wsrep_flow_control_paused**
(gauge) | Muestra la fracción de tiempo, desde la última vez que se llamó a FLUSH STATUS, que el nodo estuvo en pausa debido al control de flujo.
_Mostrado como fracción_ | +| **mysql.galera.wsrep_flow_control_paused_ns**
(count) | Muestra el tiempo de pausa debido al control de flujo, en nanosegundos.
_Mostrado como nanosegundo_ | +| **mysql.galera.wsrep_flow_control_recv**
(count) | Muestra el número de veces que el nodo galera ha recibido un mensaje de control de flujo en pausa de otros| +| **mysql.galera.wsrep_flow_control_sent**
(count) | Muestra el número de veces que el nodo galera ha enviado un mensaje de control de flujo en pausa a otros| +| **mysql.galera.wsrep_local_cert_failures**
(count) | Número total de transacciones locales que no han superado el test de certificación.| +| **mysql.galera.wsrep_local_recv_queue**
(gauge) | Muestra el tamaño actual (instantáneo) de la cola de recepción local.| +| **mysql.galera.wsrep_local_recv_queue_avg**
(gauge) | Muestra el tamaño medio de la cola de recepción local desde la última consulta de FLUSH STATUS.| +| **mysql.galera.wsrep_local_send_queue**
(gauge) | Muestra el tamaño actual (instantáneo) de la longitud de la cola de envío desde la última consulta de FLUSH STATUS.| +| **mysql.galera.wsrep_local_send_queue_avg**
(gauge) | Muestra un promedio de la longitud de la cola de envío desde la última consulta de FLUSH STATUS.| +| **mysql.galera.wsrep_local_state**
(gauge) | Número de estado interno del clúster Galera| +| **mysql.galera.wsrep_received**
(gauge) | Número total de conjuntos de escritura recibidos de otros nodos.| +| **mysql.galera.wsrep_received_bytes**
(gauge) | Tamaño total (en bytes) de los conjuntos de escritura recibidos de otros nodos.| +| **mysql.galera.wsrep_replicated_bytes**
(gauge) | Tamaño total (en bytes) de los conjuntos de escritura enviados a otros nodos.| +| **mysql.index.deletes**
(gauge) | Número de operaciones de borrado que utilizan un índice. Se restablece a 0 al reiniciar la base de datos.
_Mostrado como operación_. | +| **mysql.index.reads**
(gauge) | Número de operaciones de lectura que utilizan un índice. Se restablece a 0 al reiniciar la base de datos.
_Mostrado como operación_. | +| **mysql.index.size**
(gauge) | Tamaño del índice en bytes
_Se muestra como byte_ | +| **mysql.index.updates**
(gauge) | Número de operaciones de actualización que utilizan un índice. Se restablece a 0 al reiniciar la base de datos.
_Mostrado como operación_ | +| **mysql.info.schema.size**
(gauge) | Tamaño de los esquemas en MiB
_Se muestra como mebibyte_ | +| **mysql.info.table.data_size**
(gauge) | Tamaño de los datos de las tablas en MiB
_Se muestra como mebibyte_ | +| **mysql.info.table.index_size**
(gauge) | Tamaño del índice de las tablas en MiB
_Se muestra como mebibyte_ | +| **mysql.info.table.rows.changed**
(count) | Número total de filas modificadas por tabla (solo estado de usuario de Percona)
_Mostrado como fila_ | +| **mysql.info.table.rows.read**
(count) | Número total de filas leídas por tabla (solo estado de usuario de Percona)
_Mostrado como fila_ | +| **mysql.innodb.active_transactions**
(gauge) | El número de transacciones activas en tablas de InnoDB.
_Mostrado como operación_ | +| **mysql.innodb.buffer_pool_data**
(gauge) | El número total de bytes en la reserva de búferes de InnoDB que contienen datos. El número incluye tanto las páginas sucias como las limpias.
_Mostrado como byte_ | +| **mysql.innodb.buffer_pool_dirty**
(gauge) | El número total actual de bytes retenidos en páginas sucias en la reserva de búferes de InnoDB.
_Mostrado como byte_ | +| **mysql.innodb.buffer_pool_free**
(gauge) | El número de bytes libres en la reserva de búferes de InnoDB.
_Mostrado como byte_ | +| **mysql.innodb.buffer_pool_pages_data**
(gauge) | El número de páginas en la reserva de búferes de InnoDB que contienen datos. El número incluye tanto las páginas sucias como las limpias.
_Mostrado como page (página)_ | +| **mysql.innodb.buffer_pool_pages_dirty**
(gauge) | El número actual de páginas sucias en la reserva de búferes de InnoDB.
_Mostrado como page (página)_ | +| **mysql.innodb.buffer_pool_pages_flushed**
(gauge) | El número de solicitudes para vaciar páginas de la reserva de búferes de InnoDB.
_Mostrado como page (página)_ | +| **mysql.innodb.buffer_pool_pages_free**
(gauge) | Número de páginas libres en la reserva de búferes de InnoDB.
_Mostrado como page (página)_ | +| **mysql.innodb.buffer_pool_pages_total**
(gauge) | El tamaño total de la reserva de búferes de InnoDB, en páginas.
_Mostrado como page (página)_ | +| **mysql.innodb.buffer_pool_read_ahead**
(gauge) | El número de páginas leídas en la reserva de búferes de InnoDB por el hilo de lectura en segundo plano.
_Mostrado como page (página)_ | +| **mysql.innodb.buffer_pool_read_ahead_evicted**
(gauge) | El número de páginas leídas en la reserva de búferes de InnoDB por el hilo de lectura en segundo plano que fueron desalojadas posteriormente sin haber sido accedidas por las consultas.
_Mostrado como page (página)_ | +| **mysql.innodb.buffer_pool_read_ahead_rnd**
(gauge) | El número de lecturas aleatorias iniciadas por InnoDB. Esto ocurre cuando una consulta explora una gran parte de una tabla, pero en orden aleatorio.
_Mostrado como operación_. | +| **mysql.innodb.buffer_pool_read_requests**
(gauge) | El número de solicitudes de lecturas lógicas.
_Mostrado como lectura_ | +| **mysql.innodb.buffer_pool_reads**
(gauge) | El número de lecturas lógicas que InnoDB no pudo satisfacer desde la reserva de búferes y tuvo que leer directamente del disco.
_Mostrado como lectura_ | +| **mysql.innodb.buffer_pool_total**
(gauge) | El número total de bytes en la reserva de búferes de InnoDB.
_Mostrado como byte_ | +| **mysql.innodb.buffer_pool_used**
(gauge) | El número de bytes utilizados en la reserva de búferes de InnoDB.
_Mostrado como byte_ | +| **mysql.innodb.buffer_pool_utilization**
(gauge) | La utilización de la reserva de búferes de InnoDB.
_Mostrado como fracción_ | +| **mysql.innodb.buffer_pool_wait_free**
(count) | Cuando InnoDB necesita leer o crear un page (página) y no hay páginas limpias disponibles, InnoDB vacía primero algunas páginas sucias y espera a que termine la operación. Este contador cuenta las instancias de estas esperas.
_Mostrado como espera_ | +| **mysql.innodb.buffer_pool_write_requests**
(gauge) | Número de escrituras realizadas en la reserva de búferes de InnoDB.
_Mostrado como escritura_ | +| **mysql.innodb.checkpoint_age**
(gauge) | Edad del punto de control como se muestra en la sección LOG de la salida SHOW ENGINE INNODB STATUS.| +| **mysql.innodb.current_row_locks**
(gauge) | El número de bloqueos de filas actuales.
_Shown as bloqueo_ | +| **mysql.innodb.current_transactions**
(gauge) | Transacciones actuales de InnoDB
_Mostrado como transacción_ | +| **mysql.innodb.data_fsyncs**
(gauge) | El número de operaciones fsync() por segundo.
_Mostrado como operación_ | +| **mysql.innodb.data_pending_fsyncs**
(gauge) | El número actual de operaciones fsync() pendientes.
_Mostrado como operación_ | +| **mysql.innodb.data_pending_reads**
(gauge) | El número actual de lecturas pendientes.
_Shown as lectura_ | +| **mysql.innodb.data_pending_writes**
(gauge) | El número actual de escrituras pendientes.
_Shown as escritura_ | +| **mysql.innodb.data_read**
(gauge) | La cantidad de datos leídos por segundo.
_Se muestra como byte_ | +| **mysql.innodb.data_reads**
(gauge) | La tasa de lecturas de datos.
_Shown as lectura_ | +| **mysql.innodb.data_writes**
(gauge) | La tasa de escrituras de datos.
_Shown as escritura_ | +| **mysql.innodb.data_written**
(gauge) | La cantidad de datos escritos por segundo.
_Se muestra como byte_ | +| **mysql.innodb.dblwr_pages_written**
(gauge) | El número de páginas escritas por segundo en el búfer de doble escritura.
_Shown as page (página)_ | +| **mysql.innodb.dblwr_writes**
(gauge) | El número de operaciones de doble escritura realizadas por segundo.
_Mostrado como byte_ | +| **mysql.innodb.deadlocks**
(count) | El número de bloqueos.
_Shown as bloqueo_ | +| **mysql.innodb.hash_index_cells_total**
(gauge) | Número total de celdas del índice hash adaptativo| +| **mysql.innodb.hash_index_cells_used**
(gauge) | Número de celdas utilizadas del índice hash adaptativo| +| **mysql.innodb.history_list_length**
(gauge) | Longitud de la lista de historial como se muestra en la sección TRANSACTIONS de la salida SHOW ENGINE INNODB STATUS.| +| **mysql.innodb.ibuf_free_list**
(gauge) | Lista libre de búferes de inserción, como se muestra en la sección INSERT BUFFER AND ADAPTIVE HASH INDEX de la salida SHOW ENGINE INNODB STATUS.| +| **mysql.innodb.ibuf_merged**
(gauge) | Búfer de inserción e índice hash adaptativo fusionados
_Mostrado como operación_ | +| **mysql.innodb.ibuf_merged_delete_marks**
(gauge) | Marcas de borrado de búfer de inserción e índice hash adaptativo fusionados
_Mostrado como operación_ | +| **mysql.innodb.ibuf_merged_deletes**
(gauge) | Búfer de inserción e índice hash adaptativo fusionados borrados
_Mostrado como operación_ | +| **mysql.innodb.ibuf_merged_inserts**
(gauge) | Inserciones de búfer de inserción e índice hash adaptativo fusionados
_Mostrado como operación_ | +| **mysql.innodb.ibuf_merges**
(gauge) | Fusiones de búfer de inserción e índice hash adaptativo
_Mostrado como operación_ | +| **mysql.innodb.ibuf_segment_size**
(gauge) | Tamaño del segmento del búfer de inserción, como se muestra en la sección INSERT BUFFER AND ADAPTIVE HASH INDEX de la salida SHOW ENGINE INNODB STATUS.| +| **mysql.innodb.ibuf_size**
(gauge) | Tamaño del búfer de inserción, como se muestra en la sección INSERT BUFFER AND ADAPTIVE HASH INDEX de la salida SHOW ENGINE INNODB STATUS.| +| **mysql.innodb.lock_structs**
(gauge) | Estructuras de bloqueo
_Mostrado como operación_ | +| **mysql.innodb.locked_tables**
(gauge) | Tablas bloqueadas
_Mostrado como operación_ | +| **mysql.innodb.log_waits**
(gauge) | Número de veces que el búfer de log era demasiado pequeño y fue necesario esperar a que se vaciara antes de continuar.
_Mostrado como espera_ | +| **mysql.innodb.log_write_requests**
(gauge) | El número de solicitudes de escritura para el log de rehacer de InnoDB.
_Mostrado como escritura_ | +| **mysql.innodb.log_writes**
(gauge) | El número de escrituras físicas en el archivo de log de rehacer de InnoDB.
_Mostrado como escritura_ | +| **mysql.innodb.lsn_current**
(gauge) | Número de secuencia de logs como se muestra en la sección LOGS de la salida SHOW ENGINE INNODB STATUS.| +| **mysql.innodb.lsn_flushed**
(gauge) | Vaciado hasta el número de secuencia de logs como se muestra en la sección LOG de la salida SHOW ENGINE INNODB STATUS.| +| **mysql.innodb.lsn_last_checkpoint**
(gauge) | Último punto de control del número de secuencia de logs como se muestra en la sección LOG de la salida SHOW ENGINE INNODB STATUS.| +| **mysql.innodb.mem_adaptive_hash**
(gauge) | Como se muestra en la sección BUFFER POOL AND MEMORY de la salida SHOW ENGINE INNODB STATUS.
_Mostrado como byte_ | +| **mysql.innodb.mem_additional_pool**
(gauge) | Como se muestra en la sección BUFFER POOL AND MEMORY de la salida SHOW ENGINE INNODB STATUS. Solo disponible en MySQL 5.6.
_Mostrado como byte_ | +| **mysql.innodb.mem_dictionary**
(gauge) | Como se muestra en la sección BUFFER POOL AND MEMORY de la salida SHOW ENGINE INNODB STATUS.
_Mostrado como byte_ | +| **mysql.innodb.mem_file_system**
(gauge) | Como se muestra en la sección BUFFER POOL AND MEMORY de la salida SHOW ENGINE INNODB STATUS.| +| **mysql.innodb.mem_lock_system**
(gauge) | Como se muestra en la sección BUFFER POOL AND MEMORY de la salida SHOW ENGINE INNODB STATUS.| +| **mysql.innodb.mem_page_hash**
(gauge) | Como se muestra en la sección BUFFER POOL AND MEMORY de la salida SHOW ENGINE INNODB STATUS.| +| **mysql.innodb.mem_recovery_system**
(gauge) | Como se muestra en la sección BUFFER POOL AND MEMORY de la salida SHOW ENGINE INNODB STATUS.| +| **mysql.innodb.mem_total**
(gauge) | Como se muestra en la sección BUFFER POOL AND MEMORY de la salida SHOW ENGINE INNODB STATUS.
_Mostrado como byte_ | +| **mysql.innodb.mutex_os_waits**
(gauge) | La tasa de esperas del sistema operativo mutex. Solo disponible en MySQL 5.6 y 5.7.
_Mostrado como evento_. | +| **mysql.innodb.mutex_spin_rounds**
(gauge) | La tasa de rondas de giro del mutex. Solo disponible en MySQL 5.6 y 5.7.
_Mostrado como evento_. | +| **mysql.innodb.mutex_spin_waits**
(gauge) | La tasa de esperas de giro del mutex. Solo disponible en MySQL 5.6 y 5.7.
_Mostrado como evento_. | +| **mysql.innodb.os_file_fsyncs**
(gauge) | (Delta) Número total de operaciones fsync() realizadas por InnoDB.
_Mostrado como operación_ | +| **mysql.innodb.os_file_reads**
(gauge) | (Delta) El número total de lecturas de archivos realizadas por hilos de lectura en InnoDB.
_Mostrado como operación_ | +| **mysql.innodb.os_file_writes**
(gauge) | (Delta) El número total de escrituras de archivos realizadas por hilos de escritura en InnoDB.
_Mostrado como operación_ | +| **mysql.innodb.os_log_fsyncs**
(gauge) | La tasa de escrituras fsync en el archivo de log.
_Mostrado como escritura_ | +| **mysql.innodb.os_log_pending_fsyncs**
(gauge) | Número de solicitudes fsync (sincronización con disco) de log de InnoDBpendientes.
_Mostrado como operación_ | +| **mysql.innodb.os_log_pending_writes**
(gauge) | Número de escrituras de logs de InnoDB pendientes.
_Mostrado como escritura_ | +| **mysql.innodb.os_log_written**
(gauge) | Número de bytes escritos en log de InnoDB.
_Mostrado como byte_ | +| **mysql.innodb.pages_created**
(gauge) | Número de páginas de InnoDB creadas.
_Mostrado como page (página)_ | +| **mysql.innodb.pages_read**
(gauge) | Número de páginas InnoDB leídas.
_Mostrado como page (página)_ | +| **mysql.innodb.pages_written**
(gauge) | Número de páginas InnoDB escritas.
_Mostrado como page (página)_ | +| **mysql.innodb.pending_aio_log_ios**
(gauge) | Como se muestra en la sección FILE I/O de la salida SHOW ENGINE INNODB STATUS.| +| **mysql.innodb.pending_aio_sync_ios**
(gauge) | Como se muestra en la sección FILE I/O de la salida SHOW ENGINE INNODB STATUS.| +| **mysql.innodb.pending_buffer_pool_flushes**
(gauge) | Como se muestra en la sección FILE I/O de la salida SHOW ENGINE INNODB STATUS.
_Mostrado como vaciado_ | +| **mysql.innodb.pending_checkpoint_writes**
(gauge) | Como se muestra en la sección FILE I/O de la salida SHOW ENGINE INNODB STATUS.| +| **mysql.innodb.pending_ibuf_aio_reads**
(gauge) | Como se muestra en la sección FILE I/O de la salida SHOW ENGINE INNODB STATUS.| +| **mysql.innodb.pending_log_flushes**
(gauge) | Como se muestra en la sección FILE I/O de la salida SHOW ENGINE INNODB STATUS. Solo disponible en MySQL 5.6 y 5.7.
_Mostrado como vaciado_. | +| **mysql.innodb.pending_log_writes**
(gauge) | Como se muestra en la sección FILE I/O de la salida SHOW ENGINE INNODB STATUS. Solo disponible en MySQL 5.6 y 5.7.
_Mostrado como escritura_. | +| **mysql.innodb.pending_normal_aio_reads**
(gauge) | Como se muestra en la sección FILE I/O de la salida SHOW ENGINE INNODB STATUS.
_Mostrado como lectura_ | +| **mysql.innodb.pending_normal_aio_writes**
(gauge) | Como se muestra en la sección FILE I/O de la salida SHOW ENGINE INNODB STATUS.
_Mostrado como escritura_ | +| **mysql.innodb.queries_inside**
(gauge) | Como se muestra en la sección FILE I/O de la salida SHOW ENGINE INNODB STATUS.
_Mostrado como consulta_ | +| **mysql.innodb.queries_queued**
(gauge) | Como se muestra en la sección FILE I/O de la salida SHOW ENGINE INNODB STATUS.
_Mostrado como consulta_ | +| **mysql.innodb.read_views**
(gauge) | Como se muestra en la sección FILE I/O de la salida SHOW ENGINE INNODB STATUS.| +| **mysql.innodb.row_lock_current_waits**
(gauge) | El número de bloqueos de fila actualmente en espera por operaciones en tablas de InnoDB.| +| **mysql.innodb.row_lock_time**
(gauge) | El tiempo empleado en adquirir bloqueos de fila.
_Mostrado como milisegundo_ | +| **mysql.innodb.row_lock_waits**
(gauge) | El número de veces por segundo que se ha tenido que esperar un bloqueo de fila.
_Mostrado como evento_ | +| **mysql.innodb.rows_deleted**
(gauge) | Número de filas eliminadas de las tablas de InnoDB.
_Mostrado como fila_ | +| **mysql.innodb.rows_inserted**
(gauge) | Número de filas insertadas en tablas de InnoDB.
_Mostrado como fila_ | +| **mysql.innodb.rows_read**
(gauge) | Número de filas leídas de las tablas de InnoDB.
_Mostrado como fila_ | +| **mysql.innodb.rows_updated**
(gauge) | Número de filas actualizadas en tablas de InnoDB.
_Mostrado como fila_ | +| **mysql.innodb.s_lock_os_waits**
(gauge) | Como se muestra en la sección SEMÁFOROS de la salida SHOW ENGINE INNODB STATUS| +| **mysql.innodb.s_lock_spin_rounds**
(gauge) | Como se muestra en la sección SEMÁFOROS de la salida SHOW ENGINE INNODB STATUS.| +| **mysql.innodb.s_lock_spin_waits**
(gauge) | Como se muestra en la sección SEMAPHORES de la salida SHOW ENGINE INNODB STATUS.
_Mostrado como espera_ | +| **mysql.innodb.semaphore_wait_time**
(gauge) | Tiempo de espera en semáforo| +| **mysql.innodb.semaphore_waits**
(gauge) | El número de semáforos actualmente en espera por operaciones en tablas de InnoDB.| +| **mysql.innodb.tables_in_use**
(gauge) | Tablas en uso
_Mostrado como operación_ | +| **mysql.innodb.x_lock_os_waits**
(gauge) | Como se muestra en la sección SEMAPHORES de la salida SHOW ENGINE INNODB STATUS.
_Mostrado como espera_ | +| **mysql.innodb.x_lock_spin_rounds**
(gauge) | Como se muestra en la sección SEMAPHORES de la salida SHOW ENGINE INNODB STATUS.| +| **mysql.innodb.x_lock_spin_waits**
(gauge) | Como se muestra en la sección SEMAPHORES de la salida SHOW ENGINE INNODB STATUS.
_Mostrado como espera_ | +| **mysql.myisam.key_buffer_bytes_unflushed**
(gauge) | Bytes del búfer de claves de MyISAM sin vaciar.
_Mostrado como byte_ | +| **mysql.myisam.key_buffer_bytes_used**
(gauge) | Bytes del búfer de claves de MyISAM utilizados.
_Mostrado como byte_ | +| **mysql.myisam.key_buffer_size**
(gauge) | Tamaño del búfer utilizado para los bloques de índice.
_Mostrado como byte_ | +| **mysql.myisam.key_read_requests**
(gauge) | Número de solicitudes para leer un bloque de claves de la caché de claves de MyISAM.
_Mostrado como leído_ | +| **mysql.myisam.key_reads**
(gauge) | El número de lecturas físicas de un bloque de claves desde el disco a la caché de claves de MyISAM. Si `key_reads` es grande, es probable que el valor de clave_bpufer_tamaño sea demasiado pequeño. La tasa de fallos de la caché puede calcularse como `key_reads`/`key_read_requests`.
_Mostrado como lectura_. | +| **mysql.myisam.key_write_requests**
(gauge) | Número de solicitudes para escribir un bloque de claves en la caché de claves de MyISAM.
_Mostrado como escritura_ | +| **mysql.myisam.key_writes**
(gauge) | Número de escrituras físicas de un bloque de claves desde la caché de claves de MyISAM al disco.
_Mostrado como escritura_ | +| **mysql.net.aborted_clients**
(gauge) | El número de conexiones que se abortaron porque el cliente murió sin cerrar la connection (conexión) correctamente.
_Mostrado como connection (conexión)_ | +| **mysql.net.aborted_connects**
(gauge) | Número de intentos fallidos de conexión con el servidor de MySQL.
_Mostrado como connection (conexión)_ | +| **mysql.net.connections**
(gauge) | La tasa de conexiones al servidor.
_Mostrado como connection (conexión)_ | +| **mysql.net.max_connections**
(gauge) | El número máximo de conexiones que han estado en uso simultáneamente desde que se inició el servidor.
_Mostrado como connection (conexión) | +| **mysql.net.max_connections_available**
(gauge) | El número máximo permitido de conexiones simultáneas del cliente.
_Mostrado como connection (conexión)_ | +| **mysql.performance.bytes_received**
(gauge) | El número de bytes recibidos de todos los clientes.
_Mostrado como byte_ | +| **mysql.performance.bytes_sent**
(gauge) | El número de bytes enviados a todos los clientes.
_Mostrado como byte_ | +| **mysql.performance.com_delete**
(gauge) | La tasa de sentencias de borrado.
_Shown as consulta_ | +| **mysql.performance.com_delete_multi**
(gauge) | La tasa de sentencias de borrado múltiple.
_Mostrado como consulta_ | +| **mysql.performance.com_insert**
(gauge) | La tasa de sentencias de inserción.
_Shown as consulta_ | +| **mysql.performance.com_insert_select**
(gauge) | La tasa de sentencias inserción y selección.
_Mostrado como consulta_ | +| **mysql.performance.com_load**
(gauge) | La tasa de sentencias de carga.
_Mostrado como consulta_ | +| **mysql.performance.com_replace**
(gauge) | La tasa de sentencias de sustitución.
_Mostrado como consulta_ | +| **mysql.performance.com_replace_select**
(gauge) | La tasa de sentencias de sustituir y seleccionar.
_Mostrado como consulta_ | +| **mysql.performance.com_select**
(gauge) | La tasa de sentencias de selección.
_Shown as consulta_ | +| **mysql.performance.com_update**
(gauge) | La tasa de sentencias de actualización.
_Mostrado como consulta_ | +| **mysql.performance.com_update_multi**
(gauge) | La tasa de actualización múltiple.
_Mostrado como consulta_ | +| **mysql.performance.cpu_time**
(gauge) | Porcentaje de tiempo de CPU empleado por MySQL.
_Mostrado como porcentaje_ | +| **mysql.performance.created_tmp_disk_tables**
(gauge) | Tasa de tablas temporales internas en disco creadas por segundo por el servidor durante la ejecución de sentencias.
_Mostrado como tabla_ | +| **mysql.performance.created_tmp_files**
(gauge) | La tasa de archivos temporales creados por segundo.
_Mostrado como archivo_ | +| **mysql.performance.created_tmp_tables**
(gauge) | Tasa de tablas temporales internas creadas por segundo por el servidor durante la ejecución de sentencias.
_Mostrado como tabla_ | +| **mysql.performance.digest_95th_percentile.avg_us**
(gauge) | Percentil 95 por esquema de tiempo de respuesta de consulta.
_Mostrado en microsegundos_ | +| **mysql.performance.handler_commit**
(gauge) | El número de sentencias COMMIT internas.
_Mostrado como operación_ | +| **mysql.performance.handler_delete**
(gauge) | El número de sentencias DELETE internas.
_Mostrado como operación_ | +| **mysql.performance.handler_prepare**
(gauge) | El número de sentencias PREPARE internas.
_Mostrado como operación_ | +| **mysql.performance.handler_read_first**
(gauge) | El número de sentencias internas READ_FIRST.
_Mostrado como operación_ | +| **mysql.performance.handler_read_key**
(gauge) | El número de sentencias internas READ_KEY.
_Mostrado como operación_ | +| **mysql.performance.handler_read_next**
(gauge) | El número de sentencias internas READ_NEXT.
_Mostrado como operación_ | +| **mysql.performance.handler_read_prev**
(gauge) | El número de sentencias internas READ_PREV.
_Mostrado como operación_ | +| **mysql.performance.handler_read_rnd**
(gauge) | El número de sentencias internas READ_RND.
_Mostrado como operación_ | +| **mysql.performance.handler_read_rnd_next**
(gauge) | El número de sentencias internas READ_RND_NEXT.
_Mostrado como operación_ | +| **mysql.performance.handler_rollback**
(gauge) | El número de sentencias ROLLBACK internas.
_Mostrado como operación_ | +| **mysql.performance.handler_update**
(gauge) | El número de sentencias UPDATE internas.
_Mostrado como operación_ | +| **mysql.performance.handler_write**
(gauge) | El número de sentencias WRITE internas.
_Mostrado como operación_ | +| **mysql.performance.kernel_time**
(gauge) | Porcentaje de tiempo de CPU empleado en el espacio del núcleo por MySQL.
_Mostrado como porcentaje_. | +| **mysql.performance.key_cache_utilization**
(gauge) | La relación de utilización de la caché de claves.
_Mostrado como fracción_ | +| **mysql.performance.max_prepared_stmt_count**
(gauge) | El máximo permitido de sentencias preparadas en el servidor.| +| **mysql.performance.open_files**
(gauge) | El número de archivos abiertos.
_Mostrado como archivo_ | +| **mysql.performance.open_tables**
(gauge) | El número de tablas que están abiertas.
_Mostrado como tabla_ | +| **mysql.performance.opened_tables**
(gauge) | El número de tablas que se han abierto. Si `opened_tables` es grande, su valor `table_open_cache` es probablemente demasiado pequeño.
_Mostrado como tabla_. | +| **mysql.performance.performance_schema_digest_lost**
(gauge) | El número de instancias de compendio que no pudieron instrumentarse en la tabla eventos_sentencias_resumen_por_compendio. Puede ser distinto de cero si el valor de rendimiento_esquema_compendios_tamaño es demasiado pequeño.| +| **mysql.performance.prepared_stmt_count**
(gauge) | El número actual de sentencias preparadas.
_Mostrado como consulta_ | +| **mysql.performance.qcache.utilization**
(gauge) | Fracción de la memoria caché de consultas que se está utilizando actualmente.
_Mostrado como fracción_ | +| **mysql.performance.qcache_free_blocks**
(gauge) | El número de bloques de memoria libres en la caché de consulta.
_Mostrado como bloque_ | +| **mysql.performance.qcache_free_memory**
(gauge) | La cantidad de memoria libre para la caché de consultas.
_Mostrado como byte_ | +| **mysql.performance.qcache_hits**
(gauge) | Tasa de aciertos en la caché de consultas.
_Mostrado como acierto_ | +| **mysql.performance.qcache_inserts**
(gauge) | Número de consultas añadidas a la caché de consultas.
_Mostrado como consulta_ | +| **mysql.performance.qcache_lowmem_prunes**
(gauge) | Número de consultas borradas de la caché de consultas por falta de memoria.
_Mostrado como consulta_ | +| **mysql.performance.qcache_not_cached**
(gauge) | El número de consultas no almacenadas en caché (no almacenables en caché o no almacenadas en caché debido a la configuración de `query_cache_type`).
_Mostrado como consulta_ | +| **mysql.performance.qcache_queries_in_cache**
(gauge) | Número de consultas registradas en la caché de consultas.
_Mostrado como consulta_ | +| **mysql.performance.qcache_size**
(gauge) | La cantidad de memoria asignada para almacenar en caché los resultados de la consulta.
_Mostrado como byte_ | +| **mysql.performance.qcache_total_blocks**
(gauge) | Número total de bloques en la caché de consultas.
_Mostrado como bloque_ | +| **mysql.performance.queries**
(gauge) | La tasa de consultas.
_Mostrado como consulta_ | +| **mysql.performance.query_run_time.avg**
(gauge) | Tiempo medio de respuesta de consulta por esquema.
_Mostrado en microsegundos_ | +| **mysql.performance.questions**
(gauge) | La tasa de sentencias ejecutadas por el servidor.
_Mostrado como consulta_ | +| **mysql.performance.select_full_join**
(gauge) | El número de uniones que realizan exploraciones de tablas porque no utilizan índices. Si este valor no es 0, debes comprobar cuidadosamente los índices de tus tablas.
_Mostrado como operación_. | +| **mysql.performance.select_full_range_join**
(gauge) | El número de uniones que utilizaron una búsqueda de rango en una tabla de referencia.
_Mostrado como operación_ | +| **mysql.performance.select_range**
(gauge) | El número de uniones que utilizaron rangos en la primera tabla. Normalmente, este no es un problema crítico, incluso si el valor es bastante grande.
_Mostrado como operación_. | +| **mysql.performance.select_range_check**
(gauge) | El número de uniones sin claves que comprueban el uso de claves después de cada fila. Si no es 0, debes comprobar cuidadosamente los índices de tus tablas.
_Mostrado como operación_. | +| **mysql.performance.select_scan**
(gauge) | El número de uniones que hicieron una exploración completa de la primera tabla.
_Mostrado como operación_ | +| **mysql.performance.slow_queries**
(gauge) | La tasa de consultas lentas (consultas de logs que superan un tiempo de ejecución determinado).
_Mostrado como consulta_ | +| **mysql.performance.sort_merge_passes**
(gauge) | El número de pasadas de fusión que ha tenido que hacer el algoritmo de clasificación. Si este valor es grande, debes considerar aumentar el valor de la variable del sistema `sort_buffer_size`.
_Mostrado como operación_. | +| **mysql.performance.sort_range**
(gauge) | El número de clasificaciones que se han realizado utilizando rangos.
_Mostrado como operación_ | +| **mysql.performance.sort_rows**
(gauge) | El número de filas ordenadas.
_Mostrado como operación_ | +| **mysql.performance.sort_scan**
(gauge) | El número de clasificaciones que se han realizado explorando la tabla.
_Mostrado como operación_ | +| **mysql.performance.table_cache_hits**
(gauge) | Número de aciertos en las búsquedas de la caché de tablas abiertas.
_Mostrado como acierto_ | +| **mysql.performance.table_cache_misses**
(gauge) | Número de fallos en las búsquedas de la caché de tablas abiertas.
_Mostrado como fallo_ | +| **mysql.performance.table_locks_immediate**
(gauge) | El número de veces que una solicitud de bloqueo de una tabla podría concederse inmediatamente.| +| **mysql.performance.table_locks_immediate.rate**
(gauge) | Porcentaje de veces que una solicitud de bloqueo de una tabla puede concederse inmediatamente.| +| **mysql.performance.table_locks_waited**
(gauge) | Número total de veces que una solicitud de bloqueo de tabla no pudo concederse inmediatamente y fue necesario esperar.| +| **mysql.performance.table_locks_waited.rate**
(gauge) | Porcentaje de veces que una solicitud de bloqueo de una tabla no pudo concederse inmediatamente y fue necesario esperar.| +| **mysql.performance.table_open_cache**
(gauge) | El número de tablas abiertas para todos los hilos. Incrementar este valor incrementa el número de descriptores de archivo que requiere mysqld.| +| **mysql.performance.thread_cache_size**
(gauge) | Cuántos hilos debe almacenar en caché el servidor para su reutilización. Cuando un cliente se desconecta, los hilos del cliente se ponen en la caché si hay menos de `thread_cache_size` hilos allí.
_Mostrado como byte_. | +| **mysql.performance.threads_cached**
(gauge) | El número de hilos en la caché de hilos.
_Mostrado como hilo_ | +| **mysql.performance.threads_connected**
(gauge) | El número de conexiones abiertas actualmente.
_Mostrado como connection (conexión)_ | +| **mysql.performance.threads_created**
(count) | El número de hilos creados para manejar las conexiones. Si `threads_created` es grande, es posible que desees aumentar el valor de `thread_cache_size`.
_Mostrado como hilo_. | +| **mysql.performance.threads_running**
(gauge) | El número de hilos que no están inactivos.
_Mostrado como hilo_ | +| **mysql.performance.user_connections**
(gauge) | El número de conexiones de usuario. Etiquetas: `processlist_db`, `processlist_host`, `processlist_state`, `processlist_user`
_Mostrado como connection (conexión)_ | +| **mysql.performance.user_time**
(gauge) | Porcentaje de tiempo de CPU empleado en el espacio de usuario por MySQL.
_Mostrado como porcentaje_. | +| **mysql.queries.count**
(count) | El count total de consultas ejecutadas por consulta normalizada y esquema. (Solo DBM)
_Mostrado como consulta_. | +| **mysql.queries.errors**
(count) | El count total de consultas ejecutadas con un error por consulta y esquema normalizados. (Solo DBM)
_Mostrado como error_. | +| **mysql.queries.lock_time**
(count) | Tiempo total de espera de bloqueos por consulta y esquema normalizados. (Solo DBM)
_Mostrado como nanosegundo_. | +| **mysql.queries.no_good_index_used**
(count) | El count total de consultas que utilizaron un índice menor que el óptimo por consulta y esquema normalizados. (Solo DBM)
_Mostrado como consulta_. | +| **mysql.queries.no_index_used**
(count) | El count total de consultas que no utilizan un índice por consulta y esquema normalizados. (Solo DBM)
_Mostrado como consulta_. | +| **mysql.queries.rows_affected**
(count) | Número de filas mutadas por consulta y esquema normalizados. (Solo DBM)
_Mostrado como fila_. | +| **mysql.queries.rows_examined**
(count) | Número de filas examinadas por consulta y esquema normalizados. (Solo DBM)
_Mostrado como fila_. | +| **mysql.queries.rows_sent**
(count) | Número de filas enviadas por consulta y esquema normalizados. (Solo DBM)
_Mostrado como fila_. | +| **mysql.queries.select_full_join**
(count) | El count total de exploraciones de tabla completa en una tabla unida por consulta y esquema normalizados. (Solo DBM)| +| **mysql.queries.select_scan**
(count) | El count total de exploraciones de tabla completa en la primera tabla por consulta y esquema normalizados. (Solo DBM)| +| **mysql.queries.time**
(count) | El tiempo total de ejecución de la consulta por consulta y esquema normalizados. (Solo DBM)
_Mostrado como nanosegundo_. | +| **mysql.replication.group.conflicts_detected**
(gauge) | Número de transacciones que no han pasado el check de detección de conflictos.
_Mostrado como transacción_ | +| **mysql.replication.group.member_status**
(gauge) | Información sobre el estado del nodo en un entorno de replicación de grupo, siempre igual a 1.| +| **mysql.replication.group.transactions**
(gauge) | El número de transacciones en la cola pendientes de checks de detección de conflictos.
_Mostrado como transacción_ | +| **mysql.replication.group.transactions_applied**
(gauge) | Número de transacciones que este miembro ha recibido del grupo y ha aplicado.
_Mostrado como transacción_ | +| **mysql.replication.group.transactions_check**
(gauge) | El número de transacciones que se han comprobado en busca de conflictos.
_Mostrado como transacción_ | +| **mysql.replication.group.transactions_in_applier_queue**
(gauge) | El número de transacciones que este miembro ha recibido del grupo de replicación y que están a la espera de ser aplicadas.
_Mostrado como transacción_ | +| **mysql.replication.group.transactions_proposed**
(gauge) | Número de transacciones que se originaron en este miembro y se enviaron al grupo.
_Mostrado como transacción_ | +| **mysql.replication.group.transactions_rollback**
(gauge) | Número de transacciones que se originaron en este miembro y fueron revertidas por el grupo.
_Mostrado como transacción_ | +| **mysql.replication.group.transactions_validating**
(gauge) | Número de filas de transacciones que pueden utilizarse para la certificación, pero que no se han recolectado de la basura.
_Mostrado como transacción_ | +| **mysql.replication.replicas_connected**
(gauge) | Número de réplicas conectadas a una source (fuente) de réplicas.| +| **mysql.replication.seconds_behind_master**
(gauge) | El desfase en segundos entre el patrón y el esclavo.
_Mostrado como segundo_ | +| **mysql.replication.seconds_behind_source**
(gauge) | El desfase en segundos entre la source (fuente) y la réplica.
_Mostrado como segundo_ | +| **mysql.replication.slave_running**
(gauge) | Obsoleto. Utiliza un check de servicios mysql.replication.replica_running en su lugar. Un booleano que muestra si este servidor es un esclavo/patrón de réplica que se está ejecutando.| +| **mysql.replication.slaves_connected**
(gauge) | Obsoleto. Utiliza `MySQL.replication.replicas_connected` en su lugar. Número de esclavos conectados a un patrón de réplica.| El check no recopila todas las métricas por defecto. Establece las siguientes opciones de configuración booleanas en `true` para activar las respectivas métricas: @@ -644,42 +822,45 @@ El check no recopila todas las métricas por defecto. Establece las siguientes o El check de MySQL no incluye eventos. ### Checks de servicio -{{< get-service-checks-from-git "mysql" >}} +**mysql.can_connect** + +Devuelve `CRITICAL` si el Agent no puede conectarse a la instancia MySQL monitorizada. En caso contrario, devuelve `OK`. + +_Estados: ok, crítico_ + +**mysql.replication.slave_running** + +Obsoleto. Devuelve CRÍTICO para una réplica que no esté ejecutando Esclavo_IO_En ejecución ni Esclavo_SQL_En ejecución, ADVERTENCIA si una de las dos no está ejecutándose. En caso contrario, devuelve `OK`. + +_Estados: ok, advertencia, crítico_ + +**mysql.replication.replica_running** + +Devuelve CRÍTICO para una réplica que no esté ejecutando Réplica_IO_En ejecución ni Réplica_SQL_En ejeución, ADVERTENCIA si una de las dos no está ejecutándose. En caso contrario, devuelve `OK`. + +_Estados: ok, advertencia, crítico_ + +**mysql.replication.group.status** + +Devuelve `OK` si el estado del host es EN LÍNEA, devuelve `CRITICAL` en caso contrario. + +_Estados: ok, crítico_ ## Solucionar problemas -- [Problemas de conexión con la integración de SQL Server][8] -- [Error de host local de MySQL: host local VS 127.0.0.1][9] -- [¿Puedo utilizar una instancia con nombre en la integración de SQL Server?][10] -- [¿Puedo configurar el check de MySQL dd-agent en mi Google CloudSQL?][11] -- [Consultas personalizadas de MySQL][12] -- [Utilizar WMI para recopilar más métricas de rendimiento de SQL Server][13] -- [¿Cómo puedo recopilar más métricas de mi integración de SQL Server?][14] -- [El usuario de la base de datos carece de privilegios][15] -- [¿Cómo se recopilan las métricas con un procedimiento almacenado de SQL?][16] +- [Problemas de connection (conexión) con la integración del servidor de SQL](https://docs.datadoghq.com/integrations/guide/connection-issues-with-the-sql-server-integration/) +- [Error del host local de MySQL - Host local VS 127.0.0.1](https://docs.datadoghq.com/integrations/faq/mysql-localhost-error-localhost-vs-127-0-0-1/) +- [¿Puedo utilizar una instancia con nombre en la integración del servidor de SQL?](https://docs.datadoghq.com/integrations/faq/can-i-use-a-named-instance-in-the-sql-server-integration/) +- [Puedo configurar el check de MySQL del dd-agent en mi Google CloudSQL?](https://docs.datadoghq.com/integrations/faq/can-i-set-up-the-dd-agent-mysql-check-on-my-google-cloudsql/) +- [Consultas personalizadas de MySQL](https://docs.datadoghq.com/integrations/faq/how-to-collect-metrics-from-custom-mysql-queries/) +- [Utiliza WMI para recopilar más métricas de rendimiento del servidor de SQL](https://docs.datadoghq.com/integrations/guide/use-wmi-to-collect-more-sql-server-performance-metrics/) +- [¿Cómo puedo recopilar más métricas de mi integración del servidor de SQL?](https://docs.datadoghq.com/integrations/faq/how-can-i-collect-more-metrics-from-my-sql-server-integration/) +- [Usuario de base de datos sin privilegios](https://docs.datadoghq.com/integrations/faq/database-user-lacks-privileges/) +- [Cómo recopilar métricas con un procedimiento almacenado de SQL](https://docs.datadoghq.com/integrations/guide/collect-sql-server-custom-metrics/#collecting-metrics-from-a-custom-procedure) ## Referencias adicionales -Más enlaces, artículos y documentación útiles: - -- [Monitorización de métricas de rendimiento de MySQL][17] - - -[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/mysql/images/mysql-dash-dd-2.png -[2]: https://docs.datadoghq.com/database_monitoring/ -[3]: https://app.datadoghq.com/account/settings/agent/latest -[4]: https://docs.datadoghq.com/database_monitoring/#mysql -[5]: https://dev.mysql.com/doc/refman/8.0/en/creating-accounts.html -[6]: https://github.com/DataDog/integrations-core/blob/master/mysql/datadog_checks/mysql/data/conf.yaml.example -[7]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information -[8]: https://docs.datadoghq.com/integrations/guide/connection-issues-with-the-sql-server-integration/ -[9]: https://docs.datadoghq.com/integrations/faq/mysql-localhost-error-localhost-vs-127-0-0-1/ -[10]: https://docs.datadoghq.com/integrations/faq/can-i-use-a-named-instance-in-the-sql-server-integration/ -[11]: https://docs.datadoghq.com/integrations/faq/can-i-set-up-the-dd-agent-mysql-check-on-my-google-cloudsql/ -[12]: https://docs.datadoghq.com/integrations/faq/how-to-collect-metrics-from-custom-mysql-queries/ -[13]: https://docs.datadoghq.com/integrations/guide/use-wmi-to-collect-more-sql-server-performance-metrics/ -[14]: https://docs.datadoghq.com/integrations/faq/how-can-i-collect-more-metrics-from-my-sql-server-integration/ -[15]: https://docs.datadoghq.com/integrations/faq/database-user-lacks-privileges/ -[16]: https://docs.datadoghq.com/integrations/guide/collect-sql-server-custom-metrics/#collecting-metrics-from-a-custom-procedure -[17]: https://www.datadoghq.com/blog/monitoring-mysql-performance-metrics +Documentación útil adicional, enlaces y artículos: + +- [Monitorización de métricas de rendimiento de MySQL](https://www.datadoghq.com/blog/monitoring-mysql-performance-metrics) \ No newline at end of file diff --git a/content/es/integrations/n2ws.md b/content/es/integrations/n2ws.md index 06781039057ab..bd55cda967547 100644 --- a/content/es/integrations/n2ws.md +++ b/content/es/integrations/n2ws.md @@ -1,75 +1,18 @@ --- app_id: n2ws -app_uuid: 6c0176c4-b878-43e0-a5a8-d280b0fa123e -assets: - dashboards: - N2WSBackup&Recovery-EntitiesSpecificDashboard: assets/dashboards/N2WSBackup&Recovery-EntityTypesDetails.json - N2WSBackup&Recovery-EntitiesSpecificDashboardV4.0: assets/dashboards/N2WSBackup&Recoveryv4.1-EntityTypesDetails.json - N2WSBackup&Recovery-GraphicalVersion: assets/dashboards/N2WSBackup&Recovery-BackupSuccessRates(ColumnGraphs).json - N2WSBackup&Recovery-GraphicalVersion-Areas: assets/dashboards/N2WSBackup&Recovery-BackupSuccessRates(AreasGraphs).json - N2WSBackup&Recovery-GraphicalVersionV4.0: assets/dashboards/N2WSBackup&Recoveryv4.1-BackupSuccessRates(ColumnGraphs).json - integration: - auto_install: true - configuration: {} - events: - creates_events: false - metrics: - check: cpm_metric.dashboard_activity.backup_success_num - metadata_path: metadata.csv - prefix: cpm_metric. - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 10129 - source_type_name: N2WS Backup & Recovery -author: - homepage: https://github.com/DataDog/integrations-extras - name: N2WS - sales_email: eliad.eini@n2ws.com - support_email: eliad.eini@n2ws.com categories: - nube -custom_kind: integration -dependencies: -- https://github.com/DataDog/integrations-extras/blob/master/n2ws/README.md -display_on_public_website: true -draft: false -git_integration_title: n2ws -integration_id: n2ws -integration_title: N2WS -integration_version: '' -is_public: true -manifest_version: 2.0.0 -name: n2ws -public_title: N2WS -short_description: Ver datos resumidos de todos los hosts conectados de N2WS Backup - & Recovery +custom_kind: integración +description: Ver datos resumidos de todos los hosts conectados de N2WS Backup & Recovery +media: [] supported_os: - linux - macos - windows -tile: - changelog: CHANGELOG.md - classifier_tags: - - Supported OS::Linux - - Supported OS::macOS - - Supported OS::Windows - - Category::Cloud - - Offering::Integration - configuration: README.md#Setup - description: Ver datos resumidos de todos los hosts conectados de N2WS Backup & - Recovery - media: [] - overview: README.md#Overview - support: README.md#Support - title: N2WS +title: N2WS --- - - - - ## Información general - N2WS Backup & Recovery (CPM), conocido como N2WS, es una solución empresarial de copia de seguridad, recuperación y recuperación de desastres para Amazon Web Services (AWS) y Microsoft Azure. N2WS utiliza tecnologías nativas en la nube (snapshots) para brindar capacidades de copia de seguridad y restauración en AWS y Azure. Tu instancia de N2WS Backup and Recovery admite la monitorización de copias de seguridad, recuperación de desastres, copia a S3, alertas, @@ -79,39 +22,42 @@ y mucho más con el servicio d emonitorización de Datadog. Esta integración pe ### Instalación -1. Instala la [integración de Python][1]. +1. Instala la [integración de Python](https://app.datadoghq.com/account/settings#integrations/python). + +1. Habilita la compatibilidad con Datadog en tu instancia de N2WS: -2. Habilita la compatibilidad con Datadog en tu instancia de N2WS: - - Conéctate a tu instancia de N2WS Backup and Recovery con SSH. - - Añade las líneas siguientes a `/cpmdata/conf/cpmserver.cfg`. Es posible que necesites privilegios `sudo` para realizar esta acción. - ``` - [external_monitoring] - enabled=True - ``` - - Ejecuta `service apache2 restart` + - Conéctate a tu instancia de N2WS Backup and Recovery con SSH. + - Añade las líneas siguientes a `/cpmdata/conf/cpmserver.cfg`. Es posible que necesites privilegios `sudo` para realizar esta acción. + ``` + [external_monitoring] + enabled=True + ``` + - Ejecuta `service apache2 restart` -3. Instala el Datadog Agent en tu instancia de N2WS. - - Inicia sesión en Datadog y ve a Integrations -> Agent -> Ubuntu (Integraciones -> Agent -> Ubuntu) - - Copia el comando de instalación en un solo paso del Agent. - - Conéctate a tu instancia de N2WS Backup and Recovery con SSH y ejecuta el comando. Es posible que necesites privilegios `sudo` para realizar esta acción. +1. Instala el Datadog Agent en tu instancia de N2WS. -4. Configura las métricas de dashboard de Datadog: - - Ve a [**Metrics** -> **Explorer**][2] (Métricas -> Explorador) + - Inicia sesión en Datadog y ve a Integrations -> Agent -> Ubuntu (Integraciones -> Agent -> Ubuntu) + - Copia el comando de instalación en un solo paso del Agent. + - Conéctate a tu instancia de N2WS Backup and Recovery con SSH y ejecuta el comando. Es posible que necesites privilegios `sudo` para realizar esta acción. - **Gráfico**: selecciona tu métrica en la lista. Todas las métricas de N2WS comienzan con la cadena `cpm_metric`. +1. Configura las métricas de dashboard de Datadog: - **Sobre**: selecciona los datos de la lista. Todos los datos de los usuarios de N2WS comienzan con la cadena `cpm:user:`. - Puedes seleccionar un usuario específico o toda la instancia de N2WS. + - Ve a [**Metrics** -> **Explorer** (Métricas -> Explorer)](https://app.datadoghq.com/metric/explorer) + **Gráfico**: selecciona tu métrica en la lista. Todas las métricas de N2WS comienzan con la cadena `cpm_metric`. -5. Obtén dashboards de N2WS - - En [Integraciones de Datadog][3], busca el cuadro `N2WS` e instálalo. - - Cinco dashboards están instalados en tu cuenta: - `N2WSBackup&Recovery-Graphicalversion`, `N2WSBackup&Recovery-Graphicalversion-areas` y `N2WSBackup&Recovery-EntitiesSpecificDashboard` para N2WS Backup & Recovery v3.2.1 - **Nota**: Estos dashboards solo están disponibles para los usuarios de AWS. - `N2WSBackup&Recovery-EntitiesSpecificDashboardV4.1` y `N2WSBackup&Recovery-GraphicalVersionV4.1` para N2WS Backup & Recovery v4.1 + **Sobre**: selecciona los datos de la lista. Todos los datos de los usuarios de N2WS comienzan con la cadena `cpm:user:`. + Puedes seleccionar un usuario específico o toda la instancia de N2WS. - Alternativamente, puedes [importar plantillas JSON desde N2WS][4] para crear tus dashboards. +1. Obtén dashboards de N2WS + + - En [Integraciones de Datadog](https://app.datadoghq.com/account/settings#integrations/n2ws), busca el ícono `N2WS` e instálalo. + - Cinco dashboards están instalados en tu cuenta: + `N2WSBackup&Recovery-Graphicalversion`, `N2WSBackup&Recovery-Graphicalversion-areas` y `N2WSBackup&Recovery-EntitiesSpecificDashboard` para N2WS Backup & Recovery v3.2.1 + **Nota**: Estos dashboards solo están disponibles para los usuarios de AWS. + `N2WSBackup&Recovery-EntitiesSpecificDashboardV4.1` y `N2WSBackup&Recovery-GraphicalVersionV4.1` para N2WS Backup & Recovery v4.1 + + Alternativamente, puedes [importar plantillas JSON desde N2WS](https://support.n2ws.com/portal/en/kb/articles/datadog-templates) para crear tus dashboards. ## Datos recopilados @@ -125,8 +71,44 @@ Datadog recopila los siguientes datos sobre las copias de seguridad de N2WS Back - Datos sobre la capacidad del volumen (solo AWS), alertas, etc. ### Métricas -{{< get-metrics-from-git "n2ws" >}} +| | | +| --- | --- | +| **cpm_metric.dashboard_activity.backup_success_num**
(gauge) | Número total de copias de seguridad realizadas con éxito (de todos los tipos)| +| **cpm_metric.dashboard_activity.backup_fail_num**
(gauge) | Número total de copias de seguridad fallidas (de todos los tipos)| +| **cpm_metric.dashboard_activity.backup_partial_num**
(gauge) | Número total de copias de seguridad parcialmente correctas (de todos los tipos)| +| **cpm_metric.dashboard_activity.backup_dr_success_num**
(gauge) | Número total de copias de seguridad DR realizadas con éxito (de todos los tipos)| +| **cpm_metric.dashboard_activity.backup_dr_fail_num**
(gauge) | Número total de copias de seguridad DR fallidas (de todos los tipos)| +| **cpm_metric.dashboard_activity.backup_dr_partial_num**
(gauge) | Número total de copias de seguridad de RD parcialmente correctas (de todos los tipos)| +| **cpm_metric.dashboard_activity.backup_s3_success_num**
(gauge) | Número total de copias de seguridad realizadas con éxito en S3| +| **cpm_metric.dashboard_activity.backup_s3_fail_num**
(gauge) | Número total de copias de seguridad fallidas en S3| +| **cpm_metric.dashboard_activity.backup_s3_partial_num**
(gauge) | Número total de copias de seguridad parcialmente correctas en S3| +| **cpm_metric.dashboard_state.policies_num**
(gauge) | Número total de políticas en todos los hosts| +| **cpm_metric.dashboard_state.accounts_num**
(gauge) | Número total de cuentas en todos los hosts| +| **cpm_metric.dashboard_state.snapshots_volume_num**
(gauge) | Número total de instantáneas de volúmenes| +| **cpm_metric.dashboard_state.snapshots_only_ami_num**
(gauge) | Número total de instantáneas de instancia solo AMI| +| **cpm_metric.dashboard_state.snapshots_dr_volume_num**
(gauge) | Número total de instantáneas DR de volúmenes| +| **cpm_metric.dashboard_state.snapshots_rds_num**
(gauge) | Número total de instantáneas de bases de datos RDS| +| **cpm_metric.dashboard_state.snapshots_dr_rds_num**
(gauge) | Número total de instantáneas DR de bases de datos RDS| +| **cpm_metric.dashboard_state.snapshots_redshift_num**
(gauge) | Número total de instantáneas de bases de datos de Redshift| +| **cpm_metric.dashboard_state.snapshots_rds_clus_num**
(gauge) | Número total de instantáneas de los clústeres de Aurora| +| **cpm_metric.dashboard_state.snapshots_dr_rds_clus_num**
(gauge) | Número total de instantáneas DR de los clústeres de Aurora| +| **cpm_metric.dashboard_state.snapshots_ddb_num**
(gauge) | Número total de instantáneas de DynamoDB| +| **cpm_metric.dashboard_state.snapshots_efs_num**
(gauge) | Número total de instantáneas DR de sistemas de archivos EFS| +| **cpm_metric.dashboard_state.snapshots_dr_efs_num**
(gauge) | Número total de instantáneas de Azure Disks| +| **cpm_metric.dashboard_state.snapshots_disk_num**
(gauge) | Número total de instantáneas de sistemas de archivos EFS| +| **cpm_metric.dashboard_state.protected_instances_num**
(gauge) | Número total de recursos de instancias protegidas| +| **cpm_metric.dashboard_state.protected_volumes_num**
(gauge) | Número total de recursos de volúmenes protegidos| +| **cpm_metric.dashboard_state.protected_rds_db_num**
(gauge) | Número total de recursos RDS protegidos| +| **cpm_metric.dashboard_state.protected_ddb_num**
(gauge) | Número total de recursos de DynamoDB protegidos| +| **cpm_metric.dashboard_state.protected_efs_num**
(gauge) | Número total de recursos EFS protegidos| +| **cpm_metric.dashboard_state.protected_rds_clus_num**
(gauge) | Número total de recursos de Aurora protegidos| +| **cpm_metric.dashboard_state.protected_redshift_num**
(gauge) | Número total de recursos de máquinas virtuales de Azure protegidas| +| **cpm_metric.dashboard_state.protected_virtual_machines_num**
(gauge) | Número total de recursos de Redshift protegidos| +| **cpm_metric.dashboard_state.protected_disks_num**
(gauge) | Número total de recursos de Redshift protegidos| +| **cpm_metric.dashboard_state.volumes_above_high_watermark_num**
(gauge) | Número de volúmenes con capacidad superior a la marca de agua| +| **cpm_metric.dashboard_state.volumes_below_low_watermark_num**
(gauge) | Número de volúmenes con capacidad inferior a la marca de agua| +| **cpm_metric.dashboard_state.volumes_usage_percentage_num**
(gauge) | Uso total de la capacidad para todos los volúmenes de todos los hosts
_Mostrado como porcentaje_ | ### Eventos @@ -138,16 +120,6 @@ La integración de N2WS Backup & Recovery no incluye ningún check de servicio. ## Solucionar problemas -- [Guía del usuario y documentación de N2WS][6] -- [Soporte de N2WS][7] -- [Soporte de Datadog][8] - - -[1]: https://app.datadoghq.com/account/settings#integrations/python -[2]: https://app.datadoghq.com/metric/explorer -[3]: https://app.datadoghq.com/account/settings#integrations/n2ws -[4]: https://support.n2ws.com/portal/en/kb/articles/datadog-templates -[5]: https://github.com/DataDog/integrations-extras/blob/master/n2ws/metadata.csv -[6]: https://n2ws.com/support/documentation -[7]: https://n2ws.com/support -[8]: https://docs.datadoghq.com/es/help/ \ No newline at end of file +- [Guía del usuario y documentación de N2WS](https://n2ws.com/support/documentation) +- [Asistencia técnica de N2WS](https://n2ws.com/support) +- [Asistencia técnica de Datadog](https://docs.datadoghq.com/help/) \ No newline at end of file diff --git a/content/es/integrations/neo4j.md b/content/es/integrations/neo4j.md index 87f3d11bffa48..55f1eef6834ea 100644 --- a/content/es/integrations/neo4j.md +++ b/content/es/integrations/neo4j.md @@ -1,94 +1,42 @@ --- app_id: neo4j -app_uuid: f2657bb8-ded4-48f3-8095-f703cc203149 -assets: - dashboards: - Neo4j V4 Dashboard: assets/dashboards/Neo4j4.xDefaultDashboard.json - Neo4j V5 Cluster Dashboard: assets/dashboards/Neo4j5ClusterDashboard.json - Neo4j V5 Dashboard: assets/dashboards/Neo4j5DefaultDashboard.json - integration: - auto_install: true - configuration: - spec: assets/configuration/spec.yaml - events: - creates_events: false - metrics: - check: neo4j.dbms.page_cache.hits - metadata_path: metadata.csv - prefix: neo4j. - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 10202 - source_type_name: Neo4j -author: - homepage: https://github.com/DataDog/integrations-extras - name: Neo4j - sales_email: support@neotechnology.com - support_email: support@neotechnology.com categories: - almacenes de datos -custom_kind: integration -dependencies: -- https://github.com/DataDog/integrations-extras/blob/master/neo4j/README.md -display_on_public_website: true -draft: false -git_integration_title: neo4j -integration_id: neo4j -integration_title: Neo4j -integration_version: 3.0.3 -is_public: true -manifest_version: 2.0.0 -name: neo4j -public_title: Neo4j -short_description: Recopila métricas de Neo4j +custom_kind: integración +description: Recopila métricas de Neo4j +integration_version: 3.0.4 +media: +- caption: Dashboard de Neo4j 5 + image_url: images/Neo4j_5_Dashboard.png + media_type: imagen +- caption: Base de datos de Neo4j 5 + image_url: images/neo4j_graph.png + media_type: imagen supported_os: - linux - macos - windows -tile: - changelog: CHANGELOG.md - classifier_tags: - - Supported OS::Linux - - Supported OS::macOS - - Supported OS::Windows - - Category::Data Stores - - Offering::Integration - configuration: README.md#Setup - description: Recopila métricas de Neo4j - media: - - caption: Dashboard de Neo4j 5 - image_url: images/Neo4j_5_Dashboard.png - media_type: imagen - - caption: Base de datos de Neo4j 5 - image_url: images/neo4j_graph.png - media_type: imagen - overview: README.md#Overview - support: README.md#Support - title: Neo4j +title: Neo4j --- - - - - ## Información general -[Neo4j][1] es una base de datos gráfica empresarial que combina almacenamiento gráfico nativo, seguridad avanzada, arquitectura escalable de velocidad optimizada y conformidad con ACID para asegurar la previsibilidad y la integridad de las consultas basadas en relaciones. Neo4j almacena y gestiona los datos en su estado más natural y conectado, mediante relaciones de datos que ofrecen consultas ultrarrápidas, un contexto más detallado para el análisis y un modelo de datos modificable sin complicaciones. +[Neo4j](https://neo4j.com/) es una base de datos gráfica empresarial que combina almacenamiento gráfico nativo, seguridad avanzada, arquitectura escalable de velocidad optimizada y conformidad con ACID para garantizar la previsibilidad y la integridad de las consultas basadas en relaciones. Neo4j almacena y gestiona los datos en su estado más natural y conectado y mantiene relaciones de datos que ofrecen consultas ultrarrápidas, un contexto más profundo para el análisis y un modelo de datos modificable sin complicaciones. -Las métricas de Neo4j permite a los administradores de bases de datos monitorizar sus despliegues de Neo4j. Los administradores de bases de datos desean conocer el uso de la memoria (caché de heap y páginas), el número de transacciones, el estado del clúster, el tamaño de la base de datos (incluido el número de nodos, relaciones y propiedades) y el rendimiento de las consultas. - -Con esta integración, visualiza importantes métricas de Neo4j en nuestros dashboards predefinidos y permite a tus DBAs solucionar problemas y monitorizar el estado de tus bases de datos Neo4j. +Las métricas de Neo4j permiten a los administradores de bases de datos monitorizar sus despliegues de Neo4j. Los administradores de bases de datos desean conocer el uso de la memoria (caché de montón y de page (página)), el número de transacciones, el estado del clúster, el tamaño de la base de datos (incluidos el número de nodos, relaciones y propiedades) y el rendimiento de las consultas. +Con esta integración, visualiza importantes métricas de Neo4j en nuestros dashboards predefinidos y permite a tus bases de datos solucionar problemas y monitorizar el estado de tus bases de datos Neo4j. ## Configuración -Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecuta en un host. Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][2] para obtener orientación sobre la aplicación de estas instrucciones. +Sigue las siguientes instrucciones para instalar y configurar este check para un Agent que se ejecute en un host. Para entornos en contenedores, consulta las [Plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/autodiscovery/integrations) para obtener orientación sobre la aplicación de estas instrucciones. ### Instalación Para instalar el check de neo4j en tu host: -1. Descarga e instala el [Datadog Agent][3]. -2. Para instalar el check de neo4j en tu host: +1. Descarga e instala el [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest). + +1. Para instalar el check de neo4j en tu host: ```shell datadog-agent integration install -t datadog-neo4j== @@ -96,21 +44,495 @@ Para instalar el check de neo4j en tu host: ### Configuración -1. Edita el archivo `neo4j.d/conf.yaml`, en la carpeta `conf.d/` en la raíz del directorio de configuración del Agent para comenzar a recopilar tus datos de rendimiento de neo4j. Consulta el [neo4j.d/conf.yaml de ejemplo][4] para todas las opciones disponibles de configuración. +1. Edita el archivo `neo4j.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu directorio de configuración del Agent para comenzar a recopilar tus datos de rendimiento de neo4j. Consulta el [ejemplo neo4j.d/conf.yaml](https://github.com/DataDog/integrations-extras/blob/master/neo4j/datadog_checks/neo4j/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. -2. Datadog escucha en el puerto 5000 para dogstatsd_stats_port y expvar_port. En tu archivo neo4j.conf, tendrás que cambiar server.discovery.listen_address y el server.discovery.advertised_address para utilizar un puerto distinto de 5000. +1. Datadog escucha en el puerto 5000 para dogstatsd_stats_port y expvar_port. En tu archivo neo4j.conf, tendrás que cambiar server.discovery.listen_address y el server.discovery.advertised_address para utilizar un puerto distinto de 5000. -3. [Reinicia el Agent][5]. +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). ### Validación -[Ejecuta el subcomando de estado del Agent][6] y busca `neo4j` en la sección Checks. +[Ejecuta el subcomando de estado del Agent(https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `neo4j` en la sección Checks. ## Datos recopilados ### Métricas -{{< get-metrics-from-git "neo4j" >}} +| | | +| --- | --- | +| **neo4j.causal_clustering.catchup_tx_pull_requests_received**
(gauge) | Número total de solicitudes de extracción de transacciones recibidas. (Neo4j 4)| +| **neo4j.causal_clustering.core.append_index**
(gauge) | Índice de anexión del log de RAFT. (Neo4j 4)| +| **neo4j.causal_clustering.core.commit_index**
(gauge) | Índice de confirmación del log de RAFT. (Neo4j 4)| +| **neo4j.causal_clustering.core.discovery.cluster.converged**
(gauge) | Convergencia del clúster de descubrimiento. (Neo4j 4)| +| **neo4j.causal_clustering.core.discovery.cluster.members**
(gauge) | Tamaño de los miembros del clúster de descubrimiento. (Neo4j 4)| +| **neo4j.causal_clustering.core.discovery.cluster.unreachable**
(gauge) | Tamaño inalcanzable del clúster de descubrimiento. (Neo4j 4)| +| **neo4j.causal_clustering.core.discovery.replicated_data.cluster_id.per_db_name.invisible**
(gauge) | Identificador oculto del clúster. (Neo4j 4)| +| **neo4j.causal_clustering.core.discovery.replicated_data.cluster_id.per_db_name.visible**
(gauge) | Identificador compartido del clúster. (Neo4j 4)| +| **neo4j.causal_clustering.core.discovery.replicated_data.member_data.invisible**
(gauge) | Estructura de datos invisible que contiene metadatos sobre los miembros del clúster. (Neo4j 4)| +| **neo4j.causal_clustering.core.discovery.replicated_data.member_data.visible**
(gauge) | Estructura de datos visible que contiene metadatos sobre los miembros del clúster. (Neo4j 4)| +| **neo4j.causal_clustering.core.discovery.replicated_data.member_db_state.invisible**
(gauge) | La parte oculta de la estructura de datos utilizada con fines internos. (Neo4j 4)| +| **neo4j.causal_clustering.core.discovery.replicated_data.member_db_state.visible**
(gauge) | La parte visible de la estructura de datos utilizada con fines internos. (Neo4j 4)| +| **neo4j.causal_clustering.core.discovery.replicated_data.per_db.leader_name.invisible**
(gauge) | El número total de cambios de liderazgo. (Neo4j 4)| +| **neo4j.causal_clustering.core.discovery.replicated_data.per_db.leader_name.visible**
(gauge) | Número de líderes del clúster. (Neo4j 4)| +| **neo4j.causal_clustering.core.discovery.replicated_data.raft_id.published_by_member.invisible**
(gauge) | Identificador de Raft visible publicado por el miembro. (Neo4j 4)| +| **neo4j.causal_clustering.core.discovery.replicated_data.raft_id.published_by_member.visible**
(gauge) | Identificador de Raft oculto publicado por el miembro. (Neo4j 4)| +| **neo4j.causal_clustering.core.in_flight_cache_element_count**
(gauge) | Recuento de elementos de la caché en vuelo. (Neo4j 4)| +| **neo4j.causal_clustering.core.in_flight_cache.hits**
(gauge) | Aciertos de la caché en vuelo. (Neo4j 4)| +| **neo4j.causal_clustering.core.in_flight_cache.max_bytes**
(gauge) | Bytes máximos de caché en vuelo. (Neo4j 4)| +| **neo4j.causal_clustering.core.in_flight_cache.max_elements**
(gauge) | Elementos máximos de caché en vuelo. (Neo4j 4)| +| **neo4j.causal_clustering.core.in_flight_cache.misses**
(gauge) | Fallos de caché en vuelo. (Neo4j 4)| +| **neo4j.causal_clustering.core.in_flight_cache.total_bytes**
(gauge) | Total de bytes de la caché en vuelo. (Neo4j 4)| +| **neo4j.causal_clustering.core.is_leader**
(gauge) | ¿Es este servidor el líder? (Neo4j 4)| +| **neo4j.causal_clustering.core.message_processing_delay**
(gauge) | Retraso entre la recepción y el procesamiento de mensajes de RAFT. (Neo4j 4)| +| **neo4j.causal_clustering.core.message_processing_timer**
(gauge) | Temporizador para el procesamiento de mensajes de RAFT. (Neo4j 4)| +| **neo4j.causal_clustering.core.message_processing_timer.append_entries_request**
(gauge) | Solicitudes invocadas por el líder de RAFT para replicar entradas de logs. (Neo4j 4)| +| **neo4j.causal_clustering.core.message_processing_timer.append_entries_response**
(gauge) | Respuestas de los seguidores a las solicitudes del líder de RAFT para replicar las entradas de logs. (Neo4j 4)| +| **neo4j.causal_clustering.core.message_processing_timer.election_timeout**
(gauge) | Eventos de tiempo de espera para el procesamiento de mensajes de RAFT. (Neo4j 4)| +| **neo4j.causal_clustering.core.message_processing_timer.heartbeat**
(gauge) | Solicitudes de Heartbeat recibidas por los seguidores en el clúster de RAFT. (Neo4j 4)| +| **neo4j.causal_clustering.core.message_processing_timer.heartbeat_response**
(gauge) | Respuestas de Heartbeat recibidas por el líder en el clúster de RAFT. (Neo4j 4)| +| **neo4j.causal_clustering.core.message_processing_timer.heartbeat_timeout**
(gauge) | Eventos de tiempo de espera para solicitudes de latido. (Neo4j 4)| +| **neo4j.causal_clustering.core.message_processing_timer.log_compaction_info**
(gauge) | Compactación de logs (Neo4j 4)| +| **neo4j.causal_clustering.core.message_processing_timer.new_batch_request**
(gauge) | Nuevas solicitudes por lotes (Neo4j 4)| +| **neo4j.causal_clustering.core.message_processing_timer.new_entry_request**
(gauge) | Nuevas solicitudes de entrada (Neo4j 4)| +| **neo4j.causal_clustering.core.message_processing_timer.pre_vote_request**
(gauge) | Solicitudes previas a la votación (Neo4j 4)| +| **neo4j.causal_clustering.core.message_processing_timer.pre_vote_response**
(gauge) | Respuestas previas a la votación (Neo4j 4)| +| **neo4j.causal_clustering.core.message_processing_timer.prune_request**
(gauge) | Solicitudes de poda (Neo4j 4)| +| **neo4j.causal_clustering.core.message_processing_timer.vote_request**
(gauge) | Solicitudes de votación (Neo4j 4)| +| **neo4j.causal_clustering.core.message_processing_timer.vote_response**
(gauge) | Respuestas a las votaciones (Neo4j 4)| +| **neo4j.causal_clustering.core.replication_attempt**
(gauge) | Count de intentos de réplica de la Raft. (Neo4j 4)| +| **neo4j.causal_clustering.core.replication_fail**
(gauge) | Count de fallos en la réplica de Raft. (Neo4j 4)| +| **neo4j.causal_clustering.core.replication_new**
(gauge) | Nuevo count de solicitudes de réplica de Raft. (Neo4j 4)| +| **neo4j.causal_clustering.core.replication_success**
(gauge) | Count de éxitos de réplica de Raft. (Neo4j 4)| +| **neo4j.causal_clustering.core.term**
(gauge) | Término de RAFT de este servidor (Neo4j 4)| +| **neo4j.causal_clustering.core.tx_retries**
(gauge) | Reintentos de transacción. (Neo4j 4)| +| **neo4j.causal_clustering.read_replica.pull_update_highest_tx_id_received**
(gauge) | El identificador de transacción más alto que se ha extraído en la última actualización de extracción por esta instancia. (Neo4j 4)| +| **neo4j.causal_clustering.read_replica.pull_update_highest_tx_id_requested**
(gauge) | El identificador de transacción más alto solicitado en una actualización de incorporación de cambios por esta instancia. (Neo4j 4)| +| **neo4j.causal_clustering.read_replica.pull_updates**
(gauge) | El número total de solicitudes de incorporación de cambios realizadas por esta instancia. (Neo4j 4)| +| **neo4j.database.dbname.check_point.duration**
(gauge) | La duración, en milisegundos, del último evento de punto de control. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.check_point.events**
(count) | El número total de eventos de punto de control ejecutados hasta el momento. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.check_point.io_limit**
(gauge) | El límite de entrada/salida utilizado durante el último evento de punto de control. (Neo4j 5)| +| **neo4j.database.dbname.check_point.io_performed**
(gauge) | El número de entradas/salidas desde la perspectiva de Neo4j realizadas durante el último evento de punto de control. (Neo4j 5)| +| **neo4j.database.dbname.check_point.limit_millis**
(gauge) | (Neo4j 5)| +| **neo4j.database.dbname.check_point.limit_times**
(gauge) | (Neo4j 5)| +| **neo4j.database.dbname.check_point.pages_flushed**
(gauge) | El número de páginas que se vaciaron durante el último evento de punto de control. (Neo4j 5)| +| **neo4j.database.dbname.check_point.total_time**
(count) | El tiempo total, en milisegundos, empleado en el punto de control hasta ahora. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.cluster.catchup.tx_pull_requests_received**
(count) | Solicitudes de incorporación de cambios de TX recibidas de secundarios. (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.append_index**
(count) | El índice de anexión del log de Raft (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.applied_index**
(count) | El índice aplicado del log de Raft (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.commit_index**
(count) | El índice de confirmación del log de Raft (Neo4j 4)| +| **neo4j.database.dbname.cluster.core.in_flight_cache.element_count**
(gauge) | Count de elementos en caché en vuelo. (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.in_flight_cache.hits**
(count) | Aciertos de caché en vuelo. (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.in_flight_cache.max_bytes**
(gauge) | Bytes máximos de caché en vuelo. (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.in_flight_cache.max_elements**
(gauge) | Elementos máximos de la caché en vuelo. (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.in_flight_cache.misses**
(count) | Fallos de caché en vuelo. (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.in_flight_cache.total_bytes**
(count) | Total de bytes de la caché en vuelo. (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.is_leader**
(count) | ¿Es este servidor el líder? (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.last_leader_message**
(count) | El tiempo transcurrido desde el último mensaje de un líder en milisegundos.| +| **neo4j.database.dbname.cluster.core.message_processing_delay**
(count) | Retraso entre la recepción y el procesamiento del mensaje de Raft.| +| **neo4j.database.dbname.cluster.core.message_processing_timer**
(count) | Temporizador para el procesamiento de mensajes de Raft. (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.message_processing_timer.append_entries_request**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.message_processing_timer.append_entries_response**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.message_processing_timer.election_timeout**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.message_processing_timer.heartbeat**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.message_processing_timer.heartbeat_response**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.message_processing_timer.heartbeat_timeout**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.message_processing_timer.leadership_transfer_proposal**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.message_processing_timer.leadership_transfer_rejection**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.message_processing_timer.leadership_transfer_request**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.message_processing_timer.log_compaction_info**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.message_processing_timer.new_batch_request**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.message_processing_timer.new_entry_request**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.message_processing_timer.pre_vote_request**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.message_processing_timer.pre_vote_response**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.message_processing_timer.prune_request**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.message_processing_timer.status_response**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.message_processing_timer.vote_request**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.message_processing_timer.vote_response**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.raft_log_entry_prefetch_buffer.async_put**
(count) | Puts asíncronas de búfer de acceso previo de entrada de logs de Raft (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.raft_log_entry_prefetch_buffer.bytes**
(count) | Bytes totales de acceso previo de entrada de logs de Raft. (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.raft_log_entry_prefetch_buffer.lag**
(count) | Retraso de acceso previo de entrada de logs de Raft. (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.raft_log_entry_prefetch_buffer.size**
(count) | Tamaño del búfer de acceso previo de entrada de logs de Raft (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.raft_log_entry_prefetch_buffer.sync_put**
(count) | Puts asíncronas de búfer de acceso previo de entrada de logs de Raft (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.replication_attempt**
(count) | El número total de intentos de solicitudes de réplicas de Raft. Es mayor o igual que las solicitudes de réplicas.| +| **neo4j.database.dbname.cluster.core.replication_fail**
(count) | El número total de intentos de réplica de Raft que han fallado. (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.replication_maybe**
(count) | La réplica de Raft tal vez cuente. (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.replication_new**
(count) | La réplica de Raft tal vez cuente. (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.replication_success**
(count) | El número total de solicitudes de réplicas de Raft que han tenido éxito. (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.term**
(count) | El término de Raft de este servidor. Aumenta en forma monótona si no se desvincula el estado del clúster. (Neo4j 5)| +| **neo4j.database.dbname.cluster.core.tx_retries**
(count) | Reintentos de transacción. (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.append_index**
(count) | El índice de anexión del log de Raft. Cada índice representa una transacción de escritura (posiblemente interna) propuesta para confirmación. Los valores aumentan en su mayoría, pero a veces pueden disminuir como consecuencia de cambios de líder. El índice de anexión siempre debe ser menor o igual al índice de confirmación. (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.applied_index**
(count) | El índice aplicado del log de Raft. Representa la aplicación de las entradas de logs de Raft confirmadas a la base de datos y al estado interno. El índice aplicado siempre debe ser mayor o igual que el índice de confirmación. La diferencia entre este y el índice de confirmación se puede utilizar para monitorizar para saber cuán actualizada está la base de datos de seguimiento. (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.commit_index**
(count) | El índice de confirmación de logs de Raft. Representa el compromiso de las entradas añadidas previamente. Su valor aumenta en forma monótona si no se desvincula el estado del clúster. El índice de confirmación siempre debe ser mayor o igual que el índice de anexión. (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.in_flight_cache.element_count**
(count) | Count de elementos en caché en vuelo. (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.in_flight_cache.hits**
(count) | Aciertos de la caché en vuelo. (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.in_flight_cache.max_bytes**
(count) | Bytes máximos de caché en vuelo. (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.in_flight_cache.max_elements**
(count) | Elementos máximos de la caché en vuelo. (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.in_flight_cache.misses**
(count) | Fallos de caché en vuelo. (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.in_flight_cache.total_bytes**
(count) | Total de bytes de la caché en vuelo. (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.is_leader**
(count) | ¿Es este servidor el líder? (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.last_leader_message**
(count) | El tiempo transcurrido desde el último mensaje de un líder en milisegundos. Debe reiniciarse periódicamente. (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.message_processing_delay**
(count) | Retraso entre la recepción y el procesamiento del mensaje de Raft. (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.message_processing_timer**
(count) | Temporizador para el procesamiento de mensajes de Raft. (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.message_processing_timer.append_entries_request**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.message_processing_timer.append_entries_response**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.message_processing_timer.election_timeout**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.message_processing_timer.heartbeat**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.message_processing_timer.heartbeat_response**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.message_processing_timer.heartbeat_timeout**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.message_processing_timer.leadership_transfer_proposal**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.message_processing_timer.leadership_transfer_rejection**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.message_processing_timer.leadership_transfer_request**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.message_processing_timer.log_compaction_info**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.message_processing_timer.new_batch_request**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.message_processing_timer.new_entry_request**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.message_processing_timer.pre_vote_request**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.message_processing_timer.pre_vote_response**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.message_processing_timer.prune_request**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.message_processing_timer.status_response**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.message_processing_timer.vote_request**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.message_processing_timer.vote_response**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.raft_log_entry_prefetch_buffer.async_put**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.raft_log_entry_prefetch_buffer.bytes**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.raft_log_entry_prefetch_buffer.lag**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.raft_log_entry_prefetch_buffer.size**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.raft_log_entry_prefetch_buffer.sync_put**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.replication_attempt**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.replication_fail**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.replication_maybe**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.replication_new**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.replication_success**
(count) | (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.term**
(count) | El término de Raft de este servidor. Aumenta en forma monótona si no se desvincula el estado del clúster. (Neo4j 5)| +| **neo4j.database.dbname.cluster.raft.tx_retries**
(count) | Reintentos de transacción. (Neo4j 5)| +| **neo4j.database.dbname.count.node**
(gauge) | El número total de nodos en las bases de datos. (Neo4j 4)| +| **neo4j.database.dbname.cypher.cache.ast.entries**
(gauge) | Número de entradas de AST en la caché de cifrado (Neo4j 5)| +| **neo4j.database.dbname.cypher.cache.executable_query.cache_flushes**
(gauge) | Número de descargas de la caché de consultas ejecutables de la caché de cifrado. (Neo4j 5)| +| **neo4j.database.dbname.cypher.cache.executable_query.compiled**
(gauge) | El número de entradas compiladas de consultas ejecutables de la caché de cifrado. (Neo4j 5)| +| **neo4j.database.dbname.cypher.cache.executable_query.discards**
(gauge) | El número de descartes de consultas ejecutables de la caché de cifrado. (Neo4j 5)| +| **neo4j.database.dbname.cypher.cache.executable_query.entries**
(gauge) | Número de entradas de consultas ejecutables en la caché de cifrado. (Neo4j 5)| +| **neo4j.database.dbname.cypher.cache.executable_query.hits**
(gauge) | Número de aciertos de consultas ejecutables en la caché de cifrado. (Neo4j 5)| +| **neo4j.database.dbname.cypher.cache.executable_query.misses**
(gauge) | El número de consultas ejecutables fallidas de la caché de cifrado. (Neo4j 5)| +| **neo4j.database.dbname.cypher.cache.executable_query.stale_entries**
(gauge) | Número de entradas de consultas obsoletas ejecutables en la caché de cifrado. (Neo4j 5)| +| **neo4j.database.dbname.cypher.cache.execution_plan.cache_flushes**
(gauge) | El número de vaciados de caché del plan de ejecución de la caché de cifrado. (Neo4j 5)| +| **neo4j.database.dbname.cypher.cache.execution_plan.compiled**
(gauge) | El número de entradas compiladas del plan de ejecución de la caché de cifrado. (Neo4j 5)| +| **neo4j.database.dbname.cypher.cache.execution_plan.discards**
(gauge) | El número de descartes del plan de ejecución de la caché de cifrado. (Neo4j 5)| +| **neo4j.database.dbname.cypher.cache.execution_plan.entries**
(gauge) | El número de entradas del plan de ejecución de la caché de cifrado. (Neo4j 5)| +| **neo4j.database.dbname.cypher.cache.execution_plan.hits**
(gauge) | Número de aciertos en el plan de ejecución de la caché de cifrado. (Neo4j 5)| +| **neo4j.database.dbname.cypher.cache.execution_plan.misses**
(gauge) | El número de fallos en el plan de ejecución de la caché de cifrado. (Neo4j 5)| +| **neo4j.database.dbname.cypher.cache.execution_plan.stale_entries**
(gauge) | Número de entradas de consultas obsoletas ejecutables en la caché de cifrado. (Neo4j 5)| +| **neo4j.database.dbname.cypher.cache.logical_plan.cache_flushes**
(gauge) | El número de vaciados de la caché de planes lógicos de la caché de cifrado. (Neo4j 5)| +| **neo4j.database.dbname.cypher.cache.logical_plan.compiled**
(gauge) | El número de entradas compiladas del plan lógico de la caché de cifrado. (Neo4j 5)| +| **neo4j.database.dbname.cypher.cache.logical_plan.discards**
(gauge) | El número de descartes del plan lógico de la caché de cifrado. (Neo4j 5)| +| **neo4j.database.dbname.cypher.cache.logical_plan.entries**
(gauge) | El número de entradas del plan lógico de la caché de cifrado. (Neo4j 5)| +| **neo4j.database.dbname.cypher.cache.logical_plan.hits**
(gauge) | Número de aciertos del plan lógico de la caché de cifrado. (Neo4j 5)| +| **neo4j.database.dbname.cypher.cache.logical_plan.misses**
(gauge) | Número de faltas del plan lógico de la caché de cifrado. (Neo4j 5)| +| **neo4j.database.dbname.cypher.cache.logical_plan.stale_entries**
(gauge) | Número de entradas de consultas obsoletas ejecutables en la caché de cifrado. (Neo4j 5)| +| **neo4j.database.dbname.cypher.cache.pre_parser.entries**
(gauge) | El número de entradas del analizador previo de la caché de cifrado. (Neo4j 5)| +| **neo4j.database.dbname.cypher.replan_events**
(count) | El número total de veces que Cypher ha decidido volver a planificar una consulta. Neo4j almacena 1000 planes en forma predeterminada. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.cypher.replan_wait_time**
(count) | El número total de segundos esperados entre nuevas planificaciones de consultas. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.db.query.execution.failure**
(count) | Count de consultas fallidas ejecutadas. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.db.query.execution.latency.millis**
(gauge) | Tiempo de ejecución en milisegundos de las consultas ejecutadas con éxito. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.db.query.execution.success**
(count) | Count de consultas ejecutadas con éxito. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.ids_in_use.node**
(gauge) | El número total de nodos almacenados en la base de datos. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.ids_in_use.property**
(gauge) | El número total de nombres de propiedades diferentes utilizados en la base de datos. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.ids_in_use.relationship**
(gauge) | El número total de relaciones almacenadas en la base de datos. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.ids_in_use.relationship_type**
(gauge) | El número total de diferentes tipos de relaciones almacenadas en la base de datos. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.log.append_batch_size**
(gauge) | El tamaño del último lote de anexiones de transacciones. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.log.appended_bytes**
(count) | El número total de bytes añadidos al log de transacción. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.log.flushes**
(count) | El número total de vaciados de logs de transacciones. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.log.rotation_duration**
(count) | La duración, en milisegundos, del último evento de rotación de logs. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.log.rotation_events**
(count) | El número total de rotaciones de logs de transacciones ejecutadas hasta el momento. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.log.rotation_total_time**
(count) | El tiempo total, en milisegundos, empleado en rotar logs de transacciones hasta el momento. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.neo4j.count.node**
(count) | El número total de nodos en la base de datos. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.neo4j.count.relationship**
(gauge) | El número total de relaciones en la base de datos. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.neo4j.count.relationship_types**
(gauge) | Número total de identificadores generados internamente para los diferentes tipos de relaciones almacenados en la base de datos. (Neo4j 5)| +| **neo4j.database.dbname.pool.other.neo4j.free**
(count) | Cantidad estimada de memoria libre en bytes para este grupo. (Neo4j 4)| +| **neo4j.database.dbname.pool.other.neo4j.total_size**
(count) | Cantidad estimada de memoria disponible en bytes para este grupo. (Neo4j 4)| +| **neo4j.database.dbname.pool.other.neo4j.total_used**
(count) | Cantidad estimada de memoria total utilizada en bytes para este grupo. (Neo4j 4)| +| **neo4j.database.dbname.pool.other.neo4j.used_heap**
(count) | Cantidad estimada de montón utilizado en bytes para este grupo. (Neo4j 4)| +| **neo4j.database.dbname.pool.other.neo4j.used_native**
(count) | Cantidad estimada de memoria nativa utilizada para este grupo. (Neo4j 4)| +| **neo4j.database.dbname.pool.transaction.neo4j.free**
(count) | Cantidad estimada de memoria libre en bytes para este grupo.| +| **neo4j.database.dbname.pool.transaction.neo4j.total_size**
(count) | Cantidad estimada de memoria disponible en bytes para este grupo.| +| **neo4j.database.dbname.pool.transaction.neo4j.total_used**
(count) | Cantidad estimada de memoria total utilizada en bytes para este pool.| +| **neo4j.database.dbname.pool.transaction.neo4j.used_heap**
(count) | Cantidad estimada del montón utilizado en bytes para este grupo.| +| **neo4j.database.dbname.pool.transaction.neo4j.used_native**
(count) | Cantidad estimada de memoria nativa utilizada para este grupo.| +| **neo4j.database.dbname.store.size.database**
(gauge) | El tamaño de la base de datos, en bytes. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.store.size.total**
(gauge) | El tamaño total de la base de datos y de los logs de transacciones, en bytes. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.transaction.active**
(gauge) | El número de transacciones actualmente activas. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.transaction.active_read**
(gauge) | El número de transacciones de lectura actualmente activas. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.transaction.active_write**
(gauge) | El número de transacciones de escritura actualmente activas. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.transaction.committed**
(count) | El número total de transacciones confirmadas. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.transaction.committed_read**
(count) | El número total de transacciones de lectura confirmadas. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.transaction.committed_write**
(count) | El número total de transacciones de escritura confirmadas. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.transaction.last_closed_tx_id**
(gauge) | El identificador de la última transacción cerrada. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.transaction.last_committed_tx_id**
(gauge) | El identificador de la última transacción confirmada. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.transaction.peak_concurrent**
(count) | El pico más alto de transacciones concurrentes. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.transaction.rollbacks**
(count) | El número total de transacciones revertidas. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.transaction.rollbacks_read**
(count) | El número total de transacciones de lectura revertidas. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.transaction.rollbacks_write**
(count) | El número total de transacciones de escritura revertidas. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.transaction.started**
(count) | El número total de transacciones iniciadas.| +| **neo4j.database.dbname.transaction.terminated**
(count) | El número total de transacciones finalizadas.| +| **neo4j.database.dbname.transaction.terminated_read**
(count) | El número total de transacciones de lectura terminadas. (Neo4j 4 y Neo4j 5)| +| **neo4j.database.dbname.transaction.terminated_write**
(count) | Número total de transacciones de escritura finalizadas.| +| **neo4j.database.dbname.transaction.tx_size_heap**
(count) | El tamaño de las transacciones en el montón en bytes.| +| **neo4j.database.dbname.transaction.tx_size_native**
(count) | El tamaño de las transacciones en la memoria nativa en bytes. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.bolt.accumulated_processing_time**
(count) | La cantidad total de tiempo en milisegundos que los subprocesos de worker han estado procesando mensajes. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.bolt.accumulated_queue_time**
(count) | Cuando internal.server.bolt.thread_pool_queue_size está activado, el tiempo total en milisegundos que un mensaje de Bolt espera en la cola de procesamiento antes de que un subproceso de worker de Bolt esté disponible para procesarlo. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.bolt.connections_closed**
(gauge) | El número total de conexiones de Bolt cerradas desde que se inició esta instancia. Esto incluye tanto las conexiones finalizadas correctamente como las anormalmente finalizadas. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.bolt.connections_idle**
(gauge) | El número total de conexiones de Bolt que no están ejecutando actualmente Cypher ni devolviendo resultados. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.bolt.connections_opened**
(count) | El número total de conexiones de Bolt abiertas desde el inicio. Esto incluye tanto las conexiones finalizadas con éxito como las fallidas. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.bolt.connections_running**
(gauge) | El número total de conexiones de Bolt que están ejecutando actualmente Cypher y devolviendo resultados. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.bolt.messages_done**
(count) | El número total de mensajes de Bolt que han terminado de procesarse, ya sea con éxito o sin éxito. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.bolt.messages_failed**
(count) | El número total de mensajes que han fallado durante el procesamiento. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.bolt.messages_received**
(count) | El número total de mensajes recibidos a través de Bolt desde el inicio. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.bolt.messages_started**
(count) | El número total de mensajes que han comenzado a procesarse desde que se recibieron. Un mensaje recibido puede haber comenzado a ser procesado hasta que un hilo de worker de Bolt esté disponible. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.bolt.response_failed**
(count) | El número total de respuestas de Bolt que han fallado durante el procesamiento. (Neo4j 5)| +| **neo4j.dbms.bolt.response_ignored**
(count) | Número total de respuestas de Bolt que se han ignorado durante el procesamiento. (Neo4j 5)| +| **neo4j.dbms.bolt.response_success**
(count) | Número total de respuestas de Bolt que se han procesado correctamente. (Neo4j 5)| +| **neo4j.dbms.bolt_driver.api.managed_transaction_function_calls**
(count) | Número total de llamadas a funciones de transacciones gestionadas. (Neo4j 5)| +| **neo4j.dbms.bolt_driver.api.unmanaged_transaction_calls**
(count) | El número total de llamadas a funciones de transacción no gestionadas. (Neo4j 5)| +| **neo4j.dbms.bolt_driver.api.implicit_transaction_calls**
(count) | Número total de llamadas implícitas a funciones de transacción. (Neo4j 5)| +| **neo4j.dbms.bolt_driver.api.execute_calls**
(count) | Número total de llamadas a funciones de ejecución a nivel de controlador. . (Neo4j 5)| +| **neo4j.dbms.cluster.catchup.tx_pull_requests_received**
(count) | Solicitudes de incorporación de cambios de TX recibidas de réplicas de lectura. (Neo4j 4)| +| **neo4j.dbms.cluster.core.append_index**
(gauge) | El índice de anexión del log de Raft (Neo4j 4)| +| **neo4j.dbms.cluster.core.applied_index**
(gauge) | El índice aplicado del log de Raft (Neo4j 4)| +| **neo4j.dbms.cluster.core.commit_index**
(gauge) | El índice de confirmación del log de Raft (Neo4j 4)| +| **neo4j.dbms.cluster.core.in_flight_cache_element_count**
(gauge) | Recuento de elementos de la caché en vuelo. (Neo4j 4)| +| **neo4j.dbms.cluster.core.in_flight_cache.hits**
(count) | Aciertos de la caché en vuelo. (Neo4j 4)| +| **neo4j.dbms.cluster.core.in_flight_cache.max_bytes**
(gauge) | Número máximo de bytes de caché en vuelo. (Neo4j 4)| +| **neo4j.dbms.cluster.core.in_flight_cache.max_elements**
(gauge) | Elementos máximos de caché en vuelo. (Neo4j 4)| +| **neo4j.dbms.cluster.core.in_flight_cache.misses**
(count) | Fallos de caché en vuelo. (Neo4j 4)| +| **neo4j.dbms.cluster.core.in_flight_cache.total_bytes**
(gauge) | Total de bytes de la caché en vuelo. (Neo4j 4)| +| **neo4j.dbms.cluster.core.is_leader**
(gauge) | ¿Es este servidor el líder? (Neo4j 4)| +| **neo4j.dbms.cluster.core.last_leader_message**
(gauge) | El tiempo transcurrido desde el último mensaje de un líder en milisegundos. (Neo4j 4)| +| **neo4j.dbms.cluster.core.message_processing_delay**
(gauge) | Retraso entre la recepción y el procesamiento de mensajes de RAFT. (Neo4j 4)| +| **neo4j.dbms.cluster.core.message_processsing_timer**
(count) | Temporizador para el procesamiento de mensajes de RAFT. (Neo4j 4)| +| **neo4j.dbms.cluster.core.raft_log_entry_prefetch_buffer.async_put**
(gauge) | Puts asíncronas de búfer de acceso previo de entrada de logs de Raft (Neo4j 4)| +| **neo4j.dbms.cluster.core.raft_log_entry_prefetch_buffer.bytes**
(gauge) | Bytes totales de acceso previo de entrada de logs de Raft. (Neo4j 4)| +| **neo4j.dbms.cluster.core.raft_log_entry_prefetch_buffer.lag**
(gauge) | Retraso de acceso previo de entrada de logs de Raft. (Neo4j 4)| +| **neo4j.dbms.cluster.core.raft_log_entry_prefetch_buffer.size**
(gauge) | Tamaño del búfer de acceso previo de entrada de logs de Raft. (Neo4j 4)| +| **neo4j.dbms.cluster.core.raft_log_entry_prefetch_buffer.sync_put**
(gauge) | Puts asíncronas de búfer de acceso previo de entrada de logs de Raft (Neo4j 4)| +| **neo4j.dbms.cluster.core.replication_attempt**
(count) | El número total de intentos de réplica de solicitudes de Raft. (Neo4j 4)| +| **neo4j.dbms.cluster.core.replication_fail**
(count) | El número total de intentos de réplicas de Raft que han fallado. (Neo4j 4)| +| **neo4j.dbms.cluster.core.replication_maybe**
(count) | Réplica de Raft tal vez cuenta. (Neo4j 4)| +| **neo4j.dbms.cluster.core.replication_new**
(count) | El número total de solicitudes de réplicas de Raft. (Neo4j 4)| +| **neo4j.dbms.cluster.core.replication_success**
(count) | Count de éxitos de réplicas de Raft. (Neo4j 4)| +| **neo4j.dbms.cluster.core.term**
(gauge) | El término de RAFT de este servidor. (Neo4j 4)| +| **neo4j.dbms.cluster.core.tx_retries**
(count) | Reintentos de transacción. (Neo4j 4)| +| **neo4j.dbms.cluster.discovery.cluster.converged**
(gauge) | Convergencia del clúster de descubrimiento. (Neo4j 5)| +| **neo4j.dbms.cluster.discovery.cluster.members**
(gauge) | Tamaño de los miembros del clúster de descubrimiento. (Neo4j 5)| +| **neo4j.dbms.cluster.discovery.cluster.unreachable**
(gauge) | Tamaño inalcanzable del clúster de descubrimiento. (Neo4j 5)| +| **neo4j.dbms.cluster.discovery.replicated_data**
(gauge) | Tamaño de las estructuras de datos replicadas. (Neo4j 5)| +| **neo4j.dbms.cluster.discovery.replicated_data.bootstrap_data.invisible**
(count) | (Neo4j 5)| +| **neo4j.dbms.cluster.discovery.replicated_data.bootstrap_data.visible**
(count) | (Neo4j 5)| +| **neo4j.dbms.cluster.discovery.replicated_data.component_versions.invisible**
(count) | (Neo4j 5)| +| **neo4j.dbms.cluster.discovery.replicated_data.component_versions.visible**
(count) | (Neo4j 5)| +| **neo4j.dbms.cluster.discovery.replicated_data.database_data.invisible**
(count) | (Neo4j 5)| +| **neo4j.dbms.cluster.discovery.replicated_data.database_data.visible**
(count) | (Neo4j 5)| +| **neo4j.dbms.cluster.discovery.replicated_data.leader_data.invisible**
(count) | (Neo4j 5)| +| **neo4j.dbms.cluster.discovery.replicated_data.leader_data.visible**
(count) | (Neo4j 5)| +| **neo4j.dbms.cluster.discovery.replicated_data.server_data.invisible**
(count) | (Neo4j 5)| +| **neo4j.dbms.cluster.discovery.replicated_data.server_data.visible**
(count) | (Neo4j 5)| +| **neo4j.dbms.cluster.discovery.restart.failed_count**
(count) | (Neo4j 5)| +| **neo4j.dbms.cluster.discovery.restart.success_count**
(count) | (Neo4j 5)| +| **neo4j.dbms.cluster.read_replica.pull_update_highest_tx_id_received**
(count) | El identificador de transacción más alto que ha sido extraído en la última actualización de incorporación de cambios por esta instancia. (Neo4j 4)| +| **neo4j.dbms.cluster.read_replica.pull_update_highest_tx_id_requested**
(count) | El identificador de transacción más alto solicitado en una actualización incorporación de cambios por esta instancia. (Neo4j 4)| +| **neo4j.dbms.cluster.read_replica.pull_updates**
(count) | El número total de solicitudes de incorporación de cambios realizadas por esta instancia. (Neo4j 4)| +| **neo4j.dbms.db.operation.count.create**
(count) | Count de operaciones de creación realizadas con éxito. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.db.operation.count.drop**
(count) | Count de operaciones de eliminación de bases de datos realizadas con éxito. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.db.operation.count.failed**
(count) | Count de operaciones fallidas en la base de datos. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.db.operation.count.recovered**
(count) | Count de operaciones de base de datos que fallaron anteriormente, pero se han recuperado. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.db.operation.count.start**
(count) | Count de operaciones de inicio de base de datos realizadas con éxito. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.db.operation.count.stop**
(count) | Count de operaciones de parada de la base de datos realizadas con éxito. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.page_cache.bytes_read**
(count) | El número total de bytes leídos por la caché de page (página). (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.page_cache.bytes_written**
(count) | El número total de bytes escritos por la caché de la page (página). (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.page_cache.eviction_exceptions**
(count) | El número total de excepciones vistas durante el proceso de desalojo en la caché de la page (página). (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.page_cache.evictions**
(count) | El número total de desalojos de la page (página) ejecutados por la caché Page ( página). (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.page_cache.evictions.cooperative**
(count) | El número total de desalojos cooperativos de la page (página) ejecutados por la caché de la page (página) debido a la escasez de páginas disponibles. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.page_cache.evictions.flushes**
(count) | El número total de páginas vaciadas por el desalojo de la page (página). (Neo4j 5)| +| **neo4j.dbms.page_cache.evictions.cooperative.flushes**
(count) | El número total de páginas cooperativas vaciadas por el desalojo de la page (página). (Neo4j 5)| +| **neo4j.dbms.page_cache.flushes**
(count) | El número total de descargas ejecutadas por la caché de la page (página). (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.page_cache.hit_ratio**
(gauge) | Relación de aciertos respecto al número total de búsquedas en la caché de la page (página). (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.page_cache.hits**
(count) | El número total de aciertos de page (página) que se han producido en la caché de page (página). (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.page_cache.iops**
(count) | El número total de operaciones entrada/salida realizadas por la caché de page (página). (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.page_cache.merges**
(count) | El número total de fusiones de page (página) ejecutadas por la caché de page (página). (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.page_cache.page_cancelled_faults**
(count) | El número total de fallos cancelados de page (página) ocurridos en la caché de page (página). (Neo4j 5)| +| **neo4j.dbms.page_cache.page_fault_failures**
(count) | El número total de fallos de page (página) ocurridos en la caché de page (página). (Neo4j 5)| +| **neo4j.dbms.page_cache.page_faults**
(count) | El número total de fallos de page (página) ocurridos en la caché de page (página). (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.page_cache.page_no_pin_page_faults**
(count) | (Neo4j 5)| +| **neo4j.dbms.page_cache.page_vectored_faults**
(count) | (Neo4j 5)| +| **neo4j.dbms.page_cache.page_vectored_faults_failures**
(count) | (Neo4j 5)| +| **neo4j.dbms.page_cache.pages_copied**
(count) | El número total de copias de page (página) que se han producido en la caché de page (página). (Neo4j 5)| +| **neo4j.dbms.page_cache.pins**
(count) | El número total de pasadores de page (página) ejecutados por la caché de page (página). (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.page_cache.throttled_millis**
(count) | El número total del limitador de entradas/salidas de vaciado de caché de page (página) de millones se alternó durante operaciones de entrada/salida en curso. (Neo4j 4)| +| **neo4j.dbms.page_cache.throttled.times**
(count) | El número total de veces que el limitador de vaciado de caché de page (página) cache se alternó durante operaciones de entrada/salida en curso. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.page_cache.unpins**
(count) | El número total de desclavados de page (página) ejecutados por la caché de page (página). (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.page_cache.usage_ratio**
(gauge) | Relación entre el número de páginas utilizadas y el número total de páginas disponibles. (Neo4j 5)| +| **neo4j.dbms.pool.backup.free**
(count) | Cantidad estimada de memoria libre en bytes para este grupo.| +| **neo4j.dbms.pool.backup.total_size**
(count) | Cantidad estimada de memoria disponible en bytes para este grupo.| +| **neo4j.dbms.pool.backup.total_used**
(count) | Cantidad estimada de memoria total utilizada en bytes para este grupo.| +| **neo4j.dbms.pool.backup.used_heap**
(count) | Cantidad estimada de montón usado en bytes para este grupo.| +| **neo4j.dbms.pool.backup.used_native**
(count) | Cantidad estimada de memoria nativa utilizada para este grupo.| +| **neo4j.dbms.pool.bolt.free**
(count) | Cantidad estimada de memoria libre en bytes para este grupo. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.pool.bolt.total_size**
(count) | Cantidad estimada de memoria disponible en bytes para este grupo. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.pool.bolt.total_used**
(count) | Cantidad estimada de memoria total utilizada en bytes para este grupo (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.pool.bolt.used_heap**
(count) | Cantidad estimada de montón utilizado en bytes para este grupo. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.pool.bolt.used_native**
(count) | Cantidad estimada de memoria nativa utilizada para este grupo.| +| **neo4j.dbms.pool.cluster.free**
(count) | Cantidad estimada de memoria libre en bytes para este grupo.| +| **neo4j.dbms.pool.cluster.total_size**
(count) | Cantidad estimada de memoria disponible en bytes para este grupo.| +| **neo4j.dbms.pool.cluster.total_used**
(count) | Cantidad estimada de memoria total utilizada en bytes para este grupo.| +| **neo4j.dbms.pool.cluster.used_heap**
(count) | Cantidad estimada de montón utilizado en bytes para este grupo.| +| **neo4j.dbms.pool.cluster.used_native**
(count) | Cantidad estimada de memoria nativa utilizada para este grupo.| +| **neo4j.dbms.pool.http_transaction.free**
(count) | Cantidad estimada de memoria libre en bytes para este grupo.| +| **neo4j.dbms.pool.http_transaction.total_size**
(count) | Cantidad estimada de memoria disponible en bytes para este grupo.| +| **neo4j.dbms.pool.http_transaction.total_used**
(count) | Cantidad estimada de memoria total utilizada en bytes para este grupo.| +| **neo4j.dbms.pool.http_transaction.used_heap**
(count) | Cantidad estimada de montón usado en bytes para este grupo.| +| **neo4j.dbms.pool.http_transaction.used_native**
(count) | Cantidad estimada de memoria nativa utilizada para este grupo.| +| **neo4j.dbms.pool.http.free**
(count) | Cantidad estimada de memoria libre en bytes para este grupo.| +| **neo4j.dbms.pool.http.total_size**
(count) | Cantidad estimada de memoria disponible en bytes para este grupo.| +| **neo4j.dbms.pool.http.total_used**
(count) | Cantidad estimada de memoria total utilizada en bytes para este grupo.| +| **neo4j.dbms.pool.http.used_heap**
(count) | Cantidad estimada de montón utilizado en bytes para este grupo.| +| **neo4j.dbms.pool.http.used_native**
(count) | Cantidad estimada de memoria nativa utilizada para este grupo.| +| **neo4j.dbms.pool.other.free**
(count) | Cantidad estimada de memoria libre en bytes para este grupo.| +| **neo4j.dbms.pool.other.total_size**
(count) | Cantidad estimada de memoria disponible en bytes para este grupo.| +| **neo4j.dbms.pool.other.total_used**
(count) | Cantidad estimada de memoria total utilizada en bytes para este grupo (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.pool.other.used_heap**
(count) | Cantidad estimada de montón utilizado en bytes para este grupo. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.pool.other.used_native**
(count) | Cantidad estimada de memoria nativa utilizada para este grupo. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.pool.page_cache.free**
(count) | Cantidad estimada de memoria libre en bytes para este grupo. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.pool.page_cache.total_size**
(count) | Cantidad estimada de memoria disponible en bytes para este grupo. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.pool.page_cache.total_used**
(count) | Cantidad estimada de memoria total utilizada en bytes para este grupo (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.pool.page_cache.used_heap**
(count) | Cantidad estimada de montón utilizado en bytes para este grupo. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.pool.page_cache.used_native**
(count) | Cantidad estimada de memoria nativa utilizada para este grupo. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.pool.pool.database.free**
(gauge) | Memoria no utilizada disponible en el grupo, en bytes. (Neo4j 4)| +| **neo4j.dbms.pool.pool.database.total_size**
(gauge) | Suma total de tamaño de la capacidad del montón y/o del grupo de memoria nativa. (Neo4j 4)| +| **neo4j.dbms.pool.pool.database.total_used**
(gauge) | Suma total de memoria de montón y nativa utilizada en bytes. (Neo4j 4)| +| **neo4j.dbms.pool.pool.database.used_heap**
(gauge) | Memoria de montón utilizada o reservada en bytes. (Neo4j 4)| +| **neo4j.dbms.pool.pool.database.used_native**
(gauge) | Memoria nativa utilizada o reservada en bytes. (Neo4j 4)| +| **neo4j.dbms.pool.pool.free**
(gauge) | Memoria no utilizada disponible en el grupo, en bytes. (Neo4j 4)| +| **neo4j.dbms.pool.pool.total_size**
(gauge) | Suma total del tamaño de la capacidad del montón y/o del grupo de memoria nativa. (Neo4j 4)| +| **neo4j.dbms.pool.pool.total_used**
(gauge) | Suma total de la memoria de montón y nativa utilizada en bytes. (Neo4j 4)| +| **neo4j.dbms.pool.pool.used_heap**
(gauge) | Memoria de montón utilizada o reservada en bytes. (Neo4j 4)| +| **neo4j.dbms.pool.pool.used_native**
(gauge) | Memoria nativa utilizada o reservada en bytes. (Neo4j 4)| +| **neo4j.dbms.pool.recent_query_buffer.free**
(count) | Cantidad estimada de memoria libre en bytes para este grupo. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.pool.recent_query_buffer.total_size**
(count) | Cantidad estimada de memoria disponible en bytes para este grupo. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.pool.recent_query_buffer.total_used**
(count) | Cantidad estimada de memoria total utilizada en bytes para este grupo (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.pool.recent_query_buffer.used_heap**
(count) | Cantidad estimada de montón utilizado en bytes para este grupo. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.pool.recent_query_buffer.used_native**
(count) | Cantidad estimada de memoria nativa utilizada para este grupo. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.pool.transaction.free**
(count) | Cantidad estimada de memoria libre en bytes para este grupo. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.pool.transaction.total_size**
(count) | Cantidad estimada de memoria disponible en bytes para este grupo. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.pool.transaction.total_used**
(count) | Cantidad estimada de memoria total utilizada en bytes para este grupo (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.pool.transaction.used_heap**
(count) | Cantidad estimada de montón utilizado en bytes para este grupo. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.pool.transaction.used_native**
(count) | Cantidad estimada de memoria nativa utilizada para este grupo. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.routing.query.count.local**
(count) | Número de consultas redirigidas localmente. (Neo4j 5)| +| **neo4j.dbms.routing.query.count.remote_internal**
(count) | Número de consultas redirigidas internamente. (Neo4j 5)| +| **neo4j.dbms.routing.query.count.remote_external**
(count) | Número de consultas redirigidas externamente. (Neo4j 5)| +| **neo4j.dbms.server.threads.jetty.all**
(gauge) | El número total de subprocesos (tanto inactivos como ocupados) en el grupo de jetty. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.server.threads.jetty.idle**
(gauge) | El número total de subprocesos inactivos en el grupo de jetty. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.vm.file.descriptors.count**
(gauge) | El número actual de descriptores de archivo abiertos (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.vm.file.descriptors.maximum**
(gauge) | (Configuración del sistema operativo) El número máximo de descriptores de archivo abiertos. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.vm.gc.count.g1_old_generation**
(count) | (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.vm.gc.count.g1_young_generation**
(count) | (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.vm.gc.count.gc**
(count) | Número total de recolecciones de basura.| +| **neo4j.dbms.vm.gc.time.g1_old_generation**
(count) | (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.vm.gc.time.g1_young_generation**
(count) | (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.vm.gc.time.gc**
(count) | Tiempo acumulado de recolección de basura en milisegundos.| +| **neo4j.dbms.vm.heap.committed**
(gauge) | Cantidad de memoria (en bytes) que se garantiza que está disponible para ser utilizada por la JVM. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.vm.heap.max**
(gauge) | Cantidad máxima de memoria de montón (en bytes) que se puede utilizar. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.vm.heap.used**
(gauge) | Cantidad de memoria (en bytes) utilizada actualmente. (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.vm.memory.buffer.bufferpool.capacity**
(gauge) | Capacidad total estimada de los búferes asignados en el grupo.| +| **neo4j.dbms.vm.memory.buffer.bufferpool.count**
(gauge) | Número estimado de búferes asignados en el grupo.| +| **neo4j.dbms.vm.memory.buffer.bufferpool.used**
(gauge) | Cantidad estimada de memoria asignada utilizada por el grupo.| +| **neo4j.dbms.vm.memory.buffer.direct.capacity**
(count) | Capacidad total estimada de búferes en el grupo (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.vm.memory.buffer.direct.count**
(count) | Número estimado de búferes en el grupo (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.vm.memory.buffer.direct.used**
(count) | Cantidad estimada de memoria utilizada por el grupo (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.vm.memory.buffer.mapped_non_volatile_memory.capacity**
(count) | Capacidad total estimada de los búferes en el grupo.| +| **neo4j.dbms.vm.memory.buffer.mapped_non_volatile_memory.count**
(count) | Número estimado de búferes en el grupo.| +| **neo4j.dbms.vm.memory.buffer.mapped_non_volatile_memory.used**
(count) | Cantidad estimada de memoria utilizada por el grupo.| +| **neo4j.dbms.vm.memory.buffer.mapped.capacity**
(count) | Capacidad total estimada de búferes en el grupo (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.vm.memory.buffer.mapped.count**
(count) | Número estimado de búferes en el grupo (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.vm.memory.buffer.mapped.used**
(count) | Cantidad estimada de memoria utilizada por el grupo (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.vm.memory.pool.codeheap_non_nmethods**
(count) | | +| **neo4j.dbms.vm.memory.pool.codeheap_non_profiled_nmethods**
(count) | | +| **neo4j.dbms.vm.memory.pool.codeheap_profiled_nmethods**
(count) | | +| **neo4j.dbms.vm.memory.pool.compressed_class_space**
(count) | (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.vm.memory.pool.g1_eden_space**
(count) | (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.vm.memory.pool.g1_old_gen**
(count) | (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.vm.memory.pool.g1_survivor_space**
(count) | (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.vm.memory.pool.metaspace**
(count) | (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.vm.memory.pool.pool**
(gauge) | Cantidad estimada de memoria en bytes utilizada por el grupo.| +| **neo4j.dbms.vm.pause_time**
(count) | Tiempo de pausa detectado acumulado de máquinas virtuales (Neo4j 4 y Neo4j 5)| +| **neo4j.dbms.vm.threads**
(gauge) | El número total de subprocesos activos, incluidos los subprocesos daemon y no daemon. (Neo4j 5)| +| **neo4j.transaction.terminated**
(count) | El número total de transacciones finalizadas. (Neo4j 4)| +| **neo4j.transaction.terminated_read**
(count) | Número total de transacciones de lectura finalizadas.| +| **neo4j.transaction.terminated_write**
(count) | Número total de transacciones de escritura finalizadas.| +| **neo4j.transaction.tx_size_heap**
(gauge) | El tamaño de las transacciones en el montón en bytes.| +| **neo4j.transaction.tx_size_native**
(gauge) | El tamaño de las transacciones en memoria nativa en bytes.| +| **neo4j.vm.thread.count**
(gauge) | Número estimado de subprocesos activos en el grupo de subprocesos actual. (Neo4j 4)| +| **neo4j.vm.thread.total**
(gauge) | El número total de subprocesos en tiempo real, incluidos subprocesos daemon y no daemon. (Neo4j 4)| +| **neo4j.bolt.accumulated_processing_time**
(gauge) | El tiempo acumulado que los subprocesos de worker han pasado procesando mensajes. (neo4j 4)| +| **neo4j.bolt.accumulated_queue_time**
(gauge) | El tiempo acumulado que han pasado los mensajes esperando un subproceso de worker. (neo4j 4)| +| **neo4j.bolt.connections_closed**
(gauge) | El número total de conexiones de Bolt cerradas desde que se inició esta instancia. Esto incluye tanto las conexiones finalizadas correctamente como las anormalmente finalizadas (neo4j 4).| +| **neo4j.bolt.connections_idle**
(gauge) | Número total de conexiones de Bolt inactivas (neo4j 4)| +| **neo4j.bolt.connections_opened**
(gauge) | El número total de conexiones de Bolt abiertas desde que se inició esta instancia. Esto incluye tanto las conexiones exitosas como las fallidas (neo4j 4)| +| **neo4j.bolt.connections_running**
(gauge) | Número total de conexiones de Bolt ejecutadas actualmente (neo4j 4)| +| **neo4j.bolt.messages_done**
(gauge) | El número total de mensajes que se han procesado desde que se inició esta instancia. Esto incluye mensajes de Bolt exitosos y fallidos e ignorados (neo4j 4).| +| **neo4j.bolt.messages_failed**
(gauge) | Número total de mensajes que no se han podido procesar desde que se inició esta instancia (neo4j 4)| +| **neo4j.bolt.messages_received**
(gauge) | Número total de mensajes recibidos a través de Bolt desde que se inició esta instancia (neo4j 4)| +| **neo4j.bolt.messages_started**
(gauge) | El número total de mensajes que comenzaron a procesarse desde que se inició esta instancia. Esto es diferente de los mensajes recibidos en que este contador rastrea cuántos de los mensajes recibidos han sido tomados por un subproceso de worker (neo4j 4)| +| **neo4j.check_point.events**
(gauge) | El número total de eventos de punto de control ejecutados hasta el momento. (neo4j 4)| +| **neo4j.check_point.total_time**
(gauge) | El tiempo total empleado hasta ahora en el punto de control. (neo4j 4)| +| **neo4j.check_point.duration**
(gauge) | La duración del último evento de punto de control. (neo4j 4)| +| **neo4j.cypher.replan_events**
(gauge) | Número total de veces que Cypher ha decidido planificar nuevamente una consulta. (neo4j 4)| +| **neo4j.cypher.replan_wait_time**
(gauge) | El número total de segundos esperados entre nuevas planificaciones de consultas. (neo4j 4)| +| **neo4j.node_count**
(gauge) | El número total de nodos. (neo4j 4)| +| **neo4j.relationship_count**
(gauge) | El número total de relaciones. (neo4j 4)| +| **neo4j.ids_in_use.node**
(gauge) | El número total de nodos almacenados en la base de datos. (neo4j 4)| +| **neo4j.ids_in_use.property**
(gauge) | Número total de nombres de propiedades diferentes utilizados en la base de datos. (neo4j 4)| +| **neo4j.ids_in_use.relationship**
(gauge) | Número total de relaciones almacenadas en la base de datos. (neo4j 4)| +| **neo4j.ids_in_use.relationship_type**
(gauge) | Número total de tipos de relación diferentes almacenados en la base de datos. (neo4j 4)| +| **neo4j.store.size.total**
(gauge) | El tamaño total de la base de datos y los logs de transacciones. (neo4j 4)| +| **neo4j.store.size.database**
(gauge) | El tamaño en disco de la base de datos. (neo4j 4)| +| **neo4j.log.appended_bytes**
(gauge) | El número total de bytes añadidos al log de la transacción. (neo4j 4)| +| **neo4j.log.rotation_events**
(gauge) | El número total de rotaciones de transacciones de logs ejecutadas hasta el momento. (neo4j 4)| +| **neo4j.log.rotation_total_time**
(gauge) | El tiempo total empleado en rotar los logs de transacción hasta ahora. (neo4j 4)| +| **neo4j.log.rotation_duration**
(gauge) | La duración del último evento de rotación de logs. (neo4j 4)| +| **neo4j.page_cache.eviction_exceptions**
(gauge) | El número total de excepciones vistas durante el proceso de desalojo en la caché de page (página). (neo4j 4)| +| **neo4j.page_cache.evictions**
(gauge) | El número total de desalojos de page (página) ejecutados por la caché de page (página). (neo4j 4)| +| **neo4j.page_cache.flushes**
(gauge) | El número total de descargas ejecutadas por la caché de page (página). (neo4j 4)| +| **neo4j.page_cache.hits**
(gauge) | El número total de aciertos de la page (página) ocurridos en la caché de page (página). (neo4j 4)| +| **neo4j.page_cache_hits_total**
(gauge) | El número total de aciertos de page (página) ocurridos en la caché de page (página). (neo4j 4)| +| **neo4j.page_cache.page_faults**
(gauge) | El número total de fallos de page (página) ocurridos en la caché de page (página). (neo4j 4)| +| **neo4j.page_cache.pins**
(gauge) | El número total de pines de page (página) ejecutados por la caché de page (página). (neo4j 4)| +| **neo4j.page_cache.unpins**
(gauge) | El número total de desclavados de page (página) ejecutados por la caché de page (página). (neo4j 4)| +| **neo4j.server.threads.jetty.all**
(gauge) | El número total de subprocesos (tanto inactivos como ocupados) en el grupo jetty. (neo4j 4)| +| **neo4j.server.threads.jetty.idle**
(gauge) | El número total de subprocesos inactivos en el grupo jetty. (neo4j 4)| +| **neo4j.transaction.active**
(gauge) | Número de transacciones activas actualmente. (neo4j 4)| +| **neo4j.transaction.active_read**
(gauge) | Número de transacciones de lectura actualmente activas. (neo4j 4)| +| **neo4j.transaction.active_write**
(gauge) | El número de transacciones de escritura actualmente activas. (neo4j 4)| +| **neo4j.transaction.committed_read**
(gauge) | Número total de transacciones confirmadas. (neo4j 4)| +| **neo4j.transaction.committed**
(gauge) | Número total de transacciones de lectura confirmadas. (neo4j 4)| +| **neo4j.transaction.committed_write**
(gauge) | Número total de transacciones de escritura confirmadas. (neo4j 4)| +| **neo4j.transaction.last_closed_tx_id**
(gauge) | El identificador de la última transacción cerrada. (neo4j 4)| +| **neo4j.transaction.last_committed_tx_id**
(gauge) | Identificador de la última transacción confirmada. (neo4j 4)| +| **neo4j.transaction.peak_concurrent**
(gauge) | El pico más alto de transacciones concurrentes. (neo4j 4)| +| **neo4j.transaction.rollbacks_read**
(gauge) | Número total de transacciones de lectura revertidas. (neo4j 4)| +| **neo4j.transaction.rollbacks**
(gauge) | Número total de transacciones revertidas. (neo4j 4)| +| **neo4j.transaction.rollbacks_write**
(gauge) | Número total de transacciones de escritura revertidas. (neo4j 4)| +| **neo4j.transaction.started**
(gauge) | Número total de transacciones iniciadas. (neo4j 4)| +| **neo4j.vm.gc.count.g1_old_generation**
(gauge) | Número total de recolecciones de basura para la antigua generación. (neo4j 4)| +| **neo4j.vm.gc.count.g1_young_generation**
(gauge) | Número total de recolecciones de basura para la generación joven. (neo4j 4)| +| **neo4j.vm.gc.time.g1_old_generation**
(gauge) | Tiempo acumulado de recolección de basura en milisegundos para la generación antigua. (neo4j 4)| +| **neo4j.vm.gc.time.g1_young_generation**
(gauge) | Tiempo acumulado de recolección de basura en milisegundos para la generación joven. (neo4j 4)| +| **neo4j.vm.memory.buffer.direct_capacity**
(gauge) | Capacidad total estimada de los búferes directos del grupo (neo4j 4)| +| **neo4j.vm.memory.buffer.direct_count**
(gauge) | Número estimado de búferes directos en el grupo. (neo4j 4)| +| **neo4j.vm.memory.buffer.direct_used**
(gauge) | Cantidad estimada de memoria directa utilizada por el grupo. (neo4j 4)| +| **neo4j.vm.memory.buffer.mapped_capacity**
(gauge) | Capacidad total estimada de los búferes asignados en el grupo. (neo4j 4)| +| **neo4j.vm.memory.buffer.mapped_count**
(gauge) | Número estimado de búferes asignados en el grupo. (neo4j 4)| +| **neo4j.vm.memory.buffer.mapped_used**
(gauge) | Cantidad estimada de memoria asignada utilizada por el grupo. (neo4j 4)| +| **neo4j.vm.memory.pool.compressed_class_space**
(gauge) | Número estimado de búferes en el grupo de espacio de clase comprimido. (neo4j 4)| +| **neo4j.vm.memory.pool.g1_eden_space**
(gauge) | Número estimado de búferes en el grupo de espacio de g1 eden. (neo4j 4)| +| **neo4j.vm.memory.pool.g1_old_gen**
(gauge) | Número estimado de búferes en el grupo de la generación antigua g1. (neo4j 4)| +| **neo4j.vm.memory.pool.g1_survivor_space**
(gauge) | Número estimado de búferes en el grupo de espacio de supervivencia g1. (neo4j 4)| +| **neo4j.vm.memory.pool.metaspace**
(gauge) | Número estimado de búferes en el grupo de metaespacios (neo4j 4)| ### Checks de servicio @@ -120,18 +542,6 @@ El check de servicio `neo4j.prometheus.health` se presenta en el check base Neo4j no incluye ningún evento. - ## Solucionar problemas -¿Necesitas ayuda? Ponte en contacto con el [soporte de Neo4j][10]. - -[1]: https://neo4j.com/ -[2]: https://docs.datadoghq.com/es/agent/autodiscovery/integrations -[3]: https://app.datadoghq.com/account/settings/agent/latest -[4]: https://github.com/DataDog/integrations-extras/blob/master/neo4j/datadog_checks/neo4j/data/conf.yaml.example -[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent -[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information -[7]: https://neo4j.com/docs/operations-manual/4.4/monitoring/metrics/reference/ -[8]: https://neo4j.com/docs/operations-manual/5/monitoring/metrics/reference/ -[9]: https://github.com/DataDog/integrations-extras/blob/master/neo4j/metadata.csv -[10]: mailto:support@neo4j.com \ No newline at end of file +¿Necesitas ayuda? Ponte en contacto con [asistencia técnica de Neo4j](mailto:support@neo4j.com). \ No newline at end of file diff --git a/content/es/integrations/node.md b/content/es/integrations/node.md new file mode 100644 index 0000000000000..752425a5d1fd5 --- /dev/null +++ b/content/es/integrations/node.md @@ -0,0 +1,126 @@ +--- +app_id: nodo +categories: +- languages +- log collection +- tracing +custom_kind: integración +description: Recopila métricas, trazas y logs de tus aplicaciones Node.js. +further_reading: +- link: https://www.datadoghq.com/blog/node-logging-best-practices/ + tag: blog + text: Cómo recopilar, personalizar y centralizar los logs de Node.js +- link: https://www.datadoghq.com/blog/node-monitoring-apm/ + tag: blog + text: Monitorización de Node.js con Datadog APM y rastreo distribuido +media: [] +title: Node +--- +## Información general + +La integración de Node.js te permite recopilar y monitorizar tus logs de aplicación, trazas (traces) y métricas personalizadas de Node.js. + +## Configuración + +### Recopilación de métricas + +La integración de Node.js te permite monitorizar una métrica personalizada al instrumentar unas pocas líneas de código. Por ejemplo, puedes tener una métrica que devuelva el número de páginas vistas o el tiempo de llamada a una función. + +Para obtener información adicional sobre la integración de Node.js, consulta la [guía sobre el envío de métricas](https://docs.datadoghq.com/metrics/custom_metrics/dogstatsd_metrics_submission/?code-lang=nodejs). + +```js +// Require dd-trace +const tracer = require('dd-trace').init(); + +// Increment a counter +tracer.dogstatsd.increment('page.views'); +``` + +Ten en cuenta que, para que las métricas personalizadas funcionen, es necesario habilitar DogStatsD en Agent. La recopilación está habilitada por defecto, pero el Agent solo escucha métricas desde el host local. Para permitir métricas externas, necesitas establecer una variable de entorno o actualizar el archivo de configuración: + +```sh +DD_USE_DOGSTATSD=true # default +DD_DOGSTATSD_PORT=8125 # default +DD_DOGSTATSD_NON_LOCAL_TRAFFIC=true # if expecting external metrics +``` + +```yaml +use_dogstatsd: true # default +dogstatsd_port: 8125 # default +dogstatsd_non_local_traffic: true # if expecting external metrics +``` + +También necesitarás configurar para que tu aplicación utilice el recopilador de DogStatsD del Agent: + +```sh +DD_DOGSTATSD_HOSTNAME=localhost DD_DOGSTATSD_PORT=8125 node app.js +``` + +### Recopilación de trazas + +Consulta la documentación dedicada para [instrumentar tu aplicación Node.js](https://docs.datadoghq.com/tracing/setup/nodejs/) para enviar traces (trazas) a Datadog. + +### Recopilación de logs + +_Disponible para la versión 6.0 o posterior del Agent_ + +Consulta la documentación específica para configurar [recopilación de logs de Node.js](https://docs.datadoghq.com/logs/log_collection/nodejs/) para reenviar tus logs a Datadog. + +### Recopilación de perfiles + +Consulta la documentación dedicada para [activar el perfilador de Node.js](https://github.com/DataDog/dogweb/blob/prod/node/node_metadata.csv). + +## Datos recopilados + +### Métricas + +| | | +| --- | --- | +| **runtime.node.cpu.user**
(medidor) | Uso de la CPU en código de usuario
_Mostrado en porcentaje_. | +| **runtime.node.cpu.system**
(medidor) | Uso de la CPU en el código del sistema
_Mostrado en porcentaje_. | +| **runtime.node.cpu.total**
(medidor) | Uso total de la CPU
_Mostrado como porcentaje_. | +| **runtime.node.mem.rss**
(medidor) | Tamaño del conjunto residente
_Mostrado como byte_ | +| **runtime.node.mem.heap_total**
(medidor) | Memoria heap total
_Mostrado como byte_ | +| **runtime.node.mem.heap_used**
(medidor) | Uso de memoria Heap
_Mostrado como byte_ | +| **runtime.node.mem.external**
(medidor) | Memoria externa
_Mostrado como byte_ | +| **runtime.node.heap.total_heap_size**
(medidor) | Tamaño total de heap
_Mostrado como byte_ | +| **runtime.node.heap.total_heap_size_executable**
(medidor) | Tamaño total de heap ejecutable
_Mostrado como byte_ | +| **runtime.node.heap.total_physical_size**
(mediidor) | Tamaño físico total de heap
_Mostrado como byte_ | +| **runtime.node.heap.used_heap_size**
(medidor) | Tamaño de heap utilizado
_Mostrado como byte_ | +| **runtime.node.heap.heap_size_limit**
(medidor) | Límite de tamaño de heap
_Mostrado como byte_ | +| **runtime.node.heap.malloced_memory**
(medidor) | Memoria malgastada
_Mostrado como byte_ | +| **runtime.node.heap.peak_malloced_memory**
(medidor) | Pico de memoria asignada
_Mostrado como byte_ | +| **runtime.node.heap.size.by.space**
(medidor) | Tamaño del espacio de heap
_Mostrado como byte_ | +| **runtime.node.heap.used_size.by.space**
(medidor) | Tamaño de espacio heap utilizado
_Mostrado como byte_ | +| **runtime.node.heap.available_size.by.space**
(medidor) | Tamaño del espacio disponible en heap
_Mostrado como byte_ | +| **runtime.node.heap.physical_size.by.space**
(medidor) | Tamaño físico del espacio heap
_Mostrado como byte_ | +| **runtime.node.process.uptime**
(medidor) | Tiempo de actividad del proceso
_Mostrado en segundos_ | +| **runtime.node.event_loop.delay.max**
(medidor) | Retardo máximo del bucle de eventos
_Mostrado en nanosegundos_ | +| **runtime.node.event_loop.delay.min**
(medidor) | Retardo mínimo del bucle de eventos
_Mostrado en nanosegundos_ | +| **runtime.node.event_loop.delay.avg**
(medidor) | Retardo medio del bucle de eventos
_Mostrado en nanosegundos_ | +| **runtime.node.event_loop.delay.sum**
(tasa) | Retardo total del bucle de eventos
_Mostrado en nanosegundos_ | +| **runtime.node.event_loop.delay.median**
(medidor) | Mediana del retardo del bucle de eventos
_Mostrado en nanosegundos_ | +| **runtime.node.event_loop.delay.95percentile**
(medidor) | Percentil 95 del retardo del bucle de eventos
_Mostrado en nanosegundos_ | +| **runtime.node.event_loop.delay.count**
(tasa) | Count de iteraciones del bucle de eventos donde se detecta un retardo
_Mostrado como ejecución_ | +| **runtime.node.gc.pause.max**
(medidor) | Pausa máxima de recolección de basura
_Mostrado en nanosegundos_ | +| **runtime.node.gc.pause.min**
(medidor) | Pausa mínima de recolección de basura
_Mostrado en nanosegundos_ | +| **runtime.node.gc.pause.avg**
(medidor) | Pausa media de recolección de basura
_Mostrado en nanosegundos_ | +| **runtime.node.gc.pause.sum**
(tasa) | Pausa total de recolección de basura
_Mostrado en nanosegundos_ | +| **runtime.node.gc.pause.median**
(medidor) | Mediana de la pausa de recolección de basura
_Mostrado en nanosegundos_ | +| **runtime.node.gc.pause.95percentile**
(medidor) | Pausa de recolección de basura del percentil 95
_Mostrado en nanosegundos_ | +| **runtime.node.gc.pause.count**
(tasa) | Número de recolecciones de basura
_Mostrado como recolección de basura_ | +| **runtime.node.gc.pause.by.type.max**
(medidor) | Pausa máxima de recolección de basura por tipo
_Mostrado como nanosegundo_ | +| **runtime.node.gc.pause.by.type.min**
(medidor) | Pausa mínima de recolección de basura por tipo
_Mostrado en nanosegundos_ | +| **runtime.node.gc.pause.by.type.avg**
(medidor) | Pausa media de recolección de basura por tipo
_Mostrado en nanosegundos_ | +| **runtime.node.gc.pause.by.type.sum**
(tasa) | Pausa total de recolección de basura por tipo
_Mostrado en nanosegundos_ | +| **runtime.node.gc.pause.by.type.median**
(medidor) | Mediana de la pausa de recolección de basura por tipo
_Mostrado en nanosegundos_ | +| **runtime.node.gc.pause.by.type.95percentile**
(medidor) | Pausa de recopilación de basura del percentil 95 por tipo
_Mostrado en nanosegundos_ | +| **runtime.node.gc.pause.by.type.count**
(tasa) | Número de recolecciones de basura por tipo
_Mostrado como recolección de basura_ | + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/integrations/nvml.md b/content/es/integrations/nvml.md index 5149f66c7f3b0..08f6da31c8812 100644 --- a/content/es/integrations/nvml.md +++ b/content/es/integrations/nvml.md @@ -1,150 +1,101 @@ --- app_id: nvml -app_uuid: 2c7a8b1e-9343-4b4a-bada-5091e37c4806 -assets: - integration: - auto_install: true - configuration: - spec: assets/configuration/spec.yaml - events: - creates_events: false - metrics: - check: nvml.device_count - metadata_path: metadata.csv - prefix: nvml. - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 10177 - source_type_name: nvml -author: - homepage: https://github.com/DataDog/integrations-extras - name: Comunidad - sales_email: help@datadoghq.com - support_email: help@datadoghq.com categories: - ia/ml - kubernetes - sistema operativo y sistema -custom_kind: integration -dependencies: -- https://github.com/DataDog/integrations-extras/blob/master/nvml/README.md -display_on_public_website: true -draft: false -git_integration_title: nvml -integration_id: nvml -integration_title: NVIDIA NVML +custom_kind: integración +description: Admite métricas de GPU Nvidia en k8s integration_version: 1.0.9 -is_public: true -manifest_version: 2.0.0 -name: nvml -public_title: NVIDIA NVML -short_description: Admite métricas de GPU NVIDIA en k8s +media: [] supported_os: - linux - windows - macos -tile: - changelog: CHANGELOG.md - classifier_tags: - - Category::AI/ML - - Category::Kubernetes - - Category::OS & System - - Supported OS::Linux - - Supported OS::Windows - - Supported OS::macOS - - Offering::Integration - configuration: README.md#Setup - description: Admite métricas de GPU NVIDIA en k8s - media: [] - overview: README.md#Overview - support: README.md#Support - title: NVIDIA NVML +title: Nvidia NVML --- - - - - ## Información general -Este check monitoriza métricas de [NVIDIA Management Library (NVML)][1] expuestas a través del Datadog Agent y puede correlacionarlas con los [dispositivos expuestos de Kubernetes][2]. +Este check monitoriza las métricas expuestas de [NVIDIA Management Library (NVML)](https://pypi.org/project/pynvml/) a través del Datadog Agent y puede correlacionarlas con los [dispositivos expuestos de Kubernetes](https://kubernetes.io/docs/concepts/extend-kubernetes/compute-storage-net/device-plugins/#monitoring-device-plugin-resources). ## Configuración -El check de NVML no está incluido en el paquete del [Datadog Agent][3], por lo que es necesario instalarlo. +El check de NVML no está incluido en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest), por lo que es necesario instalarlo. ### Instalación -Para el Agent v7.21+/v6.21+, sigue las instrucciones a continuación para instalar el check de NVML en tu host. Consulta [Usar integraciones de comunidad][4] para realizar la instalación con Agent de Docker o versiones anteriores del Agent. +Para el Agent v7.21+ / v6.21+, sigue las instrucciones siguientes para instalar el check de NVML en tu host. Consulta [Usar integraciones de la comunidad](https://docs.datadoghq.com/agent/guide/use-community-integrations/) para realizar la instalación con el Docker Agent o versiones anteriores del Agent. 1. Ejecuta el siguiente comando para instalar la integración del Agent: Para Linux: + ```shell datadog-agent integration install -t datadog-nvml== # You may also need to install dependencies since those aren't packaged into the wheel sudo -u dd-agent -H /opt/datadog-agent/embedded/bin/pip3 install grpcio pynvml ``` + Para Windows (con Powershell ejecutado como administrador): + ```shell & "$env:ProgramFiles\Datadog\Datadog Agent\bin\agent.exe" integration install -t datadog-nvml== # You may also need to install dependencies since those aren't packaged into the wheel & "$env:ProgramFiles\Datadog\Datadog Agent\embedded3\python" -m pip install grpcio pynvml ``` -2. Configura tu integración como si fuese una [integración][5] de base. +1. Configura tu integración de forma similar a las [integraciones](https://docs.datadoghq.com/getting_started/integrations/) centrales. -Si utilizas Docker, existe un [archivo Docker de ejemplo][6] en el repositorio NVML. +Si utilizas Docker, hay un [Dockerfile de ejemplo](https://github.com/DataDog/integrations-extras/blob/master/nvml/tests/Dockerfile) en el repositorio de NVML. - ```shell - docker build -t dd-agent-nvml . - ``` +```shell +docker build -t dd-agent-nvml . +``` Si utilizas Docker y Kubernetes, deberás exponer las variables de entorno `NVIDIA_VISIBLE_DEVICES` y `NVIDIA_DRIVER_CAPABILITIES`. Consulta el archivo Docker incluido para ver un ejemplo. -Para correlacionar los dispositivos reservados de NVIDIA Kubernetes con el pod de Kubernetes que utiliza el dispositivo, monta el socket de dominio de Unix `/var/lib/kubelet/pod-resources/kubelet.sock` en tu configuración del Agent. Más información sobre este socket en el [sitio web de Kubernetes][2]. **Nota**: Este dispositivo tiene compatibilidad en fase beta para la versión 1.15. +Para correlacionar los dispositivos NVIDIA reservados de Kubernetes con el pod de Kubernetes que utiliza el dispositivo, monta el socket de dominio Unix `/var/lib/kubelet/pod-resources/kubelet.sock` en tu configuración del Agent. Encontrarás más información sobre este socket en el sitio web de [Kubernetes](https://kubernetes.io/docs/concepts/extend-kubernetes/compute-storage-net/device-plugins/#monitoring-device-plugin-resources). **Nota**: Este dispositivo está en soporte beta para la versión 1.15. ### Configuración -1. Edita el archivo `nvml.d/conf.yaml`, en la carpeta `conf.d/` en la raíz del directorio de configuración del Agent para comenzar a recopilar tus datos de rendimiento de NVML. Consulta el [nvml.d/conf.yaml de ejemplo][7] para todas las opciones disponibles de configuración. +1. Edita el archivo `nvml.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu directorio de configuración del Agent para comenzar a recopilar tus datos de rendimiento de NVML. Consulta [el nvml.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-extras/blob/master/nvml/datadog_checks/nvml/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. -2. [Reinicia el Agent][8]. +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). ### Validación -[Ejecuta el subcomando de estado del Agent][9] y busca `nvml` en la sección Checks. +[Ejecuta el subcomando de estado del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `nvml` en la sección Checks. ## Datos recopilados ### Métricas -{{< get-metrics-from-git "nvml" >}} - La documentación autorizada de métricas se encuentra en el [sitio web de NVIDIA][11]. -Se ha intentado, en la medida de lo posible, que los nombres de métrica coincidan con el exportador [Data Center GPU Manager (DCGM)][12] de NVIDIA. +| | | +| --- | --- | +| **nvml.device_count**
(gauge) | Número de GPU en esta instancia.| +| **nvml.gpu_utilization**
(gauge) | Porcentaje de tiempo durante el último periodo de muestreo en el que uno o más kernels se ejecutaron en la GPU.
_Se muestra como porcentaje_ | +| **nvml.mem_copy_utilization**
(gauge) | Porcentaje de tiempo durante el último periodo de muestreo en el que la memoria global (dispositivo) se estaba leyendo o escribiendo.
_Se muestra como porcentaje_ | +| **nvml.fb_free**
(gauge) | Memoria FB no asignada.
_Se muestra como byte_ | +| **nvml.fb_used**
(gauge) | Memoria FB asignada.
_Se muestra como byte_ | +| **nvml.fb_total**
(gauge) | Memoria FB total instalada.
_Se muestra como byte_ | +| **nvml.power_usage**
(gauge) | Consumo de energía de esta GPU en milivatios y sus circuitos asociados (por ejemplo, la memoria).| +| **nvml.total_energy_consumption**
(count) | Consumo total de energía de esta GPU en milijulios (mJ) desde la última recarga del controlador.| +| **nvml.enc_utilization**
(gauge) | Utilización actual del codificador
_Se muestra en porcentaje_ | +| **nvml.dec_utilization**
(gauge) | La utilización actual del decodificador
_Se muestra en porcentaje_. | +| **nvml.pcie_tx_throughput**
(gauge) | Utilización de PCIe TX
_Se muestra como kibibyte_ | +| **nvml.pcie_rx_throughput**
(gauge) | Utilización de PCIe RX
_Se muestra como kibibyte_ | +| **nvml.temperature**
(gauge) | Temperatura actual de esta GPU en grados centígrados| +| **nvml.fan_speed**
(gauge) | Utilización actual del ventilador
_Se muestra en porcentaje_ | +| **nvml.compute_running_process**
(gauge) | El uso actual de la memoria gpu por el proceso
_Se muestra como byte_ | ### Eventos NVML no incluye eventos. ### Checks de servicio -{{< get-service-checks-from-git "nvml" >}} +Consulta [service_checks.json](https://github.com/DataDog/integrations-extras/blob/master/nvml/assets/service_checks.json) para obtener una lista de los checks de servicio proporcionados por esta integración. ## Solucionar problemas -¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][14]. - - -[1]: https://pypi.org/project/pynvml/ -[2]: https://kubernetes.io/docs/concepts/extend-kubernetes/compute-storage-net/device-plugins/#monitoring-device-plugin-resources -[3]: https://app.datadoghq.com/account/settings/agent/latest -[4]: https://docs.datadoghq.com/es/agent/guide/use-community-integrations/ -[5]: https://docs.datadoghq.com/es/getting_started/integrations/ -[6]: https://github.com/DataDog/integrations-extras/blob/master/nvml/tests/Dockerfile -[7]: https://github.com/DataDog/integrations-extras/blob/master/nvml/datadog_checks/nvml/data/conf.yaml.example -[8]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent -[9]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information -[10]: https://github.com/DataDog/integrations-extras/blob/master/nvml/metadata.csv -[11]: https://docs.nvidia.com/deploy/nvml-api/group__nvmlDeviceQueries.html -[12]: https://github.com/NVIDIA/dcgm-exporter -[13]: https://github.com/DataDog/integrations-extras/blob/master/nvml/assets/service_checks.json -[14]: https://docs.datadoghq.com/es/help +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help). \ No newline at end of file diff --git a/content/es/integrations/oke.md b/content/es/integrations/oke.md index c1dc4931776c1..c39301d3ccafb 100644 --- a/content/es/integrations/oke.md +++ b/content/es/integrations/oke.md @@ -1,88 +1,52 @@ --- app_id: oke -app_uuid: c3361861-32be-4ed4-a138-d68b85b8d88b -assets: - integration: - auto_install: true - configuration: {} - events: - creates_events: false - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 10255 - source_type_name: 'Oracle Container Engine para Kubernetes: OKE' -author: - homepage: https://www.datadoghq.com - name: Datadog - sales_email: info@datadoghq.com - support_email: help@datadoghq.com categories: -- contenedores -- kubernetes +- configuración y despliegue +- rastreo +- Kubernetes +- métricas - oracle - orquestación -custom_kind: integration -dependencies: -- https://github.com/DataDog/integrations-core/blob/master/oke/README.md -display_on_public_website: true -draft: false -git_integration_title: oke -integration_id: oke -integration_title: Oracle Container Engine para Kubernetes -integration_version: '' -is_public: true -manifest_version: 2.0.0 -name: oke -public_title: Oracle Container Engine para Kubernetes -short_description: OKE es un servicio de orquestación de contenedores gestionado por - Oracle. +custom_kind: integración +description: OKE es un servicio de orquestación de contenedores gestionado por OCI. +further_reading: +- link: https://www.datadoghq.com/blog/monitor-oracle-kubernetes-engine/ + tag: blog + text: Cómo monitorizar el motor de Kubernetes de Oracle con Datadog +integration_version: 1.0.0 +media: [] supported_os: - linux - windows - macos -tile: - changelog: CHANGELOG.md - classifier_tags: - - Category::Containers - - Category::Kubernetes - - Category::Oracle - - Category::Orchestration - - Supported OS::Linux - - Supported OS::Windows - - Supported OS::macOS - - Offering::Integration - configuration: README.md#Setup - description: OKE es un servicio de orquestación de contenedores gestionado por Oracle. - media: [] - overview: README.md#Overview - resources: - - resource_type: Blog - url: https://www.datadoghq.com/blog/monitor-oracle-kubernetes-engine/ - support: README.md#Support - title: Oracle Container Engine para Kubernetes +title: Oracle Container Engine para Kubernetes --- +## Información general - +Oracle Cloud Infrastructure Container Engine para Kubernetes (OKE) es un servicio gestionado de Kubernetes que simplifica las operaciones de Kubernetes a escala empresarial. +Esta integración recopila métricas y etiquetas del espacio de nombres [`oci_oke`](https://docs.oracle.com/en-us/iaas/Content/ContEng/Reference/contengmetrics.htm) para ayudarte a monitorizar tu plano de control de Kubernetes, clústeres y estados de nodos. -## Información general +El despliegue del [Datadog Agent](https://docs.datadoghq.com/agent/kubernetes/#installation) en tu clúster de OKE también puede ayudarte a realizar un seguimiento de la carga en tus clústeres, pods y nodos individuales para obtener mejores conocimientos sobre cómo aprovisionar y desplegar tus recursos. + +Además de la monitorización de tus nodos, pods y contenedores, el Agent también puede recopilar e informar métricas de los servicios que se ejecutan en tu clúster, para que puedas: -Oracle Cloud Infrastructure Container Engine para Kubernetes (OKE) es un servicio totalmente gestionado de Kubernetes para desplegar y ejecutar tus aplicaciones en contenedores en Oracle Cloud. Datadog te proporciona una visibilidad completa de tus clústeres de Kubernetes gestionados por OKE. Una vez que hayas habilitado tu integración de Datadog, puedes ver tu infraestructura de Kubernetes, monitorizar Live Processes y realizar un seguimiento de métricas clave de todos tus pods y contenedores en un solo lugar. +- Explora tus clústeres de OKE con [dashboards preconfigurados de Kubernetes](https://app.datadoghq.com/dashboard/lists/preset/3?q=kubernetes) +- Monitorizar contenedores y procesos en tiempo real +- Hacer un seguimiento automático y monitorizar servicios en contenedores ## Configuración -Dado que Datadog ya se integra con Kubernetes, está preparado para monitorizar OKE. Si estás ejecutando el Agent en un clúster de Kubernetes y planeas migrar a OKE, puedes continuar con la monitorización de tu clúster con Datadog. +Una vez configurada la integración de [Oracle Cloud Infrastructure](https://docs.datadoghq.com/integrations/oracle_cloud_infrastructure/), asegúrate de que el espacio de nombres `oci_oke` está incluido en tu [Connector Hub](https://cloud.oracle.com/connector-hub/service-connectors). -Además, se admiten grupos de nodos de OKE. +Dado que Datadog ya se integra con Kubernetes, está preparado para monitorizar OKE. Si estás ejecutando el Agent en un clúster de Kubernetes y planeas migrar a OKE, puedes continuar con la monitorización de tu clúster con Datadog. +Desplegar el Agent como un DaemonSet con el [Helm chart](https://docs.datadoghq.com/agent/kubernetes/?tab=helm) es el método más directo (y recomendado), ya que asegura que el Agent se ejecutará como un pod en cada nodo dentro de tu clúster y que cada nuevo nodo tendrá automáticamente el Agent instalado. También puedes configurar el Agent para recopilar datos de procesos, trazas y logs añadiendo unas pocas líneas adicionales a un archivo de valores Helm. Adicionalmente, los grupos de nodos de OKE son compatibles. ## Solucionar problemas -¿Necesitas ayuda? Contacta con el [equipo de soporte de Datadog][1]. +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/). ## Referencias adicionales -- [Cómo monitorizar OKE con Datadog][2] - -[1]: https://docs.datadoghq.com/es/help/ -[2]: https://www.datadoghq.com/blog/monitor-oracle-kubernetes-engine/ \ No newline at end of file +- [Cómo monitorizar OKE con Datadog](https://www.datadoghq.com/blog/monitor-oracle-kubernetes-engine/) \ No newline at end of file diff --git a/content/es/integrations/openmetrics.md b/content/es/integrations/openmetrics.md index 962d52ee8266a..d3ecf5cb3fbad 100644 --- a/content/es/integrations/openmetrics.md +++ b/content/es/integrations/openmetrics.md @@ -1,87 +1,45 @@ --- app_id: openmetrics -app_uuid: 302b841e-8270-4ecd-948e-f16317a316bc -assets: - integration: - auto_install: true - configuration: - spec: assets/configuration/spec.yaml - events: - creates_events: false - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 10045 - source_type_name: OpenMetrics -author: - homepage: https://www.datadoghq.com - name: Datadog - sales_email: info@datadoghq.com - support_email: help@datadoghq.com categories: - métricas custom_kind: integración -dependencies: -- https://github.com/DataDog/integrations-core/blob/master/openmetrics/README.md -display_on_public_website: true -draft: false -git_integration_title: openmetrics -integration_id: openmetrics -integration_title: OpenMetrics -integration_version: 6.1.0 -is_public: true -manifest_version: 2.0.0 -name: openmetrics -public_title: OpenMetrics -short_description: OpenMetrics es un estándar abierto para exponer datos de métricas +description: OpenMetrics es un estándar abierto para exponer datos de métricas +further_reading: +- link: https://docs.datadoghq.com/agent/openmetrics/ + tag: documentación + text: Documentación sobre OpenMetrics +- link: https://docs.datadoghq.com/developers/openmetrics/ + tag: documentación + text: Documentación sobre OpenMetrics +integration_version: 7.0.0 +media: [] supported_os: - linux - windows - macos -tile: - changelog: CHANGELOG.md - classifier_tags: - - Supported OS::Linux - - Supported OS::Windows - - Category::Metrics - - Supported OS::macOS - - Offering::Integration - configuration: README.md#Setup - description: OpenMetrics es un estándar abierto para exponer datos de métricas - media: [] - overview: README.md#Overview - resources: - - resource_type: documentación - url: https://docs.datadoghq.com/agent/openmetrics/ - - resource_type: documentación - url: https://docs.datadoghq.com/developers/openmetrics/ - support: README.md#Support - title: OpenMetrics +title: OpenMetrics --- - - - - ## Información general Extrae métricas personalizadas de cualquier endpoint de OpenMetrics o Prometheus. -
Todas las métricas recuperadas por esta integración se consideran métricas personalizadas.
+
Todas las métricas recuperadas por esta integración se consideran métricas personalizadas.
-La integración es compatible tanto con el [formato de exposición de Prometheus][1] como con la [especificación de OpenMetrics][2]. +La integración es compatible tanto con el [formato de exposición de Prometheus](https://prometheus.io/docs/instrumenting/exposition_formats/#text-based-format) como con la [especificación de OpenMetrics](https://github.com/OpenObservability/OpenMetrics/blob/main/specification/OpenMetrics.md#suffixes). ## Configuración -Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecuta en un host. Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][3] para obtener orientación sobre la aplicación de estas instrucciones. +Sigue las instrucciones siguientes para instalar y configurar este check para un Agent que se ejecute en un host. Para entornos en contenedores, consulta las [Plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/kubernetes/integrations/) para obtener orientación sobre la aplicación de estas instrucciones. -Esta integración basada en OpenMetrics tiene un modo más reciente (que se habilita al configurar `openmetrics_endpoint` de modo que apunte hacia el endpoint de destino) y un modo heredado (que se habilita al configurar `prometheus_url` en su lugar). Para obtener todas las características más actualizadas, Datadog recomienda habilitar el modo más reciente. Para obtener más información, consulta [Control de versiones más reciente y heredado para las integraciones basadas en OpenMetrics][4]. +Esta integración tiene un modo más reciente (que se activa configurando `openmetrics_endpoint` para que apunte al endpoint de destino) y un modo heredado (que se activa configurando `prometheus_url` en su lugar). Para obtener todas las características más actualizadas, Datadog recomienda activar el modo más reciente. Para obtener más información, consulta [Última versión y versión heredada para integraciones basadas en OpenMetrics](https://docs.datadoghq.com/integrations/guide/versions-for-openmetrics-based-integrations). ### Instalación -El check de OpenMetrics viene empaquetado con [Datadog Agent v6.6.0 o posterior][5]. +El check de OpenMetrics se incluye en el paquete del [Datadog Agent v6.6.0 o posterior](https://docs.datadoghq.com/getting_started/integrations/prometheus/?tab=docker#configuration). ### Configuración -Edita el archivo `conf.d/openmetrics.d/conf.yaml` en la raíz de tu [directorio de configuración del Agent][6]. Consulta el [openmetrics.d/conf.yaml de ejemplo][7] para todas las opciones disponibles de configuración. Este es el ejemplo más reciente del check de OpenMetrics a partir de la versión 7.32.0 de Datadog Agent. Si previamente implementaste esta integración, consulta el [ejemplo de legacy][8]. +Edita el archivo `conf.d/openmetrics.d/conf.yaml` en la raíz de tu [directorio de configuración del Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory). Ve el [openmetrics.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/openmetrics/datadog_checks/openmetrics/data/conf.yaml.example) para todas las opciones de configuración disponibles. Este es el último ejemplo de check de OpenMetrics a partir del Datadog Agent versión 7.32.0. Si anteriormente implementaste esta integración, consulta el [ejemplo heredado](https://github.com/DataDog/integrations-core/blob/7.30.x/openmetrics/datadog_checks/openmetrics/data/conf.yaml.example). Para cada instancia, se requieren los siguientes parámetros: @@ -91,15 +49,15 @@ Para cada instancia, se requieren los siguientes parámetros: | `namespace` | El espacio de nombres se añade a todas las métricas. | | `metrics` | Una lista de métricas para recuperar como métricas personalizadas. Añade cada métrica a la lista como `metric_name` o `metric_name: renamed` para renombrarla. Las métricas se interpretan como expresiones regulares. Utiliza `".*"` como comodín (`metric.*`) para recuperar todas las métricas que coincidan. **Nota**: Las expresiones regulares pueden enviar muchas métricas personalizadas. | -A partir del Datadog Agent v7.32.0, de acuerdo con el [estándar de especificación de OpenMetrics][2], los nombres de contador que terminan en `_total` deben especificarse sin el sufijo `_total`. Por ejemplo, para recopilar `promhttp_metric_handler_requests_total`, especifica el nombre de métrica `promhttp_metric_handler_requests`. Esto envía a Datadog el nombre de métrica con `.count`, `promhttp_metric_handler_requests.count`. +A partir del Datadog Agent v7.32.0, de conformidad con el [estándar de especificación de OpenMetrics](https://github.com/OpenObservability/OpenMetrics/blob/main/specification/OpenMetrics.md#suffixes), los nombres de contador que terminan en `_total` deben especificarse sin el sufijo `_total`. Por ejemplo, para recopilar `promhttp_metric_handler_requests_total`, especifica el nombre de la métrica `promhttp_metric_handler_requests`. Esto envía a Datadog el nombre de la métrica con el sufijo `.count`, `promhttp_metric_handler_requests.count`. -Este check tiene un límite de 2000 métricas por instancia. El número de métricas devueltas se indica al ejecutar el [comando de estado][9] del Datadog Agent. Puedes especificar las métricas que te interesan editando la configuración. Para saber cómo personalizar las métricas a recopilar, consulta [Recopilación de métricas de Prometheus y OpenMetrics][10]. +Este check tiene un límite de 2000 métricas por instancia. El número de métricas devueltas se indica al ejecutar el [comando de estado] del Datadog Agent(https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information). Puedes especificar las métricas que te interesan editando la configuración. Para saber cómo personalizar las métricas a recopilar, consulta [Recopilación de métricas de Prometheus y OpenMetrics](https://docs.datadoghq.com/getting_started/integrations/prometheus/). -Si necesitas monitorizar más métricas, ponte en contacto con el [soporte de Datadog][11]. +Si necesitas monitorizar más métricas, ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/). ### Validación -[Ejecuta el subcomando de estado del Agent][9] y busca `openmetrics` en la sección Checks. +[Ejecuta el subcomando de estado del Agent(https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `openmetrics` en la sección Checks. ## Datos recopilados @@ -143,7 +101,7 @@ Las versiones anteriores utilizaban por defecto `text/plain`, lo que normalmente Aunque el comportamiento debería seguir siendo el mismo en la mayoría de las circunstancias, algunas aplicaciones devuelven métricas en un formato que no es totalmente compatible con OpenMetrics, a pesar de configurar `Content-Type` para indicar el uso del formato estándar de OpenMetrics. Esto puede hacer que nuestra integración informe de errores durante el parseo de la carga útil de métricas. -Si observas errores en el parseo al seleccionar el endpoint de OpenMetrics con esta nueva versión, puedes forzar el uso del formato menos estricto de Prometheus, al configurar manualmente el encabezado `Accept` que la integración envía a `text/plain` mediante la opción `headers` en el [archivo de configuración][12]. Por ejemplo: +Si observas errores de parseo al escanear el endpoint de OpenMetrics con esta nueva versión, puedes forzar el uso del formato menos estricto de Prometheus configurando manualmente el encabezado `Accept` que la integración envía a `text/plain` mediante la opción `headers` del [archivo de configuración](https://github.com/DataDog/integrations-core/blob/7.46.x/openmetrics/datadog_checks/openmetrics/data/conf.yaml.example#L537-L546). Por ejemplo: ```yaml ## All options defined here are available to all instances. @@ -157,24 +115,9 @@ instances: Accept: text/plain ``` -¿Necesitas ayuda? Contacta con el [equipo de asistencia de Datadog][11]. +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/). ## Referencias adicionales -- [Configuración del check de OpenMetrics][13] -- [Escribir un check de OpenMetrics personalizado][14] - -[1]: https://prometheus.io/docs/instrumenting/exposition_formats/#text-based-format -[2]: https://github.com/OpenObservability/OpenMetrics/blob/main/specification/OpenMetrics.md#suffixes -[3]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/ -[4]: https://docs.datadoghq.com/es/integrations/guide/versions-for-openmetrics-based-integrations -[5]: https://docs.datadoghq.com/es/getting_started/integrations/prometheus/?tab=docker#configuration -[6]: https://docs.datadoghq.com/es/agent/guide/agent-configuration-files/#agent-configuration-directory -[7]: https://github.com/DataDog/integrations-core/blob/master/openmetrics/datadog_checks/openmetrics/data/conf.yaml.example -[8]: https://github.com/DataDog/integrations-core/blob/7.30.x/openmetrics/datadog_checks/openmetrics/data/conf.yaml.example -[9]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information -[10]: https://docs.datadoghq.com/es/getting_started/integrations/prometheus/ -[11]: https://docs.datadoghq.com/es/help/ -[12]: https://github.com/DataDog/integrations-core/blob/7.46.x/openmetrics/datadog_checks/openmetrics/data/conf.yaml.example#L537-L546 -[13]: https://docs.datadoghq.com/es/agent/openmetrics/ -[14]: https://docs.datadoghq.com/es/developers/openmetrics/ \ No newline at end of file +- [Configuración de un check de OpenMetrics](https://docs.datadoghq.com/agent/openmetrics/) +- [Escribir un check personalizado de OpenMetrics](https://docs.datadoghq.com/developers/openmetrics/) \ No newline at end of file diff --git a/content/es/integrations/openshift.md b/content/es/integrations/openshift.md index bcb2d5a395eae..3fc9d58ba7d91 100644 --- a/content/es/integrations/openshift.md +++ b/content/es/integrations/openshift.md @@ -1,27 +1,5 @@ --- app_id: openshift -app_uuid: e92e309f-7bdc-4ff4-91d4-975497526325 -assets: - integration: - auto_install: true - configuration: {} - events: - creates_events: false - metrics: - check: - - openshift.clusterquota.cpu.requests.used - - openshift.clusterquota.cpu.used - metadata_path: metadata.csv - prefix: openshift. - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 10024 - source_type_name: OpenShift -author: - homepage: https://www.datadoghq.com - name: Datadog - sales_email: info@datadoghq.com - support_email: help@datadoghq.com categories: - contenedores - kubernetes @@ -29,47 +7,19 @@ categories: - la red - orquestación - suministrar -custom_kind: integration -dependencies: -- https://github.com/DataDog/integrations-core/blob/master/openshift/README.md -display_on_public_website: true -draft: false -git_integration_title: openshift -integration_id: openshift -integration_title: OpenShift -integration_version: '' -is_public: true -manifest_version: 2.0.0 -name: openshift -public_title: OpenShift -short_description: La plataforma de Kubernetes para grandes ideas +custom_kind: integración +description: La plataforma de Kubernetes para grandes ideas +integration_version: 1.0.0 +media: [] supported_os: - linux -tile: - changelog: CHANGELOG.md - classifier_tags: - - Category::Containers - - Category::Kubernetes - - Category::Log Collection - - Category::Network - - Category::Orchestration - - Category::Provisioning - - Supported OS::Linux - - Offering::Integration - configuration: README.md#Setup - description: La plataforma de Kubernetes para grandes ideas - media: [] - overview: README.md#Overview - support: README.md#Support - title: OpenShift +title: OpenShift --- - - ## Información general Red Hat OpenShift es una plataforma de aplicaciones en contenedores de código abierto basada en el orquestador de contenedores de Kubernetes para el desarrollo y despliegue de aplicaciones empresariales. -> Este README describe la configuración necesaria para permitir la recopilación de métricas específicas de OpenShift en el Agent. Los datos aquí descritos son recopilados por el check de [`kubernetes_apiserver`][1]. Debes configurar el check para recopilar las métricas `openshift.*`. +> Este archivo README describe la configuración necesaria para permitir la recopilación de métricas específicas de OpenShift en el Agent. Los datos descritos aquí son recopilados por el [check de `kubernetes_apiserver`](https://github.com/DataDog/datadog-agent/blob/master/cmd/agent/dist/conf.d/kubernetes_apiserver.d/conf.yaml.example). Debes configurar el check para recopilar las métricas de `openshift.*`. ## Configuración @@ -77,27 +27,26 @@ Red Hat OpenShift es una plataforma de aplicaciones en contenedores de código a Esta configuración central es compatible con OpenShift 3.11 y OpenShift 4, pero funciona mejor con OpenShift 4. -Para instalar el Agent, consulta las [instrucciones de instalación del Agent][2] para obtener instrucciones generales de Kubernetes y la [página de distribuciones de Kubernetes][3] para obtener ejemplos de la configuración de OpenShift. +Para instalar el Agent, consulta las [instrucciones de instalación del Agent](https://docs.datadoghq.com/containers/kubernetes/installation) para obtener instrucciones generales de Kubernetes y la [página de distribución de Kubernetes](https://docs.datadoghq.com/containers/kubernetes/distributions/?tab=datadogoperator#Openshift) para obtener ejemplos de configuración de OpenShift. -Como alternativa, puede utilizarse [Datadog Operator][4] para instalar y gestionar el Datadog Agent. El Datadog Operator puede instalarse mediante el [OperatorHub][5] de OpenShift. +Como alternativa, puede utilizarse el [Datadog Operator](https://github.com/DataDog/datadog-operator/) para instalar y gestionar el Datadog Agent. El Datadog Operator puede instalarse utilizando [OperatorHub](https://docs.openshift.com/container-platform/4.10/operators/understanding/olm-understanding-operatorhub.html) de OpenShift. ### Configuración de las restricciones del contexto de seguridad Si estás desplegando el Datadog Agent utilizando cualquiera de los métodos vinculados en las instrucciones de instalación anteriores, debes incluir restricciones de contexto de seguridad (SCC) para el Agent y el Cluster Agent para recopilar datos. Sigue las instrucciones que se indican a continuación en relación con tu despliegue. {{< tabs >}} + {{% tab "Operator" %}} -Para obtener instrucciones sobre cómo instalar el Datadog Operator y el recurso `DatadogAgent` en OpenShift, consulta la [Guía de instalación de OpenShift][1]. +Para obtener instrucciones sobre cómo instalar el Datadog Operator y el recurso `DatadogAgent` en OpenShift, consulta la [Guía de instalación de OpenShift](https://github.com/DataDog/datadog-operator/blob/main/docs/install-openshift.md). Si despliegas el Operator con Operator Lifecycle Manager (OLM), los SCC predeterminados necesarios de OpenShift se asocian automáticamente a la cuenta de servicio `datadog-agent-scc`. A continuación, puedes desplegar los componentes de Datadog con la CustomResourceDefinition `DatadogAgent`, haciendo referencia a esta cuenta de servicio en los pods del Node Agent y Cluster Agent. -Consulta la página [Distribuciones][2] y el [repositorio del Operator][3] para ver más ejemplos. +Consulta la página [Distribuciones](https://docs.datadoghq.com/containers/kubernetes/distributions/?tab=datadogoperator#Openshift) y [el repositorio del Operator](https://github.com/DataDog/datadog-operator/blob/main/examples/datadogagent/datadog-agent-on-openshift.yaml) para ver más ejemplos. -[1]: https://github.com/DataDog/datadog-operator/blob/main/docs/install-openshift.md -[2]: https://docs.datadoghq.com/es/containers/kubernetes/distributions/?tab=datadogoperator#Openshift -[3]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogagent/datadog-agent-on-openshift.yaml {{% /tab %}} + {{% tab "Helm" %}} Puedes crear el SCC directamente dentro de tu `values.yaml` del Datadog Agent. Añade los siguientes parámetros de bloque en la sección `agents` y `clusterAgent` para crear sus respectivos SCC. @@ -117,16 +66,15 @@ clusterAgent: create: true ``` -Puedes aplicar esto cuando despliegues inicialmente el Agent, o puedes ejecutar un `helm upgrade` después de hacer este cambio para aplicar el SCC. +Puedes aplicar esto cuando despliegues inicialmente el Agent, o puedes ejecutar un `helm upgrade` después de hacer este cambio para aplicar el SCC. -Consulta la página [Distribuciones][1] y el [repositorio de Helm][2] para más ejemplos. +Consulta la página de [Distribuciones](https://docs.datadoghq.com/containers/kubernetes/distributions/?tab=datadogoperator#Openshift) y el [repositorio de Helm](https://github.com/DataDog/helm-charts/blob/main/examples/datadog/agent_on_openshift_values.yaml) para más ejemplos. -[1]: https://docs.datadoghq.com/es/containers/kubernetes/distributions/?tab=datadogoperator#Openshift -[2]: https://github.com/DataDog/helm-charts/blob/main/examples/datadog/agent_on_openshift_values.yaml {{% /tab %}} + {{% tab "Daemonset" %}} -Según tus necesidades y las [restricciones de seguridad][1] de tu clúster, se admiten tres escenarios de despliegue: +En función de tus necesidades y de las [restricciones de seguridad](https://docs.openshift.com/enterprise/3.0/admin_guide/manage_scc.html) de tu clúster, se admiten tres escenarios de despliegue: - [Operaciones SCC restringidas](#restricted-scc-operations) - [Operaciones SCC de red de host](#host) @@ -147,7 +95,7 @@ Según tus necesidades y las [restricciones de seguridad][1] de tu clúster, se #### Operaciones restringidas de SCC -Este modo no requiere conceder permisos especiales al [DaemonSet del `datadog-agent`][2], aparte de los permisos [RBAC][3] necesarios para acceder al kubelet y al APIserver. Puedes empezar con esta [plantilla kubelet-only][4]. +Este modo no requiere conceder permisos especiales al [DaemonSet del `datadog-agent`](https://docs.datadoghq.com/agent/kubernetes/daemonset_setup/), aparte de los permisos [RBAC](https://docs.datadoghq.com/agent/kubernetes/daemonset_setup/?tab=k8sfile#configure-rbac-permissions) necesarios para acceder al kubelet y al servidor de la API. Puedes empezar con esta [plantilla solo de kubelet](https://github.com/DataDog/datadog-agent/blob/master/Dockerfiles/manifests/agent-kubelet-only.yaml). El método de ingesta recomendado para DogStatsD, APM y logs consiste en vincular el Datadog Agent a un puerto de host. De esta forma, la IP de destino es constante y fácilmente detectable por tus aplicaciones. La SCC por defecto de OpenShift no permite la vinculación al puerto de host. Puedes configurar el Agent para que escuche en su propia IP, pero tendrás que gestionar la detección de esa IP desde tu aplicación. @@ -167,11 +115,8 @@ ports: protocol: TCP ``` -[1]: https://docs.openshift.com/enterprise/3.0/admin_guide/manage_scc.html -[2]: https://docs.datadoghq.com/es/agent/kubernetes/daemonset_setup/ -[3]: https://docs.datadoghq.com/es/agent/kubernetes/daemonset_setup/?tab=k8sfile#configure-rbac-permissions -[4]: https://github.com/DataDog/datadog-agent/blob/master/Dockerfiles/manifests/agent-kubelet-only.yaml {{% /tab %}} + {{< /tabs >}} #### SCC personalizado de Datadog para todas las funciones @@ -179,18 +124,18 @@ ports: El Helm Chart y Datadog Operator gestionan el SCC por ti de forma predeterminada. Para gestionarlo tú mismo en su lugar, asegúrate de incluir las configuraciones correctas en función de las características que hayas habilitado. Si SELinux está en modo permisivo o deshabilitado, habilita el SCC `hostaccess` para beneficiarte de todas las características. -Si SELinux está en modo obligatorio, es recomendado conceder [el tipo `spc_t`][6] al pod datadog-agent. Para desplegar el Agent, puedes utilizar el siguiente [SCC datadog-agent][7] que se puede aplicar después de [crear la cuenta de servicio datadog-agent][8]. Concede los siguientes permisos: +Si SELinux está en modo enforcing, se recomienda conceder [el tipo `spc_t`](https://developers.redhat.com/blog/2014/11/06/introducing-a-super-privileged-container-concept) al pod del datadog-agent. Para desplegar el Agent puedes utilizar el siguiente [SCC de datadog-agent](https://github.com/DataDog/datadog-agent/blob/master/Dockerfiles/manifests/openshift/scc.yaml) que puede aplicarse después de [crear la cuenta de servicio del datadog-agent](https://docs.datadoghq.com/agent/kubernetes/daemonset_setup/?tab=k8sfile#configure-rbac-permissions). Concede los siguientes permisos: - `allowHostPorts: true`: vincula las entradas de DogStatsD/APM/logs a la IP del nodo. - `allowHostPID: true`: activa la Detección de origen para las métricas de DogStatsD enviadas por Unix Socket. - `volumes: hostPath`: accede al socker de Docker y a las carpetas `proc` y `cgroup` de host, para la recopilación de métricas. -- `SELinux type: spc_t`: accede al socket de Docker y a las carpetas `proc` y `cgroup` de todos los procesos, para la recopilación de métricas. Consulta [Introducción al concepto de Contenedor con súper privilegios][6] para más detalles. +- `SELinux type: spc_t`: accede al socket de Docker y a las carpetas `proc` y `cgroup` de todos los procesos, para la recopilación de métricas. Ver [Introducing a Super Privileged Container Concept](https://developers.redhat.com/blog/2014/11/06/introducing-a-super-privileged-container-concept) para más detalles.
No olvides añadir una cuenta de servicio datadog-agent a un SCC datadog-agent recientemente creado al añadir system:serviceaccount:: a la sección usuarios.
-
+
OpenShift 4.0+: Si has utilizado el instalador de OpenShift en un proveedor de nube compatible, debes desplegar el SCC con allowHostNetwork: true en el manifiesto scc.yaml, así como hostNetwork: true en la configuración del Agent para obtener etiquetas (tags) de host y alias. Por lo demás, el acceso a los servidores de metadatos desde la red de pod está restringido.
@@ -205,7 +150,7 @@ runAsUser: La recopilación de logs del Datadog Agent se configura en OpenShift en gran medida igual que otros clústeres de Kubernetes. El Datadog Operator y Helm Chart se montan en el directorio `/var/log/pods`, que el pod de Datadog Agent utiliza para monitorizar los logs de los pods y contenedores en sus respectivos hosts. Sin embargo, con el Datadog Operator, es necesario aplicar opciones de SELinux adicionales para dar al Agent permisos para leer estos archivos de log. -Consulta [Recopilación de logs de Kubernetes][9] para obtener más información general y la página [Distribuciones][3] para ver ejemplos de configuración. +Consulta la [recopilación de logs de Kubernetes](https://docs.datadoghq.com/agent/kubernetes/log/?tab=daemonset) para obtener más información general y la página [Distribuciones](https://docs.datadoghq.com/containers/kubernetes/distributions/?tab=datadogoperator#Openshift) para ver ejemplos de configuración. ### APM @@ -213,17 +158,61 @@ En Kubernetes, hay tres opciones principales para enrutar los datos desde el pod Datadog recomienda deshabilitar la opción de UDS explícitamente para evitar esto y para evitar que el Admission Controller (Controlador de admisión) inyecte esta configuración. -Consulta [Recopilación de trazas, APM de Kubernetes][10] para más información general y la página [Distribuciones][3] para ver ejemplos de configuración. +Consulta [recopilación de APM y trazas de Kubernetes](https://docs.datadoghq.com/containers/kubernetes/apm) para más información general y la página [Distribuciones](https://docs.datadoghq.com/containers/kubernetes/distributions/?tab=datadogoperator#Openshift) para ejemplos de configuración. ### Validación -Ver [kubernetes_apiserver][1] +Consulta [kubernetes_apiserver](https://github.com/DataDog/datadog-agent/blob/master/cmd/agent/dist/conf.d/kubernetes_apiserver.d/conf.yaml.example) ## Datos recopilados ### Métricas -{{< get-metrics-from-git "openshift" >}} +| | | +| --- | --- | +| **openshift.appliedclusterquota.cpu.limit**
(gauge) | Límite fijo para cpu por cuota de recursos de clúster y espacio de nombres
_Se muestra como cpu_ | +| **openshift.appliedclusterquota.cpu.remaining**
(gauge) | Cpu disponible restante por cuota de recursos de clúster y espacio de nombres
_Se muestra como cpu_ | +| **openshift.appliedclusterquota.cpu.used**
(gauge) | Uso de cpu observado por cuota de recursos de clúster y espacio de nombres
_Se muestra como cpu_ | +| **openshift.appliedclusterquota.memory.limit**
(gauge) | Límite fijo de memoria por cuota de recursos de clúster y espacio de nombres
_Se muestra como byte_ | +| **openshift.appliedclusterquota.memory.remaining**
(gauge) | Memoria disponible restante por cuota de recursos de clúster y espacio de nombres
_Se muestra como byte_ | +| **openshift.appliedclusterquota.memory.used**
(gauge) | Uso de memoria observado por cuota de recursos de clúster y espacio de nombres
_Se muestra como byte_ | +| **openshift.appliedclusterquota.persistentvolumeclaims.limit**
(gauge) | Límite fijo para reclamaciones de volúmenes persistentes por cuota de recursos de clúster y espacio de nombres| +| **openshift.appliedclusterquota.persistentvolumeclaims.remaining**
(gauge) | Reclamaciones de volúmenes persistentes disponibles por cuota de recursos de clúster y espacio de nombres| +| **openshift.appliedclusterquota.persistentvolumeclaims.used**
(gauge) | Uso observado de reclamaciones de volumen persistente por cuota de recursos de clúster y espacio de nombres| +| **openshift.appliedclusterquota.pods.limit**
(gauge) | Límite fijo para pods por cuota de recursos de clúster y espacio de nombres| +| **openshift.appliedclusterquota.pods.remaining**
(gauge) | Pods disponibles por cuota de recursos de clúster y espacio de nombres| +| **openshift.appliedclusterquota.pods.used**
(gauge) | Uso de pods observado por cuota de recursos de clúster y espacio de nombres| +| **openshift.appliedclusterquota.services.limit**
(gauge) | Límite fijo para servicios por cuota de recursos de clúster y espacio de nombres| +| **openshift.appliedclusterquota.services.loadbalancers.limit**
(gauge) | Límite fijo para equilibradores de carga de servicios por cuota de recursos de clúster y espacio de nombres| +| **openshift.appliedclusterquota.services.loadbalancers.remaining**
(gauge) | Equilibradores de carga de servicios disponibles por cuota de recursos de clúster y espacio de nombres| +| **openshift.appliedclusterquota.services.loadbalancers.used**
(gauge) | Uso observado de los equilibradores de carga de servicios por cuota de recursos de clúster y espacio de nombres| +| **openshift.appliedclusterquota.services.nodeports.limit**
(gauge) | Límite fijo para puertos de nodo de servicio por cuota de recursos de clúster y espacio de nombres| +| **openshift.appliedclusterquota.services.nodeports.remaining**
(gauge) | Puertos de nodo de servicio disponibles por cuota de recursos de clúster y espacio de nombres| +| **openshift.appliedclusterquota.services.nodeports.used**
(gauge) | Uso observado de puertos de nodos de servicio por cuota de recursos de clúster y espacio de nombres| +| **openshift.appliedclusterquota.services.remaining**
(gauge) | Servicios disponibles restantes por cuota de recursos de clúster y espacio de nombres| +| **openshift.appliedclusterquota.services.used**
(gauge) | Utilización de servicios observada por cuota de recursos de clúster y espacio de nombres| +| **openshift.clusterquota.cpu.limit**
(gauge) | Límite fijo de cpu por cuota de recursos de clúster para todos los espacios de nombres
_Se muestra como cpu_ | +| **openshift.clusterquota.cpu.remaining**
(gauge) | Cpu disponible restante por cuota de recursos de clúster para todos los espacios de nombres
_Se muestra como cpu_ | +| **openshift.clusterquota.cpu.requests.used**
(gauge) | Uso de cpu observado por recurso de clúster para solicitud| +| **openshift.clusterquota.cpu.used**
(gauge) | Uso de cpu observado por cuota de recursos de clúster para todos los espacios de nombres
_Se muestra como cpu_ | +| **openshift.clusterquota.memory.limit**
(gauge) | Límite fijo de memoria por cuota de recursos de clúster para todos los espacios de nombres
_Se muestra como byte_ | +| **openshift.clusterquota.memory.remaining**
(gauge) | Memoria disponible restante por cuota de recursos de clúster para todos los espacios de nombres
_Se muestra como byte_ | +| **openshift.clusterquota.memory.used**
(gauge) | Uso de memoria observado por cuota de recursos de clúster para todos los espacios de nombres
_Se muestra como byte_ | +| **openshift.clusterquota.persistentvolumeclaims.limit**
(gauge) | Límite fija para las reclamaciones de volúmenes persistentes por cuota de recursos de clúster para todos los espacios de nombres.| +| **openshift.clusterquota.persistentvolumeclaims.remaining**
(gauge) | Reclamaciones de volumen persistente disponibles restantes por cuota de recursos de clúster para todos los espacios de nombres.| +| **openshift.clusterquota.persistentvolumeclaims.used**
(gauge) | Uso de reclamaciones de volumen persistente observado por cuota de recursos de clúster para todos los espacios de nombres| +| **openshift.clusterquota.pods.limit**
(gauge) | Límite duro para pods por cuota de recursos de clúster para todos los espacios de nombres| +| **openshift.clusterquota.pods.remaining**
(gauge) | Pods disponibles restantes por cuota de recursos de clúster para todos los espacios de nombres| +| **openshift.clusterquota.pods.used**
(gauge) | Uso de pods observado por cuota de recursos de clúster para todos los espacios de nombres| +| **openshift.clusterquota.services.limit**
(gauge) | Límite fijo para servicios por cuota de recursos de clúster para todos los espacios de nombres| +| **openshift.clusterquota.services.loadbalancers.limit**
(gauge) | Límite fijo para los equilibradores de carga de servicios por cuota de recursos de clúster para todos los espacios de nombres.| +| **openshift.clusterquota.services.loadbalancers.remaining**
(gauge) | Equilibradores de carga de servicio disponibles restantes por cuota de recursos de clúster para todos los espacios de nombres.| +| **openshift.clusterquota.services.loadbalancers.used**
(gauge) | Uso observado de los equilibradores de carga de servicios por cuota de recursos de clúster para todos los espacios de nombres| +| **openshift.clusterquota.services.nodeports.limit**
(gauge) | Límite fijo para puertos de nodo de servicio por cuota de recursos de clúster para todos los espacios de nombres.| +| **openshift.clusterquota.services.nodeports.remaining**
(gauge) | Puertos de nodo de servicio disponibles restantes por cuota de recursos de clúster para todos los espacios de nombres| +| **openshift.clusterquota.services.nodeports.used**
(gauge) | Uso observado de puertos de nodo de servicio por cuota de recursos de clúster para todos los espacios de nombres| +| **openshift.clusterquota.services.remaining**
(gauge) | Servicios disponibles restantes por cuota de recursos de clúster para todos los espacios de nombres| +| **openshift.clusterquota.services.used**
(gauge) | Utilización de servicios observada por cuota de recursos de clúster para todos los espacios de nombres| ### Eventos @@ -235,17 +224,4 @@ El check de OpenShift no incluye ningún check de servicio. ## Solucionar problemas -¿Necesitas ayuda? Contacta con el [equipo de asistencia de Datadog][11]. - - -[1]: https://github.com/DataDog/datadog-agent/blob/master/cmd/agent/dist/conf.d/kubernetes_apiserver.d/conf.yaml.example -[2]: https://docs.datadoghq.com/es/containers/kubernetes/installation -[3]: https://docs.datadoghq.com/es/containers/kubernetes/distributions/?tab=datadogoperator#Openshift -[4]: https://github.com/DataDog/datadog-operator/ -[5]: https://docs.openshift.com/container-platform/4.10/operators/understanding/olm-understanding-operatorhub.html -[6]: https://developers.redhat.com/blog/2014/11/06/introducing-a-super-privileged-container-concept -[7]: https://github.com/DataDog/datadog-agent/blob/master/Dockerfiles/manifests/openshift/scc.yaml -[8]: https://docs.datadoghq.com/es/agent/kubernetes/daemonset_setup/?tab=k8sfile#configure-rbac-permissions -[9]: https://docs.datadoghq.com/es/agent/kubernetes/log/?tab=daemonset -[10]: https://docs.datadoghq.com/es/containers/kubernetes/apm -[11]: https://docs.datadoghq.com/es/help/ \ No newline at end of file +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/openstack.md b/content/es/integrations/openstack.md new file mode 100644 index 0000000000000..63e6fb9bda43d --- /dev/null +++ b/content/es/integrations/openstack.md @@ -0,0 +1,263 @@ +--- +app_id: openstack +categories: +- cloud +- log collection +- network +- provisioning +- configuration & deployment +custom_kind: integración +description: Seguimiento del uso de recursos a nivel de hipervisor y VM, además de + métricas de Neutron. +further_reading: +- link: https://www.datadoghq.com/blog/openstack-monitoring-nova + tag: blog + text: Monitorización de OpenStack Nova +- link: https://www.datadoghq.com/blog/install-openstack-in-two-commands + tag: blog + text: Instalar OpenStack en dos comandos para dev y test +- link: https://www.datadoghq.com/blog/openstack-host-aggregates-flavors-availability-zones + tag: blog + text: 'OpenStack: agregados de hosts, opciones y zonas de disponibilidad' +integration_version: 4.0.1 +media: [] +supported_os: +- linux +- windows +- macos +title: OpenStack (heredado) +--- +![Dashboard por defecto de OpenStack](https://raw.githubusercontent.com/DataDog/integrations-core/master/openstack/images/openstack_dashboard.png) + +## Información general + +**Nota**: Esta integración solo se aplica a OpenStack v12 e inferiores. Si deseas recopilar métricas de OpenStack v13+, utiliza la [integración de OpenStack Controller](https://docs.datadoghq.com/integrations/openstack_controller). + +Obtén métricas del servicio OpenStack en tiempo real para: + +- Visualizar y monitorizar estados de OpenStack. +- Recibir notificaciones sobre fallos y eventos de OpenStack. + +## Configuración + +### Instalación + +Para capturar tus métricas de OpenStack, [instala el Agent](https://app.datadoghq.com/account/settings/agent/latest) en tus hosts que ejecutan hipervisores. + +### Configuración + +#### Preparar OpenStack + +Configura un rol y un usuario de Datadog con tu servidor de identidad: + +```console +openstack role create datadog_monitoring +openstack user create datadog \ + --password my_password \ + --project my_project_name +openstack role add datadog_monitoring \ + --project my_project_name \ + --user datadog +``` + +A continuación, actualiza tus archivos `policy.json` para conceder los permisos necesarios. `role:datadog_monitoring` requiere acceso a las siguientes operaciones: + +**Nova** + +```json +{ + "compute_extension": "aggregates", + "compute_extension": "hypervisors", + "compute_extension": "server_diagnostics", + "compute_extension": "v3:os-hypervisors", + "compute_extension": "v3:os-server-diagnostics", + "compute_extension": "availability_zone:detail", + "compute_extension": "v3:availability_zone:detail", + "compute_extension": "used_limits_for_admin", + "os_compute_api:os-aggregates:index": "rule:admin_api or role:datadog_monitoring", + "os_compute_api:os-aggregates:show": "rule:admin_api or role:datadog_monitoring", + "os_compute_api:os-hypervisors": "rule:admin_api or role:datadog_monitoring", + "os_compute_api:os-server-diagnostics": "rule:admin_api or role:datadog_monitoring", + "os_compute_api:os-used-limits": "rule:admin_api or role:datadog_monitoring" +} +``` + +**Neutron** + +```json +{ + "get_network": "rule:admin_or_owner or rule:shared or rule:external or rule:context_is_advsvc or role:datadog_monitoring" +} +``` + +**Keystone** + +```json +{ + "identity:get_project": "rule:admin_required or project_id:%(target.project.id)s or role:datadog_monitoring", + "identity:list_projects": "rule:admin_required or role:datadog_monitoring" +} +``` + +Es posible que tengas que reiniciar tus servicios de API de Keystone, Neutron y Nova para asegurarte de que los cambios de política se llevan a cabo. + +**Nota**: La instalación de la integración de OpenStack podría aumentar el número de máquinas virtuales que Datadog monitoriza. Para obtener más información sobre cómo esto puede afectar a tu facturación, consulta las FAQ de facturación. + +#### Configuración del Agent + +1. Configura el Datadog Agent para conectarte a tu servidor Keystone, y especifica proyectos individuales para monitorizar. Edita el archivo `openstack.d/conf.yaml` en la carpeta `conf.d/` en la raíz del [directorio de configuración del Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory) con la configuración de abajo. Consulta el [openstack.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/openstack/datadog_checks/openstack/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles: + + ```yaml + init_config: + ## @param keystone_server_url - string - required + ## Where your identity server lives. + ## Note that the server must support Identity API v3 + # + keystone_server_url: "https://:/" + + instances: + ## @param name - string - required + ## Unique identifier for this instance. + # + - name: "" + + ## @param user - object - required + ## User credentials + ## Password authentication is the only auth method supported. + ## `user` object expects the parameter `username`, `password`, + ## and `user.domain.id`. + ## + ## `user` should resolve to a structure like: + ## + ## {'password': '', 'name': '', 'domain': {'id': ''}} + # + user: + password: "" + name: datadog + domain: + id: "" + ``` + +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). + +##### Recopilación de logs + +1. La recopilación de logs está desactivada por defecto en el Datadog Agent, puedes activarla en `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` + +1. Añade este bloque de configuración a tu archivo `openstack.d/conf.yaml` para empezar a recopilar tus logs de Openstack: + + ```yaml + logs: + - type: file + path: "" + source: openstack + ``` + + Cambia el valor de los parámetros de `path` y configúralos para tu entorno. Consulta el [openstack.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/openstack/datadog_checks/openstack/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. + +### Validación + +Ejecuta el subcomando [de estado del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `openstack` en la sección Checks. + +## Datos recopilados + +### Métricas + +| | | +| --- | --- | +| **openstack.nova.current_workload**
(gauge) | Carga de trabajo actual en el hipervisor de Nova| +| **openstack.nova.disk_available_least**
(gauge) | Disco disponible para el hipervisor de Nova
_Se muestra como gibibyte_ | +| **openstack.nova.free_disk_gb**
(gauge) | Disco libre en el hipervisor de Nova
_Se muestra como gibibyte_ | +| **openstack.nova.free_ram_mb**
(gauge) | RAM libre en el hipervisor de Nova
_Se muestra como mebibyte_ | +| **openstack.nova.hypervisor_load.1**
(gauge) | La carga media del hipervisor durante un minuto.| +| **openstack.nova.hypervisor_load.15**
(gauge) | La carga media del hipervisor en quince minutos.| +| **openstack.nova.hypervisor_load.5**
(gauge) | La carga media del hipervisor en cinco minutos.| +| **openstack.nova.limits.max_image_meta**
(gauge) | El máximo permitido de definiciones de metadatos de imagen para este inquilino| +| **openstack.nova.limits.max_personality**
(gauge) | Las personalidades máximas permitidas para este inquilino| +| **openstack.nova.limits.max_personality_size**
(gauge) | El tamaño máximo de una sola personalidad permitido para este inquilino.| +| **openstack.nova.limits.max_security_group_rules**
(gauge) | El número máximo de reglas de grupo de seguridad permitidas para este inquilino.| +| **openstack.nova.limits.max_security_groups**
(gauge) | Número máximo de grupos de seguridad permitidos para este inquilino| +| **openstack.nova.limits.max_server_meta**
(gauge) | El máximo permitido de definiciones de metadatos de servicio para este inquilino| +| **openstack.nova.limits.max_total_cores**
(gauge) | El máximo de núcleos permitidos para este inquilino| +| **openstack.nova.limits.max_total_floating_ips**
(gauge) | El máximo permitido de IPs flotantes para este inquilino| +| **openstack.nova.limits.max_total_instances**
(gauge) | Número máximo de instancias permitidas para este inquilino| +| **openstack.nova.limits.max_total_keypairs**
(gauge) | Los pares de claves máximos permitidos para este inquilino| +| **openstack.nova.limits.max_total_ram_size**
(gauge) | El tamaño máximo de RAM permitido para este inquilino en megabytes (MB)
_Se muestra como mebibyte_ | +| **openstack.nova.limits.total_cores_used**
(gauge) | El total de núcleos utilizados por este inquilino| +| **openstack.nova.limits.total_floating_ips_used**
(gauge) | El total de IPs flotantes utilizadas por este inquilino| +| **openstack.nova.limits.total_instances_used**
(gauge) | El total de instancias utilizadas por este inquilino| +| **openstack.nova.limits.total_ram_used**
(gauge) | La RAM actual utilizada por este inquilino en megabytes (MB)
_Se muestra como mebibyte_ | +| **openstack.nova.limits.total_security_groups_used**
(gauge) | Número total de grupos de seguridad utilizados por este inquilino| +| **openstack.nova.local_gb**
(gauge) | El tamaño en GB del disco efímero presente en este host hipervisor
_Se muestra como gibibyte_ | +| **openstack.nova.local_gb_used**
(gauge) | El tamaño en GB del disco utilizado en este host hipervisor
_Se muestra como gibibyte_ | +| **openstack.nova.memory_mb**
(gauge) | El tamaño en MB de la RAM presente en este host hipervisor
_Se muestra como mebibyte_ | +| **openstack.nova.memory_mb_used**
(gauge) | El tamaño en MB de la RAM utilizada en este host hipervisor
_Se muestra como mebibyte_ | +| **openstack.nova.running_vms**
(gauge) | Número de máquinas virtuales en ejecución en este host de hipervisor| +| **openstack.nova.server.cpu0_time**
(gauge) | Tiempo de CPU en nanosegundos de esta CPU virtual
_Se muestra como nanosegundo_ | +| **openstack.nova.server.hdd_errors**
(gauge) | Número de errores observados por el servidor al acceder a un dispositivo HDD| +| **openstack.nova.server.hdd_read**
(gauge) | Número de bytes leídos desde un dispositivo HDD por este servidor
_Se muestra como byte_ | +| **openstack.nova.server.hdd_read_req**
(gauge) | Número de solicitudes de lectura realizadas a un dispositivo HDD por este servidor| +| **openstack.nova.server.hdd_write**
(gauge) | Número de bytes escritos en un dispositivo HDD por este servidor
_Se muestra como byte_ | +| **openstack.nova.server.hdd_write_req**
(gauge) | El número de solicitudes de escritura realizadas a un dispositivo HDD por este servidor| +| **openstack.nova.server.memory**
(gauge) | La cantidad de memoria en MB aprovisionada para este servidor
_Se muestra como mebibyte_ | +| **openstack.nova.server.memory_actual**
(gauge) | La cantidad de memoria en MB aprovisionada para este servidor
_Se muestra como mebibyte_ | +| **openstack.nova.server.memory_rss**
(gauge) | La cantidad de memoria utilizada por los procesos de este servidor que no está asociada a páginas de disco, como el stack tecnológico y la memoria heap
_Se muestra como mebibyte_ | +| **openstack.nova.server.vda_errors**
(gauge) | Número de errores observados por el servidor al acceder a un dispositivo VDA.| +| **openstack.nova.server.vda_read**
(gauge) | Número de bytes leídos desde un dispositivo VDA por este servidor
_Se muestra como byte_ | +| **openstack.nova.server.vda_read_req**
(gauge) | Número de solicitudes de lectura realizadas a un dispositivo VDA por este servidor.| +| **openstack.nova.server.vda_write**
(gauge) | Número de bytes escritos en un dispositivo VDA por este servidor
_Se muestra como byte_ | +| **openstack.nova.server.vda_write_req**
(gauge) | Número de solicitudes de escritura realizadas a un dispositivo VDA por este servidor| +| **openstack.nova.vcpus**
(gauge) | Número de vCPUs disponibles en este host hipervisor| +| **openstack.nova.vcpus_used**
(gauge) | Número de vCPUS utilizados en este host hipervisor| + +### Eventos + +El check de OpenStack no incluye ningún evento. + +### Checks de servicio + +**openstack.neutron.api.up** + +Devuelve `CRITICAL` si el Agent no puede consultar la API de Neutron, `UNKNOWN` si hay un problema con la API de Keystone. En caso contrario, devuelve `OK`. + +_Estados: ok, critical, unknown_ + +**openstack.nova.api.up** + +Devuelve `CRITICAL` si el Agent no puede consultar la API de Nova, `UNKNOWN` si hay un problema con la API de Keystone. En caso contrario, devuelve `OK`. + +_Estados: ok, critical, unknown_ + +**openstack.keystone.api.up** + +Devuelve `CRITICAL` si el Agent no puede consultar la API de Keystone. En caso contrario, devuelve `OK`. + +_Estados: ok, critical_ + +**openstack.nova.hypervisor.up** + +Devuelve `UNKNOWN` si el Agent no puede obtener el estado del hipervisor, `CRITICAL` si el hipervisor está caído. Devuelve `OK` en caso contrario. + +_Estados: ok, critical, unknown_ + +**openstack.neutron.network.up** + +Devuelve `UNKNOWN` si el Agent no puede obtener el estado de la red, `CRITICAL` si la red está caída. En caso contrario, devuelve `OK`. + +_Estados: ok, critical, unknown_ + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/). + +## Referencias adicionales + +Documentación útil adicional, enlaces y artículos: + +- [Monitorización de OpenStack Nova](https://www.datadoghq.com/blog/openstack-monitoring-nova) +- [Instalar OpenStack en dos comandos para dev y test](https://www.datadoghq.com/blog/install-openstack-in-two-commands) +- [OpenStack: agregados de hosts, opciones y zonas de disponibilidad](https://www.datadoghq.com/blog/openstack-host-aggregates-flavors-availability-zones) \ No newline at end of file diff --git a/content/es/integrations/opsgenie.md b/content/es/integrations/opsgenie.md new file mode 100644 index 0000000000000..46a94cdf71ea4 --- /dev/null +++ b/content/es/integrations/opsgenie.md @@ -0,0 +1,105 @@ +--- +app_id: opsgenie +categories: +- collaboration +- notifications +custom_kind: integración +description: Reenvía alertas desde Datadog y notifica a los usuarios por teléfono. +further_reading: +- link: https://docs.datadoghq.com/tracing/service_catalog/integrations/#opsgenie-integration + tag: blog + text: Blog de Opsgenie +- link: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/integration_opsgenie_service_object + tag: otros + text: Opsgenie +media: [] +title: Opsgenie +--- +## Información general + +Crea alertas en Opsgenie utilizando `@opsgenie-{service-name}`: + +- Al tomar una snapshot +- Cuando se activa una alerta de métrica + +## Configuración + +### Configuración + +#### Crear una integración de Datadog en Opsgenie + +1. Inicia sesión en tu cuenta de Opsgenie y ve a la page (página) [Integraciones de Opsgenie](https://app.opsgenie.com/settings/integration/integration-list). +1. Busca Datadog y haz clic en cuadro. +1. Completa el Nombre de la integración y, si lo deseas, configura el Equipo asignado. +1. Después de hacer clic en **Enviar**, permanece en la page (página) y guarda la clave de API de la integración recién creada. La necesitarás para finalizar la configuración. +1. Añade más integraciones de Datadog en Opsgenie yendo a la page (página) [Integraciones de Opsgenie](https://app.opsgenie.com/settings/integration/integration-list) y repitiendo los pasos anteriores. + +#### Registra las integraciones que has realizado en Opsgenie en Datadog + +1. En Datadog, ve a la [page (página) Integraciones](https://app.datadoghq.com/integrations), luego busca y selecciona el ícono Opsgenie. +1. Check que estés en la pestaña Configuración del cuadro de diálogo que aparece. +1. Haz clic en **Nuevo servicio de integración**. +1. Pega la clave de API guardada anteriormente de la integración de Datadog (creada en Opsgenie) en el campo **Clave de API de Opsgenie** e introduce un **Nombre de servicio**. + 1. El nombre del servicio debe ser descriptivo y único. Sólo se permiten valores alfanuméricos, guiones, guiones bajos y puntos. No se admiten espacios. + {{< img src="integrations/opsgenie/datadog-add-opsgenie-api-key.png" alt="Ícono de integración de Opsgenie que muestra la configuración para un nuevo servicio de integración" popup="true">}} +1. En el menú desplegable **Región**, selecciona Estados Unidos o Europa, según dónde opere tu cuenta de Opsgenie. +1. Haz clic en **Save** (Guardar). + +## Ejemplo de uso + +### El monitor de ruta alerta a Opsgenie + +1. Crea cualquier monitor (noun) en la [Page (página) Monitores](https://app.datadoghq.com/monitors/manage). +1. En el cuerpo de monitor (noun), pega `@opsgenie-{service-name}` (sustituye `{service-name}` por el nombre del servicio definido en el ícono de integración de Opsgenie). +1. Guarda el monitor. +1. Ve a la Page (página) Editar del monitor (noun) y haz clic en "Test notificaciones" para emitir una alerta de ejemplo utilizando tu integración. Debería crearse una alerta correspondiente en Opsgenie. +1. Para notificar a varios servicios, pega `@opsgenie-{service-name} @opsgenie-{service-name-2}` en el cuerpo del monitor (noun) y test con los mismos pasos. + +#### Permisos + +En forma predeterminada, todos los usuarios tienen acceso completo a los servicios de Opsgenie. + +Utiliza [Control de acceso granular](https://docs.datadoghq.com/account_management/rbac/granular_access/) para limitar los roles que pueden editar un servicio específico: + +1. Mientras visualizas un servicio, haz clic en el icono de engranaje de la esquina superior derecha para abrir el menú de configuración. +1. Selecciona **Configurar permisos**. +1. Haz clic en **Restrict Access** (Acceso restringido). El cuadro de diálogo se actualiza para mostrar que los miembros de tu organización tienen acceso de **Visor** por defecto. +1. Utiliza el menú desplegable para seleccionar uno o más roles, equipos o usuarios que pueden editar el servicio Opsgenie. +1. Haz clic en **Add** (Añadir). El cuadro de diálogo se actualiza para mostrar que el rol seleccionado tiene el permiso de **Editor**. +1. Haz clic en **Save** (Guardar). + +**Nota:** Para mantener tu acceso de edición al servicio, incluye al menos un rol al que pertenezcas antes de guardar. + +Si tienes acceso de edición, puedes restaurar el acceso general a un servicio restringido siguiendo los siguientes pasos: + +1. Mientras visualizas el servicio, haz clic en el icono de engranaje de la esquina superior derecha para abrir el menú de configuración. +1. Selecciona **Configurar permisos**. +1. Haz clic en **Restore Full Access** (Restablecer acceso completo). +1. Haz clic en **Save** (Guardar). + +Para editar los permisos de servicio a través de la API: + +1. Obtén los ID de servicio de Opsgenie utilizando la [API de integración de Opsgenie](https://docs.datadoghq.com/api/latest/opsgenie-integration/). +1. Utiliza la [API de políticas de restricción](https://docs.datadoghq.com/api/latest/restriction-policies/), donde el tipo es `integration-service` y el ID es `opsgenie:`. + +## Datos recopilados + +### Métricas + +La integración de Opsgenie no incluye ninguna métrica. + +### Eventos + +La integración Opsgenie no incluye ningún evento. + +### Checks de servicio + +La integración de Opsgenie no incluye ningún check de servicio. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/integrations/opsmatic.md b/content/es/integrations/opsmatic.md new file mode 100644 index 0000000000000..4ca11cfe2949b --- /dev/null +++ b/content/es/integrations/opsmatic.md @@ -0,0 +1,48 @@ +--- +app_id: opsmatic +categories: +- notifications +custom_kind: integración +description: Visualiza alertas de Opsmatic y confirma su recepción desde tu flujo + (stream) de eventos Datadog. +title: Opsmatic +--- +## Información general + +Conecta Opsmatic a Datadog para obtener: + +- Conocimiento instantáneo de cualquier cambio crítico +- Visibilidad completa del estado en directo y del historial de todos tus hosts + +## Configuración + +### Instalación + +Para ver eventos de Opsmatic en tu flujo (stream) de Datadog: + +1. Añade tu clave de API de Datadog a tu página de integraciones de Opsmatic . +1. Configura tus notificaciones de Opsmatic para Datadog. + +Consulta los [documentos del sitio web de Opsmatic para obtener más información](https://opsmatic.com/app/docs/datadog-integration). + +### Configuración + +Haz clic en el botón **Install Integration** (Instalar integración) del cuadro de integración de Opsmatic. Para ello es necesario seguir los pasos de configuración de esta integración. + +## Datos recopilados + +### Métricas + +La integración de Opsmatic no incluye ninguna métrica. + +### Eventos + +La integración de Opsmatic no incluye ningún evento. + +### Checks de servicio + +La integración de Opsmatic no incluye ningún check de servicio. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/oracle.md b/content/es/integrations/oracle.md index 6882011947396..7a0f250352d52 100644 --- a/content/es/integrations/oracle.md +++ b/content/es/integrations/oracle.md @@ -1,82 +1,27 @@ --- app_id: oracle -app_uuid: 34835d2b-a812-4aac-8cc2-d298db851b80 -assets: - dashboards: - DBM Oracle Database Overview: assets/dashboards/dbm_oracle_database_overview.json - oracle: assets/dashboards/oracle_overview.json - integration: - auto_install: true - configuration: - spec: assets/configuration/spec.yaml - events: - creates_events: false - metrics: - check: oracle.session_count - metadata_path: metadata.csv - prefix: oracle. - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 10000 - source_type_name: Oracle Database -author: - homepage: https://www.datadoghq.com - name: Datadog - sales_email: info@datadoghq.com - support_email: help@datadoghq.com categories: - data stores - network - oracle -custom_kind: integration -dependencies: -- https://github.com/DataDog/integrations-core/blob/master/oracle/README.md -display_on_public_website: true -draft: false -git_integration_title: oracle -integration_id: oracle -integration_title: Oracle Database +custom_kind: integración +description: Sistema de base de datos relacional Oracle diseñado para la computación + en red de la empresa integration_version: 6.0.0 -is_public: true -manifest_version: 2.0.0 -name: oracle -public_title: Oracle Database -short_description: Sistema de base de datos relacional Oracle diseñado para la computación - enterprise grid +media: [] supported_os: - linux - windows - macos -tile: - changelog: CHANGELOG.md - classifier_tags: - - Category::Data Stores - - Category::Network - - Category::Oracle - - Supported OS::Linux - - Supported OS::Windows - - Supported OS::macOS - - Offering::Integration - configuration: README.md#Setup - description: Sistema de base de datos relacional Oracle diseñado para la computación - enterprise grid - media: [] - overview: README.md#Overview - support: README.md#Support - title: Oracle Database +title: Oracle Database --- - - - - -![Dashboard de Oracle][1] +![Dashboard de Oracle](https://raw.githubusercontent.com/DataDog/integrations-core/master/oracle/images/oracle_dashboard.png) ## Información general La integración de Oracle proporciona métricas del estado y el rendimiento de tu base de datos de Oracle casi en tiempo real. Visualiza estas métricas con el dashboard proporcionado y crea monitores para alertar a tu equipo sobre los estados de base de datos de Oracle. -Activa la [Monitorización de base de datos][2] (DBM) para obtener información mejorada sobre el rendimiento de las consultas y el estado de la base de datos. Además de las funciones estándar de integración, Datadog DBM proporciona métricas a nivel de consulta, snapshots de consultas en tiempo real e históricas, análisis de evento de espera, carga de la base de datos, planes de explicación de consultas e información de consultas de bloqueo. - +Activa [Database Monitoring](https://docs.datadoghq.com/database_monitoring/) (DBM) para obtener información mejorada sobre el rendimiento de las consultas y el estado de las bases de datos. Además de las funciones de la integración estándar, Datadog DBM proporciona métricas a nivel de consulta, snapshots de consultas históricas y actuales, análisis de eventos de espera, carga de bases de datos, explain plans de consultas e información sobre bloqueos de consultas. ## Configuración @@ -84,7 +29,7 @@ Activa la [Monitorización de base de datos][2] (DBM) para obtener información #### Requisito previo -Para utilizar la integración de Oracle, puedes utilizar el cliente nativo (no requiere pasos adicionales de instalación) o Oracle Instant Client. +Para utilizar la integración de Oracle puedes utilizar el cliente nativo (no se requieren pasos adicionales de instalación) o el Oracle Instant Client. ##### Oracle Instant Client @@ -93,53 +38,53 @@ Omite este paso si no utilizas Instant Client. {{< tabs >}} {{% tab "Linux" %}} + ###### Linux -1. Sigue las instrucciones de [Instalación de Oracle Instant Client para Linux][1]. +1. Sigue las instrucciones de [Instalación de Oracle Instant Client para Linux](https://docs.oracle.com/en/database/oracle/oracle-database/19/mxcli/installing-and-removing-oracle-database-client.html). -2. Comprueba que el paquete *Instant Client Basic* está instalado. Encuéntralo en la [página de descargas][2] de Oracle. +1. Comprueba que el paquete *Instant Client Basic* está instalado. Búscalo en la [página de descargas](https://www.oracle.com/ch-de/database/technologies/instant-client/downloads.html). de Oracle. - Una vez instaladas las bibliotecas de Instant Client, asegúrate de que el enlazador de tiempo de ejecución pueda encontrar las bibliotecas, por ejemplo: + Una vez instaladas las bibliotecas de Instant Client, asegúrate de que el enlazador de tiempo de ejecución puede encontrar las bibliotecas, por ejemplo: - ```shell - # Put the library location in the /etc/datadog-agent/environment file. + ```shell + # Put the library location in the /etc/datadog-agent/environment file. - echo "LD_LIBRARY_PATH=/u01/app/oracle/product/instantclient_19" \ - >> /etc/datadog-agent/environment - ``` + echo "LD_LIBRARY_PATH=/u01/app/oracle/product/instantclient_19" \ + >> /etc/datadog-agent/environment + ``` -[1]: https://docs.oracle.com/en/database/oracle/oracle-database/19/mxcli/installing-and-removing-oracle-database-client.html -[2]: https://www.oracle.com/ch-de/database/technologies/instant-client/downloads.html {{% /tab %}} {{% tab "Windows" %}} + ###### Windows -1. Sigue la [Guía de instalación de Oracle Windows][1] para configurar tu Oracle Instant Client. +1. Sigue la [guía de instalación de Oracle Windows](https://www.oracle.com/database/technologies/instant-client/winx64-64-downloads.html#ic_winx64_inst) para configurar tu Oracle Instant Client. -2. Verifica lo siguiente: - - Se ha instalado [Microsoft Visual Studio 2017 Redistributable][2] o la versión adecuada para Oracle Instant Client. +1. Comprueba lo siguiente: - - El paquete *Instant Client Basic* de la [página de descargas][3] de Oracle está instalado y disponible para todos los usuarios de la máquina en cuestión (por ejemplo, `C:\oracle\instantclient_19`). + - Se ha instalado [Microsoft Visual Studio 2017 Redistributable](https://support.microsoft.com/en-us/topic/the-latest-supported-visual-c-downloads-2647da03-1eea-4433-9aff-95f26a218cc0) o la versión adecuada para el Oracle Instant Client. - - La variable de entorno `PATH` contiene el directorio con el Instant Client (por ejemplo, `C:\oracle\instantclient_19`). + - Se ha instalado el paquete *Instant Client Basic* de la [página de descargas](https://www.oracle.com/ch-de/database/technologies/instant-client/downloads.html) de Oracle y está disponible para todos los usuarios de la máquina en cuestión (por ejemplo, `C:\oracle\instantclient_19`). + - La variable de entorno `PATH` contiene el directorio con el Instant Client (por ejemplo, `C:\oracle\instantclient_19`). -[1]: https://www.oracle.com/database/technologies/instant-client/winx64-64-downloads.html#ic_winx64_inst -[2]: https://support.microsoft.com/en-us/topic/the-latest-supported-visual-c-downloads-2647da03-1eea-4433-9aff-95f26a218cc0 -[3]: https://www.oracle.com/ch-de/database/technologies/instant-client/downloads.html {{% /tab %}} + {{< /tabs >}} #### Creación de usuarios de Datadog {{< tabs >}} -{{% tab "Multiinquilino" %}} + +{{% tab "Multi-tenant" %}} + ##### Multiinquilino ###### Crear usuario -Crea un inicio de sesión de solo lectura para conectarte a tu servidor y concede los permisos necesarios: +Crea un inicio de sesión de solo lectura para conectarte a tu servidor y conceder los permisos necesarios: ```SQL CREATE USER c##datadog IDENTIFIED BY &password CONTAINER = ALL ; @@ -200,11 +145,12 @@ grant set container to c##datadog ; {{% /tab %}} {{% tab "Sin CDB" %}} + ##### Sin CDB ###### Crear usuario -Crea un inicio de sesión de solo lectura para conectarte a tu servidor y concede los permisos necesarios: +Crea un inicio de sesión de solo lectura para conectarte a tu servidor y conceder los permisos necesarios: ```SQL CREATE USER datadog IDENTIFIED BY &password ; @@ -255,17 +201,18 @@ grant select on dba_data_files to datadog; {{% /tab %}} {{% tab "RDS" %}} + ##### RDS ###### Crear usuario -Crea un inicio de sesión de solo lectura para conectarte a tu servidor y concede los permisos necesarios: +Crea un inicio de sesión de solo lectura para conectarte a tu servidor y conceder los permisos necesarios: ```SQL CREATE USER datadog IDENTIFIED BY your_password ; ``` -###### Conceder permisos +###### Conceder permisos ```SQL grant create session to datadog ; @@ -309,17 +256,18 @@ exec rdsadmin.rdsadmin_util.grant_sys_object('DBA_DATA_FILES','DATADOG','SELECT' {{% /tab %}} {{% tab "Oracle Autonomous Database" %}} + ##### Oracle Autonomous Database ###### Crear usuario -Crea un inicio de sesión de solo lectura para conectarte a tu servidor y concede los permisos necesarios: +Crea un inicio de sesión de solo lectura para conectarte a tu servidor y conceder los permisos necesarios: ```SQL CREATE USER datadog IDENTIFIED BY your_password ; ``` -###### Conceder permisos +###### Conceder permisos ```SQL grant create session to datadog ; @@ -367,7 +315,7 @@ grant select on dba_data_files to datadog; Para configurar este check para un Agent que se ejecuta en un host: -1. Edita el archivo `oracle.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent][3]. Actualiza `server` y `port` para establecer el nodo maestro a monitorizar. Consulta el [oracle.d/conf.yaml de ejemplo][4] para conocer todas las opciones disponibles de configuración. +1. Edita el archivo `oracle.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory). Actualiza `server` y `port` para configurar los masters que se van a monitorizar. Consulta el [ejemplo oracle.d/conf.yaml](https://github.com/DataDog/datadog-agent/blob/main/cmd/agent/dist/conf.d/oracle.d/conf.yaml.example) para conocer todas las opciones de configuración disponibles. ```yaml init_config: @@ -397,60 +345,62 @@ Para configurar este check para un Agent que se ejecuta en un host: **Nota:** Para las versiones del Agent comprendidas entre `7.50.1` (incluido) y `7.53.0` (excluido), el subdirectorio de configuración es `oracle-dbm.d`. Para todas las demás versiones del Agent, el directorio de configuración es `oracle.d`. -**Nota**: Los clientes de Oracle Real Application Cluster (RAC) deben configurar el Agent para cada nodo RAC, porque el Agent recopila información de cada nodo por separado consultando las vistas `V$`. El Agent no consulta ninguna vista `GV$` para evitar generar tráfico de interconexión. +**Nota**: Los clientes de Oracle Real Application Cluster (RAC) deben configurar el Agent para cada nodo RAC, ya que el Agent recopila información de cada nodo por separado, consultando vistas `V$`. El Agent no consulta ninguna vista `GV$` para evitar generar tráfico de interconexión. -2. [Reinicia el Agent][5]. +2. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). #### Conexión a Oracle a través de TCPS -Para conectarte a Oracle a través de TCPS (TCP con SSL), elimina los comentarios de la opción de configuración `protocol` y selecciona `TCPS`. Actualiza la opción `server` para establecer el servidor TCPS a monitorizar. - - ```yaml - init_config: - - instances: - ## @param server - string - required - ## L dirección IP o el nombre de host del Oracle Database Server. - # - - server: localhost:1522 - - ## @param service_name - string - required - ## El nombre de servicio de Oracle Database. Para ver los servicios disponibles en tu servidor, - ## ejecuta la siguiente consulta: - # - service_name: "" - - ## @param username - string - required - ## El nombre de usuario de la cuenta de usuario. - # - username: - - ## @param password - string - required - ## La contraseña para la cuenta de usuario. - # - password: "" +Para conectarte a Oracle a través de TCPS (TCP con SSL), quita la marca de comentario de la opción de configuración `protocol` y selecciona `TCPS`. Actualiza la opción `server` para configurar el servidor TCPS en el monitor. - ## @param protocol - string - optional - default: TCP - ## El protocolo para conectarte al Oracle Database Server. Los protocolos válids son TCP y TCPS. - ## - # - protocol: TCPS - ``` +```` +```yaml +init_config: + +instances: + ## @param server - string - required + ## The IP address or hostname of the Oracle Database Server. + # + - server: localhost:1522 + + ## @param service_name - string - required + ## The Oracle Database service name. To view the services available on your server, + ## run the following query: + # + service_name: "" + + ## @param username - string - required + ## The username for the user account. + # + username: + + ## @param password - string - required + ## The password for the user account. + # + password: "" + + ## @param protocol - string - optional - default: TCP + ## The protocol to connect to the Oracle Database Server. Valid protocols include TCP and TCPS. + ## + # + protocol: TCPS +``` +```` ### Validación -[Ejecuta el subcomando de estado del Agent][6] y busca `oracle` en la sección Checks. +[Ejecuta el subcomando de estado del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `oracle` en la sección Checks. ### Consulta personalizada También es posible realizar consultas personalizadas. Cada consulta debe tener dos parámetros: -| Parámetro | Descripción | -| --------------- | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | -| `query` | Este es el SQL a ejecutar. Puede ser una sentencia simple o un script de varias líneas. Se evalúan todas las filas del resultado. | -| `columns` | Se trata de una lista que representa cada columna, ordenada secuencialmente de izquierda a derecha. Hay dos datos obligatorios:
a. `type`: es el método de envío (`gauge`, `count`, etc.).
b. name (nombre): es el sufijo utilizado para formar el nombre completo de la métrica. Si `type` es `tag`, esta columna se considera una etiqueta que se aplica a cada métrica recopilada por esta consulta en particular. | +| Parámetro | Descripción | +| --------------- | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |\ +| `query` | Este es el SQL a ejecutar. Puede ser una sentencia simple o un script de varias líneas. Se evalúan todas las filas del resultado. | +| `columns` | Esta es una lista que representa cada columna, ordenada secuencialmente de izquierda a derecha. Hay dos datos obligatorios:
a. `type` - Es el método de envío (`gauge`, `count`, etc.).
b. name - Es el sufijo utilizado para formar el nombre completo de la métrica. Si `type` es `tag`, esta columna se considera en cambio como una etiqueta que se aplica a cada métrica recopilada por esta consulta en particular. | -Opcionalmente, utiliza el parámetro `tags` para aplicar una lista de etiquetas a cada métrica recopilada. +Opcionalmente, utiliza el parámetro `tags` para aplicar una lista de etiquetas (tags) a cada métrica recopilada. Lo siguiente: @@ -462,12 +412,12 @@ self.count('oracle.custom_query.metric2', value, tags=['tester:oracle', 'tag1:va es en lo que se convertiría el siguiente ejemplo de configuración: ```yaml -- query: | # Usa el pipe si necesitas un script de múltiples líneas. +- query: | # Use the pipe if you require a multi-line script. SELECT columns FROM tester.test_table WHERE conditions columns: - # Coloca esto en cualquier columna que deseas omitir: + # Put this for any column you wish to skip: - {} - name: metric1 type: gauge @@ -479,31 +429,67 @@ es en lo que se convertiría el siguiente ejemplo de configuración: - tester:oracle ``` -Consulta el [oracle.d/conf.yaml de ejemplo][4] para ver todas las opciones disponibles de configuración. +Consulta el [ejemplo oracle.d/conf.yaml](https://github.com/DataDog/datadog-agent/blob/main/cmd/agent/dist/conf.d/oracle.d/conf.yaml.example) para conocer todas las opciones de configuración disponibles. ## Datos recopilados ### Métricas -{{< get-metrics-from-git "oracle" >}} +| | | +| --- | --- | +| **oracle.active_sessions**
(gauge) | Número de sesiones activas| +| **oracle.asm_diskgroup.free_mb**
(gauge) | Capacidad no utilizada de un grupo de discos en megabytes, etiquetada por `state` (solo DBM)| +| **oracle.asm_diskgroup.offline_disks**
(gauge) | Número de discos de un grupo de discos ASM que están fuera de línea, etiquetados por `state` (solo DBM)| +| **oracle.asm_diskgroup.total_mb**
(gauge) | Capacidad total utilizable del grupo de discos, etiquetada por `state` (solo DBM)| +| **oracle.buffer_cachehit_ratio**
(gauge) | Ratio de accesos a la caché del buffer
_Se muestra como porcentaje_ | +| **oracle.cache_blocks_corrupt**
(gauge) | Bloques de caché corruptos
_Se muestra como bloque_ | +| **oracle.cache_blocks_lost**
(gauge) | Bloques de caché perdidos
_Se muestra como bloque_ | +| **oracle.cursor_cachehit_ratio**
(gauge) | Ratio de accesos a la caché del cursor
_Se muestra como porcentaje_. | +| **oracle.database_wait_time_ratio**
(gauge) | Ordenaciones de memoria por segundo
_Se muestra como porcentaje_. | +| **oracle.disk_sorts**
(gauge) | Ordenaciones de disco por segundo
_Se muestra como operación_ | +| **oracle.enqueue_timeouts**
(gauge) | Tiempos de espera en cola excedidos por segundo
_Se muestra como tiempo de espera excedido_ | +| **oracle.gc_cr_block_received**
(gauge) | Bloque CR de recolección de basura recibido
_Se muestra como bloque_ | +| **oracle.library_cachehit_ratio**
(gauge) | Ratio de accesos a la caché de la biblioteca
_Se muestra como porcentaje_ | +| **oracle.logons**
(gauge) | Número de intentos de inicio de sesión| +| **oracle.long_table_scans**
(gauge) | Número de análisis extensos de tablas por segundo
_Se muestra como análisis_ | +| **oracle.memory_sorts_ratio**
(gauge) | Ratio de ordenaciones de la memoria
_Se muestra como porcentaje_ | +| **oracle.physical_reads**
(gauge) | Lecturas físicas por segundo
_Se muestra como lectura_ | +| **oracle.physical_writes**
(gauge) | Escrituras físicas por segundo
_Se muestra como escritura_ | +| **oracle.process.pga_allocated_memory**
(gauge) | Memoria PGA asignada por el proceso
_Se muestra como bytes_ | +| **oracle.process.pga_freeable_memory**
(gauge) | Memoria PGA liberable por proceso
_Se muestra como bytes_ | +| **oracle.process.pga_maximum_memory**
(gauge) | Memoria PGA máxima asignada por el proceso
_Se muestra como bytes_ | +| **oracle.process.pga_used_memory**
(gauge) | Memoria PGA utilizada por el proceso
_Se muestra como bytes_ | +| **oracle.rows_per_sort**
(gauge) | Filas por clasificación
_Se muestra como fila_ | +| **oracle.service_response_time**
(gauge) | Tiempo de respuesta del servicio
_Se muestra como segundos_ | +| **oracle.session_count**
(gauge) | Recuento de sesiones| +| **oracle.session_limit_usage**
(gauge) | Uso del límite de sesión
_Se muestra como porcentaje_. | +| **oracle.shared_pool_free**
(gauge) | % de memoria libre del grupo compartido
_Se muestra como porcentaje_ | +| **oracle.sorts_per_user_call**
(gauge) | Clasificación por llamadas de usuario| +| **oracle.tablespace.in_use**
(gauge) | Espacio de tabla en uso
_Se muestra como porcentaje_. | +| **oracle.tablespace.offline**
(gauge) | Espacio de tabla fuera de línea| +| **oracle.tablespace.size**
(gauge) | Tamaño del espacio de tabla
_Se muestra como bytes_ | +| **oracle.tablespace.used**
(gauge) | Espacio de tabla utilizado
_Se muestra como bytes_ | +| **oracle.temp_space_used**
(gauge) | Espacio temporal utilizado
_Se muestra como bytes_ | +| **oracle.user_rollbacks**
(gauge) | Número de reversiones de usuarios
_Se muestra como operación_ | ### Eventos El check de Oracle Database no incluye ningún evento. ### Checks de servicio -{{< get-service-checks-from-git "oracle" >}} +**oracle.can_connect** -## Solucionar problemas +Devuelve OK si la integración puede conectarse a Oracle Database, CRITICAL en caso contrario -¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][7]. +_Estados: ok, crítico_ +**oracle.can_query** + +Devuelve OK si la integración puede ejecutar todas las consultas, CRITICAL en caso contrario + +_Estados: ok, crítico_ + +## Solucionar problemas -[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/oracle/images/oracle_dashboard.png -[2]: https://docs.datadoghq.com/es/database_monitoring/ -[3]: https://docs.datadoghq.com/es/agent/guide/agent-configuration-files/#agent-configuration-directory -[4]: https://github.com/DataDog/datadog-agent/blob/main/cmd/agent/dist/conf.d/oracle.d/conf.yaml.example -[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent -[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information -[7]: https://docs.datadoghq.com/es/help/ \ No newline at end of file +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/oracle_cloud_infrastructure.md b/content/es/integrations/oracle_cloud_infrastructure.md index 3222e81e8cfa8..d83faaaca997a 100644 --- a/content/es/integrations/oracle_cloud_infrastructure.md +++ b/content/es/integrations/oracle_cloud_infrastructure.md @@ -8,11 +8,6 @@ assets: auto_install: false events: creates_events: false - metrics: - check: - - oci.mediastreams.egress_bytes - metadata_path: metadata.csv - prefix: oci. service_checks: metadata_path: assets/service_checks.json source_type_id: 310 @@ -55,33 +50,123 @@ tile: a una serie de aplicaciones en un entorno alojado. media: [] overview: README.md#Overview + resources: + - resource_type: blog + url: https://www.datadoghq.com/blog/monitor-oci-with-datadog/ + - resource_type: blog + url: https://www.datadoghq.com/blog/datadog-oci-quickstart/ support: README.md#Support title: Oracle Cloud Infrastructure --- - -## Información general + +{{% site-region region="gov" %}} +
La integración de Oracle Cloud Infrastructure no es compatible con el Datadog site seleccionado ({{< region-param key="dd_site_name" >}}).
+{{% /site-region %}} -Oracle Cloud Infrastructure (OCI) es una infraestructura como servicio (IaaS) y plataforma como servicio (PaaS) utilizada por empresas. Con un completo conjunto de servicios gestionados para alojamiento, almacenamiento, redes, bases de datos y mucho más. +{{< jqmath-vanilla >}} -Utiliza la integración de OCI de Datadog para reenviar tus logs y métricas a Datadog, donde pueden servir para dashboards, pueden ayudar a solucionar problemas y ser monitorizados para la seguridad y la postura de cumplimiento. +## Visión general + +Oracle Cloud Infrastructure (OCI) es una infraestructura como servicio (IaaS) y plataforma como servicio (PaaS) utilizada por empresas de gran escala. Incluye un conjunto completo de más de 30 servicios gestionados de alojamiento, almacenamiento, redes, bases de datos, etc. + +Utilice la integración OCI de Datadog para obtener una visibilidad completa de su entorno OCI a través de métricas, logy datos de recursos. Estos datos le permiten crear cuadros de mando, le ayudan a solucionar problemas y pueden supervisarse para garantizar la seguridad y el cumplimiento de las normativas. ## Configuración ### Recopilación de métricas -Para enviar tus métricas de OCI a Datadog: +{{< tabs >}} + +{{% tab "OCI QuickStart (Preview; recommended)" %}} + +
+OCI QuickStart está en Vista previa. Utilice este formulario para enviar su solicitud hoy mismo. +
+ +OCI QuickStart de Datadog es una experiencia de configuración totalmente gestionada y de flujo único que te ayuda a monitorizar tu infraestructura y aplicaciones OCI en tan sólo unos clics. OCI QuickStart crea la infraestructura necesaria para reenviar métricas, logs y datos de recursos a Datadog y descubre automáticamente nuevos recursos o compartimentos OCI para la recopilación de datos. + +**Nota**: En forma predeterminada sólo se envían métricas. Habilita la recopilación de logs y de datos de recursos desde el [ícono de integración de OCI de Datadog][1] después de completar esta configuración. + +Para configurar la infraestructura de reenvío de métricas y logs a Datadog: + - [Configura el ícono de integración OCI de Datadog](#datadog-oci-integration-tile) + - [Despliega el stack tecnológico QuickStart](#orm-stack) + - [Completa la configuración en Datadog](#complete-the-setup-in-datadog) + - [Valida las métricas que fluyen](#validation) + - [Configura la recopilación de métricas (opcional)](#configuration) + - [Configura la recopilación de logs (opcional)](#log-collection) + +La integración requiere el uso de Oracle Service Connector Hubs para reenviar datos a Datadog. Se recomienda [solicitar un aumento del límite del servicio][2] antes de completar la configuración. El número aproximado de Service Connector Hubs que necesitas es: + +$$\\text"Service Connector Hubs" = \text"Número de compartimentos en tenencia" / \text"5"\$$ + +{{% collapse-content title="Requisitos previos para esta configuración" level="h4" %}} +- Tu cuenta de usuario OCI necesita el rol de **Administrador de la nube** para completar estos pasos +- Debes iniciar sesión en OCI en la tenencia con la que deseas integrarte +- Debes iniciar sesión en OCI con la Región de origen seleccionada en la parte superior derecha de la pantalla +- Tu cuenta de usuario OCI debe estar en el Dominio de identidad predeterminado +- Tu cuenta de usuario de OCI debe poder crear un usuario, un grupo de usuarios y un grupo dinámico en el dominio de identidad predeterminado. +- Tu cuenta de usuario OCI debe poder crear políticas en el compartimento raíz +{{% /collapse-content %}} + +{{% collapse-content title="Regiones admitidas" level="h4" %}} +- us-ashburn-1 +- ap-tokyo-1 +- sa-saopaulo-1 +- us-phoenix-1 +- eu-frankfurt-1 +- eu-stockholm-1 +- ap-singapur-1 +- us-sanjose-1 +- ca-toronto-1 +- sa-santiago-1 +- uk-london-1 +- eu-madrid-1 +- me-jeddah-1 +- us-chicago-1 + +Ponte en contacto a través de este formulario para solicitar regiones adicionales. + +{{% /collapse-content %}} + +#### Ícono de integración de OCI de Datadog + +1. Ve al [ícono de integración de OCI de Datadog][1] y haz clic en **Añadir nueva tenencia**. +2. Selecciona o crea una clave de la API Datadog para utilizarla para la integración. +3. Crea una clave de la aplicación Datadog. +4. Haz clic en **Crear stack tecnológico de OCI**. Esto te llevará a un stack tecnológico de Oracle Resource Manager (ORM) para finalizar el despliegue.
+ **Nota**: Despliega este stack tecnológico sólo una vez por tenencia. + +#### Stack tecnológico de ORM + +1. Acepta las Condiciones de uso de Oracle. +2. Deja sin marcar la opción de utilizar proveedores personalizados de Terraform. +3. Utiliza el directorio de trabajo predeterminado para desplegar el stack tecnológico u opcionalmente elige uno diferente. +4. Haz clic en **Siguiente** y **Siguiente** de nuevo.
+5. Haz clic en **Crear** y espera hasta 15 minutos a que se complete el despliegue. + +[1]: https://app.datadoghq.com/integrations/oracle-cloud-infrastructure +[2]: https://docs.oracle.com/iaas/Content/General/Concepts/servicelimits.htm#Requesti +{{% /tab %}} + +{{% tab "Manual setup" %}} + +Para reenviar tus métricas de OCI a Datadog: - [Ingresa la información de la tenencia](#enter-tenancy-info). - - [Crea un stack tecnológico de políticas de OCI](#create-oci-policy-stack) en la región de origen de tu tenencia para crear un usuario de autenticación, un grupo y políticas de Datadog. - - [Ingresa la información del DatadogAuthUser](#enter-datadogauthuser-info) en Datadog. - - [Crea un stack tecnológico de reenvío de métricas de OCI](#create-oci-metric-forwarding-stack) para cada región de la tenencia desde la que quieras reenviar métricas. + - [Despliega el stack tecnológico de políticas OCI (#create-oci-policy-stack) en la región de origen de tu tenencia para crear un usuario, grupo y políticas de sólo lectura en Datadog. + - [Introduce DatadogROAuthUser info](#enter-datadogroauthuser-info) en Datadog + - [Despliega un stack tecnológico de reenvío de métricas OCI (#create-oci-metric-forwarding-stack) para cada región de tenencia desde la que desees reenviar métricas. + - [Completa la configuración en Datadog](#complete-the-setup-in-datadog) + - [Valida las métricas que fluyen](#validation) + - [Configura la recopilación de métricas (opcional)](#configuration) + - [Configura la recopilación de logs (opcional)](#log-collection) Para ver una representación visual de esta arquitectura, consulta la sección [Arquitectura](#architecture). #### Ingresar la información de la tenencia {{% collapse-content title="Requisitos para esta sección" level="h5" %}} -- Tu cuenta de usuario de OCI necesita el rol **Cloud Administrator** (Administrador de la nube) para completar estos pasos. +- Tu cuenta de usuario OCI necesita el rol de **Administrador de la nube** para completar estos pasos - OCID de la tenencia - Región de origen {{% /collapse-content %}} @@ -93,61 +178,61 @@ Ingresa el OCID y la región de origen de la tenencia que deseas monitorizar en #### Crear un stack tecnológico de políticas de OCI {{% collapse-content title="Requisitos para esta sección" level="h5" %}} -- Tu cuenta de usuario debe poder [crear políticas y grupos dinámicos][4] en el dominio predeterminado. -- Debes estar en la región de origen de la tenencia. +- Tu cuenta de usuario OCI debe poder [crear grupos y políticas dinámicas][4] en el dominio predeterminado +- Debes estar en la región de origen de la tenencia {{% /collapse-content %}} -
Asegúrate de que la región de origen de la tenencia esté seleccionada en la parte superior derecha de la pantalla.
+
Asegúrate de que la región de origen de la tenencia esté seleccionada en la parte superior derecha de la pantalla.
-Este stack tecnológico de políticas solo debe desplegarse una vez por tenencia. +Este stack tecnológico de políticas de Oracle Resource Manager (ORM) sólo debe desplegarse una vez por tenencia. 1. Haz clic en el botón **Create Policy Stack** (Crear un stack tecnológico de políticas) en el cuadro de integración de Datadog y OCI. 2. Acepta las Condiciones de uso de Oracle. -3. Deja la opción de utilizar proveedores de Terraform personalizados **desmarcada**. +3. Deja la opción de utilizar proveedores de Terraform personalizados **sin marcar**. 4. Utiliza el nombre y el compartimento predeterminados para el stack tecnológico. De manera opcional, indica tu propio nombre descriptivo o compartimento. -5. Haz clic en **Next** (Siguiente). -6. Asigna un nombre al grupo dinámico, el grupo de usuarios y a la política que se van a crear, o usa los nombres predeterminados proporcionados. -7. Haz clic en **Next** (Siguiente). +5. Haz clic en **Siguiente**. +6. Deja el campo de tenencia y el campo de usuario actual como están. +7. Haz clic en **Siguiente**. 8. Haz clic en **Create** (Crear). -#### Ingresar la información del DatadogAuthUser +#### Introduce DatadogROAuthUser info {{% collapse-content title="Requisitos para esta sección" level="h5" %}} -- OCID del `DatadogAuthUser` +- OCID del `DatadogROAuthUser` - Clave de la API de OCI y valor de la huella digital {{% /collapse-content %}} -1. En la barra de búsqueda de la consola de OCI, busca `DatadogAuthUser` y haz clic en el recurso de usuario que aparece. +1. En la barra de búsqueda de la consola OCI, busca `DatadogROAuthUser` y haz clic en el recurso de Usuario que aparece. 2. Copia el valor del OCID del usuario. 3. Pega el valor en el campo **User OCID** (OCID del usuario) del [cuadro de integración de Datadog y OCI][1]. -4. Vuelve a la consola de OCI y genera una clave de API con estos pasos: - a. En la esquina inferior izquierda de la pantalla, en **Resources** (Recursos), haz clic en **API keys** (Claves de API). - b. Haz clic en **Add API key** (Añadir clave de API). - c. Haz clic en **Download private key** (Descargar clave privada). - d. Haz clic en **Add** (Añadir). +4. Al volver a la consola OCI, genera una clave de API con estos pasos:
+ a. En la esquina inferior izquierda de la pantalla, en **Recursos**, haz clic en **Claves de API**.
+ b. Haz clic en **Añadir clave de API**.
+ c. Haz clic en **Descargar clave privada**.
+ d. Haz clic en **Añadir**.
e. Aparece una ventana emergente **Configuration file preview** (Vista previa del archivo de configuración), pero no es necesario realizar ninguna acción; cierra la ventana emergente. -![La página Add API Key (Añadir clave de API) en la consola de OCI][5] +![La página Añadir clave de API en la consola de OCI][5] -5. Copia el valor de la huella digital y pégalo en el campo **Fingerprint** (Huella digital) del [cuadro de integración de Datadog y OCI][1]. +5. Copia el valor de la huella digital y pégalo en el campo **Huella digital** del [cuadro de integración de Datadog y OCI][1]. 6. Copia el valor de la clave privada con estos pasos: a. Abre el archivo de clave privada `.pem` descargado en un editor de texto, o utiliza un comando de terminal como `cat` para mostrar el contenido del archivo. b. Copia todo el contenido, incluidos `-----BEGIN PRIVATE KEY-----` y `-----END PRIVATE KEY-----`. 7. Pega el valor de la clave privada en el campo **Private Key** (Clave privada) del cuadro de integración de Datadog y OCI. -#### Crear un stack tecnológico de reenvío de métricas de OCI +#### Crea un stack tecnológico de reenvío de métricas de OCI {{% collapse-content title="Requisitos para esta sección" level="h5" %}} -- Tu cuenta de usuario debe poder crear recursos en el compartimento. +- Tu cuenta de usuario OCI debe poder crear recursos en el compartimento - Valor de la [clave de API de Datadog][6]. -- Nombre de usuario y token de autenticación para un usuario con los permisos `REPOSITORY_READ` y `REPOSITORY_UPDATE`, de modo que se puedan extraer y enviar imágenes a un repositorio de Docker. +- Nombre de usuario y token de autenticación para un usuario con los permisos `REPOSITORY_READ` y `REPOSITORY_UPDATE` para extraer e insertar imágenes en un repositorio Docker - Consulta [Cómo obtener un token de autenticación][7] para saber cómo crear un token de autenticación. - - Consulta [Políticas para controlar el acceso a repositorios][8] para obtener más información sobre las políticas requeridas. + - Consulta [Políticas para controlar el acceso a repositorios][8] para obtener más información sobre las políticas necesarias -**Nota**: Para comprobar que el inicio de sesión en el registro de Docker es el correcto, consulta [Inicio de sesión en el registro de Oracle Cloud Infrastructure][9]. +**Nota**: Para comprobar que el inicio de sesión en el registro de Docker sea el correcto, consulta [Inicio de sesión en el registro de Oracle Cloud Infrastructure][9]. {{% /collapse-content %}} -El stack tecnológico de reenvío métricas debe desplegarse para **cada combinación de tenencia y región** que se va a monitorizar. Para la configuración más sencilla, Datadog recomienda crear todos los recursos de OCI necesarios con el stack tecnológico de ORM que se facilita a continuación. Como alternativa, puedes usar tu infraestructura de redes de OCI existente. +El stack tecnológico de reenvío de métricas debe desplegarse para **cada combinación de tenencia y región** que se debe monitorizar. Para la configuración más sencilla, Datadog recomienda crear todos los recursos OCI necesarios con el stack tecnológico de Oracle Resource Manager (ORM) que se proporciona a continuación. Como alternativa, puedes utilizar tu infraestructura de red OCI existente. Todos los recursos creados a partir del stack tecnológico de ORM de Datadog se despliegan en el compartimento especificado y para la región seleccionada actualmente en la parte superior derecha de la pantalla. @@ -155,119 +240,132 @@ Todos los recursos creados a partir del stack tecnológico de ORM de Datadog se 2. Acepta las Condiciones de uso de Oracle. 3. Deja sin marcar la opción **Custom providers** (Proveedores personalizados). 4. Asigna un nombre al stack tecnológico y selecciona el compartimento en el que se desplegará. -5. Haz clic en **Next** (Siguiente). +5. Haz clic en **Siguiente**. 6. En el campo **Datadog API Key** (Clave de API de Datadog), ingresa el valor de tu [clave de API de Datadog][6]. +7. En la sección **Network options** (Opciones de red), deja marcada la opción `Create VCN`. +{{% collapse-content title="(Opcional) Utilizar el VCN existente en su lugar" level="h4" %}} +Si utilizas una Red de Nube Virtual (VCN) existente, debes proporcionar el OCID de la subred al stack tecnológico. Asegúrate de que la VCN: + - Tenga permiso para realizar llamadas de salida HTTP a través de la puerta de NAT + - Sea capaz de extraer imágenes del registro de contenedores OCI mediante la puerta de servicios. + - Tenga las reglas de tabla de rutas para permitir la puerta de NAT y la puerta de servicio + - Tenga las reglas de seguridad para enviar solicitudes HTTP + +7. En la sección **Opciones de red**, deja sin marcar la opción `Create VCN` e introduce la información de tu VCN:
+ a. En el campo **Compartimento de VCN**, selecciona tu compartimento.
+ b. En la sección **VCN existente**, selecciona tu VCN existente.
+ c. En la sección **Function Subnet OCID** (OCID de subred de función), introduce el OCID de la subred que se va a utilizar. +{{% /collapse-content %}} -{{< tabs >}} -{{% tab "Creaf VCN con ORM (recomendado)" %}} -8. En la sección **Network options** (Opciones de red), deja marcada la opción `Create VCN`. -{{% /tab %}} -{{% tab "Usar una VCN existente" %}} -Si utilizas una VCN existente, debes indicar el OCID de la subred en el stack tecnológico. Asegúrate de que la VCN cumpla los siguientes requisitos: - - Se le permite hacer llamadas de salida HTTP a través de la gateway NAT. - - Puede extraer imágenes del registro de contenedores de OCI mediante la gateway de servicio. - - Tiene las reglas de la tabla de enrutamiento para permitir la gateway NAT y la gateway de servicio. - - Tiene las reglas de seguridad para enviar solicitudes HTTP. - -8. En la sección **Network options** (Opciones de red), desmarca la opción `Create VCN` e ingresa la información de tu VCN: - a. En el campo **vcnCompartment**, selecciona tu compartimento. - b. En la sección **existingVcn**, selecciona tu VCN existente. - c. En la sección **Function Subnet OCID** (OCID de subred de función), ingresa el OCID de la subred que se va a utilizar. +8. De manera opcional, en la sección **Metrics settings** (Parámetros de las métricas), elimina cualquier espacio de nombres de métrica de la recopilación. +9. En la sección **Metrics compartments** (Compartimentos de las métricas), ingresa una lista separada por comas de los OCID de compartimentos que se van a monitorizar. Los filtros de espacio de nombres de métrica seleccionados en el paso anterior se aplican a cada compartimento. +10. En la sección **Configuración de funciones**, selecciona `GENERIC_ARM`. Selecciona `GENERIC_X86` si realizas el despliegue en una región de Japón. +11. Haz clic en **Siguiente**. +12. Haz clic en **Create** (Crear). +13. Vuelve a la página del [cuadro de integración de Datadog y OCI][1] y haz clic en **Create configuration** (Crear configuración). + +**Notas**: +- En forma predeterminada, sólo se selecciona el compartimento raíz y se activan todos los espacios de nombres de métricas del Paso 8 presentes en el compartimento (se admiten hasta 50 espacios de nombres por concentrador de conectores). Si eliges monitorizar compartimentos adicionales, los espacios de nombres añadidos a ellos son una intersección de los espacios de nombres seleccionados y los espacios de nombres presentes en el compartimento. +- Debes gestionar quién tiene acceso a los archivos de estado de Terraform de los stacks tecnológicos del gestor de recursos. Consulta la [sección Archivos de estado de Terraform][10] de la página Obtener el gestor de recursos para obtener más información. + +[1]: https://app.datadoghq.com/integrations/oracle-cloud-infrastructure +[2]: https://cloud.oracle.com/tenancy +[3]: https://docs.oracle.com/iaas/Content/General/Concepts/regions.htm +[4]: https://docs.oracle.com/en/cloud/paas/weblogic-container/user/create-dynamic-groups-and-policies.html +[5]: images/add_api_key.png +[6]: https://app.datadoghq.com/organization-settings/api-keys +[7]: https://docs.oracle.com/iaas/Content/Registry/Tasks/registrygettingauthtoken.htm +[8]: https://docs.oracle.com/iaas/Content/Registry/Concepts/registrypolicyrepoaccess.htm#Policies_to_Control_Repository_Access +[9]: https://docs.oracle.com/iaas/Content/Functions/Tasks/functionslogintoocir.htm +[10]: https://docs.oracle.com/iaas/Content/Security/Reference/resourcemanager_security.htm#confidentiality__terraform-state {{% /tab %}} + {{< /tabs >}} -9. De manera opcional, en la sección **Metrics settings** (Parámetros de las métricas), elimina cualquier espacio de nombres de métrica de la colección. -10. En la sección **Metrics compartments** (Compartimentos de las métricas), ingresa una lista separada por comas de los OCID de compartimentos que se van a monitorizar. Los filtros de espacio de nombres de métrica seleccionados en el paso anterior se aplican a cada compartimento. -11. En la sección **Function settings** (Parámetros de la función), indica un nombre de usuario de registro de OCI Docker y un token de autenticación en sus campos respectivos. Consulta [Cómo obtener un token de autenticación][7] para obtener más información. -12. Haz clic en **Next** (Siguiente). -13. Haz clic en **Create** (Crear). -14. Vuelve a la página del [cuadro de integración de Datadog y OCI][1] y haz clic en **Create configuration** (Crear configuración). +#### Completar la configuración en Datadog -**Notas**: -- De forma predeterminada, solo se selecciona el compartimento raíz y se activan todos los espacios de nombres de métrica compatibles con la integración de Datadog y OCI (se admiten hasta 50 espacios de nombres por hub de conectores). Si eliges monitorizar compartimentos adicionales, se aplica cualquier filtro de exclusión de espacio de nombres de métrica a cada compartimento. -- Debes gestionar quién tiene acceso a los archivos de estado de Terraform de los stacks tecnológicos del gestor de recursos. Consulta la sección [Archivos de estado de Terraform][10] de la página Seguridad del gestor de recursos para obtener más información. +Vuelve al [ícono de integración de OCI de Datadog][1] y haz clic en **¡Listo!**. #### Validación -Consulta las métricas de `oci.*` en el [dashboard de información general de la integración de OCI][11] o en la [página del explorador de métricas][12] en Datadog. +Consulta las métricas de `oci.*` en el [dashboard de información general de integración de OCI][2] o la [página Metrics Explorer][3] en Datadog. -
Las métricas de la función de OCI (espacio de nombres oci.faas) y las métricas de la instancia del contenedor (espacio de nombres oci_computecontainerinstance) se encuentran en versión preliminar.
+
Las métricas de la función de OCI (espacio de nombres oci.faas) y las métricas de la instancia del contenedor (espacio de nombres oci_computecontainerinstance) se encuentran en versión preliminar.
#### Configuración -##### Añadir regiones +![La pestaña de configuración de una tenencia de OCI en Datadog][4]! -Para monitorizar una región adicional en una tenencia, navega hasta esa tenencia en el cuadro de integración de OCI. - 1. En la sección **Configure an Additional Region** (Configurar una región adicional), haz clic en **Create Metric Stack** (Crear un stack tecnológico de métricas). - 2. Cambia a la región que deseas monitorizar en la parte superior derecha de la pantalla. - 3. Completa los pasos de [Crear un stack tecnológico de reenvío de métricas de OCI](#create-oci-metric-forwarding-stack) en la región nueva. +Una vez completada la configuración, aparecerá una pestaña de configuración para la tenencia en la parte izquierda del [ícono de integración de OCI de Datadog][1]. Aplica las configuraciones de recopilación de datos de toda la tenencia como se indica en las secciones siguientes. -##### Añadir compartimentos o espacios de nombres de métrica +##### Añadir regiones -Para añadir compartimentos o editar la lista de los espacios de nombres de métrica activados, haz clic en **Edit** (Editar) en el [hub de conectores][13] recién creado. - - Haz clic en **+ Another compartment** (+ otro compartimento) para añadir compartimentos. - - En la sección **Configure source** (Configurar origen), añade o elimina espacios de nombres del menú desplegable **Namespaces** (Espacios de nombres). +En la pestaña **General**, selecciona las regiones para la recopilación de datos en la lista de casillas de verificación **Regiones**. Las selecciones de regiones se aplican a toda la tenencia, tanto para las métricas como para logs. -#### Arquitectura +**Nota**: Si has utilizado el método de configuración QuickStart y después te has suscrito a una nueva región OCI, vuelve a aplicar el stack tecnológico de configuración inicial en ORM. La nueva región estará entonces disponible en el ícono de OCI de Datadog. -##### Recursos de reenvío de métricas +##### Recopilación de métricas y logs -![Un diagrama de los recursos de OCI mencionados en esta página, en el que se muestra el flujo de datos][14] +Utiliza las pestañas **Recopilación de métricas** y **Recopilación de logs** para configurar qué métricas y logs se envían a Datadog: -Esta integración crea un [hub de conectores][15] de OCI, una [aplicación de función][16] y una infraestructura de redes segura para reenviar métricas de OCI a Datadog. El stack tecnológico de ORM de estos recursos crea un repositorio de contenedores de la función para la región en la tenencia, y la imagen de Docker se envía a él para que la función la utilice. +- **Activar** o **desactivar** la recopilación de métricas o logs para toda la tenencia. +- **Incluir** o **excluir** compartimentos específicos basándose en las etiquetas (tags) de compartimentos del formato `key:value`. Por ejemplo: + - `datadog:monitored,env:prod*` incluye compartimentos si **alguna** de estas etiquetas (tags) está presente + - `!env:staging,!testing` excluye los compartimentos sólo si **ambas** etiquetas (tags) están presentes + - `datadog:monitored,!region:us-phoenix-1` incluye los compartimentos que tienen la etiqueta (tag) `datadog:monitored` y los que no tienen la etiqueta (tag) `region:us-phoenix-1` +- **Activar** o **desactivar** la recopilación para servicios OCI específicos. -##### Recursos de IAM +**Notas**: +- Tras modificar las etiquetas (tags) en OCI, los cambios pueden tardar hasta 15 minutos en aparecer en Datadog +- En OCI, las etiquetas (tags) no son heredadas por los compartimentos secundarios; cada compartimento se debe etiquetar individualmente. -![Un diagrama de los recursos y el flujo de trabajo de OCI utilizados para la autenticación de la integración][17] +{{% collapse-content title="Consulta la lista completa de espacios de nombres de métricas" level="h4" %}} +### Espacios de nombre de métricas -Esta integración crea lo siguiente: +| Integración | Espacio de nombres de métricas | +|-------------------------------------| ---------------------------------------------------------------------------------------------------------------------------------------- | +| [Puerta de API][5] | [oci_apigateway][6] | +| [Base de datos autónoma][7] | [base de datos_autónoma_oci][8] | +| [Almacenamiento en bloque][9] | [oci_blockstore][10] | +| [Cómputo][11] | [oci_computeagent][12], [rdma_infraestructura_estado][13], [gpu_infraestructura_estado][14], [oci_cómputo_infraestructura_estado][15] | +| [Instancias de contenedor (vista previa)][16] | [oci_computecontainerinstance][17] | +| [Base de datos][18] | [oci_base de datos][19], [oci_base de datos_clúster][20] | +| Puerta de enrutamiento dinámico | [oci_puerta_enrutamiento_dinámico][21] | +| [E-Business Suite (EBS)][22] | [oracle_appmgmt][23] | +| [FastConnect][24] | [oci_fastconnect][25] | +| [Almacenamiento de archivos][26] | [oci_filestorage][27] | +| [Funciones (Vista previa)][28] | [oci_faas][29] | +| [GPU][30] | [gpu_infraestructura_estado][14] | +| [HeatWave MySQL][31] | [oci_mysql_base de datos][32] | +| [Motor de Kubernetes][33] | [oci_oke][34] | +| [Equilibrador de carga][35] | [oci_lbaas][36], [oci_nlb][37] | +| [Flujos de comunicación][38] | [oci_mediastreams][39] | +| [Puerta NAT][40] | [oci_nat_gateway][41] | +| [Cortafuegos de red][42] | [oci_red_cortafuegos][43] | +| [Almacenamiento de objetos][44] | [oci_objectstorage][45] | +| [PostgreSQL][46] | [oci_postgresql][47] | +| [Cola] [48] | [oci_cola][49] | +| [Service Connector Hub][50] | [oci_service_connector_hub][51] | +| [Puerta de servicios][52] | [oci_puerta_servicios][53] | +| [VCN][54] | [oci_vcn][55] | +| [VPN][56] | [oci_vpn][57] | +| [Web Application Firewall][58] | [oci_waf][59] +{{% /collapse-content %}} - * Un grupo dinámico con `resource.type = 'serviceconnectors'`, para permitir el acceso al hub de conectores. - * Un usuario llamado **DatadogAuthUser**, que Datadog usa para leer recursos de tenencia. - * Un grupo al que se añade el usuario creado para acceder a la política. - * Una política en el compartimento raíz para permitir que los hubs de conectores lean métricas e invoquen funciones. Además, otorga al grupo de usuarios creado acceso de lectura a los recursos de la tenencia. Se añaden las siguientes instrucciones a la política: +### Recopilación de logs -```text -Allow dynamic-group to read metrics in tenancy -Allow dynamic-group to use fn-function in tenancy -Allow dynamic-group to use fn-invocation in tenancy -Allow dynamic-group Default/ to read metrics in tenancy -Allow dynamic-group Default/ to use fn-function in tenancy -Allow dynamic-group Default/ to use fn-invocation in tenancy -Allow group Default/ to read all-resources in tenancy -``` +Utiliza uno de los siguientes métodos para enviar tus logs de OCI a Datadog: -### Espacios de nombre de métrica +{{< tabs >}} -| Integración | Espacio de nombre de métrica | -|-------------------------------------| ---------------------------------------------------------------------------------------------------------------------------------------- | -| [Base de datos autónoma][18] | [oci_autonomous_database][19] | -| Block Storage | [oci_blockstore][20] | -| [Computación][21] | [oci_computeagent][22], [rdma_infrastructure_health][23], [gpu_infrastructure_health][24], [oci_compute_infrastructure_health][25] | -| [Instancias de contenedor (versión preliminar)][26] | [oci_computecontainerinstance][27] | -| [Base de datos][28] | [oci_database][29], [oci_database_cluster][30] | -| Gateway de enrutamiento dinámico | [oci_dynamic_routing_gateway][31] | -| FastConnect | [oci_fastconnect][32] | -| File Storage | [oci_filestorage][33] | -| [Funciones (versión preliminar)][34] | [oci_faas][35] | -| [HeatWave MySQL][36] | [oci_mysql_database][37] | -| Motor de Kubernetes | [oci_oke][38] | -| [Equilibrador de carga][39] | [oci_lbaas][40], [oci_nlb][41] | -| [Gateway NAT][42] | [oci_nat_gateway][43] | -| Object Storage | [oci_objectstorage][44] | -| Cola | [oci_queue][45] | -| Hub de conectores de servicio | [oci_service_connector_hub][46] | -| Gateway de servicio | [oci_service_gateway][47] | -| [VCN][48] | [oci_vcn][49] | -| [VPN][50] | [oci_vpn][51] | -| Firewall de aplicaciones web | [oci_waf][52] | +{{% tab "OCI QuickStart (Preview; recommended)" %}} -### Recopilación de logs +1. Sigue los pasos de la [sección de configuración](#setup) para crear la infraestructura necesaria para reenviar las métricas y los logs a Datadog. +2. Haz clic en el conmutador **Habilitar Recopilación de logs** en la pestaña **Recopilación de logs** del [ícono de integración de OCI de Datadog][1]. -Envía logs desde tu infraestructura en la nube de Oracle a Datadog siguiendo alguno de estos procesos: +[1]: https://app.datadoghq.com/integrations/oracle-cloud-infrastructure +{{% /tab %}} -{{< tabs >}} -{{% tab "Hub de conectores de servicio" %}} +{{% tab "Service Connector Hub" %}} 1. Configura un log de OCI. 2. Crea una función de OCI. @@ -277,34 +375,34 @@ Las siguientes instrucciones utilizan el portal de OCI para configurar la integr #### Registro de OCI -1. En el portal de OCI, navega hasta *Logging -> Log Groups* (Registro > Grupos de logs). -2. Selecciona tu compartimento y haz clic en **Create Log Group**. Se abre un panel lateral. +1. En el portal de OCI, ve a *Logging -> Log Groups* (Registro > Grupos de logs). +2. Selecciona tu compartimento y haz clic en **Crear un grupo de logs**. Se abre un panel lateral. 3. Introduce `data_log_group` para el nombre y, opcionalmente, proporciona una descripción y etiquetas (tags). 4. Haz clic en **Create** (Crear) para configurar tu nuevo grupo de logs. 5. En **Resources** (Recursos), haz clic en **Logs**. 6. Haz clic en **Create custom log** (Crear log personalizado) o **Enable service log** (Habilitar log de servicio) según lo desees. 7. Haz clic en **Enable Log** (Habilitar log), para crear tu nuevo log de OCI. -Para más información sobre logs de OCI, consulta [Activación del registro para un recurso][1]. +Para obtener más información sobre logs de OCI, consulta [Activación del registro para un recurso][1]. #### Función de OCI 1. En el portal de OCI, ve a *Functions** (Funciones). 2. Selecciona una aplicación existente o haz clic en **Create Application** (Crear aplicación). 3. Crea una nueva función de OCI dentro de tu aplicación. Consulta [Información general de funciones de Oracle][2] para obtener más detalles. -4. Es recomendado para crear una función boilerplate de Python primero y reemplazar los archivos autogenerados con el código fuente de Datadog: - - Sustituye `func.py` por código del [repositorio de Datadog OCI][3]. - - Sustituye `func.yaml` por el código del [repositorio de Datadog OCI][4]. `DATADOG_TOKEN` y `DATADOG_HOST` deben sustituirse por tu clave de API de Datadog y el enlace de entrada de logs de la región. - - Sustituye `requirements.txt` por código del [repositorio de Datadog OCI][5]. +4. Se recomienda crear primero una función boilerplate en Python y sustituir los archivos generados automáticamente por el código fuente de Datadog: + - Sustituye `func.py` por el código del [repositorio de OCI de Datadog][3] + - Sustituye `func.yaml` por el código del [repositorio de OCI de Datadog][4]. `DATADOG_TOKEN` y `DATADOG_HOST` deben sustituirse por tu clave API Datadog y el enlace de admisión de logs de la región + - Sustituye `requirements.txt` por el código del [repositorio de OCI de Datadog][5] #### Hub de conectores de servicio de OCI -1. En el portal de OCI, navega hasta *Logging -> Service Connectors* (Registro > Conectores de servicio). +1. En el portal de OCI, ve a *Logging -> Service Connectors* (Registro > Conectores de servicio). 2. Haz clic en **Create Service Connector** (Crear conector de servicio) para ser redireccionado a la página **Create Service Connector** (Crear conector de servicio). 3. Selecciona **Source** (Origen) como Logging (Registro) y **Target** (Destino) como Functions (Funciones). 4. En **Configure Source Connection** (Configurar conexión de origen) selecciona **Compartment name** (Nombre de compartimento), **Log Group** (Grupo de logs) y **Log**. (El **Log Group** (Grupo de logs) y **Log** creados en el primer paso). -5. Si también deseas enviar **Audit Logs** (Logs de auditoría), haz clic en **+Another Log** (+ otro log) y selecciona el mismo **Compartment** (Compartimento) y reemplaza "_Audit" (_Auditoría) como tu **Log Group** (Grupo de logs). -6. En **Configure target** (Configurar destino) selecciona **Compartment** (Compartimento), **Function application** (Aplicación de función) y **Function** (Función). (La **Function Application** (Aplicación de función) y **Function** (Función) creadas en el paso anterior. +5. Si también deseas enviar **Audit Logs** (Logs de auditoría), haz clic en **+Another Log** (+ otro log) y selecciona el mismo **Compartment** (Compartimento) y sustituye "_Auditoría" como tu **Log Group** (Grupo de logs). +6. En **Configure target** (Configurar destino) selecciona **Compartment** (Compartimento), **Function application** (Aplicación de función) y **Function** (Función). (La **Function Application** (Aplicación de función) y la **Function** (Función) creadas en el paso anterior.) 7. Si se te pide que crees una política, haz clic en **Create** (Crear) en la pantalla. 8. Haz clic en **Create** (Crear) en la parte inferior para terminar de crear tu conector de servicio. @@ -317,7 +415,8 @@ Para obtener más información sobre OCI Object Storage, consulta [la entrada de [5]: https://github.com/DataDog/Oracle_Logs_Integration/blob/master/Service%20Connector%20%20Hub/requirements.txt [6]: https://blogs.oracle.com/cloud-infrastructure/oracle-cloud-infrastructure-service-connector-hub-now-generally-available {{% /tab %}} -{{% tab "Almacén de objectos" %}} + +{{% tab "Object store" %}} 1. Configura un log de OCI. 2. Crea un almacén de objetos de OCI y habilita el acceso de lectura/escritura para logs de OCI. @@ -339,41 +438,41 @@ Las siguientes instrucciones utilizan el portal de OCI para configurar la integr 9. Establece el tipo de entrada en **Log Path** (Ruta de log), introduce el nombre de entrada que prefieras y utiliza "/" para las rutas de los archivos. 10. Haz clic en **Create Custom Log** (Crear log personalizado), entonces tu log de OCI se creará y estará disponible en la página de logs. -Para más información sobre logs de OCI, consulta [Activación del registro para un recurso][1]. +Para obtener más información sobre logs de OCI, consulta [Activación del registro para un recurso][1]. -#### OCI object storage +#### Almacén de objetos de OCI -1. En el portal de OCI, ve a *Core Infrastructure -> Object Storage -> Object Storage* (Infraestructura central > Object Storage > Object Storage). +1. En el portal de OCI, ve a *Core Infrastructure -> Object Storage -> Object Storage* (Infraestructura central > Almacén de objetos > Almacén de objetos). 2. Haz clic en **Create Bucket** (Crear bucket) para acceder al formulario **Create bucket** (Crear bucket). 3. Selecciona **Standard** (Estándar) para tu nivel de almacenamiento y marca **Emit Object Events** (Emitir eventos de objeto). -4. Rellena el resto del formulario según tus preferencias. +4. Completa el resto del formulario según tus preferencias. 5. Haz clic en **Create Bucket** (Crear bucket), tu bucket se creará y estará disponible en la lista de buckets. 6. Selecciona tu nuevo bucket en la lista de buckets activos y haz clic en **Logs** en recursos. -7. Activa **read** (leer), lo que te lleva al menú lateral **Enable Log** (Habilitar log). +7. Activa **leer**, lo que te dirige a un menú lateral **Habilitar log**. 8. Selecciona un **Compartment** (Compartimento) y un **Log Group** (Grupo de logs) (utiliza las mismas selecciones que en tu log de OCI). 9. Introduce un nombre para el **Log Name** (Nombre de log) y selecciona tu retención de log preferida. -Para más información sobre OCI Object Storage, consulta [Poner datos en Object Storage][2]. +Para obtener más información sobre OCI Object Storage, consulta [Poner datos en Object Storage][2]. #### Función de OCI 1. En el portal de OCI, ve a *Solutions and Platform -> Developer Services -> Functions* (Soluciones y plataforma > Servicios de desarrollador > Funciones). 2. Selecciona una aplicación existente o haz clic en **Create Application** (Crear aplicación). 3. Crea una nueva función de OCI dentro de tu aplicación. Para más detalles, consulta [Información general de funciones de Oracle][3]. -4. Es recomendado para crear una función boilerplate de Python primero y reemplazar los archivos autogenerados con el código fuente de Datadog: - - Sustituye `func.py` por código del [repositorio de Datadog OCI][4]. - - Sustituye `func.yaml` por el código del [repositorio de Datadog OCI][5]. `DATADOG_TOKEN` y `DATADOG_HOST` deben sustituirse por tu clave de API de Datadog y el enlace de entrada de logs de la región. - - Sustituye `requirements.txt` por código del [repositorio de Datadog OCI][6]. +4. Se recomienda crear primero una función boilerplate en Python y sustituir los archivos generados automáticamente por el código fuente de Datadog: + - Sustituye `func.py` por el código del [repositorio de OCI de Datadog][4] + - Sustituye `func.yaml` por el código del [repositorio de OCI de Datadog][5]. `DATADOG_TOKEN` y `DATADOG_HOST` deben sustituirse por tu clave de API Datadog y el enlace de admisión de logs de la región + - Sustituye `requirements.txt` por el código del [repositorio de OCI de Datadog][6] #### Evento de OCI 1. En el portal de OCI, ve a *Solutions and Platform -> Application Integration -> Event Service* (Soluciones y plataforma > Integración de aplicaciones > Servicio de eventos). 2. Haz clic en **Create Rule** (Crear regla) para acceder a la página **Create Rule** (Crear regla). 3. Asigna un nombre y una descripción a tu regla de evento. -4. Establece tu condición como **Event Type** (Tipo de evento), el nombre de servicio como **Object Storage** y el tipo de evento como **Object - Create** (Objeto: crear). +4. Establece tu condición como **Tipo de evento**, el nombre de servicio como **Almacén de objetos** y el tipo de evento como **Objeto - Crear**. 5. Establece tu tipo de acción como **Functions** (Funciones). 6. Asegúrate de que tu compartimento de función sea la misma selección que hiciste para Log de OCI, Bucket de OCI y Función de OCI. -7. Selecciona tu aplicación de función y función (según el paso de instalación anterior). +7. Selecciona tu aplicación y función (según el paso de instalación anterior). 8. Haz clic en **Create Rule** (Crear regla), tu regla se creará y estará disponible en la lista de reglas. Para más información sobre OCI Object Storage, consulta [Empezando con eventos][7]. @@ -386,13 +485,123 @@ Para más información sobre OCI Object Storage, consulta [Empezando con eventos [6]: https://github.com/DataDog/Oracle_Logs_Integration/blob/master/Object%20Store/requirements.txt [7]: https://docs.cloud.oracle.com/iaas/Content/Events/Concepts/eventsgetstarted.htm {{% /tab %}} + +{{< /tabs >}} + +### Recopilación de recursos + +En la pestaña **Recopilación de recursos** del [ícono de integración de OCI de Datadog][1], haz clic en el conmutador **Habilitar recopilación de recursos**. Los recursos son visibles en el [Catálogo de recursos de Datadog][60]. + +## Arquitectura + +{{< tabs >}} + +{{% tab "OCI QuickStart (Preview; recommended)" %}} + +### Recursos de reenvío de métricas y logs + +![Un diagrama de los recursos de reenvío de métricas y logs de OCI mencionados para esta opción de configuración y que muestra el flujo de datos][1]. + +Para cada región monitorizada, esta opción de configuración crea la siguiente infraestructura dentro de esa región para reenviar métricas y logs a Datadog: + +- Aplicación de funciones (`dd-function-app`) +- Dos funciones: + - Reenvío de métricas (`dd-metrics-forwarder`) + - Reenvío de logs (`dd-logs-forwarder`) +- VCN (`dd-vcn`) con infraestructura de red segura: + - Subred privada (`dd-vcn-private-subnet`) + - Puerta NAT (`dd-vcn-natgateway`) para acceso externo a Internet + - Puerta de servicios (`dd-vcn-servicegateway`) para el acceso interno a los servicios OCI +- Vault del Servicio de Gestión de Claves (KMS) (`datadog-vault`) para almacenar la clave de la API Datadog +- Compartimento dedicado **Datadog** (`Datadog`) + +Todos los recursos están etiquetados con `ownedby = "datadog"`. + +### Recursos de IAM + +![Un diagrama de los recursos OCI IAM mencionados para esta opción de configuración y que muestra el flujo de datos][2]. + +Esta opción de configuración crea los siguientes recursos IAM para habilitar el reenvío de datos a Datadog: + +- Usuario del servicio (`dd-svc`) +- Grupo (`dd-svc-admin`) al que pertenece el usuario del servicio +- Par de claves RSA para la autenticación de la API +- Clave de la API OCI para el usuario del servicio +- Grupo dinámico (`dd-dynamic-group-connectorhubs`) que incluye todos los conectores de servicio del compartimento Datadog +- Grupo dinámico (`dd-dynamic-group-function`) que incluye todas las funciones del compartimento de Datadog +- Política (`dd-svc-policy`) para dar al usuario del servicio acceso de lectura a los recursos de la tenencia y acceso para gestionar OCI Service Connector Hubs y OCI Functions en el compartimento creado y gestionado por Datadog +{{% collapse-content title="Consultar la política" level="h6" %}} +```text +- Permitir que dd-svc-admin lea todos los recursos en tenencia +- Permitir que dd-svc-admin gestione conectores de servicios en el compartimento Datadog +- Permitir que dd-svc-admin gestione una familia de funciones en el compartimento Datadog con permisos específicos: + * FN_FUNCIÓN_ACTUALIZACIÓN + * FN_FUNCIÓN_LISTA + * FN_APLICACIONES_LISTA +- Autorizar a dd-svc-admin a leer objetos en el informe de uso de la tenencia +``` +{{% /collapse-content %}} + +- Política `dd-dynamic-group-policy` para permitir que los conectores de servicio lean datos (logs y métricas) e interactúen con las funciones. Esta política también permite que las funciones lean secretos en el compartimento Datadog (la API Datadog y las claves de aplicaciones almacenadas en el vault de KMS). + +{{% collapse-content title="Consultar la política" level="h6" %}} +```text + - Allow dd-dynamic-group-connectorhubs to read log-content in tenancy + - Allow dd-dynamic-group-connectorhubs to read metrics in tenancy + - Allow dd-dynamic-group-connectorhubs to use fn-function in Datadog compartment + - Allow dd-dynamic-group-connectorhubs to use fn-invocation in Datadog compartment + - Allow dd-dynamic-group-functions to read secret-bundles in Datadog compartment +``` +{{% /collapse-content %}} + +[1]: images/oci_quickstart_infrastructure_diagram.png +[2]: images/oci_quickstart_iam_diagram.png +{{% /tab %}} + +{{% tab "Manual setup" %}} + +### Recursos de reenvío de métricas + +![Diagrama de los recursos OCI mencionados para esta opción de configuración y visualización del flujo de datos][1]. + +Esta opción de configuración crea un [hub de conectores][2] OCI, una [aplicación de función][3] y una infraestructura de red segura para reenviar métricas OCI a Datadog. El stack tecnológico de ORM para estos recursos crea un repositorio de contenedor de función para la región en la tenencia y la imagen Docker se envía a este para ser utilizada por la función. + +### Recursos de IAM + +![Diagrama de los recursos OCI y flujo de trabajo utilizados para la autenticación de la integración][4] + +Esta opción de configuración crea: + +- Grupo dinámico con `resource.type = 'serviceconnectors'`, para permitir el acceso al hub de conectores +- Usuario denominado **DatadogROAuthUser**, que Datadog utiliza para leer los recursos de la tenencia. +- Grupo al que se añade el usuario creado para el acceso a la política +- Usuario llamado **DatadogAuthWriteUser**, que se utiliza para insertar imágenes Docker para la función +- Grupo de acceso de escritura al que se añade `DatadogAuthWriteUser`, para insertar imágenes a través de la política de acceso +- Política en el compartimento raíz para permitir que los hubs de conectores lean métricas e invoquen funciones. Esta política también otorga al grupo de usuarios creado acceso de lectura tanto a los recursos de tenencia como al grupo de acceso de escritura, para insertar imágenes + +{{% collapse-content title="Consultar la política" level="h6" %}} +```text +Allow dynamic-group Default/ to read metrics in tenancy +Allow dynamic-group Default/ to use fn-function in tenancy +Allow dynamic-group Default/ to use fn-invocation in tenancy +Allow group Default/ to read all-resources in tenancy +Allow group Default/ to manage repos in tenancy where ANY {request.permission = 'REPOSITORY_READ', request.permission = 'REPOSITORY_UPDATE', request.permission = 'REPOSITORY_CREATE'} +``` +{{% /collapse-content %}} + +[1]: images/OCI_metrics_integration_diagram.png +[2]: https://docs.oracle.com/iaas/Content/connector-hub/home.htm +[3]: https://docs.oracle.com/iaas/Content/Functions/Concepts/functionsconcepts.htm#applications +[4]: images/OCI_auth_workflow_diagram.png +{{% /tab %}} + {{< /tabs >}} ## Datos recopilados ### Métricas -{{< get-metrics-from-git "oracle-cloud-infrastructure" >}} +Consulta [metadata.csv][61] para obtener una lista de las métricas proporcionadas por esta integración. ### Checks de servicio @@ -402,68 +611,79 @@ La integración de OCI no incluye ningún check de servicio. La integración de OCI no incluye ningún evento. -## Resolución de problemas +## Solucionar problemas -¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][53]. +¿Necesitas ayuda? Ponte en contacto con [Asistencia técnica de Datadog][62]. -## Para leer más +## Referencias adicionales -Más enlaces, artículos y documentación útiles: +Documentación útil adicional, enlaces y artículos: -- [Monitorizar Oracle Cloud Infrastructure con Datadog][54] +- [Monitoriza Oracle Cloud Infrastructure con Datadog][63] +- [Acelerar la monitorización de Oracle Cloud Infrastructure con Datadog OCI QuickStart][64] [1]: https://app.datadoghq.com/integrations/oracle-cloud-infrastructure -[2]: https://cloud.oracle.com/tenancy -[3]: https://docs.oracle.com/iaas/Content/General/Concepts/regions.htm -[4]: https://docs.oracle.com/en/cloud/paas/weblogic-container/user/create-dynamic-groups-and-policies.html -[5]: images/add_api_key.png -[6]: https://app.datadoghq.com/organization-settings/api-keys -[7]: https://docs.oracle.com/iaas/Content/Registry/Tasks/registrygettingauthtoken.htm -[8]: https://docs.oracle.com/en-us/iaas/Content/Registry/Concepts/registrypolicyrepoaccess.htm#Policies_to_Control_Repository_Access -[9]: https://docs.oracle.com/iaas/Content/Functions/Tasks/functionslogintoocir.htm -[10]: https://docs.oracle.com/iaas/Content/Security/Reference/resourcemanager_security.htm#confidentiality__terraform-state -[11]: https://app.datadoghq.com/dash/integration/31417/oracle-cloud-infrastructure-oci-overview -[12]: https://app.datadoghq.com/metric/explorer -[13]: https://cloud.oracle.com/connector-hub/service-connectors -[14]: images/OCI_metrics_integration_diagram.png -[15]: https://docs.oracle.com/iaas/Content/connector-hub/home.htm -[16]: https://docs.oracle.com/iaas/Content/Functions/Concepts/functionsconcepts.htm#applications -[17]: images/OCI_auth_workflow_diagram.png -[18]: https://app.datadoghq.com/integrations/oci-autonomous-database -[19]: https://docs.oracle.com/iaas/autonomous-database-serverless/doc/autonomous-monitor-metrics-list.html -[20]: https://docs.oracle.com/iaas/Content/Block/References/volumemetrics.htm -[21]: https://app.datadoghq.com/integrations/oci-compute -[22]: https://docs.oracle.com/iaas/Content/Compute/References/computemetrics.htm#Availabl -[23]: https://docs.oracle.com/iaas/Content/Compute/References/computemetrics.htm#computemetrics_topic-Available_Metrics_oci_compute_rdma_network -[24]: https://docs.oracle.com/iaas/Content/Compute/References/computemetrics.htm#computemetrics_topic-Available_Metrics_oci_high_performance_compute -[25]: https://docs.oracle.com/iaas/Content/Compute/References/infrastructurehealthmetrics.htm -[26]: https://app.datadoghq.com/integrations/oci-container-instances -[27]: https://docs.oracle.com/iaas/Content/container-instances/container-instance-metrics.htm -[28]: https://app.datadoghq.com/integrations/oci-database -[29]: https://docs.oracle.com/iaas/base-database/doc/available-metrics-base-database-service-resources.html#DBSCB-GUID-57B7B9B1-288B-4DCB-82AE-D53B2BD9C78F -[30]: https://docs.oracle.com/iaas/base-database/doc/available-metrics-base-database-service-resources.html#DBSCB-GUID-A42CF0E3-EE65-4A66-B8A3-C89B62AFE489 -[31]: https://docs.oracle.com/iaas/Content/Network/Reference/drgmetrics.htm -[32]: https://docs.oracle.com/iaas/Content/Network/Reference/fastconnectmetrics.htm -[33]: https://docs.oracle.com/iaas/Content/File/Reference/filemetrics.htm -[34]: https://app.datadoghq.com/integrations/oci-functions -[35]: https://docs.oracle.com/iaas/Content/Functions/Reference/functionsmetrics.htm -[36]: https://app.datadoghq.com/integrations/oci-mysql-database -[37]: https://docs.oracle.com/iaas/mysql-database/doc/metrics.html -[38]: https://docs.oracle.com/iaas/Content/ContEng/Reference/contengmetrics.htm -[39]: https://app.datadoghq.com/integrations/oci-load-balancer -[40]: https://docs.oracle.com/iaas/Content/Balance/Reference/loadbalancermetrics.htm -[41]: https://docs.oracle.com/iaas/Content/NetworkLoadBalancer/Metrics/metrics.htm -[42]: https://app.datadoghq.com/integrations/oci-nat-gateway -[43]: https://docs.oracle.com/iaas/Content/Network/Reference/nat-gateway-metrics.htm -[44]: https://docs.oracle.com/iaas/Content/Object/Reference/objectstoragemetrics.htm -[45]: https://docs.oracle.com/iaas/Content/queue/metrics.htm -[46]: https://docs.oracle.com/iaas/Content/connector-hub/metrics-reference.htm -[47]: https://docs.oracle.com/iaas/Content/Network/Reference/SGWmetrics.htm -[48]: https://app.datadoghq.com/integrations/oci-vcn -[49]: https://docs.oracle.com/iaas/Content/Network/Reference/vnicmetrics.htm -[50]: https://app.datadoghq.com/integrations/oci-vpn -[51]: https://docs.oracle.com/iaas/Content/Network/Reference/ipsecmetrics.htm -[52]: https://docs.oracle.com/iaas/Content/WAF/Reference/metricsalarms.htm -[53]: https://docs.datadoghq.com/es/help/ -[54]: https://www.datadoghq.com/blog/monitor-oci-with-datadog/ \ No newline at end of file +[2]: https://app.datadoghq.com/dash/integration/31417/oracle-cloud-infrastructure-oci-overview +[3]: https://app.datadoghq.com/metric/explorer +[4]: images/oci_configuration_tab.png +[5]: https://docs.datadoghq.com/es/integrations/oci_api_gateway/ +[6]: https://docs.oracle.com/iaas/Content/APIGateway/Reference/apigatewaymetrics.htm +[7]: https://docs.datadoghq.com/es/integrations/oci_autonomous_database/ +[8]: https://docs.oracle.com/iaas/autonomous-database-serverless/doc/autonomous-monitor-metrics-list.html +[9]: https://docs.datadoghq.com/es/integrations/oci_block_storage/ +[10]: https://docs.oracle.com/iaas/Content/Block/References/volumemetrics.htm +[11]: https://docs.datadoghq.com/es/integrations/oci_compute/ +[12]: https://docs.oracle.com/iaas/Content/Compute/References/computemetrics.htm#Availabl +[13]: https://docs.oracle.com/iaas/Content/Compute/References/computemetrics.htm#computemetrics_topic-Available_Metrics_oci_compute_rdma_network +[14]: https://docs.oracle.com/iaas/Content/Compute/References/computemetrics.htm#computemetrics_topic-Available_Metrics_oci_high_performance_compute +[15]: https://docs.oracle.com/iaas/Content/Compute/References/infrastructurehealthmetrics.htm +[16]: https://docs.datadoghq.com/es/integrations/oci_container_instances/ +[17]: https://docs.oracle.com/iaas/Content/container-instances/container-instance-metrics.htm +[18]: https://docs.datadoghq.com/es/integrations/oci_database/ +[19]: https://docs.oracle.com/iaas/base-database/doc/available-metrics-base-database-service-resources.html#DBSCB-GUID-57B7B9B1-288B-4DCB-82AE-D53B2BD9C78F +[20]: https://docs.oracle.com/iaas/base-database/doc/available-metrics-base-database-service-resources.html#DBSCB-GUID-A42CF0E3-EE65-4A66-B8A3-C89B62AFE489 +[21]: https://docs.oracle.com/iaas/Content/Network/Reference/drgmetrics.htm +[22]: https://docs.datadoghq.com/es/integrations/oci_ebs/ +[23]: https://docs.oracle.com/iaas/stack-monitoring/doc/metric-reference.html#STMON-GUID-4E859CA3-1CAB-43FB-8DC7-0AA17E6B52EC +[24]: https://docs.datadoghq.com/es/integrations/oci_fastconnect/ +[25]: https://docs.oracle.com/iaas/Content/Network/Reference/fastconnectmetrics.htm +[26]: https://docs.datadoghq.com/es/integrations/oci_file_storage/ +[27]: https://docs.oracle.com/iaas/Content/File/Reference/filemetrics.htm +[28]: https://docs.datadoghq.com/es/integrations/oci_functions/ +[29]: https://docs.oracle.com/iaas/Content/Functions/Reference/functionsmetrics.htm +[30]: https://docs.datadoghq.com/es/integrations/oci_gpu/ +[31]: https://docs.datadoghq.com/es/integrations/oci_mysql_database/ +[32]: https://docs.oracle.com/iaas/mysql-database/doc/metrics.html +[33]: https://docs.datadoghq.com/es/integrations/oke/ +[34]: https://docs.oracle.com/iaas/Content/ContEng/Reference/contengmetrics.htm +[35]: https://docs.datadoghq.com/es/integrations/oci_load_balancer/ +[36]: https://docs.oracle.com/iaas/Content/Balance/Reference/loadbalancermetrics.htm +[37]: https://docs.oracle.com/iaas/Content/NetworkLoadBalancer/Metrics/metrics.htm +[38]: https://docs.datadoghq.com/es/integrations/oci_media_streams/ +[39]: https://docs.oracle.com/iaas/Content/dms-mediastream/mediastreams_metrics.htm? +[40]: https://docs.datadoghq.com/es/integrations/oci_nat_gateway/ +[41]: https://docs.oracle.com/iaas/Content/Network/Reference/nat-gateway-metrics.htm +[42]: https://docs.datadoghq.com/es/integrations/oci_network_firewall/ +[43]: https://docs.oracle.com/iaas/Content/network-firewall/metrics.htm +[44]: https://docs.datadoghq.com/es/integrations/oci_object_storage/ +[45]: https://docs.oracle.com/iaas/Content/Object/Reference/objectstoragemetrics.htm +[46]: https://docs.datadoghq.com/es/integrations/oci_postgresql/ +[47]: https://docs.oracle.com/iaas/Content/postgresql/metrics.htm +[48]: https://docs.datadoghq.com/es/integrations/oci_queue/ +[49]: https://docs.oracle.com/iaas/Content/queue/metrics.htm +[50]: https://docs.datadoghq.com/es/integrations/oci_service_connector_hub/ +[51]: https://docs.oracle.com/iaas/Content/connector-hub/metrics-reference.htm +[52]: https://docs.datadoghq.com/es/integrations/oci_service_gateway/ +[53]: https://docs.oracle.com/iaas/Content/Network/Reference/SGWmetrics.htm +[54]: https://docs.datadoghq.com/es/integrations/oci_vcn/ +[55]: https://docs.oracle.com/iaas/Content/Network/Reference/vnicmetrics.htm +[56]: https://docs.datadoghq.com/es/integrations/oci_vpn/ +[57]: https://docs.oracle.com/iaas/Content/Network/Reference/ipsecmetrics.htm +[58]: https://docs.datadoghq.com/es/integrations/oci_waf/ +[59]: https://docs.oracle.com/iaas/Content/WAF/Reference/metricsalarms.htm +[60]: https://docs.datadoghq.com/es/infrastructure/resource_catalog/ +[61]: https://github.com/DataDog/integrations-internal-core/blob/main/oracle_cloud_infrastructure/metadata.csv +[62]: https://docs.datadoghq.com/es/help/ +[63]: https://www.datadoghq.com/blog/monitor-oci-with-datadog/ +[64]: https://www.datadoghq.com/blog/datadog-oci-quickstart/ \ No newline at end of file diff --git a/content/es/integrations/pagerduty.md b/content/es/integrations/pagerduty.md index 31e7fb7732b91..66f24413b7d92 100644 --- a/content/es/integrations/pagerduty.md +++ b/content/es/integrations/pagerduty.md @@ -1,55 +1,44 @@ --- +app_id: pagerduty categories: - collaboration - incidents - notifications -custom_kind: integration -dependencies: [] -description: Generar alertas PagerDuty a partir de métricas y eventos de Datadog -doc_link: https://docs.datadoghq.com/integrations/pagerduty/ -draft: false +custom_kind: integración +description: PagerDuty añade alertas por teléfono y SMS a tus herramientas de monitorización + existentes. further_reading: - link: https://www.datadoghq.com/blog/mobile-incident-management-datadog/ - tag: Blog - text: Gestionar los incidentes sobre la marcha con la aplicación móvil de Datadog + tag: blog + text: Gestionar incidentes sobre la marcha con la aplicación móvil Datadog - link: https://www.datadoghq.com/blog/how-pagerduty-deploys-safely-with-datadog/ - tag: Blog - text: Para desplegar PagerDuty de forma segura con Datadog + tag: blog + text: Cómo se despliega PagerDuty de forma segura con Datadog - link: https://docs.datadoghq.com/tracing/service_catalog/integrations/#pagerduty-integration - tag: Blog - text: Uso de integraciones con el catálogo de servicios + tag: blog + text: Blog de PagerDuty - link: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/integration_pagerduty - tag: Terraform - text: Crear y gestionar la integración Pagerduty en Datadog con Terraform -git_integration_title: pagerduty -has_logo: true -integration_id: '' -integration_title: PagerDuty -integration_version: '' -is_public: true -manifest_version: '1.0' -name: pagerduty -public_title: Integración de PagerDuty en Datadog -short_description: Generar alertas PagerDuty a partir de métricas y eventos de Datadog -version: '1.0' + tag: otros + text: PagerDuty +media: [] +title: PagerDuty --- - - {{< site-region region="gov" >}} -
La integración de PagerDuty en Datadog tiene soporte limitado en el sitio de Datadog para el gobierno. La integración del catálogo de servicios y la resolución automática de la Gestión de Incidentes y la Automatización de flujos (flows) de trabajo no son compatibles.
+ +
La integración de PagerDuty en Datadog tiene soporte limitado en el sitio de Datadog para el gobierno. La integración del catálogo de servicios y la resolución automática de la Gestión de Incidentes y la Automatización de flujos de trabajo no son compatibles.
{{< /site-region >}} ## Información general Conecta PagerDuty a Datadog para: -- Activar y resolver incidentes de tu flujo mencionando `@pagerduty` en tu mensaje +- Activar y resolver incidentes de tu flujo (stream) mencionando `@pagerduty` en tu mensaje - Visualizar los incidentes y las escaladas en tu flujo a medida que se producen - Recibir un recordatorio diario de quién está de guardia ## Configuración -Consulta la [guía de la integración en Datadog][1] de Pagerduty. +Consulta la [guía de integración de Datadog](http://www.pagerduty.com/docs/guides/datadog-integration-guide) de PagerDuty. {{< site-region region="us" >}} Una vez que tengas Pagerduty integrado, puedes verificar tendencias personalizadas de incidentes de PagerDuty. @@ -63,13 +52,13 @@ La integración de PagerDuty no incluye métricas. ### Eventos -Tus eventos PagerDuty activados/resueltos aparecen en el [Explorador de eventos][2]. +Tus eventos de PagerDuty activados/resueltos aparecen en el [Explorador de eventos](https://docs.datadoghq.com/events/explorer/). ### Checks de servicio La integración de PagerDuty no incluye checks de servicio. -## Resolución de problemas +## Solucionar problemas ### Enviar una notificación a un servicio de PagerDuty específico @@ -98,9 +87,6 @@ Por ejemplo, si el monitor pasa de `OK` a `WARNING` y notifica un `@pagerduty-[s Datadog tiene un límite superior para la longitud de los notificaciones del monitor enviadas a PagerDuty. El límite es de **1024 caracteres**. -## Leer más - -{{< partial name="whats-next/whats-next.html" >}} +## Referencias adicionales -[1]: http://www.pagerduty.com/docs/guides/datadog-integration-guide -[2]: https://docs.datadoghq.com/es/events/explorer/ \ No newline at end of file +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/integrations/papertrail.md b/content/es/integrations/papertrail.md index 54f2096682e24..4935a8f8b2b77 100644 --- a/content/es/integrations/papertrail.md +++ b/content/es/integrations/papertrail.md @@ -1,55 +1,16 @@ --- app_id: papertrail -app_uuid: 630c6ff6-e853-4ef7-8be4-371a55269208 -assets: - integration: - auto_install: true - events: - creates_events: true - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 147 - source_type_name: PaperTrail -author: - homepage: https://www.datadoghq.com - name: Datadog - sales_email: info@datadoghq.com - support_email: help@datadoghq.com categories: - event management - notifications custom_kind: integración -dependencies: [] -display_on_public_website: true -draft: false -git_integration_title: papertrail -integration_id: papertrail -integration_title: Papertrail -integration_version: '' -is_public: true -manifest_version: 2.0.0 -name: papertrail -public_title: Papertrail -short_description: Visualiza, realiza búsquedas y discute sobre logs de Papertrail - en tu flujo (stream) de eventos de Datadog. -supported_os: [] -tile: - changelog: CHANGELOG.md - classifier_tags: - - Category::Gestión de eventos - - Category::Notificaciones - - Offering::Integración - configuration: README.md#Configuración - description: Visualiza, realiza búsquedas y discute sobre logs de Papertrail en - tu flujo de eventos de Datadog. - media: [] - overview: README.md#Información general - support: README.md#Soporte - title: Papertrail +description: Visualiza, realiza búsquedas y discute sobre logs de Papertrail en tu + flujo (stream) de eventos de Datadog. +integration_version: 1.0.0 +media: [] +title: Papertrail --- - - -![Ejemplo de Papertrail][1] +![Ejemplo de Papertrail](images/papertrailexample.png) ## Información general @@ -64,16 +25,19 @@ Utiliza Papertrail y Datadog para: Para capturar métricas de Papertrail: -1. En el [visor de eventos][2] de Papertrail, guarda una búsqueda de los eventos de logs que deben ser graficados. -2. Ingresa el nombre de la búsqueda y haz clic en el botón **Save & Setup an Alert** (Guardar y configurar una alerta). -3. En Gráficas y métricas, elige Datadog. - ![Notificaciones de Papertrail][3] +1. En el [visor de eventos](https://papertrailapp.com/events) de Papertrail, guarda una búsqueda de los evento de log que deben ser graficados. + +1. Ingresa el nombre de la búsqueda y haz clic en el botón **Save & Setup an Alert** (Guardar y configurar una alerta). + +1. En Gráficas y métricas, elige Datadog. + ![Notificaciones Papertrail](images/papertrailnotify.png) -4. Elige la frecuencia de tus alertas y otros detalles. -5. Proporciona tu clave de API Datadog, introduce el nombre elegido para tu métrica y, opcionalmente, introduce algunas etiquetas (tags) para asociar a la métrica. - ![Notificaciones de Papertrail][4] +1. Elige la frecuencia de tus alertas y otros detalles. -6. Haz clic en el botón **Create Alert** (Crear alerta). +1. Proporciona tu clave de API Datadog, introduce el nombre elegido para tu métrica y, opcionalmente, introduce algunas etiquetas (tags) para asociar a la métrica. + ![Notificaciones Papertrail](images/papertraildetails.png) + +1. Haz clic en el botón **Create Alert** (Crear alerta). Papertrail actualiza Datadog según el intervalo elegido. @@ -97,10 +61,4 @@ La integración de Papertrail no incluye checks de servicio. ## Solucionar problemas -¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][5]. - -[1]: images/papertrailexample.png -[2]: https://papertrailapp.com/events -[3]: images/papertrailnotify.png -[4]: images/papertraildetails.png -[5]: https://docs.datadoghq.com/es/help/ \ No newline at end of file +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/php.md b/content/es/integrations/php.md index c940dca5a54e0..4f2d0e6cd07a5 100644 --- a/content/es/integrations/php.md +++ b/content/es/integrations/php.md @@ -1,69 +1,49 @@ --- +app_id: php categories: - languages - log collection - tracing -custom_kind: integration -dependencies: [] -description: Recopila métricas, trazas, logs y datos de perfil de tus aplicaciones PHP. -doc_link: https://docs.datadoghq.com/integrations/php/ -draft: false +custom_kind: integración +description: Recopila métricas, trazas (traces) y logs de tus aplicaciones PHP. further_reading: - link: https://www.datadoghq.com/blog/monitor-php-performance/ - tag: Blog - text: Monitorización de PHP con Datadog APM y rastreo distribuido. + tag: blog + text: Monitorización PHP con Datadog APM y rastreo distribuido - link: https://www.datadoghq.com/blog/php-logging-guide/ - tag: Blog - text: Cómo recopilar, personalizar y analizar logs de PHP. -git_integration_title: php -has_logo: true -integration_id: php -integration_title: PHP -integration_version: -is_public: true -manifest_version: 1.0 -name: php -public_title: Integración de Datadog y PHP -short_description: Recopila métricas, trazas, logs y datos de perfil de tus aplicaciones PHP. -version: 1.0 + tag: blog + text: 'Generación de logs PHP: cómo recopilar, personalizar y analizar logs PHP' +media: [] +title: PHP --- - - ## Información general -La integración de Datadog y PHP te permite recopilar y monitorizar logs, trazas (traces) y métricas personalizadas de tu aplicación de PHP. +La integración de Datadog y PHP te permite recopilar y monitorizar logs, trazas y métricas personalizadas de tu aplicación PHP. ## Configuración ### Recopilación de métricas -Consulta la documentación dedicada a [recopilar métricas personalizadas de PHP con DogStatsD][1]. +Consulta la documentación exclusiva para [recopilar métricas personalizadas de PHP con DogStatsD](https://docs.datadoghq.com/developers/dogstatsd/?tab=php). ### Recopilación de trazas -Consulta la documentación dedicada a [instrumentar tu aplicación PHP][2] para enviar sus trazas (traces) a Datadog. +Consulta la documentación exclusiva para [instrumentar tu aplicación PHP](https://docs.datadoghq.com/tracing/setup/php/) para enviar tus trazas a Datadog. -### APM +### Recopilación de logs *Disponible para Agent v6.0+* -Consulta la documentación específica sobre cómo [configurar la recopilación de logs de PHP][3] para reenviar tus logs a Datadog. +Consulta la documentación exclusiva sobre cómo [configurar la recopilación de logs PHP](https://docs.datadoghq.com/logs/log_collection/php/) para reenviar tus logs a Datadog. ### Recopilación de perfiles -Consulta la documentación específica para [activar el perfilador PHP][4]. - -## Resolución de problemas - -¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][5]. +Consulta la documentación exclusiva para [habilitar el generador de perfiles PHP](https://docs.datadoghq.com/profiler/enabling/php/). -## Leer más +## Solucionar problemas -{{< partial name="whats-next/whats-next.html" >}} +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). -[1]: https://docs.datadoghq.com/developers/dogstatsd/?tab=php -[2]: https://docs.datadoghq.com/tracing/setup/php/ -[3]: https://docs.datadoghq.com/logs/log_collection/php/ -[4]: https://docs.datadoghq.com/profiler/enabling/php/ -[5]: https://docs.datadoghq.com/help/ +## Referencias adicionales +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/integrations/ping.md b/content/es/integrations/ping.md index 002186ee24be4..83ac4f8744299 100644 --- a/content/es/integrations/ping.md +++ b/content/es/integrations/ping.md @@ -1,72 +1,24 @@ --- app_id: ping -app_uuid: 841c9313-628f-4861-ad0b-2d12c37ee571 -assets: - integration: - auto_install: true - configuration: {} - events: - creates_events: false - metrics: - check: network.ping.response_time - metadata_path: metadata.csv - prefix: red. - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 10200 - source_type_name: Ping -author: - homepage: https://github.com/DataDog/integrations-extras - name: Comunidad - sales_email: jim.stanton@datadoghq.com - support_email: jim.stanton@datadoghq.com categories: - herramientas de desarrollo - la red -custom_kind: integration -dependencies: -- https://github.com/DataDog/integrations-extras/blob/master/ping/README.md -display_on_public_website: true -draft: false -git_integration_title: ping -integration_id: ping -integration_title: Ping +custom_kind: integración +description: Monitoriza la conectividad a hosts remotos. integration_version: 1.0.2 -is_public: true -manifest_version: 2.0.0 -name: ping -public_title: Ping -short_description: Monitoriza la conectividad a hosts remotos. +media: [] supported_os: - Linux - Windows - macOS -tile: - changelog: CHANGELOG.md - classifier_tags: - - Categoría::Herramientas de desarrollo - - Categoría::Red - - Sistema operativo compatible::Linux - - Sistema operativo compatible::Windows - - Sistema operativo compatible::macOS - - Oferta::Integración - configuration: README.md#Configuración - description: Monitoriza la conectividad a hosts remotos. - media: [] - overview: README.md#Información general - support: README.md#Soporte - title: Ping +title: Ping --- - - - - ## Información general -Este check utiliza el comando [ping][1] del sistema para comprobar la accesibilidad de un host. +Este check utiliza el comando [ping](https://en.wikipedia.org/wiki/Ping_%28networking_utility%29) del sistema para comprobar la accesibilidad de un host. También mide opcionalmente el tiempo de ida y vuelta de los mensajes enviados desde el check al host de destino. -El ping funciona enviando paquetes de solicitud de eco del Protocolo de mensajes de control de Internet (ICMP) al host de destino y esperando una respuesta de eco ICMP. +Ping funciona enviando paquetes de solicitud de eco del Protocolo de mensajes de control de Internet (ICMP) al host de destino y esperando una respuesta de eco ICMP. Este check utiliza el comando ping del sistema, en lugar de generar la solicitud de eco del ICMP, ya que la creación de un paquete ICMP requiere un socket sin procesar. La creación de sockets sin procesar requiere privilegios raíz que el Agent no tiene. El comando ping utiliza el marcador de acceso `setuid` para ejecutarse con privilegios elevados y evitar este inconveniente. @@ -74,11 +26,11 @@ Este check utiliza el comando ping del sistema, en lugar de generar la solicitud ## Configuración -El check ping no está incluido en el paquete del [Datadog Agent][2], por lo que es necesario instalarlo. +El check de Ping no está incluido en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest), por lo que es necesario instalarlo. ### Instalación -Para versiones 7.21/6.21 o posteriores del Agent, sigue las siguientes instrucciones para instalar el check ping en tu host. Para instalarlo con el Agent Docker o versiones anteriores del Agent, consulta [Uso de integraciones de la comunidad][3]. +Para el Agent v7.21/v6.21 o posteriores, sigue las instrucciones a continuación para instalar el check de Ping en tu host. Consulta [Uso de integraciones comunitarias](https://docs.datadoghq.com/agent/guide/use-community-integrations/) para instalar con el Docker Agent o versiones anteriores del Agent. 1. Ejecuta el siguiente comando para instalar la integración del Agent: @@ -89,41 +41,51 @@ Para versiones 7.21/6.21 o posteriores del Agent, sigue las siguientes instrucci # Windows agent.exe integration install -t datadog-ping== ``` -2. Instala el binario `ping` en función de tu sistema operativo. Por ejemplo, ejecuta el siguiente comando para Ubuntu: + +1. Instala el binario `ping` en función de tu sistema operativo. Por ejemplo, ejecuta el siguiente comando para Ubuntu: + ```shell apt-get install iputils-ping ``` -3. Configura tu integración como si fuese una [integración][4] de base. +1. Configura tu integración de forma similar a las [integraciones] centrales (https://docs.datadoghq.com/getting_started/integrations/). ### Configuración -1. Edita el archivo `ping.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del directorio de configuración del Agent, para empezar a recopilar los datos de rendimiento de tu ping. Para conocer todas las opciones de configuración disponibles, consulta el [ignite.d/conf.yaml de ejemplo][5]. +1. Edita el archivo `ping.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu directorio de configuración del Agent para empezar a recopilar tus datos de rendimiento de Ping. Consulta el [ejemplo ping.d/conf.yaml](https://github.com/DataDog/integrations-extras/blob/master/ping/datadog_checks/ping/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. -2. [Reinicia el Agent][6]. +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). ### Validación -Ejecuta el [subcomando de estado del Agent][7] y busca `ping` en la sección Checks. +Ejecuta el [subcomando de estado del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#service-status) y busca `ping` en la sección Checks. ## Datos recopilados ### Métricas -{{< get-metrics-from-git "ping" >}} +| | | +| --- | --- | +| **network.ping.response_time**
(gauge) | Tiempo de respuesta de un host y un puerto de ping determinados, etiquetado con url, por ejemplo, 'host:192.168.1.100'.
_Se muestra como milisegundos_ | +| **network.ping.can_connect**
(gauge) | Valor de 1 si el Agent puede comunicarse con éxito con el host de destino, 0 en caso contrario| ### Eventos -El check ping no incluye eventos. +El check de Ping no incluye eventos. ### Checks de servicio -{{< get-service-checks-from-git "ping" >}} +**network.ping.can_connect** + +Devuelve CRITICAL si el Agent no puede comunicarse con el host de destino. Devuelve OK si el ping tiene éxito. + +_Estados: ok, crítico_ ## Solucionar problemas ### Error `SubprocessOutputEmptyError: get_subprocess_output expected output but had none` -Mientras ejecutas la integración del ping, puedes ver un error como el siguiente: + +Mientras ejecutas la integración Ping, puedes ver un error como el siguiente: ``` Traceback (most recent call last): @@ -138,19 +100,6 @@ Mientras ejecutas la integración del ping, puedes ver un error como el siguient _util.SubprocessOutputEmptyError: get_subprocess_output expected output but had none. ``` -Debido a que la integración del ping no está incluida por defecto en el Agent, el binario `ping` tampoco está incluido en el Agent. Para poder ejecutar la integración con éxito, debes instalar el binario `ping`. - - -¿Necesitas ayuda? Ponte en contacto con el [equipo de asistencia de Datadog][10]. - +Debido a que la integración Ping no está incluida por defecto en el Agent, el binario `ping` tampoco está incluido con el Agent. Debes instalar el binario `ping` para poder ejecutar la integración con éxito. -[1]: https://en.wikipedia.org/wiki/Ping_%28networking_utility%29 -[2]: https://app.datadoghq.com/account/settings/agent/latest -[3]: https://docs.datadoghq.com/es/agent/guide/use-community-integrations/ -[4]: https://docs.datadoghq.com/es/getting_started/integrations/ -[5]: https://github.com/DataDog/integrations-extras/blob/master/ping/datadog_checks/ping/data/conf.yaml.example -[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent -[7]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#service-status -[8]: https://github.com/DataDog/integrations-extras/blob/master/ping/metadata.csv -[9]: https://github.com/DataDog/integrations-extras/blob/master/ping/assets/service_checks.json -[10]: https://docs.datadoghq.com/es/help/ \ No newline at end of file +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/pingdom_v3.md b/content/es/integrations/pingdom_v3.md index 4b5918ca243c1..890faf8e88a0f 100644 --- a/content/es/integrations/pingdom_v3.md +++ b/content/es/integrations/pingdom_v3.md @@ -23,7 +23,7 @@ author: categories: - métricas - notificaciones -custom_kind: integration +custom_kind: integración dependencies: [] display_on_public_website: true draft: false @@ -66,26 +66,26 @@ Realiza un seguimiento de las métricas de rendimiento de Pingdom basadas en usu La integración Pingdom V3 actúa de forma similar a la [integración Pingdom en Datadog (obsoleta)][1], pero utiliza la versión 3.1 de la [API Pingdom][2]. -{{< img src="integrations/pingdom/pingdom_dashboard.png" alt="Gráficos de Pingdom en un dashboard de Datadog" popup="true">}} +![Gráficos Pingdom en un dashboard de Datadog][3] ## Configuración ### Generar token de API -1. Inicia sesión en tu [cuenta de Pingdom][3]. +1. Inicia sesión en tu [cuenta de Pingdom][4]. 2. Ve a Settings > Pingdom API (Configuración > API Pingdom). 3. Haz clic en Add API token (Añadir token de API). Dale un nombre y permisos de lectura-escritura al token. Guarda el token en algún sitio, ya que no podrás volver a acceder a él. ### Instalación y configuración -1. Abre el [cuadro de la integración Pingdom V3][4]. +1. Abre el [cuadro de integración de Pingdom V3][5]. 2. Introduce el nombre y el token de API en los campos correspondientes. Las métricas y los checks configurados en Pingdom se recopilan en Datadog. 3. Administra etiquetas (tags) de checks en Pingdom. Las etiquetas añadidas a un check en Pingdom se añaden automáticamente a un check en Datadog. Excluya checks añadiendo la etiqueta `datadog-exclude`. ## Datos recopilados ### Métricas -{{< get-metrics-from-git "pingdom-v3" >}} +{{< get-metrics-from-git "pingdom_v3" >}} ### Eventos @@ -107,11 +107,12 @@ En el caso del check `pingdom.status`, los resultados de los checks de transacci ## Solucionar problemas -¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][6]. +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][7]. [1]: https://docs.datadoghq.com/es/integrations/pingdom/ [2]: https://docs.pingdom.com/api/ -[3]: https://my.pingdom.com/ -[4]: https://app.datadoghq.com/account/settings#integrations/pingdom-v3 -[5]: https://github.com/DataDog/integrations-internal-core/blob/main/pingdom/metadata.csv -[6]: https://docs.datadoghq.com/es/help \ No newline at end of file +[3]: images/pingdom_dashboard.png +[4]: https://my.pingdom.com/ +[5]: https://app.datadoghq.com/account/settings#integrations/pingdom-v3 +[6]: https://github.com/DataDog/integrations-internal-core/blob/main/pingdom/metadata.csv +[7]: https://docs.datadoghq.com/es/help \ No newline at end of file diff --git a/content/es/integrations/pivotal.md b/content/es/integrations/pivotal.md index 4743d7ba99063..411075dcfd0b4 100644 --- a/content/es/integrations/pivotal.md +++ b/content/es/integrations/pivotal.md @@ -1,62 +1,22 @@ --- -"app_id": "pivotal" -"app_uuid": "c28e887f-43e0-4b99-aa2b-3f02d4f10763" -"assets": - "integration": - "auto_install": false - "events": - "creates_events": true - "service_checks": - "metadata_path": "assets/service_checks.json" - "source_type_id": !!int "9" - "source_type_name": "Pivotal" -"author": - "homepage": "https://www.datadoghq.com" - "name": "Datadog" - "sales_email": "info@datadoghq.com" - "support_email": "help@datadoghq.com" -"categories": -- "collaboration" -- "issue tracking" -"custom_kind": "integration" -"dependencies": [] -"display_on_public_website": true -"draft": false -"git_integration_title": "pivotal" -"integration_id": "pivotal" -"integration_title": "Pivotal" -"integration_version": "" -"is_public": true -"manifest_version": "2.0.0" -"name": "pivotal" -"public_title": "Pivotal" -"short_description": "Pivotal Tracker es un software como servicio (SaaS) de colaboración y gestión de proyectos ágiles" -"supported_os": -- "linux" -- "windows" -- "macos" -"tile": - "changelog": "CHANGELOG.md" - "classifier_tags": - - "Category::Collaboration" - - "Category::Issue Tracking" - - "Offering::Integration" - - "Submitted Data Type::Events" - - "Supported OS::Linux" - - "Supported OS::Windows" - - "Supported OS::macOS" - "configuration": "README.md#Setup" - "description": "Pivotal Tracker es un software como servicio (SaaS) de colaboración y gestión de proyectos ágiles" - "media": [] - "overview": "README.md#Overview" - "support": "README.md#Support" - "title": "Pivotal" +app_id: pivotal +categories: +- collaboration +- issue tracking +custom_kind: integración +description: Pivotal Tracker es un software como servicio (SaaS) para la gestión ágil + de proyectos and collaboration. +integration_version: 1.0.0 +media: [] +supported_os: +- linux +- windows +- macos +title: Pivotal --- - - ## Información general -[Pivotal Tracker][1] utiliza historias para ayudar a los equipos a realizar un seguimiento de los proyectos y colaborar a lo largo de las diferentes etapas del ciclo de desarrollo, como la creación de nuevas funciones, la resolución de errores o el tratamiento de la deuda técnica. Conecta Pivotal Tracker a Datadog para: +[Pivotal Tracker](https://www.pivotaltracker.com/features) utiliza historias para ayudar a los equipos a realizar un seguimiento de los proyectos y colaborar a lo largo de las distintas partes del ciclo de desarrollo, como la creación de nuevas funciones, la resolución de errores o el tratamiento de la deuda técnica. Conecta Pivotal Tracker a Datadog para: - Ver y discutir el progreso de tus historias en el Explorador de eventos de Datadog. - Correlacionar y graficar la finalización de historias con otros eventos y otras métricas en tu sistema. @@ -66,9 +26,9 @@ ### Instalación -Para obtener eventos Pivotal en en el Explorador de eventos de Datadog, introduce el token de API generado desde la [página de tu perfil] de Pivotal[2]. +Para obtener eventos de Pivotal en el Explorador de eventos de Datadog, introduce el token de API generado de tu [página de perfil](https://www.pivotaltracker.com/signin) de Pivotal. -![token de pivotal][3] +![token de pivotal](images/pivotal_token.png) ## Datos recopilados @@ -84,12 +44,6 @@ La integración Pivotal Tracker no incluye eventos. La integración Pivotal Tracker no incluye checks de servicio. -## Resolución de problemas - -¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][4]. - -[1]: https://www.pivotaltracker.com/features -[2]: https://www.pivotaltracker.com/signin -[3]: images/pivotal_token.png -[4]: https://docs.datadoghq.com/help/ +## Solucionar problemas +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/postgres.md b/content/es/integrations/postgres.md index 9051993d03e98..4671ed581b6ea 100644 --- a/content/es/integrations/postgres.md +++ b/content/es/integrations/postgres.md @@ -1,107 +1,44 @@ --- app_id: postgres -app_uuid: e6b3c5ec-b293-4a22-9145-277a12a9abd4 -assets: - dashboards: - postgresql: assets/dashboards/postgresql_dashboard.json - postgresql_screenboard: assets/dashboards/postgresql_screenboard_dashboard.json - integration: - auto_install: true - configuration: - spec: assets/configuration/spec.yaml - events: - creates_events: false - metrics: - check: - - postgresql.connections - - postgresql.max_connections - metadata_path: metadata.csv - prefix: postgresql. - process_signatures: - - postgres -D - - pg_ctl start -l logfile - - postgres -c 'pg_ctl start -D -l - service_checks: - metadata_path: assets/service_checks.json - source_type_id: !!int 28 - source_type_name: Postgres - monitors: - Connection pool is reaching saturation point: assets/monitors/percent_usage_connections.json - Replication delay is high: assets/monitors/replication_delay.json - saved_views: - operations: assets/saved_views/operations.json - postgres_pattern: assets/saved_views/postgres_pattern.json - postgres_processes: assets/saved_views/postgres_processes.json - sessions_by_host: assets/saved_views/sessions_by_host.json - slow_operations: assets/saved_views/slow_operations.json -author: - homepage: https://www.datadoghq.com - name: Datadog - sales_email: info@datadoghq.com - support_email: help@datadoghq.com categories: - data stores - log collection - notifications - tracing custom_kind: integración -dependencies: -- https://github.com/DataDog/integrations-core/blob/master/postgres/README.md -display_on_public_website: true -draft: false -git_integration_title: postgres -integration_id: postgres -integration_title: Postgres -integration_version: 22.0.1 -is_public: true -manifest_version: 2.0.0 -name: postgres -public_title: Postgres -short_description: Recopila una importante cantidad de métricas del rendimiento y el estado de las bases de datos. +description: Recopila una importante cantidad de métricas del rendimiento y el estado + de las bases de datos. +further_reading: +- link: https://docs.datadoghq.com/integrations/faq/postgres-custom-metric-collection-explained/ + tag: documentación + text: Recopilación de métricas personalizadas de Postgres +- link: https://www.datadoghq.com/blog/100x-faster-postgres-performance-by-changing-1-line + tag: blog + text: Rendimiento de Postgres 100 veces más rápido cambiando 1 línea +- link: https://www.datadoghq.com/blog/postgresql-monitoring + tag: blog + text: Métricas clave para la monitorización de PostgreSQL +- link: https://www.datadoghq.com/blog/postgresql-monitoring-tools + tag: blog + text: Recopilación de métricas con herramientas de monitorización PostgreSQL +- link: https://www.datadoghq.com/blog/collect-postgresql-data-with-datadog + tag: blog + text: Recopilación y monitorización de datos PostgreSQL con Datadog +integration_version: 22.15.0 +media: [] supported_os: - linux - windows - macos -tile: - changelog: CHANGELOG.md - classifier_tags: - - Category::Almacenes de datos - - Category::Recopilación de logs - - Category::Notificaciones - - Category::Rastreo - - Supported OS::Linux - - Supported OS::Windows - - Supported OS::macOS - - Offering::Integración - configuration: README.md#Configuración - description: Recopila una importante cantidad de métricas del rendimiento y el estado de las bases de datos. - media: [] - overview: README.md#Información general - resources: - - resource_type: documentación - url: https://docs.datadoghq.com/integrations/faq/postgres-custom-metric-collection-explained/ - - resource_type: blog - url: https://www.datadoghq.com/blog/100x-faster-postgres-performance-by-changing-1-line - - resource_type: blog - url: https://www.datadoghq.com/blog/postgresql-monitoring - - resource_type: blog - url: https://www.datadoghq.com/blog/postgresql-monitoring-tools - - resource_type: blog - url: https://www.datadoghq.com/blog/collect-postgresql-data-with-datadog - support: README.md#Soporte - title: Postgres +title: Postgres --- - - - - -[Gráfico de PostgreSQL][1] +![Gráfico PostgreSQL](https://raw.githubusercontent.com/DataDog/integrations-core/master/postgres/images/postgresql_dashboard.png) ## Información general La integración Postgres proporciona métricas del estado y el rendimiento de tu base de datos Postgres casi en tiempo real. Visualiza estos métricas con el dashboard proporcionado y crea monitores para alertar a tu equipo sobre los estados de PostgreSQL. -Habilita [Database Monitoring][2] (DBM) para obtener información mejorada sobre el rendimiento de las consultas y el estado de las bases de datos. Además de la integración estándar, Datadog DBM proporciona métricas a nivel de consulta, snapshots de consultas históricas y actuales, análisis de eventos de espera, carga de bases de datos, planes de explicación de consultas e información sobre bloqueos de consultas. +Activa [Database Monitoring](https://docs.datadoghq.com/database_monitoring/) (DBM) para obtener información mejorada sobre el rendimiento de las consultas y el estado de las bases de datos. Además de la integración estándar, Datadog DBM proporciona métricas a nivel de consulta, snapshots de consultas históricas y actuales, análisis de eventos de espera, carga de bases de datos, explain plans de consultas e información sobre bloqueos de consultas. Se admiten las versiones 9.6-16 de Postgres. @@ -111,13 +48,13 @@ Se admiten las versiones 9.6-16 de Postgres. ### Instalación -El check de PostgreSQL viene en el mismo paquete que el Agent. Para empezar a reunir tus métricas y logs de PostgreSQL, [instala el Agent][3]. +El check de PostgreSQL viene en el mismo paquete que el Agent. Para empezar a recopilar tus métricas y logs de PostgreSQL, [instala el Agent](https://app.datadoghq.com/account/settings/agent/latest). ### Configuración -**Nota**: Para instalar Database Monitoring para PostgreSQL, selecciona tu solución de alojamiento en la [documentación de Database Monitoring][4] para obtener instrucciones. +**Nota**: Para instalar Database Monitoring para PostgreSQL, selecciona tu solución de alojamiento en la [documentación de Database Monitoring](https://docs.datadoghq.com/database_monitoring/#postgres) para obtener instrucciones. -Procede con los siguientes pasos de esta guía, sólo si vas a instalar la integración estándar únicamente. +Procede con los siguientes pasos de esta guía solo si vas a instalar la integración estándar únicamente. #### Preparación de Postgres @@ -161,9 +98,10 @@ grant SELECT ON pg_stat_activity_dd to datadog; ``` {{< tabs >}} + {{% tab "Host" %}} -**Nota**: Al generar métricas personalizadas que requieren que se consulten tablas adicionales, puede que sea necesario conceder el permiso `SELECT` al usuario `datadog` para acceder a esas tablas. Ejemplo: `grant SELECT on to datadog;`. Para obtener más información, consulta la [sección FAQ][1]. +**Nota**: Al generar métricas personalizadas que requieren que se consulten tablas adicionales, puede que sea necesario conceder el permiso `SELECT` al usuario `datadog` para acceder a esas tablas. Ejemplo: `grant SELECT on to datadog;`. Para obtener más información, consulta la [sección FAQ](https://docs.datadoghq.com/integrations/postgres/?tab=host#faq). #### Host @@ -171,105 +109,104 @@ Para configurar este check para un Agent que se ejecuta en un host: ##### Recopilación de métricas -1. Edita el archivo `postgres.d/conf.yaml` para que apunte a tu `host` / `port` y define los maestros que se van a monitorizar. Para ver todas las opciones de configuración disponibles, consulta el [postgres.d/conf.yaml de ejemplo][2]. - - ```yaml - init_config: - - instances: - ## @param host - string - required - ## The hostname to connect to. - ## NOTE: Even if the server name is "localhost", the agent connects to - ## PostgreSQL using TCP/IP, unless you also provide a value for the sock key. - # - - host: localhost - - ## @param port - integer - optional - default: 5432 - ## The port to use when connecting to PostgreSQL. - # - # port: 5432 - - ## @param username - string - required - ## The Datadog username created to connect to PostgreSQL. - # - username: datadog - - ## @param password - string - optional - ## The password associated with the Datadog user. - # - # password: - - ## @param dbname - string - optional - default: postgres - ## The name of the PostgresSQL database to monitor. - ## Note: If omitted, the default system Postgres database is queried. - # - # dbname: - - # @param disable_generic_tags - boolean - optional - default: false - # The integration will stop sending server tag as is redundant with host tag - disable_generic_tags: true - ``` - -2. Para recopilar métricas de relación, conecta el Agent a cada base de datos lógica. Estas bases de datos se pueden detectar automáticamente o cada una de ellas puede estar explícitamente listada en la configuración. - - - Para detectar bases de datos lógicas automáticamente en una instancia determinada, habilita la detección automática en esa instancia: - - ```yaml - instances: - - host: localhost - # port: 5432 - database_autodiscovery: - enabled: true - # Optionally, set the include field to specify - # a set of databases you are interested in discovering - include: - - mydb.* - - example.* - relations: - - relation_regex: .* - ``` - - - También puedes listar cada base de datos lógica como una instancia en la configuración: - - ```yaml - instances: - - host: example-service-primary.example-host.com - # port: 5432 - username: datadog - password: '' - relations: - - relation_name: products - - relation_name: external_seller_products - - host: example-service-replica-1.example-host.com - # port: 5432 - username: datadog - password: '' - relations: - - relation_regex: inventory_.* - relkind: - - r - - i - - host: example-service-replica-2.example-host.com - # port: 5432 - username: datadog - password: '' - relations: - - relation_regex: .* - ``` -3. [Reinicia el Agent][3]. - -##### Recopilación de trazas (traces) - -Datadog APM se integra con Postgres para visualizar trazas a través de tu sistema distribuido. La recopilación de trazas está habilitada por defecto en el Datadog Agent v6 o posteriores. Para empezar a recopilar trazas: - -1. [Habilita la recopilación de trazas en Datadog][4]. -2. [Instrumenta la aplicación que realiza solicitudes a Postgres][5]. +1. Edita el archivo `postgres.d/conf.yaml` para que apunte a tu `host`/`port` y define los principales para monitorizar. Consulta el [ejemplo de postgres.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/postgres/datadog_checks/postgres/data/conf.yaml.example) para ver todas las opciones de configuración disponibles. -##### Recopilación de logs + ```yaml + init_config: + + instances: + ## @param host - string - required + ## The hostname to connect to. + ## NOTE: Even if the server name is "localhost", the agent connects to + ## PostgreSQL using TCP/IP, unless you also provide a value for the sock key. + # + - host: localhost + + ## @param port - integer - optional - default: 5432 + ## The port to use when connecting to PostgreSQL. + # + # port: 5432 + + ## @param username - string - required + ## The Datadog username created to connect to PostgreSQL. + # + username: datadog + + ## @param password - string - optional + ## The password associated with the Datadog user. + # + # password: + + ## @param dbname - string - optional - default: postgres + ## The name of the PostgresSQL database to monitor. + ## Note: If omitted, the default system Postgres database is queried. + # + # dbname: + + # @param disable_generic_tags - boolean - optional - default: false + # The integration will stop sending server tag as is redundant with host tag + disable_generic_tags: true + ``` + +1. Para recopilar métricas de relación, conecta el Agent a cada base de datos lógica. Estas bases de datos pueden ser detectadas automáticamente o cada una puede estar enumerada explícitamente en la configuración. + + - Para detectar bases de datos lógicas automáticamente en una instancia determinada, activa la detección automática en esa instancia: -Disponible para la versión 6.0 o posteriores del Agent + ```yaml + instances: + - host: localhost + # port: 5432 + database_autodiscovery: + enabled: true + # Optionally, set the include field to specify + # a set of databases you are interested in discovering + include: + - mydb.* + - example.* + relations: + - relation_regex: .* + ``` -La generación de logs por defecto de PostgreSQL es para `stderr` y los logs no incluyen información detallada. Se recomienda generar logs en un archivo con detalles adicionales especificados en el prefijo de línea de los logs. Para obtener más información, consulta la documentación de PostgreSQL sobre [informes de error y generación de logs][6]. + - También puedes listar cada base de datos lógica como una instancia en la configuración: + + ```yaml + instances: + - host: example-service-primary.example-host.com + # port: 5432 + username: datadog + password: '' + relations: + - relation_name: products + - relation_name: external_seller_products + - host: example-service-replica-1.example-host.com + # port: 5432 + username: datadog + password: '' + relations: + - relation_regex: inventory_.* + relkind: + - r + - i + - host: example-service-replica-2.example-host.com + # port: 5432 + username: datadog + password: '' + relations: + - relation_regex: .* + ``` + +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). + +##### Recopilación de trazas + +Datadog APM se integra con Postgres para visualizar trazas (traces) a través de tu sistema distribuido. La recopilación de trazas está activada por defecto en el Datadog Agent v6 o posteriores. Para empezar a recopilar trazas: + +1. [Activa la recopilación de trazas en Datadog](https://docs.datadoghq.com/tracing/send_traces/). +1. [Instrumenta tu aplicación que realiza solicitudes a Postgres](https://docs.datadoghq.com/tracing/setup/). + +##### Recopilación de logs + +La generación de logs por defecto de PostgreSQL es para `stderr` y los logs no incluyen información detallada. Se recomienda generar logs en un archivo con detalles adicionales especificados en el prefijo de línea de los logs. Para obtener más información, consulta la documentación de PostgreSQL sobre [informes de error y generación de logs](https://www.postgresql.org/docs/11/runtime-config-logging.html). 1. La generación de logs se configura en el archivo `/etc/postgresql//main/postgresql.conf`. Para obtener resultados regulares en logs, incluidos los resultados de sentencias, descomenta los siguientes parámetros en la sección de logs: @@ -286,7 +223,7 @@ La generación de logs por defecto de PostgreSQL es para `stderr` y los logs no #log_destination = 'eventlog' ``` -2. Para recopilar métricas de duración detallada y permitir su búsqueda en la interfaz de Datadog, deben configurarse en línea con la propia sentencia. Consulta a continuación las diferencias de configuración recomendadas con respecto a las anteriores. **Nota**: Las opciones `log_statement` y `log_duration` están comentadas. Para ver una discusión sobre este tema, consulta [Sentencia/duración de la generación de logs en la misma línea][7]. +1. Para recopilar métricas de duración detallada y permitir su búsqueda en la interfaz de Datadog, deben configurarse en línea con la propia sentencia. Consulta a continuación las diferencias de configuración recomendadas con respecto a las anteriores. **Nota**: Las opciones `log_statement` y `log_duration` están comentadas. Para ver una discusión sobre este tema, consulta [Sentencia/duración de la generación de logs en la misma línea](https://www.postgresql.org/message-id/20100210180532.GA20138@depesz.com). Esta configuración registra todas las sentencias. Para reducir los resultados en función de la duración, ajusta el valor `log_min_duration_statement` a la duración mínima deseada (en milisegundos): @@ -299,13 +236,13 @@ La generación de logs por defecto de PostgreSQL es para `stderr` y los logs no #log_duration = on ``` -3. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Habilítala en tu archivo `datadog.yaml`: +1. La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent, actívala en tu archivo `datadog.yaml`: ```yaml logs_enabled: true ``` -4. Añade y edita este bloque de configuración a tu archivo `postgres.d/conf.yaml` para empezar a recopilar tus logs de PostgreSQL: +1. Añade y edita este bloque de configuración a tu archivo `postgres.d/conf.yaml` para empezar a recopilar tus logs de PostgreSQL: ```yaml logs: @@ -320,18 +257,12 @@ La generación de logs por defecto de PostgreSQL es para `stderr` y los logs no # name: new_log_start_with_date ``` - Cambia los valores de los parámetros `service` y `path` a fin de configurarlos para tu entorno. Para ver todas las opciones de configuración disponibles, consulta el [postgres.d/conf.yaml de ejemplo][2]. + Cambia los valores de los parámetros `service` y `path` y configúralos para tu entorno. Consulta el [ejemplo de postgres.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/postgres/datadog_checks/postgres/data/conf.yaml.example) para ver todas las opciones de configuración disponibles. -5. [Reinicia el Agent][3]. +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). -[1]: https://docs.datadoghq.com/integrations/postgres/?tab=host#faq -[2]: https://github.com/DataDog/integrations-core/blob/master/postgres/datadog_checks/postgres/data/conf.yaml.example -[3]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent -[4]: https://docs.datadoghq.com/tracing/send_traces/ -[5]: https://docs.datadoghq.com/tracing/setup/ -[6]: https://www.postgresql.org/docs/11/runtime-config-logging.html -[7]: https://www.postgresql.org/message-id/20100210180532.GA20138@depesz.com {{% /tab %}} + {{% tab "Docker" %}} #### Docker @@ -340,7 +271,7 @@ Para configurar este check para un Agent que se ejecuta en un contenedor: ##### Recopilación de métricas -Configura [plantillas de integraciones Autodiscovery][1] como etiquetas (labels) Docker en el contenedor de tu aplicación: +Configura [plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/docker/integrations/?tab=docker) como etiquetas (labels) de Docker en el contenedor de tu aplicación: ```yaml LABEL "com.datadoghq.ad.check_names"='["postgres"]' @@ -350,10 +281,9 @@ LABEL "com.datadoghq.ad.instances"='[{"host":"%%host%%", "port":5432,"username": ##### Recopilación de logs +La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [Recopilación de logs de Docker](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#installation). -La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta la [recopilación de logs de Docker][2]. - -Luego, configura [integraciones de logs][3] como etiquetas Docker: +A continuación, configura [integraciones de logs](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations) como etiquetas de Docker: ```yaml LABEL "com.datadoghq.ad.logs"='[{"source":"postgresql","service":"postgresql"}]' @@ -361,9 +291,9 @@ LABEL "com.datadoghq.ad.logs"='[{"source":"postgresql","service":"postgresql"}]' ##### Recopilación de trazas -APM para aplicaciones en contenedores es compatible con la versión 6 o posteriores del Agent, pero requiere una configuración adicional a fin de empezar a recopilar trazas. +APM para aplicaciones en contenedores es compatible con el Agent v6 o posterior, pero requiere configuración adicional para empezar a recopilar trazas. -Variables de entorno necesarias en el contenedor del Agent: +Variables de entorno requeridas en el contenedor del Agent: | Parámetro | Valor | | -------------------- | -------------------------------------------------------------------------- | @@ -371,27 +301,23 @@ Variables de entorno necesarias en el contenedor del Agent: | `` | verdadero | | `` | verdadero | -Para ver una lista completa de las variables de entorno y la configuración disponibles, consulta [Rastreo de aplicaciones Docker][4]. - -Luego, [instrumenta el contenedor de tu aplicación que realiza solicitudes a Postgres][3] y configura `DD_AGENT_HOST` con el nombre del contenedor de tu Agent. +Para ver una lista completa de las variables de entorno y la configuración disponibles, consulta [Rastreo de aplicaciones Docker](https://docs.datadoghq.com/agent/amazon_ecs/logs/?tab=linux). +A continuación, [instrumenta el contenedor de tu aplicación que realiza solicitudes a Postgres](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations) y configura `DD_AGENT_HOST` con el nombre del contenedor de tu Agent. -[1]: https://docs.datadoghq.com/agent/docker/integrations/?tab=docker -[2]: https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#installation -[3]: https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations -[4]: https://docs.datadoghq.com/agent/amazon_ecs/logs/?tab=linux {{% /tab %}} + {{% tab "Kubernetes" %}} #### Kubernetes -Para configurar este check para un Agent que se ejecuta en Kubernetes: +Para Configurar este check para un Agent que se ejecuta en Kubernetes: ##### Recopilación de métricas -Configura [plantillas de integraciones de Autodiscovery][1] como anotaciones de pod en el contenedor de tu aplicación. Además de esto, las plantillas también se pueden configurar con [un archivo, un mapa de configuración o un almacén de clave-valor][2]. +Configura [plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/kubernetes/integrations/?tab=kubernetes) como anotaciones de pod en el contenedor de tu aplicación. Aparte de esto, las plantillas también se pueden configurar con [un archivo, un mapa de configuración o un almacén clave-valor](https://docs.datadoghq.com/agent/kubernetes/integrations/?tab=kubernetes#configuration). -**Anotaciones v1** (para la versión 7.36 o anterior del Datadog Agent) +**Anotaciones v1** (para el Datadog Agent \< v7.36) ```yaml apiVersion: v1 @@ -415,7 +341,7 @@ spec: - name: postgres ``` -**Anotaciones v2** (para la versión 7.36 o posterior del Datadog Agent) +**Anotaciones v2** (para el Datadog Agent v7.36 o posterior) ```yaml apiVersion: v1 @@ -444,10 +370,9 @@ spec: ##### Recopilación de logs +La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [Recopilación de logs de Kubernetes](https://docs.datadoghq.com/agent/kubernetes/log/?tab=containerinstallation#setup). -La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta la [recopilación de logs de Kubernetes][3]. - -Luego, configura las [integraciones de logs][4] como anotaciones de pod. Esto también se puede configurar con [un archivo, un mapa de configuración o un almacén de clave-valor][5]. +A continuación, configura [integraciones de logs](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations) como anotaciones de pod. Esto también se puede configurar con [un archivo, un mapa de configuración o un almacén clave-valor](https://docs.datadoghq.com/agent/kubernetes/log/?tab=daemonset#configuration). **Anotaciones v1/v2** @@ -465,9 +390,9 @@ spec: ##### Recopilación de trazas -APM para aplicaciones en contenedores es compatible con hosts que se ejecutan en la versión 6 o posteriores del Agent, pero requiere una configuración adicional a fin de empezar a recopilar trazas. +APM para aplicaciones en contenedores es compatible con hosts que se ejecutan en la versión 6 o posteriores del Agent, pero requiere configuración adicional para empezar a recopilar trazas. -Variables de entorno necesarias en el contenedor del Agent: +Variables de entorno requeridas en el contenedor del Agent: | Parámetro | Valor | | -------------------- | -------------------------------------------------------------------------- | @@ -475,18 +400,12 @@ Variables de entorno necesarias en el contenedor del Agent: | `` | verdadero | | `` | verdadero | -Para ver una lista completa de las variables de entorno y la configuración disponibles, consulta [Rastreo de aplicaciones Kubernetes][6] y la [configuración del DaemonSet de Kubernetes][7]. +Consulta [Rastreo de aplicaciones Kubernetes](https://docs.datadoghq.com/agent/amazon_ecs/apm/?tab=ec2metadataendpoint#setup) y [Configuración de Kubernetes DaemonSet](https://github.com/DataDog/integrations-core/blob/master/postgres/assets/service_checks.json) para obtener una lista completa de las variables de entorno y la configuración disponibles. -A continuación, [instrumenta el contenedor de tu aplicación que realiza solicitudes a Postgres][4]. +A continuación, [instrumenta el contenedor de tu aplicación que realiza solicitudes a Postgres](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations). -[1]: https://docs.datadoghq.com/agent/kubernetes/integrations/?tab=kubernetes -[2]: https://docs.datadoghq.com/agent/kubernetes/integrations/?tab=kubernetes#configuration -[3]: https://docs.datadoghq.com/agent/kubernetes/log/?tab=containerinstallation#setup -[4]: https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations -[5]: https://docs.datadoghq.com/agent/kubernetes/log/?tab=daemonset#configuration -[6]: https://docs.datadoghq.com/agent/amazon_ecs/apm/?tab=ec2metadataendpoint#setup -[7]: https://github.com/DataDog/integrations-core/blob/master/postgres/assets/service_checks.json {{% /tab %}} + {{% tab "ECS" %}} #### ECS @@ -495,7 +414,9 @@ Para configurar este check para un Agent que se ejecuta en ECS: ##### Recopilación de métricas -Configura [plantillas de integraciones Autodiscovery][1] como etiquetas Docker en el contenedor de tu aplicación: +Configura [plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/docker/integrations/?tab=docker) como etiquetas de Docker en el contenedor de tu aplicación: + +**Anotaciones v1** (para el Datadog Agent \< v7.36) ```json { @@ -511,12 +432,25 @@ Configura [plantillas de integraciones Autodiscovery][1] como etiquetas Docker e } ``` -##### Recopilación de logs +**Anotaciones v2** (para el Datadog Agent v7.36 o posterior) +```json +{ + "containerDefinitions": [{ + "name": "postgres", + "image": "postgres:latest", + "dockerLabels": { + "com.datadoghq.ad.checks": "{\"postgres\": {\"instances\": [{\"host\":\"%%host%%\", \"port\":5432, \"username\":\"postgres\", \"password\":\"\"}]}}" + } + }] +} +``` -La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta la [recopilación de logs de ECS][2]. +##### Recopilación de logs -Luego, configura [integraciones de logs][3] como etiquetas Docker: +La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [Recopilación de logs de ECS](https://docs.datadoghq.com/agent/amazon_ecs/logs/?tab=linux). + +A continuación, configura [integraciones de logs](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations) como etiquetas de Docker: ```json { @@ -532,9 +466,9 @@ Luego, configura [integraciones de logs][3] como etiquetas Docker: ##### Recopilación de trazas -APM para aplicaciones en contenedores es compatible con la versión 6 o posteriores del Agent, pero requiere una configuración adicional a fin de empezar a recopilar trazas. +APM para aplicaciones en contenedores es compatible con el Agent v6 o posterior, pero requiere configuración adicional para empezar a recopilar trazas. -Variables de entorno necesarias en el contenedor del Agent: +Variables de entorno requeridas en el contenedor del Agent: | Parámetro | Valor | | -------------------- | -------------------------------------------------------------------------- | @@ -542,69 +476,293 @@ Variables de entorno necesarias en el contenedor del Agent: | `` | verdadero | | `` | verdadero | -Para ver una lista completa de las variables de entorno y la configuración disponibles, consulta [Rastreo de aplicaciones Docker][4]. +Para ver una lista completa de las variables de entorno y la configuración disponibles, consulta [Rastreo de aplicaciones Docker](https://docs.datadoghq.com/agent/docker/apm/). -Luego, [instrumenta el contenedor de tu aplicación que realiza solicitudes a Postgres][3] y configura `DD_AGENT_HOST` en la [dirección IP privada de EC2][5]. +A continuación, [instrumenta el contenedor de tu aplicación que realiza solicitudes a Postgres](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations) y configura `DD_AGENT_HOST` con la [dirección IP privada de EC2](https://docs.datadoghq.com/agent/amazon_ecs/apm/?tab=ec2metadataendpoint#setup). -[1]: https://docs.datadoghq.com/agent/docker/integrations/?tab=docker -[2]: https://docs.datadoghq.com/agent/amazon_ecs/logs/?tab=linux -[3]: https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations -[4]: https://docs.datadoghq.com/agent/docker/apm/ -[5]: https://docs.datadoghq.com/agent/amazon_ecs/apm/?tab=ec2metadataendpoint#setup {{% /tab %}} + {{< /tabs >}} ### Validación -[Ejecuta el subcomando de estado del Agent][5] y busca `postgres` en la sección Checks. +[Ejecuta el subcomando de estado del Agent(https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `postgres` en la sección Checks. ## Datos recopilados -Algunas de las métricas enumeradas a continuación requieren una configuración adicional. Para ver todas las opciones configurables, consulta el [postgres.d/conf.yaml de ejemplo][6]. +Algunas de las métricas enumeradas a continuación requieren configuración adicional. Consulta el [ejemplo de postgres.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/postgres/datadog_checks/postgres/data/conf.yaml.example) para ver todas las opciones de configuración disponibles. ### Métricas -{{< get-metrics-from-git "postgres" >}} - -Para la versión `7.32.0` y posteriores del Agent, si tienes Database Database Monitoring habilitado, la métrica `postgresql.connections` se etiqueta (tag) con `state`, `app`, `db` y `user`. +| | | +| --- | --- | +| **postgresql.active_queries**
(gauge) | Activado con `collect_activity_metrics`. Número de consultas activas en esta base de datos. Esta métrica (por defecto) está etiquetada con db, app, user.| +| **postgresql.active_waiting_queries**
(gauge) | Activado con `collect_activity_metrics`. Número de consultas en espera en esta base de datos en estado activo. Esta métrica (por defecto) está etiquetada con db, app, user.| +| **postgresql.activity.backend_xid_age**
(gauge) | Antigüedad del xid del backend más antiguo en relación con el último xid estable. Esta métrica (por defecto) está etiquetada con db, app, user.
_Se muestra como transacción_ | +| **postgresql.activity.backend_xmin_age**
(gauge) | Antigüedad del horizonte xmin del backend más antiguo en relación con el último xid estable. Esta métrica (por defecto) está etiquetada con db, app, user.
_Se muestra como transacción_ | +| **postgresql.activity.wait_event**
(gauge) | Número de eventos de espera en el momento de la comprobación. Esta métrica está etiquetada por usuario. Esta métrica está etiquetada por user, db, app y backend_type.| +| **postgresql.activity.xact_start_age**
(gauge) | Antigüedad de las transacciones activas más antiguas. Esta métrica (por defecto) está etiquetada con db, app, user.
_Se muestra como segundos_. | +| **postgresql.analyze.child_tables_done**
(gauge) | Número de tablas secundarias analizadas. Este contador solo avanza cuando la fase está adquiriendo filas de ejemplo heredadas. Esta métrica está etiquetada con db, table, child_relation, phase.| +| **postgresql.analyze.child_tables_total**
(gauge) | Número de tablas secundarias. Esta métrica está etiquetada con db, table, child_relation, phase.| +| **postgresql.analyze.ext_stats_computed**
(gauge) | Número de estadísticas ampliadas calculadas. Este contador solo avanza cuando la fase está calculando estadísticas ampliadas. Esta métrica está etiquetada con db, table, child_relation, phase.| +| **postgresql.analyze.ext_stats_total**
(gauge) | Número de estadísticas ampliadas. Esta métrica está etiquetada con db, table, child_relation, phase.| +| **postgresql.analyze.sample_blks_scanned**
(gauge) | Número de bloques heap analizados. Esta métrica está etiquetada con db, table, child_relation, phase.
_Se muestra como bloque_. | +| **postgresql.analyze.sample_blks_total**
(gauge) | Número total de bloques heap que se muestrearán. Esta métrica está etiquetada con db, table, child_relation, phase.
_Se muestra como bloque_. | +| **postgresql.analyzed**
(count) | Activado con `relations`. Número de veces que se ha analizado manualmente esta tabla. Esta métrica está etiquetada con db, schema, table.| +| **postgresql.archiver.archived_count**
(count) | Número de archivos WAL que se han archivado correctamente.| +| **postgresql.archiver.failed_count**
(count) | Número de intentos fallidos para archivar archivos WAL.| +| **postgresql.autoanalyzed**
(count) | Activado con `relations`. Número de veces que esta tabla ha sido analizada por el daemon de autovaciado. Esta métrica está etiquetada con db, schema, table.| +| **postgresql.autovacuumed**
(count) | Activado con `relations`. Número de veces que esta tabla ha sido vaciada por el daemon de autovaciado. Esta métrica está etiquetada con db, schema, table.| +| **postgresql.before_xid_wraparound**
(gauge) | Número de transacciones que pueden ocurrir hasta que se agote el ID de una transacción. Esta métrica está etiquetada con db.
_Se muestra como transacción_ | +| **postgresql.bgwriter.buffers_alloc**
(count) | Número de buffers asignados| +| **postgresql.bgwriter.buffers_backend**
(count) | Número de buffers escritos directamente por un backend.
_Se muestra como buffer_ | +| **postgresql.bgwriter.buffers_backend_fsync**
(count) | Cantidad de veces que un backend ha tenido que ejecutar su propia llamada fsync en lugar del escritor en segundo plano.| +| **postgresql.bgwriter.buffers_checkpoint**
(count) | Número de buffers escritos durante los puntos de control.| +| **postgresql.bgwriter.buffers_clean**
(count) | Número de buffers escritos por el escritor en segundo plano.| +| **postgresql.bgwriter.checkpoints_requested**
(count) | Número de puntos de control solicitados que se han realizado.| +| **postgresql.bgwriter.checkpoints_timed**
(count) | Número de puntos de control programados que se han realizado.| +| **postgresql.bgwriter.maxwritten_clean**
(count) | Número de veces que el escritor en segundo plano ha detenido una exploración de limpieza debido a la escritura de demasiados buffers.| +| **postgresql.bgwriter.sync_time**
(count) | Cantidad total de tiempo de procesamiento del punto de control dedicado a sincronizar los archivos con el disco.
_Se muestra como milisegundos_ | +| **postgresql.bgwriter.write_time**
(count) | Cantidad total de tiempo de procesamiento del punto de control dedicado a escribir archivos en el disco.
_Se muestra como milisegundos_ | +| **postgresql.blk_read_time**
(count) | Tiempo dedicado a leer bloques de archivos de datos por los backends en esta base de datos si track_io_timing está activado. Esta métrica está etiquetada con db.
_Se muestra como milisegundos_. | +| **postgresql.blk_write_time**
(count) | Tiempo dedicado a escribir bloques de archivos de datos por los backends en esta base de datos si track_io_timing está activado. Esta métrica está etiquetada con db.
_Se muestra como milisegundos_. | +| **postgresql.buffer_hit**
(rate) | Número de veces que se han encontrado bloques del disco en la caché del buffer, evitando la necesidad de leer desde la base de datos. Esta métrica está etiquetada con db.
_Se muestra como solicitud_. | +| **postgresql.buffercache.dirty_buffers**
(gauge) | Número de buffers sucios compartidos. Es necesario instalar la extensión pg_buffercache. Esta métrica está etiquetada por db, esquema y relación.
_Se muestra como buffer_ | +| **postgresql.buffercache.pinning_backends**
(gauge) | Número de backends que utilizan buffers compartidos. Es necesario instalar la extensión pg_buffercache. Esta métrica está etiquetada por db, schema y relation.| +| **postgresql.buffercache.unused_buffers**
(gauge) | Número de buffers compartidos no utilizados. Es necesario instalar la extensión pg_buffercache.
_Se muestra como buffer_ | +| **postgresql.buffercache.usage_count**
(gauge) | Suma de usage_count de buffers compartidos. Es necesario instalar la extensión pg_buffercache. Esta métrica está etiquetada por por db, schema y relation.| +| **postgresql.buffercache.used_buffers**
(gauge) | Número de buffers compartidos. Es necesario instalar la extensión pg_buffercache. Esta métrica está etiquetada por db, schema y relation.
_Se muestra como buffer_ | +| **postgresql.checksums.checksum_failures**
(count) | Número de fallos de suma de comprobación en esta base de datos. Esta métrica está etiquetada con db.| +| **postgresql.checksums.enabled**
(count) | Si están activadas las sumas de comprobación de bases de datos. El valor es siempre 1 y está etiquetado con enabled:true o enabled:false. Esta métrica está etiquetada con db.| +| **postgresql.cluster_vacuum.heap_blks_scanned**
(gauge) | Número de bloques heap analizados. Este contador solo avanza cuando la fase es heap de análisis secuencial. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, command, phase, index.
_Se muestra como bloque_ | +| **postgresql.cluster_vacuum.heap_blks_total**
(gauge) | Número total de bloques heap en la tabla. Este número se informa desde el inicio del heap de análisis secuencial. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, command, phase, index.
_Se muestra como bloque_ | +| **postgresql.cluster_vacuum.heap_tuples_scanned**
(gauge) | Número de tuplas heap analizadas. Este contador solo avanza cuando la fase es heap de análisis secuencial, heap de análisis de índices o nuevo heap de escritura. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, command, phase, index.| +| **postgresql.cluster_vacuum.heap_tuples_written**
(gauge) | Número de tuplas heap escritas. Este contador solo avanza cuando la fase es heap de análisis secuencial, heap de análisis de índices o nuevo heap de escritura. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, command, phase, index.| +| **postgresql.cluster_vacuum.index_rebuild_count**
(gauge) | Número de índices reconstruidos. Este contador solo avanza cuando la fase es de reconstrucción de índices. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, command, phase, index.| +| **postgresql.commits**
(rate) | Número de transacciones que se han confirmado en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como transacción_ | +| **postgresql.conflicts.bufferpin**
(count) | Número de consultas en esta base de datos que han sido canceladas debido a buffers anclados. Los conflictos de pin de buffer ocurrirán cuando el proceso walreceiver intente aplicar una limpieza de buffer como el pruning de cadena HOT. Esto requiere un bloqueo completo del buffer y cualquier consulta que lo tenga anclado entrará en conflicto con la limpieza. Esta métrica está etiquetada con db.
_Se muestra como consulta_ | +| **postgresql.conflicts.deadlock**
(count) | Número de consultas en esta base de datos que han sido canceladas debido a bloqueos. Los conflictos de bloqueo ocurrirán cuando el proceso walreceiver intente aplicar un buffer como pruning de cadena HOT. Si el conflicto dura más de deadlock_timeout segundos, se activará una comprobación de bloqueo y las consultas en conflicto se cancelarán hasta que se desancle el buffer. Esta métrica está etiquetada con db.
_Se muestra como consulta_ | +| **postgresql.conflicts.lock**
(count) | Número de consultas en esta base de datos que se han cancelado debido a tiempos de espera de bloqueo. Esto ocurrirá cuando el proceso walreceiver intente aplicar un cambio que requiera un bloqueo ACCESS EXCLUSIVE mientras una consulta en la réplica está leyendo la tabla. La consulta en conflicto será eliminada después de esperar hasta max_standby_streaming_delay segundos. Esta métrica está etiquetada con db.
_Se muestra como consulta_ | +| **postgresql.conflicts.snapshot**
(count) | Número de consultas en esta base de datos que se han cancelado debido a snapshots demasiado antiguos. Se producirá un conflicto de snapshots cuando se reproduzca un VACUUM, eliminando las tuplas leídas actualmente en una espera. Esta métrica está etiquetada con db.
_Se muestra como consulta_ | +| **postgresql.conflicts.tablespace**
(count) | Número de consultas en esta base de datos que se han cancelado debido a espacios en tablas eliminados. Esto ocurrirá cuando se elimine un temp_tablespace temporal mientras se utiliza en una espera. Esta métrica está etiquetada con db.
_Se muestra como consulta_ | +| **postgresql.connections**
(gauge) | Número de conexiones activas a esta base de datos.
_Se muestra como conexión_ | +| **postgresql.connections_by_process**
(gauge) | Número de conexiones activas a esta base de datos, desglosado por atributos a nivel de proceso. Esta métrica está etiquetada con state, application, user y db. (Solo DBM)
_Se muestra como conexión_. | +| **postgresql.control.checkpoint_delay**
(gauge) | Tiempo transcurrido desde el último punto de control.
_Se muestra como segundos_ | +| **postgresql.control.checkpoint_delay_bytes**
(gauge) | Cantidad de bytes WAL escritos desde el último punto de control.
_Se muestra como bytes_ | +| **postgresql.control.redo_delay_bytes**
(gauge) | Cantidad de bytes WAL escritos desde el último punto de rehacer.
_Se muestra como bytes_ | +| **postgresql.control.timeline_id**
(gauge) | ID actual de la línea de tiempo.| +| **postgresql.create_index.blocks_done**
(gauge) | Número de bloques procesados en la fase actual. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, index, command, phase.| +| **postgresql.create_index.blocks_total**
(gauge) | Número total de bloques a procesar en la fase actual. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, index, command, phase.| +| **postgresql.create_index.lockers_done**
(gauge) | Número de casilleros esperados. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, index, command, phase.| +| **postgresql.create_index.lockers_total**
(gauge) | Número total de casilleros a esperar, cuando corresponda. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, index, command, phase.| +| **postgresql.create_index.partitions_done**
(gauge) | Cuando se crea un índice en una tabla particionada, esta columna se configura según el número de particiones en que se ha creado el índice. Este campo es 0 durante un REINDEX. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, index, command, phase.| +| **postgresql.create_index.partitions_total**
(gauge) | Cuando se crea un índice en una tabla particionada, esta columna se configura según el número de particiones en que se ha creado el índice. Este campo es 0 durante un REINDEX. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, index, command, phase.| +| **postgresql.create_index.tuples_done**
(gauge) | Número de tuplas procesadas en la fase actual. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, index, command, phase.| +| **postgresql.create_index.tuples_total**
(gauge) | Número total de tuplas a procesar en la fase actual. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, index, command, phase.| +| **postgresql.database_size**
(gauge) | Espacio en disco utilizado por esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como bytes_ | +| **postgresql.db.count**
(gauge) | Número de bases de datos disponibles.
_Se muestra como elemento_ | +| **postgresql.dead_rows**
(gauge) | Activado con `relations`. Número estimado de filas inactivas. Esta métrica está etiquetada con db, schema, table.
_Se muestra como fila_ | +| **postgresql.deadlocks**
(rate) | Tasa de bloqueos detectados en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como bloqueo_ | +| **postgresql.deadlocks.count**
(count) | Número de bloqueos detectados en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como bloqueo_ | +| **postgresql.disk_read**
(rate) | Número de bloques de disco leídos en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como bloque_ | +| **postgresql.function.calls**
(rate) | Activado con `collect_function_metrics`. Número de llamadas realizadas a una función. Esta métrica está etiquetada con db, schema, function.| +| **postgresql.function.self_time**
(rate) | Activado con `collect_function_metrics`. Tiempo total dedicado a esta función, sin incluir otras funciones llamadas por ella. Esta métrica está etiquetada con db, schema, function.| +| **postgresql.function.total_time**
(rate) | Activado con `collect_function_metrics`. Tiempo total dedicado a esta función y en todas las demás funciones llamadas por ella. Esta métrica está etiquetada con db, schema, function.| +| **postgresql.heap_blocks_hit**
(gauge) | Activado con `relations`. Número de hits de buffer de esta tabla. Esta métrica está etiquetada con db, schema, table.
_Se muestra como hit_ | +| **postgresql.heap_blocks_read**
(gauge) | Activado con `relations`. Número de bloques de disco leídos de esta tabla. Esta métrica está etiquetada con db, schema, table.
_Se muestra como bloque_. | +| **postgresql.index.index_blocks_hit**
(gauge) | Activado con `relations`. Número de hits de buffer para un índice específico. Esta métrica está etiquetada con db, schema, table, index.
_Se muestra como hit_ | +| **postgresql.index.index_blocks_read**
(gauge) | Activado con `relations`. El número de bloques de disco para un índice específico. Esta métrica está etiquetada con db, schema, table, index.
_Se muestra como bloque_ | +| **postgresql.index_bloat**
(gauge) | Activado con `collect_bloat_metrics`. Porcentaje estimado de sobrecarga del índice. Esta métrica está etiquetada con db, schema, table, index.
_Se muestra como porcentaje_. | +| **postgresql.index_blocks_hit**
(gauge) | Activado con `relations`. Número de hits de buffer en todos los índices de esta tabla. Esta métrica está etiquetada con db, schema, table.
_Se muestra como hit_ | +| **postgresql.index_blocks_read**
(gauge) | Activado con `relations`. Número de bloques de disco leídos de todos los índices de esta tabla. Esta métrica está etiquetada con db, schema, table.
_Se muestra como bloque_ | +| **postgresql.index_rel_rows_fetched**
(gauge) | Activado con `relations`. Número de filas activas obtenidas por análisis de índices. Esta métrica está etiquetada con db, schema, table.
_Se muestra como fila_ | +| **postgresql.index_rel_scans**
(gauge) | Activado con `relations`. Número total de análisis de índices iniciados de esta tabla. Esta métrica está etiquetada con db, schema, table.
_Se muestra como análisis_ | +| **postgresql.index_rows_fetched**
(gauge) | Activado con `relations`. Número de filas activas obtenidas por análisis de índices. Esta métrica está etiquetada con db, schema, table, index.
_Se muestra como fila_ | +| **postgresql.index_rows_read**
(gauge) | Activado con `relations`. Número de entradas de índice devueltas por análisis de este índice. Esta métrica está etiquetada con db, schema, table, index.
_Se muestra como fila_ | +| **postgresql.index_scans**
(gauge) | Activado con `relations`. Número de análisis de índices iniciadas de esta tabla. Esta métrica está etiquetada con db, schema, table, index
_Se muestra como análisis_ | +| **postgresql.index_size**
(gauge) | Activado con `relations`. Espacio total en disco utilizado por los índices adjuntos a la tabla especificada. Esta métrica está etiquetada con db, schema, table.
_Se muestra como bytes_ | +| **postgresql.individual_index_size**
(gauge) | Espacio en disco utilizado por un índice especificado. Esta métrica está etiquetada con db, schema, table, index.
_Se muestra como bytes_ | +| **postgresql.io.evictions**
(count) | Número de veces que un bloque se ha escrito desde un buffer compartido o local para que esté disponible para otro uso. Esta métrica está etiquetada con backend_type, context, object. Solo disponible con PostgreSQL v16 y posteriores. (Solo DBM)
_Se muestra como milisegundos_ | +| **postgresql.io.extend_time**
(count) | Tiempo dedicado a operaciones extend (si track_io_timing está activado, de lo contrario cero). Esta métrica está etiquetada con backend_type, context, object. Solo disponible con PostgreSQL v16 y posteriores. (Solo DBM)
_Se muestra como milisegundos_ | +| **postgresql.io.extends**
(count) | Número de operaciones extend de relaciones. Esta métrica está etiquetada con backend_type, context, object. Solo disponible con PostgreSQL v16 y posteriores. (Solo DBM)| +| **postgresql.io.fsync_time**
(count) | Tiempo dedicado a operaciones fsync (si track_io_timing está activado, de lo contrario cero). Esta métrica está etiquetada con backend_type, context, object. Solo disponible con PostgreSQL v16 y posteriores. (Solo DBM)
_Se muestra como milisegundos_ | +| **postgresql.io.fsyncs**
(count) | Número de llamadas fsync. Esta métrica está etiquetada con backend_type, context, object. Solo disponible con PostgreSQL v16 y posteriores. (Solo DBM)| +| **postgresql.io.hits**
(count) | Número de veces que se ha encontrado un bloque deseado en un buffer compartido. Esta métrica está etiquetada con backend_type, context, object. Solo disponible con PostgreSQL v16 y posteriores. (Solo DBM)
_Se muestra como milisegundos_ | +| **postgresql.io.read_time**
(count) | Tiempo dedicado a operaciones de lectura (si track_io_timing está activado, de lo contrario cero). Esta métrica está etiquetada con backend_type, context, object. Solo disponible con PostgreSQL v16 y posteriores. (Solo DBM)
_Se muestra como milisegundos_ | +| **postgresql.io.reads**
(count) | Número de operaciones de lectura. Esta métrica está etiquetada con backend_type, context, object. Solo disponible con PostgreSQL v16 y posteriores. (Solo DBM)| +| **postgresql.io.write_time**
(count) | Tiempo dedicado a operaciones de escritura (si track_io_timing está activado, de lo contrario cero). Esta métrica está etiquetada con backend_type, context, object. Solo disponible con PostgreSQL v16 y posteriores. (Solo DBM)
_Se muestra como milisegundos_ | +| **postgresql.io.writes**
(count) | Número de operaciones de escritura. Esta métrica está etiquetada con backend_type, context, object. Solo disponible con PostgreSQL v16 y posteriores. (Solo DBM)| +| **postgresql.last_analyze_age**
(gauge) | Última vez que esta tabla fue analizada manualmente. Esta métrica está etiquetada con db, schema, table.
_Se muestra como segundos_ | +| **postgresql.last_autoanalyze_age**
(gauge) | Última vez que esta tabla fue analizada por el daemon de autovaciado. Esta métrica está etiquetada con db, schema, table.
_Se muestra como segundos_ | +| **postgresql.last_autovacuum_age**
(gauge) | Última vez que esta tabla ha sido vaciada por el daemon de autovaciado. Esta métrica está etiquetada con db, schema, table.
_Se muestra como segundos_ | +| **postgresql.last_vacuum_age**
(gauge) | Última vez que esta tabla ha sido vaciada manualmente (sin contar VACUUM FULL). Esta métrica está etiquetada con db, schema, table.
_Se muestra como segundos_ | +| **postgresql.live_rows**
(gauge) | Activado con `relations`. Número estimado de filas activas. Esta métrica está etiquetada con db, schema, table.
_Se muestra como fila_ | +| **postgresql.locks**
(gauge) | Activado con `relations`. Número de bloqueos activos para esta base de datos. Esta métrica está etiquetada con db, lock_mode, lock_type, schema, table, granted.
_Se muestra como bloqueo_ | +| **postgresql.max_connections**
(gauge) | Número máximo de conexiones de cliente permitidas a esta base de datos.
_Se muestra como conexión_ | +| **postgresql.percent_usage_connections**
(gauge) | Número de conexiones a esta base de datos como fracción del número máximo de conexiones permitidas.
_Se muestra como fracción_ | +| **postgresql.pg_stat_statements.dealloc**
(count) | Número de veces que pg_stat_statements tuvo que desalojar las consultas menos ejecutadas porque se alcanzó pg_stat_statements.max.| +| **postgresql.queries.blk_read_time**
(count) | Tiempo total dedicado a leer bloques por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como nanosegundos_ | +| **postgresql.queries.blk_write_time**
(count) | Tiempo total dedicado a escribir bloques por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como nanosegundos_ | +| **postgresql.queries.count**
(count) | Recuento total de ejecución de consultas por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como consulta_ | +| **postgresql.queries.duration.max**
(gauge) | Antigüedad de la consulta en ejecución más larga por usuario, base de datos y aplicación. (Solo DBM)
_Se muestra como nanosegundos_ | +| **postgresql.queries.duration.sum**
(gauge) | Suma de la antigüedad de todas las consultas en ejecución por usuario, base de datos y aplicación. (Solo DBM)
_Se muestra como nanosegundos_ | +| **postgresql.queries.local_blks_dirtied**
(count) | Número total de bloques locales ensuciados por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como bloque_ | +| **postgresql.queries.local_blks_hit**
(count) | Número total de hits en la caché de bloques locales por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como bloque_ | +| **postgresql.queries.local_blks_read**
(count) | Número total de bloques locales leídos por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como bloque_ | +| **postgresql.queries.local_blks_written**
(count) | Número total de bloques locales escritos por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como bloque_ | +| **postgresql.queries.rows**
(count) | Número total de filas recuperadas o afectadas por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como fila_ | +| **postgresql.queries.shared_blks_dirtied**
(count) | Número total de bloques compartidos ensuciados por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como bloque_ | +| **postgresql.queries.shared_blks_hit**
(count) | Número total de hits en la caché de bloques compartidos por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como bloque_ | +| **postgresql.queries.shared_blks_read**
(count) | Número total de bloques compartidos leídos por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como bloque_ | +| **postgresql.queries.shared_blks_written**
(count) | Número total de bloques compartidos escritos por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como bloque_ | +| **postgresql.queries.temp_blks_read**
(count) | Número total de bloques temporales leídos por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como bloque_ | +| **postgresql.queries.temp_blks_written**
(count) | Número total de bloques temporales escritos por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como bloque_ | +| **postgresql.queries.time**
(count) | Tiempo total de ejecución de la consulta por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como nanosegundos_ | +| **postgresql.recovery_prefetch.block_distance**
(gauge) | Cuántos bloques por delante está buscando el prefetcher.
_Se muestra como bloque_ | +| **postgresql.recovery_prefetch.hit**
(count) | Número de bloques no precargados porque ya estaban en el grupo de buffers.
_Se muestra como bloque_ | +| **postgresql.recovery_prefetch.io_depth**
(gauge) | Cuántas precargas se han iniciado pero aún no se sabe si han finalizado.| +| **postgresql.recovery_prefetch.prefetch**
(count) | Número de bloques precargados porque no estaban en el grupo de buffers.
_Se muestra como bloque_ | +| **postgresql.recovery_prefetch.skip_fpw**
(count) | Número de bloques no precargados porque se ha incluido una imagen de página completa en el WAL.
_Se muestra como bloque_ | +| **postgresql.recovery_prefetch.skip_init**
(count) | Número de bloques no precargados porque se inicializarían a cero.
_Se muestra como bloque_ | +| **postgresql.recovery_prefetch.skip_new**
(count) | Número de bloques no precargados porque aún no existían.
_Se muestra como bloque_ | +| **postgresql.recovery_prefetch.skip_rep**
(count) | Número de bloques no precargados porque ya se habían precargado recientemente.
_Se muestra como bloque_ | +| **postgresql.recovery_prefetch.wal_distance**
(gauge) | Cuántos bytes por delante está buscando el prefetcher.
_Se muestra como bytes_ | +| **postgresql.relation.all_visible**
(gauge) | Número de páginas que están marcadas como todas visibles en el mapa de visibilidad de la tabla. Se trata únicamente de una estimación utilizada por el planificador y se actualiza mediante VACUUM o ANALYZE. Esta métrica está etiquetada con db, schema, table, partition_of.| +| **postgresql.relation.pages**
(gauge) | Tamaño de una tabla en páginas (1 página = 8KB por defecto). Se trata únicamente de una estimación utilizada por el planificador y se actualiza mediante VACUUM o ANALYZE. Esta métrica está etiquetada con db, schema, table, partition_of.| +| **postgresql.relation.tuples**
(gauge) | Número de filas activas en la tabla. Se trata únicamente de una estimación utilizada por el planificador y se actualiza mediante VACUUM o ANALYZE. Si la tabla nunca ha sido vaciada o analizada, se informará -1. Esta métrica está etiquetada con db, schema, table, partition_of.| +| **postgresql.relation.xmin**
(gauge) | ID de transacción de la última modificación de la relación en pg_class. Esta métrica está etiquetada con db, schema, table.| +| **postgresql.relation_size**
(gauge) | Espacio en disco utilizado por la tabla especificada. No se incluyen datos TOAST, índices, mapa de espacio libre o mapa de visibilidad. Esta métrica está etiquetada con db, schema, table.
_Se muestra como bytes_ | +| **postgresql.replication.backend_xmin_age**
(gauge) | Antigüedad del horizonte xmin del servidor en espera (en relación con el último xid estable) informada por hot_standby_feedback.| +| **postgresql.replication.wal_flush_lag**
(gauge) | Tiempo transcurrido entre el vaciado local de WAL reciente y la recepción de la notificación de que este servidor en espera la ha escrito y vaciado (pero aún no la ha aplicado). Esto puede utilizarse para medir el retraso en el que incurre el nivel synchronous_commit al confirmar si este servidor está configurado como servidor en espera síncrono. Solo disponible con PostgreSQL v10 y posteriores.
_Se muestra como segundos_ | +| **postgresql.replication.wal_replay_lag**
(gauge) | Tiempo transcurrido entre el vaciado local de WAL reciente y la recepción de la notificación de que este servidor en espera la ha escrito, vaciado y aplicado. Esto puede utilizarse para medir el retraso en el que incurre el nivel synchronous_commit al confirmar si este servidor está configurado como servidor en espera síncrono. Solo disponible con PostgreSQL v10 y posteriores.
_Se muestra como segundos_ | +| **postgresql.replication.wal_write_lag**
(gauge) | Tiempo transcurrido entre el vaciado local de WAL reciente y la recepción de la notificación de que este servidor en espera la ha escrito (pero no la ha vaciado ni aplicado). Esto puede utilizarse para medir el retraso en el que incurre el nivel synchronous_commit al confirmar si este servidor está configurado como servidor en espera síncrono. Solo disponible con PostgreSQL v10 y posteriores.
_Se muestra como segundos_ | +| **postgresql.replication_delay**
(gauge) | Retraso de replicación actual en segundos. Solo disponible con PostgreSQL v9.1 y posteriores
_Se muestra como segundos_ | +| **postgresql.replication_delay_bytes**
(gauge) | Retraso de replicación actual en bytes. Solo disponible con PostgreSQL v9.2 y posteriores
_Se muestra como bytes_ | +| **postgresql.replication_slot.catalog_xmin_age**
(gauge) | Antigüedad de la transacción más antigua que afecta a los catálogos del sistema que este slot necesita que la base de datos conserve. VACUUM no puede eliminar tuplas de catálogo eliminadas por una transacción posterior. Esta métrica está etiquetada con slot_name, slot_type, slot_persistence, slot_state.
_Se muestra como transacción_ | +| **postgresql.replication_slot.confirmed_flush_delay_bytes**
(gauge) | Retraso en bytes entre la posición actual de WAL y la última posición confirmada por el consumidor de este slot. Solo está disponible para slots de replicación lógica. Esta métrica está etiquetada con slot_name, slot_type, slot_persistence, slot_state.
_Se muestra como bytes_ | +| **postgresql.replication_slot.restart_delay_bytes**
(gauge) | Cantidad de bytes WAL que el consumidor de este slot puede requerir y no se eliminará automáticamente durante los puntos de control a menos que exceda el parámetro max_slot_wal_keep_size. No se informa de nada si no hay reserva de WAL para este slot. Esta métrica está etiquetada con slot_name, slot_type, slot_persistence, slot_state.
_Se muestra como bytes_ | +| **postgresql.replication_slot.spill_bytes**
(count) | Cantidad de datos de transacción decodificados vertidos al disco mientras se realiza la decodificación de cambios de WAL para este slot. Este y otros contadores de vertido pueden ser utilizados para medir las E/S ocurridas durante la decodificación lógica y permitir el ajuste de logical_decoding_work_mem. Extraído de pg_stat_replication_slots. Solo disponible con PostgreSQL v14 y posteriores. Esta métrica está etiquetada con slot_name, slot_type, slot_state.
_Se muestra como bytes_ | +| **postgresql.replication_slot.spill_count**
(count) | Número de veces que las transacciones fueron vertidas al disco mientras se decodificaban los cambios de WAL para este slot. Este contador se incrementa cada vez que una transacción es vertida, y la misma transacción puede ser vertida múltiples veces. Extraído de pg_stat_replication_slots. Solo disponible con PostgreSQL v14 y posteriores. Esta métrica está etiquetada con slot_name, slot_type, slot_state.| +| **postgresql.replication_slot.spill_txns**
(count) | Número de transacciones vertidas al disco una vez que la memoria utilizada por la decodificación lógica para decodificar los cambios de WAL excede logical_decoding_work_mem. El contador se incrementa tanto para las transacciones de nivel superior como para las subtransacciones. Extraído de pg_stat_replication_slots. Solo disponible con PostgreSQL v14 y posteriores. Esta métrica está etiquetada con slot_name, slot_type, slot_state.
_Se muestra como transacción_ | +| **postgresql.replication_slot.stream_bytes**
(count) | Cantidad de datos de transacciones decodificados para transmitir transacciones en curso al complemento de salida de decodificación mientras se decodifican los cambios de WAL para este slot. Extraído de pg_stat_replication_slots. Solo disponible con PostgreSQL v14 y posteriores. Esta métrica está etiquetada con slot_name, slot_type, slot_state.
_Se muestra como bytes_ | +| **postgresql.replication_slot.stream_count**
(count) | Número de veces que las transacciones en curso fueron transmitidas al complemento de salida de decodificación mientras se decodificaban los cambios de WAL para este slot. Extraído de pg_stat_replication_slots. Solo disponible con PostgreSQL v14 y posteriores. Esta métrica está etiquetada con slot_name, slot_type, slot_state.| +| **postgresql.replication_slot.stream_txns**
(count) | Número de transacciones en curso transmitidas al complemento de salida de decodificación después de que la memoria utilizada por la decodificación lógica para decodificar cambios de WAL para este slot exceda logical_decoding_work_mem. Extraído de pg_stat_replication_slots. Solo disponible con PostgreSQL v14 y posteriores. Esta métrica está etiquetada con slot_name, slot_type, slot_state.
_Se muestra como transacción_ | +| **postgresql.replication_slot.total_bytes**
(count) | Cantidad de datos de transacciones decodificados para enviar transacciones al complemento de salida de decodificación mientras se decodifican cambios de WAL para este slot. Extraído de pg_stat_replication_slots. Solo disponible con PostgreSQL v14 y posteriores. Esta métrica está etiquetada con slot_name, slot_type, slot_state.
_Se muestra como bytes_ | +| **postgresql.replication_slot.total_txns**
(count) | Número de transacciones decodificadas enviadas al complemento de salida de decodificación para este slot. Extraído de pg_stat_replication_slots. Solo disponible con PostgreSQL v14 y posteriores. Esta métrica está etiquetada con slot_name, slot_type, slot_state.
_Se muestra como transacción_ | +| **postgresql.replication_slot.xmin_age**
(gauge) | Antigüedad de la transacción más antigua que este slot necesita que la base de datos retenga. Solo el slot de replicación física tendrá un xmin. El slot de replicación huérfano (no hay consumidor o el consumidor no está conectado) impedirá que avance el horizonte xmin. Esta métrica está etiquetada con slot_name, slot_type, slot_persistence, slot_state.
_Se muestra como transacción_ | +| **postgresql.rollbacks**
(rate) | Número de transacciones que se han revertido en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como transacción_ | +| **postgresql.rows_deleted**
(rate) | Activado con `relations`. Número de filas eliminadas por consultas en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como fila_ | +| **postgresql.rows_fetched**
(tasa) | Número de filas obtenidas por consultas en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como fila_ | +| **postgresql.rows_hot_updated**
(rate) | Activado con `relations`. Número de filas HOT actualizadas, lo que significa que no fue necesaria una actualización de índice separada. Esta métrica está etiquetada con db, schema, table.
_Se muestra como fila_ | +| **postgresql.rows_inserted**
(rate) | Activado con `relations`. Número de filas insertadas por consultas en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como fila_ | +| **postgresql.rows_returned**
(rate) | Número de filas devueltas por consultas en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como fila_ | +| **postgresql.rows_updated**
(rate) | Activado con `relations`. Número de filas actualizadas por consultas en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como fila_ | +| **postgresql.running**
(gauge) | Número de instancias en ejecución.| +| **postgresql.seq_rows_read**
(gauge) | Activado con `relations`. Número de filas activas obtenidas por análisis secuenciales. Esta métrica está etiquetada con db, schema, table.
_Se muestra como fila_ | +| **postgresql.seq_scans**
(gauge) | Activado con `relations`. Número de análisis secuenciales iniciados de esta tabla. Esta métrica está etiquetada con db, schema, table.
_Se muestra como análisis_ | +| **postgresql.sessions.abandoned**
(count) | Número de sesiones de base de datos en esta base de datos que fueron finalizados porque se perdió la conexión con el cliente. Esta métrica está etiquetada con db.
_Se muestra como sesión_ | +| **postgresql.sessions.active_time**
(count) | Tiempo dedicado a ejecutar sentencias SQL en esta base de datos, en milisegundos (corresponde a los estados active y fastpath de la llamada a la función en pg_stat_activity). Esta métrica está etiquetada con db.
_Se muestra como milisegundos_ | +| **postgresql.sessions.count**
(count) | Número total de sesiones establecidas en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como sesión_ | +| **postgresql.sessions.fatal**
(count) | Número de sesiones de esta base de datos que fueron finalizados por errores fatales. Esta métrica está etiquetada con db.
_Se muestra como sesión_ | +| **postgresql.sessions.idle_in_transaction_time**
(count) | Tiempo de inactividad durante una transacción en esta base de datos, en milisegundos (corresponde a los estados inactivo en transacción e inactivo en transacción (abortada) en pg_stat_activity). Esta métrica está etiquetada con db.
_Se muestra como milisegundos_ | +| **postgresql.sessions.killed**
(count) | Número de sesiones de esta base de datos que fueron finalizados por intervención del operador. Esta métrica está etiquetada con db.
_Se muestra como sesión_ | +| **postgresql.sessions.session_time**
(count) | Tiempo empleado por las sesiones de base de datos en esta base de datos, en milisegundos (ten en cuenta que las estadísticas solo se actualizan cuando cambia el estado de una sesión, por lo que si las sesiones han estado inactivas durante mucho tiempo, este tiempo de inactividad no será incluido). Esta métrica está etiquetada con db.
_Se muestra como milisegundos_ | +| **postgresql.slru.blks_exists**
(count) | Número de bloques en que se comprueba la existencia de la caché SLRU (simple menos utilizada recientemente). Solo las cachés CommitTs y MultiXactOffset comprueban si los bloques ya están presentes en el disco. Esta métrica está etiquetada con slru_name.
_Se muestra como bloque_ | +| **postgresql.slru.blks_hit**
(count) | Número de veces que se han encontrado bloques de disco ya en la caché SLRU (simple menos utilizada recientemente), por lo que no fue necesaria una lectura (esto solo incluye hits en la SLRU, no en la caché del sistema de archivos del sistema operativo). Esta métrica está etiquetada con slru_name.
_Se muestra como bloque_ | +| **postgresql.slru.blks_read**
(count) | Número de bloques de disco leídos para la caché SLRU (simple menos utilizada recientemente). Las cachés SLRU se crean con un número fijo de páginas. Cuando se utilizan todas las páginas, el bloque utilizado menos recientemente se desaloja del disco para crear espacio. El acceso al bloque desalojado requerirá que los datos se lean del disco y se vuelvan a cargar en una página de caché SLRU, aumentando el recuento de lectura de bloques. Esta métrica está etiquetada con slru_name.
_Se muestra como bloque_ | +| **postgresql.slru.blks_written**
(count) | Número de bloques de disco escritos para la caché SLRU (simple menos utilizada recientemente). Las cachés SLRU se crean con un número fijo de páginas. Cuando se utilizan todas las páginas, el bloque utilizado menos recientemente se desaloja del disco para crear espacio. Un desalojo de bloque no genera necesariamente una escritura en disco, ya que el bloque podría haberse escrito en un desalojo anterior. Esta métrica está etiquetada con slru_name.
_Se muestra como bloque_ | +| **postgresql.slru.blks_zeroed**
(count) | Número de bloques puestos a cero durante las inicializaciones de la caché SLRU (simple menos utilizada recientemente). Las cachés SLRU se crean con un número fijo de páginas. Para las cachés Subtrans, Xact y CommitTs, se utiliza el transactionId global para obtener el número de página. Por lo tanto, aumentará con el rendimiento de la transacción. Esta métrica está etiquetada con slru_name.
_Se muestra como bloque_ | +| **postgresql.slru.flushes**
(count) | Número de vaciados de datos sucios de la caché SLRU (simple menos utilizada recientemente). El vaciado de las cachés CommitTs, MultiXact, Subtrans y Xact tendrá lugar durante el punto de control. El vaciado de la caché MultiXact puede ocurrir durante el vaciado. Esta métrica está etiquetada con slru_name.| +| **postgresql.slru.truncates**
(count) | Número de truncamientos de la caché SLRU (simple menos utilizada recientemente). Para las cachés CommitTs, Xact y MultiXact, los truncamientos se producirán cuando progrese el frozenID. Para la caché Subtrans, un truncamiento puede ocurrir durante un punto de reinicio y un punto de control. Esta métrica está etiquetada con slru_name.| +| **postgresql.snapshot.xip_count**
(gauge) | Informa del número de transacciones activas basadas en pg_snapshot_xip(pg_current_snapshot()).| +| **postgresql.snapshot.xmax**
(gauge) | Informa del siguiente ID de transacción que será asignado basado en pg_snapshot_xmax(pg_current_snapshot()).| +| **postgresql.snapshot.xmin**
(gauge) | Informa del ID de transacción más bajo aún activo basado en pg_snapshot_xmin(pg_current_snapshot()). Todos los ID de transacciones menores que xmin son confirmados y visibles, o revertidos y eliminados.| +| **postgresql.subscription.apply_error**
(count) | Número de errores que se han producido al aplicar los cambios. Extraído de pg_stat_subscription_stats. Solo disponible en PostgreSQL v15 o posteriores. Esta métrica está etiquetada con subscription_name.| +| **postgresql.subscription.last_msg_receipt_age**
(gauge) | Antigüedad de recepción del último mensaje recibido del remitente WAL de origen. Extraído de pg_stat_subscription. Solo disponible en PostgreSQL v12 o posteriores. Esta métrica está etiquetada con subscription_name.
_Se muestra como segundos_ | +| **postgresql.subscription.last_msg_send_age**
(gauge) | Antigüedad de recepción del último mensaje recibido del remitente WAL de origen. Extraído de pg_stat_subscription. Solo disponible en PostgreSQL v12 o posteriores. Esta métrica está etiquetada con subscription_name.
_Se muestra como segundos_ | +| **postgresql.subscription.latest_end_age**
(gauge) | Antigüedad de la última ubicación de escritura de log anticipada informada al remitente WAL de origen. Extraído de pg_stat_subscription. Solo disponible en PostgreSQL v12 o posteriores. Esta métrica está etiquetada con subscription_name.
_Se muestra como segundos_ | +| **postgresql.subscription.state**
(gauge) | Estado de una suscripción por relación y suscripción. Extraído de pg_subscription_rel. Solo disponible en PostgreSQL v14 o posteriores. Esta métrica está etiquetada con subscription_name, relation, state.| +| **postgresql.subscription.sync_error**
(count) | Número de errores producidos durante la sincronización inicial de la tabla. Extraído de pg_stat_subscription_stats. Solo disponible en PostgreSQL v15 o posteriores. Esta métrica está etiquetada con subscription_name.| +| **postgresql.table.count**
(gauge) | Número de tablas de usuario en esta base de datos. Esta métrica está etiquetada con db, schema.
_Se muestra como tabla_ | +| **postgresql.table_bloat**
(gauge) | Activado con `collect_bloat_metrics`. Porcentaje estimado de sobrecarga de las tablas. Esta métrica está etiquetada con db, schema, table.
_Se muestra como porcentaje_ | +| **postgresql.table_size**
(gauge) | Activado con `relations`. Espacio en disco utilizado por la tabla especificada con datos TOAST. No se incluyen el mapa de espacio libre ni el mapa de visibilidad. Esta métrica está etiquetada con db, schema, table.
_Se muestra como bytes_ | +| **postgresql.temp_bytes**
(rate) | Cantidad de datos escritos en archivos temporales por las consultas en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como bytes_ | +| **postgresql.temp_files**
(rate) | Número de archivos temporales creados por consultas en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como archivo_ | +| **postgresql.toast.autovacuumed**
(count) | Activado con `relations`. Número de veces que la tabla TOAST de una relación ha sido autovaciada. Esta métrica está etiquetada con db, schema, table.| +| **postgresql.toast.dead_rows**
(gauge) | Activado con `relations`. Número de filas inactivas en la tabla TOAST de una relación. Esta métrica está etiquetada con db, schema, table.| +| **postgresql.toast.index_scans**
(count) | Activado con `relations`. Número de análisis de índices realizados en la tabla TOAST de una relación. Esta métrica está etiquetada con db, schema, table.| +| **postgresql.toast.last_autovacuum_age**
(gauge) | Última vez que el daemon de autovaciado ha vaciado la tabla TOAST de esta tabla. Esta métrica está etiquetada con db, schema, table.
_Se muestra como segundos_ | +| **postgresql.toast.last_vacuum_age**
(gauge) | Última vez que se ha vaciado manualmente la tabla TOAST de esta tabla (sin contar VACUUM FULL). Esta métrica está etiquetada con db, schema, table.
_Se muestra como segundos_ | +| **postgresql.toast.live_rows**
(gauge) | Activado con `relations`. Número de filas activas en la tabla TOAST de una relación. Esta métrica está etiquetada con db, schema, table.| +| **postgresql.toast.rows_deleted**
(count) | Activado con `relations`. Número de filas eliminadas en la tabla TOAST de una relación. Esta métrica está etiquetada con db, schema, table.| +| **postgresql.toast.rows_fetched**
(count) | Activado con `relations`. Número de filas obtenidas en la tabla TOAST de una relación. Esta métrica está etiquetada con db, schema, table.| +| **postgresql.toast.rows_inserted**
(count) | Activado con `relations`. Número de filas insertadas en la tabla TOAST de una relación. Esta métrica está etiquetada con db, schema, table.| +| **postgresql.toast.vacuumed**
(count) | Activado con `relations`. Número de veces que se ha vaciado la tabla TOAST de una relación. Esta métrica está etiquetada con db, schema, table.| +| **postgresql.toast_blocks_hit**
(gauge) | Activado con `relations`. Número de accesos al buffer en la tabla TOAST de esta tabla. Esta métrica está etiquetada con db, schema, table.
_Se muestra como hit_ | +| **postgresql.toast_blocks_read**
(gauge) | Activado con `relations`. Número de bloques de disco leídos de la tabla TOAST de esta tabla. Esta métrica está etiquetada con db, schema, table.
_Se muestra como bloque_ | +| **postgresql.toast_index_blocks_hit**
(gauge) | Activado con `relations`. Número de accesos al buffer en el índice de la tabla TOAST de esta tabla. Esta métrica está etiquetada con db, schema, table.
_Se muestra como bloque_ | +| **postgresql.toast_index_blocks_read**
(gauge) | Activado con `relations`. Número de bloques de disco leídos desde el índice de la tabla TOAST de esta tabla. Esta métrica está etiquetada con db, schema, table.
_Se muestra como bloque_ | +| **postgresql.toast_size**
(gauge) | Espacio total en disco utilizado por la tabla TOAST adjunta a la tabla especificada. Esta métrica está etiquetada con db, schema, table.
_Se muestra como bytes_ | +| **postgresql.total_size**
(gauge) | Activado con `relations`. Espacio total en disco utilizado por la tabla, incluidos los índices y los datos TOAST. Esta métrica está etiquetada con db, schema, table.
_Se muestra como bytes_ | +| **postgresql.transactions.duration.max**
(gauge) | Antigüedad de la transacción en ejecución más larga por usuario, base de datos y aplicación. (Solo DBM)
_Se muestra como nanosegundos_ | +| **postgresql.transactions.duration.sum**
(gauge) | Suma de la antigüedad de todas las transacciones en ejecución por usuario, base de datos y aplicación. (Solo DBM)
_Se muestra como nanosegundos_ | +| **postgresql.transactions.idle_in_transaction**
(gauge) | Activado con `collect_activity_metrics`. Número de transacciones 'inactivas en transacción' en esta base de datos. Esta métrica (por defecto) está etiquetada con db, app, user.
_Se muestra como transacción_ | +| **postgresql.transactions.open**
(gauge) | Activado con `collect_activity_metrics`. Número de transacciones abiertas en esta base de datos. Esta métrica (por defecto) está etiquetada con db, app, user.
_Se muestra como transacción_ | +| **postgresql.uptime**
(gauge) | Tiempo de actividad del servidor en segundos.
_Se muestra como segundos_ | +| **postgresql.vacuum.heap_blks_scanned**
(gauge) | Número de bloques heap analizados. Debido a que el mapa de visibilidad se utiliza para optimizar los análisis, algunos bloques serán omitidos sin inspección. Los bloques omitidos se incluyen en este total, de modo que este número eventualmente se volverá igual a heap_blks_total cuando el vaciado finalice. Este contador solo avanza cuando la fase está analizando heap. Esta métrica está etiquetada con db, table, phase.
_Se muestra como bloque_ | +| **postgresql.vacuum.heap_blks_total**
(gauge) | Número total de bloques heap en la tabla. Este número se informa al inicio del análisis. Los bloques añadidos posteriormente no serán (y no necesitan ser) visitados por este VACUUM. Esta métrica está etiquetada con db, table, phase.
_Se muestra como bloque_ | +| **postgresql.vacuum.heap_blks_vacuumed**
(gauge) | Número de bloques heap vaciados. A menos que la tabla no tenga índices, este contador solo avanza cuando la fase está aspirando heap. Los bloques que no contienen tuplas inactivas se omiten, por lo que el contador a veces puede saltar hacia adelante en grandes incrementos. Esta métrica está etiquetada con db, table, phase.
_Se muestra como bloques_ | +| **postgresql.vacuum.index_vacuum_count**
(gauge) | Número de ciclos de vacío de índices completados. Esta métrica está etiquetada con db, table, phase.
_Se muestra como bloque_ | +| **postgresql.vacuum.max_dead_tuples**
(gauge) | Número de tuplas inactivas que podemos almacenar antes de necesitar realizar un ciclo de vaciado de índices, basado en maintenance_work_mem. Esta métrica está etiquetada con db, table, phase.| +| **postgresql.vacuum.num_dead_tuples**
(gauge) | Número de tuplas inactivas recopiladas desde el último ciclo de vaciado de índices. Esta métrica está etiquetada con db, table, phase.| +| **postgresql.vacuumed**
(count) | Activado con `relations`. Número de veces que esta tabla ha sido vaciada manualmente. Esta métrica está etiquetada con db, schema, table.| +| **postgresql.waiting_queries**
(gauge) | Activado con `collect_activity_metrics`. Número de consultas en espera en esta base de datos. Esta métrica (por defecto) está etiquetada con db, app, user.| +| **postgresql.wal.buffers_full**
(count) | Número de veces que los datos de WAL fueron escritos en el disco porque los buffers de WAL se llenaron. Los cambios de WAL se almacenan primero en los buffers de WAL. Si el buffer está lleno, las inserciones de WAL se bloquean hasta que se vacía el buffer. El tamaño de este buffer se define mediante la configuración de wal_buffers. Por defecto, utilizará el 3% del valor de shared_buffers.| +| **postgresql.wal.bytes**
(count) | Cantidad total de WAL generada en bytes.
_Se muestra como bytes_ | +| **postgresql.wal.full_page_images**
(count) | Número total de imágenes de páginas completas de WAL generadas. La escritura de páginas completas se producirá cuando un bloque se modifique por primera vez después de un punto de control.
_Se muestra como página_ | +| **postgresql.wal.records**
(count) | Número total de registros WAL generados.
_Se muestra como registro_ | +| **postgresql.wal.sync**
(count) | Número de veces que los archivos WAL fueron sincronizados con el disco.| +| **postgresql.wal.sync_time**
(count) | Cantidad total de tiempo dedicado a sincronizar los archivos WAL con el disco, en milisegundos (si track_wal_io_timing está activado, fsync está activado y wal_sync_method es fdatasync, fsync o fsync_writethrough, de lo contrario cero).
_Se muestra como milisegundos_ | +| **postgresql.wal.write**
(count) | Número de veces que los buffers de WAL se han escrito en disco.
_Se muestra como escritura_ | +| **postgresql.wal.write_time**
(count) | Cantidad total de tiempo dedicado a escribir buffers de WAL en el disco, en milisegundos (si track_wal_io_timing está activado, de lo contrario cero).
_Se muestra como milisegundos_ | +| **postgresql.wal_age**
(gauge) | Activado con `collect_wal_metrics`. Antigüedad en segundos del archivo WAL más antiguo.
_Se muestra como segundos_ | +| **postgresql.wal_count**
(gauge) | Número de archivos WAL en disco.| +| **postgresql.wal_receiver.connected**
(gauge) | Estado del receptor WAL. Esta métrica se configurará en 1 con una etiqueta (tag) 'status:disconnected' si la instancia no tiene un receptor WAL en ejecución. En caso contrario, utilizará el valor de estado de pg_stat_wal_receiver. Esta métrica está etiquetada con status.| +| **postgresql.wal_receiver.last_msg_receipt_age**
(gauge) | Tiempo transcurrido desde la recepción del último mensaje del remitente WAL. Esta métrica está etiquetada con el status.
_Se muestra como segundos_ | +| **postgresql.wal_receiver.last_msg_send_age**
(gauge) | Antigüedad del envío del último mensaje recibido del remitente WAL. Esta métrica está etiquetada con status.
_Se muestra como segundos_ | +| **postgresql.wal_receiver.latest_end_age**
(gauge) | Tiempo transcurrido desde la recepción del último mensaje del remitente WAL con una actualización de la ubicación de WAL. Esta métrica está etiquetada con status.
_Se muestra como segundos_ | +| **postgresql.wal_receiver.received_timeline**
(gauge) | Número de línea de tiempo de la última ubicación de escritura anticipada de logs recibida y vaciada al disco. El valor inicial de este campo es el número de línea de tiempo de la ubicación del primer log utilizada cuando se inicia el receptor WAL. Esta métrica está etiquetada con status.| +| **postgresql.wal_size**
(gauge) | Suma de todos los archivos WAL en disco.
_Se muestra como bytes_ | + +Para la versión `7.32.0` y posteriores del Agent, si tienes Database Database Monitoring activado, la métrica `postgresql.connections` se etiqueta (tag) con `state`, `app`, `db` y `user`. ### Eventos El check de PostgreSQL no incluye eventos. ### Checks de servicio -{{< get-service-checks-from-git "postgres" >}} +**postgres.can_connect** + +Devuelve `CRITICAL` si el Agent no puede conectarse a la instancia PostgreSQL monitorizada. Devuelve `OK` en caso contrario. + +_Estados: ok, crítico_ ## Solucionar problemas -¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][7]. +¿Necesita ayuda? Póngase en contacto con [Datadog support](https://docs.datadoghq.com/help). ## Referencias adicionales -Más enlaces, artículos y documentación útiles: +Documentación útil adicional, enlaces y artículos: ### FAQ -- [Explicación de la recopilación de métricas personalizadas de PostgreSQL][8] +- [Explicación de la recopilación de métricas personalizadas de PostgreSQL](https://docs.datadoghq.com/integrations/faq/postgres-custom-metric-collection-explained/) ### Entradas de blog -- [Postgres 100 veces más rápido cambiando 1 línea][9] -- [Monitorización de métricas clave para PostgreSQL][10] -- [Recopilación de métricas con herramientas de monitorización PostgreSQL][11] -- [Para recopilar y monitorizar datos de PostgreSQL con Datadog][12] - - -[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/postgres/images/postgresql_dashboard.png -[2]: https://docs.datadoghq.com/database_monitoring/ -[3]: https://app.datadoghq.com/account/settings/agent/latest -[4]: https://docs.datadoghq.com/database_monitoring/#postgres -[5]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information -[6]: https://github.com/DataDog/integrations-core/blob/master/postgres/datadog_checks/postgres/data/conf.yaml.example -[7]: https://docs.datadoghq.com/help -[8]: https://docs.datadoghq.com/integrations/faq/postgres-custom-metric-collection-explained/ -[9]: https://www.datadoghq.com/blog/100x-faster-postgres-performance-by-changing-1-line -[10]: https://www.datadoghq.com/blog/postgresql-monitoring -[11]: https://www.datadoghq.com/blog/postgresql-monitoring-tools -[12]: https://www.datadoghq.com/blog/collect-postgresql-data-with-datadog +- [Rendimiento de Postgres 100 veces más rápido cambiando 1 línea](https://www.datadoghq.com/blog/100x-faster-postgres-performance-by-changing-1-line) +- [Métricas clave para la monitorización de PostgreSQL](https://www.datadoghq.com/blog/postgresql-monitoring) +- [Recopilación de métricas con herramientas de monitorización de PostgreSQL](https://www.datadoghq.com/blog/postgresql-monitoring-tools) +- [Recopilación y monitorización de datos PostgreSQL con Datadog](https://www.datadoghq.com/blog/collect-postgresql-data-with-datadog) \ No newline at end of file diff --git a/content/es/integrations/process.md b/content/es/integrations/process.md index f762697d2b8f4..152b13c0352ca 100644 --- a/content/es/integrations/process.md +++ b/content/es/integrations/process.md @@ -1,83 +1,39 @@ --- app_id: sistema -app_uuid: 43bff15c-c943-4153-a0dc-25bb557ac763 -assets: - integration: - configuration: - spec: assets/configuration/spec.yaml - events: - creates_events: false - metrics: - check: system.processes.cpu.pct - metadata_path: metadata.csv - prefix: sistema - service_checks: - metadata_path: assets/service_checks.json - source_type_name: Proceso -author: - homepage: https://www.datadoghq.com - name: Datadog - sales_email: info@datadoghq.com - support_email: help@datadoghq.com categories: - os & system -custom_kind: integration -dependencies: -- https://github.com/DataDog/integrations-core/blob/master/process/README.md -display_on_public_website: true -draft: false -git_integration_title: proceso -integration_id: sistema -integration_title: Procesos -integration_version: 5.0.0 -is_public: true -manifest_version: 2.0.0 -name: proceso -public_title: Procesos -short_description: Captura métricas y monitoriza el estado de procesos en ejecución. +custom_kind: integración +description: Captura métricas y monitoriza el estado de los procesos en ejecución. +further_reading: +- link: https://www.datadoghq.com/blog/process-check-monitoring + tag: blog + text: Monitorizar el consumo de recursos por parte de los procesos de un vistazo +integration_version: 5.1.0 +media: [] supported_os: - linux - macos - windows -tile: - changelog: CHANGELOG.md - classifier_tags: - - Supported OS::Linux - - Supported OS::macOS - - Supported OS::Windows - - Category::Sistema operativo y sistema - - Offering::Integración - configuration: README.md#Configuración - description: Captura métricas y monitoriza el estado de procesos en ejecución. - media: [] - overview: README.md#Información general - resources: - - resource_type: blog - url: https://www.datadoghq.com/blog/process-check-monitoring - support: README.md#Soporte - title: Procesos +title: Procesos --- - - - - ## Información general -El check de proceso te permite: +El check de procesos te permite: + - Recopila métricas del uso de recursos para procesos en ejecución específicos en cualquier host. Por ejemplo, CPU, memoria, E/S y número de subprocesos. -- Utiliza [monitores de procesos][1] para configurar umbrales de cuántas instancias de un proceso específico deben ejecutarse y recibe alertas cuando no se cumplen los umbrales (consulta **Checks de servicio* a continuación). +- Utiliza [monitores de procesos](https://docs.datadoghq.com/monitors/create/types/process_check/?tab=checkalert) para configurar umbrales sobre cuántas instancias de un proceso específico deben ejecutarse y recibir alertas cuando los umbrales no se cumplen (consulta **Checks de servicio** más abajo). ## Configuración ### Instalación -El check de procesos está incluido en el paquete del [Datadog Agent][2], por lo que no necesitas instalar nada más en tu servidor. +El check de procesos está incluido en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest), por lo que no necesitas instalar nada más en tu servidor. ### Configuración A diferencia de muchos checks, el check de procesos no monitoriza nada útil por defecto. Debes configurar los procesos que quieres monitorizar. -Aunque no hay una configuración de check por defecto, aquí hay un ejemplo de `process.d/conf.yaml` que monitoriza procesos SSH/SSHD. Para ver todas las opciones de configuración disponibles, consulta el [process.d/conf.yaml de ejemplo][3]: +Si bien no existe una configuración de check estándar por defecto, aquí hay un ejemplo de `process.d/conf.yaml` que monitoriza los procesos SSH/SSHD. Consulta el [ejemplo process.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/process/datadog_checks/process/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles: ```yaml init_config: @@ -88,9 +44,9 @@ instances: - sshd ``` -**Nota**: Asegúrate de [reiniciar el Agent][4] después de realizar cambios de configuración. +**Nota**: Después de realizar cambios en la configuración, asegúrate de [reiniciar el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). -La recuperación de algunas métricas de procesos requiere que el recopilador de Datadog se ejecute como el usuario del proceso monitorizado o con acceso privilegiado. Para la métrica`open_file_descriptors` en plataformas Unix, existe una opción de configuración adicional. Configurar `try_sudo` como `true` en el archivo `conf.yaml` permite que el El check de procesos intente utilizar `sudo` para recopilar la métrica `open_file_descriptors`. El uso de esta opción de configuración requiere definir reglas para sudoers apropiadas en `/etc/sudoers`: +La recuperación de algunas métricas de procesos requiere que el recopilador de Datadog se ejecute como el usuario del proceso monitorizado o con acceso privilegiado. Para la métrica`open_file_descriptors` en plataformas Unix, existe una opción de configuración adicional. Configurar `try_sudo` como `true` en el archivo `conf.yaml` permite que el check de procesos intente utilizar `sudo` para recopilar la métrica `open_file_descriptors`. El uso de esta opción de configuración requiere definir reglas para sudoers apropiadas en `/etc/sudoers`: ```shell dd-agent ALL=NOPASSWD: /bin/ls /proc/*/fd/ @@ -98,14 +54,16 @@ dd-agent ALL=NOPASSWD: /bin/ls /proc/*/fd/ ### Validación -Ejecuta el [subcomando de estado del Agent][5] y busca `process` en la sección Checks. +Ejecuta el [subcomando de estado del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `process` en la sección Checks. ### Notas de métricas Las siguientes métricas no están disponibles en Linux o macOS: -- Las métricas de I/O de procesos **no** están disponibles en Linux o macOS, ya que los archivos que lee el Agent (`/proc//io`) sólo pueden ser leídos por el propietario del proceso. Para obtener más información, [lee las FAQ del Agent][6]. + +- Las métricas de E/S del proceso **no** están disponibles en Linux o macOS, ya que los archivos que lee el Agent (`/proc//io`) solo son legibles por el propietario del proceso. Para obtener más información, [lee las FAQ del Agent](https://docs.datadoghq.com/agent/faq/why-don-t-i-see-the-system-processes-open-file-descriptors-metric/). Las siguientes métricas no están disponibles en Windows: + - `system.cpu.iowait` - `system.processes.mem.page_faults.minor_faults` - `system.processes.mem.page_faults.children_minor_faults` @@ -113,50 +71,68 @@ Las siguientes métricas no están disponibles en Windows: - `system.processes.mem.page_faults.children_major_faults` - `system.processes.mem.real` -**Nota**: Utiliza un [check de WMI][7] para reunir métricas de fallos de páginas en Windows. +**Nota**: Utiliza un [check de WMI](https://docs.datadoghq.com/integrations/wmi_check/) para recopilar métricas de fallos de páginas en Windows. + +**Nota**: En la versión 6.11 o posteriores en Windows, el Agent se ejecuta como `ddagentuser` en lugar de `Local System`. Debido a [esto](https://docs.datadoghq.com/agent/guide/windows-agent-ddagent-user/#process-check), no tiene acceso a la línea de comandos completa de los procesos que se ejecutan bajo otros usuarios y al usuario de los procesos de otros usuarios. Esto provoca que las siguientes opciones del check no funcionen: -**Nota**: En la versión 6.11 o posteriores en Windows, el Agent se ejecuta como `ddagentuser` en lugar de `Local System`. Debido a [esto][8], no tiene acceso a la línea de comandos completa de los procesos que se ejecutan bajo otros usuarios y al usuario de otros procesos de usuarios. Esto provoca que las siguientes opciones de check no funcionen: - `exact_match`, cuando se configura como `false` - `user`, que permite seleccionar los procesos que pertenecen a un usuario específico Todas las métricas se configuran por `instance` en process.yaml y están etiquetados como `process_name:`. -La métrica `system.processes.cpu.pct` enviada por este check sólo es exacta en procesos que duran más -de 30 segundos. No esperes que tu valor sea exacto en procesos con duraciones más cortas. +La métrica `system.processes.cpu.pct` enviada por este check solo es precisa para los procesos que viven más de +de 30 segundos. No esperes que su valor sea exacto para procesos de vida más corta. Para ver la lista completa de métricas, consulta la sección [Métricas](#metrics). ## Datos recopilados ### Métricas -{{< get-metrics-from-git "process" >}} +| | | +| --- | --- | +| **system.processes.cpu.pct**
(gauge) | Uso de CPU de un proceso.
_Se muestra como porcentaje_ | +| **system.processes.cpu.normalized_pct**
(gauge) | Uso normalizado de CPU de un proceso.
_Se muestra como porcentaje_ | +| **system.processes.involuntary_ctx_switches**
(gauge) | Número de cambios de contexto involuntarios realizados por este proceso.
_Se muestra como evento_ | +| **system.processes.ioread_bytes**
(gauge) | Número de bytes leídos del disco por este proceso. En Windows: el número de bytes leídos.
_Se muestra como bytes_ | +| **system.processes.ioread_bytes_count**
(count) | Número de bytes leídos del disco por este proceso. En Windows: el número de bytes leídos.
_Se muestra como bytes_ | +| **system.processes.ioread_count**
(gauge) | Número de lecturas del disco realizadas por este proceso. En Windows: el número de lecturas realizadas por este proceso.
_Se muestra como lectura_ | +| **system.processes.iowrite_bytes**
(gauge) | Número de bytes escritos en el disco por este proceso. En Windows: el número de bytes escritos por este proceso.
_Se muestra como bytes_ | +| **system.processes.iowrite_bytes_count**
(count) | Número de bytes escritos en el disco por este proceso. En Windows: el número de bytes escritos por este proceso.
_Se muestra como bytes_ | +| **system.processes.iowrite_count**
(gauge) | Número de escrituras en el disco realizadas por este proceso. En Windows: el número de escrituras de este proceso.
_Se muestra como escritura_ | +| **system.processes.mem.page_faults.minor_faults**
(gauge) | En Unix/Linux y macOS: el número de fallos menores de página por segundo para este proceso.
_Se muestra como caso_ | +| **system.processes.mem.page_faults.children_minor_faults**
(gauge) | En Unix/Linux y macOS: el número de fallos menores de página por segundo por cada elemento secundario para este proceso.
_Se muestra como caso_ | +| **system.processes.mem.page_faults.major_faults**
(gauge) | En Unix/Linux y macOS: el número de fallos mayores de página por segundo para este proceso.
_Se muestra como caso_ | +| **system.processes.mem.page_faults.children_major_faults**
(gauge) | En Unix/Linux y macOS: el número de fallos mayores de página por segundo por cada elemento secundario para este proceso.
_Se muestra como caso_ | +| **system.processes.mem.pct**
(gauge) | Consumo de memoria del proceso.
_Se muestra como porcentaje_ | +| **system.processes.mem.real**
(gauge) | Memoria física no intercambiada que un proceso ha utilizado y no puede ser compartida con otro proceso (solo Linux).
_Se muestra como bytes_ | +| **system.processes.mem.rss**
(gauge) | Memoria física no intercambiada que un proceso ha utilizado. también conocido como "Tamaño del conjunto residente".
_Se muestra como bytes_ | +| **system.processes.mem.vms**
(gauge) | Cantidad total de memoria virtual utilizada por el proceso. también conocido como "Tamaño de memoria virtual".
_Se muestra como bytes_ | +| **system.processes.number**
(gauge) | Número de procesos.
_Se muestra como proceso_ | +| **system.processes.open_file_descriptors**
(gauge) | Número de descriptores de archivos utilizados por este proceso (solo disponible para procesos ejecutados como usuario dd-agent)| +| **system.processes.open_handles**
(gauge) | Número de manejadores utilizados por este proceso.| +| **system.processes.threads**
(gauge) | Número de subprocesos utilizados por este proceso.
_Se muestra como subproceso_ | +| **system.processes.voluntary_ctx_switches**
(gauge) | Número de cambios de contexto voluntarios realizados por este proceso.
_Se muestra como evento_ | +| **system.processes.run_time.avg**
(gauge) | Tiempo medio de ejecución de todas las instancias de este proceso
_Se muestra como segundos_ | +| **system.processes.run_time.max**
(gauge) | Tiempo más largo de ejecución de todas las instancias de este proceso
_Se muestra como segundos_ | +| **system.processes.run_time.min**
(gauge) | Tiempo más corto de ejecución de todas las instancias de este proceso
_Se muestra como segundos_ | ### Eventos El check de procesos no incluye eventos. ### Checks de servicio -{{< get-service-checks-from-git "process" >}} +**process.up** + +Devuelve OK si el check está dentro de los umbrales de advertencia, CRITICAL si está fuera de los umbrales críticos y WARNING si está fuera de los umbrales de advertencia. + +_Estados: ok, advertencia, crítico_ ## Solucionar problemas -¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][11]. +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). ## Referencias adicionales -Para hacerse una mejor idea de cómo (o por qué) monitorizar el consumo de recursos de los proceso con Datadog, consulta esta [serie de entradas de blog][12]. - -[1]: https://docs.datadoghq.com/es/monitors/create/types/process_check/?tab=checkalert -[2]: https://app.datadoghq.com/account/settings/agent/latest -[3]: https://github.com/DataDog/integrations-core/blob/master/process/datadog_checks/process/data/conf.yaml.example -[4]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent -[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information -[6]: https://docs.datadoghq.com/es/agent/faq/why-don-t-i-see-the-system-processes-open-file-descriptors-metric/ -[7]: https://docs.datadoghq.com/es/integrations/wmi_check/ -[8]: https://docs.datadoghq.com/es/agent/guide/windows-agent-ddagent-user/#process-check -[9]: https://github.com/DataDog/integrations-core/blob/master/process/metadata.csv -[10]: https://github.com/DataDog/integrations-core/blob/master/process/assets/service_checks.json -[11]: https://docs.datadoghq.com/es/help/ -[12]: https://www.datadoghq.com/blog/process-check-monitoring \ No newline at end of file +Para hacerte una mejor idea de cómo (o por qué) monitorizar el consumo de recursos por parte de los proceso con Datadog, consulta esta [serie de entradas de blog](https://www.datadoghq.com/blog/process-check-monitoring). \ No newline at end of file diff --git a/content/es/integrations/pulsar.md b/content/es/integrations/pulsar.md index 69d7cab3c8dc1..843c79459d1cf 100644 --- a/content/es/integrations/pulsar.md +++ b/content/es/integrations/pulsar.md @@ -1,138 +1,277 @@ --- app_id: pulsar -app_uuid: 2a3a1555-3c19-42a9-b954-ce16c4aa6308 -assets: - integration: - auto_install: true - configuration: - spec: assets/configuration/spec.yaml - events: - creates_events: false - metrics: - check: pulsar.active_connections - metadata_path: metadata.csv - prefix: pulsar. - process_signatures: - - java org.apache.pulsar.PulsarStandaloneStarter - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 10143 - source_type_name: pulsar -author: - homepage: https://www.datadoghq.com - name: Datadog - sales_email: info@datadoghq.com - support_email: help@datadoghq.com categories: - recopilación de logs - colas de mensajes custom_kind: integración -dependencies: -- https://github.com/DataDog/integrations-core/blob/master/pulsar/README.md -display_on_public_website: true -draft: false -git_integration_title: pulsar -integration_id: pulsar -integration_title: Pulsar +description: Monitoriza tus clústeres Pulsar. integration_version: 3.2.0 -is_public: true -manifest_version: 2.0.0 -name: pulsar -public_title: Pulsar -short_description: Monitoriza tus clústeres Pulsar. +media: [] supported_os: - Linux - Windows - macOS -tile: - changelog: CHANGELOG.md - classifier_tags: - - Categoría::Recopilación de logs - - Categoría::Colas de mensajes - - Sistema operativo compatible::Linux - - Sistema operativo compatible::Windows - - Sistema operativo compatible::macOS - - Oferta::Integración - configuration: README.md#Configuración - description: Monitoriza tus clústeres Pulsar. - media: [] - overview: README.md#Información general - support: README.md#Soporte - title: Pulsar +title: Pulsar --- - - - - ## Información general -Este check monitoriza [Pulsar][1] a través del Datadog Agent. +Este check monitoriza [Pulsar](https://pulsar.apache.org) a través del Datadog Agent. ## Configuración -Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecuta en un host. Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][2] para obtener orientación sobre la aplicación de estas instrucciones. +Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecute en un host. Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/kubernetes/integrations/) para obtener orientación sobre la aplicación de estas instrucciones. ### Instalación -El check de Pulsar está incluido en el paquete del [Datadog Agent ][3]. +El check de Pulsar está incluido en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest). No es necesaria ninguna instalación adicional en tu servidor. ### Configuración -1. Edita el archivo `pulsar.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del directorio de configuración del Agent, para empezar a recopilar los datos de rendimiento de tu Pulsar. Para conocer todas las opciones de configuración disponibles, consulta el [pulsar.d/conf.yaml de ejemplo][4]. +1. Edita el archivo `pulsar.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu directorio de configuración del Agent para empezar a recopilar tus datos de rendimiento de Pulsar. Consulta el [ejemplo pulsar.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/pulsar/datadog_checks/pulsar/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. -2. [Reinicia el Agent][5]. +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). ### Validación -[Ejecuta el subcomando de estado del Agent][6] y busca `pulsar` en la sección Checks. +[Ejecuta el subcomando de estado del Agent] (https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `pulsar` en la sección Checks. ## Datos recopilados ### Métricas -{{< get-metrics-from-git "pulsar" >}} - +| | | +| --- | --- | +| **pulsar.active_connections**
(gauge) | Número de conexiones activas.
_Se muestra como conexión_ | +| **pulsar.authentication_failures_count.count**
(count) | Número de operaciones de autenticación fallidas.| +| **pulsar.authentication_success_count.count**
(count) | Número de operaciones de autenticación realizadas con éxito.| +| **pulsar.bookie_DELETED_LEDGER_COUNT.count**
(count) | Número total de ledgers eliminados desde que fue iniciado el bookie.| +| **pulsar.bookie_READ_BYTES.count**
(count) | Número total de bytes leídos del bookie.
_Se muestra como bytes_ | +| **pulsar.bookie_SERVER_STATUS**
(gauge) | Estado del servidor del bookie server. 1: el bookie se ejecuta en modo de escritura.0: el bookie se ejecuta en modo de solo lectura.| +| **pulsar.bookie_WRITE_BYTES.count**
(count) | Número total de bytes escritos en el bookie.
_Se muestra como bytes_ | +| **pulsar.bookie_entries_count**
(gauge) | Número total de entradas almacenadas en el bookie.| +| **pulsar.bookie_flush**
(gauge) | Latencia de descarga de la tabla de la memoria del bookie.| +| **pulsar.bookie_journal_JOURNAL_CB_QUEUE_SIZE**
(gauge) | Número total de devoluciones de llamada pendientes en la cola de devoluciones de llamada.| +| **pulsar.bookie_journal_JOURNAL_FORCE_WRITE_QUEUE_SIZE**
(gauge) | Número total de solicitudes de escritura forzada (fsync) pendientes en la cola de escritura forzada.
_Se muestra como solicitud_ | +| **pulsar.bookie_journal_JOURNAL_QUEUE_SIZE**
(gauge) | Número total de solicitudes pendientes en la cola de registros.
_Se muestra como solicitud_ | +| **pulsar.bookie_journal_JOURNAL_SYNC_count.count**
(count) | Número total de operaciones fsync de diario que se producen en el bookie. La etiqueta de éxito se utiliza para distinguir éxitos y fracasos.| +| **pulsar.bookie_ledger_writable_dirs**
(gauge) | Número de directorios con permisos de escritura en el bookie.| +| **pulsar.bookie_ledgers_count**
(gauge) | Número total de ledgers almacenados en el bookie.| +| **pulsar.bookie_read_cache_size**
(gauge) | Tamaño de la caché de lectura del bookie (en bytes).
_Se muestra como bytes_ | +| **pulsar.bookie_throttled_write_requests.count**
(count) | Número de solicitudes de escritura que se deben limitar.
_Se muestra como solicitud_ | +| **pulsar.bookie_write_cache_size**
(gauge) | Tamaño de la caché de escritura del bookie (en bytes).
_Se muestra como bytes_ | +| **pulsar.bookkeeper_server_ADD_ENTRY_count.count**
(count) | Número total de solicitudes ADD_ENTRY recibidas en el bookie. La etiqueta de éxito se utiliza para distinguir éxitos y fracasos.
_Se muestra como solicitud_. | +| **pulsar.bookkeeper_server_BOOKIE_QUARANTINE_count.count**
(count) | Número de clientes de bookie que deben colocarse en cuarentena.| +| **pulsar.bookkeeper_server_READ_ENTRY_count.count**
(count) | Número total de solicitudes READ_ENTRY recibidas en el bookie. La etiqueta de éxito se utiliza para distinguir éxitos y fracasos.
_Se muestra como solicitud_ | +| **pulsar.brk_ml_cursor_nonContiguousDeletedMessagesRange**
(gauge) | Número de rangos de mensajes no contiguos eliminados.| +| **pulsar.brk_ml_cursor_persistLedgerErrors**
(gauge) | Número de errores de ledger ocurridos cuando los estados de reconocimiento no logran ser persistentes en el ledger.
_Se muestra como error_ | +| **pulsar.brk_ml_cursor_persistLedgerSucceed**
(gauge) | Número de estados de reconocimiento persistentes en un ledger.| +| **pulsar.brk_ml_cursor_persistZookeeperErrors**
(gauge) | Número de errores del ledger cuando los estados de reconocimiento no logran ser persistentes en ZooKeeper.
_Se muestra como error_ | +| **pulsar.brk_ml_cursor_persistZookeeperSucceed**
(gauge) | Número de estados de reconocimiento persistentes en ZooKeeper.| +| **pulsar.brk_ml_cursor_readLedgerSize**
(gauge) | Tamaño de la lectura del ledger.| +| **pulsar.brk_ml_cursor_writeLedgerLogicalSize**
(gauge) | Tamaño de la escritura en el ledger (teniendo en cuenta sin réplicas).| +| **pulsar.brk_ml_cursor_writeLedgerSize**
(gauge) | Tamaño de la escritura en el ledger.| +| **pulsar.broker_load_manager_bundle_assignment**
(gauge) | Resumen de la latencia de las operaciones de propiedad de paquetes.| +| **pulsar.broker_lookup.count**
(count) | Número de muestras de la latencia de todas las operaciones de búsqueda.| +| **pulsar.broker_lookup.quantle**
(count) | Latencia de todas las operaciones de búsqueda.| +| **pulsar.broker_lookup.sum**
(count) | Latencia total de todas las operaciones de búsqueda.| +| **pulsar.broker_lookup_answers.count**
(count) | Número de respuestas de búsqueda (es decir, solicitudes no redirigidas).
_Se muestra como respuesta_ | +| **pulsar.broker_lookup_failures.count**
(count) | Número de errores de búsqueda.| +| **pulsar.broker_lookup_pending_requests**
(gauge) | Número de búsquedas pendientes en el broker. Cuando alcanza el umbral, se rechazan las nuevas solicitudes.
_Se muestra como solicitud_ | +| **pulsar.broker_lookup_redirects.count**
(count) | Número de solicitudes de búsqueda redirigidas.
_Se muestra como solicitud_ | +| **pulsar.broker_throttled_connections**
(gauge) | Número de conexiones limitadas.
_Se muestra como conexión_ | +| **pulsar.broker_throttled_connections_global_limit**
(gauge) | Número de conexiones limitadas debido al límite por conexión.
_Se muestra como conexión_ | +| **pulsar.broker_topic_load_pending_requests**
(gauge) | Carga de operaciones de temas pendientes.| +| **pulsar.bundle_consumer_count**
(gauge) | Recuento de consumidores de temas de este paquete.| +| **pulsar.bundle_msg_rate_in**
(gauge) | Tasa total de mensajes que llegan a los temas de este paquete (mensajes/segundo).| +| **pulsar.bundle_msg_rate_out**
(gauge) | Tasa total de mensajes que salen de los temas de este paquete (mensajes/segundo).| +| **pulsar.bundle_msg_throughput_in**
(gauge) | Rendimiento total que entra en los temas de este paquete (bytes/segundo).| +| **pulsar.bundle_msg_throughput_out**
(gauge) | Rendimiento total que sale de los temas de este paquete (bytes/segundo).| +| **pulsar.bundle_producer_count**
(gauge) | Recuento de productores de los temas de este paquete.| +| **pulsar.bundle_topics_count**
(gauge) | Recuento de temas de este paquete.| +| **pulsar.compaction_compacted_entries_count**
(gauge) | Número total de entradas compactadas.| +| **pulsar.compaction_compacted_entries_size**
(gauge) | Tamaño total de las entradas compactadas.| +| **pulsar.compaction_duration_time_in_mills**
(gauge) | Duración de la compactación.| +| **pulsar.compaction_failed_count**
(gauge) | Número total de fallos de la compactación.| +| **pulsar.compaction_read_throughput**
(gauge) | Rendimiento de lectura de la compactación.| +| **pulsar.compaction_removed_event_count**
(gauge) | Número total de eventos eliminados de la compactación.| +| **pulsar.compaction_succeed_count**
(gauge) | Número total de éxitos de la compactación.| +| **pulsar.compaction_write_throughput**
(gauge) | Rendimiento de escritura de la compactación.| +| **pulsar.connection_closed_total_count**
(gauge) | Número total de conexiones cerradas.
_Se muestra como conexión_ | +| **pulsar.connection_create_fail_count**
(gauge) | Número de conexiones fallidas.
_Se muestra como conexión_ | +| **pulsar.connection_create_success_count**
(gauge) | Número de conexiones creadas con éxito.
_Se muestra como conexión_ | +| **pulsar.connection_created_total_count**
(gauge) | Número total de conexiones.
_Se muestra como conexión_ | +| **pulsar.consumer_available_permits**
(gauge) | Permisos disponibles para un consumidor.| +| **pulsar.consumer_blocked_on_unacked_messages**
(gauge) | Indica si un consumidor está bloqueado en mensajes no reconocidos o no. 1 significa que el consumidor está bloqueado a la espera de que los mensajes no reconocidos sean reconocidos, acked.0 significa que el consumidor no está bloqueado a la espera de que los mensajes no reconocidos sean reconocidos.| +| **pulsar.consumer_msg_rate_out**
(gauge) | Tasa total de envío de mensajes de un consumidor (mensajes/segundo).| +| **pulsar.consumer_msg_rate_redeliver**
(gauge) | Tasa total de mensajes que se vuelven a entregar (mensajes/segundo).| +| **pulsar.consumer_msg_throughput_out**
(gauge) | Rendimiento total de envío de mensajes a un consumidor (bytes/segundo).| +| **pulsar.consumer_unacked_messages**
(gauge) | Número total de mensajes no reconocidos de un consumidor (mensajes).
_Se muestra como mensaje_ | +| **pulsar.consumers_count**
(gauge) | Número de consumidores activos del espacio de nombres conectados a este broker.| +| **pulsar.expired_token_count.count**
(count) | Número de tokens caducados en Pulsar.| +| **pulsar.function_last_invocation**
(gauge) | Marca de tiempo de la última invocación de la función.| +| **pulsar.function_processed_successfully_total.count**
(count) | Número total de mensajes procesados con éxito.
_Se muestra como mensaje_ | +| **pulsar.function_processed_successfully_total_1min.count**
(count) | Número total de mensajes procesados con éxito en el último minuto.
_Se muestra como mensaje_ | +| **pulsar.function_received_total.count**
(count) | Número total de mensajes recibidos de la fuente.
_Se muestra como mensaje_ | +| **pulsar.function_received_total_1min.count**
(count) | Número total de mensajes recibidos de la fuente en el último minuto.
_Se muestra como mensaje_ | +| **pulsar.function_system_exceptions_total.count**
(count) | Número total de excepciones del sistema.| +| **pulsar.function_system_exceptions_total_1min.count**
(count) | Número total de excepciones del sistema en el último minuto.| +| **pulsar.function_user_exceptions_total.count**
(count) | Número total de excepciones de usuarios.| +| **pulsar.function_user_exceptions_total_1min.count**
(count) | Número total de excepciones de usuarios en el último minuto.| +| **pulsar.in_bytes_total**
(gauge) | Número de mensajes en bytes recibidos de este tema.
_Se muestra como byte_ | +| **pulsar.in_messages_total**
(gauge) | Número total de mensajes recibidos de este tema.
_Se muestra como mensaje_ | +| **pulsar.jetty_async_dispatches_total.count**
(count) | Número de solicitudes que se han enviado de forma asíncrona.| +| **pulsar.jetty_async_requests_total.count**
(count) | Número total de solicitudes asíncronas.
_Se muestra como solicitud_ | +| **pulsar.jetty_async_requests_waiting**
(gauge) | Actualmente esperando solicitudes asíncronas.
_Se muestra como solicitud_ | +| **pulsar.jetty_async_requests_waiting_max**
(gauge) | Número máximo de peticiones solicitudes en espera.
_Se muestra como solicitud_ | +| **pulsar.jetty_dispatched_active**
(gauge) | Número de envíos activos actualmente.| +| **pulsar.jetty_dispatched_active_max**
(gauge) | Número máximo de envíos activos que se están gestionando.| +| **pulsar.jetty_dispatched_time_max**
(gauge) | Tiempo máximo dedicado a la gestión de envíos.| +| **pulsar.jetty_dispatched_time_seconds_total.count**
(count) | Tiempo total dedicado a la gestión del envío.
_Se muestra como segundos_ | +| **pulsar.jetty_dispatched_total.count**
(count) | Número de envíos.| +| **pulsar.jetty_expires_total.count**
(count) | Número de solicitudes asíncronas que han caducado.
_Se muestra como solicitud_ | +| **pulsar.jetty_request_time_max_seconds**
(gauge) | Tiempo máximo dedicado a la gestión de solicitudes.
_Se muestra como segundos_ | +| **pulsar.jetty_request_time_seconds_total.count**
(count) | Tiempo total dedicado a la gestión de todas las solicitudes.
_Se muestra como segundos_ | +| **pulsar.jetty_requests_active**
(gauge) | Número de solicitudes activas actualmente.
_Se muestra como solicitud_ | +| **pulsar.jetty_requests_active_max**
(gauge) | Número máximo de solicitudes que han estado activas a la vez.
_Se muestra como solicitud_ | +| **pulsar.jetty_requests_total.count**
(count) | Número de solicitudes.
_Se muestra como solicitud_ | +| **pulsar.jetty_responses_bytes_total.count**
(count) | Número total de bytes en todas las respuestas.
_Se muestra como bytes_ | +| **pulsar.jetty_responses_total.count**
(count) | Número de respuestas, etiquetadas por código de estado. La etiqueta del código puede ser "1xx", "2xx", "3xx", "4xx" o "5xx".
_Se muestra como respuesta_ | +| **pulsar.jetty_stats_seconds**
(gauge) | Tiempo en segundos durante el que se han recopilado estadísticas.
_Se muestra como segundos_ | +| **pulsar.lb_bandwidth_in_usage**
(gauge) | Uso de ancho de banda entrante del broker (en porcentaje).| +| **pulsar.lb_bandwidth_out_usage**
(gauge) | Uso de ancho de banda saliente del broker (en porcentaje).| +| **pulsar.lb_bundles_split_count.count**
(count) | Recuento de división de paquetes en este intervalo de comprobación de división de paquetes| +| **pulsar.lb_cpu_usage**
(gauge) | Uso de cpu del broker (en porcentaje).| +| **pulsar.lb_directMemory_usage**
(gauge) | Uso de memoria directa del proceso de broker (en porcentaje).| +| **pulsar.lb_memory_usage**
(gauge) | Uso de memoria del proceso del broker (en porcentaje).| +| **pulsar.lb_unload_broker_count.count**
(count) | Recuento de brokers de descarga en esta descarga de paquetes| +| **pulsar.lb_unload_bundle_count.count**
(count) | Recuento de descarga de paquetes en esta descarga de paquetes| +| **pulsar.ml_AddEntryBytesRate**
(gauge) | Tasa de bytes/s de mensajes añadidos| +| **pulsar.ml_AddEntryErrors**
(gauge) | Número de solicitudes addEntry fallidas
_Se muestra como solicitud_ | +| **pulsar.ml_AddEntryMessagesRate**
(gauge) | Tasa de msg/s de mensajes añadidos| +| **pulsar.ml_AddEntrySucceed**
(gauge) | Número de solicitudes de addEntry exitosas
_Se muestra como solicitud_ | +| **pulsar.ml_AddEntryWithReplicasBytesRate**
(gauge) | Tasa de bytes/s de mensajes añadidos con réplicas| +| **pulsar.ml_MarkDeleteRate**
(gauge) | Tasa de operaciones/s de marcado-eliminación| +| **pulsar.ml_NumberOfMessagesInBacklog**
(gauge) | Número de mensajes pendientes para todos los consumidores
_Se muestra como mensaje_ | +| **pulsar.ml_ReadEntriesBytesRate**
(gauge) | Tasa de bytes/s de mensajes leídos| +| **pulsar.ml_ReadEntriesErrors**
(gauge) | Número de solicitudes readEntries fallidas
_Se muestra como solicitud_ | +| **pulsar.ml_ReadEntriesRate**
(gauge) | Tasa de msg/s de mensajes leídos| +| **pulsar.ml_ReadEntriesSucceeded**
(gauge) | Número de solicitudes readEntries exitosas
_Se muestra como solicitud_ | +| **pulsar.ml_StoredMessagesSize**
(gauge) | Tamaño total de los mensajes en ledgers activos (teniendo en cuenta las múltiples copias almacenadas).| +| **pulsar.ml_cache_evictions**
(gauge) | Número de desalojos de la caché durante el último minuto.
_Se muestra como desalojo_ | +| **pulsar.ml_cache_hits_rate**
(gauge) | Número de accesos a la caché por segundo en el lado del broker.
_Se muestra como hit_ | +| **pulsar.ml_cache_hits_throughput**
(gauge) | Cantidad de datos que se recuperan de la caché en el lado del broker (en bytes/s).| +| **pulsar.ml_cache_misses_rate**
(gauge) | Número de fallos de caché por segundo en el lado del broker.
_Se muestra como fallo_ | +| **pulsar.ml_cache_misses_throughput**
(gauge) | Cantidad de datos que no se recuperan de la caché en el lado del broker (en byte/s).| +| **pulsar.ml_cache_pool_active_allocations**
(gauge) | Número de asignaciones actualmente activas en el ámbito directo| +| **pulsar.ml_cache_pool_active_allocations_huge**
(gauge) | Número de grandes asignaciones actualmente activas en el ámbito directo| +| **pulsar.ml_cache_pool_active_allocations_normal**
(gauge) | Número de asignaciones normales actualmente activas en el ámbito directo| +| **pulsar.ml_cache_pool_active_allocations_small**
(gauge) | Número de pequeñas asignaciones actualmente activas en el ámbito directo| +| **pulsar.ml_cache_pool_allocated**
(gauge) | Memoria total asignada a las listas de fragmentos en el ámbito directo| +| **pulsar.ml_cache_pool_used**
(gauge) | Memoria total utilizada de las listas de fragmentos en el ámbito directo| +| **pulsar.ml_cache_used_size**
(gauge) | Tamaño en bytes utilizado para almacenar las cargas útiles de las entradas
_Se muestra como bytes_ | +| **pulsar.ml_count**
(gauge) | Número de ledgers gestionados actualmente abiertos| +| **pulsar.out_bytes_total**
(gauge) | Número total de mensajes en bytes leídos de este tema.
_Se muestra como bytes_ | +| **pulsar.out_messages_total**
(gauge) | Número total de mensajes leídos de este tema.
_Se muestra como mensaje_ | +| **pulsar.producers_count**
(gauge) | Número de productores activos del espacio de nombres conectados a este broker.| +| **pulsar.proxy_active_connections**
(gauge) | Número de conexiones activas actualmente en el proxy.
_Se muestra como conexión_ | +| **pulsar.proxy_binary_bytes.count**
(count) | Contador de bytes proxy.
_Se muestra como bytes_ | +| **pulsar.proxy_binary_ops.count**
(count) | Contador de operaciones proxy.| +| **pulsar.proxy_new_connections.count**
(count) | Contador de conexiones que se están abriendo en el proxy.
_Se muestra como conexión_ | +| **pulsar.proxy_rejected_connections.count**
(count) | Contador de conexiones rechazadas por limitación.
_Se muestra como conexión_ | +| **pulsar.rate_in**
(gauge) | Tasa total de mensajes del espacio de nombres que llegan a este broker (mensajes/segundo).| +| **pulsar.rate_out**
(gauge) | Tasa total de mensajes del espacio de nombres que salen de este broker (mensajes/segundo).| +| **pulsar.replication_backlog**
(gauge) | Backlog total del espacio de nombres que replica al clúster remoto (mensajes).
_Se muestra como mensaje_ | +| **pulsar.replication_connected_count**
(gauge) | Recuento de suscriptores de replicación en funcionamiento para replicar al clúster remoto.| +| **pulsar.replication_delay_in_seconds**
(gauge) | Tiempo en segundos desde el momento en que se produjo un mensaje hasta el momento en que está a punto de ser replicado.
_Se muestra como segundos_ | +| **pulsar.replication_rate_expired**
(gauge) | Tasa total de mensajes caducados (mensajes/segundo).| +| **pulsar.replication_rate_in**
(gauge) | Tasa total de mensajes del espacio de nombres que replica desde el clúster remoto (mensajes/segundo).| +| **pulsar.replication_rate_out**
(gauge) | Tasa total de mensajes del espacio de nombres que replica al clúster remoto (mensajes/segundo).| +| **pulsar.replication_throughput_in**
(gauge) | Rendimiento total del espacio de nombres que replica desde el clúster remoto (bytes/segundo).| +| **pulsar.replication_throughput_out**
(gauge) | Rendimiento total del espacio de nombres que replica al clúster remoto (bytes/segundo).| +| **pulsar.sink_last_invocation**
(gauge) | Marca de tiempo de la última invocación del sumidero.| +| **pulsar.sink_received_total.count**
(count) | Número total de registros que un sumidero ha recibido de temas Pulsar.| +| **pulsar.sink_received_total_1min.count**
(count) | Número total de mensajes que un sumidero ha recibido de temas Pulsar en el último minuto.
_Se muestra como mensaje_ | +| **pulsar.sink_sink_exception**
(gauge) | Excepción de un sumidero.| +| **pulsar.sink_sink_exceptions_total.count**
(count) | Número total de excepciones de sumidero.| +| **pulsar.sink_sink_exceptions_total_1min.count**
(count) | Número total de excepciones de sumidero en el último minuto.| +| **pulsar.sink_system_exception**
(gauge) | Excepción del código del sistema.| +| **pulsar.sink_system_exceptions_total.count**
(count) | Número total de excepciones del sistema.| +| **pulsar.sink_system_exceptions_total_1min.count**
(count) | Número total de excepciones del sistema en el último minuto.| +| **pulsar.sink_written_total.count**
(count) | Número total de registros procesados por un sumidero.| +| **pulsar.sink_written_total_1min.count**
(count) | Número total de registros procesados por un sumidero en el último minuto.| +| **pulsar.source_last_invocation**
(gauge) | Marca de tiempo de la última invocación de la fuente.| +| **pulsar.source_received_total.count**
(count) | Número total de registros recibidos de la fuente.| +| **pulsar.source_received_total_1min.count**
(count) | Número total de registros recibidos de la fuente en el último minuto.| +| **pulsar.source_source_exception**
(gauge) | Excepción de una fuente.| +| **pulsar.source_source_exceptions_total.count**
(count) | Número total de excepciones de una fuente.| +| **pulsar.source_source_exceptions_total_1min.count**
(count) | Número total de excepciones de una fuente en el último minuto.| +| **pulsar.source_system_exception**
(gauge) | Excepción del código del sistema.| +| **pulsar.source_system_exceptions_total.count**
(count) | Número total de excepciones del sistema.| +| **pulsar.source_system_exceptions_total_1min.count**
(count) | Número total de excepciones del sistema en el último minuto.| +| **pulsar.source_written_total.count**
(count) | Número total de registros escritos en un tema Pulsar.| +| **pulsar.source_written_total_1min.count**
(count) | Número total de registros escritos en un tema Pulsar en el último minuto.| +| **pulsar.split_bytes_read.count**
(count) | Número de bytes leídos desde BookKeeper.
_Se muestra como bytes_ | +| **pulsar.split_num_messages_deserialized.count**
(count) | Número de mensajes deserializados.
_Se muestra como mensaje_ | +| **pulsar.split_num_record_deserialized.count**
(count) | Número de registros deserializados.| +| **pulsar.storage_backlog_quota_limit**
(gauge) | Cantidad total de datos en este tema que limitan la cuota de backlog (bytes).
_Se muestra como bytes_ | +| **pulsar.storage_backlog_size**
(gauge) | Tamaño total del backlog de temas de este espacio de nombres propiedad de este broker (mensajes).| +| **pulsar.storage_logical_size**
(gauge) | Tamaño de almacenamiento delos temas en el espacio de nombres propiedad del broker sin réplicas (en bytes).| +| **pulsar.storage_offloaded_size**
(gauge) | Cantidad total de datos de este espacio de nombres descargados al almacenamiento por niveles (bytes).| +| **pulsar.storage_read_rate**
(gauge) | Total de lotes de mensajes (entradas) leídos del almacenamiento para este espacio de nombres (lotes de mensajes/segundo).| +| **pulsar.storage_size**
(gauge) | Tamaño total de almacenamiento de los temas en este espacio de nombres propiedad de este broker (bytes).| +| **pulsar.storage_write_rate**
(gauge) | Total de lotes de mensajes (entradas) escritos en el almacenamiento para este espacio de nombres (lotes de mensajes/segundo).| +| **pulsar.subscription_back_log**
(gauge) | Backlog total de una suscripción (mensajes).
_Se muestra como mensaje_ | +| **pulsar.subscription_blocked_on_unacked_messages**
(gauge) | Indica si una suscripción está bloqueada en los mensajes no reconocidos o no. 1 significa que la suscripción está bloqueada a la espera de que los mensajes no reconocidos sean reconocidos, 0 significa que la suscripción no está bloqueada a la espera de que los mensajes no reconocidos sean reconocidos.| +| **pulsar.subscription_delayed**
(gauge) | Total de lotes de mensajes (entradas) cuyo envío se retrasa.| +| **pulsar.subscription_msg_rate_out**
(gauge) | Tasa total de envío de mensajes de una suscripción (mensajes/segundo).| +| **pulsar.subscription_msg_rate_redeliver**
(gauge) | Tasa total de mensajes que se vuelven a entregar (mensajes/segundo).| +| **pulsar.subscription_msg_throughput_out**
(gauge) | Rendimiento total de envío de mensajes de una suscripción (bytes/segundo).| +| **pulsar.subscription_unacked_messages**
(gauge) | Número total de mensajes no reconocidos para una suscripción (mensajes).
_Se muestra como mensaje_ | +| **pulsar.subscriptions_count**
(gauge) | Número de suscripciones Pulsar del espacio de nombres servidas por este broker.| +| **pulsar.throughput_in**
(gauge) | Rendimiento total del espacio de nombres que entra en este broker (bytes/segundo).| +| **pulsar.throughput_out**
(gauge) | Rendimiento total del espacio de nombres que sale de este broker (bytes/segundo).| +| **pulsar.topics_count**
(gauge) | Número de temas Pulsar del espacio de nombres propiedad de este broker.| +| **pulsar.txn_aborted_count.count**
(count) | Número de transacciones abortadas de este coordinador.
_Se muestra como transacción_ | +| **pulsar.txn_active_count**
(gauge) | Número de transacciones activas.
_Se muestra como transacción_ | +| **pulsar.txn_append_log_count.count**
(count) | Número de logs de transacciones anexas.| +| **pulsar.txn_committed_count.count**
(count) | Número de transacciones confirmadas.
_Se muestra como transacción_ | +| **pulsar.txn_created_count.count**
(count) | Número de transacciones creadas.
_Se muestra como transacción_ | +| **pulsar.txn_timeout_count.count**
(count) | Número de transacciones con tiempo de espera agotado.
_Se muestra como transacción_ | ### Recopilación de logs -1. La integración de logs de Pulsar admite el [formato de logs por defecto][8] de Pulsar. Clona y edita el [pipeline de la integración][9] si tienes un formato diferente. +1. La integración de logs de Pulsar admite el [formato de log por defecto](https://pulsar.apache.org/docs/en/reference-configuration/#log4j) de Pulsar. Clona y edita el [pipeline de la integración](https://docs.datadoghq.com/logs/processing/#integration-pipelines) si tienes un formato diferente. + +1. La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en tu archivo `datadog.yaml`: -2. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Habilítala en tu archivo `datadog.yaml`: ```yaml logs_enabled: true ``` -3. Deselecciona y edita el bloque de configuración de logs en tu archivo `pulsar.d/conf.yaml`. Cambia el valor de los parámetros de ruta según tu entorno. Consulta el [pulsar.d/conf.yaml de ejemplol][4] para ver todas las opciones de configuración disponibles. +1. Descomenta y edita el bloque de configuración de logs en tu archivo `pulsar.d/conf.yaml`. Cambia el valor del parámetro de ruta en función de tu entorno. Consulta el [ejemplo pulsar.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/pulsar/datadog_checks/pulsar/data/conf.yaml.example) para ver todas las opciones de configuración disponibles. + ```yaml logs: - type: file path: /pulsar/logs/pulsar.log source: pulsar ``` -4. [Reiniciar el Agent][5] + +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent) ### Eventos La integración Pulsar no incluye eventos. ### Checks de servicio -{{< get-service-checks-from-git "pulsar" >}} +**pulsar.openmetrics.health** -## Solucionar problemas +Devuelve `CRITICAL` si el Agent no puede conectarse al endpoint de OpenMetrics o `OK` en caso contrario. -¿Necesitas ayuda? Contacta con el [equipo de asistencia de Datadog][11]. +_Estados: ok, crítico_ +## Solucionar problemas -[1]: https://pulsar.apache.org -[2]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/ -[3]: https://app.datadoghq.com/account/settings/agent/latest -[4]: https://github.com/DataDog/integrations-core/blob/master/pulsar/datadog_checks/pulsar/data/conf.yaml.example -[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent -[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information -[7]: https://github.com/DataDog/integrations-core/blob/master/pulsar/metadata.csv -[8]: https://pulsar.apache.org/docs/en/reference-configuration/#log4j -[9]: https://docs.datadoghq.com/es/logs/processing/#integration-pipelines -[10]: https://github.com/DataDog/integrations-core/blob/master/pulsar/assets/service_checks.json -[11]: https://docs.datadoghq.com/es/help/ \ No newline at end of file +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/purefa.md b/content/es/integrations/purefa.md index fa67e7d691a97..af298eb5785c0 100644 --- a/content/es/integrations/purefa.md +++ b/content/es/integrations/purefa.md @@ -1,82 +1,30 @@ --- app_id: purefa -app_uuid: a2d8f393-62cd-4ece-bfab-e30797698b12 -assets: - dashboards: - purefa_overview: assets/dashboards/purefa_overview.json - purefa_overview_legacy: assets/dashboards/purefa_overview_legacy.json - integration: - auto_install: true - configuration: - spec: assets/configuration/spec.yaml - events: - creates_events: false - metrics: - check: purefa.info - metadata_path: metadata.csv - prefix: purefa. - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 10256 - source_type_name: PureFA -author: - homepage: https://purestorage.com - name: Pure Storage - sales_email: sales@purestorage.com - support_email: pure-observability@purestorage.com categories: - almacenes de datos - sistema operativo y sistema -custom_kind: integration -dependencies: -- https://github.com/DataDog/integrations-extras/blob/master/purefa/README.md -display_on_public_website: true -draft: false -git_integration_title: purefa -integration_id: purefa -integration_title: FlashArray Pure Storage -integration_version: 1.2.0 -is_public: true -manifest_version: 2.0.0 -name: purefa -public_title: FlashArray Pure Storage -short_description: Monitorización del rendimiento y el uso de FlashArrays Pure Storage +custom_kind: integración +description: Monitorización del rendimiento y el uso de FlashArrays Pure Storage +integration_version: 1.3.0 +media: +- caption: Dashboard de FlashArray Pure Storage - Información general (arriba) + image_url: images/FA-overview-1.png + media_type: imagen +- caption: Dashboard de FlashArray Pure Storage - Información general (arriba) + image_url: images/FA-overview-2.png + media_type: imagen +- caption: Dashboard de FlashArray Pure Storage - Información general (abajo) + image_url: images/FA-overview-3.png + media_type: imagen supported_os: - Linux - Windows - macOS -tile: - changelog: CHANGELOG.md - classifier_tags: - - Categoría::Almacenes de datos - - Categoría::Sistema operativo y sistema - - Oferta::Integración - - Sistema operativo compatible::Linux - - Sistema operativo compatible::Windows - - Sistema operativo compatible::macOS - configuration: README.md#Configuración - description: Monitorización del rendimiento y el uso de FlashArrays Pure Storage - media: - - caption: Dashboard de FlashArray Pure Storage - Información general (arriba) - image_url: images/FA-overview-1.png - media_type: imagen - - caption: Dashboard de FlashArray Pure Storage - Información general (arriba) - image_url: images/FA-overview-2.png - media_type: imagen - - caption: Dashboard de FlashArray Pure Storage - Información general (abajo) - image_url: images/FA-overview-3.png - media_type: imagen - overview: README.md#Información general - support: README.md#Soporte - title: FlashArray Pure Storage +title: FlashArray Pure Storage --- - - - - ## Información general -Este check monitoriza el [FlashArray Pure Storage][1] a través del [Datadog Agent][2] y el [exportador OpenMetrics Pure Storage][3]. +Este check monitoriza [Pure Storage FlashArray](https://www.purestorage.com/products.html) a través del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest) y el [exportador OpenMetrics de Pure Storage](https://github.com/PureStorage-OpenConnect/pure-fa-openmetrics-exporter). La integración puede proporcionar datos de rendimiento a nivel de matriz, host, volumen y pod, así como información muy clara sobre capacidad y configuración. @@ -84,9 +32,10 @@ Puedes monitorizar múltiples FlashArrays y agregarlos en un único dashboard o **Esta integración requiere lo siguiente**: - - Agent v7.26.x o posterior para utilizar OpenMetrics BaseCheckV2 - - Python 3 - - El exportador OpenMetrics Pure Storage se instala y ejecuta en un entorno contenedorizado. Para obtener instrucciones de instalación, consulta el [repositorio de GitHub][3]. +- Agent v7.26.x o posterior para utilizar OpenMetrics BaseCheckV2 +- Python 3 +- El exportador OpenMetrics de Pure Storage se instala y ejecuta en un entorno contenedorizado. Consulta el [repositorio de GitHub](https://github.com/PureStorage-OpenConnect/pure-fa-openmetrics-exporter) para obtener instrucciones de instalación. + - En FlashArrays que ejecutan Purity//FA versión 6.7.0 y posteriores, el exportador OpenMetrics se ejecuta de forma nativa en la matriz. Consulta Configuración para obtener más información. ## Configuración @@ -94,24 +43,93 @@ Sigue las instrucciones a continuación para instalar y configurar este check pa ### Instalación -1. [Descarga e inicia el Datadog Agent][2]. -2. Instala manualmente la integración Pure FlashArray. Para obtener más detalles en función de tu entorno, consulta [Uso de integraciones de la comunidad][4]. - +1. [Descarga e inicia el Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest). +1. Instala manualmente la integración Pure FlashArray. Consulta [Uso de integraciones comunitarias](https://docs.datadoghq.com/agent/guide/community-integrations-installation-with-docker-agent) para obtener más información en función de tu entorno. #### Host Para configurar este check para un Agent que se ejecuta en un host, ejecuta `sudo -u dd-agent -- datadog-agent integration install -t datadog-purefa==`. -Nota: `` se puede encontrar dentro del [CHANGELOG.md][5] de integraciones adicionales de Datadog. - * Por ejemplo `sudo -u dd-agent -- datadog-agent integration install -t datadog-purefa==1.2.0` +Nota: `` se puede encontrar dentro del [CHANGELOG.md](https://github.com/DataDog/integrations-extras/blob/master/purefa/CHANGELOG.md) para Datadog Integration Extras. + +- Por ejemplo `sudo -u dd-agent -- datadog-agent integration install -t datadog-purefa==1.3.0` ### Configuración 1. Crea un usuario local en tu FlashArray con el rol de sólo lectura y genera un token de API para este usuario. - ![Generación de una clave de API][6] -2. Añade el siguiente bloque de configuración al archivo `purefa.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del directorio de configuración del Agent para comenzar a recopilar tus datos de rendimiento de PureFA. Para conocer todas las opciones de configuración disponibles, consulta el [purefa.d/conf.yaml de ejemplo][7]. + ![Generar una clave API](https://raw.githubusercontent.com/DataDog/integrations-extras/master/purefa/images/API.png) +1. Añade el siguiente bloque de configuración al archivo `purefa.d/conf.yaml`, en la carpeta `conf.d/` en la raíz del directorio de configuración de tu Agent para empezar a recopilar tus datos de rendimiento de PureFA. Consulta el ejemplo [purefa.d/conf.yaml](https://github.com/datadog/integrations-extras/blob/master/purefa/datadog_checks/purefa/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. + +> **Nota**: La creación de tu archivo de configuración requiere el endpoint `/array` como mínimo absoluto. + +#### (Preferido) Para uso con el exportador nativo OpenMetrics de Pure Storage (Purity//FA v6.7.0 o posteriores) + +```yaml +init_config: + timeout: 60 + +instances: + + - openmetrics_endpoint: https:///metrics/array?namespace=purefa + tags: + - env: + - fa_array_name: + - host: + headers: + Authorization: Bearer + min_collection_interval: 120 + # If you have not configured your Purity management TLS certifcate, you may skip TLS verification. For other TLS options, please see conf.yaml.example. + # tls_verify: false + # tls_ignore_warning: true + + - openmetrics_endpoint: https:///metrics/volumes?namespace=purefa + tags: + - env: + - fa_array_name: + headers: + Authorization: Bearer + min_collection_interval: 120 + # If you have not configured your Purity management TLS certifcate, you may skip TLS verification. For other TLS options, please see conf.yaml.example. + # tls_verify: false + # tls_ignore_warning: true + + - openmetrics_endpoint: https:///metrics/hosts?namespace=purefa + tags: + - env: + - fa_array_name: + headers: + Authorization: Bearer + min_collection_interval: 120 + # If you have not configured your Purity management TLS certifcate, you may skip TLS verification. For other TLS options, please see conf.yaml.example. + # tls_verify: false + # tls_ignore_warning: true -**Nota**: La creación de tu archivo de configuración requiere el endpoint `/array` como mínimo absoluto. + - openmetrics_endpoint: https:///metrics/pods?namespace=purefa + tags: + - env: + - fa_array_name: + - host: + headers: + Authorization: Bearer + min_collection_interval: 120 + # If you have not configured your Purity management TLS certifcate, you may skip TLS verification. For other TLS options, please see conf.yaml.example. + # tls_verify: false + # tls_ignore_warning: true + + - openmetrics_endpoint: https:///metrics/directories?namespace=purefa + tags: + - env: + - fa_array_name: + - host: + headers: + Authorization: Bearer + min_collection_interval: 120 + # If you have not configured your Purity management TLS certifcate, you may skip TLS verification. For other TLS options, please see conf.yaml.example. + # tls_verify: false + # tls_ignore_warning: true +``` + +#### Para su uso con el exportador externo [OpenMetrics de Pure Storage(https://github.com/PureStorage-OpenConnect/pure-fa-openmetrics-exporter) (Purity //FA v\<6.7.0) ```yaml init_config: @@ -163,29 +181,27 @@ instances: min_collection_interval: 120 ``` -2. [Reinicia el Agent][8]. +2. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). ### Validación -[Ejecuta el subcomando de estado del Agent][9] y busca `purefa` en la sección Checks. - - +[Ejecuta el subcomando de estado del Agent] (https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `purefa` en la sección Checks. ### Actualización a nuevas versiones de esta integración #### A partir del check del Agent PureFA v1.0.x a v1.1.x -La versión 1.1.x admite tanto el [exportador OpenMetrics Pure Storage][3] y el [exportador Prometheus Pure Storage][10] obsoleto. +1.1.x admite tanto el [exportador OpenMetrics de Pure Storage](https://github.com/PureStorage-OpenConnect/pure-fa-openmetrics-exporter) como el obsoleto [exportador Prometheus de Pure Storage](https://github.com/PureStorage-OpenConnect/pure-exporter). -El dashboard para el [exportador Prometheus Pure Storage][10] obsoleto ha sido renombrado `Pure FlashArray - Overview (Legacy Exporter)`. +El dashboard del obsoleto [exportador Prometheus de Pure Storage](https://github.com/PureStorage-OpenConnect/pure-exporter) ha sido renombrado como `Pure FlashArray - Overview (Legacy Exporter)`. -En [metrics.py][11] se muestra un listado de métricas, tanto compartidas como exclusivas, de los distintos exportadores. Al migrar del [exportador Prometheus Pure Storage][10] al [exportador OpenMetrics Pure Storage][3], es posible que tengas que actualizar tus dashboards o tus alertas para que coincidan con los nuevos nombres de métricas. Si tienes alguna pregunta, ponte en contacto con Pure Storage con la información de la pestaña de asistencia. +En [metrics.py](https://github.com/datadog/integrations-extras/blob/master/purefa/datadog_checks/purefa/metrics.py) encontrarás una lista de métricas compartidas y exclusivas de los distintos exportadores. Es posible que tengas que actualizar tus dashboards o tus alertas para que coincidan con los nuevos nombres de métricas al migrar del [exportador Prometheus de Pure Storage](https://github.com/PureStorage-OpenConnect/pure-exporter) al [exportador OpenMetrics de Pure Storage](https://github.com/PureStorage-OpenConnect/pure-fa-openmetrics-exporter). Si tienes alguna pregunta, ponte en contacto con Pure Storage con la información de la pestaña Asistencia. -Al migrar del [exportador Prometheus Pure Storage][10] al [exportador OpenMetrics Pure Storage][3], los endpoints ya no tendrán `/flasharray` en el URI del endpoint. +Al migrar del [exportador Prometheus de Pure Storage](https://github.com/PureStorage-OpenConnect/pure-exporter) al [exportador OpenMetrics de Pure Storage](https://github.com/PureStorage-OpenConnect/pure-fa-openmetrics-exporter), los endpoints ya no tendrán `/flasharray` en el URI del endpoint. En futuras versiones del check del Agent PureFA, se eliminarán los nombres de métricas del exportador Prometheus Pure Storage. -### Resolución de problemas +### Solucionar problemas #### Las matrices no se muestran en el dashboard @@ -206,12 +222,90 @@ El check de FlashArray Pure Storage configura `min_collection_interval` como `12 min_collection_interval: 120 ``` - ## Datos recopilados ### Métricas -{{< get-metrics-from-git "purefa" >}} +| | | +| --- | --- | +| **purefa.alerts.open**
(gauge) | Eventos de alerta de FlashArray abiertos.| +| **purefa.alerts.total**
(gauge) | (Legacy) Número de eventos de alerta.| +| **purefa.array.performance_average_bytes**
(gauge) | Tamaño medio de las operaciones de la matriz FlashArray en bytes.
_Se muestra como bytes_ | +| **purefa.array.performance_avg_block_bytes**
(gauge) | (Legacy) Tamaño medio de bloque de FlashArray.
_Se muestra como bytes_ | +| **purefa.array.performance_bandwidth_bytes**
(gauge) | Rendimiento de la matriz FlashArray en bytes por segundo.
_Se muestra como bytes_ | +| **purefa.array.performance_iops**
(gauge) | (Legacy) IOPS FlashArray.
_Se muestra como operación_ | +| **purefa.array.performance_latency_usec**
(gauge) | Latencia de la matriz FlashArray en microsegundos.
_Se muestra como microsegundos_ | +| **purefa.array.performance_qdepth**
(gauge) | (Legacy) Profundidad de la cola de FlashArray.| +| **purefa.array.performance_queue_depth_ops**
(gauge) | Tamaño de la profundidad de la cola de la matriz FlashArray.
_Se muestra como operación_ | +| **purefa.array.performance_throughput_iops**
(gauge) | Rendimiento de la matriz FlashArray en IOPS.
_Se muestra como operación_ | +| **purefa.array.space_bytes**
(gauge) | Espacio de la matriz FlashArray en bytes.
_Se muestra como bytes_ | +| **purefa.array.space_capacity_bytes**
(gauge) | (Legacy) Capacidad de espacio total de FlashArray.
_Se muestra como bytes_ | +| **purefa.array.space_data_reduction_ratio**
(gauge) | Reducción de datos del espacio de la matriz FlashArray.| +| **purefa.array.space_datareduction_ratio**
(gauge) | (Legacy) Reducción global de datos de FlashArray.| +| **purefa.array.space_provisioned_bytes**
(gauge) | (Legacy) Espacio total aprovisionado de FlashArray.
_Se muestra como bytes_ | +| **purefa.array.space_used_bytes**
(gauge) | (Legacy) Espacio total utilizado de FlashArray.
_Se muestra como bytes_ | +| **purefa.array.space_utilization**
(gauge) | Uso del espacio de la matriz FlashArray en porcentaje.
_Se muestra como porcentaje_ | +| **purefa.directory.performance_average_bytes**
(gauge) | Tamaño medio de las operaciones del directorio FlashArray en bytes.
_Se muestra como bytes_ | +| **purefa.directory.performance_bandwidth_bytes**
(gauge) | Rendimiento del directorio FlashArray en bytes por segundo.
_Se muestra como bytes_ | +| **purefa.directory.performance_latency_usec**
(gauge) | Latencia del directorio FlashArray en microsegundos.
_Se muestra como microsegundos_ | +| **purefa.directory.performance_throughput_iops**
(gauge) | Rendimiento del directorio FlashArray en IOPS.
_Se muestra como operación_ | +| **purefa.directory.space_bytes**
(gauge) | Espacio del directorio FlashArray en bytes.
_Se muestra como bytes_ | +| **purefa.directory.space_data_reduction_ratio**
(gauge) | Reducción de datos del espacio del directorio FlashArray.| +| **purefa.drive.capacity_bytes**
(gauge) | Capacidad de la unidad FlashArray en bytes.
_Se muestra como bytes_ | +| **purefa.hardware.chassis_health**
(gauge) | (Legacy) Estado de salud del chasis de hardware de FlashArray.| +| **purefa.hardware.component_health**
(gauge) | (Legacy) Estado de salud del componente de hardware de FlashArray.| +| **purefa.hardware.controller_health**
(gauge) | (Legacy) Estado de salud del controlador de hardware de FlashArray.| +| **purefa.hardware.power_volts**
(gauge) | (Legacy) Tensión de alimentación del hardware de FlashArray.
_Se muestra como voltios_ | +| **purefa.hardware.temperature_celsius**
(gauge) | (Legacy) Sensores de temperatura del hardware de FlashArray.
_Se muestra como grados celsius_ | +| **purefa.host.connections_info**
(gauge) | Conexiones de volúmenes del host FlashArray.| +| **purefa.host.connectivity_info**
(gauge) | Información de conectividad del host FlashArray.| +| **purefa.host.performance_average_bytes**
(gauge) | Tamaño medio de las operaciones del host FlashArray en bytes.
_Se muestra como bytes_ | +| **purefa.host.performance_bandwidth_bytes**
(gauge) | Ancho de banda del host FlashArray en bytes por segundo.
_Se muestra como bytes_ | +| **purefa.host.performance_iops**
(gauge) | (Legacy) IOPS de host FlashArray.
_Se muestra como operación_ | +| **purefa.host.performance_latency_usec**
(gauge) | Latencia del host FlashArray en microsegundos.
_Se muestra como microsegundos_ | +| **purefa.host.performance_throughput_iops**
(gauge) | Rendimiento del host FlashArray en IOPS.
_Se muestra como operación_ | +| **purefa.host.space_bytes**
(gauge) | Espacio del host FlashArray en bytes.
_Se muestra como bytes_ | +| **purefa.host.space_data_reduction_ratio**
(gauge) | Reducción de datos del espacio del host FlashArray.| +| **purefa.host.space_datareduction_ratio**
(gauge) | (Legacy) Ratio de reducción de datos de los volúmenes del host FlashArray.| +| **purefa.host.space_size_bytes**
(gauge) | Tamaño de los volúmenes del host FlashArray.
_Se muestra como bytes_ | +| **purefa.hw.component_status**
(gauge) | Estado del componente de hardware de FlashArray.| +| **purefa.hw.component_temperature_celsius**
(gauge) | Temperatura del componente de hardware de FlashArray en °C.
_Se muestra como grados celsius_ | +| **purefa.hw.component_voltage_volt**
(gauge) | Tensión del componente de hardware de FlashArray.
_Se muestra como voltios_ | +| **purefa.hw.controller_info**
(gauge) | Información del controlador FlashArray| +| **purefa.hw.controller_mode_since_timestamp_seconds**
(gauge) | Tiempo de actividad del controlador de hardware de FlashArray en segundos
_Se muestra como segundos_ | +| **purefa.info**
(gauge) | Información del sistema FlashArray.| +| **purefa.network.interface_performance_bandwidth_bytes**
(gauge) | Ancho de banda de la interfaz de red de FlashArray en bytes por segundo
_Se muestra como bytes_ | +| **purefa.network.interface_performance_errors**
(gauge) | Errores de la interfaz de red de FlashArray en errores por segundo
_Se muestra como error_ | +| **purefa.network.interface_performance_throughput_pkts**
(gauge) | Rendimiento de la interfaz de red de FlashArray en paquetes por segundo.
_Se muestra como paquete_ | +| **purefa.network.interface_speed_bandwidth_bytes**
(gauge) | Velocidad de la interfaz de red de FlashArray en bytes por segundo
_Se muestra como bytes_ | +| **purefa.network.port_info**
(gauge) | Información del puerto de red de FlashArray| +| **purefa.pod.mediator_status**
(gauge) | (Legacy) Estado del mediador de pods de FlashArray.| +| **purefa.pod.performance_average_bytes**
(gauge) | Tamaño medio de las operaciones de pods de FlashArray.
_Se muestra como bytes_ | +| **purefa.pod.performance_bandwidth_bytes**
(gauge) | Rendimiento de pods de FlashArray en bytes por segundo.
_Se muestra como bytes_ | +| **purefa.pod.performance_iops**
(gauge) | (Legacy) IOPS de pods de FlashArray.
_Se muestra como operación_ | +| **purefa.pod.performance_latency_usec**
(gauge) | Latencia de pods de FlashArray en microsegundos.
_Se muestra como microsegundos_ | +| **purefa.pod.performance_replication_bandwidth_bytes**
(gauge) | Ancho de banda de replicación de pods de FlashArray.
_Se muestra como bytes_ | +| **purefa.pod.performance_throughput_iops**
(gauge) | Rendimiento de pods de FlashArray en IOPS.
_Se muestra como operación_ | +| **purefa.pod.replica_links_lag_average_msec**
(gauge) | Retraso medio de enlaces de pods de FlashArray en milisegundos.
_Se muestra como segundos_ | +| **purefa.pod.replica_links_lag_average_sec**
(gauge) | Retraso medio de enlaces de pods de FlashArray en milisegundos.
_Se muestra como segundos_ | +| **purefa.pod.replica_links_lag_max_msec**
(gauge) | Retraso máximo de enlaces de pods de FlashArray en milisegundos.
_Se muestra como segundos_ | +| **purefa.pod.replica_links_lag_max_sec**
(gauge) | Retraso máximo de enlaces de pods de FlashArray en milisegundos.
_Se muestra como segundos_ | +| **purefa.pod.replica_links_performance_bandwidth_bytes**
(gauge) | Ancho de banda de enlaces de pods de FlashArray.
_Se muestra como bytes_ | +| **purefa.pod.space_bytes**
(gauge) | Espacio de pods de FlashArray en bytes.
_Se muestra como bytes_ | +| **purefa.pod.space_data_reduction_ratio**
(gauge) | Reducción de datos en el espacio de pods de FlashArray.| +| **purefa.pod.space_datareduction_ratio**
(gauge) | (Legacy) Ratio de reducción de datos de pods de FlashArray.| +| **purefa.pod.space_size_bytes**
(gauge) | (Legacy) Tamaño de pods de FlashArray.
_Se muestra como bytes_ | +| **purefa.pod.status**
(gauge) | (Legacy) Estado de pods de FlashArray.| +| **purefa.volume.performance_average_bytes**
(gauge) | Tamaño medio de las operaciones de volúmenes de FlashArray en bytes.
_Se muestra como bytes_ | +| **purefa.volume.performance_bandwidth_bytes**
(gauge) | Rendimiento de volúmenes de FlashArray en bytes por segundo.
_Se muestra como bytes_ | +| **purefa.volume.performance_iops**
(gauge) | (Legacy) IOPS de volúmenes de FlashArray.
_Se muestra como operación_ | +| **purefa.volume.performance_latency_usec**
(gauge) | Latencia de volúmenes de FlashArray en microsegundos.
_Se muestra como microsegundos_ | +| **purefa.volume.performance_throughput_bytes**
(gauge) | (Legacy) Rendimiento de volúmenes de FlashArray.
_Se muestra como bytes_ | +| **purefa.volume.performance_throughput_iops**
(gauge) | Rendimiento de volúmenes de FlashArray en IOPS.
_Se muestra como operación_ | +| **purefa.volume.space_bytes**
(gauge) | Espacio de volúmenes de FlashArray en bytes.
_Se muestra como bytes_ | +| **purefa.volume.space_data_reduction_ratio**
(gauge) | Reducción del espacio de datos de volúmenes de FlashArray.| +| **purefa.volume.space_datareduction_ratio**
(gauge) | (Legacy) Ratio de reducción de datos de volúmenes de FlashArray.| +| **purefa.volume.space_size_bytes**
(gauge) | (Legacy) Tamaño de volúmenes de FlashArray.
_Se muestra como bytes_ | ### Eventos @@ -219,25 +313,15 @@ La integración PureFA no incluye eventos. ### Checks de servicio -Para ver una lista de los checks de servicio proporcionados por esta integración, consulta [service_checks.json][13]. +**purefa.openmetrics.health** -## Agent +Devuelve `CRITICAL` si el Agent no puede conectarse al endpoint de OpenMetrics o `OK` en caso contrario. + +_Estados: ok, crítico_ + +## Soporte Para obtener asistencia o realizar solicitudes de funciones, ponte en contacto con Pure Storage utilizando los siguientes métodos: -* Correo electrónico: pure-observability@purestorage.com -* Slack: [Código Storage Code//Canal de observabilidad][14]. - -[1]: https://www.purestorage.com/products.html -[2]: https://app.datadoghq.com/account/settings/agent/latest -[3]: https://github.com/PureStorage-OpenConnect/pure-fa-openmetrics-exporter -[4]: https://docs.datadoghq.com/es/agent/guide/community-integrations-installation-with-docker-agent -[5]: https://github.com/DataDog/integrations-extras/blob/master/purefa/CHANGELOG.md -[6]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/purefa/images/API.png -[7]: https://github.com/datadog/integrations-extras/blob/master/purefa/datadog_checks/purefa/data/conf.yaml.example -[8]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent -[9]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information -[10]: https://github.com/PureStorage-OpenConnect/pure-exporter -[11]: https://github.com/datadog/integrations-extras/blob/master/purefa/datadog_checks/purefa/metrics.py -[12]: https://github.com/DataDog/integrations-extras/blob/master/purefa/metadata.csv -[13]: https://github.com/DataDog/integrations-extras/blob/master/purefa/assets/service_checks.json -[14]: https://code-purestorage.slack.com/messages/C0357KLR1EU \ No newline at end of file + +- Correo electrónico: pure-observability@purestorage.com +- Slack: [Código Pure Storage//Canal de observabilidad](https://code-purestorage.slack.com/messages/C0357KLR1EU). \ No newline at end of file diff --git a/content/es/integrations/python.md b/content/es/integrations/python.md new file mode 100644 index 0000000000000..94c952dc0ed3a --- /dev/null +++ b/content/es/integrations/python.md @@ -0,0 +1,67 @@ +--- +app_id: python +categories: +- languages +- log collection +- tracing +custom_kind: integración +description: Recopila métricas, trazas (traces) y logs de tus aplicaciones Python. +further_reading: +- link: https://www.datadoghq.com/blog/tracing-async-python-code/ + tag: blog + text: Rastreo de código Python asíncrono con Datadog APM +- link: https://www.datadoghq.com/blog/python-logging-best-practices/ + tag: blog + text: 'Formatos de generación de logs de Python: Cómo recopilar y centralizar logs + de Python' +media: [] +title: Python +--- +## Información general + +La integración Python te permite recopilar y monitorizar tus logs de aplicaciones, trazas y métricas personalizadas de Python. + +## Configuración + +### Recopilación de métricas + +Consulta la documentación exclusiva para [recopilar métricas personalizadas de Python con DogStatsD](https://docs.datadoghq.com/developers/dogstatsd/?tab=python). + +### Recopilación de trazas + +Consulta la documentación exclusiva para [instrumentar tu aplicación Python](https://docs.datadoghq.com/tracing/setup/python/) para enviar tus trazas a Datadog. + +### Recopilación de logs + +_Disponible para la versión 6.0 o posterior del Agent_ + +Consulta la documentación exclusiva sobre cómo [configurar la recopilación de logs Python](https://docs.datadoghq.com/logs/log_collection/python/) para reenviar tus logs a Datadog. + +### Recopilación de perfiles + +Consulta la documentación exclusiva para [habilitar el generador de perfiles Python](https://docs.datadoghq.com/profiler/enabling/python/). + +## Datos recopilados + +### Métricas + +| | | +| --- | --- | +| **runtime.python.cpu.time.sys**
(gauge) | Número de segundos de ejecución en el kernel
_Se muestra como segundos_ | +| **runtime.python.cpu.time.user**
(gauge) | Número de segundos de ejecución fuera del núcleo
_Se muestra como segundos_ | +| **runtime.python.cpu.percent**
(gauge) | Porcentaje de uso de CPU
_Se muestra como porcentaje_ | +| **runtime.python.cpu.ctx_switch.voluntary**
(gauge) | Número de cambios de contexto voluntarios
_Se muestra como invocación_ | +| **runtime.python.cpu.ctx_switch.involuntary**
(gauge) | Número de cambios de contexto involuntarios
_Se muestra como invocación_ | +| **runtime.python.gc.count.gen0**
(gauge) | Número de objetos de generación 0
_Se muestra como recurso_ | +| **runtime.python.gc.count.gen1**
(gauge) | Número de objetos de generación 1
_Se muestra como recurso_ | +| **runtime.python.gc.count.gen2**
(gauge) | Número de objetos de generación 2
_Se muestra como recurso_ | +| **runtime.python.mem.rss**
(gauge) | Memoria de conjunto residente
_Se muestra como bytes_ | +| **runtime.python.thread_count**
(gauge) | Número de subprocesos
_Se muestra como subproceso_ | + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/integrations/rabbitmq.md b/content/es/integrations/rabbitmq.md new file mode 100644 index 0000000000000..6f6e86236cabb --- /dev/null +++ b/content/es/integrations/rabbitmq.md @@ -0,0 +1,538 @@ +--- +app_id: rabbitmq +categories: +- log collection +- message queues +custom_kind: integración +description: Seguimiento del tamaño de las colas, del recuento de consumidores, de + mensajes no reconocidos, etc. +further_reading: +- link: https://www.datadoghq.com/blog/rabbitmq-monitoring + tag: blog + text: Métricas clave para la monitorización de RabbitMQ +- link: https://www.datadoghq.com/blog/rabbitmq-monitoring-tools + tag: blog + text: Recopilación de métricas utilizando las herramientas de monitorización de + RabbitMQ +- link: https://www.datadoghq.com/blog/monitoring-rabbitmq-performance-with-datadog + tag: blog + text: Monitorización de RabbitMQ con Datadog +integration_version: 8.0.0 +media: [] +supported_os: +- linux +- windows +- macos +title: RabbitMQ +--- +![RabbitMQ Dashboard](https://raw.githubusercontent.com/DataDog/integrations-core/master/rabbitmq/images/rabbitmq_dashboard.png) + +## Información general + +Este check monitoriza [RabbitMQ](https://www.rabbitmq.com) a través del Datadog Agent. Te permite: + +- Realizar un seguimiento de estadísticas basadas en colas: tamaño de la cola, recuento de consumidores, mensajes no reconocidos, mensajes reenviados, etc. +- Realizar un de estadísticas basadas en nodos: procesos en espera, sockets utilizados, descriptores de archivos utilizados, etc. +- Monitoriza vhosts para comprobar la disponibilidad y el número de conexiones. + +Considerar [Data Streams Monitoring](https://docs.datadoghq.com/data_streams/) para mejorar tu integración con RabbitMQ. Esta solución permite la visualización de pipelines y el seguimiento de retrasos, ayudándote a identificar y resolver cuellos de botella. + +## Configuración + +### Instalación + +El check de RabbitMQ se incluye en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest). No es necesaria ninguna instalación adicional en tu servidor. + +### Configuración + +RabbitMQ expone métricas de dos formas: el [complemento de gestión de RabbitMQ](https://www.rabbitmq.com/management.html) y el [complemento RabbitMQ Prometheus](https://www.rabbitmq.com/prometheus.html). La integración de Datadog admite ambas versiones. Sigue las instrucciones de configuración de este archivo correspondientes a la versión que quieres utilizar. La integración Datadog también viene con un dashboard y monitores predefinidos para cada versión, como se indica en los títulos Dashboard y Monitor. + +#### Preparación de RabbitMQ + +##### [Complemento RabbitMQ Prometheus](https://www.rabbitmq.com/prometheus.html). + +*A partir de la versión 3.8 de RabbitMQ, el [complemento RabbitMQ Prometheus](https://www.rabbitmq.com/prometheus.html) está activado por defecto.* + +*La versión del complemento Prometheus de RabbitMQ requiere el soporte de Python 3 del Datadog Agent, por lo que sólo es compatible con el Agent v6 o posterior. Asegúrate de que tu Agent está actualizado, antes de configurar la versión del complemento Prometheus de la integración.* + +Configura la sección `prometheus_plugin` en la configuración de tu instancia. Cuando se utiliza la opción `prometheus_plugin`, se ignoran los parámetros relacionados con el complemento de gestión. + +```yaml +instances: + - prometheus_plugin: + url: http://:15692 +``` + +Esto permite el scraping del [endpoint `/metrics`](https://www.rabbitmq.com/prometheus.html#default-endpoint) en un nodo RabbitMQ. Datadog también puede recopilar datos del [endpoint `/metrics/detailed`](https://www.rabbitmq.com/prometheus.html#detailed-endpoint). Las métricas recopiladas dependen de las familias que se incluyen. + +```yaml + instances: + - prometheus_plugin: + url: http://:15692 + unaggregated_endpoint: detailed?family=queue_coarse_metrics&family=queue_consumer_count&family=channel_exchange_metrics&family=channel_queue_exchange_metrics&family=node_coarse_metrics +``` + +Esta configuración recopila métricas de cada cola, intercambio y nodo. Para obtener más información sobre las métricas proporcionadas por cada familia, consulta la [documentación de la API `/metrics/detailed`](https://www.rabbitmq.com/prometheus.html#detailed-endpoint). + +##### [Complemento de gestión de RabbitMQ](https://www.rabbitmq.com/management.html). + +Habilita el complemento. El usuario del Agent necesita al menos la etiqueta (tag) `monitoring` y los siguientes permisos obligatorios: + +| Permiso | Comando | +| ---------- | ------------------ | +| **conf** | `^aliveness-test$` | +| **write** | `^amq\.default$` | +| **read** | `.*` | + +Crea un usuario del Agent para tu vhost predeterminado con los siguientes comandos: + +```text +rabbitmqctl add_user datadog +rabbitmqctl set_permissions -p / datadog "^aliveness-test$" "^amq\.default$" ".*" +rabbitmqctl set_user_tags datadog monitoring +``` + +Aquí, `/` se refiere al host por defecto. Defínelo para tu nombre de host virtual especificado. Consulta la [documentación de RabbitMQ](https://www.rabbitmq.com/rabbitmqctl.8.html#set_permissions) para obtener más información. + +{{< tabs >}} + +{{% tab "Host" %}} + +#### host + +Para configurar este check para un Agent que se ejecuta en un host: + +##### Recopilación de métricas + +1. Edita el archivo `rabbitmq.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory) para comenzar a recopilar tus métricas de RabbitMQ. Consulta el [ejemplo de rabbitmq.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/rabbitmq/datadog_checks/rabbitmq/data/conf.yaml.example) para ver todas las opciones de configuración disponibles. + + **Nota**: El Agent comprueba todas las colas, vhosts y nodos por defecto, pero puedes proporcionar listas o expresiones regulares para limitar esto. Para ver ejemplos, consulta [rabbitmq.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/rabbitmq/datadog_checks/rabbitmq/data/conf.yaml.example). + +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). + +##### Recopilación de logs + +_Disponible para las versiones 6.0 o posteriores del Agent_ + +1. Para modificar la ubicación predeterminada del archivo de log, define la variable de entorno `RABBITMQ_LOGS` o añade lo siguiente a tu archivo de configuración de RabbitMQ (`/etc/rabbitmq/rabbitmq.conf`): + + ```conf + log.dir = /var/log/rabbit + log.file = rabbit.log + ``` + +1. La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent, actívala en tu archivo `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` + +1. Edita la sección `logs` de tu archivo `rabbitmq.d/conf.yaml` para empezar a recopilar tus logs de RabbitMQ: + + ```yaml + logs: + - type: file + path: /var/log/rabbit/*.log + source: rabbitmq + service: myservice + log_processing_rules: + - type: multi_line + name: logs_starts_with_equal_sign + pattern: "=" + ``` + +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). + +{{% /tab %}} + +{{% tab "Containerized" %}} + +#### En contenedores + +Puedes aprovechar la [detección automática de contenedores de Docker](https://docs.datadoghq.com/containers/docker/integrations/?tab=dockeradv2), de Datadog. Para ver parámetros específicos de RabbitMQ, consulta el ejemplo de configuración `auto_conf.yaml`. + +Para entornos en contenedores, como Kubernetes, consulta las [plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/kubernetes/integrations/) para obtener orientación sobre la aplicación de los parámetros que se indican a continuación. + +##### Recopilación de métricas + +| Parámetro | Valor | +| -------------------- | -------------------------------------------- | +| `` | `rabbitmq` | +| `` | en blanco o `{}` | +| `` | `{"prometheus_plugin": {"url": "http://%%host%%:15692"}}` | + +##### Recopilación de logs + +Disponible para la versión 6.0 o posteriores del Agent + +La recopilación de logs está desactivada de forma predeterminada en el Datadog Agent. Para activarla, consulta [Recopilación de logs de Kubernetes](https://docs.datadoghq.com/agent/kubernetes/log/). + +| Parámetro | Valor | +| -------------- | --------------------------------------------------------------------------------------------------------------------------------------------------- | +| `` | `{"source": "rabbitmq", "service": "rabbitmq", "log_processing_rules": [{"type":"multi_line","name":"logs_starts_with_equal_sign", "pattern": "="}]}` | + +{{% /tab %}} + +{{< /tabs >}} + +### Validación + +[Ejecuta el subcomando de estado del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `rabbitmq` en la sección Checks. + +## Datos recopilados + +### Métricas + +| | | +| --- | --- | +| **rabbitmq.alarms.file_descriptor_limit**
(gauge) | \[OpenMetrics\] es 1 si la alarma de límite del descriptor de archivo está activa| +| **rabbitmq.alarms.free_disk_space.watermark**
(gauge) | \[OpenMetrics\] es 1 si la alarma de marca de agua del espacio libre en disco está activa| +| **rabbitmq.alarms.memory_used_watermark**
(gauge) | \[OpenMetrics\] es 1 si la alarma de marca de agua de memoria de la máquina virtual está vigente| +| **rabbitmq.auth_attempts.count**
(count) | \[OpenMetrics\] Número total de intentos de autenticación| +| **rabbitmq.auth_attempts.failed.count**
(count) | \[OpenMetrics\] Número total de intentos de autenticación fallidos| +| **rabbitmq.auth_attempts.succeeded.count**
(count) | \[OpenMetrics\] Número total de intentos de autenticación exitosos| +| **rabbitmq.build_info**
(gauge) | \[OpenMetrics\] Información de la versión RabbitMQ & Erlang/OTP| +| **rabbitmq.channel.acks_uncommitted**
(gauge) | \[OpenMetrics\] Reconocimientos de mensajes en una transacción aún no confirmada| +| **rabbitmq.channel.consumers**
(gauge) | \[OpenMetrics\] Consumidores en un canal| +| **rabbitmq.channel.get.ack.count**
(count) | \[OpenMetrics\] Número total de mensajes obtenidos con basic.get en modo de reconocimiento manual| +| **rabbitmq.channel.get.count**
(count) | \[OpenMetrics\] Número total de mensajes obtenidos con basic.get en modo de reconocimiento automático
_Se muestra como mensaje_ | +| **rabbitmq.channel.get.empty.count**
(count) | \[OpenMetrics\] Número total de veces que las operaciones basic.get no obtuvieron ningún mensaje.| +| **rabbitmq.channel.messages.acked.count**
(count) | \[OpenMetrics\] Número total de mensajes reconocidos por los consumidores
_Se muestra como mensaje_ | +| **rabbitmq.channel.messages.confirmed.count**
(count) | \[OpenMetrics\] Número total de mensajes publicados en un intercambio y confirmados en el canal
_Se muestra como mensaje_ | +| **rabbitmq.channel.messages.delivered.ack.count**
(count) | \[OpenMetrics\] Número total de mensajes entregados a los consumidores en modo de reconocimiento manual
_Se muestra como mensaje_ | +| **rabbitmq.channel.messages.delivered.count**
(count) | \[OpenMetrics\] Número total de mensajes entregados a los consumidores en modo de reconocimiento automático
_Se muestra como mensaje_ | +| **rabbitmq.channel.messages.published.count**
(count) | \[OpenMetrics\] Número total de mensajes publicados en un intercambio en un canal
_Se muestra como mensaje_ | +| **rabbitmq.channel.messages.redelivered.count**
(count) | \[OpenMetrics\] Número total de mensajes reenviados a los consumidores
_Se muestra como mensaje_ | +| **rabbitmq.channel.messages.unacked**
(gauge) | \[OpenMetrics\] Mensajes entregados pero aún no reconocidos
_Se muestra como mensaje_ | +| **rabbitmq.channel.messages.uncommitted**
(gauge) | \[OpenMetrics\] Mensajes recibidos en una transacción pero aún no confirmados
_Se muestra como mensaje_ | +| **rabbitmq.channel.messages.unconfirmed**
(gauge) | \[OpenMetrics\] Mensajes publicados pero aún no confirmados
_Se muestra como mensaje_ | +| **rabbitmq.channel.messages.unroutable.dropped.count**
(count) | \[OpenMetrics\] Número total de mensajes publicados como no obligatorios en un intercambio y descartados como no enrutables
_Se muestra como mensaje_ | +| **rabbitmq.channel.messages.unroutable.returned.count**
(count) | \[OpenMetrics\] Número total de mensajes publicados como obligatorios en un intercambio y devueltos al publicador como no enrutables
_Se muestra como mensaje_ | +| **rabbitmq.channel.prefetch**
(gauge) | \[OpenMetrics\] Límite total de mensajes no reconocidos para todos los consumidores en un canal
_Se muestra como mensaje_ | +| **rabbitmq.channel.process_reductions.count**
(count) | \[OpenMetrics\] Número total de reducciones de procesos de canal| +| **rabbitmq.channels**
(gauge) | \[OpenMetrics\] Canales actualmente abiertos| +| **rabbitmq.channels.closed.count**
(count) | \[OpenMetrics\] Número total de canales cerrados| +| **rabbitmq.channels.opened.count**
(count) | \[OpenMetrics\] Número total de canales abiertos| +| **rabbitmq.cluster.exchange_bindings**
(gauge) | \[OpenMetrics\] Número de enlaces de un intercambio. Este valor es válido para todo el clúster.| +| **rabbitmq.cluster.exchange_name**
(gauge) | \[OpenMetrics\] Enumera los intercambios sin información adicional. Este valor es válido para todo el clúster. Una alternativa más económica a `exchange_bindings`| +| **rabbitmq.cluster.vhost_status**
(gauge) | \[OpenMetrics\] Si se está ejecutando un vhost determinado| +| **rabbitmq.connection.channels**
(gauge) | \[OpenMetrics\] Canales en un conexión| +| **rabbitmq.connection.incoming_bytes.count**
(count) | \[OpenMetrics\] Número total de bytes recibidos en un conexión
_Se muestra como byte_ | +| **rabbitmq.connection.incoming_packets.count**
(count) | \[OpenMetrics\] Número total de paquetes recibidos en un conexión
_Se muestra como paquete_ | +| **rabbitmq.connection.outgoing_bytes.count**
(count) | \[OpenMetrics\] Número total de bytes enviados en una conexión
_Se muestra como bytes_ | +| **rabbitmq.connection.outgoing_packets.count**
(count) | \[OpenMetrics\] Número total de paquetes enviados en una conexión
_Se muestra como paquete_ | +| **rabbitmq.connection.pending_packets**
(gauge) | \[OpenMetrics\] Número de paquetes a la espera de ser enviados en una conexión
_Se muestra como paquete_ | +| **rabbitmq.connection.process_reductions.count**
(count) | \[OpenMetrics\] Número total de reducciones de procesos de conexión| +| **rabbitmq.connections**
(gauge) | \[OpenMetrics, CLI de gestión\] Número de conexiones actuales a un vhost rabbitmq dado, etiquetado 'rabbitmq_vhost:\' Conexiones actualmente abiertas
_Se muestra como conexión_ | +| **rabbitmq.connections.closed.count**
(count) | \[OpenMetrics\] Número total de conexiones cerradas o terminadas| +| **rabbitmq.connections.opened.count**
(count) | \[OpenMetrics\] Número total de conexiones abiertas| +| **rabbitmq.connections.state**
(gauge) | Número de conexiones en el estado de conexión especificado
_Se muestra como conexión_ | +| **rabbitmq.consumer_prefetch**
(gauge) | \[OpenMetrics\] Límite de mensajes no reconocidos para cada consumidor.| +| **rabbitmq.consumers**
(gauge) | \[OpenMetrics\] Consumidores actualmente conectados| +| **rabbitmq.disk_space.available_bytes**
(gauge) | \[OpenMetrics\] Espacio en disco disponible en bytes
_Se muestra como bytes_ | +| **rabbitmq.disk_space.available_limit_bytes**
(gauge) | \[OpenMetrics\] Marca de agua baja del espacio libre en disco en bytes
_Se muestra como bytes_ | +| **rabbitmq.erlang.gc.reclaimed_bytes.count**
(count) | \[OpenMetrics\] Número total de bytes de memoria recuperados por el recolector de basura Erlang
_Se muestra como bytes_ | +| **rabbitmq.erlang.gc.runs.count**
(count) | \[OpenMetrics\] Número total de ejecuciones del recolector de basura Erlang| +| **rabbitmq.erlang.mnesia.committed_transactions.count**
(count) | \[OpenMetrics\] Número de transacciones confirmadas.
_Se muestra como transacción_ | +| **rabbitmq.erlang.mnesia.failed_transactions.count**
(count) | \[OpenMetrics\] Número de transacciones fallidas (es decir, abortadas).
_Se muestra como transacción_ | +| **rabbitmq.erlang.mnesia.held_locks**
(gauge) | \[OpenMetrics\] Número de bloqueos mantenidos.| +| **rabbitmq.erlang.mnesia.lock_queue**
(gauge) | \[OpenMetrics\] Número de transacciones a la espera de un bloqueo.
_Se muestra como transacción_ | +| **rabbitmq.erlang.mnesia.logged_transactions.count**
(count) | \[OpenMetrics\] Número de transacciones registradas.
_Se muestra como transacción_ | +| **rabbitmq.erlang.mnesia.memory_usage_bytes**
(gauge) | \[OpenMetrics\] Número total de bytes asignados por todas las tablas de mnesia
_Se muestra como bytes_ | +| **rabbitmq.erlang.mnesia.restarted_transactions.count**
(count) | \[OpenMetrics\] Número total de reinicios de transacciones.
_Se muestra como transacción_ | +| **rabbitmq.erlang.mnesia.tablewise_memory_usage_bytes**
(gauge) | \[OpenMetrics\] Número de bytes asignados por la tabla de mnesia
_Se muestra como byte_ | +| **rabbitmq.erlang.mnesia.tablewise_size**
(gauge) | \[OpenMetrics\] Número de filas presentes por tabla| +| **rabbitmq.erlang.mnesia.transaction_coordinators**
(gauge) | \[OpenMetrics\] Número de transacciones de coordinadores.
_Se muestra como transacción_ | +| **rabbitmq.erlang.mnesia.transaction_participants**
(gauge) | \[OpenMetrics\] Número de transacciones de participantes.
_Se muestra como transacción_ | +| **rabbitmq.erlang.net.ticktime_seconds**
(gauge) | \[OpenMetrics\] Intervalo de latidos entre nodos
_Se muestra como segundos_ | +| **rabbitmq.erlang.processes_limit**
(gauge) | \[OpenMetrics\] Límite de procesos Erlang
_Se muestra como proceso_ | +| **rabbitmq.erlang.processes_used**
(gauge) | \[OpenMetrics\] Procesos Erlang utilizados
_Se muestra como proceso_ | +| **rabbitmq.erlang.scheduler.context_switches.count**
(count) | \[OpenMetrics\] Número total de cambios de contexto del programador Erlang| +| **rabbitmq.erlang.scheduler.run_queue**
(gauge) | \[OpenMetrics\] Cola de ejecución del programador Erlang| +| **rabbitmq.erlang.uptime_seconds**
(gauge) | \[OpenMetrics\] Tiempo de actividad del nodo
_Se muestra como segundos_ | +| **rabbitmq.erlang.vm.allocators**
(gauge) | \[OpenMetrics\] Memoria asignada (carriers_size) y utilizada (blocks_size) para los diferentes asignadores en la máquina virtual. Consulta erts_alloc(3).| +| **rabbitmq.erlang.vm.atom_count**
(gauge) | \[OpenMetrics\] Número de átomos existentes actualmente en el nodo local.| +| **rabbitmq.erlang.vm.atom_limit**
(gauge) | \[OpenMetrics\] Número máximo de átomos existentes simultáneamente en el nodo local.| +| **rabbitmq.erlang.vm.dirty_cpu_schedulers**
(gauge) | \[OpenMetrics\] Número de subprocesos sucios del programador de CPU utilizados por el emulador.
_Se muestra como subproceso_ | +| **rabbitmq.erlang.vm.dirty_cpu_schedulers_online**
(gauge) | \[OpenMetrics\] Número de subprocesos sucios del programador de CPU en línea.
_Se muestra como subproceso_ | +| **rabbitmq.erlang.vm.dirty_io_schedulers**
(gauge) | \[OpenMetrics\] Número de subprocesos sucios del programador de E/S utilizados por el emulador.
_Se muestra como subproceso_ | +| **rabbitmq.erlang.vm.dist.node_queue_size_bytes**
(gauge) | \[OpenMetrics\] Número de bytes en la cola de distribución de salida. Esta cola se sitúa entre el código Erlang y el controlador del puerto.
_Se muestra como bytes_ | +| **rabbitmq.erlang.vm.dist.node_state**
(gauge) | \[OpenMetrics\] Estado actual del enlace de distribución. El estado se representa como un valor numérico donde `pending=1', `up_pending=2' y `up=3'.| | **rabbitmq.erlang.vm.dist.port_input_bytes**
(gauge) | [OpenMetrics] Número total de bytes leídos desde el puerto.
_Se muestra como bytes_ | | **rabbitmq.erlang.vm.dist.port_memory_bytes**
(gauge) | [OpenMetrics] Número total de bytes asignados a este puerto por el sistema en tiempo de ejecución. El propio puerto puede tener memoria asignada que no está incluida.
_Se muestra como byte_ | | **rabbitmq.erlang.vm.dist.port_output_bytes**
(gauge) | [OpenMetrics] Número total de bytes escritos en el puerto.
_Se muestra como bytes_ | | **rabbitmq.erlang.vm.dist.port_queue.size_bytes**
(gauge) | [OpenMetrics] Número total de bytes puestos en cola por el puerto utilizando la implementación de colas del controlador ERTS.
_Se muestra como bytes_ | | **rabbitmq.erlang.vm.dist.proc.heap_size_words**
(gauge) | [OpenMetrics] Tamaño en palabras de la generación heap más joven del proceso. Esta generación incluye el stack tecnplógico del proceso. Esta información es altamente dependiente de la implementación y puede cambiar si la implementación cambia.| | **rabbitmq.erlang.vm.dist.proc.memory_bytes**
(gauge) | [OpenMetrics] Tamaño en bytes del proceso. Esto incluye el stack tecnológico de llamadas, heap y las estructuras internas.
_Se muestra como bytes_ | | **rabbitmq.erlang.vm.dist.proc.message_queue_len**
(gauge) | [OpenMetrics] Número de mensajes actualmente en la cola de mensajes del proceso.
_Se muestra como mensaje_ | | **rabbitmq.erlang.vm.dist.proc.min_bin_vheap_size_words**
(gauge) | [OpenMetrics] Tamaño mínimo de heap virtual binario para el proceso.| | **rabbitmq.erlang.vm.dist.proc.min_heap_size_words**
(gauge) | [OpenMetrics] Tamaño mínimo de heap para el proceso.| | **rabbitmq.erlang.vm.dist.proc.reductions**
(gauge) | [OpenMetrics] Número de reducciones ejecutadas por el proceso.| | **rabbitmq.erlang.vm.dist.proc.stack_size_words**
(gauge) | [OpenMetrics] Tamaño del stack tecnológico del proceso, en palabras.| | **rabbitmq.erlang.vm.dist.proc.status**
(gauge) | [OpenMetrics] Estado actual del proceso de distribución. El estado se representa como un valor numérico donde `exiting=1', `suspended=2', `runnable=3', `garbage_collecting=4', `running=5' and \`waiting=6'.| +| **rabbitmq.erlang.vm.dist.proc.total_heap_size_words**
(gauge) | \[OpenMetrics\] Tamaño total, en palabras, de todos los fragmentos de heap del proceso. Esto incluye el stack tecnológico del proceso y cualquier mensaje no recibido que se considere parte del heap.| +| **rabbitmq.erlang.vm.dist.recv.avg_bytes**
(gauge) | \[OpenMetrics\] Tamaño medio de los paquetes, en bytes, recibidos por el socket.
_Se muestra como bytes_ | +| **rabbitmq.erlang.vm.dist.recv.cnt**
(gauge) | \[OpenMetrics\] Número de paquetes recibidos por el socket.| +| **rabbitmq.erlang.vm.dist.recv.dvi_bytes**
(gauge) | \[OpenMetrics\] Desviación media del tamaño del paquete, en bytes, recibido por el socket.
_Se muestra como bytes_ | +| **rabbitmq.erlang.vm.dist.recv.max_bytes**
(gauge) | \[OpenMetrics\] Tamaño del paquete más grande, en bytes, recibido por el socket.
_Se muestra como bytes_ | +| **rabbitmq.erlang.vm.dist.recv_bytes**
(gauge) | \[OpenMetrics\] Número de bytes recibidos por el socket.
_Se muestra como bytes_ | +| **rabbitmq.erlang.vm.dist.send.avg_bytes**
(gauge) | \[OpenMetrics\] Tamaño medio de los paquetes, en bytes, enviados desde el socket.
_Se muestra como bytes_ | +| **rabbitmq.erlang.vm.dist.send.cnt**
(gauge) | \[OpenMetrics\] Número de paquetes enviados desde el socket.| +| **rabbitmq.erlang.vm.dist.send.max_bytes**
(gauge) | \[OpenMetrics\] Tamaño del paquete más grande, en bytes, enviado desde el socket.
_Se muestra como bytes_ | +| **rabbitmq.erlang.vm.dist.send.pend_bytes**
(gauge) | \[OpenMetrics\] Número de bytes a la espera de ser enviados por el socket.
_Se muestra como bytes_ | +| **rabbitmq.erlang.vm.dist.send_bytes**
(gauge) | \[OpenMetrics\] Número de bytes enviados desde el socket.
_Se muestra como bytes_ | +| **rabbitmq.erlang.vm.ets_limit**
(gauge) | \[OpenMetrics\] Número máximo de tablas ETS permitidas.| +| **rabbitmq.erlang.vm.logical_processors**
(gauge) | \[OpenMetrics\] Número detectado de procesadores lógicos configurados en el sistema.| +| **rabbitmq.erlang.vm.logical_processors.available**
(gauge) | \[OpenMetrics\] Número detectado de procesadores lógicos disponibles para el sistema de tiempo de ejecución Erlang.| +| **rabbitmq.erlang.vm.logical_processors.online**
(gauge) | \[OpenMetrics\] Número detectado de procesadores lógicos en línea en el sistema.| +| **rabbitmq.erlang.vm.memory.atom_bytes_total**
(gauge) | \[OpenMetrics\] Cantidad total de memoria actualmente asignada para los átomos. Esta memoria es parte de la memoria presentada como memoria del sistema.
_Se muestra como bytes_ | +| **rabbitmq.erlang.vm.memory.bytes_total**
(gauge) | \[OpenMetrics\] Cantidad total de memoria asignada actualmente. Es igual a la suma del tamaño de memoria de los procesos y del sistema.
_Se muestra como bytes_ | +| **rabbitmq.erlang.vm.memory.dets_tables**
(gauge) | \[OpenMetrics\] Recuento de tablas DETS de máquinas virtuales Erlang.| +| **rabbitmq.erlang.vm.memory.ets_tables**
(gauge) | \[OpenMetrics\] Recuento de tablas ETS de máquinas virtuales Erlang.| +| **rabbitmq.erlang.vm.memory.processes_bytes_total**
(gauge) | \[OpenMetrics\] Cantidad total de memoria actualmente asignada para los procesos Erlang.
_Se muestra como bytes_ | +| **rabbitmq.erlang.vm.memory.system_bytes_total**
(gauge) | \[OpenMetrics\] Cantidad total de memoria actualmente asignada para el emulador que no está directamente relacionada con un proceso Erlang. La memoria presentada como procesos no está incluida en esta memoria.
_Se muestra como bytes_ | +| **rabbitmq.erlang.vm.msacc.alloc_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a gestionar la memoria. Sin estados adicionales, este tiempo se reparte entre todos los demás estados.
_Se muestra como segundos_ | +| **rabbitmq.erlang.vm.msacc.aux_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a gestionar trabajos auxiliares.
_Se muestra como segundos_ | +| **rabbitmq.erlang.vm.msacc.bif_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a BIF. Sin estados adicionales, este tiempo forma parte del estado 'emulador'.
_Se muestra como segundos_ | +| **rabbitmq.erlang.vm.msacc.busy_wait_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos de espera ocupada. Sin estados adicionales, este tiempo forma parte del estado 'otros'.
_Se muestra como segundos_ | +| **rabbitmq.erlang.vm.msacc.check_io_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a comprobar si hay nuevos eventos de E/S.
_Se muestra como segundos_ | +| **rabbitmq.erlang.vm.msacc.emulator_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a ejecutar procesos Erlang.
_Se muestra como segundos_ | +| **rabbitmq.erlang.vm.msacc.ets_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a ejecutar BIF ETS. Sin estados adicionales, este tiempo forma parte del estado 'emulador'.
_Se muestra como segundos_ | +| **rabbitmq.erlang.vm.msacc.gc_full_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a la recolección de basura fullsweep. Sin estados adicionales, este tiempo es parte del estado 'recolección de basura'.
_Se muestra como segundos_ | +| **rabbitmq.erlang.vm.msacc.gc_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a la recolección de basura. Cuando los estados adicionales están activados, este es el tiempo dedicado a recolectar basura non-fullsweep.
_Se muestra como segundos_ | +| **rabbitmq.erlang.vm.msacc.nif_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a NIF. Sin estados adicionales, este tiempo forma parte del estado 'emulador'.
_Se muestra como segundos_ | +| **rabbitmq.erlang.vm.msacc.other_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a hacer cosas no explicadas.
_Se muestra como segundos_ | +| **rabbitmq.erlang.vm.msacc.port_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a ejecutar puertos.
_Se muestra como segundos_ | +| **rabbitmq.erlang.vm.msacc.send_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a enviar mensajes (solo procesos). Sin estados adicionales, este tiempo forma parte del estado 'emulador'.
_Se muestra como segundos_ | +| **rabbitmq.erlang.vm.msacc.sleep_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos que pasó durmiendo.
_Se muestra como segundos_ | +| **rabbitmq.erlang.vm.msacc.timers_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a gestionar temporizadores. Sin estados adicionales, este tiempo forma parte del estado 'otros'.
_Se muestra como segundos_ | +| **rabbitmq.erlang.vm.port_count**
(gauge) | \[OpenMetrics\] Número de puertos existentes actualmente en el nodo local.| +| **rabbitmq.erlang.vm.port_limit**
(gauge) | \[OpenMetrics\] Número máximo de puertos existentes simultáneamente en el nodo local.| +| **rabbitmq.erlang.vm.process_count**
(gauge) | \[OpenMetrics\] Número de procesos existentes actualmente en el nodo local.
_Se muestra como proceso_ | +| **rabbitmq.erlang.vm.process_limit**
(gauge) | \[OpenMetrics\] Número máximo de procesos existentes simultáneamente en el nodo local.
_Se muestra como proceso_ | +| **rabbitmq.erlang.vm.schedulers**
(gauge) | \[OpenMetrics\] Número de procesos del programador utilizados por el emulador.| +| **rabbitmq.erlang.vm.schedulers_online**
(gauge) | \[OpenMetrics\] Número de programadores en línea.| +| **rabbitmq.erlang.vm.smp_support**
(gauge) | \[OpenMetrics\] 1 si el emulador ha sido compilado con soporte SMP, en caso contrario 0.| +| **rabbitmq.erlang.vm.statistics.bytes_output.count**
(count) | \[OpenMetrics\] Número total de bytes emitidos a los puertos.
_Se muestra como bytes_ | +| **rabbitmq.erlang.vm.statistics.bytes_received.count**
(count) | \[OpenMetrics\] Número total de bytes recibidos a través de los puertos.
_Se muestra como bytes_ | +| **rabbitmq.erlang.vm.statistics.context_switches.count**
(count) | \[OpenMetrics\] Número total de cambios de contexto desde que se inició el sistema.| +| **rabbitmq.erlang.vm.statistics.dirty_cpu_run_queue_length**
(gauge) | \[OpenMetrics\] Longitud de la cola de ejecución de CPU sucia.| +| **rabbitmq.erlang.vm.statistics.dirty_io_run_queue_length**
(gauge) | \[OpenMetrics\] Longitud de la cola de ejecución de E/S sucia.| +| **rabbitmq.erlang.vm.statistics.garbage_collection.bytes_reclaimed.count**
(count) | \[OpenMetrics\] Recolección de basura: bytes recuperados.
_Se muestra como bytes_ | +| **rabbitmq.erlang.vm.statistics.garbage_collection.number_of_gcs.count**
(count) | \[OpenMetrics\] Recolección de basura: número de recolecciones de basura.| +| **rabbitmq.erlang.vm.statistics.garbage_collection.words_reclaimed.count**
(count) | \[OpenMetrics\] Recolección de basura: palabras recuperadas.| +| **rabbitmq.erlang.vm.statistics.reductions.count**
(count) | \[OpenMetrics\] Reducciones totales.| +| **rabbitmq.erlang.vm.statistics.run_queues_length**
(gauge) | \[OpenMetrics\] Longitud de las colas de ejecución normales.| +| **rabbitmq.erlang.vm.statistics.runtime_milliseconds.count**
(count) | \[OpenMetrics\] Suma del tiempo de ejecución de todos los subprocesos en el sistema de tiempo de ejecución Erlang. Puede ser mayor que el tiempo del reloj de pared.
_Se muestra como milisegundos_ | +| **rabbitmq.erlang.vm.statistics.wallclock_time_milliseconds.count**
(count) | \[OpenMetrics\] Información sobre el reloj de pared. Igual que erlang_vm_statistics_runtime_milliseconds excepto que se mide el tiempo real.
_Se muestra como milisegundos_ | +| **rabbitmq.erlang.vm.thread_pool_size**
(gauge) | \[OpenMetrics\] Número de subprocesos asíncronos en el grupo de subprocesos asíncronos utilizados en llamadas asíncronas al controlador.| +| **rabbitmq.erlang.vm.threads**
(gauge) | \[OpenMetrics\] 1 si el emulador ha sido compilado con soporte para subprocesos, 0 en caso contrario.| +| **rabbitmq.erlang.vm.time_correction**
(gauge) | \[OpenMetrics\] 1 si la corrección de tiempo está activada, 0 en caso contrario.| +| **rabbitmq.erlang.vm.wordsize_bytes**
(gauge) | \[OpenMetrics\] Tamaño de las palabras de términos Erlang en bytes.
_Se muestra como bytes_ | +| **rabbitmq.exchange.messages.ack.count**
(gauge) | Número de mensajes en intercambios entregados a clientes y reconocidos
_Se muestra como mensaje_ | +| **rabbitmq.exchange.messages.ack.rate**
(gauge) | Tasa de mensajes en intercambios entregados a clientes y reconocidos por segundo
_Se muestra como mensaje_ | +| **rabbitmq.exchange.messages.confirm.count**
(gauge) | Recuento de mensajes en intercambios confirmados
_Se muestra como mensaje_ | +| **rabbitmq.exchange.messages.confirm.rate**
(gauge) | Tasa de mensajes en intercambios confirmados por segundo
_Se muestra como mensaje_ | +| **rabbitmq.exchange.messages.deliver_get.count**
(gauge) | Suma de mensajes en intercambios entregados en modo de reconocimiento a los consumidores, en modo sin reconocimiento a los consumidores, en modo de reconocimiento en respuesta a basic.get y en modo sin reconocimiento en respuesta a basic.get
_Se muestra como mensaje_ | +| **rabbitmq.exchange.messages.deliver_get.rate**
(gauge) | Tasa por segundo de la suma de mensajes en intercambios entregados en modo de reconocimiento a los consumidores, en modo sin reconocimiento a los consumidores, en modo de reconocimiento en respuesta a basic.get y en modo sin reconocimiento en respuesta a basic.get
_Se muestra como mensaje_ | +| **rabbitmq.exchange.messages.publish.count**
(gauge) | Recuento de mensajes en intercambios publicados
_Se muestra como mensaje_ | +| **rabbitmq.exchange.messages.publish.rate**
(gauge) | Tasa de mensajes en intercambios publicados por segundo
_Se muestra como mensaje_ | +| **rabbitmq.exchange.messages.publish_in.count**
(gauge) | Recuento de mensajes publicados desde canales en este intercambio
_Se muestra como mensaje_ | +| **rabbitmq.exchange.messages.publish_in.rate**
(gauge) | Tasa de mensajes publicados desde los canales a esta central por segundo
_Se muestra como mensaje_ | +| **rabbitmq.exchange.messages.publish_out.count**
(gauge) | Recuento de mensajes publicados desde este intercambio en colas
_Se muestra como mensaje_ | +| **rabbitmq.exchange.messages.publish_out.rate**
(gauge) | Tasa de mensajes publicados desde este intercambio a las colas por segundo
_Se muestra como mensaje_ | +| **rabbitmq.exchange.messages.redeliver.count**
(gauge) | Recuento del subconjunto de mensajes en intercambios en deliver_get que tenían el indicador de reenviado activado
_Se muestra como mensaje_ | +| **rabbitmq.exchange.messages.redeliver.rate**
(gauge) | Tasa del subconjunto de mensajes en intercambios en deliver_get que tenían el indicador de reenviado activado por segundo
_Se muestra como mensaje_ | +| **rabbitmq.exchange.messages.return_unroutable.count**
(gauge) | Recuento de mensajes en intercambios devueltos al publicador como no enrutables
_Se muestra como mensaje_ | +| **rabbitmq.exchange.messages.return_unroutable.rate**
(gauge) | Tasa de mensajes en intercambios devueltos al publicador como no enrutables por segundo
_Se muestra como mensaje_ | +| **rabbitmq.global.consumers**
(gauge) | \[OpenMetrics\] Número actual de consumidores| +| **rabbitmq.global.messages.acknowledged.count**
(count) | \[OpenMetrics\] Número total de mensajes reconocidos por los consumidores
_Se muestra como mensaje_ | +| **rabbitmq.global.messages.confirmed.count**
(count) | \[OpenMetrics\] Número total de mensajes confirmados a los publicadores
_Se muestra como mensaje_ | +| **rabbitmq.global.messages.dead_lettered.confirmed.count**
(count) | \[OpenMetrics\] Número total de mensajes fallidos y confirmados por colas de destino
_Se muestra como mensaje_ | +| **rabbitmq.global.messages.dead_lettered.delivery_limit.count**
(count) | \[OpenMetrics\] Número total de mensajes fallidos por exceder el límite de entrega
_Se muestra como mensaje_ | +| **rabbitmq.global.messages.dead_lettered.expired.count**
(count) | \[OpenMetrics\] Número total de mensajes fallidos por exceder el ciclo de vida del mensaje
_Se muestra como mensaje_ | +| **rabbitmq.global.messages.dead_lettered.maxlen.count**
(count) | \[OpenMetrics\] Número total de mensajes fallidos por desbordamiento drop-head o reject-publish-dlx
_Se muestra como mensaje_ | +| **rabbitmq.global.messages.dead_lettered.rejected.count**
(count) | \[OpenMetrics\] Número total de mensajes fallidos debido a basic.reject o basic.nack
_Se muestra como mensaje_ | +| **rabbitmq.global.messages.delivered.consume_auto_ack.count**
(count) | \[OpenMetrics\] Número total de mensajes entregados a los consumidores utilizando basic.consume con reconocimiento automático
_Se muestra como mensaje_ | +| **rabbitmq.global.messages.delivered.consume_manual_ack.count**
(count) | \[OpenMetrics\] Número total de mensajes entregados a los consumidores utilizando basic.consume con reconocimiento manual
_Se muestra como mensaje_ | +| **rabbitmq.global.messages.delivered.count**
(count) | \[OpenMetrics\] Número total de mensajes entregados a los consumidores
_Se muestra como mensaje_ | +| **rabbitmq.global.messages.delivered.get_auto_ack.count**
(count) | \[OpenMetrics\] Número total de mensajes entregados a los consumidores utilizando basic.get con reconocimiento automático
_Se muestra como mensaje_ | +| **rabbitmq.global.messages.delivered.get_manual_ack.count**
(count) | \[OpenMetrics\] Número total de mensajes entregados a los consumidores utilizando basic.get con reconocimiento manual
_Se muestra como mensaje_ | +| **rabbitmq.global.messages.get_empty.count**
(count) | \[OpenMetrics\] Número total de veces que las operaciones basic.get no han obtenido ningún mensaje.| +| **rabbitmq.global.messages.received.count**
(count) | \[OpenMetrics\] Número total de mensajes recibidos de los publicadores
_Se muestra como mensaje_ | +| **rabbitmq.global.messages.received_confirm.count**
(count) | \[OpenMetrics\] Número total de mensajes recibidos de publicadores que esperan confirmaciones
_Se muestra como mensaje_ | +| **rabbitmq.global.messages.redelivered.count**
(count) | \[OpenMetrics\] Número total de mensajes reenviados a los consumidores
_Se muestra como mensaje_ | +| **rabbitmq.global.messages.routed.count**
(count) | \[OpenMetrics\] Número total de mensajes enrutados a colas o flujos
_Se muestra como mensaje_ | +| **rabbitmq.global.messages.unroutable.dropped.count**
(count) | \[OpenMetrics\] Número total de mensajes publicados como no obligatorios en un intercambio y descartados como no enrutables
_Se muestra como mensaje_ | +| **rabbitmq.global.messages.unroutable.returned.count**
(count) | \[OpenMetrics\] Número total de mensajes publicados como obligatorios en un intercambio y devueltos al publicador como no enrutables
_Se muestra como mensaje_ | +| **rabbitmq.global.publishers**
(gauge) | \[OpenMetrics\] Número actual de publicadores| +| **rabbitmq.identity_info**
(gauge) | \[OpenMetrics\] Información de la identidad de nodos y clústeres RabbitMQ| +| **rabbitmq.io.read_bytes.count**
(count) | \[OpenMetrics\] Número total de bytes de E/S leídos
_Se muestra como bytes_ | +| **rabbitmq.io.read_ops.count**
(count) | \[OpenMetrics\] Número total de operaciones de lectura de E/S
_Se muestra como operación_ | +| **rabbitmq.io.read_time_seconds.count**
(count) | \[OpenMetrics\] Tiempo total de lectura de E/S
_Se muestra en segundos_ | +| **rabbitmq.io.reopen_ops.count**
(count) | \[OpenMetrics\] Número total de veces que se han reabierto archivos| +| **rabbitmq.io.seek_ops.count**
(count) | \[OpenMetrics\] Número total de operaciones de búsqueda de E/S
_Se muestra como operación_ | +| **rabbitmq.io.seek_time_seconds.count**
(count) | \[OpenMetrics\] Tiempo total de búsqueda de E/S
_Se muestra como segundos_ | +| **rabbitmq.io.sync_ops.count**
(count) | \[OpenMetrics\] Número total de operaciones de sincronización de E/S
_Se muestra como operación_ | +| **rabbitmq.io.sync_time_seconds.count**
(count) | \[OpenMetrics\] Tiempo total de sincronización de E/S
_Se muestra como segundos_ | +| **rabbitmq.io.write_bytes.count**
(count) | \[OpenMetrics\] Número total de bytes de E/S escritos
_Se muestra como bytes_ | +| **rabbitmq.io.write_ops.count**
(count) | \[OpenMetrics\] Número total de operaciones de escritura de E/S
_Se muestra como operación_ | +| **rabbitmq.io.write_time_seconds.count**
(count) | \[OpenMetrics\] Tiempo total de escritura de E/S
_Se muestra en segundos_ | +| **rabbitmq.msg_store.read.count**
(count) | \[OpenMetrics\] Número total de operaciones de lectura del almacén de mensajes
_Se muestra como operación_ | +| **rabbitmq.msg_store.write.count**
(count) | \[OpenMetrics\] Número total de operaciones de escritura del almacén de mensajes
_Se muestra como operación_ | +| **rabbitmq.node.disk_alarm**
(gauge) | ¿Tiene el nodo alarma de disco?| +| **rabbitmq.node.disk_free**
(gauge) | Espacio libre actual en disco
_Se muestra como bytes_ | +| **rabbitmq.node.fd_used**
(gauge) | Descriptores de archivo utilizados| +| **rabbitmq.node.mem_alarm**
(gauge) | ¿Tiene el host alarma de memoria?| +| **rabbitmq.node.mem_limit**
(gauge) | Marca de agua alta del uso de memoria en bytes
_Se muestra como bytes_ | +| **rabbitmq.node.mem_used**
(gauge) | Memoria utilizada en bytes
_Se muestra como bytes_ | +| **rabbitmq.node.partitions**
(gauge) | Número de particiones de red que ve este nodo| +| **rabbitmq.node.run_queue**
(gauge) | Número medio de procesos Erlang a la espera de ejecución
_Se muestra como proceso_ | +| **rabbitmq.node.running**
(gauge) | ¿Se está ejecutando el nodo o no?| +| **rabbitmq.node.sockets_used**
(gauge) | Número de descriptores de archivo utilizados como sockets| +| **rabbitmq.overview.messages.ack.count**
(gauge) | Número de mensajes entregados a los clientes y reconocidos
_Se muestra como mensaje_ | +| **rabbitmq.overview.messages.ack.rate**
(gauge) | Tasa de mensajes entregados a clientes y reconocidos por segundo
_Se muestra como mensaje_ | +| **rabbitmq.overview.messages.confirm.count**
(gauge) | Recuento de mensajes confirmados
_Se muestra como mensaje_ | +| **rabbitmq.overview.messages.confirm.rate**
(gauge) | Tasa de mensajes confirmados por segundo
_Se muestra como mensaje_ | +| **rabbitmq.overview.messages.deliver_get.count**
(gauge) | Suma de mensajes entregados en modo de reconocimiento a los consumidores, en modo sin reconocimiento a los consumidores, en modo de reconocimiento en respuesta a basic.get y en modo sin reconocimiento en respuesta a basic.get
_Se muestra como mensaje_ | +| **rabbitmq.overview.messages.deliver_get.rate**
(gauge) | Tasa por segundo de la suma de mensajes entregados en modo de reconocimiento a los consumidores, en modo sin reconocimiento a los consumidores, en modo de reconocimiento en respuesta a basic.get y en modo sin reconocimiento en respuesta a basic.get
_Se muestra como mensaje_ | +| **rabbitmq.overview.messages.drop_unroutable.count**
(gauge) | Recuento de mensajes descartados como no enrutables
_Se muestra como mensaje_ | +| **rabbitmq.overview.messages.drop_unroutable.rate**
(gauge) | Tasa de mensajes descartados como no enrutables por segundo
_Se muestra como mensaje_ | +| **rabbitmq.overview.messages.publish.count**
(gauge) | Recuento de mensajes publicados
_Se muestra como mensaje_ | +| **rabbitmq.overview.messages.publish.rate**
(gauge) | Tasa de mensajes publicados por segundo
_Se muestra como mensaje_ | +| **rabbitmq.overview.messages.publish_in.count**
(gauge) | Recuento de mensajes publicados desde canales en este resumen
_Se muestra como mensaje_ | +| **rabbitmq.overview.messages.publish_in.rate**
(gauge) | Tasa de mensajes publicados desde canales en este resumen por segundo
_Se muestra como mensaje_ | +| **rabbitmq.overview.messages.publish_out.count**
(gauge) | Recuento de mensajes publicados desde este resumen en colas
_Se muestra como mensaje_ | +| **rabbitmq.overview.messages.publish_out.rate**
(gauge) | Tasa de mensajes publicados desde este resumen en colas por segundo
_Se muestra como mensaje_ | +| **rabbitmq.overview.messages.redeliver.count**
(gauge) | Recuento del subconjunto de mensajes en deliver_get que tenían el indicador de reenviado activado
_Se muestra como mensaje_ | +| **rabbitmq.overview.messages.redeliver.rate**
(gauge) | Tasa del subconjunto de mensajes en deliver_get que tenían el indicador de reenviado activado por segundo
__Se muestra como mensaje_ | +| **rabbitmq.overview.messages.return_unroutable.count**
(gauge) | Recuento de mensajes devueltos al publicador como no enrutables
_Se muestra como mensaje_ | +| **rabbitmq.overview.messages.return_unroutable.rate**
(gauge) | Tasa de mensajes devueltos al publicador como no enrutables por segundo
_Se muestra como mensaje_ | +| **rabbitmq.overview.object_totals.channels**
(gauge) | Número total de canales
_Se muestra como elemento_ | +| **rabbitmq.overview.object_totals.connections**
(gauge) | Número total de conexiones
_Se muestra como conexión_ | +| **rabbitmq.overview.object_totals.consumers**
(gauge) | Número total de consumidores
_Se muestra como elemento_ | +| **rabbitmq.overview.object_totals.queues**
(gauge) | Número total de colas
_Se muestra como elemento_ | +| **rabbitmq.overview.queue_totals.messages.count**
(gauge) | Número total de mensajes (listos más no reconocidos)
_Se muestra como mensaje_ | +| **rabbitmq.overview.queue_totals.messages.rate**
(gauge) | Tasa del número de mensajes (listos más no reconocidos)
_Se muestra como mensaje_ | +| **rabbitmq.overview.queue_totals.messages_ready.count**
(gauge) | Número de mensajes listos para su entrega
_Se muestra como mensaje_ | +| **rabbitmq.overview.queue_totals.messages_ready.rate**
(gauge) | Tasa del número de mensajes listos para su entrega
_Se muestra como mensaje_ | +| **rabbitmq.overview.queue_totals.messages_unacknowledged.count**
(gauge) | Número de mensajes no reconocidos
_Se muestra como mensaje_ | +| **rabbitmq.overview.queue_totals.messages_unacknowledged.rate**
(gauge) | Tasa del número de mensajes no reconocidos
_Se muestra como mensaje_ | +| **rabbitmq.process.max_fds**
(gauge) | \[OpenMetrics\] Límite de descriptores de archivo abiertos| +| **rabbitmq.process.max_tcp_sockets**
(gauge) | \[OpenMetrics\] Límite de sockets TCP abiertos| +| **rabbitmq.process.open_fds**
(gauge) | \[OpenMetrics\] Descriptores de archivo abiertos| +| **rabbitmq.process.open_tcp_sockets**
(gauge) | \[OpenMetrics\] Sockets TCP abiertos| +| **rabbitmq.process.resident_memory_bytes**
(gauge) | \[OpenMetrics\] Memoria utilizada en bytes
_Se muestra como bytes_ | +| **rabbitmq.process_start_time_seconds**
(gauge) | \[OpenMetrics\] Tiempo de inicio del proceso desde unix epoch en segundos.
_Se muestra como segundos_ | +| **rabbitmq.queue.active_consumers**
(gauge) | Número de consumidores activos, consumidores que pueden recibir inmediatamente cualquier mensaje enviado a la cola.| +| **rabbitmq.queue.bindings.count**
(gauge) | Número de enlaces para una cola específica| +| **rabbitmq.queue.consumer_capacity**
(gauge) | \[OpenMetrics\] Capacidad de consumo| +| **rabbitmq.queue.consumer_utilisation**
(gauge) | Proporción de tiempo durante el que los consumidores de una cola pueden tomar nuevos mensajes
_Se muestra como fracción_ | +| **rabbitmq.queue.consumers**
(gauge) | Número de consumidores| +| **rabbitmq.queue.disk_reads.count**
(count) | \[OpenMetrics\] Número total de veces que la cola ha leído mensajes del disco| +| **rabbitmq.queue.disk_writes.count**
(count) | \[OpenMetrics\] Número total de veces que la cola ha escrito mensajes en el disco| +| **rabbitmq.queue.get.ack.count**
(count) | \[OpenMetrics\] Número total de mensajes obtenidos de una cola con basic.get en modo de reconocimiento manual.| +| **rabbitmq.queue.get.count**
(count) | \[OpenMetrics\] Número total de mensajes obtenidos de una cola con basic.get en modo de reconocimiento automático.| +| **rabbitmq.queue.get.empty.count**
(count) | \[OpenMetrics\] Número total de veces que las operaciones basic.get no han obtenido ningún mensaje en una cola.| +| **rabbitmq.queue.head_message_timestamp**
(gauge) | \[OpenMetrics, CLI de gestión\] Marca de tiempo del mensaje de cabecera de la marca de tiempo de la cola del primer mensaje de la cola, si lo hay
_Se muestra como milisegundos_ | +| **rabbitmq.queue.index.read_ops.count**
(count) | \[OpenMetrics\] Número total de operaciones de lectura de índices de cola
_Se muestra como operación_ | +| **rabbitmq.queue.index.write_ops.count**
(count) | \[OpenMetrics\] Número total de operaciones de escritura de índices de cola
_Se muestra como operación_ | +| **rabbitmq.queue.memory**
(gauge) | Bytes de memoria consumidos por el proceso Erlang asociado a la cola, incluyendo stack tecnológico, heap y estructuras internas
_Se muestra como bytes_ | +| **rabbitmq.queue.message_bytes**
(gauge) | Número de bytes de mensajes listos para ser entregados a los clientes
_Se muestra como mensaje_ | +| **rabbitmq.queue.messages**
(gauge) | \[OpenMetrics, CLI de gestión\] Recuento del total de mensajes en la cola, que es la suma de mensajes listos y no reconocidos (profundidad total de la cola)
_Se muestra como mensaje_ | +| **rabbitmq.queue.messages.ack.count**
(gauge) | Número de mensajes en cola entregados a clientes y reconocidos
_Se muestra como mensaje_ | +| **rabbitmq.queue.messages.ack.rate**
(gauge) | Número por segundo de mensajes entregados a clientes y reconocidos
_Se muestra como mensaje_ | +| **rabbitmq.queue.messages.acked.count**
(count) | \[OpenMetrics\] Número total de mensajes reconocidos por los consumidores en una cola| +| **rabbitmq.queue.messages.bytes**
(gauge) | \[OpenMetrics\] Tamaño en bytes de los mensajes listos y no reconocidos
_Se muestra como bytes_ | +| **rabbitmq.queue.messages.deliver.count**
(gauge) | Recuento de mensajes entregados en modo de reconocimiento a los consumidores
_Se muestra como mensaje_ | +| **rabbitmq.queue.messages.deliver.rate**
(gauge) | Tasa de mensajes entregados en modo de reconocimiento a los consumidores
_Se muestra como mensaje_ | +| **rabbitmq.queue.messages.deliver_get.count**
(gauge) | Suma de mensajes en colas entregados en modo de reconocimiento a los consumidores, en modo sin reconocimiento a los consumidores, en modo de reconocimiento en respuesta a basic.get y en modo sin reconocimiento en respuesta a basic.get.
_Se muestra como mensaje_ | +| **rabbitmq.queue.messages.deliver_get.rate**
(gauge) | Tasa por segundo de la suma de mensajes en colas entregados en modo de reconocimiento a los consumidores, en modo sin reconocimiento a los consumidores, en modo de reconocimiento en respuesta a basic.get y en modo sin reconocimiento en respuesta a basic.get.
_Se muestra como mensaje_ | +| **rabbitmq.queue.messages.delivered.ack.count**
(count) | \[OpenMetrics\] Número total de mensajes entregados desde una cola a los consumidores en modo de reconocimiento automático.| +| **rabbitmq.queue.messages.delivered.count**
(count) | \[OpenMetrics\] Número total de mensajes entregados desde una cola a los consumidores en modo de reconocimiento automático.| +| **rabbitmq.queue.messages.paged_out**
(gauge) | \[OpenMetrics\] Mensajes paginados al disco| +| **rabbitmq.queue.messages.paged_out_bytes**
(gauge) | \[OpenMetrics\] Tamaño en bytes de los mensajes paginados al disco
_Se muestra como bytes_ | +| **rabbitmq.queue.messages.persistent**
(gauge) | \[OpenMetrics\] Mensajes persistentes
_Se muestra como mensaje_ | +| **rabbitmq.queue.messages.persistent_bytes**
(gauge) | \[OpenMetrics\] Tamaño en bytes de los mensajes persistentes
_Se muestra como bytes_ | +| **rabbitmq.queue.messages.publish.count**
(gauge) | Recuento de mensajes en colas publicados
_Se muestra como mensaje_ | +| **rabbitmq.queue.messages.publish.rate**
(gauge) | Tasa por segundo de mensajes publicados
_Se muestra como mensaje_ | +| **rabbitmq.queue.messages.published.count**
(count) | \[OpenMetrics\] Número total de mensajes publicados en colas
_Se muestra como mensaje_ | +| **rabbitmq.queue.messages.ram**
(gauge) | \[OpenMetrics\] Mensajes listos y no reconocidos almacenados en memoria
_Se muestra como mensaje_ | +| **rabbitmq.queue.messages.ram_bytes**
(gauge) | \[OpenMetrics\] Tamaño de los mensajes listos y no reconocidos almacenados en memoria
_Se muestra como byte_ | +| **rabbitmq.queue.messages.rate**
(gauge) | Recuento por segundo del total de mensajes en la cola
_Se muestra como mensaje_ | +| **rabbitmq.queue.messages.ready**
(gauge) | \[OpenMetrics\] Mensajes listos para ser entregados a los consumidores
_Se muestra como mensaje_ | +| **rabbitmq.queue.messages.ready_bytes**
(gauge) | \[OpenMetrics\] Tamaño en bytes de los mensajes listos
_Se muestra como bytes_ | +| **rabbitmq.queue.messages.ready_ram**
(gauge) | \[OpenMetrics\] Mensajes listos almacenados en memoria
_Se muestra como mensaje_ | +| **rabbitmq.queue.messages.redeliver.count**
(gauge) | Recuento del subconjunto de mensajes en colas en deliver_get que tenían el indicador de reenviado activado
_Se muestra como mensaje_ | +| **rabbitmq.queue.messages.redeliver.rate**
(gauge) | Tasa por segundo del subconjunto de mensajes en deliver_get que tenían el indicador de reenviado activado
_Se muestra como mensaje_ | +| **rabbitmq.queue.messages.redelivered.count**
(count) | \[OpenMetrics\] Número total de mensajes redistribuidos desde una cola a los consumidores| +| **rabbitmq.queue.messages.unacked**
(gauge) | \[OpenMetrics\] Mensajes entregados a los consumidores pero aún no reconocidos
_Se muestra como mensaje_ | +| **rabbitmq.queue.messages.unacked_bytes**
(gauge) | \[OpenMetrics\] Tamaño en bytes de todos los mensajes no reconocidos
_Se muestra como bytes_ | +| **rabbitmq.queue.messages.unacked_ram**
(gauge) | \[OpenMetrics\] Mensajes no reconocidos almacenados en memoria
_Se muestra como mensaje_ | +| **rabbitmq.queue.messages_ready**
(gauge) | Número de mensajes listos para ser entregados a los clientes
_Se muestra como mensaje_ | +| **rabbitmq.queue.messages_ready.rate**
(gauge) | Número por segundo de mensajes listos para ser entregados a los clientes
_Se muestra como mensaje_ | +| **rabbitmq.queue.messages_unacknowledged**
(gauge) | Número de mensajes entregados a clientes pero aún no reconocidos
_Se muestra como mensaje_ | +| **rabbitmq.queue.messages_unacknowledged.rate**
(gauge) | Número por segundo de mensajes entregados a clientes pero aún no reconocidos
_Se muestra como mensaje_ | +| **rabbitmq.queue.process_memory_bytes**
(gauge) | \[OpenMetrics\] Memoria en bytes utilizada por el proceso de cola Erlang
_Se muestra como bytes_ | +| **rabbitmq.queue.process_reductions.count**
(count) | \[OpenMetrics\] Número total de reducciones de procesos de cola| +| **rabbitmq.queues**
(gauge) | \[OpenMetrics\] Colas disponibles| +| **rabbitmq.queues.created.count**
(count) | \[OpenMetrics\] Número total de colas creadas| +| **rabbitmq.queues.declared.count**
(count) | \[OpenMetrics\] Número total de colas declaradas| +| **rabbitmq.queues.deleted.count**
(count) | \[OpenMetrics\] Número total de colas eliminadas| +| **rabbitmq.raft.entry_commit_latency_seconds**
(gauge) | \[OpenMetrics\] Tiempo que tarda en confirmarse una entrada de log
_Se muestra como segundos_ | +| **rabbitmq.raft.log.commit_index**
(gauge) | \[OpenMetrics] Índice de confirmación de logs Raft| +| **rabbitmq.raft.log.last_applied_index**
(gauge) | \[OpenMetrics\] Último índice de logs Raft aplicado| +| **rabbitmq.raft.log.last_written_index**
(gauge) | \[OpenMetrics\] Último índice de logs Raft escrito| +| **rabbitmq.raft.log.snapshot_index**
(gauge) | \[OpenMetrics\] Índice de snapshots de logs Raft| +| **rabbitmq.raft.term.count**
(count) | \[OpenMetrics\] Número de término Raft actual| +| **rabbitmq.resident_memory_limit_bytes**
(gauge) | \[OpenMetrics\] Marca de agua alta de memoria en bytes
_Se muestra como bytes_ | +| **rabbitmq.schema.db.disk_tx.count**
(count) | \[OpenMetrics\] Número total de transacciones de disco Schema DB
_Se muestra como transacción_ | +| **rabbitmq.schema.db.ram_tx.count**
(count) | \[OpenMetrics\] Número total de transacciones de memoria Schema DB
_Se muestra como transacción_ | +| **rabbitmq.telemetry.scrape.duration_seconds.count**
(count) | \[OpenMetrics\] Duración del raspado
_Se muestra como segundos_ | +| **rabbitmq.telemetry.scrape.duration_seconds.sum**
(count) | \[OpenMetrics\] Duración del raspado
_Se muestra como segundos_ | +| **rabbitmq.telemetry.scrape.encoded_size_bytes.count**
(count) | \[OpenMetrics\] Tamaño de raspado, codificado
_Se muestra como bytes_ | +| **rabbitmq.telemetry.scrape.encoded_size_bytes.sum**
(count) | \[OpenMetrics\] Tamaño de raspado, codificado
_Se muestra como bytes_ | +| **rabbitmq.telemetry.scrape.size_bytes.count**
(count) | \[OpenMetrics\] Tamaño de raspado, no codificado
_Se muestra como bytes_ | +| **rabbitmq.telemetry.scrape.size_bytes.sum**
(count) | \[OpenMetrics\] Tamaño de raspado, no codificado
_Se muestra como bytes_ | + +### Eventos + +### Checks de servicio + +**rabbitmq.aliveness** + +Solo disponible con el complemento de gestión de RabbitMQ. Devuelve el estado de un vhost basado en la [API Aliveness](https://github.com/rabbitmq/rabbitmq-management/blob/rabbitmq_v3_6_8/priv/www/api/index.html) de RabbitMQ. La API Aliveness crea una cola de test, luego publica y consume un mensaje de esa cola. Devuelve `OK` si el código de estado de la API es 200 y `CRITICAL` en caso contrario. + +_Estados: ok, crítico_ + +**rabbitmq.status** + +Solo disponible con el complemento de gestión de RabbitMQ. Devuelve el estado del servidor RabbitMQ. Devuelve `OK` si el Agent ha podido contactar con la API y `CRITICAL` en caso contrario. + +_Estados: ok, crítico_ + +**rabbitmq.openmetrics.health** + +Solo disponible con el complemento RabbitMQ Prometheus. Devuelve `CRITICAL` si el Agent no puede conectarse al endpoint de OpenMetrics y `OK` en caso contrario. + +_Estados: ok, crítico_ + +## Solucionar problemas + +### Migración al complemento Prometheus + +El complemento Prometheus expone un conjunto diferente de métricas del complemento de gestión. +Esto es lo que debes tener en cuenta al migrar del complemento de gestión a Prometheus. + +- Busca tus métricas en [esta tabla](https://docs.datadoghq.com/integrations/rabbitmq/?tab=host#metrics).. Si la descripción de una métrica contiene una etiqueta `[OpenMetrics]`, significa que está disponible en el complemento Prometheus. Las métricas que solo están disponibles en el complemento de gestión no tienen etiquetas en sus descripciones. +- Todos los dashboards y monitores que utilizan métricas del complemento de gestión no funcionarán. Cambia a los dashboards y a los monitores marcados como *OpenMetrics Version*. +- La configuración por defecto recopila métricas agregadas. Esto significa, por ejemplo, que no hay métricas etiquetadas por cola. Configura la opción `prometheus_plugin.unaggregated_endpoint` para obtener métricas sin agregación. +- El check de servicio `rabbitmq.status` se sustituye por `rabbitmq.openmetrics.health`. El check de servicio `rabbitmq.aliveness` no tiene equivalente en el complemento Prometheus. + +El complemento Prometheus modifica algunas etiquetas. En la siguiente tabla se describen los cambios de las etiquetas más comunes. + +| Gestión | Prometheus | +|:--------------------|:-----------------------------------------| +| `queue_name` | `queue` | +| `rabbitmq_vhost` | `vhost`, `exchange_vhost`, `queue_vhost` | +| `rabbitmq_exchange` | `exchange` | + +Para obtener más información, consulta [Etiquetado de colas RabbitMQ por familia de etiquetas](https://docs.datadoghq.com/integrations/faq/tagging-rabbitmq-queues-by-tag-family/). + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). + +## Referencias adicionales + +Documentación útil adicional, enlaces y artículos: + +- [Métricas clave para la monitorización de RabbitMQ](https://www.datadoghq.com/blog/rabbitmq-monitoring) +- [Recopilación de métricas con las herramientas de monitorización de RabbitMQ](https://www.datadoghq.com/blog/rabbitmq-monitoring-tools) +- [Monitorización del rendimiento de RabbitMQ con Datadog](https://www.datadoghq.com/blog/monitoring-rabbitmq-performance-with-datadog) \ No newline at end of file diff --git a/content/es/integrations/solr.md b/content/es/integrations/solr.md new file mode 100644 index 0000000000000..f2c8e86a2d02c --- /dev/null +++ b/content/es/integrations/solr.md @@ -0,0 +1,324 @@ +--- +"app_id": "solr" +"app_uuid": "3733c24e-8466-4f3b-8411-59ef85c28302" +"assets": + "dashboards": + "solr": "assets/dashboards/solr_overview.json" + "integration": + "auto_install": true + "configuration": + "spec": "assets/configuration/spec.yaml" + "events": + "creates_events": false + "metrics": + "check": "solr.searcher.numdocs" + "metadata_path": "metadata.csv" + "prefix": "solr." + "process_signatures": + - "solr start" + "service_checks": + "metadata_path": "assets/service_checks.json" + "source_type_id": !!int "42" + "source_type_name": "Solr" + "saved_views": + "solr_processes": "assets/saved_views/solr_processes.json" +"author": + "homepage": "https://www.datadoghq.com" + "name": "Datadog" + "sales_email": "info@datadoghq.com" + "support_email": "help@datadoghq.com" +"categories": +- "caching" +- "data stores" +- "log collection" +"custom_kind": "integración" +"dependencies": +- "https://github.com/DataDog/integrations-core/blob/master/solr/README.md" +"display_on_public_website": true +"draft": false +"git_integration_title": "solr" +"integration_id": "solr" +"integration_title": "Solr" +"integration_version": "2.1.0" +"is_public": true +"manifest_version": "2.0.0" +"name": "solr" +"public_title": "Solr" +"short_description": "Monitoriza tasa de solicitudes, errores de gestor, fallos de caché y desalojos y más." +"supported_os": +- "linux" +- "windows" +- "macos" +"tile": + "changelog": "CHANGELOG.md" + "classifier_tags": + - "Category::Caching" + - "Category::Data Stores" + - "Category::Log Collection" + - "Supported OS::Linux" + - "Supported OS::Windows" + - "Supported OS::macOS" + - "Offering::Integration" + "configuration": "README.md#Setup" + "description": "Monitoriza tasa de solicitudes, errores de gestor, fallos de caché y desalojos y más." + "media": [] + "overview": "README.md#Overview" + "support": "README.md#Support" + "title": "Solr" +--- + + + + +![Gráfico de Solr][1] + +## Información general + +El check de Solr realiza un seguimiento del estado y el rendimiento de un clúster de Solr. Recopila métricas del número de documentos indexados, los aciertos y desalojos de la caché, los tiempos medios de solicitud, las solicitudes medias por segundo, etc. + +## Configuración + +### Instalación + +El check de Solr está incluido en el paquete del [Datadog Agent][2], por lo que no necesitas instalar nada más en tus nodos de Solr. + +Este check está basado en JMX, por lo que necesitas habilitar JMX Remote en tus servidores de Solr. Consulta la [documentación del check de JMX][3] para obtener más información. + +### Configuración + +{{< tabs >}} +{{% tab "Host" %}} + +#### Host + +Para configurar este check para un Agent que se ejecuta en un host: + +1. Edita el archivo `solr.d/conf.yaml` en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][1]. Para conocer todas las opciones de configuración disponibles, consulta el [solr.d/conf.yaml de ejemplo][2]. + + ```yaml + init_config: + + ## @param is_jmx - boolean - required + ## Whether or not this file is a configuration for a JMX integration. + # + is_jmx: true + + ## @param collect_default_metrics - boolean - required + ## Whether or not the check should collect all default metrics. + # + collect_default_metrics: true + + instances: + ## @param host - string - required + ## Solr host to connect to. + - host: localhost + + ## @param port - integer - required + ## Solr port to connect to. + port: 9999 + ``` + +2. [Reinicia el Agent][3]. + +#### Lista de métricas + +El parámetro `conf` es una lista de métricas que recopilará la integración. Solo se admiten 2 claves: + +- `include` (**obligatorio**): un diccionario de filtros, cualquier atributo que coincida con estos filtros se recopila a menos que también coincida con los filtros `exclude` (ver más abajo). +- `exclude` (**opcional**): un diccionario de filtros, los atributos que coinciden con estos filtros no se recopilan. + +Para un bean dado, las métricas se etiquetan de la siguiente manera: + +```text +mydomain:attr0=val0,attr1=val1 +``` + +En este ejemplo, tu métrica es `mydomain` (o alguna variación según el atributo dentro del bean) y tiene las etiquetas `attr0:val0`, `attr1:val1` y `domain:mydomain`. + +Si especificas un alias en una clave `include` con formato _camel case_, se convierte a _snake case_. Por ejemplo, `MyMetricName` aparece en Datadog como `my_metric_name`. + +##### El filtro de atributos + +El filtro `attribute` puede aceptar dos tipos de valores: + +- Un diccionario cuyas claves son nombres de atributos (ver más adelante). Para este caso, puedes especificar un alias para la métrica que se convierte en el nombre de métrica en Datadog. También puedes especificar el tipo de métrica como gauge o count. Si eliges count, se calcula una tasa por segundo para la métrica. + + ```yaml + conf: + - include: + attribute: + maxThreads: + alias: tomcat.threads.max + metric_type: gauge + currentThreadCount: + alias: tomcat.threads.count + metric_type: gauge + bytesReceived: + alias: tomcat.bytes_rcvd + metric_type: counter + ``` + +- Una lista de nombres de atributos (ver más abajo). Para este caso, el tipo de métrica es un gauge y el nombre de métrica es `jmx.\[DOMAIN_NAME].\[ATTRIBUTE_NAME]`. + + ```yaml + conf: + - include: + domain: org.apache.cassandra.db + attribute: + - BloomFilterDiskSpaceUsed + - BloomFilterFalsePositives + - BloomFilterFalseRatio + - Capacity + - CompressionRatio + - CompletedTasks + - ExceptionCount + - Hits + - RecentHitRate + ``` + +#### Versiones anteriores + +La lista de filtros solo se admite en el Datadog Agent > 5.3.0. Si utilizas una versión anterior, utiliza singletons y varias sentencias `include` en su lugar. + +```yaml +# Datadog Agent > 5.3.0 + conf: + - include: + domain: domain_name + bean: + - first_bean_name + - second_bean_name +# Older Datadog Agent versions + conf: + - include: + domain: domain_name + bean: first_bean_name + - include: + domain: domain_name + bean: second_bean_name +``` + +[1]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory +[2]: https://github.com/DataDog/integrations-core/blob/master/solr/datadog_checks/solr/data/conf.yaml.example +[3]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent +{{% /tab %}} +{{% tab "Contenedorizado" %}} + +#### Contenedores + +Para obtener información sobre entornos en contenedores, consulta la guía [Autodiscovery con JMX][1]. + +##### Recopilación de logs + +1. La recopilación de logs está desactivada por defecto en el Datadog Agent, actívala en tu archivo `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` + +2. Solr utiliza el registrador `log4j` por defecto. Para personalizar el formato de registro, edita el archivo [`server/resources/log4j2.xml`][2]. Por defecto, el pipeline de la integración de Datadog admite el siguiente [patrón][3] de conversión: + + ```text + %maxLen{%d{yyyy-MM-dd HH:mm:ss.SSS} %-5p (%t) [%X{collection} %X{shard} %X{replica} %X{core}] %c{1.} %m%notEmpty{ =>%ex{short}}}{10240}%n + ``` + + Clona y edita el [pipeline de integración][4] si tienes un formato diferente. + + +3. Anula los comentarios y edita el bloque de configuración de logs en tu archivo `solr.d/conf.yaml`. Cambia los valores de los parámetros `type`, `path` y `service` en función de tu entorno. Consulta [solr.d/solr.yaml de ejemplo][5] para conocer todas las opciones disponibles de configuración. + + ```yaml + logs: + - type: file + path: /var/solr/logs/solr.log + source: solr + # To handle multi line that starts with yyyy-mm-dd use the following pattern + # log_processing_rules: + # - type: multi_line + # pattern: \d{4}\-(0?[1-9]|1[012])\-(0?[1-9]|[12][0-9]|3[01]) + # name: new_log_start_with_date + ``` + +4. [Reinicia el Agent][6]. + +Para habilitar logs para entornos de Kubernetes, consulta [Recopilación de log de Kubernetes][7]. + +[1]: https://docs.datadoghq.com/agent/guide/autodiscovery-with-jmx/?tab=containerizedagent +[2]: https://lucene.apache.org/solr/guide/configuring-logging.html#permanent-logging-settings +[3]: https://logging.apache.org/log4j/2.x/manual/layouts.html#Patterns +[4]: https://docs.datadoghq.com/logs/processing/#integration-pipelines +[5]: https://github.com/DataDog/integrations-core/blob/master/solr/datadog_checks/solr/data/conf.yaml.example +[6]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[7]: https://docs.datadoghq.com/agent/docker/log/ +{{% /tab %}} +{{< /tabs >}} + +### Validación + +[Ejecuta el subcomando de estado del Agent][4] y busca `solr` en la sección Checks. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "solr" >}} + + +### Eventos + +El check de Solr no incluye ningún evento. + +### Checks de servicio +{{< get-service-checks-from-git "solr" >}} + + +## Solucionar problemas + +### Comandos para ver las métricas disponibles + +El comando `datadog-agent jmx` se añadió en la versión 4.1.0. + +- Mostrar una lista de atributos que coincidan con, al menos, una de tus configuraciones de instancias: + `sudo datadog-agent jmx list matching` +- Mostrar una lista de atributos que coinciden con una de tus configuraciones de instancias, pero no se recopilan porque se superaría el número de métricas que es posible recopilar. + `sudo datadog-agent jmx list limited` +- Mostrar una lista de atributos que se espera que recopile tu configuración de instancias actual: + `sudo datadog-agent jmx list collected` +- Mostrar una lista de atributos que no coincidan con ninguna de tus configuraciones de instancias: + `sudo datadog-agent jmx list not-matching` +- Mostrar cada atributo disponible que tenga un tipo compatible con JMXFetch: + `sudo datadog-agent jmx list everything` +- Iniciar la recopilación de métricas según tu configuración actual y mostrarlas en la consola: + `sudo datadog-agent jmx collect` + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][5]. + +## Referencias adicionales + +### Parseo de un valor de cadena en un número + +Si tu jmxfetch devuelve solo valores de cadena como **false** y **true** y quieres transformarlo en una métrica gauge de Datadog para usos avanzados. Por ejemplo, si deseas la siguiente equivalencia para tu jmxfetch: + +```text +"myJmxfetch:false" = myJmxfetch:0 +"myJmxfetch:true" = myJmxfetch:1 +``` + +Puedes utilizar el filtro `attribute` como se indica a continuación: + +```yaml +# ... +attribute: + myJmxfetch: + alias: your_metric_name + metric_type: gauge + values: + "false": 0 + "true": 1 +``` + + +[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/solr/images/solrgraph.png +[2]: https://app.datadoghq.com/account/settings/agent/latest +[3]: https://docs.datadoghq.com/integrations/java/ +[4]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information +[5]: https://docs.datadoghq.com/help/ diff --git a/content/es/integrations/spark.md b/content/es/integrations/spark.md new file mode 100644 index 0000000000000..df281b7de5933 --- /dev/null +++ b/content/es/integrations/spark.md @@ -0,0 +1,232 @@ +--- +"app_id": "spark" +"app_uuid": "5cb22455-9ae2-44ee-ae05-ec21c27b3292" +"assets": + "dashboards": + "Databricks Spark Overview": "assets/dashboards/databricks_overview.json" + "spark": "assets/dashboards/spark_dashboard.json" + "integration": + "auto_install": true + "configuration": + "spec": "assets/configuration/spec.yaml" + "events": + "creates_events": false + "metrics": + "check": "spark.job.count" + "metadata_path": "metadata.csv" + "prefix": "spark." + "process_signatures": + - "java org.apache.spark.deploy.SparkSubmit" + - "java org.apache.spark.deploy.worker.Worker" + - "java org.apache.spark.deploy.master.Master" + "service_checks": + "metadata_path": "assets/service_checks.json" + "source_type_id": !!int "142" + "source_type_name": "Spark" +"author": + "homepage": "https://www.datadoghq.com" + "name": "Datadog" + "sales_email": "info@datadoghq.com" + "support_email": "help@datadoghq.com" +"categories": +- "log collection" +"custom_kind": "integración" +"dependencies": +- "https://github.com/DataDog/integrations-core/blob/master/spark/README.md" +"display_on_public_website": true +"draft": false +"git_integration_title": "spark" +"integration_id": "spark" +"integration_title": "Spark" +"integration_version": "6.4.0" +"is_public": true +"manifest_version": "2.0.0" +"name": "spark" +"public_title": "Spark" +"short_description": "Rastrea los índices de tareas fallidas, bytes aleatorios y mucho más." +"supported_os": +- "linux" +- "windows" +- "macos" +"tile": + "changelog": "CHANGELOG.md" + "classifier_tags": + - "Category::Log Collection" + - "Supported OS::Linux" + - "Supported OS::Windows" + - "Supported OS::macOS" + - "Offering::Integration" + "configuration": "README.md#Setup" + "description": "Rastrea los índices de tareas fallidas, bytes aleatorios y mucho más." + "media": [] + "overview": "README.md#Overview" + "resources": + - "resource_type": "blog" + "url": "https://www.datadoghq.com/blog/data-jobs-monitoring/" + - "resource_type": "blog" + "url": "https://www.datadoghq.com/blog/data-observability-monitoring/" + - "resource_type": "blog" + "url": "https://www.datadoghq.com/blog/monitoring-spark" + - "resource_type": "blog" + "url": "https://www.datadoghq.com/blog/spark-emr-monitoring/" + "support": "README.md#Support" + "title": "Spark" +--- + + + + +
+Data Jobs Monitoring te ayuda a observar, solucionar problemas y optimizar los costes de tus trabajos de Spark y Databricks y clústeres.

+Esta página solo documenta cómo ingerir métricas y logs de Spark. +
+ +![Gráfico de Spark][1] + +## Información general + +Este check monitoriza [Spark][2] a través del Datadog Agent. Recopila métricas de Spark para: + +- Controladores y ejecutores: bloques RDD, memoria utilizada, disco utilizado, duración, etc. +- RDDs: recuento de particiones, memoria utilizada y disco utilizado. +- Tareas: número de tareas activas, omitidas, fallidas y totales. +- Estado del trabajo: número de trabajos activos, completados, omitidos y fallidos. + +## Configuración + +### Instalación + +El check de Spark está incluido en el paquete del [Datadog Agent][3]. No es necesaria ninguna instalación adicional en tu nodo maestro de Mesos (para Spark on Mesos), YARN ResourceManager (para Spark on YARN), o nodo maestro de Spark (para Spark Standalone). + +### Configuración + +{{< tabs >}} +{{% tab "Host" %}} + +#### Host + +Para configurar este check para un Agent que se ejecuta en un host: + +1. Edita el archivo `spark.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la [raíz del directorio de configuración del Agent][1]. Puede que sea necesario actualizar los siguientes parámetros. Para conocer todas las opciones de configuración disponibles, consulta el [spark.d/conf.yaml de ejemplo][2]. + + ```yaml + init_config: + + instances: + - spark_url: http://localhost:8080 # Spark master web UI + # spark_url: http://:5050 # Mesos master web UI + # spark_url: http://:8088 # YARN ResourceManager address + + spark_cluster_mode: spark_yarn_mode # default + # spark_cluster_mode: spark_mesos_mode + # spark_cluster_mode: spark_yarn_mode + # spark_cluster_mode: spark_driver_mode + + # required; adds a tag 'cluster_name:' to all metrics + cluster_name: "" + # spark_pre_20_mode: true # if you use Standalone Spark < v2.0 + # spark_proxy_enabled: true # if you have enabled the spark UI proxy + ``` + +2. [Reinicia el Agent][3]. + +[1]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory +[2]: https://github.com/DataDog/integrations-core/blob/master/spark/datadog_checks/spark/data/conf.yaml.example +[3]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent +{{% /tab %}} +{{% tab "Contenedorizado" %}} + +#### Contenedores + +Para entornos en contenedores, consulta las plantillas de integración de Autodiscovery, ya sea para [Docker][1] o [Kubernetes][2], para obtener orientación sobre la aplicación de los parámetros que se indican a continuación. + +| Parámetro | Valor | +| -------------------- | ----------------------------------------------------------------- | +| `` | `spark` | +| `` | en blanco o `{}` | +| `` | `{"spark_url": "%%host%%:8080", "cluster_name":""}` | + +[1]: https://docs.datadoghq.com/containers/docker/integrations/ +[2]: https://docs.datadoghq.com/agent/kubernetes/integrations/ +{{% /tab %}} +{{< /tabs >}} + +### Recopilación de logs + +1. La recopilación de logs está desactivada por defecto en el Datadog Agent, actívala en tu archivo `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` + +2. Anula los comentarios y edita el bloque de configuración de logs en tu archivo `spark.d/conf.yaml`. Cambia los valores de los parámetros `type`, `path` y `service` en función de tu entorno. Consulta [spark.d/.yaml de ejemplo][4] para conocer todas las opciones disponibles de configuración. + + ```yaml + logs: + - type: file + path: + source: spark + service: + # To handle multi line that starts with yyyy-mm-dd use the following pattern + # log_processing_rules: + # - type: multi_line + # pattern: \d{4}\-(0?[1-9]|1[012])\-(0?[1-9]|[12][0-9]|3[01]) + # name: new_log_start_with_date + ``` + +3. [Reinicia el Agent][5]. + +Para habilitar los logs para entornos de Docker, consulta [recopilación de logs de Docker][6]. + +### Validación + +[Ejecuta el subcomando de estado del Agent][7] y busca `spark` en la sección Checks. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "spark" >}} + + +### Eventos + +El check de Spark no incluye ningún evento. + +### Checks de servicio +{{< get-service-checks-from-git "spark" >}} + + +## Solucionar problemas + +### Spark en Amazon EMR + +Para recibir métricas para Spark en Amazon EMR, [utiliza acciones de arranque][8] para instalar el [Agent][9]: + +Para Agent v5, crea el archivo de configuración `/etc/dd-agent/conf.d/spark.yaml` con los [valores adecuados en cada nodo de EMR][10]. + +Para Agent v6/7, crea el archivo de configuración `/etc/datadog-agent/conf.d/spark.d/conf.yaml` con los [valores adecuados en cada nodo de EMR][10]. + +### Check finalizado con éxito, pero no se recopilaron métricas + +La integración de Spark solo recopila métricas sobre las aplicaciones en ejecución. Si no tienes ninguna aplicación en ejecución, el check se limitará a enviar un check de estado. + +## Referencias adicionales + +Más enlaces, artículos y documentación útiles: + +- [Monitorización de Hadoop y Spark con Datadog][11] +- [Monitorización de aplicaciones de Apache Spark ejecutadas en Amazon EMR][12] + + +[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/spark/images/sparkgraph.png +[2]: https://spark.apache.org/ +[3]: https://app.datadoghq.com/account/settings/agent/latest +[4]: https://github.com/DataDog/integrations-core/blob/master/spark/datadog_checks/spark/data/conf.yaml.example +[5]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[6]: https://docs.datadoghq.com/agent/docker/log/ +[7]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information +[8]: https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-bootstrap.html +[9]: https://docs.datadoghq.com/agent/ +[10]: https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-connect-master-node-ssh.html +[11]: https://www.datadoghq.com/blog/monitoring-spark +[12]: https://www.datadoghq.com/blog/spark-emr-monitoring/ diff --git a/content/es/integrations/sqlserver.md b/content/es/integrations/sqlserver.md new file mode 100644 index 0000000000000..475e04d2e0e4e --- /dev/null +++ b/content/es/integrations/sqlserver.md @@ -0,0 +1,314 @@ +--- +"app_id": "sql-server" +"app_uuid": "bfa2f276-da05-4153-b8d4-48d4e41f5e40" +"assets": + "dashboards": + "SQLServer-AlwaysOn": "assets/dashboards/SQLServer-AlwaysOn_dashboard.json" + "SQLServer-Overview": "assets/dashboards/SQLServer-Overview_dashboard.json" + "sqlserver": "assets/dashboards/sqlserver_dashboard.json" + "integration": + "auto_install": true + "configuration": + "spec": "assets/configuration/spec.yaml" + "events": + "creates_events": false + "metrics": + "check": "sqlserver.stats.connections" + "metadata_path": "metadata.csv" + "prefix": "sqlserver." + "service_checks": + "metadata_path": "assets/service_checks.json" + "source_type_id": !!int "45" + "source_type_name": "SQL Server" + "monitors": + "Auto-parameterization attempts are failing": "assets/monitors/sqlserver_high_number_failed_auto_param.json" + "Availability Group is not healthy": "assets/monitors/sqlserver_ao_not_healthy.json" + "Availability group failover detected": "assets/monitors/sqlserver_ao_failover.json" + "Database is not online": "assets/monitors/sqlserver_db_not_online.json" + "Database not in sync": "assets/monitors/sqlserver_db_not_sync.json" + "Processes are blocked": "assets/monitors/sqlserver_high_processes_blocked.json" +"author": + "homepage": "https://www.datadoghq.com" + "name": "Datadog" + "sales_email": "info@datadoghq.com" + "support_email": "help@datadoghq.com" +"categories": +- "data stores" +- "log collection" +"custom_kind": "integración" +"dependencies": +- "https://github.com/DataDog/integrations-core/blob/master/sqlserver/README.md" +"display_on_public_website": verdadero +"draft": falso +"git_integration_title": "sqlserver" +"integration_id": "sql-server" +"integration_title": "SQL Server" +"integration_version": "22.7.0" +"is_public": verdadero +"manifest_version": "2.0.0" +"name": "sqlserver" +"public_title": "SQL Server" +"short_description": "Recopila métricas de rendimiento y estado importantes de SQL Server." +"supported_os": +- "linux" +- "macos" +- "windows" +"tile": + "changelog": "CHANGELOG.md" + "classifier_tags": + - "Supported OS::Linux" + - "Supported OS::macOS" + - "Supported OS::Windows" + - "Category::Almacenes de datos" + - "Category::Recopilación de logs" + - "Offering::Integration" + "configuration": "README.md#Setup" + "description": "Recopila métricas de rendimiento y estado importantes de SQL Server." + "media": [] + "overview": "README.md#Overview" + "resources": + - "resource_type": "blog" + "url": "https://www.datadoghq.com/blog/monitor-azure-sql-databases-datadog" + - "resource_type": "blog" + "url": "https://www.datadoghq.com/blog/sql-server-monitoring" + - "resource_type": "blog" + "url": "https://www.datadoghq.com/blog/sql-server-monitoring-tools" + - "resource_type": "blog" + "url": "https://www.datadoghq.com/blog/sql-server-performance" + - "resource_type": "blog" + "url": "https://www.datadoghq.com/blog/sql-server-metrics" + - "resource_type": "blog" + "url": "https://www.datadoghq.com/blog/migrate-sql-workloads-to-azure-with-datadog/" + "support": "README.md#Support" + "title": "SQL Server" +--- + + + + +![Gráfico de SQL Server][1] + +## Información general + +La integración de SQL Server realiza un seguimiento del rendimiento de las instancias de SQL Server. Recopila métricas para el número de conexiones de usuario, la tasa de compilaciones de SQL y mucho más. + +Activa la [Monitorización de base de datos][2] (DBM) para obtener una visión mejorada del rendimiento de las consultas y del estado de la base de datos. Además de la integración estándar, Datadog DBM proporciona métricas a nivel de consulta, snapshots de consultas en tiempo real e históricas, análisis de eventos de espera, carga de la base de datos, planes de explicación de consultas e información sobre consultas de bloqueo. + +SQL Server 2012, 2014, 2016, 2017, 2019 y 2022 son compatibles. + +## Configuración + +
En esta página, se describe la integración estándar del Agent de SQL Server. Si buscas el producto de Monitorización de base de datos para SQL Server, consulta Monitorización de base de datos de Datadog.
+ +### Instalación + +El check de SQL Server se incluye en el paquete del [Datadog Agent][3]. No es necesaria ninguna instalación adicional en tus instancias de SQL Server. + +Asegúrate de que tu instancia de SQL Server admite la autenticación de SQL Server activando el "Modo de autenticación de SQL Server y Windows" en las propiedades del servidor: + +_Propiedades del servidor_ -> _Seguridad_ -> _Modo de autenticación de SQL Server y Windows_ + +### Requisito previo + +**Nota**: Para instalar la Monitorización de base de datos para SQL Server, selecciona tu solución de alojamiento en el [sitio de documentación][4] para obtener instrucciones. + +Las versiones de SQL Server admitidas para el check de SQL Server son las mismas que para la Monitorización de base de datos. Visita la página [Configuración de SQL Server][5] para ver las versiones soportadas actualmente bajo el título **Autoalojado**. + +Procede con los siguientes pasos de esta guía solo si vas a instalar la integración estándar únicamente. + +1. Crea un inicio de sesión de sólo lectura para conectarse a tu servidor: + + ```SQL + CREATE LOGIN datadog WITH PASSWORD = ''; + USE master; + CREATE USER datadog FOR LOGIN datadog; + GRANT SELECT on sys.dm_os_performance_counters to datadog; + GRANT VIEW SERVER STATE to datadog; + ``` + + Para recopilar métricas del tamaño del archivo por base de datos, asegúrate de que el usuario que has creado (`datadog`) tiene [acceso con permiso de conexión][6] a tus bases de datos ejecutando: + + ```SQL + GRANT CONNECT ANY DATABASE to datadog; + ``` + +2. (Necesario para AlwaysOn y métricas `sys.master_files`) Para reunir AlwaysOn y métricas `sys.master_files`, concede el siguiente permiso adicional: + + ```SQL + GRANT VIEW ANY DEFINITION to datadog; + ``` + +### Configuración + +{{< tabs >}} +{{% tab "Host" %}} + +#### host + +Para configurar este check para un Agent que se ejecuta en un host: + +1. Edita el archivo `sqlserver.d/conf.yaml` en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][1]. Para conocer todas las opciones de configuración disponibles, consulta el [sqlserver.d/conf.yaml de ejemplo][2]. + + ```yaml + init_config: + + instances: + - host: "," + username: datadog + password: "" + connector: adodbapi + adoprovider: MSOLEDBSQL19 # Replace with MSOLEDBSQL for versions 18 and previous + ``` + + Si utilizas el Autodiscovery de puerto, utiliza `0` para `SQL_PORT`. Consulta la [configuración de check de ejemplo][2] para obtener una descripción completa de todas las opciones, incluido cómo utilizar consultas personalizadas para crear tus propias métricas. + + Utiliza [controladores compatibles][3] en función de tu configuración de SQL Server. + + **Nota**: También es posible utilizar la autenticación de Windows y no especificar el nombre de usuario/contraseña con: + + ```yaml + connection_string: "Trusted_Connection=yes" + ``` + + +2. [Reinicia el Agent][4]. + +##### Linux + +Se requieren pasos adicionales en la configuración para que la integración de SQL Server funcione en el host de Linux: + +1. Instala un controlador ODBC SQL Server, por ejemplo el [controlador ODBC de Microsoft][5] o el [controlador FreeTDS][6]. +2. Copia los archivos `odbc.ini` y `odbcinst.ini` en la carpeta `/opt/datadog-agent/embedded/etc`. +3. Configura el archivo `conf.yaml` para utilizar el conector `odbc` y especifica el controlador adecuado como se indica en el archivo `odbcinst.ini`. + +##### Recopilación de logs + +_Disponible para las versiones 6.0 o posteriores del Agent_ + +1. La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent, actívala en tu archivo `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` + +2. Añade este bloque de configuración a tu archivo `sqlserver.d/conf.yaml` para empezar a recopilar tus logs de SQL Server: + + ```yaml + logs: + - type: file + encoding: utf-16-le + path: "" + source: sqlserver + service: "" + ``` + + Cambia los valores de los parámetros `path` y `service` en función de tu entorno. Consulta el [sqlserver.d/conf.yaml de ejemplo][2] para ver todas las opciones disponibles de configuración. + +3. [Reinicia el Agent][4]. + +[1]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory +[2]: https://github.com/DataDog/integrations-core/blob/master/sqlserver/datadog_checks/sqlserver/data/conf.yaml.example +[3]: https://docs.datadoghq.com/database_monitoring/setup_sql_server/selfhosted/#supported-drivers +[4]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[5]: https://docs.microsoft.com/en-us/sql/connect/odbc/linux-mac/installing-the-microsoft-odbc-driver-for-sql-server?view=sql-server-2017 +[6]: http://www.freetds.org/ +{{% /tab %}} +{{% tab "Contenedores" %}} + +#### En contenedores + +Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][1] para obtener orientación sobre la aplicación de los parámetros que se indican a continuación. + +##### Recopilación de métricas + +| Parámetro | Valor | +| -------------------- | -------------------------------------------------------------------------------------------------------------------------------- | +| `` | `sqlserver` | +| `` | en blanco o `{}` | +| `` | `{"host": "%%host%%,%%port%%", "username": "datadog", "password": "", "connector": "odbc", "driver": "FreeTDS"}` | + +Consulta [Variables de plantilla de Autodiscovery][2] para obtener más detalles sobre cómo pasar `` como una variable de entorno en lugar de una etiqueta (label). + +##### Recopilación de logs + +_Disponible para las versiones 6.0 o posteriores del Agent_ + +La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta la [recopilación de logs de Kubernetes][3]. + +| Parámetro | Valor | +| -------------- | ------------------------------------------------- | +| `` | `{"source": "sqlserver", "service": "sqlserver"}` | + +[1]: https://docs.datadoghq.com/agent/kubernetes/integrations/ +[2]: https://docs.datadoghq.com/agent/faq/template_variables/ +[3]: https://docs.datadoghq.com/agent/kubernetes/log/ +{{% /tab %}} +{{< /tabs >}} + +### Validación + +[Ejecuta el subcomando de estado del Agent][9] y busca `sqlserver` en la sección Checks. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "sqlserver" >}} + + +La mayoría de estas métricas proceden de la tabla `sys.dm_os_performance_counters` de tu SQL Server. + +### Eventos + +El check de SQL Server no incluye ningún evento. + +### Checks de servicio +{{< get-service-checks-from-git "sqlserver" >}} + + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8]. + +Si estás ejecutando el Agent en un procesador ARM aarch64, existe un problema conocido que comienza en la versión 14.0.0 de este check, que se incluye con el Agent versión 7.48.0. Una dependencia de Python falla al cargarse y verás el siguiente mensaje al ejecutar [el subcomando de estado del Agent][7]: + +``` +Loading Errors + ============== + sqlserver + --------- + Core Check Loader: + Check sqlserver not found in Catalog + JMX Check Loader: + check is not a jmx check, or unable to determine if it's so + Python Check Loader: + unable to import module 'sqlserver': No module named 'sqlserver' +``` + +Esto se ha solucionado en la versión 15.2.0 del check y en las versiones 7.49.1 y posteriores del Agent. + +## Referencias adicionales + +- [Monitoriza tus bases de datos de Azure SQL con Datadog][9] +- [Métricas clave para la monitorización de SQL Server][10] +- [Herramientas de monitorización de SQL Server][11] +- [Monitorizar el rendimiento de SQL Server con Datadog][12] +- [Métricas personalizadas de SQL Server para una monitorización detallada][13] +- [Hacer una estrategia para tu migración de Azure para cargas de trabajo de SQL con Datadog][14] +- [Optimizar el rendimiento de SQL Server con la monitorización de base de datos de Datadog][15] + + +[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/sqlserver/images/sqlserver_dashboard_02_2024.png +[2]: https://docs.datadoghq.com/database_monitoring/ +[3]: https://app.datadoghq.com/account/settings/agent/latest +[4]: https://docs.datadoghq.com/database_monitoring/#sqlserver +[5]: https://docs.datadoghq.com/database_monitoring/setup_sql_server/ +[6]: https://docs.microsoft.com/en-us/sql/t-sql/statements/grant-server-permissions-transact-sql?view=sql-server-ver15 +[7]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information +[8]: https://docs.datadoghq.com/help/ +[9]: https://www.datadoghq.com/blog/monitor-azure-sql-databases-datadog +[10]: https://www.datadoghq.com/blog/sql-server-monitoring +[11]: https://www.datadoghq.com/blog/sql-server-monitoring-tools +[12]: https://www.datadoghq.com/blog/sql-server-performance +[13]: https://www.datadoghq.com/blog/sql-server-metrics +[14]: https://www.datadoghq.com/blog/migrate-sql-workloads-to-azure-with-datadog/ +[15]: https://www.datadoghq.com/blog/optimize-sql-server-performance-with-datadog/ diff --git a/content/es/integrations/teamcity.md b/content/es/integrations/teamcity.md new file mode 100644 index 0000000000000..f55a731d52de0 --- /dev/null +++ b/content/es/integrations/teamcity.md @@ -0,0 +1,316 @@ +--- +"app_id": "teamcity" +"app_uuid": "8dd65d36-9cb4-4295-bb0c-68d67c0cdd4b" +"assets": + "dashboards": + "TeamCity Overview": "assets/dashboards/overview.json" + "integration": + "auto_install": true + "configuration": + "spec": "assets/configuration/spec.yaml" + "events": + "creates_events": true + "metrics": + "check": + - "teamcity.builds" + - "teamcity.build_duration" + "metadata_path": "metadata.csv" + "prefix": "teamcity." + "process_signatures": + - "teamcity-server.sh" + - "teamcity-server" + "service_checks": + "metadata_path": "assets/service_checks.json" + "source_type_id": !!int "109" + "source_type_name": "Teamcity" + "monitors": + "Builds are failing": "assets/monitors/build_status.json" + "saved_views": + "teamcity_processes": "assets/saved_views/teamcity_processes.json" +"author": + "homepage": "https://www.datadoghq.com" + "name": "Datadog" + "sales_email": "info@datadoghq.com" + "support_email": "help@datadoghq.com" +"categories": +- "configuration & deployment" +- "log collection" +- "notifications" +"custom_kind": "integración" +"dependencies": +- "https://github.com/DataDog/integrations-core/blob/master/teamcity/README.md" +"display_on_public_website": true +"draft": false +"git_integration_title": "teamcity" +"integration_id": "teamcity" +"integration_title": "TeamCity" +"integration_version": "6.1.0" +"is_public": true +"manifest_version": "2.0.0" +"name": "teamcity" +"public_title": "TeamCity" +"short_description": "Realiza un seguimiento de las compilaciones y comprende el impacto en el rendimiento de cada despliegue." +"supported_os": +- "linux" +- "windows" +- "macos" +"tile": + "changelog": "CHANGELOG.md" + "classifier_tags": + - "Category::Configuration & Deployment" + - "Category::Log Collection" + - "Category::Notifications" + - "Supported OS::Linux" + - "Supported OS::Windows" + - "Supported OS::macOS" + - "Offering::Integration" + "configuration": "README.md#Setup" + "description": "Realiza un seguimiento de las compilaciones y comprende el impacto en el rendimiento de cada despliegue." + "media": [] + "overview": "README.md#Overview" + "resources": + - "resource_type": "blog" + "url": "https://www.datadoghq.com/blog/track-performance-impact-of-code-changes-with-teamcity-and-datadog" + "support": "README.md#Support" + "title": "TeamCity" +--- + + + + +## Información general + +Esta integración se conecta a tu servidor de TeamCity para enviar métricas, checks de servicio y eventos, lo que te permite monitorizar el estado de las configuraciones de compilación de tus proyectos de TeamCity, las ejecuciones de compilación, los recursos del servidor y mucho más. + +## Configuración + +### Instalación + +El check de TeamCity está incluido en el paquete del [Datadog Agent][1], por lo que no necesitas instalar nada más en tus servidores de TeamCity. + +### Configuración + +#### Preparar TeamCity + +Puedes activar el [inicio de sesión de invitado](#guest-login), o identificar [credenciales de usuario](#user-credentials) para la autenticación HTTP básica. + +##### Inicio de sesión de invitado + +1. [Activar el inicio de sesión de invitado][2]. + +2. Habilita `Per-project permissions` para permitir la asignación de permisos basados en proyectos al usuario invitado. Consulta [Cambiar el modo de autorización][3]. +![Activar inicio de sesión de invitado][4] +3. Utiliza un rol existente o crea uno nuevo de solo lectura y añade el permiso `View Usage Statistics` al rol. Consulta [Gestión de roles y permisos][5]. +![Crear rol de solo lectura][6] + +3. _[Opcional]_ Para permitir que el check detecte automáticamente el tipo de configuración de la compilación durante la recopilación de eventos, añade el permiso `View Build Configuration Settings` al rol de solo lectura. +![Asignar permiso de configuración de vista de compilación][7] + +4. Asigna el rol de solo lectura al usuario invitado. Consulta [Asignación de roles a los usuarios][8]. +![Configuración del usuario invitado][9] +![Asignar rol][10] + +##### Credenciales de usuario + +Para la autenticación HTTP básica +- Especifica un `username` identificado y `password` en el archivo `teamcity.d/conf.yaml` en la carpeta `conf.d/` de tu [directorio de configuración del Agent][11]. +- Si encuentras un error `Access denied. Enable guest authentication or check user permissions.`, asegúrate de que el usuario tiene los permisos correctos: + - Permisos Por proyecto y Ver estadísticas de uso activados. + - Si estás recopilando estadísticas de carga útil del Agent, asigna también los permisos Ver detalles del Agent y Ver estadísticas de uso del Agent. + +{{< tabs >}} +{{% tab "Host" %}} + +#### Host + +Para configurar este check para un Agent que se ejecuta en un host: + +Edita el archivo `teamcity.d/conf.yaml` en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][1]. Para conocer todas las opciones de configuración disponibles, consulta el [teamcity.d/conf.yaml de ejemplo][2]: + +El check de TeamCity ofrece dos métodos de recopilación de datos. Para optimizar la monitorización de tu entorno de TeamCity, configura dos instancias separadas para recopilar métricas de cada método. + +1. Método de OpenMetrics (requiere Python versión 3): + + Habilita `use_openmetrics: true` para recopilar métricas desde el endpoint de Prometheus`/metrics` de TeamCity. + + ```yaml + init_config: + + instances: + - use_openmetrics: true + + ## @param server - string - required + ## Specify the server name of your TeamCity instance. + ## Enable Guest Authentication on your instance or specify `username` and `password` to + ## enable basic HTTP authentication. + # + server: http://teamcity..com + ``` + + Para recopilar métricas de histograma y resumen [conformes con OpenMetrics][3] (disponible a partir de TeamCity Server 2022.10+), añade la propiedad interna, `teamcity.metrics.followOpenMetricsSpec=true`. Consulta [Propiedades internas de TeamCity][4]. + +2. Método API REST de TeamCity Server (requiere Python versión 3): + + Configura una instancia separada en el archivo `teamcity.d/conf.yaml` para recopilar métricas específicas de la compilación, checks de servicio y eventos de estado de la compilación de la API REST del servidor TeamCity. Especifica tus proyectos y configuraciones de compilación utilizando la opción `projects`. + + ```yaml + init_config: + + instances: + - server: http://teamcity..com + + ## @param projects - mapping - optional + ## Mapping of TeamCity projects and build configurations to + ## collect events and metrics from the TeamCity REST API. + # + projects: + : + include: + - + - + exclude: + - + : + include: + - + : {} + ``` + +Personaliza la monitorización de la configuración de compilación de cada proyecto utilizando los filtros opcionales `include` y `exclude` para especificar IDs de configuración de la compilación para incluir o excluir de la monitorización, respectivamente. Se admiten patrones de expresión regular en las claves `include` y `exclude` para especificar patrones de coincidencia de ID de la configuración de la compilación. Si se omiten los filtros `include` y `exclude`, todas las configuraciones de compilación se monitorean para el proyecto especificado. + +Para Python versión 2, configura un ID de configuración de compilación por instancia utilizando la opción `build_configuration`: + +```yaml +init_config: + +instances: + - server: http://teamcity..com + + ## @param projects - mapping - optional + ## Mapping of TeamCity projects and build configurations to + ## collect events and metrics from the TeamCity REST API. + # + build_configuration: +``` + +[Reinicia el Agent][5] para empezar a recopilar y enviar eventos de TeamCity a Datadog. + +##### Recopilación de logs + +1. Establecer la [configuración de registro][6] de TeamCity. + +2. Por defecto, el pipeline de la integración de Datadog admite el siguiente tipo de formato de log: + + ```text + [2020-09-10 21:21:37,486] INFO - jetbrains.buildServer.STARTUP - Current stage: System is ready + ``` + + Clona y edita el [pipeline de integración][7] si has definido diferentes [patrones] de conversión[8]. + +3. La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en tu archivo `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` + +4. Anula los comentarios del bloque de configuración siguiente en tu archivo `teamcity.d/conf.yaml`. Cambia el valor de los parámetros `path` según tu entorno. Consulta el [teamcity.d/conf.yaml de ejemplol][2] para ver todas las opciones de configuración disponibles. + + ```yaml + logs: + - type: file + path: /opt/teamcity/logs/teamcity-server.log + source: teamcity + - type: file + path: /opt/teamcity/logs/teamcity-activities.log + source: teamcity + - type: file + path: /opt/teamcity/logs/teamcity-vcs.log + source: teamcity + - type: file + path: /opt/teamcity/logs/teamcity-cleanup.log + source: teamcity + - type: file + path: /opt/teamcity/logs/teamcity-notifications.log + source: teamcity + - type: file + path: /opt/teamcity/logs/teamcity-ws.log + source: teamcity + ``` + +5. [Reinicia el Agent][5]. + +[1]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory +[2]: https://github.com/DataDog/integrations-core/blob/master/teamcity/datadog_checks/teamcity/data/conf.yaml.example +[3]: https://github.com/OpenObservability/OpenMetrics/blob/main/specification/OpenMetrics.md +[4]: https://www.jetbrains.com/help/teamcity/server-startup-properties.html#TeamCity+Internal+Properties +[5]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[6]: https://www.jetbrains.com/help/teamcity/teamcity-server-logs.html +[7]: https://docs.datadoghq.com/logs/log_configuration/pipelines/#integration-pipelines +[8]: https://logging.apache.org/log4j/2.x/manual/layouts.html#Patterns +{{% /tab %}} +{{% tab "Contenedorizado" %}} + +#### Contenedores + +Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][1] para obtener orientación sobre la aplicación de los parámetros que se indican a continuación. + +| Parámetro | Valor | +| -------------------- | ------------------------------------------------------------------------------------------------- | +| `` | `teamcity` | +| `` | en blanco o `{}` | +| `` | `{"server": "%%host%%", "use_openmetrics": "true"}` | + +##### Recopilación de logs + +La recopilación de logs está deshabilitada por defecto en el Datadog Agent. Para activarla, consulta [Recopilación de logs de Kubernetes][2]. + +| Parámetro | Valor | +| -------------- | ---------------------------------------------------- | +| `` | `{"source": "teamcity"}` | + +[1]: https://docs.datadoghq.com/agent/kubernetes/integrations/ +[2]: https://docs.datadoghq.com/agent/kubernetes/log/ +{{% /tab %}} +{{< /tabs >}} + +### Validación + +[Ejecuta el subcomando `status` del Agent][12] y busca `teamcity` en la sección Checks. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "teamcity" >}} + + +### Eventos + +Los eventos de TeamCity que representan las compilaciones exitosas y fallidas se envían a Datadog. + +### Checks de servicio +{{< get-service-checks-from-git "teamcity" >}} + + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][13]. + +## Referencias adicionales + +- [Seguimiento del impacto en el rendimiento de los cambios de código con TeamCity y Datadog][14] + + +[1]: https://app.datadoghq.com/account/settings/agent/latest +[2]: https://www.jetbrains.com/help/teamcity/enabling-guest-login.html +[3]: https://www.jetbrains.com/help/teamcity/managing-roles-and-permissions.html#Changing+Authorization+Mode +[4]: https://raw.githubusercontent.com/DataDog/integrations-core/master/teamcity/images/authentication.jpg +[5]: https://www.jetbrains.com/help/teamcity/managing-roles-and-permissions.html +[6]: https://raw.githubusercontent.com/DataDog/integrations-core/master/teamcity/images/create_role.jpg +[7]: https://raw.githubusercontent.com/DataDog/integrations-core/master/teamcity/images/build_config_permissions.jpg +[8]: https://www.jetbrains.com/help/teamcity/creating-and-managing-users.html#Assigning+Roles+to+Users +[9]: https://raw.githubusercontent.com/DataDog/integrations-core/master/teamcity/images/guest_user_settings.jpg +[10]: https://raw.githubusercontent.com/DataDog/integrations-core/master/teamcity/images/assign_role.jpg +[11]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory +[12]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information +[13]: https://docs.datadoghq.com/help/ +[14]: https://www.datadoghq.com/blog/track-performance-impact-of-code-changes-with-teamcity-and-datadog diff --git a/content/es/integrations/tyk.md b/content/es/integrations/tyk.md index 6046b49e6992f..417c9421f54c5 100644 --- a/content/es/integrations/tyk.md +++ b/content/es/integrations/tyk.md @@ -29,7 +29,7 @@ author: support_email: yaara@tyk.io categories: - métricas -custom_kind: integration +custom_kind: integración dependencies: - https://github.com/DataDog/integrations-extras/blob/master/tyk/README.md display_on_public_website: true @@ -118,7 +118,7 @@ pump.conf: "dogstatsd": { "type": "dogstatsd", "meta": { - "address": "dd-agent:8126", + "address": "dd-agent:8125", "namespace": "tyk", "async_uds": true, "async_uds_write_timeout_seconds": 2, diff --git a/content/es/integrations/win32_event_log.md b/content/es/integrations/win32_event_log.md index 925da26f13745..e86a092ddd369 100644 --- a/content/es/integrations/win32_event_log.md +++ b/content/es/integrations/win32_event_log.md @@ -33,7 +33,7 @@ draft: false git_integration_title: win32_event_log integration_id: event-viewer integration_title: Log de eventos de Windows -integration_version: 5.0.0 +integration_version: 5.2.1 is_public: true manifest_version: 2.0.0 name: win32_event_log @@ -188,7 +188,7 @@ Para recopilar logs de eventos de Windows como eventos de Datadog, configura can ```yaml init_config: instances: - - # API de logs de eventos + - # Event Log API path: Security legacy_mode: false filters: {} @@ -204,7 +204,7 @@ Las versiones 7.49 y posteriores del Agent permiten configurar `legacy_mode` en init_config: legacy_mode: false instances: - - # API de logs de eventos + - # Event Log API path: Security filters: {} @@ -225,7 +225,7 @@ Para recopilar logs de eventos de Windows como eventos de Datadog, configura can ```yaml init_config: instances: - - # WMI (por defecto) + - # WMI (default) legacy_mode: true log_file: - Security diff --git a/content/es/llm_observability/instrumentation/_index.md b/content/es/llm_observability/instrumentation/_index.md new file mode 100644 index 0000000000000..8605190d6558a --- /dev/null +++ b/content/es/llm_observability/instrumentation/_index.md @@ -0,0 +1,76 @@ +--- +further_reading: +- link: /llm_observability/auto_instrumentation + tag: Instrumentación automática + text: Empezar rápidamente con la instrumentación automática +title: Instrumentación de LLM Observability +--- + + +Para empezar con Datadog LLM Observability, instrumenta tus aplicaciones o agente(s) LLM eligiendo entre varias estrategias basadas en tu lenguaje de programación y configuración. Datadog proporciona opciones de instrumentación completas diseñadas para capturar trazas (traces), métricas y evaluaciones detalladas de tus aplicaciones y agentes LLM con cambios mínimos en el código. + +## Opciones de instrumentación +Puedes instrumentar tu aplicación con los SDK de Python, Node.js o Java, o utilizando la API de LLM Observability. + +### Instrumentación basada en SDK (recomendado) +Datadog proporciona SDK nativos que ofrecen las funciones de LLM Observability más completas: +| Lenguaje | SDK disponible | Instrumentación automática | Instrumentación personalizada | . +| -------- | ------------- | -------------------- | ---------------------- | +| Python | Python v3.7 o posterior {{< X >}} | {{< X >}} | +| Node.js | Node.js v16 o posterior {{< X >}} | {{< X >}} | +| Java | Java 8 o posterior {{< X >}} | + + +Para instrumentar una aplicación LLM con el SDK: +1. Instala el SDK de LLM Observability. +2. Configura el SDK proporcionando [las variables de entorno necesarias][6] en el comando de inicio de tu aplicación o [en el código][7] mediante programación. Asegúrate de haber configurado tu clave de API Datadog, el sitio Datadog y el nombre de la aplicación de machine learning (ML). + +#### Instrumentación automática +La instrumentación automática captura llamadas LLM de aplicaciones Python y Node.js sin requerir cambios en el código. Te permite obtener trazas predefinidas y una observabilidad de marcos y proveedores populares. Para obtener más información y una lista completa de marcos y proveedores compatibles, consulta la documentación [Instrumentación automática][1]. + +La instrumentación automática captura automáticamente: +- Solicitudes de entradas y finalizaciones de salidas +- Uso y costes de los tokens +- Información sobre latencia y errores +- Parámetros del modelo (temperatura, max_tokens, etc.) +- Metadatos específicos del marco + +
Cuando se utilizan marcos compatibles, no es necesario crear manualmente tramos (spans) para las llamadas LLM. El SDK crea automáticamente los tramos adecuados con metadatos enriquecidos.
+ +#### Instrumentación personalizada +Todos los SDK compatibles proporcionan capacidades avanzadas para la instrumentación personalizada de tus aplicaciones LLM, además de la instrumentación automática, incluyendo: +- Creación manual de tramos mediante decoradores de funciones o gestores de contextos +- Rastreo de flujos de trabajo complejos para aplicaciones LLM de varios pasos +- Monitorización de agentes para agentes LLM autónomos +- Evaluaciones personalizadas y mediciones de calidad +- Seguimiento de la sesión para ver interacciones de usuarios + +Para obtener más información, consulta la [documentación de referencia del SDK][2]. + +### Instrumentación de la API HTTP +Si tu lenguaje no es compatible con los SDK o si utilizas integraciones personalizadas, puedes instrumentar tu aplicación utilizando la API HTTP de Datadog. + +La API te permite: +- Enviar tramos directamente a través de endpoints HTTP +- Enviar evaluaciones personalizadas asociadas a tramos +- Incluir jerarquías completas de trazas de aplicaciones complejas +- Anotar tramos con entradas, salidas, metadatos y métricas + +Endpoints de API: +- [API de tramos][4]: `POST` `https://api.{{< region-param key="dd_site" code="true" >}}/api/intake/llm-obs/v1/trace/spans` +- [API de evaluaciones][5]: `POST` `https://api.{{< region-param key="dd_site" code="true" >}}/api/intake/llm-obs/v2/eval-metric` + +Para obtener más información, consulta la [documentación de la API HTTP][3]. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + + +[1]: /es/llm_observability/auto_instrumentation +[2]: /es/llm_observability/instrumentation/sdk +[3]: /es/llm_observability/setup/api +[4]: /es/llm_observability/instrumentation/api/?tab=model#spans-api +[5]: /es/llm_observability/instrumentation/api/?tab=model#evaluations-api +[6]: /es/llm_observability/instrumentation/sdk#command-line-setup +[7]: /es/llm_observability/instrumentation/sdk#in-code-setup \ No newline at end of file diff --git a/content/es/llm_observability/monitoring/_index.md b/content/es/llm_observability/monitoring/_index.md index e172c52b080f9..a992656a90dec 100644 --- a/content/es/llm_observability/monitoring/_index.md +++ b/content/es/llm_observability/monitoring/_index.md @@ -1,9 +1,77 @@ --- +description: Explorar aún más tu aplicación en LLM Observability. title: Monitorización --- -{{< whatsnext desc="Esta sección incluye los siguientes temas:">}} - {{< nextlink href="/llm_observability/monitoring/llm_observability_and_apm">}}Conecta LLM Observability con APM: vincular tramos de LLM Observability con tramos de Datadog APM{{< /nextlink >}} - {{< nextlink href="/llm_observability/monitoring/cluster_map">}}Mapa de clúster: uso de la visualización del Mapa de clúster de LLM Observability{{< /nextlink >}} - {{< nextlink href="/llm_observability/monitoring/agent_monitoring">}}Monitorización del Agent: monitorización de aplicaciones de Agentic LLM{{< /nextlink >}} -{{< /whatsnext >}} \ No newline at end of file +## Información general + +Explora y analiza tus aplicaciones LLM en producción con herramientas para consultar, visualizar, correlacionar e investigar datos en trazas (traces), clústeres y otros recursos. + +Monitoriza el rendimiento, corrige los problemas, evalúa la calidad y protege tus sistemas basados en LLM con una visibilidad unificada de trazas, métricas y evaluaciones en línea. + +### Monitorización del rendimiento en tiempo real + +Monitoriza el estado operativo de tu aplicación LLM con métricas y dashboards integrados: + +{{< img src="llm_observability/index/llm_dashboard_light.png" alt="Dashboard de información operativa de LLM Observability, que muestra diversas métricas y visualizaciones. Incluye una sección de información general con el número total de trazas y tramos (spans), índices de acierto y error, etc., y una sección de llamadas LLM con un gráfico circular del uso de modelos, la media de tokens de entrada y salida por llamada, etc." style="width:100%">}} + +- **Volumen y latencia de solicitudes**: Realiza un seguimiento de las solicitudes por segundo, los tiempos de respuesta y los cuellos de botella de rendimiento en diferentes modelos, operaciones y endpoints. +- **Seguimiento de errores**: Monitoriza errores HTTP, tiempos de espera del modelo y solicitudes fallidas con el contexto de error detallado. +- **Consumo de tokens**: Realiza un seguimiento de los tokens de solicitudes, los tokens almacenados en caché, los tokens de finalización y el uso total para optimizar los costes. +- **Análisis del uso de modelos**: Monitoriza qué modelos están siendo llamandos, sus frecuencias y sus características de rendimiento. + +El [dashboard de información operativa de LLM Observability][6] proporciona vistas consolidadas de métricas a nivel de traza y de tramo, índices de error, desgloses de latencia, tendencias de consumo de tokens y monitores activados. + +### Corrección y resolución de problemas de producción + +Depura flujos de trabajo LLM complejos con una visibilidad detallada de la ejecución: + +{{< img src="llm_observability/index/llm_trace_light.png" alt="Vista detallada de una traza en LLM Observability, que muestra un gráfico de llama que representa visualmente cada llamada a un servicio. 'OpenAI.createResponse' está seleccionado y se muestra una vista detallada del tramo, que incluye los mensajes de entrada y los mensajes de salida." style="width:100%">}} + +- **Análisis de trazas de extremo a extremo**: Visualiza los flujos completos de solicitudes, desde la entrada del usuario hasta las llamadas al modelo, las llamadas a las herramientas y la generación de respuestas. +- **Depuración a nivel de tramo**: Examina las operaciones individuales dentro de las cadenas, incluyendo los pasos de preprocesamiento, las llamadas al modelo y la lógica de postprocesamiento. +- **Identificación de las causas de error**: Identifica los puntos de fallo en las cadenas de varios pasos, los flujos de trabajo o las operaciones agénticas con información detallada del contexto y el momento del error. +- **Identificación de los cuellos de botella**: Busca las operaciones lentas y optimízalas en función de los desgloses de latencia de los componentes de flujos de trabajo. + +### Evaluaciones de calidad y seguridad + +{{< img src="llm_observability/index/llm_example_eval_light.png" alt="Vista detallada de un tramo en la pestaña Evaluations (Evaluaciones) de LLM Observability, que muestra una evaluación de alucinaciones con 'Contradicción confirmada', la salida marcada, la cuota de contexto y una explicación de pr qué se ha marcado." style="width:100%">}} + +Asegúrate de que tus agentes o aplicaciones LLM cumplen las normas de calidad con evaluaciones en línea. Para obtener información completa sobre las evaluaciones alojadas y gestionadas en Datadog, la ingesta de evaluaciones personalizadas y las funciones de monitorización de la seguridad, consults la [documentación sobre evaluaciones][5]. + +### Consultar trazas y tramos de tu aplicación LLM + +{{< img src="llm_observability/index/llm_query_example_light.png" alt="Vista LLM Observability > Trazas, donde el usuario ha ingresado la consulta`ml_app:shopist-chat-v2 'purchase' -'discount' @trace.total_tokens:>=20` y se muestran varias trazas." style="width:100%">}} + +Aprende a utilizar la interfaz de consulta de LLM Observability de Datadog para buscar, filtrar y analizar las trazas y los tramos generados por tus aplicaciones LLM. La [documentación sobre consultas][1] explica cómo hacerlo: + +- Utiliza la barra de búsqueda para filtrar las trazas y los tramos por atributos como modelo, usuario o estado de error. +- Aplica filtros avanzados para centrarte en operaciones o plazos específicos de LLM. +- Visualiza e inspecciona detalles de trazas para solucionar problemas y optimizar tus flujos de trabajo LLM. + +Esto te permite identificar rápidamente los problemas, monitorizar el rendimiento y obtener información sobre el comportamiento de tu aplicación LLM en producción. + + +### Correlacionar APM y LLM Observability + +{{< img src="llm_observability/index/llm_apm_example_light.png" alt="Una traza en Datadog APM. La pestaña Overview (Información general) muestra una sección llamada LLM Observability, con un enlace para visualizar el tramo en LLM Observability, así como el texto de entrada y salida." style="width:100%">}} + +Para aplicaciones instrumentadas con Datadog APM, puedes [correlacionar APM y LLM Observability][2] a través del SDK. Correlacionar APM con LLM Observability proporciona visibilidad completa de extremo a extremo y análisis exhaustivos, desde problemas de aplicaciones hasta causas raíz específicas de LLM. + +### Mapa de clústeres + +{{< img src="llm_observability/index/llm_cluster_example.png" alt="Un mapa de clústeres de ejemplo qie muestra más de 1000 entradas de trazas, coloreadas por la métrica 'no hubo respuesta'. En el mapa se ve un estado de punto suspendido, que muestra una clasificación de la traza como 'Opciones económicas', así como texto de entrada y salida y un enlace para ver más detalles." style="width:100%">}} + +El [mapa de clústeres][3] proporciona información general de cómo se agrupan y relacionan las solicitudes de tu aplicación LLM. Te ayuda a identificar patrones, grupos de actividad similar y outliers en trazas LLM, lo que facilita la investigación de problemas y optimiza el rendimiento. + +### Monitorizar tus sistemas agénticos + +Aprende cómo monitorizar aplicaciones LLM agénticas que utilizan múltiples herramientas o cadenas de razonamiento con [Agent Monitoring][4] de Datadog. Esta característica te ayuda a realizar un seguimiento de las acciones de los agentes, el uso de herramientas y los pasos de razonamiento, proporcionándote una visibilidad de complejos flujos de trabajo LLM y permitiéndote solucionar problemas y optimizar los sistemas agénticos de manera efectiva. Consulta la [documentación de Agent Monitoring][4] para ver más detalles. + + +[1]: /es/llm_observability/monitoring/querying +[2]: /es/llm_observability/monitoring/llm_observability_and_apm +[3]: /es/llm_observability/monitoring/cluster_map/ +[4]: /es/llm_observability/monitoring/agent_monitoring +[5]: /es/llm_observability/evaluations/ +[6]: https://app.datadoghq.com/dash/integration/llm_operational_insights?fromUser=false&refresh_mode=sliding&from_ts=1758905575629&to_ts=1758909175629&live=true \ No newline at end of file diff --git a/content/es/logs/explorer/search_syntax.md b/content/es/logs/explorer/search_syntax.md index ae5ac07dfb20b..a91250504b295 100644 --- a/content/es/logs/explorer/search_syntax.md +++ b/content/es/logs/explorer/search_syntax.md @@ -4,18 +4,24 @@ aliases: - /es/logs/search_syntax/ description: Busca a través de todos tus logs. further_reading: +- link: /getting_started/search/ + tag: Documentación + text: Introducción a la búsqueda en Datadog - link: /logs/explorer/#visualize tag: Documentación text: Aprende a visualizar logs - link: /logs/explorer/#patterns tag: Documentación - text: Detecta patrones dentro de tus logs + text: Detecta patrones en tus logs - link: /logs/log_configuration/processors tag: Documentación - text: Aprende a procesar tus logs + text: Aprender a procesar tus logs - link: /logs/explorer/saved_views/ tag: Documentación - text: Información sobre las vistas guardadas + text: Más información sobre las vistas guardadas +- link: /logs/explorer/calculated_fields/expression_language + tag: Documentación + text: Más información sobre el lenguaje de expresión de campos calculados title: Sintaxis de búsqueda de logs --- @@ -25,62 +31,55 @@ Un filtro de consulta se compone de términos y operadores. Existen dos tipos de términos: -* Un **término único** es una sola palabra, como `test` o `hello`. +* Un **término único** es una sola palabra como `test` o `hello`. -* Una **secuencia** es un grupo de palabras delimitadas por comillas dobles, como `"hello dolly"`. +* Una **secuencia** es un grupo de palabras rodeadas de comillas dobles, como `"hello dolly"`. Para combinar varios términos en una consulta compleja, puedes utilizar cualquiera de los siguientes operadores booleanos que distinguen entre mayúsculas y minúsculas: | | | | |--------------|--------------------------------------------------------------------------------------------------------|------------------------------| | **Operador** | **Descripción** | **Ejemplo** | -| `AND` | **Intersección**: ambos términos están en los eventos seleccionados (si no se añade nada, se toma AND por defecto). | autenticación AND error | -| `OR` | **Unión**: cualquiera de los dos términos está en los eventos seleccionados. | autenticación OR contraseña | -| `-` | **Exclusión**: el término siguiente NO figura en el evento (se aplica a cada búsqueda individual de texto sin formato). | autenticación AND -contraseña | +| `AND` | **Intersección**: ambos términos están en los eventos seleccionados (si no se añade nada, se toma AND por defecto). | autenticación Y fallo | +| `OR` | **Unión**: cualquiera de los dos términos está en los eventos seleccionados. | autenticación O contraseña | +| `-` | **Exclusión**: el siguiente término NO figura en el evento (se aplica a cada búsqueda de texto sin formato individual). | autenticación Y contraseña | ## Búsqueda de texto completo -
La función de búsqueda de texto completo solo está disponible en Log Management y funciona en las consultas de monitor, dashboard y notebook. La sintaxis de búsqueda de texto completo no puede utilizarse para definir filtros de índice, filtros de archivo, filtros de pipeline de log ni en Live Tail.
+
La función de búsqueda de texto completo solo está disponible en Log Management y funciona en las consultas de monitor, dashboard y notebook. La sintaxis de búsqueda de texto completo no puede utilizarse para definir filtros de índice, filtros de archivo, filtros de pipeline de log, filtros de rehidratación ni en Live tail.
Utiliza la sintaxis `*:search_term` para realizar una búsqueda de texto completo en todos los atributos de log, incluido el mensaje de log. ### Ejemplo de término único -| Sintaxis de búsqueda | Tipo de búsqueda | Descripción | -| ------------- | ----------- | ----------------------------------------------------- | -| `*:hello` | Texto completo | Busca todos los atributos de log para el término `hello`. | -| `hello` | Texto libre | Busca solo en el mensaje de log el término `hello`. | +| Sintaxis de búsqueda | Tipo de búsqueda | Descripción | +| ------------- | ----------- | --------------------------------------------------------- | +| `*:hello` | Texto completo | Busca en todos los atributos de log la cadena exacta `hello`. | +| `hello` | Texto libre | Busca la cadena exacta `hello` solo en los atributos `message`, `@title`, `@error.message` y `@error.stack`. | ### Ejemplo de término de búsqueda con comodín -| Sintaxis de búsqueda | Tipo de búsqueda | Descripción | -| ------------- | ----------- | -------------------------------------------------------------------------------------------- | -| `*:hello` | Texto completo | Busca en todos los atributos de log la cadena exacta `hello`. | -| `*:hello*`| Texto completo | Busca en todos los atributos de log cadenas que empiecen por `hello`. Por ejemplo, `hello_world`.| +| Sintaxis de búsqueda | Tipo de búsqueda | Descripción | +| ------------- | ----------- | ------------------------------------------------------------------------------------------- | +| `*:hello` | Texto completo | Busca en todos los atributos de log la cadena exacta `hello`. | +| `*:hello*` | Texto completo | Busca en todos los atributos de log las cadenas que empiecen por `hello`. Por ejemplo, `hello_world`. | ### Ejemplo de términos múltiples con coincidencia exacta -| Sintaxis de búsqueda | Tipo de búsqueda | Descripción | -| ------------------- | ----------- |------------------------------------------------------- | -| `*:"hello world"` | Texto completo | Busca todos los atributos de log para el término `hello world`. | -| `hello world` | Texto libre | Busca solo en el mensaje de log el término `hello`. | - -### Ejemplo de términos múltiples sin coincidencia exacta - -La sintaxis de búsqueda de texto completo `*:hello world` es equivalente a `*:hello *:world`. Busca en todos los atributos de log los términos `hello` y `world`. - -### Ejemplo de términos múltiples con un espacio en blanco - -La sintaxis de búsqueda de texto completo `*:"hello world" "i am here"` es equivalente a `*:"hello world" *:"i am here"`. Busca en todos los atributos de log los términos `hello world` y `i am here`. +| Sintaxis de búsqueda | Tipo de búsqueda | Descripción | +| ------------------- | ----------- |--------------------------------------------------------------------------------------------------- | +| `*:"hello world"` | Texto completo | Busca en todos los atributos de log la cadena exacta `hello world`. | +| `hello world` | Texto libre | Busca sólo en el mensaje de log las palabras `hello` y `world`. Por ejemplo `hello beautiful world`. | ## Caracteres especiales de escape y espacios -Los siguientes caracteres, que se consideran especiales: `+` `-` `=` `&&` `||` `>` `<` `!` `(` `)` `{` `}` `[` `]` `^` `"` `“` `”` `~` `*` `?` `:` `\` `#` y los espacios que requieren ser de escape con el carácter `\`. -`/` no se considera un carácter especial y no necesita ser de escape. +Los siguientes caracteres se consideran especiales y deben escaparse con el carácter `\`: `-` `!` `&&` `||` `>` `>=` `<` `<=` `(` `)` `{` `}` `[` `]` `"` `*` `?` `:` `\` `#` y espacios. +- `/` no se considera un carácter especial y no necesita escape. +- `@` no puede utilizarse en las consultas de búsqueda dentro del Log Explorer porque está reservado para la [búsqueda de atributos](#attributes-search). No se pueden buscar caracteres especiales en un mensaje de log. Puedes buscar caracteres especiales cuando están dentro de un atributo. -Para buscar caracteres especiales, analízalos en un atributo con el [Analizador Grok][1], y busca los logs que contengan ese atributo. +Para buscar caracteres especiales, analízalos en un atributo con el [Analizador Grok][1] y busca los logs que contengan ese atributo. ## Búsqueda de atributos @@ -102,7 +101,7 @@ Por ejemplo, si el nombre de tu atributo es **url** y quieres filtrar por el val 3. La búsqueda de un valor de atributo que contenga caracteres especiales requiere un carácter de escape o comillas dobles. - Por ejemplo, para un atributo `my_attribute` con el valor `hello:world`, busca utilizando: `@my_attribute:hello\:world` o `@my_attribute:"hello:world"`. - - Para que coincida con un único carácter especial o espacio, utiliza el comodín `?`. Por ejemplo, para un atributo `my_attribute` con el valor `hello world`, busca utilizando: `@my_attribute:hello?world`. + - Para buscar una coincidencia con un único carácter especial o espacio, utiliza el comodín `?`. Por ejemplo, para un atributo `my_attribute` con los valores `hello world`, realiza la búsqueda utilizando: `@my_attribute:hello?world`. Ejemplos: @@ -134,11 +133,11 @@ Puedes utilizar comodines con la búsqueda de texto libre. Sin embargo, solo bus Para realizar una búsqueda de comodín de varios caracteres en el mensaje de log (la columna `content` en Log Explorer), utiliza el símbolo `*` como se indica a continuación: -* `service:web*` coincide con cada mensaje de log que tenga un servicio que empiece por `web`. +* `service:web*` coincide con cada mensaje de log que tenga un servicio que empiece con `web`. * `web*` coincide con todos los mensajes de log que empiecen con `web`. * `*web` coincide con todos los mensajes de log que terminan con `web`. -**Nota**: Los comodines solo funcionan fuera de las comillas dobles. Por ejemplo, `"*test*"` coincide con un log que tenga la cadena `*test*` en su mensaje. `*test*` coincide con un log que tenga la test de cadena en cualquier parte de su mensaje. +**Nota**: Los comodines solo funcionan fuera de las comillas dobles. Por ejemplo, `"*test*"` coincide con un log que tenga la cadena `*test*` en su mensaje. `*test*` coincide con un log que tenga el test de cadena en cualquier parte de su mensaje. Las búsquedas con comodines funcionan dentro de etiquetas y atributos (con o sin facetas) con esta sintaxis. Esta consulta devuelve todos los servicios que terminan con la cadena `mongo`:

@@ -163,7 +162,7 @@ Cuando busques un valor de atributo o etiqueta que contenga caracteres especiale ## Valores numéricos -Para buscar en un atributo numérico, primero [añádelo como faceta][2]. A continuación, puedes utilizar operadores numéricos (`<`,`>`, `<=`, o `>=`) para realizar una búsqueda sobre facetas numéricas. +Para buscar en un atributo numérico, primero [añádelo como faceta][2]. A continuación, puedes utilizar operadores numéricos (`<`,`>`, `<=` o `>=`) para realizar una búsqueda sobre facetas numéricas. Por ejemplo, recupera todos los logs que tengan un tiempo de respuesta superior a 100ms con:

@@ -204,11 +203,17 @@ En el siguiente ejemplo, los logs de CloudWatch para Windows contienen una matri {{< img src="logs/explorer/search/facetless_query_json_arrray2.png" alt="Consulta sin facetas en una matriz de objetos JSON" style="width:80%;">}}

+## Campos calculados + +Los campos calculados función como atributos de log y pueden utilizarse para la búsqueda, agregación, visualización y definición de otros campos calculados. Utiliza el prefijo `#` cuando hagas referencia a nombres de campos calculados. + +{{< img src="logs/explorer/calculated_fields/calculated_field.png" alt="Un campo calculado llamado request_duration que se utiliza para filtrar resultados en el Log Explorer" style="width:100%;" >}} + ## Búsquedas guardadas Las [Vistas guardadas][6] contienen tu consulta de búsqueda, columnas, horizonte temporal y faceta. -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/logs/guide/forwarder.md b/content/es/logs/guide/forwarder.md index 1b9978fcfb271..a002be874e060 100644 --- a/content/es/logs/guide/forwarder.md +++ b/content/es/logs/guide/forwarder.md @@ -24,6 +24,8 @@ Para obtener más información sobre el envío de logs de servicios AWS con el D Datadog recomienda utilizar [CloudFormation](#cloudformation) para instalar automáticamente el Forwarder. También puedes completar el proceso de configuración utilizando [Terraform](#terraform) o [manualmente](#manually). Una vez instalado, puedes asignar fuentes de logs al Forwarder, como buckets S3 o grupos de logs CloudWatch [setting up triggers][4]. +**Nota**: Forwarder v4.1.0+ no es compatible con la arquitectura x86_64. Si utilizas x86_64, debes migrar a ARM64 para poder utilizar Datadog Forwarder. + {{< tabs >}} {{% tab "CloudFormation" %}} @@ -50,60 +52,30 @@ Si ya habías habilitado tu integración AWS utilizando la [siguiente plantilla ### Terraform -Instala el Forwarder utilizando el recurso Terraform [`aws_cloudformation_stack`][101] como encapsulador, además de la plantilla de CloudFormation proporcionada. - -Datadog recomienda crear configuraciones de Terraform separadas: - -- Utiliza la primera para almacenar la [clave de API de Datadog][102] en el AWS Secrets Manager y anota el ARN de secretos de la salida de aplicación -- A continuación, crea una configuración para el Forwarder y proporciona el ARN de secretos a través del parámetro `DdApiKeySecretArn`. -- Por último, crea una configuración para [configurar los activadores en el Forwarder][103]. - -Al separar las configuraciones de la clave de API y del Forwarder, no es necesario proporcionar la clave de API de Datadog al actualizar el Forwarder. Para actualizar o mejorar el Forwarder en el futuro, vuelve a aplicar la configuración del Forwarder. +Instala el Forwarder utilizando el módulo de Datadog Terraform público disponible en [https://registry.terraform.io/modules/DataDog/log-lambda-forwarder-datadog/aws/latest][201]. Una vez desplegada la función Lambda, [configura activadores en el Forwarder][202]. #### Ejemplo de configuración ```tf +module "datadog_forwarder" { + source = "DataDog/log-lambda-forwarder-datadog/aws" + version = "~> 1.0" -variable "dd_api_key" { - type = string - description = "Datadog API key" -} - -resource "aws_secretsmanager_secret" "dd_api_key" { - name = "datadog_api_key" - description = "Encrypted Datadog API Key" -} - -resource "aws_secretsmanager_secret_version" "dd_api_key" { - secret_id = aws_secretsmanager_secret.dd_api_key.id - secret_string = var.dd_api_key -} - -output "dd_api_key" { - value = aws_secretsmanager_secret.dd_api_key.arn + dd_api_key = var.dd_api_key + dd_site = var.dd_site } ``` -```tf -# Use the Datadog Forwarder to ship logs from S3 and CloudWatch, as well as observability data from Lambda functions to Datadog. For more information, see https://github.com/DataDog/datadog-serverless-functions/tree/master/aws/logs_monitoring -resource "aws_cloudformation_stack" "datadog_forwarder" { - name = "datadog-forwarder" - capabilities = ["CAPABILITY_IAM", "CAPABILITY_NAMED_IAM", "CAPABILITY_AUTO_EXPAND"] - parameters = { - DdApiKeySecretArn = "REPLACE WITH DATADOG SECRETS ARN", - DdSite = "REPLACE WITH DATADOG SITE", - FunctionName = "datadog-forwarder" - } - template_url = "https://datadog-cloudformation-template.s3.amazonaws.com/aws/forwarder/latest.yaml" -} -``` +**Nota**: Asegúrate de que el parámetro `dd_site` coincide con tu [sitio de Datadog][203]. Selecciona tu sitio en la parte derecha de este página. Tu sitio de Datadog es {{< region-param key="dd_site" code="true" >}}. +Encontrarás tu [clave de API de Datadog][204] para `dd_api_key` en **Organization Settings** > **API Keys** (Configuración de la organización > Claves de API). -**Nota**: Asegúrate de que el parámetro `DdSite` coincide con tu [sitio Datadog][104]. Selecciona tu sitio en la parte derecha de esta página. Sustituye `` en el ejemplo de configuración anterior por {{< region-param key="dd_site" code="true" >}}. +Para todas las opciones de configuración y detalles, incluyendo [Despliegue multiregión][205], consulta la [documentación del módulo][201]. -[101]: https://www.terraform.io/docs/providers/aws/r/cloudformation_stack -[102]: https://app.datadoghq.com/organization-settings/api-keys -[103]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#set-up-triggers -[104]: https://docs.datadoghq.com/es/getting_started/site/#access-the-datadog-site +[201]: https://registry.terraform.io/modules/DataDog/log-lambda-forwarder-datadog/aws/latest +[202]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#set-up-triggers +[203]: https://docs.datadoghq.com/es/getting_started/site/#access-the-datadog-site +[204]: https://app.datadoghq.com/organization-settings/api-keys +[205]: https://registry.terraform.io/modules/DataDog/log-lambda-forwarder-datadog/aws/latest#multi-region-deployments {{% /tab %}} {{% tab "Manual" %}} @@ -112,7 +84,7 @@ resource "aws_cloudformation_stack" "datadog_forwarder" { Si no puedes instalar el Forwarder utilizando la plantilla de CloudFormation proporcionada, puedes instalarlo manualmente siguiendo los pasos que se indican a continuación. No dudes en abrir una incidencia o en crear una solicitud de extracción para hacernos saber si hay algo que podríamos mejorar para que la plantilla funcione. -1. Crea una función Lambda de Python 3.12 utilizando `aws-dd-forwarder-.zip` de las últimas [versiones][101]. +1. Crea una función Lambda de Python 3.13 utilizando `aws-dd-forwarder-.zip` de las últimas [versiones][101]. 2. Guarda tu [clave de API de Datadog][102] en AWS Secrets Manager, configura la variable de entorno `DD_API_KEY_SECRET_ARN` con el ARN de secretos en la función Lambda y añade el permiso `secretsmanager:GetSecretValue` al rol de ejecución Lambda. 3. Si necesitas reenviar logs desde buckets S3, añade el permiso `s3:GetObject` al rol de ejecución Lambda. 4. Configura la variable de entorno `DD_ENHANCED_METRICS` como `false` en el Forwarder. Esto evita que el Forwarder genere métricas mejoradas por sí mismo, aunque seguirá reenviando métricas personalizadas desde otras lambdas.DdFetchLambdaTags. @@ -125,8 +97,8 @@ Si no puedes instalar el Forwarder utilizando la plantilla de CloudFormation pro aws lambda invoke --function-name --payload '{"retry":"true"}' out ``` -
-Las variables de entorno proporcionadas en esta página tienen un formato para CloudFormation y Terraform. Si estás instalando el Forwarder manualmente, convierte estos nombres de parámetros de PascalCase a Screaming Snake Case. Por ejemplo, DdApiKey se convierte en DD_API_KEY, y ExcludeAtMatch se convierte en EXCLUDE_AT_MATCH. +
+Las variables de entorno proporcionadas en esta página están formateadas para CloudFormation. Si estás instalando el Forwarder manualmente, convierte estos nombres de parámetros de caso Pascal a un caso screaming snake. Por ejemplo, DdApiKey se convierte en DD_API_KEY, y ExcludeAtMatch se convierte en EXCLUDE_AT_MATCH.
[101]: https://github.com/DataDog/datadog-serverless-functions/releases @@ -145,8 +117,11 @@ Las variables de entorno proporcionadas en Si tienes problemas para actualizar a la última versión, consulta la sección Solucionar problemas. -### Actualizar una versión anterior a v4.3.0 o posterior -A partir de la versión 4.3.0, el Forwarder Lambda admitirá una única versión de Python. La versión de Python admitida en esta versión es la v3.12. +### Actualizar una versión anterior a 4.13.0+ +A partir de la versión 4.13.0+, la función Lambda se ha actualizado para requerir **Python 3.13**. Si actualizas una instalación de forwarder anterior a 4.13.0+, asegúrate de que la función de AWS Lambda está configurada para utilizar Python 3.13. + +### Actualizar una versión anterior a 4.3.0+ +A partir de la versión 4.3.0 el Lambda forwarder admitirá una única versión de python. La versión de Python admitida en esta versión es la 3.12. ### Actualizar una versión anterior a v4.0.0 A partir de la versión 4.0.0, la lógica de identificación de `source`, `service` y `host` se extraerá del código del Forwarder Lambda y se instalará directamente en el backend de Datadog. La primera fuente de logs migrada es `RDS`. @@ -286,7 +261,7 @@ Nos encantan las solicitudes de extracción. Aquí tienes una guía rápida. Si necesitas enviar logs a varias organizaciones Datadog u otros destinos, configura el parámetro `AdditionalTargetLambdaArns` de CloudFormation para que el Datadog Forwarder copie los logs entrantes en las funciones Lambda especificadas. Estas funciones Lambda adicionales se llaman de forma asíncrona con exactamente el mismo `event` que recibe el Datadog Forwarder. -
+ @@ -299,7 +274,7 @@ Puedes ejecutar el Forwarder en una subred privada de VPC y enviar datos a Datad 3. Al instalar el Forwarder con la plantilla de CloudFormation: 1. Configurar `DdUseVPC` como `true`. 2. Configura `VPCSecurityGroupIds` y `VPCSubnetIds` en función de la configuración de tu VPC. - 3. Configura `DdFetchLambdaTags` como `false`, ya que la API de etiquetado de AWS Resource Groups no admite PrivateLink. + 3. Establece `DdFetchLambdaTags`, `DdFetchStepFunctionsTags` y `DdFetchS3Tags` en `false`, porque la API de etiquetado de grupos de recursos de AWS no admite PrivateLink. #### DdUsePrivateLink está obsoleto @@ -320,7 +295,7 @@ Si necesitas desplegar el Forwarder en una VPC sin acceso público directo a Int 1. A menos que el Forwarder esté desplegado en una subred pública, sigue las [instrucciones][15] para añadir endpoints para Secrets Manager y S3 a la VPC, de modo que el Forwarder pueda acceder a esos servicios. 2. Actualiza tu proxy con las siguientes configuraciones ([HAproxy][17] o [NGINX][18]). Si estás utilizando otro proxy o proxy web, autoriza el dominio Datadog, por ejemplo: `.{{< region-param key="dd_site" code="true" >}}`. 3. Al instalar el Forwarder con la plantilla de CloudFormation, configura `DdUseVPC`, `VPCSecurityGroupIds` y `VPCSubnetIds`. -4. Asegúrate de que la opción `DdFetchLambdaTags` está deshabilitada, ya que la VPC de AWS aún no ofrece un endpoint para la API de etiquetado de AWS Resource Groups. +4. Asegúrate de que las opciones `DdFetchLambdaTags`, `DdFetchStepFunctionsTags` y `DdFetchS3Tags` están desactivadas, ya que AWS VPC aún no ofrece un endpoint para la API de etiquetado de grupos de recursos. 5. Si utilizas HAproxy o NGINX: - Configura `DdApiUrl` como `http://:3834` o `https://:3834`. @@ -338,11 +313,10 @@ En cambio, si utilizas el proxy web: El Datadog Forwarder está firmado por Datadog. Para verificar la integridad del Forwarder, utiliza el método de instalación manual. [Crea una configuración para la firma de códigos][19] que incluya el ARN del perfil de firma de Datadog (`arn:aws:signer:us-east-1:464622532012:/signing-profiles/DatadogLambdaSigningProfile/9vMI9ZAGLc`) y asócialo a la función Lambda del Forwarder antes de cargar el archivo ZIP del Forwarder. -## Parámetros de CloudFormation +## Parámetros -
-Los siguientes parámetros se utilizan en CloudFormation y Terraform. Si estás instalando el Forwarder manualmente, convierte estos nombres de parámetros de PascalCase a Screaming Snake Case. Por ejemplo, DdApiKey se convierte en DD_API_KEY, y ExcludeAtMatch se convierte en EXCLUDE_AT_MATCH. -
+{{< tabs >}} +{{% tab "CloudFormation" %}} ### Obligatorio @@ -451,8 +425,11 @@ Para probar diferentes patrones en tus logs, activa la [limpieza de logs](#troub `DdFetchStepFunctionsTags` : Permite que Forwarder recupere tags de funciones Step mediante llamadas a la API GetResources y las aplique a logs y trazas (si está habilitado el rastreo de funciones Step). Si se configura como true (verdadero), el permiso `tag:GetResources` se añadirá automáticamente al rol IAM de ejecución de Lambda. -`DdStepFunctionTraceEnabled` -: Establécelo como verdadero para habilitar el seguimiento de todas las etiquetas de Step Functions. +`DdFetchS3Tags` +: Permite que el forwarder recupere etiquetas de S3 mediante llamadas a la API GetResources y las aplique a logs y trazas. Si se establece en true, el permiso `tag:GetResources` se añadirá automáticamente al rol de IAM de ejecución de Lambda. + +`DdStepFunctionsTraceEnabled` +: Establécelo como true para activar el rastreo de todas Step Functions. `SourceZipUrl` : No lo cambies a menos que sepas lo que estás haciendo. Sustituye la localización predeterminada del código fuente de la función. @@ -484,6 +461,180 @@ Para probar diferentes patrones en tus logs, activa la [limpieza de logs](#troub `LayerARN` : ARN de la capa que contiene el código del Forwarder. Si está vacío, el script utilizará la versión de la capa con la que se ha publicado el Forwarder. Por defecto está vacío. + +[20]: https://app.datadoghq.com/organization-settings/api-keys +[13]: https://docs.datadoghq.com/es/getting_started/site/ +[21]: https://docs.datadoghq.com/es/logs/processing/pipelines/ +[2]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/ +{{% /tab %}} +{{% tab "Terraform" %}} + +### Obligatorio + +`dd_api_key` +: Tu [clave de API de Datadog][204], que puedes encontrar en **Organization Settings** > **API Keys** (Configuración de la organización > Claves de API). La clave de API se almacena en AWS Secrets Manager. Si ya tienes una clave de API de Datadog almacenada en el Secret Manager, utiliza `dd_api_key_secret_arn` en su lugar. + +`dd_site` +: El [sitio Datadog][203] al que se enviarán tus métricas y logs. Tu sitio de Datadog es {{< region-param key="dd_site" code="true" >}}. + +Para todas las opciones de configuración y detalles, incluyendo [Despliegue multiregión][205], consulta la [documentación del módulo][201]. + +[201]: https://registry.terraform.io/modules/DataDog/log-lambda-forwarder-datadog/aws/latest +[203]: https://docs.datadoghq.com/es/getting_started/site/#access-the-datadog-site +[204]: https://app.datadoghq.com/organization-settings/api-keys +[205]: https://registry.terraform.io/modules/DataDog/log-lambda-forwarder-datadog/aws/latest#multi-region-deployments +{{% /tab %}} +{{% tab "Manual" %}} + +Si estás instalando el Forwarder manualmente, convierte los nombres de los parámetros de caso Pascal a un caso screaming snake. + +### Obligatorio + +`DD_API_KEY` +: Tu [clave de API de Datadog][20], que puedes encontrar en **Organization Settings** > **API Keys** (Configuración de la organización > Claves de API). La clave de API se almacena en AWS Secrets Manager. Si ya tienes una clave de API de Datadog almacenada en el Secrets Manager, utiliza `DD_API_KEY_SECRET_ARN` en su lugar. + +`DD_API_KEY_SECRET_ARN` +: el ARN del secreto que almacena la clave de la API de Datadog, si ya la tienes almacenada en el Secrets Manager. Debes almacenar el secreto como texto sin formato, en lugar de como un par clave-valor. + +`DD_SITE` +: El [sitio de Datadog][13] al que se enviarán tus métricas y logs. Tu sitio de Datadog es {{< region-param key="dd_site" code="true" >}}. + +### Función Lambda (opcional) + +`FUNCTION_NAME` +: El nombre de la función Lambda del Datadog Forwarder. No cambies esto cuando actualices un stack tecnológico de CloudFormation existente, de lo contrario se sustituirá la función del forwarder actual y se perderán todos los activadores. + +`MEMORY_SIZE` +: Tamaño de memoria para la función Lambda del Datadog Forwarder. + +`TIMEOUT` +: Tiempo de espera para la función Lambda del Datadog Forwarder. + +`RESERVED_CONCURRENCY` +: Concurrencia reservada para la función Lambda del Datadog Forwarder. Si está vacío, utiliza la concurrencia no reservada de la cuenta. +Datadog recomienda utilizar al menos 10 de concurrencia reservada, pero este valor predeterminado es 0, ya que puede que necesites aumentar tus límites. Si utilizas concurrencia de cuenta no reservada, puedes limitar otras funciones Lambda en tu entorno. + +`LOG_RETENTION_IN_DAYS` +: retención de logs de CloudWatch para logs generada por la función Lambda de Datadog Forwarder. + +### Reenvío de logs (opcional) + +`DD_TAGS` +: Añade etiquetas personalizadas a los logs reenviados, cadena delimitada por comas, sin coma final, como `env:prod,stack:classic`. + +`DD_MULTILINE_LOG_REGEX_PATTERN` +: Utiliza la expresión regular suministrada para detectar una nueva línea de log para logs multilíneas de S3, como `\d{2}\/\d{2}\/\d{4}` para logs multilíneas que comienzan con el patrón "11/10/2014". + +`DD_USE_TCP` +: Por defecto, el forwarder envía logs utilizando HTTPS a través del puerto 443. Para enviar logs a través de una +conexión TCP con cifrado SSL, establece este parámetro en true. + +`DD_NO_SSL` +: Desactivar SSL al reenviar logs, poner en true al reenviar logs a través de un proxy. + +`DD_URL` +: La URL del endpoint al que reenviar los logs, útil para reenviar logs a través de un proxy. + +`DD_PORT` +: El puerto del endpointal que reenviar los logs, útil para reenviar logs a través de un proxy. + +`DD_SKIP_SSL_VALIDATION` +: Enviar logs a través de HTTPS, sin validar el certificado proporcionado por el endpoint. Esto seguirá cifrando el tráfico entre el forwarder y el endpoint de entrada de log, pero no verificará si el certificado SSL de destino es válido. + +`DD_USE_COMPRESSION` +: Establécelo en false para desactivar la compresión de log. Solo es válido al enviar logs a través de HTTP. + +`DD_COMPRESSION_LEVEL` +: Ajusta el nivel de compresión de 0 (sin compresión) a 9 (mejor compresión). El nivel de compresión por defecto es 6. Si aumentas el nivel de compresión, es posible que se reduzca el tráfico de salida de la red, a expensas de que aumente la duración de ejecución del forwarder. + +`DD_FORWARD_LOG` +: Establécelo en false para desactivar el reenvío de log, mientras se siguen reenviando otros datos de observabilidad, como métricas y trazas de funciones Lambda. + +### Limpieza de logs (opcional) + +`REDACT_IP` +: Sustituye el texto que coincida con `\d{1,3}\.\d{1,3}\.\d{1,3}\.\d{1,3}` por `xxx.xxx.xxx.xxx`. + +`REDACT_EMAIL` +: Sustituye el texto que coincida con `[a-zA-Z0-9_.+-]+@[a-zA-Z0-9-]+\.[a-zA-Z0-9-.]+` por `xxxxx@xxxxx.com`. + +`DD_SCRUBBING_RULE` +: Sustituye el texto que coincida con la expresión regular suministrada por `xxxxx` (por defecto) o `DD_SCRUBBING_RULE_REPLACEMENT` (si se suministra). La regla de depuración de log se aplica a todo el log con formato JSON, incluidos los metadatos añadidos automáticamente por la función Lambda. Cada instancia de una coincidencia de patrón se sustituye hasta que no se encuentran más coincidencias en cada log. El uso de expresiones regulares ineficientes, como `.*`, puede ralentizar la función Lambda. + +`DD_SCRUBBING_RULE_REPLACEMENT` +: Sustituye el texto que coincida con DD_SCRUBBING_RULE por el texto suministrado. + +### Filtrado de logs (opcional) + +`EXCLUDE_AT_MATCH` +: No envíes logs que coincidan con la expresión regular suministrada. Si un log coincide tanto con `EXCLUDE_AT_MATCH` como con `INCLUDE_AT_MATCH`, se excluye. + +`INCLUDE_AT_MATCH` +: Solo envía logs que coincidan con la expresión regular suministrada, y no excluidos por `EXCLUDE_AT_MATCH`. + +Las reglas de filtrado se aplican a todo el log con formato JSON, incluidos los metadatos que el Forwarder. añade automáticamente Sin embargo, las transformaciones aplicadas por [pipelines de logs][21], que se producen después del envío de logs a Datadog, no pueden utilizarse para filtrar logs en el Forwarder. El uso de una expresión regular ineficaz, como `.*`, puede ralentizar el Forwarder. + +Los siguientes son algunos ejemplos de expresiones regulares que pueden utilizarse para el filtrado de logs: + +- Incluye (o excluye) logs de la plataforma Lambda: `"(START|END) RequestId:\s`. El precedente `"` es necesario para que coincida con el inicio del mensaje del log, que está en un blob JSON (`{"message": "START RequestId...."}`). Datadog recomienda conservar los logs de `REPORT`, ya que se utilizan para rellenar la lista de invocaciones en las vistas de funciones serverless. +- Incluye sólo mensajes de error de CloudTrail: `errorMessage`. +- Incluye sólo logs que contienen un código de error HTTP 4XX o 5XX: `\b[4|5][0-9][0-9]\b`. +- Incluye sólo logs de CloudWatch cuando el campo `message` contiene un par clave/valor JSON específico: `\"awsRegion\":\"us-east-1\"`. + - El campo de mensaje de un evento de log de CloudWatch se codifica como una cadena. Por ejemplo,`{"awsRegion": "us-east-1"}` se codifica como `{\"awsRegion\":\"us-east-1\"}`. Por lo tanto, el patrón que proporciones debe incluir `\` caracteres de escape, como en el siguiente ejemplo: `\"awsRegion\":\"us-east-1\"`. + +Para probar diferentes patrones en tus logs, activa la [limpieza de logs](#troubleshooting). + +### Avanzado (opcional) + +`DD_FETCH_LAMBDA_TAGS` +: Permite que el forwarder obtenga etiquetas Lambda mediante llamadas a la API GetResources y las aplique a logs, métricas y rastros. Si se establece en true, el permiso `tag:GetResources` se añadirá automáticamente al rol de IAM de ejecución de Lambda. + +`DD_FETCH_LOG_GROUP_TAGS` +: Permite que el forwarder obtenga etiquetas de grupo de log mediante ListTagsLogGroup y las aplique a logs, métricas y trazas. Si se establece en true, el permiso `logs:ListTagsForResource` se añadirá automáticamente al rol de IAM de ejecución de Lambda. + +`DD_FETCH_STEP_FUNCTIONS_TAGS` +: Permite que el Forwarder recupere etiquetas de Step Functions mediante llamadas a la API GetResources y las aplique a logs y trazas (si está habilitado el rastreo de Step Functions). Si se configura como true (verdadero), el permiso `tag:GetResources` se añadirá automáticamente al rol de IAM de ejecución de Lambda. + +`DD_STEP_FUNCTION_TRACE_ENABLED` +: Establécelo como true para activar el seguimiento de todas las Step Functions. + +`SOURCE_ZIP_URL` +: No lo cambies a menos que sepas lo que estás haciendo. Anula la ubicación predeterminada del código fuente de la función. + +`PERMISSIONS_BOUNDARY_ARN` +: ARN para la política de límites de permisos. + +`DD_USE_PRIVATE_LINK` (OBSOLETO) +: Establecer en true para permitir el envío de logs y métricas a través de AWS PrivateLink. Consulta [Conectarte a Datadog a través de AWS PrivateLink][2]. + +`DD_HTTP_PROXY_URL` +: Establece las variables de entorno estándar del proxy web HTTP_PROXY y HTTPS_PROXY. Estos son los endpoints de URL que expone tu servidor proxy. No utilices esto en combinación con AWS Private Link. Asegúrate también de establecer `DD_SKIP_SSL_VALIDATION` a true. + +`DD_NO_PROXY` +: Establece la variable de entorno del proxy web estándar `NO_PROXY`. Es una lista separada por comas de nombres de dominio que deben excluirse del proxy web. + +`VPC_SECURITY_GROUP_IDS` +: Lista separada por comas de IDs de grupos de seguridad de VPC. Se utiliza cuando AWS PrivateLink está activado. + +`VPC_SUBNET_IDS` +: Lista separada por comas de IDs de subred de VPC. Se utiliza cuando AWS PrivateLink está activado. + +`ADDITIONAL_TARGET_LAMBDA_ARNS` +: Lista separada por comas de ARNs de Lambda que se llamarán de forma asíncrona con el mismo `event` que recibe el Datadog Forwarder. + +`INSTALL_AS_LAYER` +: Si se utiliza el flujo de instalación basado en capas. Establécelo en false para utilizar el flujo de instalación heredado, que instala una segunda función que copia el código del forwarder desde GitHub a un bucket de S3. Por defecto es true. + +`LAYER_ARN` +: ARN de la capa que contiene el código del forwarder. Si está vacío, el script utilizará la versión de la capa con la que se publicó el forwarder. Por defecto está vacío. + +[20]: https://app.datadoghq.com/organization-settings/api-keys +[13]: https://docs.datadoghq.com/es/getting_started/site/ +[21]: https://docs.datadoghq.com/es/logs/processing/pipelines/ +[2]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/ +{{% /tab %}} +{{< /tabs >}} + ## Permisos Para desplegar el stack tecnológico de CloudFormation con las opciones predeterminadas, necesitas tener los permisos que se indican a continuación. Estos sirven para guardar tu clave de API Datadog como secreto, crear un bucket S3 para almacenar el código del Forwarder (archivo ZIP) y crear funciones Lambda (incluidos los roles de ejecución y los grupos de logs). @@ -589,7 +740,7 @@ El valor de la etiqueta `service` se determina en función de varias entradas. E 1. Etiquetas personalizadas de mensajes de logs: Si el mensaje de log tiene una clave `ddtags` que contiene un valor de etiqueta `service`, se utilizará para anular la etiqueta `service` en el evento de log. 2. Caché de etiquetas Lambda (aplicable sólo a logs de Lambda): La activación de `DdFetchLambdaTags` obtendrá y almacenará todas las etiquetas de las funciones Lambda y anulará la etiqueta `service` si no se configuró previamente o si se configuró con un valor predeterminado, es decir, el valor `source (fuente)`. 3. Caché de etiquetas de grupo de logs de Cloudwatch (aplicable sólo a logs de Cloudwatch): La activación `DdFetchLogGroupTags` obtendrá y almacenará todas las etiquetas de grupos de logs de Cloudwatch que se añadan a la entrada `ddtags` en el evento de log. Si el valor de la etiqueta `service` se configuró en el caché de etiquetas, se utilizará para configurar la etiqueta `service` para el evento de log. -4. Definir directamente un valor de etiqueta `service` en la var. de ENT. `ddtags` del Forwarder. +4. Establecer directamente un valor de etiqueta `service` en la variable de entorno `ddtags` del forwarder. 5. Valor por defecto igual a la etiqueta `source (fuente)`. diff --git a/content/es/logs/guide/how-to-set-up-only-logs.md b/content/es/logs/guide/how-to-set-up-only-logs.md index 900bde0eeb31a..99af650b11d3e 100644 --- a/content/es/logs/guide/how-to-set-up-only-logs.md +++ b/content/es/logs/guide/how-to-set-up-only-logs.md @@ -11,7 +11,7 @@ further_reading: title: Uso exclusivo del Datadog Agent para la recopilación de logs --- -
La Monitorización de la infraestructura es un requisito previo para usar APM. Si eres cliente de APM, no desactives la recopilación de métricas o podrías perder información importante de telemetría y recopilación de métricas.
+
La monitorización de la infraestructura es un requisito previo para utilizar APM. Si eres cliente de APM, no desactives la recopilación de métricas, ya que podrías perder información importante de telemetría y recopilación de métricas.
Para deshabilitar las cargas útiles, debes ejecutar la versión 6.4 o posterior del Agent. Esto deshabilita el envío de datos de métricas (incluidas las métricas personalizadas) para que los hosts dejen de aparecer en Datadog. Sigue estos pasos: diff --git a/content/es/logs/guide/setting-file-permissions-for-rotating-logs.md b/content/es/logs/guide/setting-file-permissions-for-rotating-logs.md index 73219fa13a8a6..0346f78d7f477 100644 --- a/content/es/logs/guide/setting-file-permissions-for-rotating-logs.md +++ b/content/es/logs/guide/setting-file-permissions-for-rotating-logs.md @@ -47,7 +47,7 @@ setfacl -m u:dd-agent:rx /var/log/apache ### Configuración de permisos para la rotación de archivos de logs -[Configurar los permisos][4] una vez no servirá para la rotación de logs, ya que logrotate no vuelve a aplicar la configuración de ACL. Para obtener una solución más permanente, añade una regla a logrotate para restablecer la ACL en un nuevo archivo: +Configurar los permisos una vez no persistirá para rotar logs, ya que logrotate no vuelve a aplicar la configuración ACL. Para una solución más permanente, añade una regla a logrotate para restablecer la ACL en un nuevo archivo: ```shell sudo touch /etc/logrotate.d/dd-agent_ACLs @@ -113,5 +113,4 @@ Cada aplicación existente seguirá una nomenclatura similar. La ventaja es que [1]: https://help.ubuntu.com/community/FilePermissionsACLs [2]: https://www.tecmint.com/secure-files-using-acls-in-linux -[3]: http://xmodulo.com/configure-access-control-lists-acls-linux.html -[4]: http://bencane.com/2012/05/27/acl-using-access-control-lists-on-linux \ No newline at end of file +[3]: http://xmodulo.com/configure-access-control-lists-acls-linux.html \ No newline at end of file diff --git a/content/es/logs/log_collection/csharp.md b/content/es/logs/log_collection/csharp.md index c6d5d5073058c..159dc7c59daf5 100644 --- a/content/es/logs/log_collection/csharp.md +++ b/content/es/logs/log_collection/csharp.md @@ -123,7 +123,7 @@ Para instalar NLog con NuGet, ejecuta el siguiente comando en la consola del adm PM> Install-Package NLog ``` -Una vez tengas la librería en tu classpath, adjunta el siguiente formato a cualquier destino. Edita o añade un archivo `NLog.config` a la ruta raíz del proyecto. Luego copia y pega el siguiente código en él (*los logs que se graban en el archivo `application-logs.json`*): +Una vez tengas la biblioteca en tu classpath, adjunta el siguiente formato a cualquier destino. Edita o añade un archivo `NLog.config` a la ruta raíz del proyecto. Luego copia y pega el siguiente código en él (*los logs que se graban en el archivo `application-logs.json`*): ```xml @@ -187,7 +187,7 @@ PM> Install-Package log4net PM> Install-Package log4net.Ext.Json ``` -Una vez instalada la librería, adjunta el siguiente formato a cualquier destino. Edita la `App.config` de tu proyecto y añade la siguiente sección: +Una vez instalada la biblioteca, adjunta el siguiente formato a cualquier destino. Edita la `App.config` de tu proyecto y añade la siguiente sección: ```xml @@ -313,7 +313,7 @@ Si tienes APM habilitado para esta aplicación, conecta tus logs y trazas al añ ## Registro de logs sin Agent con APM -Gracias a la librería de instrumentación automática de APM y .NET, es posible crear un flujo de logs desde tu aplicación directamente a Datadog, sin hacer cambios en el código. De esta forma, los logs se envían directamente a Datadog, por lo que no se beneficia de [funciones como la limpieza de datos confidenciales][10] que ofrece el Datadog Agent. Por esta razón, recomendamos que registres los logs en un archivo que puedas supervisar siempre que sea posible, aunque es cierto que resulta útil en entornos no compatibles con este método (por ejemplo, si usas [Azure App Service][11]). Cabe destacar que podrás seguir limpiando los datos confidenciales en el servidor con la ayuda de [Sensitive Data Scanner][12]. +Gracias a la biblioteca de instrumentación automática de APM y .NET, es posible crear un flujo de logs desde tu aplicación directamente a Datadog, sin hacer cambios en el código. De esta forma, los logs se envían directamente a Datadog, por lo que no se beneficia de [funciones como la limpieza de datos confidenciales][10] que ofrece el Datadog Agent. Por esta razón, recomendamos que registres los logs en un archivo que puedas supervisar siempre que sea posible, aunque es cierto que resulta útil en entornos no compatibles con este método (por ejemplo, si usas [Azure App Service][11]). Cabe destacar que podrás seguir limpiando los datos confidenciales en el servidor con la ayuda de [Sensitive Data Scanner][12]. El registro de logs sin Agent (también denominado «envío directo de logs») es compatible con los siguientes marcos: - Serilog (versión 1.0 o posterior) @@ -324,11 +324,11 @@ El registro de logs sin Agent (también denominado «envío directo de logs») e No es necesario que modifiques el código de tu aplicación ni que instales dependencias adicionales.
- Nota: Si usas log4net o NLog, debes configurar un adicionador (log4net) o un registrador (NLog) para poder habilitar el registro de logs sin Agent. En esos casos, puedes añadir dependencias adicionales o usar el registro de logs sin Agent con el receptor Serilog. + Nota: Si utilizas log4net o NLog, un anexador (log4net) o un registrador (NLog) deben estar configurados para que el registro sin Agent esté habilitado. En estos casos, pueded añadir estas dependencias adicionales, o utilizar el registro sin agent con el sink de Serilog en su lugar.
-### Configurar la librería de APM +### Configurar la biblioteca de APM El registro de logs sin Agent solo está disponible cuando se usa APM con la instrumentación automática. Para empezar, instrumenta tu aplicación según se describe en los siguientes documentos: @@ -350,16 +350,16 @@ Para habilitar el registro de logs sin Agent, define las siguientes variables de **Predeterminado**: `datadoghq.com` (US1) `DD_LOGS_INJECTION` -: Habilita la [conexión de logs y trazas][9]:
-**Predeterminado**: `true`
-Habilitado de manera predeterminada al usar el registro de logs sin Agent a partir de la versión 2.7.0 del rastreador. +: permite [conectar logs y trazas][9]:
+**Por defecto**: `true`
+Activado por defecto desde la versión 3.24.0 de rastreador. `DD_LOGS_DIRECT_SUBMISSION_INTEGRATIONS` : Permite el registro de logs sin Agent. Habilita esta funcionalidad en tu marco de registro de logs al establecer `Serilog`, `NLog`, `Log4Net` o `ILogger` (para `Microsoft.Extensions.Logging`). Si usas varios marcos de registro de logs, usa una lista de variables separadas por punto y coma.
**Ejemplo**: `Serilog;Log4Net;NLog`
- Nota: Si usas un marco de registro de logs junto con Microsoft.Extensions.Logging, lo normal es que debas usar el nombre del marco. Por ejemplo, si usas Serilog.Extensions.Logging, deberías establecer DD_LOGS_DIRECT_SUBMISSION_INTEGRATIONS=Serilog. + Nota: Si estás utilizando un marco de registro en conjunto con Microsoft.Extensions.Logging, en general necesitarás el nombre de marco. Por ejemplo, si estás usando Serilog.Extensions.Logging, debes configurar DD_LOGS_DIRECT_SUBMISSION_INTEGRATIONS=Serilog.
Reinicia tu aplicación después de establecer las variables de entorno. @@ -455,7 +455,7 @@ Por lo general, los siguientes valores de configuración no se modifican, pero p : Define el tiempo de espera (en segundos) antes de comprobar si hay logs nuevos para enviar.
**Predeterminado**: `1` -Si usas la integración `Microsoft.Extensions.Logging`, puedes filtrar los logs enviados a Datadog con ayuda de las funcionalidades estándar integradas en `ILogger`. Usa la clave `"Datadog"` para identificar al proveedor de envío directo, y establece los niveles mínimos del log para un espacio de nombres. Por ejemplo, si añades lo siguiente a tu `appSettings.json`, evitarías que se envíen logs con un nivel inferior a `Warning` a Datadog. Disponible a partir de la versión 2.20.0 de la librería del rastreador de .NET. +Si usas la integración `Microsoft.Extensions.Logging`, puedes filtrar los logs enviados a Datadog con ayuda de las funcionalidades estándar integradas en `ILogger`. Usa la clave `"Datadog"` para identificar al proveedor de envío directo, y establece los niveles mínimos del log para un espacio de nombres. Por ejemplo, si añades lo siguiente a tu `appSettings.json`, evitarías que se envíen logs con un nivel inferior a `Warning` a Datadog. Disponible a partir de la versión 2.20.0 de la biblioteca del rastreador de .NET. ```json { @@ -571,4 +571,4 @@ Ahora los logs nuevos se envían directamente a Datadog. [17]: /es/logs/log_configuration/pipelines/?tab=source [18]: /es/api/latest/logs/#send-logs [19]: https://www.nuget.org/packages/Serilog.Sinks.Datadog.Logs -[20]: /es/glossary/#tail +[20]: /es/glossary/#tail \ No newline at end of file diff --git a/content/es/logs/log_collection/ios.md b/content/es/logs/log_collection/ios.md index 352ce6d03b490..5d054ce196f52 100644 --- a/content/es/logs/log_collection/ios.md +++ b/content/es/logs/log_collection/ios.md @@ -11,18 +11,18 @@ title: Recopilación de logs de iOS --- ## Información general -Envía logs a Datadog desde tus aplicaciones de iOS con [la librería de registro del cliente `dd-sdk-ios` de Datadog][1] y aprovecha las siguientes características: +Envía logs a Datadog desde tus aplicaciones de iOS con [la biblioteca de registro del cliente `dd-sdk-ios` de Datadog][1] y aprovecha las siguientes características: * Loguear en Datadog en formato JSON de forma nativa. * Utilizar los atributos predeterminados y añadir atributos personalizados a cada log enviado. * Registrar las direcciones IP reales de los clientes y los Agents de usuario. * Aprovechar el uso optimizado de red con publicaciones masivas automáticas. -La librería `dd-sdk-ios` es compatible con todas las versiones de iOS 11 o posteriores. +La biblioteca `dd-sdk-ios` es compatible con todas las versiones de iOS 11 o posteriores. ## Configuración -1. Declara la librería como una dependencia dependiente de tu gestor de paquete. Se recomienda el gestor de paquete Swift. +1. Declara la biblioteca como una dependencia dependiente de tu gestor de paquete. Se recomienda el gestor de paquete Swift. {{< tabs >}} {{% tab "Swift Package Manager (SPM)" %}} @@ -69,7 +69,7 @@ DatadogLogs.xcframework {{% /tab %}} {{< /tabs >}} -2. Inicializa la librería con el contexto de tu aplicación y tu [token de cliente de Datadog][2]. Por razones de seguridad, debes utilizar un token de cliente: no puedes utilizar [claves de API de Datadog][3] para configurar la librería `dd-sdk-ios`, ya que estarían expuestas del lado del cliente en el código de bytes IPA de la aplicación iOS. +2. Inicializa la biblioteca con el contexto de tu aplicación y tu [token de cliente de Datadog][2]. Por razones de seguridad, debes utilizar un token de cliente: no puedes utilizar [claves de API de Datadog][3] para configurar la biblioteca `dd-sdk-ios`, ya que estarían expuestas del lado del cliente en el código de bytes IPA de la aplicación iOS. Para obtener más información sobre cómo configurar un token de cliente, consulta la [documentación sobre el token de cliente][2]. @@ -349,7 +349,7 @@ El SDK cambia su comportamiento según el nuevo valor. Por ejemplo, si el consen Antes de que los datos se carguen en Datadog, se almacenan en texto claro en el directorio de caché (`Library/Caches`) de tu [entorno de prueba de aplicaciones][6]. El directorio de caché no puede ser leído por ninguna otra aplicación instalada en el dispositivo. -Al redactar tu aplicación, habilita los logs de desarrollo para loguear en consola todos los mensajes internos del SDK con una prioridad igual o superior al nivel proporcionado. +Al redactar tu aplicación, habilita los logs de desarrollo para registrar en consola todos los mensajes internos del SDK con una prioridad igual o superior al nivel proporcionado. {{< tabs >}} {{% tab "Swift" %}} @@ -500,7 +500,7 @@ Para más información, consulta [Empezando con etiquetas][5]. Por defecto, los siguientes atributos se añaden a todos los logs enviados por un registrador: -* `http.useragent` y sus propiedades extraídas `device` y `OS` +* `http.useragent` y sus propiedades extraídas `device` y `OS` * `network.client.ip` y sus propiedades geográficas extraídas (`country`, `city`) * `logger.version`, versión del SDK de Datadog * `logger.thread_name`(`main`, `background`) @@ -512,7 +512,7 @@ Utiliza el método `addAttribute(forKey:value:)` para añadir un atributo person {{< tabs >}} {{% tab "Swift" %}} ```swift -// Esto añade un atributo "device-model" con un valor de cadena +// This adds an attribute "device-model" with a string value for this logger instance. logger.addAttribute(forKey: "device-model", value: UIDevice.current.model) ``` {{% /tab %}} @@ -523,6 +523,22 @@ logger.addAttribute(forKey: "device-model", value: UIDevice.current.model) {{% /tab %}} {{< /tabs >}} +Los atributos pueden añadirse globalmente en todas las instancias de logs (por ejemplo: nombre del servicio, entorno) utilizando: + +{{< tabs >}} +{{% tab "Swift" %}} +```swift +// This adds an attribute "device-model" with a string value in all Logs instances. +Logs.addAttribute(forKey: "device-model", value: UIDevice.current.model) +``` +{{% /tab %}} +{{% tab "Objective-C" %}} +```objective-c +[Logs addAttributeForKey:@"device-model" value:UIDevice.currentDevice.model]; +``` +{{% /tab %}} +{{< /tabs >}} + `` puede ser cualquier elemento que se ajuste a `Encodable`, como `String`, `Date`, modelo de datos personalizado `Codable`, etc. ##### Eliminar atributos @@ -532,7 +548,7 @@ Utiliza el método `removeAttribute(forKey:)` para eliminar un atributo personal {{< tabs >}} {{% tab "Swift" %}} ```swift -// Esto elimina el atributo "device-model" de todos los logs enviados en el futuro. +// This removes the attribute "device-model" from all further logs sent from this logger instance. logger.removeAttribute(forKey: "device-model") ``` {{% /tab %}} @@ -543,6 +559,22 @@ logger.removeAttribute(forKey: "device-model") {{% /tab %}} {{< /tabs >}} +Para eliminar un atributo global de todas las instancias de logs: + +{{< tabs >}} +{{% tab "Swift" %}} +```swift +// This removes the attribute "device-model" from all further logs sent from all logger instances. +Logs.removeAttribute(forKey: "device-model") +``` +{{% /tab %}} +{{% tab "Objective-C" %}} +```objective-c +[Logs removeAttributeForKey:@"device-model"]; +``` +{{% /tab %}} +{{< /tabs >}} + ## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} @@ -552,4 +584,4 @@ logger.removeAttribute(forKey: "device-model") [3]: /es/account_management/api-app-keys/#api-keys [4]: /es/logs/processing/attributes_naming_convention/ [5]: /es/getting_started/tagging/ -[6]: https://support.apple.com/guide/security/security-of-runtime-process-sec15bfe098e/web +[6]: https://support.apple.com/guide/security/security-of-runtime-process-sec15bfe098e/web \ No newline at end of file diff --git a/content/es/logs/log_collection/javascript.md b/content/es/logs/log_collection/javascript.md index 5c24ed01311bc..2d8294abb64be 100644 --- a/content/es/logs/log_collection/javascript.md +++ b/content/es/logs/log_collection/javascript.md @@ -17,413 +17,289 @@ Con el SDK de logs del navegador, puedes enviar logs directamente a Datadog desd - Reenvía errores del frontend. - Registra las direcciones IP reales de los clientes y los agentes de usuario. - Uso de red optimizado con envíos masivos automáticos. +- Uso en entornos de worker y worker de servicios. **Notas**: + - **Independiente del SDK de RUM**: el SDK de logs de navegador se puede utilizar sin el SDK de RUM. +- **Entornos de worker**: el SDK de logs de navegador funcionan en entornos de worker y worker de servicio utilizando los mismos métodos de configuración. Sin embargo, los logs enviados desde entornos de worker no incluyen automáticamente información de sesión. ## Configuración -**Token de cliente de Datadog**: Por motivos de seguridad, las [claves de la API][1] no pueden utilizarse para configurar el SDK de logs del navegador, ya que quedarían expuestas del lado del cliente en el código JavaScript. Para recopilar logs de los navegadores web, se debe utilizar un [token de cliente][2]. Consulta la [documentación del token de cliente][2] para más detalles. +### Paso 1: Crear un token de cliente -**SKD de logs del navegador de Datadog**: Configura el SDK a través de [NPM](#npm) o utiliza los fragmentos de código [CDN asíncrono](#cdn-async) o [CDN síncrono](#cdn-sync) en la etiqueta (tag) del encabezado. +En Datadog, ve a [**Organization Settings > New Client Tokens**][1] (Configuración de la organización > Nuevos tokens de cliente). -**Navegadores compatibles**: el SDK de logs de navegador es compatible con todos los navegadores modernos de escritorio y móviles. Consulta la tabla de [Compatibilidad de navegadores][4]. +**Entornos compatibles**: el SDK de logs de navegador son compatibles con todos los navegadores modernos de escritorio y móviles, así como con los entornos de worker y worker de servicio. Consulta la tabla [Soporte del navegador][4]. -### Elegir el método de instalación adecuado +
Por motivos de seguridad, las claves de API no pueden utilizarse para configurar el SDK de logs del navegador, ya que quedarían expuestas del lado del cliente en el código de JavaScript. Para recopilar losg de los navegadores web, debe utilizarse un token de cliente.
-| Método de instalación | Caso práctico | -| -------------------------- | -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | -| npm (node package manager) | Este método se recomienda para las aplicaciones web modernas. El SDK de logs del navegador se empaqueta con el resto de tu código frontend de JavaScript. No tiene ningún efecto en el rendimiento de la carga de la página. Sin embargo, el SDK puede omitir errores, recursos y acciones del usuario activadas antes de que el SDK se inicialice. **Nota**: Se recomienda utilizar una versión coincidente con el SDK de RUM si se utiliza. | -| CDN asíncrono | Este método se recomienda para aplicaciones web con objetivos de rendimiento. El SDK de logs de navegador se carga desde nuestra CDN de forma asíncrona: este método garantiza que la descarga del SDK no afecte al rendimiento de carga de la página. Sin embargo, el SDK podría omitir errores, recursos y acciones del usuario activados antes de que se inicialice el SDK. | -| CDN síncrono | Este método se recomienda para recopilar todos los eventos de RUM. El SDK de logs de navegador se carga desde nuestra CDN de forma sincrónica: este método garantiza que el SDK se cargue primero y recopile todos los errores, recursos y acciones del usuario. Este método puede afectar al rendimiento de carga de la página. | +### Paso 2: Instalar el SDK de logs de navegador -### NPM +Elige el método de instalación del SDK de navegador. -Después de añadir [`@datadog/browser-logs`][3] a tu archivo `package.json`, inicialízalo con: +{{< tabs >}} +{{% tab "NPM" %}} -```javascript -import { datadogLogs } from '@datadog/browser-logs' +Para aplicaciones web modernas, Datadog recomienda la instalación a través de Node Package Manager (npm). El SDK de navegador se empaqueta con el resto de tu código JavaScript de frontend. No tiene ningún impacto en el rendimiento de carga de la página. Sin embargo, es posible que el SDK no capture errores o logs de consola que se produzcan antes de que se inicialice el SDK. Datadog recomienda utilizar una versión que coincida con el SDK de logs del navegador. -datadogLogs.init({ - clientToken: '', - site: '', - forwardErrorsToLogs: true, - sessionSampleRate: 100, -}) -``` +Añade [`@datadog/browser-logs`][13] a tu archivo `package.json`. Por ejemplo, si utilizas npm cli. + +[13]: https://www.npmjs.com/package/@datadog/browser-logs + +{{% /tab %}} +{{% tab "CDN asíncrono" %}} -### CDN asíncrono +Las aplicaciones web con objetivos de rendimiento deben instalarse a través de CDN asíncronas. El SDK de navegador se carga desde la CDN de Datadog de forma asíncrona, lo que garantiza que no afecte al rendimiento de carga de la página. Sin embargo, es posible que el SDK no capture errores o logs de consola que se produzcan antes de que se inicialice el SDK. -Carga y configura el SDK en la sección de encabezado de tus páginas. Para el sitio **{{}}**: +Añade el fragmento de código generado a la etiqueta head de cada página HTML que desees monitorizar en tu aplicación. {{< site-region region="us" >}} -```html - - - Example to send logs to Datadog - - - -``` -{{}} + +```javascript + +``` + +{{< /site-region >}} +{{< site-region region="eu" >}} + +```javascript + +``` + +{{< /site-region >}} {{< site-region region="ap1" >}} -```html - - - Example to send logs to Datadog - - - -``` -{{}} + +```javascript + +``` + +{{< /site-region >}} {{< site-region region="ap2" >}} -```html - - - Example to send logs to Datadog - - - -``` -{{}} -{{< site-region region="eu" >}} -```html - - - Example to send logs to Datadog - - - -``` -{{}} + +```javascript + +``` + +{{< /site-region >}} {{< site-region region="us3" >}} -```html - - - Example to send logs to Datadog - - - -``` -{{}} + +```javascript + +``` + +{{< /site-region >}} {{< site-region region="us5" >}} -```html - - - Example to send logs to Datadog - - - -``` -{{}} + +```javascript + +``` + +{{< /site-region >}} {{< site-region region="gov" >}} -```html - - - Example to send logs to Datadog - - - -``` -{{}} +```javascript + +``` -**Nota**: Las primeras llamadas a la API deben incluirse en la devolución de llamada de `window.DD_LOGS.onReady()`. Esto asegura que el código solo se ejecute una vez que el SDK se cargue correctamente. +{{< /site-region >}} -### CDN síncrono +{{% /tab %}} +{{% tab "CDN síncrono" %}} -Para recibir todos los logs y errores, carga y configura el SDK al principio de la sección de encabezado de tus páginas. Para el sitio **{{}}**: +Para recopilar todos los eventos, debes instalar a través de CDN síncronas. El SDK de navegador se carga desde la CDN de Datadog de forma sincrónica, lo que garantiza que el SDK se carga primero y recopila todos los errores, recursos y acciones del usuario. Este método puede afectar al rendimiento de carga de la página. + +Añade el fragmento de código generado a la etiqueta head (delante de cualquier otra etiqueta script) de cada página HTML que desees monitorizar en tu aplicación. Colocar la etiqueta script más arriba y cargarla de forma sincrónica garantiza que Datadog RUM pueda recopilar todos los datos de rendimiento y errores. {{< site-region region="us" >}} -```html - - - Example to send logs to Datadog - - - - -``` -{{}} + +```javascript + +``` + +{{< /site-region >}} +{{< site-region region="eu" >}} + +```javascript + +``` + +{{< /site-region >}} {{< site-region region="ap1" >}} -```html - - - Example to send logs to Datadog - - - - -``` -{{}} + +```javascript + +``` + +{{< /site-region >}} {{< site-region region="ap2" >}} -```html - - - Example to send logs to Datadog - - - - -``` -{{}} -{{< site-region region="eu" >}} -```html - - - Example to send logs to Datadog - - - - -``` -{{}} + +```javascript + +``` + +{{< /site-region >}} {{< site-region region="us3" >}} -```html - - - Example to send logs to Datadog - - - - -``` -{{}} + +```javascript + +``` + +{{< /site-region >}} {{< site-region region="us5" >}} -```html - - - Example to send logs to Datadog - - - - -``` -{{}} + +```javascript + +``` + +{{< /site-region >}} {{< site-region region="gov" >}} -```html - - - Example to send logs to Datadog - - - - -``` -{{}} -**Nota**: El check `window.DD_LOGS` evita problemas cuando se produce un fallo de carga con el SDK. +```javascript + +``` -### TypeScript +{{< /site-region >}} -Los tipos son compatibles con TypeScript >= 3.8.2. Para las versiones anteriores, importa fuentes JS y utiliza variables globales para evitar problemas de compilación: +{{% /tab %}} +{{< /tabs >}} -```typescript -import '@datadog/browser-logs/bundle/datadog-logs' +### Paso 3: Inicializar el SDK del navegador + +El SDK debe inicializarse lo antes posible en el ciclo de vida de la aplicación. Esto garantiza que todos los logs se capturen correctamente. + +En el fragmento de inicialización, establece el token de cliente y el sitio. Consulta la lista completa de [parámetros de inicialización][4]. -window.DD_LOGS.init({ +{{< tabs >}} +{{% tab "NPM" %}} + +```javascript +import { datadogLogs } from '@datadog/browser-logs'; + +datadogLogs.init({ clientToken: '', + // `site` refers to the Datadog site parameter of your organization + // see https://docs.datadoghq.com/getting_started/site/ site: '', forwardErrorsToLogs: true, sessionSampleRate: 100, -}) +}); + ``` -## Configuración +{{% /tab %}} +{{% tab "CDN asíncrono" %}} + +```javascript + +``` -### Integración de la política de seguridad de contenido +{{% /tab %}} +{{% tab "CDN síncrono" %}} -Si utilizas la integración de política de seguridad de contenido (CSP) de Datadog en tu sitio, consulta [la sección RUM de la documentación de CSP][14] para conocer los pasos a seguir en la configuración. +```javascript + +``` + +{{% /tab %}} +{{< /tabs >}} -### Parámetros de inicialización +#### Configurar el consentimiento de seguimiento (cumplimiento de GDPR) -Los siguientes parámetros están disponibles para configurar el SDK de logs de navegador de Datadog para enviar logs a Datadog: +Para cumplir con GDPR, CCPA y normativas similares, el KIT de navegador de RUM te permite proporcionar el [valor de consentimiento de seguimiento en la inicialización][5]. -| Parámetro | Tipo | Obligatorio | Valor predeterminado | Descripción | -|----------------------------|---------------------------------------------------------------------------|----------|-----------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| -| `clientToken` | Cadena | Sí | | Un [token de cliente de Datadog][2]. | -| `site` | Cadena | Sí | `datadoghq.com` | El [parámetro del sitio de Datadog de tu organización][9]. | -| `service` | Cadena | No | | El nombre de servicio para tu aplicación. Debes seguir los [requisitos de sintaxis de etiqueta][7]. | -| `env` | Cadena | No | | El entorno de la aplicación, por ejemplo: producción, preproducción, preparación, etc. Debe seguir los [requisitos de sintaxis de etiqueta][7]. | -| `version` | Cadena | No | | La versión de la aplicación, por ejemplo: 1.2.3, 6c44da20, 2020.02.13, etc. Debe seguir los [requisitos de sintaxis de etiqueta][7]. | -| `forwardErrorsToLogs` | Booleano | No | `true` | Configúralo en `false` para dejar de reenviar logs console.error, excepciones no capturadas y errores de red a Datadog. | -| `forwardConsoleLogs` | `"all"` o una matriz de `"log"` `"debug"` `"info"` `"warn"` `"error"` | No | `[]` | Reenvía logs de `console.*` a Datadog. Utiliza `"all"` para reenviar todo o una matriz de nombres de la API de consola para reenviar solo un subconjunto. | -| `forwardReports` | `"all"` o una matriz de `"intervention"` `"deprecation"` `"csp_violation"` | No | `[]` | Reenvía informes de la [API de informes][8] a Datadog. Utiliza `"all"` para reenviar todo o una matriz de tipos de informes para reenviar solo un subconjunto. | -| `sampleRate` | Número | No | `100` | **Obsoleto**: Consulta `sessionSampleRate`. | -| `sessionSampleRate` | Número | No | `100` | El porcentaje de sesiones a rastrear: `100` para todas, `0` para ninguna. Sólo las sesiones rastreadas envían logs. Sólo se aplica a los logs recopilados a través del SDK de logs de navegador y es independiente de los datos de RUM. | -| `trackingConsent` | `"granted"` o `"not-granted"` | No | `"granted"` | Establece el estado inicial del consentimiento de rastreo del usuario. Consulta [Consentimiento de rastreo del usuario][15]. | -| `silentMultipleInit` | Booleano | No | | Evita errores de registro al tener múltiples inicios. | -| `proxy` | Cadena | No | | URL proxy opcional (ej: `https://www.proxy.com/path`). Para obtener más información, consulta la [guía completa para la configuración de proxies][6]. | -| `telemetrySampleRate` | Número | No | `20` | Los datos de telemetría (error, logs de depuración) sobre la ejecución del SDK se envían a Datadog para detectar y resolver posibles problemas. Configura esta opción en `0` si te quieres excluir de la recopilación de datos telemétricos. | -| `storeContextsAcrossPages` | Booleano | No | | Almacena el contexto global y el contexto de usuario en `localStorage` para preservarlos a lo largo de la navegación del usuario. Consulta [Ciclos de vida de los contextos][11] para obtener más detalles y limitaciones específicas. | -| `allowUntrustedEvents` | Booleano | No | | Permite la captura de [eventos no confiables][13], por ejemplo, en tests automatizados de interfaz de usuario. | -| `allowedTrackingOrigins` | Matriz | No | | Lista de orígenes en los que el kit de desarrollo de software (SDK) puede funcionar. | +#### Configurar la política de seguridad de contenidos (CSP) +Si utilizas la integración de la Política de seguridad de contenidos (CSP) de Datadog en tu sitio, consulta [la documentación de la CSP][6] para conocer los pasos adicionales de configuración. -Opciones que deben tener una configuración coincidente cuando utilices el SDK `RUM`: +### Paso 4: Visualizar tus datos +Ahora que has completado la configuración básica de logs, tu aplicación está recopilando logs del navegador y puedes empezar a monitorizar y depurar problemas en tiempo real. -| Parámetro | Tipo | Obligatorio | Valor predeterminado | Descripción | -| -------------------------------------- | ------------------------------- | -------- | ---------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | -| `sessionPersistence` | `"cookie"` o `"local-storage"` | No | `"cookie"` | Qué estrategia de almacenamiento utilizar para persistir las sesiones. Puede ser `cookie` o `local-storage`. | -| `trackAnonymousUser` | Booleano | No | `true` | Permite la recopilación del identificador de usuario anónimo en todas las sesiones. | -| `trackSessionAcrossSubdomains` | Booleano | No | `false` | Preserva la sesión a través de subdominios para el mismo sitio. | -| `useSecureSessionCookie` | Booleano | No | `false` | Utiliza una cookie de sesión segura. Esto desactiva logs enviados en conexiones inseguras (no HTTPS). | -| `usePartitionedCrossSiteSessionCookie` | Booleano | No | `false` | Utiliza una cookie de sesión segura particionada entre sitios. Esto permite que el SDK de logs se ejecute cuando el sitio se carga desde otro (iframe). Implica `useSecureSessionCookie`. | +Visualiza los logs en el [Log Explorer][7]. ## Utilización @@ -431,11 +307,12 @@ Opciones que deben tener una configuración coincidente cuando utilices el SDK ` Una vez inicializado el SDK de logs de navegador de Datadog, envía una entrada de log personalizado directamente a Datadog con la API: -``` +```typescript logger.debug | info | warn | error (message: string, messageContext?: Context, error?: Error) ``` -#### NPM +{{< tabs >}} +{{% tab "NPM" %}} ```javascript import { datadogLogs } from '@datadog/browser-logs' @@ -443,7 +320,8 @@ import { datadogLogs } from '@datadog/browser-logs' datadogLogs.logger.info('Button clicked', { name: 'buttonName', id: 123 }) ``` -#### CDN asíncrono +{{% /tab %}} +{{% tab "CDN asíncrono" %}} ```javascript window.DD_LOGS.onReady(function () { @@ -453,7 +331,8 @@ window.DD_LOGS.onReady(function () { **Nota**: Las primeras llamadas a la API deben incluirse en la devolución de llamada de `window.DD_LOGS.onReady()`. Esto asegura que el código solo se ejecute una vez que el SDK se cargue correctamente. -#### CDN síncrono +{{% /tab %}} +{{% tab "CDN síncrono" %}} ```javascript window.DD_LOGS && window.DD_LOGS.logger.info('Button clicked', { name: 'buttonName', id: 123 }) @@ -461,6 +340,9 @@ window.DD_LOGS && window.DD_LOGS.logger.info('Button clicked', { name: 'buttonNa **Nota**: El check `window.DD_LOGS` evita problemas cuando se produce un fallo de carga con el SDK. +{{% /tab %}} +{{< /tabs >}} + #### Resultados Los resultados son los mismos cuando se utiliza NPM, CDN asíncrono o CDN síncrono: @@ -505,13 +387,14 @@ El backend de Datadog añade más campos, como: ### Rastreo de errores -El SDK de logs de navegador de Datadog permite el rastreo manual de errores mediante el parámetro opcional `error` (disponible en SDK v4.36.0+). Cuando se proporciona una instancia de un [error de JavaScript][10], el SDK extrae información relevante (tipo, mensaje, traza (trace) de stack tecnológico) del error. +El SDK de logs de navegador de Datadog permite el rastreo de error manual mediante el parámetro opcional `error` (disponible en el SDK v4.36.0+). Cuando se proporciona una instancia de un [error JavaScript][8], el SDK extrae información relevante (tipo, mensaje, stack trace) del error. -``` -logger.debug | info | warn | error (message: string, messageContext?: Context, error?: Error) +```typescript +logger.{debug|info|warn|error}(message: string, messageContext?: Context, error?: Error) ``` -#### NPM +{{< tabs >}} +{{% tab "NPM" %}} ```javascript import { datadogLogs } from '@datadog/browser-logs' @@ -525,7 +408,8 @@ try { } ``` -#### CDN asíncrono +{{% /tab %}} +{{% tab "CDN asíncrono" %}} ```javascript try { @@ -541,7 +425,8 @@ try { **Nota**: Las primeras llamadas a la API deben incluirse en la devolución de llamada de `window.DD_LOGS.onReady()`. Esto asegura que el código solo se ejecute una vez que el SDK se cargue correctamente. -#### CDN síncrono +{{% /tab %}} +{{% tab "CDN síncrono" %}} ```javascript try { @@ -555,6 +440,9 @@ try { **Nota**: El check `window.DD_LOGS` evita problemas cuando se produce un fallo de carga con el SDK. +{{% /tab %}} +{{< /tabs >}} + #### Resultados Los resultados son los mismos cuando se utiliza NPM, CDN asíncrono o CDN síncrono: @@ -579,13 +467,12 @@ Los resultados son los mismos cuando se utiliza NPM, CDN asíncrono o CDN síncr El SDK de logs de navegador de Datadog añade las funciones abreviadas (`.debug`, `.info`, `.warn`, `.error`) a los generadores de logs para mayor comodidad. También está disponible una función de generador de logs genérico, que expone el parámetro `status`: +```typescript +log(message: string, messageContext?: Context, status? = 'debug' | 'info' | 'warn' | 'error', error?: Error) ``` -log (message: string, messageContext?: Context, status? = 'debug' | 'info' | 'warn' | 'error', error?: Error) -``` - -#### NPM -Para NPM, utiliza: +{{< tabs >}} +{{% tab "NPM" %}} ```javascript import { datadogLogs } from '@datadog/browser-logs'; @@ -593,9 +480,8 @@ import { datadogLogs } from '@datadog/browser-logs'; datadogLogs.logger.log(,,,); ``` -#### CDN asíncrono - -Para CDN asíncrono, utiliza: +{{% /tab %}} +{{% tab "CDN asíncrono" %}} ```javascript window.DD_LOGS.onReady(function() { @@ -605,14 +491,18 @@ window.DD_LOGS.onReady(function() { **Nota**: Las primeras llamadas a la API deben incluirse en la devolución de llamada de `window.DD_LOGS.onReady()`. Esto asegura que el código solo se ejecute una vez que el SDK se cargue correctamente. -#### CDN síncrono - -Para CDN síncrono, utiliza: +{{% /tab %}} +{{% tab "CDN síncrono" %}} ```javascript window.DD_LOGS && window.DD_LOGS.logger.log(,,,); ``` +**Nota**: El check `window.DD_LOGS` evita problemas cuando se produce un fallo de carga con el SDK. + +{{% /tab %}} +{{< /tabs >}} + #### Parámetros A continuación se describen los parámetros de los ejemplos anteriores: @@ -622,7 +512,7 @@ A continuación se describen los parámetros de los ejemplos anteriores: | `` | El mensaje de tu log que está totalmente indexado por Datadog. | | `` | Un objeto JSON válido, que incluye todos los atributos adjuntos al ``. | | `` | El estado de tu log; los valores de estado aceptados son `debug`, `info`, `warn` o `error`. | -| `` | Una instancia de un objeto de [error de JavaScript][10]. | +| `` | Una instancia de un objeto [error JavaScript][8]. | ## Uso avanzado @@ -630,7 +520,7 @@ A continuación se describen los parámetros de los ejemplos anteriores: Si tus logs de navegador contienen información confidencial que debe redactarse, configura el SDK del navegador para limpiar secuencias confidenciales utilizando la devolución de llamada `beforeSend` cuando inicialices el Collector de logs del navegador. -La función callback `beforeSend` puede invocarse con dos argumentos: evento de `log` y `context`. Esta función te proporciona acceso a cada log recopilado por el SDK del navegador, antes de ser enviado a Datadog, y te permite utilizar el contexto para ajustar cualquier propiedad del log. El contexto contiene información adicional relacionada con el evento, que podría no estar necesariamente incluida en el evento. Por lo general, puedes utilizar esta información para [enriquecer][18] o [descartar][19] tu evento. +La función de devolución de llamada `beforeSend` puede invocarse con dos argumentos: el evento `log` y `context`. Esta función te da acceso a cada log recopilado por el SDK de navegador antes de ser enviado a Datadog, y te permite utilizar el contexto para ajustar cualquier propiedad de log. El contexto contiene información adicional relacionada con el evento, pero no necesariamente incluida en el mismo. Normalmente puedes utilizar esta información para [enriquecer][11] tu evento o [descartarlo][12]. ```javascript function beforeSend(log, context) @@ -641,11 +531,12 @@ Los valores posibles de `context` son: | Valor | Tipo de datos | Caso de uso | |-------|---------|------------| | `isAborted` | Booleano | En el caso de los eventos de logs de red, esta propiedad te indica si la aplicación abortó la solicitud fallida. En este caso es posible que no quieras enviar este evento, ya que podría haber sido abortado intencionalmente. | -| `handlingStack` | Cadena | Una traza de stack tecnológico de donde se gestionó el evento de log. Puede utilizarse para identificar desde qué [micro-frontend][17] se envió el log. | +| `handlingStack` | Cadena | Un atack trace de dónde se gestionó el evento de log. Se puede utilizar para identificar desde qué [micro-frontend][9] se envió el log. | Para eliminar las direcciones de correo electrónico de las URLs de tus aplicaciones web: -#### NPM +{{< tabs >}} +{{% tab "NPM" %}} ```javascript import { datadogLogs } from '@datadog/browser-logs' @@ -660,7 +551,8 @@ datadogLogs.init({ }); ``` -#### CDN asíncrono +{{% /tab %}} +{{% tab "CDN asíncrono" %}} ```javascript window.DD_LOGS.onReady(function() { @@ -675,7 +567,10 @@ window.DD_LOGS.onReady(function() { }) ``` -#### CDN síncrono +**Nota**: Las primeras llamadas a la API deben incluirse en la devolución de llamada de `window.DD_LOGS.onReady()`. Esto asegura que el código solo se ejecute una vez que el SDK se cargue correctamente. + +{{% /tab %}} +{{% tab "CDN síncrono" %}} ```javascript window.DD_LOGS && @@ -689,6 +584,11 @@ window.DD_LOGS && }); ``` +**Nota**: El check `window.DD_LOGS` evita problemas cuando se produce un fallo de carga con el SDK. + +{{% /tab %}} +{{< /tabs >}} + El SDK recopila automáticamente las siguientes propiedades que podrían contener datos confidenciales: | Atributo | Tipo | Descripción | @@ -705,7 +605,8 @@ La función de devolución de la llamada `beforeSend` permite también descartar Para descartar errores de red si su estado es 404: -#### NPM +{{< tabs >}} +{{% tab "NPM" %}} ```javascript import { datadogLogs } from '@datadog/browser-logs' @@ -722,7 +623,8 @@ datadogLogs.init({ }); ``` -#### CDN asíncrono +{{% /tab %}} +{{% tab "CDN asíncrono" %}} ```javascript window.DD_LOGS.onReady(function() { @@ -739,7 +641,10 @@ window.DD_LOGS.onReady(function() { }) ``` -#### CDN síncrono +**Nota**: Las primeras llamadas a la API deben incluirse en la devolución de llamada de `window.DD_LOGS.onReady()`. Esto asegura que el código solo se ejecute una vez que el SDK se cargue correctamente. + +{{% /tab %}} +{{% tab "CDN síncrono" %}} ```javascript window.DD_LOGS && @@ -755,6 +660,11 @@ window.DD_LOGS && }); ``` +**Nota**: El check `window.DD_LOGS` evita problemas cuando se produce un fallo de carga con el SDK. + +{{% /tab %}} +{{< /tabs >}} + ### Definir varios generadores de logs El SDK de logs de navegador de Datadog contiene un generador de logs por defecto, pero es posible definir diferentes generadores de logs. @@ -781,7 +691,8 @@ Tras la creación de un generador de logs, accede a él en cualquier parte de tu getLogger(name: string) ``` -##### NPM +{{< tabs >}} +{{% tab "NPM" %}} Por ejemplo, supongamos que hay un `signupLogger`, definido con todos los demás generadores de logs: @@ -804,7 +715,8 @@ const signupLogger = datadogLogs.getLogger('signupLogger') signupLogger.info('Test sign up completed') ``` -##### CDN asíncrono +{{% /tab %}} +{{% tab "CDN asíncrono" %}} Por ejemplo, supongamos que hay un `signupLogger`, definido con todos los demás generadores de logs: @@ -829,7 +741,8 @@ window.DD_LOGS.onReady(function () { **Nota**: Las primeras llamadas a la API deben incluirse en la devolución de llamada de `window.DD_LOGS.onReady()`. Esto asegura que el código solo se ejecute una vez que el SDK se cargue correctamente. -##### CDN síncrono +{{% /tab %}} +{{% tab "CDN síncrono" %}} Por ejemplo, supongamos que hay un `signupLogger`, definido con todos los demás generadores de logs: @@ -854,6 +767,9 @@ if (window.DD_LOGS) { **Nota**: El check `window.DD_LOGS` evita problemas cuando se produce un fallo de carga con el SDK. +{{% /tab %}} +{{< /tabs >}} + ### Sobrescribir contexto #### Contexto global @@ -873,7 +789,8 @@ Una vez inicializado el SDK de logs de navegador de Datadog, es posible: > - `setGlobalContextProperty` en lugar de `addLoggerGlobalContext` > - `removeGlobalContextProperty` en lugar de `removeLoggerGlobalContext` -##### NPM +{{< tabs >}} +{{% tab "NPM" %}} Para NPM, utiliza: @@ -895,7 +812,8 @@ datadogLogs.clearGlobalContext() datadogLogs.getGlobalContext() // => {} ``` -##### CDN asíncrono +{{% /tab %}} +{{% tab "CDN asíncrono" %}} Para CDN asíncrono, utiliza: @@ -931,7 +849,8 @@ window.DD_LOGS.onReady(function () { **Nota**: Las primeras llamadas a la API deben incluirse en la devolución de llamada de `window.DD_LOGS.onReady()`. Esto asegura que el código solo se ejecute una vez que el SDK se cargue correctamente. -##### CDN síncrono +{{% /tab %}} +{{% tab "CDN síncrono" %}} Para CDN síncrono, utiliza: @@ -953,6 +872,9 @@ window.DD_LOGS && window.DD_LOGS.getGlobalContext() // => {} **Nota**: El check `window.DD_LOGS` evita problemas cuando se produce un fallo de carga con el SDK. +{{% /tab %}} +{{< /tabs >}} + #### Contexto de usuario El SDK de logs de Datadog ofrece la posibilidad de asociar un `User` a logs generados. @@ -965,7 +887,8 @@ El SDK de logs de Datadog ofrece la posibilidad de asociar un `User` a logs gene **Nota**: El contexto de usuario se aplica antes que el contexto global. Por lo tanto, cada propiedad de usuario incluida en el contexto global anulará el contexto de usuario al generar logs. -##### NPM +{{< tabs >}} +{{% tab "NPM" %}} Para NPM, utiliza: @@ -983,7 +906,8 @@ datadogLogs.clearUser() datadogLogs.getUser() // => {} ``` -##### CDN asíncrono +{{% /tab %}} +{{% tab "CDN asíncrono" %}} Para CDN asíncrono, utiliza: @@ -1019,7 +943,8 @@ window.DD_LOGS.onReady(function () { **Nota**: Las primeras llamadas a la API deben incluirse en la devolución de llamada de `window.DD_LOGS.onReady()`. Esto asegura que el código solo se ejecute una vez que el SDK se cargue correctamente. -##### CDN síncrono +{{% /tab %}} +{{% tab "CDN síncrono" %}} Para CDN síncrono, utiliza: @@ -1041,6 +966,9 @@ window.DD_LOGS && window.DD_LOGS.getUser() // => {} **Nota**: El check `window.DD_LOGS` evita problemas cuando se produce un fallo de carga con el SDK. +{{% /tab %}} +{{< /tabs >}} + #### Contexto de la cuenta El SDK de logs de Datadog ofrece la posibilidad de asociar una `Account`a los logs generados. @@ -1053,9 +981,8 @@ El SDK de logs de Datadog ofrece la posibilidad de asociar una `Account`a los lo **Nota**: El contexto de cuenta se aplica antes que el contexto global. Por lo tanto, cada propiedad de cuenta incluida en el contexto global anulará el contexto de cuenta al generar logs. -##### NPM - -Para NPM, utiliza: +{{< tabs >}} +{{% tab "NPM" %}} ```javascript import { datadogLogs } from '@datadog/browser-logs' @@ -1071,9 +998,8 @@ datadogLogs.clearAccount() datadogLogs.getAccount() // => {} ``` -##### CDN asíncrono - -Para CDN asíncrono, utiliza: +{{% /tab %}} +{{% tab "CDN asíncrono" %}} ```javascript window.DD_LOGS.onReady(function () { @@ -1107,9 +1033,8 @@ window.DD_LOGS.onReady(function () { **Nota**: Las primeras llamadas a la API deben incluirse en la devolución de llamada de `window.DD_LOGS.onReady()`. Esto asegura que el código solo se ejecute una vez que el SDK se cargue correctamente. -##### CDN síncrono - -Para CDN síncrono, utiliza: +{{% /tab %}} +{{% tab "CDN síncrono" %}} ```javascript window.DD_LOGS && window.DD_LOGS.setAccount({ id: '1234', name: 'My Company Name' }) @@ -1129,6 +1054,9 @@ window.DD_LOGS && window.DD_LOGS.getAccount() // => {} **Nota**: El check `window.DD_LOGS` evita problemas cuando se produce un fallo de carga con el SDK. +{{% /tab %}} +{{< /tabs >}} + #### Ciclo de vida de los contextos Por defecto, los contextos se almacenan en la memoria de la página actual, lo que significa que no están: @@ -1138,7 +1066,7 @@ Por defecto, los contextos se almacenan en la memoria de la página actual, lo q Para añadirlas a todos los eventos de la sesión, deben adjuntarse a cada página. -Con la introducción de la opción de configuración `storeContextsAcrossPages` en la v4.49.0 del SDK del navegador, esos contextos pueden almacenarse en [`localStorage`][12], permitiendo los siguientes comportamientos: +Con la introducción de la opción de configuración `storeContextsAcrossPages` en la v4.49.0 del SDK de navegador, esos contextos pueden ser almacenados en [`localStorage`][9], permitiendo los siguientes comportamientos: - Los contextos se conservan tras una recarga completa. - Los contextos se sincronizan entre pestañas abiertas en el mismo origen. @@ -1156,9 +1084,8 @@ Una vez creado un generador de logs, es posible: - Configurar el contexto completo para tu generador de logs con la API `setContext (context: object)`. - Configurar una propiedad de contexto en tu generador de logs con la API `setContextProperty (key: string, value: any)`: -##### NPM - -Para NPM, utiliza: +{{< tabs >}} +{{% tab "NPM" %}} ```javascript import { datadogLogs } from '@datadog/browser-logs' @@ -1168,9 +1095,8 @@ datadogLogs.setContext("{'env': 'staging'}") datadogLogs.setContextProperty('referrer', document.referrer) ``` -##### CDN asíncrono - -Para CDN asíncrono, utiliza: +{{% /tab %}} +{{% tab "CDN asíncrono" %}} ```javascript window.DD_LOGS.onReady(function () { @@ -1184,9 +1110,8 @@ window.DD_LOGS.onReady(function () { **Nota**: Las primeras llamadas a la API deben incluirse en la devolución de llamada de `window.DD_LOGS.onReady()`. Esto asegura que el código solo se ejecute una vez que el SDK se cargue correctamente. -##### CDN síncrono - -Para CDN síncrono, utiliza: +{{% /tab %}} +{{% tab "CDN síncrono" %}} ```javascript window.DD_LOGS && window.DD_LOGS.setContext("{'env': 'staging'}") @@ -1196,19 +1121,21 @@ window.DD_LOGS && window.DD_LOGS.setContextProperty('referrer', document.referre **Nota**: El check `window.DD_LOGS` evita problemas cuando se produce un fallo de carga con el SDK. +{{% /tab %}} +{{< /tabs >}} + ### Filtrar por estado Una vez inicializado el SDK de logs de navegador de Datadog, el nivel mínimo de log para tu generador de logs se configura con la API: -``` +```typescript setLevel (level?: 'debug' | 'info' | 'warn' | 'error') ``` Solo se envían logs con un estado igual o superior al nivel especificado. -#### NPM - -Para NPM, utiliza: +{{< tabs >}} +{{% tab "NPM" %}} ```javascript import { datadogLogs } from '@datadog/browser-logs' @@ -1216,9 +1143,8 @@ import { datadogLogs } from '@datadog/browser-logs' datadogLogs.logger.setLevel('') ``` -#### CDN asíncrono - -Para CDN asíncrono, utiliza: +{{% /tab %}} +{{% tab "CDN asíncrono" %}} ```javascript window.DD_LOGS.onReady(function () { @@ -1228,9 +1154,8 @@ window.DD_LOGS.onReady(function () { **Nota**: Las primeras llamadas a la API deben incluirse en la devolución de llamada de `window.DD_LOGS.onReady()`. Esto asegura que el código solo se ejecute una vez que el SDK se cargue correctamente. -#### CDN síncrono - -Para CDN síncrono, utiliza: +{{% /tab %}} +{{% tab "CDN síncrono" %}} ```javascript window.DD_LOGS && window.DD_LOGS.logger.setLevel('') @@ -1238,6 +1163,9 @@ window.DD_LOGS && window.DD_LOGS.logger.setLevel('') **Nota**: El check `window.DD_LOGS` evita problemas cuando se produce un fallo de carga con el SDK. +{{% /tab %}} +{{< /tabs >}} + ### Cambiar el destino Por defecto, los generadores de logs creados por el SDK de logs de navegador de Datadog envían logs a Datadog. Una vez inicializado el SDK de logs de navegador de Datadog, es posible configurar el generador de logs para que: @@ -1246,13 +1174,12 @@ Por defecto, los generadores de logs creados por el SDK de logs de navegador de - envíe logs solo a `console` - no envíe logs en absoluto (`silent`) -``` +```typescript setHandler (handler?: 'http' | 'console' | 'silent' | Array) ``` -#### NPM - -Para NPM, utiliza: +{{< tabs >}} +{{% tab "NPM" %}} ```javascript import { datadogLogs } from '@datadog/browser-logs' @@ -1261,9 +1188,9 @@ datadogLogs.logger.setHandler('') datadogLogs.logger.setHandler(['', '']) ``` -#### CDN asíncrono +{{% /tab %}} -Para CDN asíncrono, utiliza: +{{% tab "CDN asíncrono" %}} ```javascript window.DD_LOGS.onReady(function () { @@ -1274,7 +1201,8 @@ window.DD_LOGS.onReady(function () { **Nota**: Las primeras llamadas a la API deben incluirse en la devolución de llamada de `window.DD_LOGS.onReady()`. Esto asegura que el código solo se ejecute una vez que el SDK se cargue correctamente. -#### CDN síncrono +{{% /tab %}} +{{% tab "CDN síncrono" %}} Para CDN síncrono, utiliza: @@ -1285,6 +1213,9 @@ window.DD_LOGS && window.DD_LOGS.logger.setHandler(['', '']) **Nota**: El check `window.DD_LOGS` evita problemas cuando se produce un fallo de carga con el SDK. +{{% /tab %}} +{{< /tabs >}} + ### Consentimiento de rastreo del usuario Para cumplir con GDPR, CCPA y normativas similares, el SDK del navegador de logs te permite proporcionar el valor de consentimiento de rastreo en la inicialización. @@ -1296,16 +1227,15 @@ El parámetro de inicialización `trackingConsent` puede ser uno de los siguient Para cambiar el valor del consentimiento de rastreo una vez inicializado el SDK del navegador de logs, utiliza la llamada a la API `setTrackingConsent()`. El SDK del navegador de logs cambia su comportamiento según el nuevo valor: -* cuando se cambia de `"granted"` a `"not-granted"`, la sesión de logs se detiene y ya no se envían datos a Datadog. -* cuando se cambia de `"not-granted"` a `"granted"`, se crea una nueva sesión de logs si no hay ninguna sesión anterior activa y se reanuda la recopilación de datos. +- cuando se cambia de `"granted"` a `"not-granted"`, la sesión de logs se detiene y ya no se envían datos a Datadog. +- cuando se cambia de `"not-granted"` a `"granted"`, se crea una nueva sesión de logs si no hay ninguna sesión anterior activa y se reanuda la recopilación de datos. Este estado no se sincroniza entre pestañas ni persiste entre navegaciones. Es tu responsabilidad proporcionar la decisión del usuario durante la inicialización del SDK de navegador de logs o mediante el uso de `setTrackingConsent()`. Cuando se utiliza `setTrackingConsent()` antes que `init()`, el valor proporcionado tiene prioridad sobre el parámetro de inicialización. -#### NPM - -Para NPM, utiliza: +{{< tabs >}} +{{% tab "NPM" %}} ```javascript import { datadogLogs } from '@datadog/browser-logs'; @@ -1320,9 +1250,8 @@ acceptCookieBannerButton.addEventListener('click', function() { }); ``` -#### CDN asíncrono - -Para CDN asíncrono, utiliza: +{{% /tab %}} +{{% tab "CDN asíncrono" %}} ```javascript window.DD_LOGS.onReady(function() { @@ -1339,9 +1268,8 @@ acceptCookieBannerButton.addEventListener('click', () => { }); ``` -#### CDN síncrono - -Para CDN síncrono, utiliza: +{{% /tab %}} +{{% tab "CDN síncrono" %}} ```javascript window.DD_LOGS && window.DD_LOGS.init({ @@ -1354,19 +1282,21 @@ acceptCookieBannerButton.addEventListener('click', () => { }); ``` +{{% /tab %}} +{{< /tabs >}} + ### Acceder al contexto interno Una vez inicializado el SDK de logs de navegador de Datadog, puedes acceder al contexto interno del SDK. Esto te permite acceder al `session_id`. -``` +```typescript getInternalContext (startTime?: 'number' | undefined) ``` También puedes utilizar el parámetro `startTime` para obtener el contexto de un momento específico. Si se omite el parámetro, se regresa el contexto actual. -#### NPM - -Para NPM, utiliza: +{{< tabs >}} +{{% tab "NPM" %}} ```javascript import { datadogLogs } from '@datadog/browser-logs' @@ -1374,9 +1304,9 @@ import { datadogLogs } from '@datadog/browser-logs' datadogLogs.getInternalContext() // { session_id: "xxxx-xxxx-xxxx-xxxx" } ``` -#### CDN asíncrono +{{% /tab %}} -Para CDN asíncrono, utiliza: +{{% tab "CDN asíncrono" %}} ```javascript window.DD_LOGS.onReady(function () { @@ -1384,31 +1314,24 @@ window.DD_LOGS.onReady(function () { }) ``` -#### CDN síncrono - -Para CDN síncrono, utiliza: +{{% /tab %}} +{{% tab "CDN síncrono" %}} ```javascript window.DD_LOGS && window.DD_LOGS.getInternalContext() // { session_id: "xxxx-xxxx-xxxx-xxxx" } ``` +{{% /tab %}} +{{< /tabs >}} + -[1]: https://docs.datadoghq.com/es/account_management/api-app-keys/#api-keys -[2]: https://docs.datadoghq.com/es/account_management/api-app-keys/#client-tokens -[3]: https://www.npmjs.com/package/@datadog/browser-logs -[4]: https://github.com/DataDog/browser-sdk/blob/main/packages/logs/BROWSER_SUPPORT.md -[5]: https://docs.datadoghq.com/es/real_user_monitoring/guide/enrich-and-control-rum-data/ -[6]: https://docs.datadoghq.com/es/real_user_monitoring/faq/proxy_rum_data/ -[7]: https://docs.datadoghq.com/es/getting_started/tagging/#define-tags -[8]: https://developer.mozilla.org/en-US/docs/Web/API/Reporting_API -[9]: https://docs.datadoghq.com/es/getting_started/site/ -[10]: https://developer.mozilla.org/en-US/docs/Web/JavaScript/Reference/Global_Objects/Error -[11]: https://docs.datadoghq.com/es/logs/log_collection/javascript/#contexts-life-cycle -[12]: https://developer.mozilla.org/en-US/docs/Web/API/Window/localStorage -[13]: https://developer.mozilla.org/en-US/docs/Web/API/Event/isTrusted -[14]: /es/integrations/content_security_policy_logs/#use-csp-with-real-user-monitoring-and-session-replay -[15]: #user-tracking-consent -[17]: /es/real_user_monitoring/browser/advanced_configuration/?tab=npm#micro-frontend -[18]: /es/real_user_monitoring/browser/advanced_configuration/?tab=npm#enrich-and-control-rum-data -[19]: /es/real_user_monitoring/browser/advanced_configuration/?tab=npm#discard-a-rum-event \ No newline at end of file +[1]: https://app.datadoghq.com/organization-settings/client-tokens +[4]: https://datadoghq.dev/browser-sdk/interfaces/_datadog_browser-logs.LogsInitConfiguration.html +[5]: /es/logs/log_collection/javascript/#user-tracking-consent +[6]: /es/integrations/content_security_policy_logs/#use-csp-with-real-user-monitoring-and-session-replay +[7]: /es/logs/explorer/ +[8]: +[9]: https://developer.mozilla.org/en-US/docs/Web/API/Window/localStorage +[11]: /es/real_user_monitoring/browser/advanced_configuration/?tab=npm#enrich-and-control-rum-data +[12]: /es/real_user_monitoring/browser/advanced_configuration/?tab=npm#discard-a-rum-event \ No newline at end of file diff --git a/content/es/logs/log_configuration/logs_to_metrics.md b/content/es/logs/log_configuration/logs_to_metrics.md index 67a956cc4def0..906fe9dc2f9e0 100644 --- a/content/es/logs/log_configuration/logs_to_metrics.md +++ b/content/es/logs/log_configuration/logs_to_metrics.md @@ -46,7 +46,7 @@ También puedes crear métricas a partir de una búsqueda de Analytics, seleccio {{< img src="logs/processing/logs_to_metrics/create_custom_metrics2.png" alt="Crear logs para métricas" style="width:80%;">}} -1. **Introduce una consulta para filtrar el flujo de logs**: la sintaxis de la consulta es la misma que la de las [búsquedas del Explorador de logs][6]. Para la agregación, sólo se tienen en cuenta los logs con marcas de tiempo, consumidos en los últimos 20 minutos. +1. **Introduce una consulta para filtrar el flujo de logs**: la sintaxis de la consulta es la misma que la de las [búsquedas del Log Explorer][6]. Para la agregación, solo se tienen en cuenta los logs con marcas de tiempo, consumidos en los últimos 20 minutos. El índice debe excluirse de la consulta. 2. **Selecciona el campo del que quieres realizar el seguimiento**: selecciona `*` para generar un recuento de todos los logs que coinciden con tu consulta o introduce un atributo de log (por ejemplo, `@network.bytes_written`), para agregar un valor numérico y crear sus correspondientes métricas agregadas `count`, `min`, `max`, `sum` y `avg`. Si la faceta del atributo de log es una [medida][7], el valor de la métrica es el valor del atributo de log. 3. **Añade dimensiones a `group by`**: por defecto, las métricas generadas a partir de logs no tienen ninguna etiqueta (tags), a menos que se añadan explícitamente. Cualquier atributo o dimensión de etiqueta presente en tus logs (por ejemplo, `@network.bytes_written`, `env`) puede utilizarse para crear [etiquetas][8] de métricas. Los nombres de etiquetas de métricas son iguales al atributo o nombre de etiqueta de origen, sin el símbolo @. 4. **Añade agregaciones de percentiles**: para las métricas de distribución, también puedes generar los percentiles p50, p75, p90, p95 y p99. Las métricas de percentiles también se consideran métricas personalizadas y se [facturan en consecuencia][9]. @@ -56,7 +56,7 @@ También puedes crear métricas a partir de una búsqueda de Analytics, seleccio {{< img src="logs/processing/logs_to_metrics/count_unique.png" alt="Página de configuración del gráfico de series temporales con el parámetro de consulta de recuento único resaltado" style="width:80%;">}} -
Las métricas basadas en logs se consideran métricas personalizadas y se facturan en consecuencia. Evita agrupar por atributos no limitados o de cardinalidad extremadamente alta, como marcas de tiempo, ID de usuario, ID de solicitud o ID de sesión, para no afectar a tu facturación.
+
Las métricas basadas en logs se consideran métricas personalizadas y se facturan en consecuencia. Evita agrupar por atributos no limitados o de cardinalidad extremadamente alta, como marcas de tiempo, IDs de usuario, IDs de solicitud o IDs de sesión, para no afectar a tu facturación.
### Actualizar una métrica basada en logs @@ -87,9 +87,11 @@ Las métricas de uso de Log Management vienen con tres etiquetas que se pueden u | `datadog_is_excluded` | Indica si un log coincide o no con una consulta de exclusión. | | `service` | El atributo servicio del evento de log. | +**Nota**: Los campos `datadog_is_excluded` y `datadog_index` pueden tener un valor de `N/A`. Esto indica que los logs fueros ingeridos, pero no coincidió con ningún criterio de inclusión o exclusión para ser enrutado explícitamente a un índice. + Existe una etiqueta `status` adicional disponible en la métrica `datadog.estimated_usage.logs.ingested_events` para reflejar el estado del log (`info`, `warning`, etc.). -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}}
diff --git a/content/es/logs/log_configuration/processors.md b/content/es/logs/log_configuration/processors.md index a4adbc9d90c3a..86ca5068a9f35 100644 --- a/content/es/logs/log_configuration/processors.md +++ b/content/es/logs/log_configuration/processors.md @@ -686,7 +686,7 @@ El procesador de búsqueda realiza las siguientes acciones: * Opcionalmente, si no encuentra el valor en la tabla de asignación, crea un atributo de destino con el valor de la tabla de referencia. Puedes seleccionar un valor para una [tabla de referencias][101] en la pestaña **Reference Table** (Tabla de referencia). - {{< img src="logs/log_configuration/processor/lookup_processor_reference_table.png" alt="Procesador de búsqueda" >}} + {{< img src="logs/log_configuration/processor/lookup_processor_reference_table.png" alt="Procesador de búsqueda" style="width:80%;">}} @@ -829,7 +829,7 @@ Define el procesador de matrices en la página [**Pipelines**][1]. Extrae un valor específico de un objeto dentro de una matriz cuando coincide con una condición. {{< tabs >}} -{{% tab "UI (IU)" %}} +{{% tab "UI" %}} {{< img src="logs/log_configuration/processor/array_processor_select_value.png" alt="Procesador de matrices - Seleccionar el valor de un elemento" style="width:80%;" >}} @@ -864,6 +864,38 @@ Extrae un valor específico de un objeto dentro de una matriz cuando coincide co } ``` +{{% /tab %}} +{{% tab "API" %}} + +Utiliza el [endpoint de API del pipeline de logs de Datadog][1] con la siguiente carga útil JSON del procesador de matrices: + +```json +{ + "type": "array-processor", + "name": "Extract Referrer URL", + "is_enabled": true, + "operation" : { + "type" : "select", + "source": "httpRequest.headers", + "target": "referrer", + "filter": "name:Referrer", + "value_to_extract": "value" + } +} +``` + +| Parámetro | Tipo | Obligatorio | Descripción | +|--------------|------------------|----------|---------------------------------------------------------------| +| `type` | Cadena | Sí | Tipo de procesador. | +| `name` | Cadena | No | Nombre del procesador. | +| `is_enabled` | Booleano | No | Si el procesador está activado. Por defecto: `false`. | +| `operation.type` | Cadena | Sí | Tipo de funcionamiento del procesador de matrices. | +| `operation.source` | Cadena | Sí | Ruta de la matriz de la que quieres seleccionar. | +| `operation.target` | Cadena | Sí | Atributo objetivo. | +| `operation.filter` | Cadena | Sí | Expresión que coincide con un elemento de la matriz. Se selecciona el primer elemento coincidente. | +| `operation.value_to_extract` | Cadena | Sí | Atributo a leer en el elemento seleccionado. | + +[1]: /es/api/v1/logs-pipelines/ {{% /tab %}} {{< /tabs >}} @@ -872,7 +904,7 @@ Extrae un valor específico de un objeto dentro de una matriz cuando coincide co Calcula el número de elementos de una matriz. {{< tabs >}} -{{% tab "UI (IU)" %}} +{{% tab "UI" %}} {{< img src="logs/log_configuration/processor/array_processor_length.png" alt="Procesador de matrices - Longitud" style="width:80%;" >}} @@ -898,6 +930,34 @@ Calcula el número de elementos de una matriz. } ``` {{% /tab %}} +{{% tab "API" %}} + +Utiliza el [endpoint de API del pipeline de logs de Datadog][1] con la siguiente carga útil JSON del procesador de matrices: + +```json +{ + "type": "array-processor", + "name": "Compute number of tags", + "is_enabled": true, + "operation" : { + "type" : "length", + "source": "tags", + "target": "tagCount" + } +} +``` + +| Parámetro | Tipo | Obligatorio | Descripción | +|---------------------|-----------|----------|---------------------------------------------------------------| +| `type` | Cadena | Sí | Tipo de procesador. | +| `name` | Cadena | No | Nombre del procesador. | +| `is_enabled` | Booleano | No | Si el procesador está activado. Por defecto: `false`. | +| `operation.type` | Cadena | Sí | Tipo de funcionamiento del procesador de matrices. | +| `operation.source` | Cadena | Sí | Ruta de la matriz de la que quieres seleccionar. | +| `operation.target` | Cadena | Sí | Atributo objetivo. | + +[1]: /es/api/v1/logs-pipelines/ +{{% /tab %}} {{< /tabs >}} ### Añadir a la matriz @@ -908,7 +968,7 @@ Añade un valor de atributo al final de un atributo de matriz de destino en el l {{< tabs >}} -{{% tab "UI (IU)" %}} +{{% tab "UI" %}} {{< img src="logs/log_configuration/processor/array_processor_append.png" alt="Procesador de matrices - Añadir" style="width:80%;" >}} @@ -942,6 +1002,60 @@ Añade un valor de atributo al final de un atributo de matriz de destino en el l "sourceIps": ["203.0.113.1", "198.51.100.23"] } ``` +{{% /tab %}} +{{% tab "API" %}} + +Utiliza el [endpoint de API del pipeline de logs de Datadog][1] con la siguiente carga útil JSON del procesador de matrices: + +```json +{ + "type": "array-processor", + "name": "Append client IP to sourceIps", + "is_enabled": true, + "operation" : { + "type" : "append", + "source": "network.client.ip", + "target": "sourceIps" + } +} +``` + +| Parámetro | Tipo | Obligatorio | Descripción | +|------------------------------|------------|----------|--------------------------------------------------------------------| +| `type` | Cadena | Sí | Tipo de procesador. | +| `name` | Cadena | No | Nombre del procesador. | +| `is_enabled` | Booleano | No | Si el procesador está activado. Por defecto: `false`. | +| `operation.type` | Cadena | Sí | Tipo de funcionamiento del procesador de matrices. | +| `operation.source` | Cadena | Sí | Atributo a añadir. | +| `operation.target` | Cadena | Sí | Atributo de matriz al que añadir. | +| `operation.preserve_source` | Booleano | No | Si se conserva la fuente original después de la reasignación. Por defecto: `false`. | + +[1]: /es/api/v1/logs-pipelines/ +{{% /tab %}} +{{< /tabs >}} + +## Procesador decodificador + +El procesador decodificador traduce los campos de cadena codificados de binario a texto (como Base64 o Hex/Base16) a su representación original. Esto permite interpretar los datos en su contexto nativo, ya sea como cadena UTF-8, comando ASCII o valor numérico (por ejemplo, un número entero derivado de una cadena hexadecimal). El procesador decodificador es especialmente útil para analizar comandos codificados, logs de sistemas específicos o técnicas de evasión utilizadas por actores de amenazas. + +**Notas**: + +- Cadenas truncadas: El procesador maneja las cadenas Base64/Base16 parcialmente truncadas con elegancia, recortándolas o rellenándolas según sea necesario. + +- Formato hexadecimal: La entrada hexadecimal puede descodificarse en una cadena (UTF-8) o en un número entero. + +- Gestión de fallos: Si la descodificación falla (debido a una entrada no válida), el procesador omite la transformación y el log permanece inalterado. + +{{< tabs >}} +{{% tab "UI" %}} + +1. Configura el atributo de origen: Proporciona la ruta del atributo que contiene la cadena codificada, como `encoded.base64`. +2. Selecciona la codificación de origen: Elige la codificación binaria a texto de la fuente: `base64` o `base16/hex`. +2. Para `Base16/Hex`: Elige el formato de salida: `string (UTF-8)` o `integer`. +3. Configura el atributo de destino: Introduce la ruta del atributo para almacenar el resultado decodificado. + +{{< img src="logs/log_configuration/processor/decoder-processor.png" alt="Procesador decodificador - Adjuntar" style="width:80%;" >}} + {{% /tab %}} {{< /tabs >}} @@ -959,7 +1073,7 @@ Para más información, véase [Inteligencia sobre amenazas][9]. *Logging without Limits es una marca registrada de Datadog, Inc. [1]: /es/logs/log_configuration/pipelines/ -[2]: /es/logs/log_configuration/parsing/ +[2]: /es/agent/logs/advanced_log_collection/?tab=configurationfile#scrub-sensitive-data-from-your-logs [3]: /es/logs/log_configuration/parsing/?tab=matchers#parsing-dates [4]: https://en.wikipedia.org/wiki/Syslog#Severity_level [5]: /es/logs/log_collection/?tab=host#attributes-and-tags diff --git a/content/es/metrics/metrics-without-limits.md b/content/es/metrics/metrics-without-limits.md index 8c7a7d62e5a3d..a7e27aeabe336 100644 --- a/content/es/metrics/metrics-without-limits.md +++ b/content/es/metrics/metrics-without-limits.md @@ -5,6 +5,7 @@ algolia: aliases: - /es/metrics/faq/metrics-without-limits/ - /es/metrics/guide/metrics-without-limits-getting-started/ +- /es/metrics/faq/why-is-my-save-button-disabled/ further_reading: - link: https://www.datadoghq.com/blog/metrics-without-limits tag: Blog @@ -21,57 +22,85 @@ title: Metrics without LimitsTM Metrics without LimitsTM proporciona flexibilidad y control sobre tus volúmenes de métricas personalizadas al desvincular la ingesta e indexación de métricas personalizadas. Solo pagas por las etiquetas (tags) de las métricas personalizadas que son valiosas para tu organización. -Metrics without LimitsTM te permite configurar etiquetas en todos los tipos de métricas de la aplicación. También puedes personalizar las agregaciones en counts, tasas y medidores sin tener que volver a desplegar o cambiar código. Con Metrics without LimitsTM, puedes configurar una lista de etiquetas permitidas en la aplicación para que se puedan consultar en toda la plataforma de Datadog; esto elimina de manera automática las etiquetas que no son esenciales asociadas a métricas de nivel de aplicación o empresariales (por ejemplo, `host`). De manera alternativa, puedes configurar una lista de etiquetas bloqueadas en la aplicación para eliminar y excluir con rapidez las etiquetas; esto conserva de manera automática las etiquetas esenciales restantes que brindan valor empresarial a tus equipos. Estas funcionalidades de configuración se encuentran en la página de [Resumen de métricas][1]. +Metrics without LimitsTM te permite configurar las etiquetas de todos los tipos de métricas en la aplicación seleccionando una lista de etiquetas permitidas que se pueden consultar en Datadog; de este modo, se eliminan automáticamente las etiquetas no esenciales asociadas a métricas empresariales o de nivel de aplicación (por ejemplo, `host`). Como alternativa, puedes configurar una lista de bloqueo de etiquetas en la aplicación para eliminar y excluir etiquetas; de este modo, se conservan automáticamente las etiquetas esenciales restantes que aportan valor empresarial a tus equipos. Estas funciones de configuración se encuentran en la página [Resumen de métricas][1]. En esta página se identifican los componentes clave de Metrics without LimitsTM que pueden ayudarte a gestionar los volúmenes de métricas personalizadas dentro de tu presupuesto de observabilidad. -### Configuración de etiquetas +### Configuración de etiquetas para una única métrica #### Lista de etiquetas permitidas + 1. Haz clic en el nombre de cualquier métrica para abrir su panel lateral de detalles. -2. Haz clic en **Manage Tags** (Gestionar etiquetas) -> **«Include Tags...»** (Incluir etiquetas...) para configurar las etiquetas que quieras que se puedan consultar en dashboards, notebooks, monitores y otros productos de Datadog. +2. Haz clic en **Manage Tags** (Gestionar etiquetas), luego en **Include tags** (Incluir etiquetas) para configurar las etiquetas que quieras que se puedan consultar en dashboards, notebooks, monitores y otros productos de Datadog. 3. Define tu lista de etiquetas permitidas. -De manera predeterminada, el modal de configuración de etiquetas se completa previamente con una lista de etiquetas permitidas recomendadas por Datadog que se consultaron de manera activa en dashboards, notebooks, monitores o a través de la API en los últimos 30 días. Las etiquetas recomendadas se distinguen con un icono de línea de gráfica. +De manera predeterminada, el modal de configuración de etiquetas se completa previamente con una lista de etiquetas permitidas recomendadas por Datadog que se consultaron de manera activa en dashboards, notebooks, monitores o a través de la API en los últimos 30 días. Las etiquetas recomendadas se distinguen con un icono de gráficos de línea. + a. Además, incluye las etiquetas que se utilizan en los activos (dashboards, monitores, notebooks y SLOs). Estas etiquetas se utilizan en los activos, pero no se consultan activamente y están marcadas con un icono de objetivo. Si las añades, te asegurarás de no perder visibilidad de tus activos críticos. 4. Revisa el *Estimated New Volume* (Nuevo volumen estimado) de métricas personalizadas indexadas que resultan de esta posible configuración de etiquetas. -5. Haz clic en **Guardar**. +5. Haz clic en **Save** (Guardar). + +{{< img src="metrics/mwl_example_include_tags-compressed_03182025.mp4" alt="Configuración de etiquetas con la lista de permitidos" video="true" style="width:100%" >}} -{{< img src="metrics/mwl_example_include_tags-compressed.mp4" alt="Configuración de etiquetas con la lista de permitidas" video=true style="width:100%" >}} +{{< img src="metrics/tags_used_assets.png" alt="Mostrar a los clientes que pueden añadir etiquetas utilizadas en activos en su configuración de MWL" style="width:100%" >}} Puedes [crear][2], [editar][3], [eliminar][4] y [estimar el impacto][5] de la configuración de tu etiqueta a través de las APIs de Metrics. #### Lista de etiquetas bloqueadas + 1. Haz clic en el nombre de cualquier métrica para abrir su panel lateral de detalles. -2. Haz clic en **Manage Tags** (Gestionar etiquetas) -> **«Exclude Tags...»** (Excluir etiquetas...) para eliminar las etiquetas que no quieres consultar. -3. Define tu lista de etiquetas bloqueadas. Las etiquetas que se definan en la lista de bloqueadas **no** se pueden consultar en dashboards ni monitores. Las etiquetas que se han consultado de manera activa en dashboards, notebooks, monitores y a través de la API en los últimos 30 días se distinguen con un icono de línea de gráfica. -5. Revisa el *Estimated New Volume* (Nuevo volumen estimado) de métricas personalizadas indexadas que resultan de esta posible configuración de etiquetas. -6. Haz clic en **Guardar**. +2. Haz clic en **Manage Tags** (Administrar etiquetas), luego, en **Exclude Tags** (Excluir etiquetas). +3. Define tu lista de etiquetas bloqueadas. Las etiquetas que se definan en la lista de bloqueadas **no** se pueden consultar en dashboards ni monitores. Las etiquetas que se han consultado de manera activa en dashboards, notebooks, monitores y a través de la API en los últimos 30 días se distinguen con un icono del gráfico de líneas. +4. Revisa el *Estimated New Volume* (Nuevo volumen estimado) de métricas personalizadas indexadas que resultan de esta posible configuración de etiquetas. +5. Haz clic en **Save** (Guardar). -{{< img src="metrics/mwl-example-tag-exclusion-compressed.mp4" alt="Configuración de etiquetas con exclusión de etiquetas" video=true style="width:100%" >}} +{{< img src="metrics/mwl-example-tag-exclusion-compressed_04032025.mp4" alt="Configuración de etiquetas con exclusión de etiquetas" video="true" style="width:100%" >}} Establece el parámetro `exclude_tags_mode: true` en la API de Metrics para [crear][2] y [editar][3] una lista de etiquetas bloqueadas. -Al configurar etiquetas para counts, tasas y medidores, la combinación de agregación de tiempo/espacio consultada con mayor frecuencia se encuentra disponible para consultar de manera predeterminada. +**Nota:** Para que las etiquetas se gestionen en una métrica, ésta debe tener un tipo declarado. Esto se hace normalmente cuando se envía una métrica, pero también puede hacerse manualmente utilizando el botón `Edit` para una métrica en Resumen de métricas. + +#### En la API + +Puedes [crear][2], [editar][3], [eliminar][4] y [estimar el impacto][5] de la configuración de tu etiqueta a través de las APIs de Metrics. ### Configurar varias métricas a la vez -Optimiza los volúmenes de métricas personalizadas mediante la [función de configuración masiva de etiquetas de métricas][7]. A fin de especificar un espacio de nombres para tus métricas, haz clic en **Configure Tags*** (Configurar etiquetas) en Resumen de métricas. Puedes configurar todas las métricas que coincidan con ese prefijo de espacio de nombres con la misma lista de etiquetas permitidas en ***Include tags...*** (Incluir tags...) o la misma lista de etiquetas bloqueadas en ***Exclude tags...*** (Excluir etiquetas...). +Optimiza tus volúmenes de métricas personalizadas utilizando la [función de configuración en bloque de etiquetas de métricas][7]. Para especificar las métricas que deseas configurar, haz clic en **Configure Metrics** (Configurar métricas) y, a continuación, en **Manage Tags*** (Gestionar etiquetas) en la página de resumen de métricas. Selecciona la métrica o el espacio de nombres de métricas que desees configurar y, a continuación, elige una de las siguientes opciones: + - [Permitir todas las etiquetas](#allow-all-tags) para anular cualquier configuración de etiquetas anterior y hacer que todas las etiquetas se puedan consultar. + - [Incluir o excluir etiquetas](#include-or-exclude-tags) para definir etiquetas consultables y no consultables, respectivamente. + +#### Permitir todas las etiquetas + +{{< img src="metrics/bulk_allow_all_tags.png" alt="La opción Administrar etiquetas con Permitir todas las etiquetas seleccionada en la sección Configurar etiquetas" style="width:100%" >}} + +Esta opción está seleccionada por defecto y anula las configuraciones de etiquetas establecidas previamente para que todas las etiquetas sean consultables. + +#### Incluir o excluir etiquetas + +Cuando selecciones etiquetas para incluir o excluir, elige entre [anular las configuraciones de etiquetas existentes](#override-existing-tag-configurations) o [mantener las configuraciones de etiquetas existentes](#keep-existing-tag-configurations). + +##### Anular configuraciones de etiquetas existentes + +{{< img src="metrics/bulk_include_tags.png" alt="La opción Administrar etiquetas con Incluir etiquetas y Anular seleccionada en la sección Configurar etiquetas. Las opciones para incluir etiquetas consultadas de forma activa en dashboards y monitores en los últimos 90 días y Etiquetas específicas están seleccionadas" style="width:100%" >}} + +Se anulan todas las configuraciones de etiquetas existentes para las métricas seleccionadas y se define una nueva configuración de etiquetas. Esto te permite hacer que todas las etiquetas se puedan consultar en todos los nombres de métricas. Si eliges **incluir etiquetas**, puedes incluir una o ambas de las siguientes opciones: + - Etiquetas consultadas activamente en Datadog en los últimos 30, 60 o 90 días. + - Un conjunto específico de etiquetas que defines. -Puedes [configurar][13] y [eliminar][14] etiquetas para varias métricas a través de la API. A fin de [configurar una lista de etiquetas bloqueadas][13] para varias métricas, establece el parámetro `exclude_tags_mode: true` en la API. +##### Mantener las configuraciones de etiquetas existentes -### Refinar y optimizar las agregaciones +{{< img src="metrics/bulk_exclude_tags.png" alt="La opción Administrar etiquetas con Excluir etiquetas y Mantener seleccionadas en la sección Configurar etiquetas" style="width:100%" >}} -Puedes ajustar aún más tus filtros de métricas personalizadas si optas por más [agregaciones de métricas][6] en tus métricas de medidor, count o tasa. A fin de preservar la precisión matemática de tus consultas, Datadog solo almacena la combinación de agregación de tiempo/espacio consultada con mayor frecuencia para un tipo de métrica determinado: +Se conservan las configuraciones de etiquetas existentes y se definen las nuevas etiquetas que se añadirán a la configuración. -- Los counts y tasas configurados se pueden consultar en tiempo/espacio con SUM -- Los medidores configurados se pueden consultar en tiempo/espacio con AVG +#### En la API -Puedes añadir o eliminar agregaciones en cualquier momento sin necesidad de realizar cambios en el nivel de código o Agent. +Puedes [configurar][13] y [eliminar][14] etiquetas para múltiples métricas a través de la API. -El modal de configuración de etiquetas se completa previamente con una lista de agregaciones permitidas que se han consultado de manera activa en dashboards, notebooks, monitores y a través de la API en los últimos 30 días (de color azul con un icono). También puedes incluir tus propias agregaciones adicionales. +**Nota**: Utiliza el atributo `include_actively_queried_tags_window` para incluir sólo las etiquetas consultadas activamente en un periodo determinado. ## Facturación de Metrics without LimitsTM -La configuración de las etiquetas y agregaciones te permite controlar qué métricas personalizadas se pueden consultar, lo que en última instancia reduce la cantidad facturable de métricas personalizadas. Metrics without LimitsTM desvincula los costes de ingesta de los costes de indexación. Puedes continuar enviando a Datadog todos los datos (se ingiere todo) y puedes especificar una lista de etiquetas permitidas que quieras que se puedan consultar en la plataforma de Datadog. Si el volumen de datos que Datadog ingiere para las métricas configuradas difiere del volumen restante más pequeño que indexas, puedes ver dos volúmenes distintos en la página de Uso, así como en la página de Resumen de métricas. +La configuración de tus etiquetas te permite controlar qué métricas personalizadas pueden consultarse, lo que reduce el número de métricas personalizadas facturables. Metrics without LimitsTM desvincula los costes de ingesta de los costes de indexación. Puedes seguir enviando a Datadog todos tus datos (todo se ingiere) y puedes especificar una lista de etiquetas permitidas que deseas que sigan siendo consultables en la plataforma de Datadog. Si el volumen de datos que Datadog está ingiriendo para tus métricas configuradas difiere del volumen restante más pequeño que indexas, puedes ver dos volúmenes distintos en tu pagina de Uso, así como en la página Resumen de métricas. - **Métricas personalizadas ingeridas**: el volumen original de métricas personalizadas basadas en todas las etiquetas ingeridas. - **Métricas personalizadas indexadas**: el volumen de métricas personalizadas de tipo consultable que queda en la plataforma de Datadog (en función de las configuraciones de Metrics without LimitsTM) @@ -103,7 +132,7 @@ Obtén más información sobre la [Facturación de métricas personalizadas][8]. - El [control de acceso basado en roles][11] para Metrics without LimitsTM también se encuentra disponible a fin de controlar qué usuarios tienen permisos para usar esta función que tiene implicaciones de facturación. -- Los eventos de auditoría te permiten realizar un seguimiento de las configuraciones de etiquetas o las agregaciones de percentiles que se hayan realizado y que puedan correlacionarse con picos de métricas personalizadas. Busca «tags:audit» y «configuración de etiquetas consultable» o «agregaciones de percentiles» en tu [Flujo de eventos][12] +- Los eventos de auditoría te permiten realizar un seguimiento de las configuraciones de etiquetas o las agregaciones de percentiles que se hayan realizado y que puedan correlacionarse con picos de métricas personalizadas. Busca "tags:audit" y "configuración de etiquetas consultable" o "agregaciones de percentiles" en tu [Flujo de eventos][12]. \*Metrics without Limits es una marca registrada de Datadog, Inc. diff --git a/content/es/metrics/summary.md b/content/es/metrics/summary.md index bdb19d672ea99..a19dd8ebf3577 100644 --- a/content/es/metrics/summary.md +++ b/content/es/metrics/summary.md @@ -21,9 +21,9 @@ Busca tus métricas por nombre de métrica o etiqueta (tag) utilizando los campo {{< img src="metrics/summary/tag_advanced_filtering.png" alt="Página de resumen de métricas SIN equipo:* ingresado en la barra de búsqueda por etiquetas" style="width:75%;">}} -También puede descubrir métricas relevantes utilizando el soporte mejorado de concordancia difusa en el campo de búsqueda de métricas: +También puedes detectar métricas relevantes utilizando la compatibilidad mejorada de concordancia difusa en el campo de búsqueda de métricas: -{{< img src="metrics/summary/metric_advanced_filtering_fuzzy.png" alt="The metrics summary Page ( página) with fuzzy search searching shopist checkout" style="width:75%;">}} +{{< img src="metrics/summary/metric_advanced_filtering_fuzzy.png" alt="La página de resumen de métricas con búsqueda difusa que busca el pago en Shopist" style="width:75%;">}} El filtrado por etiquetas admite la sintaxis booleana y de comodín para que puedas identificar: * Métricas que están etiquetadas con una clave de etiqueta concreta, por ejemplo, `team`: `team:*` @@ -149,12 +149,13 @@ Para cualquier clave concreta de etiqueta, puedes: ### Activos relacionados con métricas -{{< img src="metrics/summary/related_assets_dashboards.png" alt="Activos relacionados para un nombre de métricas especificado" style="width:80%;">}} +{{< img src="metrics/summary/related_assets_dashboards_08_05_2025.png" alt="Activos relacionados para un nombre de métricas específico" style="width:80%;">}} Para determinar el valor de cualquier nombre de métrica para tu organización, utiliza Activos relacionados de métricas. Los activos relacionados de métricas se refieren a cualquier dashboard, notebook, monitor, o SLO que consulta una métrica en particular. 1. Desplázate hasta la parte inferior del panel lateral de detalles de la métrica, hasta la sección **Recursos relacionados**. 2. Haz clic en el botón desplegable para ver el tipo de recurso relacionado que te interesa en (dashboards, monitores, notebooks, SLOs). Además, puedes utilizar la barra de búsqueda para validar activos específicos. +3. La columna **Tags** (Etiquetas) muestra exactamente qué etiquetas se utilizan en cada activo. ## Explorador de la cardinalidad de etiquetas de métricas personalizadas diff --git a/content/es/metrics/units.md b/content/es/metrics/units.md index 48e8103bd3fae..a2efe23549279 100644 --- a/content/es/metrics/units.md +++ b/content/es/metrics/units.md @@ -25,9 +25,13 @@ Por ejemplo, si tienes un punto de datos que es 3.000.000.000: * Si no has especificado una unidad para este punto de datos, aparecerá "3G". * Si has especificado que este punto de datos está en bytes, aparecerá "3GB". -Las unidades también se muestran en la parte inferior de las gráficas de timeboard, y las descripciones de métricas están disponibles al seleccionar **Metrics Info** del menú desplegable: +Haz clic en el botón de pantalla completa situado en la esquina superior derecha del gráfico para ver las unidades que aparecen en la parte inferior: -{{< img src="metrics/units/annotated_ops.png" alt="Operaciones anotadas" style="width:100%;">}} +{{< img src="metrics/units/metrics_units.png" alt="Las unidades de un gráfico de métricas en el modo pantalla completa" style="width:100%;">}} + +En el gráfico de una métrica, haz clic en el menú contextual (tres puntos verticales) para encontrar la opción **Metrics info** (Información de la métrica). Esto abre un panel con una descripción de la métrica. Al hacer clic en el nombre de la métrica en este panel, se abre la métrica en la página del resumen de métricas para su posterior análisis o edición. + +{{< img src="metrics/units/metrics_info.png" alt="La opción Información de métricas en el menú de contexto ampliado (tres puntos verticales)" style="width:100%;">}} Para cambiar una unidad de métrica, ve a la página de [resumen de métricas][1] y selecciona una métrica. Haz clic en **Edit** en **Metadata** y selecciona una unidad, como `bit` o `byte` del menú desplegable. diff --git a/content/es/monitors/guide/how-to-set-up-rbac-for-monitors.md b/content/es/monitors/guide/how-to-set-up-rbac-for-monitors.md index 62912e4bf47c7..7a4cf8085848a 100644 --- a/content/es/monitors/guide/how-to-set-up-rbac-for-monitors.md +++ b/content/es/monitors/guide/how-to-set-up-rbac-for-monitors.md @@ -1,4 +1,7 @@ --- +description: Configura el control de acceso basado en roles (RBAC) para monitores + con el fin de restringir los permisos de edición a roles específicos y evitar cambios + no autorizados. further_reading: - link: /account_management/rbac/permissions/#monitors tag: Documentación @@ -133,7 +136,7 @@ Puedes actualizar la definición de los monitores que se gestionan mediante API Para obtener más información, consulta [Editar un endpoint de API de monitor][3] y [API de políticas de restricción][4]. -### IU +### Interfaz de usuario Todos los nuevos monitores creados desde la interfaz de usuario utilizan el parámetro `restricted_roles`. Todos los monitores muestran también la opción de restricción de roles independientemente del mecanismo subyacente: diff --git a/content/es/monitors/guide/monitor_api_options.md b/content/es/monitors/guide/monitor_api_options.md index 7990a257e7d6d..46cd62b789215 100644 --- a/content/es/monitors/guide/monitor_api_options.md +++ b/content/es/monitors/guide/monitor_api_options.md @@ -1,4 +1,7 @@ --- +description: Referencia completa para las opciones de configuración de la API monitores + (noun), incluidos los parámetros comunes, los permisos, las alertas de anomalías + y las alertas de métricas. title: Opciones de la API Monitor --- diff --git a/content/es/monitors/guide/template-variable-evaluation.md b/content/es/monitors/guide/template-variable-evaluation.md index 02d39e49b7c10..d0126af08beda 100644 --- a/content/es/monitors/guide/template-variable-evaluation.md +++ b/content/es/monitors/guide/template-variable-evaluation.md @@ -1,4 +1,7 @@ --- +description: Modifica la salida de variables de plantilla en las notificaciones de + monitor utilizando operaciones matemáticas, funciones y manipulación de cadenas + con la sintaxis eval. title: Evaluación de variables de plantilla --- diff --git a/content/es/monitors/notify/_index.md b/content/es/monitors/notify/_index.md index b6f7df339f3ea..508f40fafd2fb 100644 --- a/content/es/monitors/notify/_index.md +++ b/content/es/monitors/notify/_index.md @@ -112,7 +112,7 @@ Cuando se crea un incidente a partir de un monitor, los [valores de campo][13] d Las notificaciones del monitor incluyen contenidos como la consulta de monitor, las @-mentions utilizadas, las snapshots de métrica (para monitores de métrica) y enlaces a páginas relevantes en Datadog. Tienes la opción de elegir qué contenido deseas incluir o excluir de notificaciones para monitores individuales. -
Las métricas de distribución con agregadores de percentil (como `p50`, `p75`, `p95`, o `p99`) no generan un gráfico de snapshot en notificaciones.
+
Las métricas de distribución con agregadores de percentiles (como `p50`, `p75`, `p95` o `p99`) no generan un gráfico de snapshot en las notificaciones.
{{< img src="monitors/notifications/monitor_notification_presets.png" alt="Establecer una configuración previa de un monitor" style="width:70%;" >}} diff --git a/content/es/monitors/notify/variables.md b/content/es/monitors/notify/variables.md index cd3a88fff5c70..fcf9d9515394f 100644 --- a/content/es/monitors/notify/variables.md +++ b/content/es/monitors/notify/variables.md @@ -146,7 +146,7 @@ O utiliza el parámetro `{{else}}` del primer ejemplo: @slack-example {{/is_match}} ``` -**Nota**: Para comprobar si un `` no existe o si está vacío, utiliza `is_exact_match`. Consulta la pestaña `is_exact_match` para más detalles. +**Nota**: Para comprobar si uns `` no existe o si está vacía, utiliza `is_exact_match`. Consulta la pestaña `is_exact_match` para más detalles. {{% /tab %}} {{% tab "is_exact_match" %}} @@ -197,7 +197,7 @@ La variable condicional `is_exact_match` también admite una cadena vacía para ```text {{#is_exact_match "host.datacenter" ""}} This displays if the attribute or tag does not exist or if it's empty -{{/is_match}} +{{/is_exact_match}} ``` @@ -264,7 +264,7 @@ Atributos ### Variables de alerta múltiple -Configura variables de multialertas en [monitores de multialertas][1] en función de la dimensión seleccionada en el cuadro de grupo de multialertas. Mejora las notificaciones incluyendo dinámicamente en cada alerta el valor asociado a la dimensión agrupada. +Configura variables de multialertas en [monitores de multialertas][1] en función de la dimensión seleccionada en el cuadro de grupo de multialertas. Enriquece las notificaciones incluyendo dinámicamente en cada alerta el valor asociado a la dimensión agrupada. **Nota**: Cuando se utiliza el campo `group_by` en la agregación, las etiquetas y alertas adicionales del monitor pueden heredarse automáticamente. Esto significa que cualquier alerta o configuración establecida en el endpoint supervisado podría aplicarse a cada grupo resultante de la agregación. @@ -381,31 +381,23 @@ Para documentos y enlaces también puedes acceder a un elemento específico con ``` {{% /collapse-content %}} +### Unión de variables de atributo/etiqueta +Puedes incluir cualquier atributo o etiqueta de un log, tramo de traza, evento RUM, CI pipeline, o evento de CI test que coincida con la consulta de monitor. La siguiente tabla muestra ejemplos de atributos y variables que puedes añadir de diferentes tipos de monitor. -### Unión de variables de atributo/etiqueta +
Para ver la lista completa de variables disponibles para tu monitor, en la parte inferior de la configuración de notificaciones, haz clic en Add Variable (Añadir variable) y selecciona una de las opciones del menú desplegado.
- - -Para incluir **cualquier** atributo o etiqueta de un log, un tramo (span) de traza (trace), un evento RUM, un CI Pipeline, o un evento de CI Test que coincida con la consulta del monitor, utiliza las siguientes variables: - -| Tipo de monitor | Sintaxis de la variable | -|-----------------|--------------------------------------------------| -| Log | `{{log.attributes.key}}` o `{{log.tags.key}}` | -| Trace Analytics | `{{span.attributes.key}}` o `{{span.tags.key}}` | -| Error Tracking | `{{issue.attributes.key}}` | -| RUM | `{{rum.attributes.key}}` o `{{rum.tags.key}}` | -| Audit Trail | `{{audit.attributes.key}}` o `{{audit.message}}` | -| CI Pipeline | `{{cipipeline.attributes.key}}` | -| CI Test | `{{citest.attributes.key}}` | -| Database Monitoring | `{{databasemonitoring.attributes.key}}` | +| Tipo de monitor | Sintaxis de la variable | +|--------------------------|--------------------------------------------------------| +| [Audit Trail][16] | `{{audit.attributes.key}}` o `{{audit.message}}` | +| [CI Pipeline][17] | `{{cipipeline.attributes.key}}` | +| [CI Test][18] | `{{citest.attributes.key}}` | +| [Database Monitoring][19]| `{{databasemonitoring.attributes.key}}` | +| [Error Tracking][14] | `{{issue.attributes.key}}` | +| [Log][12] | `{{log.attributes.key}}` o `{{log.tags.key}}` | +| [RUM][15] | `{{rum.attributes.key}}` o `{{rum.tags.key}}` | +| [Synthetic Monitoring][20]| `{{synthetics.attributes.key}}` | +| [Trace Analytics][13] | `{{span.attributes.key}}` o `{{span.tags.key}}` | {{% collapse-content title="Ejemplo de uso de sintaxis" level="h4" %}} - Para cualquier par `key:value`, la variable `{{log.tags.key}}` se convierte en `value` en el mensaje de alerta. @@ -425,10 +417,8 @@ Para incluir **cualquier** atributo o etiqueta de un log, un tramo (span) de tra {{ event.tags.[dot.key.test] }} ``` - {{% /collapse-content %}} - #### Notas importantes - Si el evento seleccionado no incluye la clave de atributo o etiqueta, la variable aparece vacía en el mensaje de notificación. Para evitar que se pierdan notificaciones, evita utilizar estas variables para enrutar notificaciones con indicadores `{{#is_match}}`. @@ -515,7 +505,7 @@ Las variables de plantilla de monitor `{{first_triggered_at}}`, `{{first_trigger {{< img src="monitors/notifications/triggered_variables.png" alt="Muestra cuatro transiciones con marcas temporales A: 1419 OK a WARN, B: 1427 WARN a ALERT, C: 1445 ALERT a NO DATA, D: 1449 NO DATA a OK" style="width:90%;">}} -**Ejemplo**: Cuando el monitor pasa de `OK` → `WARN`, los valores de `{{first_triggered_at}}` y `{{last_triggered_at}}` tienen ambos la marca temporal A. La tabla siguiente muestra los valores hasta que el monitor se recupera. +**Ejemplo**: Cuando el monitor pasa de `OK` → `WARN`, los valores de `{{first_triggered_at}}` y `{{last_triggered_at}}` tienen ambos la marca temporal A. La tabla siguiente muestra los valores hasta que el monitor se recupere. | Transición | first_triggered_at | last_triggered_at | triggered_duration_sec | |------------------ |-------------------------------- |-------------------------------- |-------------------------------- | @@ -716,4 +706,13 @@ https://app.datadoghq.com/services/{{urlencode "service.name"}} [8]: https://en.wikipedia.org/wiki/List_of_tz_database_time_zones [9]: /es/monitors/types/error_tracking/ [10]: /es/software_catalog/service_definitions/ -[11]: https://docs.datadoghq.com/es/software_catalog/service_definitions/v2-2/#example-yaml \ No newline at end of file +[11]: https://docs.datadoghq.com/es/software_catalog/service_definitions/v2-2/#example-yaml +[12]: /es/monitors/types/log/ +[13]: /es/monitors/types/apm/?tab=analytics +[14]: /es/monitors/types/error_tracking/ +[15]: /es/monitors/types/real_user_monitoring/ +[16]: /es/monitors/types/audit_trail/ +[17]: /es/monitors/types/ci/?tab=tests +[18]: /es/monitors/types/ci/?tab=pipelines +[19]: /es/monitors/types/database_monitoring/ +[20]: /es/synthetics/notifications/template_variables/ \ No newline at end of file diff --git a/content/es/network_monitoring/cloud_network_monitoring/_index.md b/content/es/network_monitoring/cloud_network_monitoring/_index.md index 8585bf61270d8..0727a7b621ffa 100644 --- a/content/es/network_monitoring/cloud_network_monitoring/_index.md +++ b/content/es/network_monitoring/cloud_network_monitoring/_index.md @@ -56,8 +56,8 @@ Además, la [ruta de red][5], una función de CNM, está disponible en Vista pre {{< whatsnext desc="Esta sección incluye los siguientes temas:">}} {{< nextlink href="network_monitoring/cloud_network_monitoring/setup" >}}Configuración: configura el Agent para recopilar datos de red.{{< /nextlink >}} {{< nextlink href="network_monitoring/cloud_network_monitoring/network_analytics" >}}Análisis de red: grafica tus datos de red entre cada cliente y servidor disponible.{{< /nextlink >}} - {{< nextlink href="network_monitoring/cloud_network_monitoring/network_map" >}}Mapa de redes: asigna tus datos de red entre tus etiquetas.{{< /nextlink >}} - {{< nextlink href="monitors/types/cloud_network_monitoring/" >}}Monitores recomendados : configura los monitores de CNM recomendados.{{< /nextlink >}} + {{< nextlink href="network_monitoring/cloud_network_monitoring/network_map" >}}Mapa de red: asigna tus datos de red entre tus etiquetas.{{< /nextlink >}} + {{< nextlink href="monitors/types/cloud_network_monitoring/#common-monitors" >}}Monitores comunes: configura monitores de CNM comunes.{{< /nextlink >}} {{< /whatsnext >}} ## Referencias adicionales diff --git a/content/es/network_monitoring/cloud_network_monitoring/network_analytics.md b/content/es/network_monitoring/cloud_network_monitoring/network_analytics.md index aa13b7919f1f0..f216f65a31b8e 100644 --- a/content/es/network_monitoring/cloud_network_monitoring/network_analytics.md +++ b/content/es/network_monitoring/cloud_network_monitoring/network_analytics.md @@ -144,22 +144,80 @@ Las etiquetas neutras no son específicas de un cliente o servidor, sino que se La siguiente lista muestra etiquetas neutras disponibles para su uso: -| Etiqueta | Descripción | -|-------------------------|-----------------------------------------------------------------------------------------------| -| `is_agent_traffic` | Indica si el tráfico fue generado por el Datadog Agent. | -| `tls_encrypted` | Especifica si la conexión está cifrada mediante TLS. | -| `tls_cipher_suite` | Identifica el conjunto de cifrado TLS utilizado (por ejemplo, `tls_ecdhe_rsa_with_aes_128_gcm_sha256`). | -| `tls_cipher_insecure` | Indica si el cifrado utilizado se considera seguro. | -| `tls_version` | Versión de TLS utilizada (`tls_1.2` o `tls_1.3`). | -| `tls_client_version` | Versiones de TLS compatibles con el cliente (`tls_1.2` o `tls_1.3`). | -| `gateway_id` | Identificador único del recurso de pasarela AWS. | -| `gateway_type` | Tipo de puerta de enlace AWS (Internet, NAT o Tránsito). | -| `gateway_region` | Región AWS de la puerta de enlace (por ejemplo, `us-east-1`). | -| `gateway_availability-zone` | Zona de disponibilidad que aloja la puerta de enlace (por ejemplo, `us-east-1a`). | -| `gateway_public_ip` | Dirección IP pública asignada a la puerta de enlace NAT. | -| `tgw_attachment_id` | Identificador único de la conexión de AWS Transit Gateway. | -| `tgw_attachment_type` | Tipo de adjunto de la puerta de enlace de tránsito (por ejemplo, VPC, VPN, Direct Connect). | -| `vpc_endpoint_id` | Identificador único del endpoint de la VPC. | + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
EtiquetaDescripción
gateway_availability-zoneZona de disponibilidad que aloja la gateway (por ejemplo, us-east-1a).
gateway_idIdentificador único para el recurso gateway de AWS.
gateway_public_ipDirección IP pública asignada a la gateway NAT.
gateway_regionRegión de AWS de la gateway (por ejemplo, us-east-1).
gateway_typeTipo de gateway de AWS (internet, NAT o Transit).
intra_availability_zoneIndica si los flujos de red están dentro de la zona de disponibilidad (true), zona entre disponibilidad (false) o no determinado (unknown). Nota: No se aplica para Azure.
intra_regionIndica si los flujos de red están dentro de una región (true), entre regiones (false), o no determinado (unknown).
is_agent_trafficIndica si al tráfico lo generó el Datadog Agent.
tgw_attachment_idIdentificador único para el adjunto de AWS Transit Gateway.
tgw_attachment_typeTipo de adjunto de Transit Gateway (por ejemplo, VPC, VPN, Direct Connect).
tls_cipher_insecureIndica si eli cipher se considera seguro.
tls_cipher_suiteIdentifica si el conjunto de cipher TLS utilizado (por ejemplo, tls_ecdhe_rsa_with_aes_128_gcm_sha256).
tls_client_versionLa versión de TLS admitida por el cliente (tls_1.2 o tls_1.3).
tls_encryptedEspecifica si la conexión está cifrada con TLS.
tls_versionLa versión de TLS utilizada (tls_1.2 o tls_1.3).
vpc_endpoint_idIdentificador único para el endpoint de VPC.
## Gráficos de resumen @@ -207,16 +265,19 @@ Están disponibles las siguientes métricas TCP: | Métrica | Descripción | |---|---| -| **Retransmisiones TCP** | Las retransmisiones TCP representan los fallos detectados que se retransmiten para garantizar la entrega, medidas como recuento de retransmisiones del cliente. | -| **Latencia TCP** | Medida como tiempo de ida y vuelta suavizado por TCP, es decir, el tiempo transcurrido entre el envío y el acuse de recibo de un marco TCP. | -| **Jitter TCP** | Medido como variación del tiempo de ida y vuelta suavizada por TCP. | -| **Tiempos de espera TCP** | Número de conexiones TCP que han expirado desde la perspectiva del sistema operativo. Esto puede indicar problemas generales de conectividad y latencia. | -| **Rechazos de TCP** | Número de conexiones TCP rechazadas por el servidor. Normalmente esto indica un intento de conexión a una IP/puerto que no está recibiendo conexiones o una mala configuración de cortafuegos/seguridad. | -| **Reinicios de TCP** | Número de conexiones TCP reiniciadas por el servidor. | -| **Conexiones establecidas** | Número de conexiones TCP en estado establecido, medidas en conexiones por segundo del cliente. | | **Conexiones finalizadas** | Número de conexiones TCP en estado finalizado, medidas en conexiones por segundo del cliente. | +| **Conexiones establecidas** | Número de conexiones TCP en estado establecido, medidas en conexiones por segundo del cliente. | +| **No se puede alcanzar el host** | Indica cuando el host de destino está fuera de línea o el tráfico está bloqueado por routers o firewall. Disponible en el **Agent 7.68+**. | +| **No se puede alcanzar la red** | Indica problemas de red local en el equipo host del Agent. Disponible en el **Agent 7.68+**. | +| **Cancelaciones de la conexión** | Rastrea las cancelaciones de conexión de TCP y los tiempos de espera de la conexión del espacio de usuario en tiempos de ejecución de lenguajes como `Go` y `Node.js`. Disponible en el **Agent 7.70+**. | +| **Jitter TCP** | Medido como variación del tiempo de ida y vuelta suavizada por TCP. | +| **Latencia TCP** | Medida como tiempo de ida y vuelta suavizado por TCP, es decir, el tiempo transcurrido entre el envío y el acuse de recibo de un marco TCP. | +| **Rechazos de TCP** | Número de conexiones de TCP rechazadas por el servidor. Por lo general, esto indica un intento de conexión a una IP/puerto que no está recibiendo conexiones, o una mala configuración del firewall/seguridad. | +| **Reinicios de TCP** | Número de conexiones de TCP reiniciadas por el servidor. | +| **Retransmisiones TCP** | Las retransmisiones TCP representan los fallos detectados que se retransmiten para garantizar la entrega, medidas como recuento de retransmisiones del cliente. | +| **Tiempos de espera TCP** | Número de conexiones de TCP vencidas desde la perspectiva del sistema operativo. Esto puede indicar problemas generales de conectividad y latencia. | -Todas las métricas se instrumentan desde la perspectiva del lado del `client` de la conexión, cuando está disponible, o del servidor en caso contrario. +Todas las métricas se miden desde el lado `client` de la conexión cuando están disponibles; en caso contrario, desde el lado del servidor. ### Detección automática de servicios en la nube diff --git a/content/es/network_monitoring/devices/_index.md b/content/es/network_monitoring/devices/_index.md index d72d03fe4f515..8ac53a0e7960c 100644 --- a/content/es/network_monitoring/devices/_index.md +++ b/content/es/network_monitoring/devices/_index.md @@ -37,11 +37,12 @@ title: Network Device Monitoring Network Device Monitoring (NDM) te ofrece visibilidad de tus dispositivos de red on-premises y virtuales, como enrutadores, conmutadores y cortafuegos. Detecta automáticamente dispositivos en cualquier red y empieza a recopilar métricas como el uso del ancho de banda, el volumen de bytes enviados y determina si los dispositivos están activos o inactivos. {{< whatsnext desc="Esta sección incluye los siguientes temas:">}} - {{< nextlink href="network_monitoring/devices/getting_started" >}}Empezando: Empezando con Network Device Monitoring{{< /nextlink >}} - {{< nextlink href="network_monitoring/devices/supported_devices" >}}Dispositivos compatibles: Ver los dispositivos NDM compatibles{{< /nextlink >}} - {{< nextlink href="network_monitoring/devices/snmp_metrics?tab=snmpv2" >}}Métricas de SNMP: Recopilar métricas de SNMP de tus dispositivos de red {{< /nextlink >}} - {{< nextlink href="network_monitoring/devices/device_topology_map" >}}Mapa de topología de dispositivos: Visualiza las conexiones físicas de tu red{{< /nextlink >}} - {{< nextlink href="network_monitoring/devices/guide/device_profiles/" >}}Gestor de perfiles SNMP: Empezando con los perfiles de dispositivos{{< /nextlink >}} + {{< nextlink href="network_monitoring/devices/getting_started" >}}Introducción: comenzar con Network Device Monitoring{{< /nextlink >}} + {{< nextlink href="network_monitoring/devices/supported_devices" >}}Dispositivos compatibles: ver los dispositivos de NDM compatibles{{< /nextlink >}} + {{< nextlink href="network_monitoring/devices/snmp_metrics?tab=snmpv2" >}}Métricas de SNMP: recopilar métricas de SNMP desde tus dispositivos de red{{< /nextlink >}} + {{< nextlink href="network_monitoring/devices/device_topology_map" >}}Mapa de topología de dispositivo: ver tus conexiones físicas de red{{< /nextlink >}} + {{< nextlink href="network_monitoring/devices/guide/device_profiles/" >}}Gestor de perfiles de SNMP: introducción a perfiles de dispositivos{{< /nextlink >}} + {{< nextlink href="network_monitoring/devices/integrations/" >}}Integraciones : integraciones de NDM compatibles{{< /nextlink >}} {{< /whatsnext >}} diff --git a/content/es/network_monitoring/devices/troubleshooting.md b/content/es/network_monitoring/devices/troubleshooting.md index 89a691e75ad1a..61a97b7ee4dae 100644 --- a/content/es/network_monitoring/devices/troubleshooting.md +++ b/content/es/network_monitoring/devices/troubleshooting.md @@ -149,6 +149,8 @@ Si ves un error de permiso denegado mientras enlazas puertos en logs del Agent, Si faltan trampas SNMP o tráfico NetFlow, una causa común son las reglas del cortafuegos que bloquean los paquetes UDP antes de que lleguen al Agent. Tanto las trampas SNMP como el tráfico NetFlow dependen de UDP y utilizan los puertos definidos en tu configuración de [datadog.yaml][9]. +
Los firewalls locales como Uncomplicated Firewall (UFW) pueden bloquear el tráfico incluso cuando están configurados con parámetros permisivos. Comprueba los logs del sistema en busca de entradas de paquetes bloqueados, que suelen indicar que el tráfico llegó a la interfaz de red pero se bloqueó antes de llegar al sistema operativo.
+ Utiliza los siguientes comandos específicos de la plataforma para buscar reglas de cortafuegos que puedan estar bloqueando el tráfico y evitando que llegue al Agent. {{< tabs >}} diff --git a/content/es/network_monitoring/netflow/_index.md b/content/es/network_monitoring/netflow/_index.md index fff4db619a0e7..435665da8c9ab 100644 --- a/content/es/network_monitoring/netflow/_index.md +++ b/content/es/network_monitoring/netflow/_index.md @@ -225,7 +225,7 @@ Para visualizar los bytes/paquetes sin procesar (muestreados) enviados por tus d Los datos de NetFlow se conservan durante 30 días por defecto, con opciones de conservación de 15, 30, 60 y 90 días. -
Para conservar los datos de NetFlow durante más tiempo, ponte en contacto con tu representante de cuenta.
+
Para conservar los datos de NetFlow durante más tiempo, ponte en contacto con el representante de tu cuenta.
## Solucionar problemas diff --git a/content/es/network_monitoring/network_path/_index.md b/content/es/network_monitoring/network_path/_index.md index bb8e6492c4848..cb977ad23b0ed 100644 --- a/content/es/network_monitoring/network_path/_index.md +++ b/content/es/network_monitoring/network_path/_index.md @@ -4,6 +4,9 @@ further_reading: - link: https://www.datadoghq.com/blog/datadog-network-path-monitoring/ tag: Blog text: Obtener visibilidad de extremo a extremo de la red con la Ruta de red de Datadog +- link: https://www.datadoghq.com/blog/network-path/ + tag: Blog + text: Identifica las ralentizaciones en toda la red con Datadog Network Path is_beta: true title: Ruta de red --- @@ -13,7 +16,7 @@ title: Ruta de red La Ruta de red ilustra la ruta que sigue el tráfico de red desde su origen hasta su destino. Esto proporciona a los administradores de red la capacidad de identificar con precisión el origen de los problemas de red, ya sean internos o de un proveedor de servicios de Internet (ISP), o debido a otros problemas como un enrutamiento erróneo. Cada fila significa una ruta desde un origen hasta su destino, como se muestra en el panel de facetas `source` y `destination`. -{{< img src="network_performance_monitoring/network_path/network_path_default_view_3.png" alt="La vista predeterminada de Ruta de red, que muestra la ruta desde el origen al destino" >}} +{{< img src="network_performance_monitoring/network_path/network_path_default_view_4.png" alt="La vista predeterminada de Network Path, que muestra la ruta desde la fuente al destino, con la leyenda ampliada" >}} ## Cómo funciona diff --git a/content/es/notebooks/advanced_analysis/_index.md b/content/es/notebooks/advanced_analysis/_index.md index 940376acd7177..ffb981551b76a 100644 --- a/content/es/notebooks/advanced_analysis/_index.md +++ b/content/es/notebooks/advanced_analysis/_index.md @@ -1,4 +1,9 @@ --- +aliases: +- /es/logs/workspaces/ +- /es/logs/workspaces/export/ +description: Realiza análisis avanzados de datos en notebooks con consultas SQL, transformaciones + de datos, uniones y visualizaciones en varios conjuntos de datos. further_reading: - link: /notebooks tag: Documentación @@ -11,7 +16,7 @@ title: Analysis Features {{% site-region region="gov" %}}
-Analysis Features para notebooks no está disponible en el sitio de Datadog ({{< region-param key="dd_site_name" >}}). +Los análisis avanzados en notebooks no están disponibles en el sitio Datadog ({{< region-param key="dd_site_name" >}}).
{{% /site-region %}} @@ -21,53 +26,54 @@ La función de análisis de los notebooks permite realizar análisis avanzados d Los notebooks son editores de texto colaborativos que permiten incrustar gráficos de Datadog directamente en los documentos. Aunque esto es ideal para explorar y narrar, las investigaciones más profundas pueden requerir un control más avanzado sobre las consultas de datos. Las funciones de análisis te permiten realizar consultas que te ayudarán a: -* Consultar en cadena, como la agregación de datos agregados existentes o la unión de dos conjuntos de datos agregados. +* Encadena consultas, como la agregación de datos agregados existentes o la unión de dos conjuntos de datos agregados. * Unir datos de múltiples fuentes de logs y otros conjuntos de datos. -* Realizar parseos avanzados, extraer datos y añadir campos calculados en el momento de la consulta. +* Realiza análisis avanzados, extrae datos y añade campos calculados en el momento de la consulta. * Visualizar conjuntos de datos transformados con gráficos. ## Añadir datos a tu notebook -Para ejecutar consultas complejas en un notebook, añade primero una celda **Data Source** (Fuente de datos). Hay dos maneras de hacerlo: +Para ejecutar consultas complejas en un notebook, añade primero una celda **Fuente de datos**. Hay dos maneras de hacerlo: **Desde un notebook**: -1. Escribe `/datasource` y pulsa Enter (Intro), o haz clic en el cuadro **Data Source** (Fuente de datos) situado en la parte inferior de página. -2. Escribe o selecciona la fuente de datos deseada en el menú desplegable y pulsa Enter (Intro). +1. Escribe `/datasource` y presiona Intro o haz clic en el cuadro **Data Source** (Fuente de datos) situado en la parte inferior de la página. +2. Escribe o seleccione tu fuente de datos deseada en el menú desplegable y presiona Intro.
+**Nota**: Si buscas una fuente de datos y no está disponible, solicítala [aquí][5]. 3. Introduce tu consulta. Los atributos reservados de los logs filtrados se añaden automáticamente como columnas. -**Desde el [Log Explorer][1]**: +**Desde el [Explorador de logs][1]**: -1. Introduce tu consulta en el Log Explorer. -2. Haz clic en **Analyze in Notebooks** (Analizar en notebooks). -3. Marca la casilla **Use as a computational data source** (Utilizar como fuente de datos computacionales) y selecciona el notebook que deseas utilizar. -4. Se añade una celda de fuente de datos al notebook seleccionado con la misma consulta introducida en el Log Explorer. Por defecto, las columnas mostradas en el Log Explorer se incluyen en la celda de fuente de datos. +1. Introduce tu consulta en el Explorador de logs. +2. Haz clic en **Analyze in Notebooks** (Analizar en notebooks). +3. Marca la casilla **Use as a computational data source** (Utilizar como fuente de datos de cálculo) y selecciona el notebook que quieres utilizar. +4. Se añade una celda de fuente de datos al notebook seleccionado con la misma consulta introducida en el Explorador de logs. Por defecto, las columnas mostradas en el Explorador de logs se incluyen en la celda de fuente de datos. ## Configuración de una celda de fuente de datos -Después de añadir una celda de fuente de datos a un notebook, puedes seguir modificándola para estructurar los datos de forma que se adapten a tus necesidades de análisis. +Después de añadir una celda de fuente de datos a un notebook, puedes seguir modificándola para estructurar los datos según tus necesidades de análisis. ### Cambiar el marco temporal de los datos -Por defecto, las celdas de fuente de datos creadas a partir de notebooks utilizan el marco temporal global del notebook. Las celdas de fuente de datos creadas a partir del Log Explorer utilizan una hora local fijada al marco temporal en el momento de la exportación. +Por defecto, las celdas de fuente de datos creadas a partir de notebooks utilizan el marco temporal global del notebook. Las celdas de fuente de datos creadas a partir del Explorador de logs utilizan una hora local fijada al marco temporal en el momento de la exportación. -Puedes cambiar cualquier celda de fuente de datos entre un marco temporal local o global utilizando el botón de alternancia situado en la esquina superior derecha de la celda. +Puedes cambiar cualquier celda de fuente de datos entre un marco temporal local o global, utilizando el botón conmutador situado en la esquina superior derecha de la celda. ### Filtrar la fuente de datos -Independientemente de cómo crees la celda de fuente de datos, puedes modificar la consulta utilizando la barra de búsqueda. Cualquier cambio en la consulta reejecuta automáticamente la celda de fuente de datos y cualquier celda posterior, actualizando la vista previa de los datos. +Independientemente de cómo crees la celda de fuente de datos, puedes modificar la consulta utilizando la barra de búsqueda. Cualquier cambio en la consulta vuelve a ejecutar automáticamente la celda de fuente de datos y cualquier celda posterior, actualizando la vista previa de los datos. ### Añadir o modificar una columna Puedes añadir o modificar columnas en tu celda de fuente de datos. Hay dos formas de ajustar las columnas: -- En la sección de vista previa, haz clic en **columnas** para buscar entre los atributos disponibles para tus fuente de datos. +- En la sección de vista previa, haz clic en **columns** (columnas) para buscar entre los atributos disponibles para tu fuente de datos. - En la vista previa, haz clic en una fila para abrir el panel lateral de detalles. Haz clic en el atributo que desees añadir como columna y, en la opción emergente, selecciona "@your_column" a tu conjunto de datos "@your_datasource". {{< img src="/notebooks/analysis_features/add_column_to_dataset.png" alt="Panel lateral de detalles abierto con la opción para añadir una columna de atributos a la celda de fuente de datos" style="width:100%;" >}} ### Consultas de campos calculados -Puedes tomar consultas existentes del Log Explorer que incluyan [Campos calculados][4] y abrirlas en notebooks. Para transferir estas consultas desde el Log Explorer, haz clic en **More** (Más) y selecciona **Analyze in Notebooks** (Analizar en notebooks). Los campos calculados se convierten automáticamente en una celda de transformación. +Puedes tomar consultas existentes del Explorador de logs que incluyan [Campos calculados][4] y abrirlas en notebooks. Para transferir estas consultas desde el Explorador de logs, haz clic en **More** (Más) y selecciona **Analyze in Notebooks** (Analizar en notebooks). Los campos calculados se convierten automáticamente en una celda de transformación. También puedes crear campos calculados directamente en un notebook para definir un campo calculado a partir de fuentes de datos existentes. Estos campos pueden reutilizarse en análisis posteriores: 1. Abre un Workspace con una fuente de datos. @@ -85,7 +91,7 @@ Puedes añadir varios tipos de celdas para mejorar tus capacidades de análisis. Añade una celda de transformación para filtrar, agrupar, unir o extraer datos definidos en una celda de fuente de datos. -1. Escribe `/transformation` y pulsa Enter (Intro), o bien haz clic en el cuadro del conjunto de datos de transformación situado en la parte inferior de la página. +1. Escribe `/transformation` y presiona Intro o haz clic en el cuadro del conjunto de datos de transformación situado en la parte inferior de la página. 2. Selecciona la fuente de datos que quieres transformar en el menú desplegable del conjunto de datos fuente. Después de añadir la celda de transformación, puedes añadir cualquier número de operaciones de transformación dentro de la celda. Elige una operación de la lista de transformaciones admitidas: @@ -104,9 +110,9 @@ Después de añadir la celda de transformación, puedes añadir cualquier númer También puedes transformar tus datos utilizando SQL añadiendo una celda de análisis a tu notebook. -1. Escribe `/sql` o `/analysis` y pulsa Enter (Intro), o haz clic en el cuadro **SQL Query** (Consulta SQL) situada en la parte inferior de la página. -2. En el desplegable del conjunto de datos fuente, selecciona la fuente de datos que deseas transformar. -3. Escribe tu consulta SQL. Para conocer la sintaxis SQL compatible, consulta la [Referencia de DDSQL][4]. +1. Escribe `/sql` o `/analysis` y presiona Intro o haz clic en el cuadro **SQL Query** (Consulta SQL) situado en la parte inferior de la página. +2. En el desplegable del conjunto de datos de la fuente, selecciona la fuente de datos que quieres transformar. +3. Escribe tu consulta SQL. Para conocer la sintaxis SQL compatible, consulta la [referencia de DDSQL][4]. 4. Haz clic en **Run** (Ejecutar) en la esquina superior derecha de la celda de análisis para ejecutar la consulta. {{< img src="/notebooks/analysis_features/analysis_cell_example.png" alt="Ejemplo de una celda de análisis con datos de transformación de consulta SQL en un notebook" style="width:100%;" >}} @@ -117,9 +123,9 @@ Puedes representar gráficamente los datos que has transformado utilizando celda Para representar gráficamente los datos: -1. Escribe `/graph` y pulsa Enter (Intro), o haz clic en el cuadro **graph dataset** (Conjunto de datos de gráfico) situado en la parte inferior de página. -2. Escribe o selecciona la fuente de datos deseada en el menú desplegable y pulsa Enter (Intro). -3. Selecciona el tipo de visualización en el menú de gráficos y pulsa Enter (Intro). +1. Escribe `/graph` y presiona Intro o haz clic en el cuadro **Graph Dataset** (Graficar conjunto de datos) situado en la parte inferior de la página. +2. Escribe o selecciona tu fuente de datos deseada en el menú desplegable y presiona Intro. +3. Selecciona el tipo de visualización en el menú de gráficos y presiona Intro. ## Visualización y exportación de datos @@ -153,4 +159,5 @@ Para descargar tu conjunto de datos como archivo CSV: [1]: https://app.datadoghq.com/logs [2]: /es/logs/log_configuration/parsing/ [3]: /es/logs/explorer/calculated_fields/expression_language/ -[4]: /es/ddsql_reference/ \ No newline at end of file +[4]: /es/ddsql_reference/ +[5]: https://www.datadoghq.com/product-preview/additional-advanced-querying-data-sources/ \ No newline at end of file diff --git a/content/es/opentelemetry/setup/_index.md b/content/es/opentelemetry/setup/_index.md index 41299a70354f0..11c04adee3e5b 100644 --- a/content/es/opentelemetry/setup/_index.md +++ b/content/es/opentelemetry/setup/_index.md @@ -1,5 +1,4 @@ --- -aliases: null further_reading: - link: /opentelemetry/instrument/ tag: Documentación @@ -7,16 +6,50 @@ further_reading: - link: https://www.datadoghq.com/blog/otel-deployments/ tag: Blog text: Seleccionar el depsliegue de OpenTelemetry -title: Enviar datos a Datadog +title: Enviar datos de OpenTelemetry a Datadog --- -Existen varias formas de enviar datos de OpenTelemetry a Datadog. Elige el método que mejor se adapte a tu infraestructura y a tus requisitos: +En esta página se describen todas las formas de enviar datos de OpenTelemetry (OTel) a Datadog. -| Método | Lo mejor para | Principales ventajas | Documentación | -|---------------------------------|--------------------------------------------------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|-----------------------------------------------| -| Recopilador de OTel | Usuarios nuevos o existentes de OTel que quieren una configuración neutral con respecto al proveedor |
  • Neutralidad total con respecto al proveedor
  • Envío de trazas (traces), métricas y logs a Datadog sin necesidad de instalar bibliotecas del Datadog Agent o de rastreo
  • Capacidades de procesamiento avanzadas (por ejemplo, [muestreo basado en colas][4])
| [Enviar datos utilizando el recopilador de OTel][2] | -| Datadog Agent | Usuarios existentes de Datadog o equipos que necesiten funciones basadas en el Agent:
  • [Recopilador de DDOT][5]: Recomendado para entornos Kubernetes
  • [Ingesta de OTLP][1]: Recomendado para todos los demás entornos
|
  • Acceso a todas las funciones del Datadog Agent
  • Capacidades de monitorización mejoradas que incluyen:
    • Automatización de flotas
    • Live Container Monitoring
    • Explorador Kubernetes
    • Live Processes
    • Cloud Network Monitoring
    • Universal Service Monitoring
    • {{< translate key="integration_count" >}}+ integraciones Datadog
| [Enviar datos a través del Datadog Agent][1] | -| Despliegue sin Agent | Situaciones que requieren conexión directa sin infraestructura adicional |
  • Transmisión directa de datos
  • No se necesitan componentes adicionales
| [Enviar datos utilizando el endpoint de entrada][3] | +## Datadog distribution of OpenTelemetry (DDOT) Collector (Recomendado) + +Datadog distribution of OpenTelemetry (DDOT) Collector es una solución de código abierto que combina la flexibilidad de OpenTelemetry con las amplias capacidades de observabilidad de Datadog. + +Este enfoque te ofrece un control total sobre los procesos de OpenTelemetry, a la vez que te proporciona acceso a potentes funciones basadas en el Datadog Agent, entre las que se incluyen: + +- Automatización de flotas +- Container Monitoring en tiempo real +- Explorer de Kubernetes +- Live Processes +- Monitorización de redes en la nube +- Universal Service Monitoring +- {{< translate key="integration_count" >}}+ Integraciones de Datadog + +{{< whatsnext desc=" " >}} + {{< nextlink href="/opentelemetry/setup/ddot_collector/install/" >}} +

Instala el Datadog distribution of OpenTelemetry (DDOT) Collector

+ Sigue nuestra configuración guiada para instalar el Collector y comenzar a enviar tus datos de OpenTelemetry a Datadog. + {{< /nextlink >}} +{{< /whatsnext >}} + +## Otras opciones de configuración + +Existen métodos alternativos para casos de uso específicos, como el mantenimiento de un pipeline de proveedor neutral o la ejecución en entornos que no sean Kubernetes. + +{{< whatsnext desc=" " >}} + {{< nextlink href="/opentelemetry/setup/collector_exporter/" >}} +

OpenTelemetry Collector independiente

+ Útil para usuarios que prefieran usar distribuciones del OTel Collector desde la comunidad de código abierto de OpenTelemetry o que requieran funciones de procesamiento avanzadas como el muestreo basado en el seguimiento de logs. + {{< /nextlink >}} + {{< nextlink href="/opentelemetry/setup/otlp_ingest_in_the_agent" >}} +

Ingesta OTLP en el Agent

+ Útil para usuarios en plataformas que no sean Kubernetes Linux, o aquellos que prefieran una configuración mínima sin administrar los pipelines del Collector. + {{< /nextlink >}} + {{< nextlink href="/opentelemetry/setup/agentless" >}} +

Ingesta directa de OTLP (Vista previa)

+ Útil para situaciones que requieren la trasmisión directa de datos al endpoint de entrada de Datadog sin componentes intermediarios. + {{< /nextlink >}} +{{< /whatsnext >}}
¿Aún no sabes cuál es la configuración más adecuada para ti?
Consulta la tabla de compatibilidad de funciones para saber qué funciones de Datadog son compatibles.
@@ -26,7 +59,7 @@ Existen varias formas de enviar datos de OpenTelemetry a Datadog. Elige el méto [1]: /es/opentelemetry/setup/agent [2]: /es/opentelemetry/setup/collector_exporter/ -[3]: /es/opentelemetry/setup/intake_endpoint +[3]: /es/opentelemetry/setup/agentless [4]: /es/opentelemetry/ingestion_sampling#tail-based-sampling [5]: /es/opentelemetry/agent [6]: /es/opentelemetry/setup/otlp_ingest_in_the_agent \ No newline at end of file diff --git a/content/es/opentelemetry/setup/collector_exporter/_index.md b/content/es/opentelemetry/setup/collector_exporter/_index.md index 0e8787635ceda..f77bf6426b5bf 100644 --- a/content/es/opentelemetry/setup/collector_exporter/_index.md +++ b/content/es/opentelemetry/setup/collector_exporter/_index.md @@ -1,300 +1,62 @@ --- -aliases: -- /es/tracing/setup_overview/open_standards/otel_collector_datadog_exporter/ -- /es/tracing/trace_collection/open_standards/otel_collector_datadog_exporter/ -- /es/opentelemetry/otel_collector_datadog_exporter/ -- /es/opentelemetry/collector_exporter/ -- /es/opentelemetry/collector_exporter/otel_collector_datadog_exporter description: Envío de datos de OpenTelemetry al OpenTelemetry Collector y el Datadog Exporter further_reading: -- link: https://opentelemetry.io/docs/collector/ - tag: Sitio externo - text: Documentación del Collector -- link: https://www.datadoghq.com/blog/ingest-opentelemetry-traces-metrics-with-datadog-exporter/ - tag: Blog - text: Envío de métricas, trazas (traces) y logs desde OpenTelemetry Collector a - Datadog con el Datadog Exporter -title: Configurar el OpenTelemetry Collector +- link: /opentelemetry/setup/ddot_collector/install/ + tag: Documentación + text: Instala el Datadog distribution of OpenTelemetry (DDOT) Collector (Recomendado) +- link: /opentelemetry/compatibility/ + tag: Documentación + text: Compatibilidad de funciones +title: Instalación y configuración del OpenTelemetry Collector --- ## Información general -El OpenTelemetry Collector te permite recopilar, procesar y exportar datos de telemetría de tus aplicaciones de una manera independiente del proveedor. Cuando se configura con el [Datadog Exporter][1] y el [Datadog Connector][29], puedes enviar tus trazas, logs y métricas a Datadog sin necesidad del Datadog Agent. +En esta página se proporcionan guías para instalar y configurar un OpenTelemetry Collector independiente para enviar datos de telemetría a Datadog. -- **Datadog Exporter**: Reenvía datos de trazas, métricas y logs de los SDK de OpenTelemetry a Datadog (sin necesidad del Datadog Agent) -- **Datadog Connector**: Calcula métricas de rastreo a partir de los datos de tramos recopilados +Este método es el mejor para los usuarios que prefieren utilizar distribuciones del OpenTelemetry Collector de la comunidad de código abierto de OpenTelemetry o que requieren capacidades de procesamiento avanzadas no disponibles en otras configuraciones. Para la mayoría de los casos de uso, el [Datadog Distribution of OTel Collector (DDOT)][1] es el método recomendado. -{{< img src="/opentelemetry/setup/otel-collector.png" alt="Diagrama: El SDK de OpenTelemetry en código envía datos a través de OTLP al host que ejecuta el OpenTelemetry Collector con el Datadog Exporter, que los reenvía a la plataforma de observabilidad de Datadog." style="width:100%;" >}} +## Configuración -
Para ver qué funciones de Datadog son compatibles con esta configuración, consulta la tabla de compatibilidad de funciones en OTel completo.
+Para empezar, instala el OpenTelemetry Collector y configúralo con el Datadog Exporter. Esta guía te indicará la configuración inicial necesaria antes de pasar a temas de configuración más específicos. -## Instalar y configurar - -### 1 - Descargar el OpenTelemetry Collector - -Descarga la última versión de la distribución OpenTelemetry Collector Contrib, desde [el repositorio del proyecto][3]. - -### 2 - Configurar el Datadog Exporter y el Datadog Connector - -Para utilizar el Datadog Exporter y el Datadog Connector, defínelos en tu [configuración del [OpenTelemetry Collector[4]: - -1. Crea un archivo de configuración llamado `collector.yaml`. -1. Utiliza el siguiente archivo de ejemplo para empezar. -1. Configura tu clave de API Datadog como la variable de entorno `DD_API_KEY`. - -{{% otel-endpoint-note %}} - -```yaml -receivers: - otlp: - protocols: - http: - endpoint: 0.0.0.0:4318 - grpc: - endpoint: 0.0.0.0:4317 - # The hostmetrics receiver is required to get correct infrastructure metrics in Datadog. - hostmetrics: - collection_interval: 10s - scrapers: - paging: - metrics: - system.paging.utilization: - enabled: true - cpu: - metrics: - system.cpu.utilization: - enabled: true - disk: - filesystem: - metrics: - system.filesystem.utilization: - enabled: true - load: - memory: - network: - processes: - # The prometheus receiver scrapes metrics needed for the OpenTelemetry Collector Dashboard. - prometheus: - config: - scrape_configs: - - job_name: 'otelcol' - scrape_interval: 10s - static_configs: - - targets: ['0.0.0.0:8888'] - - filelog: - include_file_path: true - poll_interval: 500ms - include: - - /var/log/**/*example*/*.log - -processors: - batch: - send_batch_max_size: 100 - send_batch_size: 10 - timeout: 10s - -connectors: - datadog/connector: - -exporters: - datadog/exporter: - api: - site: {{< region-param key="dd_site" >}} - key: ${env:DD_API_KEY} - -service: - pipelines: - metrics: - receivers: [hostmetrics, prometheus, otlp, datadog/connector] - processors: [batch] - exporters: [datadog/exporter] - traces: - receivers: [otlp] - processors: [batch] - exporters: [datadog/connector, datadog/exporter] - logs: - receivers: [otlp, filelog] - processors: [batch] - exporters: [datadog/exporter] -``` - -Esta configuración básica permite recibir datos de OTLP a través de HTTP y gRPC, y configura un [procesador por lotes][5]. - -Si quieres consultar la lista completa de opciones de configuración del Datadog Exporter, consulta el [archivo de configuración de ejemplo completamente documentado][8]. Opciones adicionales como `api::site` y `host_metadata` pueden ser relevantes, dependiendo de tu despliegue. - -#### Configuración del procesador por lotes - -El procesador por lotes se requiere en entornos que no son de desarrollo. La configuración exacta depende de tu carga de trabajo específica y de los tipos de señales. - -Configura el procesador por lotes basándote en los límites de ingesta de Datadog: - -- Ingreso de trazas: 3,2MB -- Ingesta de log: [5MB sin comprimir][6] -- Ingesta de métricas V2: [500 KB o 5 MB tras la descompresión][7] - -Pueden producirse errores en `413 - Request Entity Too Large`, si se introducen demasiados datos de telemetría en el procesador por lotes. - -### 3 - Configurar tu aplicación - -Para obtener mejores metadatos para trazas y para simplificar la integración con Datadog: - -- **Utiliza detectores de recursos**: si los proporciona el SDK del lenguaje, adjunta información de contenedor como atributos de recurso. Por ejemplo, en Go, utiliza la opción de recurso [`WithContainer()`][9]. - -- **Aplica [etiquetado de servicios unificado][10]**: asegúrate de haber configurado tu aplicación con los atributos de recursos apropiados para el etiquetado de servicios unificado. Esto vincula la telemetría de Datadog con etiquetas (tags) para nombre de servicio, entorno de despliegue y versión de servicio. La aplicación debe establecer estas etiquetas utilizando las convenciones semánticas de OpenTelemetry: `service.name`, `deployment.environment` y `service.version`. - -### 4 - Configurar el generador de logs para tu aplicación - -{{< img src="logs/log_collection/otel_collector_logs.png" alt="Un diagrama con el host, contenedor o aplicación que envía datos al receptor de log de archivo en el Collector y el Datadog Exporter en el Collector que envía los datos al backend de Datadog" style="width:100%;">}} - -Dado que la funcionalidad de generación de logs del SDK de OpenTelemetry no es totalmente compatible (consulta tu lenguaje específico en la [documentación de OpenTelemetry][11] para más información), Datadog recomienda el uso de una biblioteca de generación de logs estándar para tu aplicación. Sigue la [documentación de recopilación de logs][12] específica del lenguaje para configurar el generador de logs adecuado en tu aplicación. Datadog recomienda especialmente la configuración de tu biblioteca de registro para la salida de logs en JSON, a fin de evitar la necesidad de [reglas de análisis personalizadas][13]. - -#### Configurar el receptor de log de archivo - -Configura el receptor de log de archivo utilizando [operadores][14]. Por ejemplo, si hay un servicio `checkoutservice` que está escribiendo logs en `/var/log/pods/services/checkout/0.log`, un ejemplo de log podría tener este aspecto: - -``` -{"level":"info","message":"order confirmation email sent to \"jack@example.com\"","service":"checkoutservice","span_id":"197492ff2b4e1c65","timestamp":"2022-10-10T22:17:14.841359661Z","trace_id":"e12c408e028299900d48a9dd29b0dc4c"} -``` - -Ejemplo de configuración de log de archivo: - -``` -filelog: - include: - - /var/log/pods/**/*checkout*/*.log - start_at: end - poll_interval: 500ms - operators: - - id: parse_log - type: json_parser - parse_from: body - - id: trace - type: trace_parser - trace_id: - parse_from: attributes.trace_id - span_id: - parse_from: attributes.span_id - attributes: - ddtags: env:staging -``` - -- `include`: Lista de archivos que el receptor rastrea -- `start_at: end`: Indica que se lea el nuevo contenido que se está escribiendo -- `poll_internal`: Define la frecuencia de sondeo -- Operadores: - - `json_parser`: analiza los logs JSON. Por defecto, el receptor de log de archivos convierte cada línea de log en un registro de log, que es el `body` del [modelo de datos][15] de logs. A continuación, el `json_parser` convierte el cuerpo JSON en atributos del modelo de datos. - - `trace_parser`: Extrae `trace_id` y `span_id` del log para correlacionar logs y trazas en Datadog. - -#### Reasignar el atributo `service.name` de OTel a `service` para logs - -Para las versiones 0.83.0 y posteriores del Datadog Exporter, el campo `service` de logs de OTel se rellena como la [convención semántica de OTel][25] `service.name`. Sin embargo, `service.name` no es uno de los [atributos de servicio][26] predeterminados en el preprocesamiento de logs de Datadog. - -Para que el campo `service` se rellene correctamente en tus logs, puedes especificar que `service.name` sea la fuente de un servicio de log estableciendo un [procesador de reasignación de servicio de log][27]. - -{{% collapse-content title="Optional: Using Kubernetes" level="h4" %}} - -Hay múltiples maneras de desplegar el OpenTelemetry Collector y el Datadog Exporter en una infraestructura Kubernetes. Para que el receptor filelog funcione, el [despliegue del Agent/DaemonSet][16] es el método de despliegue recomendado. - -En entornos contenedorizados, las aplicaciones escriben logs en `stdout` o `stderr`. Kubernetes recopila los logs y los escribe en una localización estándar. Es necesario montar la localización en el nodo host del Collector para el receptor filelog. A continuación se muestra un [ejemplo de extensión][17] con los montajes necesarios para enviar logs. - -``` -apiVersion: apps/v1 -metadata: - name: otel-agent - labels: - app: opentelemetry - component: otel-collector -spec: - template: - metadata: - labels: - app: opentelemetry - component: otel-collector - spec: - containers: - - name: collector - command: - - "/otelcol-contrib" - - "--config=/conf/otel-agent-config.yaml" - image: otel/opentelemetry-collector-contrib:0.71.0 - env: - - name: POD_IP - valueFrom: - fieldRef: - fieldPath: status.podIP - # The k8s.pod.ip is used to associate pods for k8sattributes - - name: OTEL_RESOURCE_ATTRIBUTES - value: "k8s.pod.ip=$(POD_IP)" - ports: - - containerPort: 4318 # default port for OpenTelemetry HTTP receiver. - hostPort: 4318 - - containerPort: 4317 # default port for OpenTelemetry gRPC receiver. - hostPort: 4317 - - containerPort: 8888 # Default endpoint for querying metrics. - volumeMounts: - - name: otel-agent-config-vol - mountPath: /conf - - name: varlogpods - mountPath: /var/log/pods - readOnly: true - - name: varlibdockercontainers - mountPath: /var/lib/docker/containers - readOnly: true - volumes: - - name: otel-agent-config-vol - configMap: - name: otel-agent-conf - items: - - key: otel-agent-config - path: otel-agent-config.yaml - # Mount nodes log file location. - - name: varlogpods - hostPath: - path: /var/log/pods - - name: varlibdockercontainers - hostPath: - path: /var/lib/docker/containers -``` - -{{% /collapse-content %}} +{{< whatsnext desc=" " >}} + {{< nextlink href="/opentelemetry/setup/collector_exporter/install" >}} +

Instala y configura el Collector

+ Sigue los pasos de configuración inicial para obtener un Collector que se ejecuta con el Datadog Exporter. + {{< /nextlink >}} +{{< /whatsnext >}} -## Configuración del Datadog Exporter predefinida +## Configuración -Puedes encontrar ejemplos de configuración predefinida del Datadog Exporter en la [carpeta`exporter/datadogexporter/examples`][31] en el proyecto OpenTelemetry Collector Contrib. Consulta el archivo de ejemplo de configuración completo, [`ootb-ec2.yaml`][30]. Configura cada uno de los siguientes componentes para adaptarlos a tus necesidades: +Una vez que el Collector esté en funcionamiento, utiliza estas guías para configurar receptores y procesadores específicos para recopilar y enriquecer los datos de telemetría. {{< whatsnext desc=" " >}} - {{< nextlink href="/opentelemetry/collector_exporter/otlp_receiver/" >}}Receptor OTLP{{< /nextlink >}} - {{< nextlink href="/opentelemetry/collector_exporter/hostname_tagging/" >}}Nombre de host y etiquetas{{< /nextlink >}} - {{< nextlink href="/opentelemetry/collector_exporter/collector_batch_memory/" >}}Configuración de lote y memoria{{< /nextlink >}} + {{< nextlink href="/opentelemetry/setup/collector_exporter/deploy" >}} +

Desplegar el Collector

+ Aprende cómo ejecutar el Collector en varios entornos, incluido en un host, en Docker, o como un DaemonSet o Gateway en Kubernetes. + {{< /nextlink >}} + {{< nextlink href="/opentelemetry/config/hostname_tagging" >}} +

Configurar el nombre de host y el etiquetado

+ Usa la detección de recursos y los procesadores de atributos de Kubernetes para asegurar la resolución correcta de nombres de host y aplicar las etiquetas críticas para correlacionar la telemetría en Datadog. + {{< /nextlink >}} + {{< nextlink href="/opentelemetry/config/log_collection" >}} +

Configurar la recopilación de logs

+ Configura el receptor de logs de archivo para recopilar logs desde archivos y reenviarlos a Datadog, lo que admite los logs, métricas y trazas unificados. + {{< /nextlink >}} + {{< nextlink href="/opentelemetry/config/otlp_receiver" >}} +

Permitir un receptor OTLP

+ Configura el receptor OTLP para aceptar trazas, métricas y logs desde tus aplicaciones instrumentadas por OpenTelemetry mediante gRPC o HTTP. + {{< /nextlink >}} + {{< nextlink href="/opentelemetry/config/collector_batch_memory" >}} +

Ajustar la configuración de lotes y memoria

+ Optimiza el rendimiento y el consumo de recursos de tu Collector al configurar el procesador de lotes y el delimitador de memoria. + {{< /nextlink >}} {{< /whatsnext >}} ## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} -[1]: https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/exporter/datadogexporter -[3]: https://github.com/open-telemetry/opentelemetry-collector-releases/releases/latest -[4]: https://opentelemetry.io/docs/collector/configuration/ -[5]: https://github.com/open-telemetry/opentelemetry-collector/blob/main/processor/batchprocessor/README.md -[6]: /es/api/latest/logs/ -[7]: /es/api/latest/metrics/#submit-metrics -[8]: https://github.com/open-telemetry/opentelemetry-collector-contrib/blob/main/internal/e2e/examples/collector.yaml -[9]: https://pkg.go.dev/go.opentelemetry.io/otel/sdk/resource#WithContainer -[10]: /es/getting_started/tagging/unified_service_tagging/ -[11]: https://opentelemetry.io/docs/instrumentation/ -[12]: /es/logs/log_collection/?tab=host -[13]: /es/logs/log_configuration/parsing/ -[14]: https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/pkg/stanza/docs/operators -[15]: https://opentelemetry.io/docs/reference/specification/logs/data-model/ -[16]: https://opentelemetry.io/docs/collector/deployment/#agent -[17]: https://github.com/open-telemetry/opentelemetry-collector-contrib/blob/main/exporter/datadogexporter/examples/k8s-chart/daemonset.yaml -[25]: https://opentelemetry.io/docs/specs/semconv/resource/#service -[26]: /es/logs/log_configuration/pipelines/?tab=service#service-attribute -[27]: /es/logs/log_configuration/processors/?tab=ui#service-remapper -[28]: /es/opentelemetry/schema_semantics/hostname/ -[29]: https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/connector/datadogconnector -[30]: https://github.com/open-telemetry/opentelemetry-collector-contrib/blob/main/exporter/datadogexporter/examples/ootb-ec2.yaml -[31]: https://github.com/open-telemetry/opentelemetry-collector-contrib/blob/main/exporter/datadogexporter/examples/ -[32]: /es/opentelemetry/compatibility/ \ No newline at end of file +[1]: /es/opentelemetry/setup/ddot_collector/install/ \ No newline at end of file diff --git a/content/es/opentelemetry/setup/otlp_ingest/_index.md b/content/es/opentelemetry/setup/otlp_ingest/_index.md index 8143b494e277a..f11ee87673cdd 100644 --- a/content/es/opentelemetry/setup/otlp_ingest/_index.md +++ b/content/es/opentelemetry/setup/otlp_ingest/_index.md @@ -9,10 +9,6 @@ further_reading: title: Endpoint de ingreso del OTLP de Datadog --- -{{< callout header="false" btn_hidden="true">}} - El endpoint de ingreso del OTLP de Datadog está en Vista previa. Para solicitar acceso, ponte en contacto con tu representante de cuenta. -{{< /callout >}} - ## Información general El endpoint de la API de ingreso del protocolo OpenTelemetry (OTLP) de Datadog te permite enviar datos de observabilidad directamente a Datadog. Con esta función, no necesitas ejecutar el [Agent][1] u [OpenTelemetry Collector + Datadog Exporter][2]. diff --git a/content/es/profiler/enabling/java.md b/content/es/profiler/enabling/java.md index 17bdc070f3bc4..83e0e72faad5b 100644 --- a/content/es/profiler/enabling/java.md +++ b/content/es/profiler/enabling/java.md @@ -6,7 +6,7 @@ code_lang_weight: 10 further_reading: - link: getting_started/profiler tag: Documentación - text: Empezando con el generador de perfiles + text: Empezando con Profiler - link: profiler/profile_visualizations tag: Documentación text: Más información sobre las visualizaciones de perfiles disponibles @@ -17,13 +17,13 @@ title: Activación de Java Profiler type: multi-code-lang --- -El generador de perfiles se incluye en las bibliotecas de rastreo de Datadog. Si ya estás utilizando [APM para recopilar trazas (traces)][1] para tu aplicación, puedes omitir la instalación de librería e ir directamente a habilitar el generador de perfiles. +El generador de perfiles se incluye en las bibliotecas de rastreo de Datadog. Si ya estás utilizando [APM para recopilar trazas (traces)][1] para tu aplicación, puedes omitir la instalación de biblioteca e ir directamente a habilitar el generador de perfiles. ## Requisitos Para obtener un resumen de las versiones mínimas y recomendadas del tiempo de ejecución y del rastreador en todos los lenguajes, consulta [Versiones de lenguaje y rastreadores compatibles][13]. -A partir de dd-trace-java 1.0.0, tienes dos opciones para el motor que genera datos de perfil para las aplicaciones de Java: [Java Flight Recorder (JFR)][2] o el Datadog Profiler. A partir de dd-trace-java 1.7.0, Datadog Profiler es el predeterminado. Cada motor de perfil tiene diferentes efectos secundarios, requisitos, configuraciones disponibles y limitaciones, y esta página describe cada uno. Puedes activar uno o ambos motores. Activando ambos se capturan los dos tipos de perfil al mismo tiempo. +A partir de dd-trace-java 1.0.0, tienes dos opciones para el motor que genera datos de perfil para las aplicaciones de Java: [Java Flight Recorder (JFR)][2] o el Datadog Profiler. A partir de dd-trace-java 1.7.0, Datadog Profiler es el predeterminado. Cada motor de generador de perfiles tiene diferentes efectos secundarios, requisitos, configuraciones disponibles y limitaciones, y esta página describe cada uno. Puedes activar uno o ambos motores. Activando ambos se capturan los dos tipos de perfil al mismo tiempo. {{< tabs >}} {{% tab "Datadog Profiler" %}} @@ -32,15 +32,17 @@ Sistemas operativos compatibles: - Linux Versiones mínimas de JDK: -- OpenJDK 8u352+, 11.0.17+, 17.0.5+, 21+ (incluidas las primeras compilaciones: Amazon Corretto, Azul Zulu y otras). -- Oracle JDK 8u351+, 11.0.17+, 17.0.5+, 21+ -- OpenJ9 JDK 8u372+, 11.0.18+, 17.0.6+ (utilizado en Eclipse OpenJ9, IBM JDK, IBM Semeru Runtime). El generador de perfiles está deshabilitado por defecto para OpenJ9 debido a la posibilidad de que la JVM se bloquee a causa de un sutil error en la implementación de JVTMI. Si no experimentas ningún error, puedes activar el generador de perfiles añadiendo `-Ddd.profiling.ddprof.enabled=true`. -- Azul Platform Prime 23.05.0.0+ (antes Azul Zing) +- OpenJDK 8u352 o posterior, 11.0.17 o posterior, 17.0.5 o posterior, 21 o posterior (incluidas las primeras compilaciones: Amazon Corretto, Azul Zulu y otras). +- Oracle JDK 8u351 o posterior, 11.0.17 o posterior, 17.0.5 o posterior, 21 o posterior +- OpenJ9 JDK 8u372 o posterior, 11.0.18 o posterior, 17.0.6 o posterior (utilizado en Eclipse OpenJ9, IBM JDK, IBM Semeru Runtime). + +**Nota:** El generador de perfiles está deshabilitado por defecto para OpenJ9 debido a la posibilidad de fallos de la JVM causados por un sutil error en la implementación de JVTMI. Si **no** experimentas ningún fallo, puedes habilitar el generador de perfiles añadiendo `-Ddd.profiling.ddprof.enabled=true` o `DD_PROFILING_DDPROF_ENABLED=true`. +- Azul Platform Prime 23.05.0.0 o posterior (antes Azul Zing) **Nota:** El Datadog Profiler está inactivado en el compilador GraalVM (JVMCI) y necesita ser habilitado explícitamente con `-Ddd.profiling.ddprof.enabled=true` o `DD_PROFILING_DDPROF_ENABLED=true`. -Datadog Profiler utiliza la función `AsyncGetCallTrace` de JVMTI, en la que existe un [problema conocido][1] anterior a la versión 17.0.5 del JDK. Esta corrección se ha trasladado a la versión 11.0.17 y 8u352. Datadog Profiler no está habilitado a menos que la JVM en la que se despliega el generador de perfiles tenga esta corrección. Actualiza al menos a 8u352, 11.0.17, 17.0.5 o a la última versión de JVM que no sea LTS para utilizar Datadog Profiler. +El Datadog Profiler utiliza la función `AsyncGetCallTrace` de JVMTI, en la que existe un [problema conocido][1] anterior a la versión 17.0.5 del JDK. Esta corrección se ha trasladado a la versión 11.0.17 y 8u352. El Datadog Profiler no está habilitado a menos que la JVM en la que se despliega el generador de perfiles tenga esta corrección. Actualiza al menos a 8u352, 11.0.17, 17.0.5 o a la última versión de JVM que no sea LTS para utilizar el Datadog Profiler. [1]: https://bugs.openjdk.org/browse/JDK-8283849 {{% /tab %}} @@ -52,20 +54,20 @@ Sistemas operativos compatibles: - Windows Versiones mínimas de JDK: -- OpenJDK [1.8.0.262/8u262+][3], 11+ (incluidas las versiones basadas en él: Amazon Corretto y otras) -- Oracle JDK 11+ (la activación del JFR puede requerir una licencia comercial de Oracle. Ponte en contacto con tu representante de Oracle para confirmar si esto forma parte de tu licencia). -- Azul Zulu 8 (versión 1.8.0.212/8u212+), 11+ -- GraalVM 17+ - ambas versiones, JIT y AOT (imagen nativa) +- OpenJDK [1.8.0.262/8u262 o posterior][3], 11+ (incluidas las versiones basadas en él: Amazon Corretto y otras) +- Oracle JDK 11 o posterior (la activación del JFR puede requerir una licencia comercial de Oracle. Ponte en contacto con tu representante de Oracle para confirmar si esto forma parte de tu licencia). +- Azul Zulu 8 (versión 1.8.0.212/8u212 o posterior), 11 o posterior +- GraalVM 17 o posterior - ambas versiones, JIT y AOT (imagen nativa) -Dado que las versiones de JDK que no son LTS pueden no contener correcciones de estabilidad y rendimiento relacionadas con la librería de Datadog Profiler, utiliza las versiones 8, 11 y 17 del JDK de soporte a largo plazo. +Dado que las versiones de JDK que no son LTS pueden no contener correcciones de estabilidad y rendimiento relacionadas con la biblioteca del Datadog Profiler, utiliza las versiones 8, 11 y 17 del JDK de soporte a largo plazo. Requisitos adicionales para la formación de perfiles [trace (traza) to integración de perfil][12]: - - OpenJDK 17.0.5+ y `dd-trace (traza)-java` versión 1.17.0+. - - OpenJDK 11.0.17+ y `dd-trace (traza)-java` versión 1.17.0+ - - OpenJDK 8 8u352+ y `dd-trace (traza)-java` versión 1.17.0+ - - OpenJ9 17.0.6+ y `dd-trace (traza)-java` versión 1.17.0+ - - OpenJ9 11.0.18+ y `dd-trace (traza)-java` versión 1.17.0+ - - OpenJ9 8.0.362+ y `dd-trace (traza)-java` versión 1.17.0+ + - OpenJDK 17.0.5 o posterior y `dd-trace (traza)-java` versión 1.17.0 o posterior. + - OpenJDK 11.0.17 o posterior y `dd-trace (traza)-java` versión 1.17.0 o posterior + - OpenJDK 8 8u352 o posterior y `dd-trace (traza)-java` versión 1.17.0 o posterior + - OpenJ9 17.0.6 o posterior y `dd-trace (traza)-java` versión 1.17.0 o posterior + - OpenJ9 11.0.18 o posterior y `dd-trace (traza)-java` versión 1.17.0 o posterior + - OpenJ9 8.0.362 o posterior y `dd-trace (traza)-java` versión 1.17.0 o posterior [3]: /es/profiler/profiler_troubleshooting/java/#java-8-support [12]: /es/profiler/connect_traces_and_profiles/#identify-code-hotspots-in-slow-traces @@ -81,7 +83,7 @@ Continuous Profiler no es compatible con algunas plataformas serverless, como AW Para empezar a crear perfiles de aplicaciones: -1. Asegúrate de que Datadog Agent v6+ está instalado y en ejecución. Datadog recomienda utilizar [Datadog Agent v7+][4]. Si no tienes APM habilitado para configurar tu aplicación para enviar datos a Datadog, en tu Agent, configura la variable de entorno `DD_APM_ENABLED` en `true` y escuchando en el puerto `8126/TCP`. +1. Asegúrate de que Datadog Agent v6 o posterior está instalado y en ejecución. Datadog recomienda utilizar [Datadog Agent v7 o posterior][4]. Si no tienes APM habilitado para configurar tu aplicación para enviar datos a Datadog, en tu Agent, configura la variable de entorno `DD_APM_ENABLED` en `true` y escuchando en el puerto `8126/TCP`. 2. Descarga `dd-java-agent.jar`, que contiene los archivos de clase de Java Agent: @@ -103,7 +105,7 @@ Para empezar a crear perfiles de aplicaciones: {{% /tab %}} {{< /tabs >}} - **Nota**: El generador de perfiles está disponible en la librería `dd-java-agent.jar` para las versiones 0.55+. + **Nota**: Profiler está disponible en la biblioteca `dd-java-agent.jar` para las versiones 0.55 o posterior. 3. Habilita el generador de perfiles configurando el indicador `-Ddd.profiling.enabled` o la variable de entorno `DD_PROFILING_ENABLED` en `true`. Especifica `dd.service`, `dd.env` y `dd.version` para poder filtrar y agrupar tus perfiles a través de estas dimensiones: {{< tabs >}} @@ -159,16 +161,16 @@ Cuando se crea el archivo binario de servicio, puedes utilizar variables de ento Desde la versión 1.5.0 de dd-trace-java, tienes dos opciones para el generador de perfiles de CPU utilizado, Datadog o Java Flight Recorder (JFR). Desde la versión 1.7.0, Datadog es el predeterminado, pero también puedes habilitar opcionalmente JFR para los perfiles de CPU. Puedes activar uno o ambos motores. Activando ambos se capturan los dos tipos de perfiles al mismo tiempo. -El perfilador Datadog registra el span (tramo) activo en cada muestra, lo que mejora la fidelidad de la integración de la trace (traza) a Profiling y las funciones de perfilado de endpoint. Habilitar este motor admite una integración mucho mejor con el rastreo de APM. +El Datadog Profiler registra el span (tramo) activo en cada muestra, lo que mejora la fidelidad de la integración de la trace (traza) a Profiling y las funciones de perfilado de endpoint. Habilitar este motor admite una integración mucho mejor con el rastreo de APM. El Datadog Profiler consta de varios motores de perfiles, incluidos los generadores de perfiles de CPU, tiempo real, asignación y fugas de memoria. {{< tabs >}} {{% tab "Datadog Profiler" %}} -_Consulta los requisitos mínimos de la versión JDK para activar el perfilador DataDog._ +_Consulta los requisitos mínimos de la versión JDK para activar el Datadog Profiler._ -El Datadog Profiler está activado por defecto en las versiones 1.7.0+ de dd-trace-java. El perfil de CPU de Datadog se programa a través de eventos perf y es más preciso que el perfil de CPU de JFR. Para habilitar la generación de perfiles de CPU: +El Datadog Profiler está activado por defecto en las versiones 1.7.0 o posterior de dd-trace-java. El perfil de CPU de Datadog se programa a través de eventos perf y es más preciso que el perfil de CPU de JFR. Para habilitar la generación de perfiles de CPU: ``` export DD_PROFILING_DDPROF_ENABLED=true # this is the default in v1.7.0+ @@ -196,7 +198,7 @@ sudo sh -c 'echo 2 >/proc/sys/kernel/perf_event_paranoid' {{% tab "JFR" %}} -Para la versión 1.7.0+, para cambiar del perfil por defecto de Datadog al perfil de CPU de JFR: +Para la versión 1.7.0 o posterior, para cambiar del perfil por defecto de Datadog al perfil de CPU de JFR: ``` export DD_PROFILING_DDPROF_CPU_ENABLED=false @@ -220,7 +222,7 @@ El motor de perfil de tiempo real es útil para perfilar la latencia y se integr -Ddd.profiling.ddprof.wall.enabled=true ``` -Para la versión 1.7.0+, para desactivar el perfil de tiempo real: +Para la versión 1.7.0 o posterior, para desactivar el generador de perfiles de tiempo real: ``` export DD_PROFILING_DDPROF_WALL_ENABLED=false @@ -234,7 +236,7 @@ Para los usuarios de JMC, el evento `datadog.MethodSample` se emite para las mue El motor de tiempo real no depende de la configuración de `/proc/sys/kernel/perf_event_paranoid`. -### Motor de asignación de perfiles +### Motor de asignación del generador de perfiles {{< tabs >}} {{% tab "JFR" %}} @@ -274,16 +276,16 @@ o: Para los usuarios de JMC, los eventos de asignación de Datadog son `datadog.ObjectAllocationInNewTLAB` y `datadog.ObjectAllocationOutsideTLAB`. -El motor de perfiles de asignación no depende de la configuración de `/proc/sys/kernel/perf_event_paranoid`. +El motor del generador de perfiles de asignación no depende de la configuración de `/proc/sys/kernel/perf_event_paranoid`. {{% /tab %}} {{< /tabs >}} -### Motor de perfilado Live-heap +### Motor del generador de perfiles live-heap -_Desde: v1.39.0. Requiere JDK 11.0.23+, 17.0.11+, 21.0.3+, o 22+._ +_A partir de: v1.39.0. Requiere JDK 11.0.23 o posterior, 17.0.11 o posterior, 21.0.3 o posterior, o 22 o posterior._ -El motor de perfiles de heap en directo es útil para investigar el uso general de memoria de tu servicio e identificar posibles fugas de memoria. +El motor del generador de perfiles live-heap en directo es útil para investigar el uso general de memoria de tu servicio e identificar posibles fugas de memoria. El motor muestrea las asignaciones y mantiene un registro de si esas muestras sobrevivieron al ciclo de recopilación de elementos no usados más reciente. El número de muestras que sobreviven se utiliza para estimar el número de objetos activos en el stack. El número de muestras rastreadas está limitado para evitar un crecimiento ilimitado del uso de memoria del generador de perfiles. @@ -305,21 +307,21 @@ El motor de asignación no depende de la configuración de `/proc/sys/kernel/per ### Recopilación de stack traces nativas -Si los motores de CPU o tiempo real de Datadog Profiler están activados, puedes recopilar stack traces nativas. Estas incluyen cosas como las internas de la JVM, las bibliotecas nativas utilizadas por tu aplicación o la JVM, y syscalls. +Si los motores de CPU o tiempo real del Datadog Profiler están activados, puedes recopilar stack traces nativas. Estas incluyen cosas como las internas de la JVM, las bibliotecas nativas utilizadas por tu aplicación o la JVM, y syscalls. -
Las stack traces nativas no se recopilan de forma predeterminada porque normalmente no proporcionan información procesable y analizarlas puede afectar potencialmente a la estabilidad de la aplicación. Prueba esta configuración en un entorno que no sea de producción antes de intentar utilizarla en producción.
+
Las stack traces nativas no se recopilan de forma predeterminada, ya que normalmente no proporcionan información procesable y analizarlas puede afectar potencialmente a la estabilidad de la aplicación. Prueba esta configuración en un entorno que no sea de producción antes de intentar utilizarla en producción.
Para habilitar la recopilación de stack traces nativas, entendiendo que puede desestabilizar tu aplicación, establece: ``` -export DD_PROFILING_DDPROF_ENABLED=true # predeterminado en v1.7.0+ +export DD_PROFILING_DDPROF_ENABLED=true # this is the default in v1.7.0+ export DD_PROFILING_DDPROF_CSTACK=dwarf ``` o: ``` --Ddd.profiling.ddprof.enabled=true # predeterminado en v1.7.0+ +-Ddd.profiling.ddprof.enabled=true # this is the default in v1.7.0+ -Ddd.profiling.ddprof.cstack=dwarf ``` @@ -332,7 +334,7 @@ Puedes configurar el generador de perfiles utilizando las siguientes variables d | Variable de entorno | Tipo | Descripción | | ------------------------------------------------ | ------------- | ------------------------------------------------------------------------------------------------ | | `DD_PROFILING_ENABLED` | Booleano | Alternativa para el argumento `-Ddd.profiling.enabled`. Establece la opción en `true` para habilitar el generador de perfiles. | -| `DD_PROFILING_ALLOCATION_ENABLED` | Booleano | Alternativa para el argumento `-Ddd.profiling.allocation.enabled`. Establece la opción en `true` para habilitar el perfil de asignación. Requiere que el generador de perfiles ya esté habilitado. | +| `DD_PROFILING_ALLOCATION_ENABLED` | Booleano | Alternativa para el argumento `-Ddd.profiling.allocation.enabled`. Establece la opción en `true` para habilitar el generador de perfiles de asignación. Requiere que el generador de perfiles ya esté habilitado. | | `DD_ENV` | Cadena | El nombre de [entorno][10], por ejemplo: `production`. | | `DD_SERVICE` | Cadena | El nombre de [servicio][10], por ejemplo, `web-backend`. | | `DD_VERSION` | Cadena | La [versión][10] de tu servicio. | @@ -340,7 +342,7 @@ Puedes configurar el generador de perfiles utilizando las siguientes variables d ## ¿No sabes qué hacer a continuación? -La guía [Empezando con el generador de perfiles][11] toma un ejemplo de servicio con un problema de rendimiento y te muestra cómo utilizar Continuous Profiler para comprender y solucionar el problema. +La guía [Empezando con el Profiler][11] toma un ejemplo de servicio con un problema de rendimiento y te muestra cómo utilizar Continuous Profiler para comprender y solucionar el problema. ## Referencias adicionales @@ -360,4 +362,4 @@ La guía [Empezando con el generador de perfiles][11] toma un ejemplo de servici [12]: /es/profiler/connect_traces_and_profiles/#identify-code-hotspots-in-slow-traces [13]: /es/profiler/enabling/supported_versions/ [14]: /es/tracing/trace_collection/compatibility/java/?tab=graalvm#setup -[15]: https://docs.datadoghq.com/es/profiler/enabling/java/?tab=datadogprofiler# +[15]: https://docs.datadoghq.com/es/profiler/enabling/java/?tab=datadogprofiler# \ No newline at end of file diff --git a/content/es/real_user_monitoring/browser/frustration_signals.md b/content/es/real_user_monitoring/browser/frustration_signals.md index 16d488990e480..5a583b0daeda3 100644 --- a/content/es/real_user_monitoring/browser/frustration_signals.md +++ b/content/es/real_user_monitoring/browser/frustration_signals.md @@ -1,6 +1,9 @@ --- aliases: - /es/real_user_monitoring/frustration_signals +description: Identifica los puntos de fricción del usuario con las señales de frustración + de RUM (incluidos los clics repetidos, los clics sin resultados y los clics de error) + para mejorar la experiencia del usuario y reducir el abandono. further_reading: - link: https://www.datadoghq.com/blog/analyze-user-experience-frustration-signals-with-rum/ tag: Blog @@ -23,10 +26,10 @@ Las señales de frustración te permiten identificar los puntos de mayor fricci RUM recopila tres tipos de señales de frustración: -Clics de Furia +Clics de rabia : Un usuario hace clic en un elemento más de tres veces en una ventana deslizante de un segundo. -Clics Muertos +Clics muertos : Un usuario hace clic en un elemento estático que no produce ninguna acción en la página. Clics de error @@ -63,13 +66,13 @@ window.DD_RUM.init({ Las señales de frustración requieren acciones. Activar `trackFrustrations` activa automáticamente `trackUserInteractions`. -## Uso +## Utilización Las señales de frustración aparecen como puntos de datos claros que representan las fuentes de frustración del usuario en la [página **Aplicaciones RUM**][1]. Para mostrar una lista de recuentos de casos de frustración en el [Explorador RUM][2], haz clic en el botón **Options** (Opciones) y añade una columna para `@session.frustration.count`. ### Lista de aplicaciones -Colócate sobre lista de las sesiones del navegador y haz clic en una sesión para observar el comportamiento de clics frustrados de un usuario. O bien haz clic en **Sesiones frustradas** para acceder a las sesiones con una señal de frustración. +Colócate sobre lista de las sesiones del navegador y haz clic en una sesión para observar el comportamiento de clics frustrados de un usuario. O bien haz clic en **Frustrated Sessions** (Sesiones frustradas) para acceder a las sesiones con una señal de frustración. ### Explora el dashboard de señales de frustración @@ -148,7 +151,7 @@ Las señales de frustración se generan a partir de los clics del ratón, no al Si una sesión está en vivo, está obteniendo información y puede hacer que los banners reflejen un número diferente a los de la línea de tiempo.
-Para hacernos llegar tus comentarios o solicitar una función, ponte en contacto con el Servicio de asistencia de Datadog . +Para hacernos llegar tus comentarios o solicitar una función, ponte en contacto con el servicio de asistencia de Datadog.
## Referencias adicionales diff --git a/content/es/real_user_monitoring/browser/monitoring_resource_performance.md b/content/es/real_user_monitoring/browser/monitoring_resource_performance.md index 053a841d55eeb..0e6be6b1b5cc9 100644 --- a/content/es/real_user_monitoring/browser/monitoring_resource_performance.md +++ b/content/es/real_user_monitoring/browser/monitoring_resource_performance.md @@ -1,4 +1,7 @@ --- +description: Rastrea el rendimiento de los recursos web, incluidos los activos de + XHR, Fetch, imágenes, CSS y JavaScript, con datos de temporización detallados e + identificación del proveedor. further_reading: - link: https://www.datadoghq.com/blog/real-user-monitoring-with-datadog/ tag: Blog @@ -31,7 +34,7 @@ Consultar [Conectar RUM y trazas ][2] para obtener información sobre cómo conf {{< img src="real_user_monitoring/browser/resource_performance_graph.png" alt="Información de trazas de APM para un recurso de RUM" >}} -## Tiempos y métricas de recursos +## Atributos del recurso Los datos de tiempo de red detallados para recursos se recopilan con los métodos de navegador nativos Fetch y XHR y con la [API de Performance Resource Timing][3]. @@ -40,7 +43,7 @@ Los datos de tiempo de red detallados para recursos se recopilan con los método | `resource.duration` | número | Tiempo total empleado en cargar el recurso. | | `resource.size` | número (bytes) | Tamaño del recurso. | | `resource.connect.duration` | número (ns) | Tiempo empleado en establecer una conexión con el servidor (connectEnd - connectStart). | -| `resource.ssl.duration` | número (ns) | Tiempo empleado por el protocolo TLS. Si la última solicitud no es en HTTPS, esta métrica no aparece (connectEnd - secureConnectionStart). | +| `resource.ssl.duration` | número (ns) | Tiempo transcurrido para el apretón de manos de TLS. Si la última solicitud no es en HTTPS, este atributo no aparece (connectEnd - secureConnectionStart). | | `resource.dns.duration` | número (ns) | Tiempo empleado en resolver el nombre DNS de la última solicitud (domainLookupEnd - domainLookupStart). | | `resource.redirect.duration` | número (ns) | Tiempo empleado en las siguientes solicitudes HTTP (redirectEnd - redirectStart). | | `resource.first_byte.duration` | número (ns) | Tiempo de espera empleado para recibir el primer byte de respuesta (responseStart - RequestStart). | @@ -58,7 +61,7 @@ Los datos de tiempo de red detallados para recursos se recopilan con los método | `resource.url` | cadena | La URL del recurso. | | `resource.url_host` | cadena | La parte de host de la URL. | | `resource.url_path` | cadena | La parte de ruta de la URL. | -| `resource.url_query` | objecto | Las partes de la cadena de consulta de la URL desglosadas como atributos de clave/valor de parámetros de consulta. | +| `resource.url_query` | objeto | Las partes de la cadena de consulta de la URL desglosadas como atributos de clave/valor de parámetros de consulta. | | `resource.url_scheme` | cadena | El nombre del protocolo de la URL (HTTP o HTTPS). | | `resource.provider.name` | cadena | El nombre del proveedor de recursos. Por defecto es `unknown`. | | `resource.provider.domain` | cadena | El dominio del proveedor del recurso. | diff --git a/content/es/real_user_monitoring/browser/tracking_user_actions.md b/content/es/real_user_monitoring/browser/tracking_user_actions.md index f152119a7a795..1e510da5e063c 100644 --- a/content/es/real_user_monitoring/browser/tracking_user_actions.md +++ b/content/es/real_user_monitoring/browser/tracking_user_actions.md @@ -2,6 +2,9 @@ algolia: tags: - acciones del usuario +description: Realiza un seguimiento automático de las interacciones de los usuarios + y las acciones personalizadas en las aplicaciones web para comprender el comportamiento + de los usuarios, el rendimiento y la adopción de funciones. further_reading: - link: https://www.datadoghq.com/blog/real-user-monitoring-with-datadog/ tag: Blog @@ -28,34 +31,32 @@ Puedes alcanzar los siguientes objetivos: * Cuantificar la adopción de las funciones * Identificar los pasos que llevaron a un error específico en el navegador +Aunque no hay un límite explícito en el número total de acciones que pueden ser recopiladas por el SDK del RUM Browser durante una sesión, hay limitaciones técnicas en los tamaños de los eventos individuales y la carga útil enviada. Para más detalles sobre las limitaciones de las acciones, consulta la [documentación de resolución de problemas del RUM Browser][1]. + ## Administrar la información recopilada El parámetro de inicialización `trackUserInteractions` activa la recopilación de los clics del usuario en tu aplicación, lo que significa que se pueden incluir datos confidenciales y privados presentes en tus páginas para identificar los elementos con los que ha interactuado un usuario. -Para controlar qué información se envía a Datadog, puedes [enmascarar nombres de acciones con opciones de privacidad][6], [configurar manualmente un nombre de acción](#declare-a-name-for-click-actions) o [implementar una regla de limpieza global en el SDK del navegador de Datadog para RUM][1]. +Para controlar qué información se envía a Datadog, puedes [enmascarar nombres de acciones con opciones de privacidad][2], [configurar manualmente un nombre de acción](#declare-a-name-for-click-actions) o [implementar una regla de limpieza global en el SDK de Datadog Browser para RUM][3]. ## Administrar las interacciones de los usuarios -El SDK del RUM Browser realiza un rastreo automático de los clics. Se crea una acción de clic cuando se cumplen **todas las siguientes** condiciones: - -* Se detecta la actividad posterior al clic. Consulta [Cómo se calcula la actividad de la página][2] para obtener más información. -* El clic no genera que se cargue una nueva página, en cuyo caso, el SDK del navegador de Datadog genera otro evento de vista de RUM. -* Se puede calcular un nombre para la acción. Consulta [Declarar un nombre para las acciones de clics](#declare-a-name-for-click-actions) para obtener más información. +El SDK de RUM Browser rastrea automáticamente los clics para generar acciones de clic. Una acción de un solo clic representa generalmente un clic del usuario, excepto cuando se hace clic varias veces seguidas en el mismo elemento, y en ese caso se considera una sola acción (consulta [Señales de frustración "clics repetidos"][4]). -## Métricas del tiempo de acción +## Telemetría de tiempos de acción -Para obtener información sobre los atributos predeterminados para todos los tipos de eventos de RUM, consulta [Datos de RUM Browser recopilados][3]. +Para obtener información sobre los atributos predeterminados para todos los tipos de eventos RUM, consulta [Datos recopilados del RUM Browser][5]. -| Métrica | Tipo | Descripción | +| Telemetría | Tipo | Descripción | |--------------|--------|--------------------------| | `action.loading_time` | número (ns) | El tiempo de carga de la acción. | | `action.long_task.count` | número | Número de tareas largas recopiladas para esta acción. | | `action.resource.count` | número | Número de recursos recopilados para esta acción. | | `action.error.count` | número | Número de errores recopilados para esta acción.| -El SDK del navegador de Datadog para RUM calcula el tiempo de carga de la acción monitorizando la actividad de la página después de cada clic. Una acción se considera completa cuando la página no tiene más actividad. Consulta [Cómo se calcula la actividad de la página][2] para obtener más información. +El SDK de Datadog Browser para RUM calcula el tiempo de carga de la acción monitorizando la actividad de la página después de cada clic. Una acción se considera completa cuando la página no tiene más actividad. Consulta [Cómo se calcula la actividad de la página][2] para obtener más información. -Para obtener más información sobre la configuración para el muestreo o el contexto global, consulta [Modificar los datos y el contexto de RUM][1]. +Para obtener más información sobre la configuración para el muestreo o el contexto global, consulta [Modificación de datos y contexto RUM][3]. ## Atributos de las acciones @@ -78,11 +79,11 @@ Por ejemplo: ``` -A partir de la [versión 2.16.0][4], mediante el parámetro de inicialización `actionNameAttribute`, es posible especificar un atributo personalizado que se emplee para dar un nombre a la acción. +A partir de la [versión 2.16.0][7], con el parámetro de inicialización `actionNameAttribute`, puedes especificar un atributo personalizado que se utiliza para dar nombre a acción. Por ejemplo: @@ -113,15 +114,26 @@ El SDK del navegador de Datadog utiliza diferentes estrategias para calcular los Para aumentar la recopilación de interacciones del usuario, envía tus acciones personalizadas mediante la API `addAction`. Estas acciones personalizadas envían información sobre un evento que se produce durante el recorrido de un usuario. -Para más información, consulta [Enviar acciones personalizadas][5]. +Para obtener más información, consulta [Enviar acciones personalizadas][8]. + +## Límites y muestreo de acciones + +No existe un límite estricto en el número de acciones del usuario, como clics o acciones personalizadas, que el SDK de Datadog RUM Browser puede rastrear por sesión o página. Sin embargo, debes tener en cuenta lo siguiente: + +- **Muestreo**: puedes configurar el SDK para que muestree un porcentaje de las acciones del usuario utilizando las opciones `sampleRate` y `trackInteractions`. Esto ayuda a controlar el volumen de datos enviados a Datadog. Para más información, consulta [Configuración avanzada][1]. +- **Rendimiento**: el SDK agrupa y envía eventos periódicamente. En casos de acciones de alta frecuencia, como clics repetidos, el SDK puede deduplicar o agrupar acciones, por ejemplo, mediante la detección de clics repetidos para evitar inundaciones. + +Como mejor práctica, si esperas un alto volumen de acciones de usuario, considera ajustar tu configuración de muestreo y monitorizar tu uso de eventos de Datadog. ## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} -[1]: /es/real_user_monitoring/browser/advanced_configuration/ -[2]: /es/real_user_monitoring/browser/monitoring_page_performance/#how-page-activity-is-calculated -[3]: /es/real_user_monitoring/browser/data_collected/#default-attributes -[4]: https://github.com/DataDog/browser-sdk/blob/main/CHANGELOG.md#v2160 -[5]: /es/real_user_monitoring/guide/send-rum-custom-actions -[6]: /es/data_security/real_user_monitoring/#mask-action-names \ No newline at end of file +[1]: /es/real_user_monitoring/browser/troubleshooting/ +[2]: /es/data_security/real_user_monitoring/#mask-action-names +[3]: /es/real_user_monitoring/browser/advanced_configuration/ +[4]: /es/real_user_monitoring/browser/frustration_signals/ +[5]: /es/real_user_monitoring/browser/data_collected/#default-attributes +[6]: /es/real_user_monitoring/browser/monitoring_page_performance/#how-page-activity-is-calculated +[7]: https://github.com/DataDog/browser-sdk/blob/main/CHANGELOG.md#v2160 +[8]: /es/real_user_monitoring/guide/send-rum-custom-actions \ No newline at end of file diff --git a/content/es/real_user_monitoring/browser/troubleshooting.md b/content/es/real_user_monitoring/browser/troubleshooting.md index f453200105535..d9e4d033f471d 100644 --- a/content/es/real_user_monitoring/browser/troubleshooting.md +++ b/content/es/real_user_monitoring/browser/troubleshooting.md @@ -1,4 +1,6 @@ --- +description: Solucionar problemas comunes con el SDK de RUM Browser incluyendo datos + perdidos, bloqueadores de anuncios, restricciones de red y problemas de configuración. further_reading: - link: https://www.datadoghq.com/blog/real-user-monitoring-with-datadog/ tag: Blog @@ -9,7 +11,7 @@ further_reading: title: Solucionar problemas --- -Si experimentas algún comportamiento inesperado con Datadog Browser RUM, utiliza esta guía para resolver los problemas rápidamente. Si sigues teniendo problemas, contacta con el [equipo de asistencia de Datadog][1] para obtener más ayuda. Actualiza con regularidad el [RUM Browser SDK][2] a la última versión, ya que cada nueva versión contiene mejoras y correcciones. +Si experimentas algún comportamiento inesperado con Datadog Browser RUM, utiliza esta guía para resolver los problemas rápidamente. Si sigues teniendo problemas, contacta con el [equipo de asistencia de Datadog][1] para obtener más ayuda. Actualiza con regularidad el [SDK del RUM Browser][2] a la última versión, ya que cada nueva versión contiene mejoras y correcciones. ## Datos faltantes @@ -19,16 +21,20 @@ Si no puedes ver ningún dato en RUM o si faltan datos de algún usuario: | ----------------------------------------------------------------------------------------------------------- | -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | | Los bloqueadores de anuncios impiden que el SDK del RUM Browser se descargue o envíe datos a Datadog. | Algunos bloqueadores de anuncios amplían sus restricciones a las herramientas de rastreo de rendimiento y marketing. Consulta los documentos [Instalar el SDK del RUM Browser con npm][3] y [reenviar los datos recopilados a través de un proxy][4]. | | Las reglas de red, las VPN o el software antivirus pueden impedir que se descargue el SDK del RUM Browser o que se envíen datos a Datadog. | Permite el acceso a los endpoints necesarios para descargar el SDK del RUM Browser o para enviar datos. La lista de endpoints está disponible en la [documentación sobre la Política de seguridad de contenido][5]. | -| Los scripts, paquetes y clientes inicializados antes del SDK del RUM Browser pueden provocar que se pierdan logs, recursos y acciones del usuario. Por ejemplo, inicializar ApolloClient antes que el SDK del RUM Browser puede provocar que las solicitudes `graphql` no se registren como recursos XHR en el navegador RUM. | Check dónde se inicializa el SDK de RUM Browser y plantéate adelantar este paso en la ejecución del código de tu aplicación. | -| Si has configurado `trackViewsManually: true` y observas que no hay sesiones, es posible que la aplicación haya dejado de enviar información RUM repentinamente aunque no haya errores red. | Asegúrate de iniciar una vista inicial una vez que hayas inicializado RUM para evitar cualquier pérdida de datos. Consulta [Configuración avanzada][6] para obtener más información.| +| Los scripts, paquetes y clientes inicializados antes del SDK del RUM Browser pueden provocar que se pierdan logs, recursos y acciones del usuario. Por ejemplo, inicializar ApolloClient antes que el SDK del RUM Browser puede provocar que las solicitudes `graphql` no se registren como recursos XHR en el RUM Explorer. | Check dónde se inicializa el SDK de RUM Browser y plantéate adelantar este paso en la ejecución del código de tu aplicación. | +| Si has configurado `trackViewsManually: true` y observas que no hay sesiones, es posible que la aplicación haya dejado de enviar información RUM repentinamente aunque no haya errores de red. | Asegúrate de iniciar una vista inicial una vez que hayas inicializado RUM para evitar cualquier pérdida de datos. Consulta [Configuración avanzada][6] para obtener más información.| -Lee las [directrices de la política de seguridad de contenidos][5] y asegúrate de que tu sitio web permita el acceso al CDN del SDK del RUM Browser y al endpoint de ingesta. +Lee las [directrices de la política de seguridad de contenido][5] y asegúrate de que tu sitio web permita el acceso al CDN del SDK del RUM Browser y al endpoint de ingesta. + +## Problemas al ejecutar varias herramientas RUM en la misma aplicación + +Datadog solo admite un SDK por aplicación. Para garantizar una recopilación de datos óptima y la plena funcionalidad de todas las características del SDK de Datadog RUM, utiliza únicamente el SDK de Datadog RUM. ### Inicialización del SDK del RUM Browser Check si el SDK del RUM Browser se inicializa ejecutando `window.DD_RUM.getInternalContext()` en la consola de tu navegador y verifica que se devuelvan `application_id`, `session_id` y el objeto de vista: -{{< img src="real_user_monitoring/browser/troubleshooting/success_rum_internal_context.png" alt="Comando de obtención de contexto interno ejecutado correctamente">}} +{{< img src="real_user_monitoring/browser/troubleshooting/success_rum_internal_context.png" alt="El comando de obtención de contexto interno se ejecutó correctamente">}} Si el SDK del RUM Browser no está instalado o si no se inicializa correctamente, puedes ver el error `ReferenceError: DD_RUM is not defined` como el que se muestra a continuación: @@ -44,13 +50,13 @@ También puedes check la consola de herramientas de desarrollo de tu navegador o El SDK de RUM envía lotes de datos de eventos a la ingesta de Datadog cada vez que se cumple una de estas condiciones: - Cada 30 segundos -- Cuando se hayan alcanzado 50 eventos -- Cuando la carga útil sea >16 kB +- Cuando se hayan alcanzado 50 eventos +- Cuando la carga útil sea >16 kB - En `visibility:hidden` o `beforeUnload` -Si se están enviando datos, deberías ver solicitudes de redes dirigidas a `/v1/input` (la parte del origen de la URL puede diferir debido a la configuración de RUM) en la sección de red de las herramientas de desarrollo del navegador: +Si se están enviando datos, deberías ver las solicitudes de red dirigidas a `api/v2/rum` (la parte del origen de la URL puede diferir debido a la configuración de RUM) en la sección Red de las herramientas de desarrollo de tu navegador: -{{< img src="real_user_monitoring/browser/troubleshooting/network_intake.png" alt="Solicitudes de RUM a la ingesta de Datadog">}} +{{< img src="real_user_monitoring/browser/troubleshooting/network_intake-1.png" alt="Solicitudes de RUM a la entrada de Datadog">}} ## Cookies de RUM @@ -120,16 +126,20 @@ El SDK del navegador RUM permite configurar el [contexto global][10], la [inform Para minimizar el impacto en el ancho de banda del usuario, el SDK del navegador RUM limita los datos enviados a la ingesta de Datadog. Sin embargo, el envío de grandes volúmenes de datos puede afectar al rendimiento de los usuarios con conexiones a Internet lentas. -Para una mejor experiencia de usuario, Datadog recomienda mantener el tamaño del contexto global, la información del usuario y las marcas de funciones por debajo de 3 KiB. Si los datos superan este límite, se muestra una advertencia: `The data exceeds the recommended 3KiB threshold.` +Para una mejor experiencia de usuario, Datadog recomienda mantener el tamaño del contexto global, la información del usuario y las marcas de funciones por debajo de 3 KiB. Si los datos superan este límite, se mostrará una advertencia: `The data exceeds the recommended 3KiB threshold.` Desde v5.3.0, el SDK del RUM Browser admite la compresión de datos a través de `compressIntakeRequest` [parámetro de inicialización][13]. Cuando está activado, este límite recomendado se amplía de 3 KiB a 16 KiB. ## Advertencia de bloqueo de lectura de origen cruzado -En los navegadores basados en Chromium, cuando el SDK del RUM Browser envía datos a la ingesta de Datadog, se muestra una advertencia CORB en la consola: `Cross-Origin Read Blocking (CORB) blocked cross-origin response`. +En los navegadores de Chromium, cuando el SDK del RUM Browser envía datos a la ingesta de Datadog, se muestra una advertencia CORB en la consola: `Cross-Origin Read Blocking (CORB) blocked cross-origin response`. La advertencia se muestra porque la ingesta devuelve un objeto JSON no vacío. Este comportamiento es un problema reportado [de Chromium][8]. No afecta al SDK del RUM Browser y se lo puede ignorar en forma segura. +## Advertencia "Deobfuscation failed" + +Aparece una advertencia cuando falla el desenmascaramiento de un stack trace. Si el stack trace no está enmascarado para empezar, puedes ignorar esta advertencia. De lo contrario, utiliza la [página Símbolos de depuración de RUM][14] para ver todos tus mapas fuente subidos. Consulta [Investigar stack traces enmascarados con símbolos de depuración de RUM][15]. + ## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} @@ -146,4 +156,6 @@ La advertencia se muestra porque la ingesta devuelve un objeto JSON no vacío. E [10]: /es/real_user_monitoring/browser/advanced_configuration/?tab=npm#global-context [11]: /es/real_user_monitoring/browser/advanced_configuration/?tab=npm#user-session [12]: /es/real_user_monitoring/guide/setup-feature-flag-data-collection/?tab=browser -[13]: /es/real_user_monitoring/browser/setup/#initialization-parameters \ No newline at end of file +[13]: /es/real_user_monitoring/browser/setup/#initialization-parameters +[14]: https://app.datadoghq.com/source-code/setup/rum +[15]: /es/real_user_monitoring/guide/debug-symbols \ No newline at end of file diff --git a/content/es/real_user_monitoring/correlate_with_other_telemetry/llm_observability/_index.md b/content/es/real_user_monitoring/correlate_with_other_telemetry/llm_observability/_index.md new file mode 100644 index 0000000000000..b316668aa337f --- /dev/null +++ b/content/es/real_user_monitoring/correlate_with_other_telemetry/llm_observability/_index.md @@ -0,0 +1,127 @@ +--- +algolia: + tags: + - llmobs + - agentes ia + - llm +description: Conecta sesiones RUM con LLM Observability para realizar un seguimiento + de las interacciones de los usuarios con los agentes de IA y comprender el recorrido + completo del usuario. +further_reading: +- link: /llm_observability/sdk + tag: Documentación + text: Referencia del SDK de LLM Observability +title: Correlacionar LLM Observability con RUM +--- + +## Información general +Correlaciona sesiones RUM y LLM Observability para obtener más visibilidad sobre cómo interactúa tu aplicación web con los agentes de IA. Esta correlación te ayuda a comprender el recorrido completo del usuario conectando las interacciones del usuario frontend con el procesamiento de IA backend. + +El enlace entre RUM y LLM Observability se crea reenviando el ID de la sesión RUM al SDK de LLM Observability. + +## Requisitos previos + +Antes de empezar, asegúrate de que tienes: +- El [SDK del navegador RUM][1] instalado y configurado en tu aplicación web +- El [SDK de LLM Observability][2] instalado en tu servicio backend +- Datadog cuenta con [RUM][3] y [LLM Observability][4] activados +- El endpoint del agente de IA al que tu aplicación web puede llamar + +## Configuración +### Paso 1: Configurar el SDK de tu navegador RUM + +Asegúrate de que el SDK de tu navegador RUM está correctamente inicializado en tu aplicación web. Para obtener instrucciones de configuración detalladas, consulta la [guía de configuración del navegador RUM][1]. + +Necesitas enviar tu ID de sesión RUM en cada llamada desde tu aplicación web a un agente de IA. Consulta los ejemplos siguientes. + +```javascript +import { datadogRum } from '@datadog/browser-rum' + +datadogRum.init({ + /* RUM Browser SDK configuration */ +}); +``` + +### Paso 2: Modificar las llamadas a tu IA frontend + +Actualiza tu aplicación web para incluir el ID de sesión RUM en cada llamada a tu agente de IA. Para obtener más información sobre la gestión de sesiones RUM, consulta la [documentación del navegador RUM][3]. + +```javascript + /** + * Example call to an AI Agent. + * + * We send the `session_id` in the body of the request. If the call to the AI agent + * needs to be a GET request, the `session_id` can be sent as a query param. + */ + const response = await fetch("/ai-agent-endpoint", { + method: "POST", + headers: { + "Content-Type": "application/json", + }, + body: JSON.stringify({ message, session_id: datadogRum.getInternalContext().session_id }), +}); +``` + +### Paso 3: Actualizar tu manejador backend + +Modifica tu código del lado del servidor para extraer el ID de sesión y trasladarlo al SDK de LLM Observability. Para una configuración detallada de LLM Observability, consulta la [guía de configuración de LLM Observability][4]. + +```python +# Read the session_id from the incoming request +class MessagesHandler: + def __init__(self, handler): + try: + post_data = handler.rfile.read(content_length) + + # Parse the JSON message + message_data = json.loads(post_data.decode('utf-8')) + message = message_data.get('message', '') + + # Read the session_id + current_session_id = message_data.get('session_id', None) + + # Call AI Agent and pass the session_id + await agent_loop( + messages=messages, + model="claude-3-7-sonnet-20250219", + provider="anthropic", + api_key=os.getenv("ANTHROPIC_API_KEY"), + max_tokens=4096, + session_id=current_session_id, + # Other kwargs your agent might need + ) + except Exception as e: + handler.send_error(500, str(e)) +``` + +Utiliza el SDK de LLM Observability para instrumentar tu agente y tus herramientas e indica al SDK de LLM Observability cuál debe ser el `session_id`. + +### Paso 4: Instrumentar tu agente de IA + +Utiliza el SDK de LLM Observability para instrumentar tu agente y asociarlo a la sesión RUM. Para una referencia detallada, consulta la [documentación del SDK de LLM Observability][4]. +```python +async def agent_loop( + session_id, + # Other kwargs +): + LLMObs.annotate( + span=None, + tags={"session_id": session_id}, + ) + # Rest of your agent code +``` + +## Navegación entre RUM y LLM Observability +Una vez finalizada la configuración, podrás navegar entre los datos correlacionados: + +- **De RUM a LLM**: En una sesión RUM, haz clic en el botón "LLM Traces" (Trazas de LLM) en la cabecera del panel lateral para ver las interacciones de IA asociadas. +- **De LLM a RUM**: En una traza de LLM, haz clic en el enlace "RUM Session" (Sesión RUM) para ver la repetición de la sesión de usuario correspondiente. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/real_user_monitoring/browser/setup/ +[2]: /es/llm_observability/setup/ +[3]: /es/real_user_monitoring/browser/ +[4]: /es/llm_observability/ \ No newline at end of file diff --git a/content/es/real_user_monitoring/explorer/visualize.md b/content/es/real_user_monitoring/explorer/visualize.md index 298e94bd45b53..32b1dc2a7b3e5 100644 --- a/content/es/real_user_monitoring/explorer/visualize.md +++ b/content/es/real_user_monitoring/explorer/visualize.md @@ -1,4 +1,7 @@ --- +description: Crea visualizaciones a partir de los datos de RUM, incluyendo listas, + series temporales, tablas y gráficos para analizar el rendimiento y las tendencias + de comportamiento de los usuarios. further_reading: - link: /real_user_monitoring/explorer/search/ tag: Documentación @@ -12,11 +15,11 @@ Las visualizaciones definen los resultados de los filtros y agregados mostrados ## Listas -Las listas son resultados paginados de eventos y son ideales cuando son importantes los resultados individuales. Para utilizar las listas no es necesario tener conocimientos previos de lo que define un resultado coincidente. +Las listas son resultados paginados de eventos y son ideales cuando importan los resultados individuales. Para utilizar las listas no es necesario tener conocimientos previos de lo que define un resultado coincidente. {{< img src="real_user_monitoring/explorer/visualize/rum_explorer_lists-1.mp4" alt="Listas en el Explorador RUM" video="true" style="width:70%;" >}} -La información que buscas se muestra en columnas. Puedes administrar lo siguiente: +La información que buscas se muestra en columnas. Puedes gestionar lo siguiente: - La tabla con las interacciones disponibles en la primera fila. Puedes ordenar, reorganizar y eliminar columnas. - El panel de facetas de la izquierda o el [panel lateral de eventos][2] RUM de la derecha. Puedes añadir una columna para un campo. @@ -43,8 +46,8 @@ El gráfico de series temporales muestra la evolución del número de páginas v Puedes elegir opciones de visualización adicionales como: -- Visualización: Los resultados se muestran en forma de barras (recomendado para recuentos y recuentos únicos), líneas (recomendado para agregaciones estadísticas), áreas. Hay varios conjuntos de colores disponibles. -- Intervalo de roll-up: Determina la anchura de los buckets en las barras. +- Visualización: Los resultados se muestran en forma de barras (recomendado para counts y counts únicos), líneas (recomendado para agregaciones estadísticas), áreas y se dispone de varios conjuntos de colores. +- El intervalo de acumulación: determina el ancho de los buckets en las barras. ## Lista principal @@ -52,16 +55,16 @@ Visualiza los principales valores de una faceta en función de la medida elegida {{< img src="real_user_monitoring/explorer/visualize/top-list-2.png" alt="Gráfico de barras de la lista principal en el Explorador RUM" style="width:90%;" >}} -La lista principal incluye los principales navegadores utilizados para visitar el sitio web de Shopist durante el último día. +La lista de principales incluye los principales navegadores utilizados para visitar el sitio web de Shopist durante el último día. ## Tablas anidadas Visualiza los principales valores de hasta tres [facetas][5] según la [medida][5] elegida (la primera medida que elijas en lista) y visualiza el valor de las medidas adicionales para los elementos que aparecen en la tabla anidada. Actualiza la consulta de búsqueda o investiga los eventos RUM correspondientes a cualquiera de las dos dimensiones. -* Cuando hay varias medidas, la lista principal o inferior se determina en función de la primera medida. -* El subtotal puede diferir de la suma real de valores de un grupo, ya que sólo se muestra un subconjunto (principal o inferior). Los eventos con un valor nulo o vacío para esta dimensión no se muestran como subgrupo. +* Cuando haya varias medidas, la lista superior o inferior se determina en función de la primera medida. +* El subtotal puede diferir de la suma real de valores de un grupo, ya que sólo se muestra un subconjunto (superior o inferior). Los eventos con un valor nulo o vacío para esta dimensión no se muestran como subgrupo. - **Nota**: Una visualización de tabla utilizada para una sola medida y una sola dimensión es lo mismo que una [lista principal](#top-list), sólo que con una visualización diferente. + **Nota**: Una visualización de tabla utilizada para una sola medida y una sola dimensión es lo mismo que una [lista de principales](#top-list), sólo que con una visualización diferente. La siguiente tabla de RUM Analytics muestra las **5 principales rutas URL** para **dos países**, EE.UU. y Japón, agrupadas por navegador, durante el último día: @@ -69,11 +72,11 @@ Visualiza los principales valores de hasta tres [facetas][5] según la [medida][ ## Distribuciones -Puedes visualizar la distribución de los atributos de medida a lo largo del periodo de tiempo seleccionado para ver la fluctuación de los valores. +Puedes visualizar la distribución de los atributos de medidas a lo largo del periodo de tiempo seleccionado para ver la fluctuación de los valores. {{< img src="real_user_monitoring/explorer/visualize/distribution-2.png" alt="Gráfico de distribución en el Explorador RUM" style="width:90%;">}} -El gráfico de distribución muestra la distribución del Largest Contentful Paint que mide la experiencia de usuario de la página de inicio de Shopist. +En el gráfico de distribución, se muestra la distribución de la pintura de mayor contenido que mide la experiencia de usuario de la página de destino de Shopist. ## Geomapas @@ -85,11 +88,11 @@ El geomapa de RUM Analytics muestra el percentil 75 del **Largest Contentful Pai ## Embudos -El análisis del embudo te ayuda a realizar un seguimiento de las tasas de conversión en los flujos de trabajo clave para identificar y abordar los cuellos de botella en los recorridos integrales de los usuarios. En concreto, puedes: +El análisis del embudo te ayuda a realizar un seguimiento de las tasas de conversión en flujos de trabajo clave, para identificar y abordar los cuellos de botella en recorridos de extremo a extremo de los usuarios. En concreto, puedes: -- Comprobar si los clientes abandonan el sitio web en un momento determinado debido a un rendimiento deficiente -- Rastrear la evolución de la tasa de conversión a medida que se incorporan nuevas funciones -- Medir cómo afecta a la tasa de abandono la adición de nuevos pasos a un flujo de trabajo +- Ver si los clientes abandonan el sitio web en un momento determinado debido a un rendimiento deficiente. +- Realizar un seguimiento de la evolución de la tasa de conversión a medida que se incorporan nuevas funciones. +- Medir cómo afecta a la tasa de abandono la adición de nuevos pasos a un flujo de trabajo. **Nota**: La tasa de conversión es el número de visitantes de tu sitio web que completaron un objetivo deseado (una conversión) del número total de visitantes. @@ -101,9 +104,9 @@ Para construir un embudo, elige tu vista o acción inicial y haz clic en el icon ### Próximos pasos sugeridos -Cuando tengas un punto de partida en mente, pero no estés seguro de lo que tus usuarios hicieron después, despliega el panel **Quickly add a step** (Añadir rápidamente un paso) (disponible en un cajón a la derecha) para ver los siguientes pasos sugeridos. Después de introducir los pasos, este panel carga automáticamente las cinco **vistas** y **acciones** más comunes que los usuarios suelen ver y realizar a continuación. Esto te permite construir embudos más rápido sabiendo los caminos que tus usuarios están tomando en secuencia. +Cuando tengas un punto de partida en mente, pero no estés seguro de lo que tus usuarios hicieron a continuación, haz clic en el cuadro de búsqueda donde dice "Search for View or Action Name" (Búsqueda por nombre de vista o acción) para ver los siguientes pasos sugeridos. Este cuadro de entrada carga automáticamente las **vistas** y **acciones** más comunes que los usuarios suelen ver y realizar a continuación. Esto te permite crear embudos más rápido sabiendo los caminos que tus usuarios están tomando en secuencia. -{{< img src="real_user_monitoring/funnel_analysis/funnel-analysis-suggested-next-steps.jpg" alt="Crear un embudo" style="width:90%;" >}} +{{< img src="real_user_monitoring/funnel_analysis/funnel-analysis-suggested-next-steps-1.png" alt="Crear un túnel" style="width:90%;" >}} **Nota**: Cualquier acción o vista que ocurra entre dos pasos de un embudo no afecta a la tasa de conversión paso a paso o global. Mientras el paso 1 y el paso 2 ocurran en el orden correcto en una sesión dada al menos una vez, cuentan como una única sesión convertida. @@ -129,7 +132,7 @@ Después de crear un embudo, haz clic en **View Funnel Insights** (Ver informaci ## Gráficos circulares Un gráfico circular te ayuda a organizar y mostrar los datos como un porcentaje del total. Resulta útil cuando se compara la relación entre diferentes dimensiones como servicios, usuarios, hosts, países, etc. dentro de tus datos de logs. -El siguiente gráfico circular muestra el desglose porcentual por **Ruta de vista**. +En el siguiente gráfico circular se muestra el desglose porcentual por **Ruta de vista**. {{< img src="real_user_monitoring/explorer/visualize/pie-chart.png" alt="Gráfico circular en el Explorador RUM" style="width:90%;">}} @@ -139,13 +142,12 @@ Para todas las visualizaciones, selecciona una sección del gráfico o haz clic {{< img src="real_user_monitoring/explorer/visualize/related-events-2.png" alt="Enlace de eventos relacionados cuando se hace clic en el gráfico" width="90%" >}} -Para el resto de las opciones de visualización, haz clic en el gráfico y luego en **Ver eventos**, para ver una lista de los eventos que corresponden a tu selección. +Para el resto de las opciones de visualización, haz clic en el gráfico y en **Ver eventos** para ver una lista de eventos que correspondan a tu selección. ## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} - [1]: /es/real_user_monitoring/explorer/ [2]: /es/real_user_monitoring/explorer/events/ [3]: /es/logs/explorer/facets/ diff --git a/content/es/real_user_monitoring/guide/_index.md b/content/es/real_user_monitoring/guide/_index.md index 03268cde01882..183226c81443f 100644 --- a/content/es/real_user_monitoring/guide/_index.md +++ b/content/es/real_user_monitoring/guide/_index.md @@ -4,6 +4,8 @@ cascade: category: Guía rank: 20 subcategory: Guías de RUM y Session Replay +description: Guías completas para la implementación, optimización y mejores prácticas + de RUM y Session Replay para aplicaciones web y móviles. disable_toc: true private: true title: Guías de Real User Monitoring y Session Replay diff --git a/content/es/real_user_monitoring/guide/send-rum-custom-actions.md b/content/es/real_user_monitoring/guide/send-rum-custom-actions.md index 8ecc66b8c1508..4a278602c1bab 100644 --- a/content/es/real_user_monitoring/guide/send-rum-custom-actions.md +++ b/content/es/real_user_monitoring/guide/send-rum-custom-actions.md @@ -1,4 +1,7 @@ --- +algolia: + tags: + - addaction aliases: - /es/real_user_monitoring/guide/send-custom-user-actions/ beta: true @@ -17,7 +20,7 @@ Real User Monitoring [recopila acciones automáticamente][1] en tu aplicación w Las acciones RUM personalizadas te permiten monitorizar eventos interesantes con todo su contexto relevante adjunto. Por ejemplo, el SDK del Navegador Datadog puede recopilar la información de pago de un usuario (como la cantidad de artículos en el carro de compras, la lista de artículos y su precio) cuando hace clic en el botón de pago en un sitio web de comercio electrónico. -## Instrumentación de tu código +## Instrumentar tu código Crea una acción RUM utilizando la API `addAction`. Dale un nombre a tu acción y adjunta atributos de contexto en forma de objeto de JavaScript. diff --git a/content/es/real_user_monitoring/rum_without_limits/_index.md b/content/es/real_user_monitoring/rum_without_limits/_index.md new file mode 100644 index 0000000000000..d0bdebb081bb8 --- /dev/null +++ b/content/es/real_user_monitoring/rum_without_limits/_index.md @@ -0,0 +1,108 @@ +--- +description: Conserva solo los datos RUM que necesites, manteniendo una visibilidad + total de las métricas de rendimiento para tus aplicaciones. +further_reading: +- link: /real_user_monitoring/rum_without_limits/retention_filters + tag: Documentación + text: Conservar datos con filtros de retención +- link: /real_user_monitoring/guide/retention_filter_best_practices/ + tag: Guía + text: Mejores prácticas para los filtros de retención +- link: /real_user_monitoring/rum_without_limits/metrics + tag: Documentación + text: Analizar el rendimiento con métricas +- link: https://www.datadoghq.com/blog/rum-without-limits/ + tag: Blog + text: 'Presentamos RUM without LimitsTM: captura todo, conserva lo que importa' +title: RUM without Limits +--- + +
RUM without Limits se activa automáticamente para los clientes con planes de RUM no comprometidos. Ponte en contacto con tu equipo de cuentas o con el servicio de asistencia de Datadog para activar esta función.
+ +{{< img src="real_user_monitoring/rum_without_limits/rum-without-limits-overview.png" alt="Página de panel lateral de las métricas de uso estimado" style="width:90%" >}} + +## Información general + +RUM without Limits te proporciona flexibilidad sobre tus volúmenes de sesiones RUM al desacoplar la ingesta de datos de sesión de la indexación. Esto te permite: + +- Establecer filtros de retención dinámicamente desde la interfaz de usuario de Datadog sin tener que tomar decisiones de muestreo previas ni cambiar el código. +- Conservar las sesiones con errores o problemas de rendimiento y descartar las menos significativas, como las que tienen pocas interacciones con el usuario. + +Aunque solo se conserve una fracción de las sesiones, Datadog proporciona [métricas de rendimiento][1] para todas las sesiones ingestadas. Esto garantiza una visión general precisa y a largo plazo del estado y el rendimiento de la aplicación, incluso si solo se conserva una fracción de los datos de sesión. + +**Nota**: En el modo RUM without Limits, solo puedes utilizar los filtros predeterminados en la [página de Resumen de monitorización del rendimiento][7]. Esto te permite ver todo el conjunto de datos y evita métricas de rendimiento sesgadas, ya que los datos se muestrean y hay menos etiquetas disponibles que en los atributos de eventos. + +Esta página identifica los componentes clave de RUM without Limits que pueden ayudarte a gestionar los volúmenes de tus sesiones RUM dentro de tu presupuesto de observabilidad. + +### Para nuevas aplicaciones + +Para empezar a trabajar con RUM without Limits para nuevas aplicaciones, en el paso de [instrumentación][2]: + +1. Asegúrate de que `sessionSampleRate` está configurado al 100%. Datadog recomienda configurarlo a este porcentaje para una visibilidad óptima y precisión de las métricas. + +2. Elige una `sessionReplaySampleRate` que satisfaga tus necesidades de observabilidad. + +3. Para aplicaciones con la integración [APM activada][3], configura el porcentaje de sesiones para las que deseas asegurarte de que las trazas de backend de APM se ingieren con `traceSampleRate` (navegador), `traceSampler` (Android) o `sampleRate` (iOS). + +4. Habilita `traceContextInjection: sampled` para permitir que las bibliotecas de rastreo de backend tomen sus propias decisiones de muestreo para las sesiones en las que el SDK de RUM decida no conservar la traza. + +
Los pasos 1, 3 y 4 pueden afectar a la ingesta de trazas de APM. Para garantizar que los volúmenes ingestados de tramos permanezcan estables, configura traceSampleRate con el valor de sessionSampleRate configurado anteriormente. Por ejemplo, si solías tener configurado sessionSampleRate al 10 % y lo aumentas al 100 % para RUM without Limits, reduce traceSampleRate del 100 % al 10 % para ingerir la misma cantidad de trazas.
+ +5. Despliega tu aplicación para aplicar la configuración. + +### Para aplicaciones existentes +Los usuarios existentes de RUM deben volver a desplegar las aplicaciones para utilizar plenamente RUM without Limits. Asegúrate de que la frecuencia de muestreo de la sesión es del 100 % para todas las aplicaciones. + +#### Paso 1: Ajustar la frecuencia de muestreo +Si ya estás recopilando repeticiones, para aumentar la frecuencia de muestreo de la sesión es necesario reducir la frecuencia de muestreo de las repeticiones para recopilar el mismo número de repeticiones (consulta el ejemplo siguiente). La frecuencia de muestreo de repetición se basa en la frecuencia de muestreo de sesión existente. + +Antes: + +```java + sessionSampleRate: 20, + sessionReplaySampleRate: 10, +``` + +Después: + +```java + sessionSampleRate: 100, + sessionReplaySampleRate: 2, +``` + +1. Ve a [**Digital Experiences > Real User Monitoring > Manage Applications**][4] (Experiencias digitales > Real User Monitoring > Gestionar aplicaciones). +1. Haz clic en la aplicación que deseas migrar. +1. Haz clic en la pestaña **SDK Configuration** (Configuración del SDK). +1. Asegúrate de que `sessionSampleRate` está ajustado al 100 %. +1. Establece `sessionReplaySampleRate` a una velocidad que resulte en el mismo número de repeticiones antes de aumentar la velocidad de muestreo de la sesión. +1. Utiliza el fragmento de código generado para actualizar tu código fuente y volver a desplegar tus aplicaciones para asegurarte de que se aplica la nueva configuración. + +#### Paso 2: Ajustar el rastreo + +Si has aumentado `sessionSampleRate`, podrías aumentar el número de tramos de APM ingestados, ya que el SDK de RUM tiene la capacidad de anular las decisiones de muestreo de las trazas de backend para realizar la correlación. + +Para simplificar esto, establece `traceSampleRate` en un porcentaje inferior al 100 % (a la `sessionSampleRate` establecida anteriormente) y establece `traceContextInjection: sampled` para permitir que las bibliotecas de rastreo de backend tomen sus propias decisiones de muestreo para las sesiones en las que el SDK de RUM decida no mantener la traza. + +#### Paso 3: Crear filtros de retención + +En las aplicaciones móviles, pueden convivir muchas versiones concurrentes. Sin embargo, las versiones existentes no envían necesariamente el 100 % de las sesiones, lo que significa que la creación de nuevos filtros de retención reduce los datos disponibles en Datadog para estas versiones de aplicaciones. + +Datadog recomienda crear los mismos filtros de retención para todas las versiones de la aplicación, independientemente de si la tasa de muestreo del SDK está configurada al 100 % o no. En última instancia, todas las sesiones valiosas se siguen recopilando aunque algunas sesiones no se ingieran para algunas versiones antiguas. + +Consulta los filtros de retención y casos de uso sugeridos en [Prácticas recomendadas del filtro de retención][5]. + +## Siguientes pasos + +Crea y configura [filtros de retención][6]. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/real_user_monitoring/rum_without_limits/metrics +[2]: /es/real_user_monitoring/browser/setup/ +[3]: /es/real_user_monitoring/platform/connect_rum_and_traces/ +[4]: https://app.datadoghq.com/rum/list +[5]: /es/real_user_monitoring/guide/retention_filter_best_practices/ +[6]: /es/real_user_monitoring/rum_without_limits/retention_filters +[7]: https://app.datadoghq.com/rum/performance-monitoring \ No newline at end of file diff --git a/content/es/remote_configuration/_index.md b/content/es/remote_configuration/_index.md new file mode 100644 index 0000000000000..27361d6c75997 --- /dev/null +++ b/content/es/remote_configuration/_index.md @@ -0,0 +1,176 @@ +--- +algolia: + tags: + - configuración remota + - configuración remota +aliases: +- /es/agent/guide/how_rc_works +- /es/agent/guide/how_remote_config_works +- /es/agent/remote_config +description: Configura y cambia de forma remota el comportamiento de los componentes + de Datadog como Agents, bibliotecas de rastreo y Observability Pipelines Workers + desplegados en tu infraestructura. +further_reading: +- link: /security/application_security/how-appsec-works/#built-in-protection + tag: Documentación + text: Como funciona Application Security Monitoring +- link: /dynamic_instrumentation/?tab=configurationyaml#enable-remote-configuration + tag: Documentación + text: Dynamic Instrumentation +- link: /security/workload_protection/ + tag: Documentación + text: Configuración de Workload Protection +- link: https://www.datadoghq.com/blog/compliance-governance-transparency-with-datadog-audit-trail/ + tag: Blog + text: Como usar Datadog Audit Trail +- link: https://www.datadoghq.com/blog/remote-configuration-for-datadog/ + tag: Blog + text: Aplicar actualizaciones en tiempo real a los componentes de Datadog con la + configuración remota +title: Configuración remota +--- + +## Información general + +La configuración remota es una función de Datadog que te permite configurar y cambiar de forma remota el comportamiento de los componentes de Datadog (por ejemplo, Agents, bibliotecas de rastreo y Observability Pipelines Workers) desplegados en tu infraestructura. Utiliza la configuración remota para aplicar configuraciones a componentes de Datadog de tu entorno, disminuyendo los costes de gestión, reduciendo la fricción entre equipos y acelerando los tiempos de resolución de problemas. + +Para productos de seguridad de Datadog, App and API Protection y Workload Protection, los Agents habilitados por configuración remota y bibliotecas de rastreo compatibles proporcionan actualizaciones y respuestas de seguridad en tiempo real, lo que mejora la situación de seguridad de tus aplicaciones y la infraestructura de la nube. + +## Cómo funciona + +Cuando la configuración remota está activada, los componentes de Datadog como el Datadog Agent sondean de forma segura el [sitio Datadog][1] configurado en busca de cambios de configuración que estén listos para ser aplicados. Los cambios pendientes se aplican automáticamente a los componentes de Datadog. Por ejemplo, después de enviar cambios de configuración en la interfaz de usuario de Datadog para una función de producto habilitada por configuración remota, los cambios se almacenan en Datadog. + +El siguiente diagrama muestra como funciona la configuración remota: + +{{Users configure features in the UI, the config is stored in Datadog, the Agent requests config updates.}} + +1. Configura las funciones del producto escogidas en la interfaz de usuario de Datadog. +2. La configuración de las funciones del producto se almacenan en condiciones seguras en Datadog. +3. Los componentes de Datadog habilitados por configuración remota en tus entornos sondean, reciben y aplican automáticamente actualizaciones de configuración de forma segura desde Datadog. Las bibliotecas de rastreo que se despliegan en tus entornos se comunican con los Agents para solicitar y recibir actualizaciones de configuración desde Datadog, en lugar de sondear Datadog directamente. + +## Entornos compatibles + +La configuración remota funciona en entornos en los que están instalados los componentes compatibles de Datadog. Entre los componentes compatibles de Datadog se incluyen: +- Agents +- Rastreadores (indirectamente) +- Observability Pipeline Workers +- Ejecutores de acciones privadas y servicios de nube de contenedores sin servidor como AWS Fargate + +La configuración remota no es compatible con aplicaciones sin servidor gestionadas por contenedores, como AWS App Runner, Azure Container Apps, Google Cloud Run, ni con funciones desplegadas con paquetes de contenedores, como AWS Lambda, Azure Functions y Google Cloud Functions. + +## Productos y funciones compatibles + +Los siguientes productos y funciones son compatibles con la configuración remota. + +Fleet Automation +: - [Envía flares][27] directamente desde el sitio Datadog. Soluciona sin problemas incidentes del Datadog Agent sin acceder directamente al host. +: - [Actualiza tus Agents][29] (Vista previa). + +App and API Protection (AAP) +: - [Activación de AAP en 1 clic][33]: Activa AAP en 1 clic desde la interfaz de usuario de Datadog. +: - [Actualizaciones de patrones de ataque en la aplicación][34]: Recibe automáticamente los patrones de ataque más recientes de Web Application Firewall (WAF) a medida que Datadog los publica, siguiendo vulnerabilidades o vectores de ataque recientemente revelados. +: - [Protección][34]: Bloquea las IP de los atacantes, los usuarios autenticados y las solicitudes sospechosas indicadas en señales y rastros de seguridad de AAP de forma temporal o permanente a través de la interfaz de usuario de Datadog. + +Application Performance Monitoring (APM) +: - Configuración en tiempo de ejecución (Vista previa): Cambia la frecuencia de muestreo del rastreo de un servicio, la activación de la inyección de logs y las etiquetas (tags) de encabezados HTTP desde la interfaz de usuario del Catálogo de software, sin tener que reiniciar el servicio. Consulta [Configuración en tiempo de ejecución][22] para obtener más información. +: - [Configura de forma remota la frecuencia de muestreo del Agent][35] (Vista previa): Configura de forma remota el Datadog Agent para cambiar sus frecuencias de muestreo del rastreo y configura reglas para escalar la ingesta de trazas (traces) de tu organización según tus necesidades, sin necesidad de reiniciar tu Datadog Agent. + +[Dynamic Instrumentation][36] +: - Envía métricas, trazas y logs críticos de tus aplicaciones en directo sin cambios en el código. + +Workload Protection +: - Actualizaciones automáticas de reglas predeterminadas del Agent: Recibe y actualiza automáticamente las reglas predeterminadas del Agent mantenidas por Datadog a medida que se publican nuevas detecciones y mejoras del Agent. Consulta [Configuración de Workload Protection][3] para obtener más información. +: - Despliegue automático de reglas personalizadas del Agent: Despliega automáticamente tus reglas personalizadas del Agent en los hosts designados (todos los hosts o un subconjunto definido de hosts). + +Observability Pipelines +: - Despliega y actualiza de forma remota [Observability Pipelines Workers][4] (OPW): Crea y edita pipelines en la interfaz de usuario de Datadog, desplegando tus cambios de configuración en las instancias OPW que se ejecutan en tu entorno. + +Ejecutor de acciones privadas +: - Ejecuta flujos de trabajo y aplicaciones de Datadog que interactúan con servicios alojados en tu red privada sin exponer tus servicios a la Internet pública. Para obtener más información, consulta [Private Actions][30]. + +## Cuestiones de seguridad + +Datadog implementa las siguientes medidas de seguridad para proteger la confidencialidad, la integridad y la disponibilidad de las configuraciones que reciben y aplican los componentes de Datadog: + +- Los componentes de Datadog habilitados por configuración remota y desplegados en tu infraestructura necesitan configuraciones de Datadog. +
Algunos componentes, como los ejecutores de acciones privadas, están siempre habilitados por configuración remota. Otros, como el Agent, pueden activarse o desactivarse mediante opciones de configuración en el disco.
+- Datadog nunca envía cambios de configuración a menos que se lo soliciten componentes de Datadog. Si envía cambios de configuración, Datadog solo envía aquellos relevantes para el componente solicitante. +- Las solicitudes de configuración se inician desde tu infraestructura a Datadog a través de HTTPS (puerto 443). Este es el mismo puerto que el Agent utiliza por defecto para enviar datos de observabilidad. +- La comunicación entre tus componentes de Datadog y Datadog se cifra mediante HTTPS y se autentica y autoriza utilizando tu clave de API Datadog, excepto en el caso de los ejecutores de acciones privadas donde se utiliza un token JWT en su lugar. +- Solo los usuarios con el permiso [`api_keys_write`][5] están autorizados a activar o desactivar la función de configuración remota en las claves de API y a utilizar las funciones compatibles del producto. +- Los cambios de configuración enviados a través de la interfaz de usuario de Datadog son firmados y validados por el componente de Datadog solicitante, lo que verifica la integridad de la configuración. + +## Activar la configuración remota + +En la mayoría de los casos, la configuración remota está activada por defecto para tu organización. Puedes comprobar si la configuración remota está activada en tu organización desde la página de parámetros de [Configuración remota][8]. Si necesitas activarla: +1. Asegúrate de que los permisos de RBAC incluyan [`org_management`][7], para poder habilitar la configuración remota en tu organización. +1. Desde la página Parámetros de tu organización, activa [Configuración remota][8]. Esto permite que los componentes de Datadog de toda la organización reciban configuraciones de Datadog. +1. Sigue las instrucciones de [configuración específicas del producto](#product-specific-configuration) que se indican a continuación para finalizar la configuración remota. + +### Configuración específica del producto + +Consulta la documentación a continuación para obtener instrucciones específicas para el producto que estás configurando. + +| Producto | Instrucciones de instalación | +| ------- | --------------------- | +| Automatización de flotas | [Configurar Fleet Automation][31] | +| APM | [Configuración en tiempo de ejecución](/tracing/guide/remote_config/) | +| Dynamic Instrumentation | [Empezando con Dynamic Instrumentation](/dynamic_instrumentation/#getting-started) | +| Workload Protection | [Workload Protection][3] | +| Observability Pipelines | Asegúrate de que has [activado la configuración remota en la clave de API][32] que estás utilizando para Observability Pipelines. | +| Sensitive Data Scanner | [Almacenamiento en la nube](/security/sensitive_data_scanner/setup/cloud_storage/?tab=newawsaccount) | +| Ejecutor de acciones privadas | [Información general sobre acciones privadas](/actions/private_actions/) | + +## Prácticas recomendadas + +### Audit Trail de Datadog + +Utiliza [Audit Trail de Datadog][13] para monitorizar el acceso a la organización y a eventos habilitados por configuración remota. Audit Trail permite a los administradores y equipos de seguridad realizar un seguimiento de la creación, eliminación y modificación de la API de Datadog y las claves de aplicación. Una vez configurado Audit Trail, podrás ver los eventos relacionados con las funciones habilitadas por configuración remota y quién ha solicitado estos cambios. Audit Trail permite reconstruir secuencias de eventos y establecer una monitorización sólida de Datadog para la configuración remota. + +### Monitores + +Configurar los [monitores][14] para recibir notificaciones cuando se encuentre un evento de interés. + +## Exclusión de la configuración remota + +En lugar de desactivar la configuración remota de forma global, Datadog recomienda optar por desactivarla en productos específicos de Datadog. Para obtener más información, consulta la [documentación del producto en cuestión](#product-specific-configuration). + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/getting_started/site/ +[3]: /es/security/workload_protection/ +[4]: /es/observability_pipelines/#observability-pipelines-worker +[5]: /es/account_management/rbac/permissions#api-and-application-keys +[6]: /es/security/application_security/threats/setup/compatibility/ +[7]: /es/account_management/rbac/permissions#access-management +[8]: https://app.datadoghq.com/organization-settings/remote-config +[9]: /es/security/default_rules/#cat-workload-security +[10]: /es/tracing/trace_pipeline/ingestion_controls/#managing-ingestion-for-all-services-at-the-agent-level +[11]: /es/dynamic_instrumentation/?tab=configurationyaml#enable-remote-configuration +[12]: /es/security/application_security/how-appsec-works/#built-in-protection +[13]: /es/account_management/audit_trail +[14]: /es/monitors/ +[15]: /es/help/ +[16]: /es/remote_configuration +[17]: /es/agent/configuration/network +[18]: /es/agent/configuration/proxy/ +[19]: /es/tracing/software_catalog/ +[20]: /es/dynamic_instrumentation/?tab=configurationyaml#prerequisites +[21]: /es/agent/configuration/agent-configuration-files/?tab=agentv6v7#agent-main-configuration-file +[22]: /es/tracing/trace_collection/runtime_config/ +[23]: /es/remote_configuration#opting-out-of-remote-configuration +[24]: https://app.datadoghq.com/organization-settings/api-keys +[25]: /es/agent/guide/ +[26]: https://app.datadoghq.com/organization-settings/remote-config/setup?page_id=org-enablement-step +[27]: /es/agent/fleet_automation/#send-a-remote-flare +[28]: /es/security/sensitive_data_scanner/?tab=usingtheagent +[29]: /es/agent/fleet_automation/remote_management#remotely-upgrade-your-agents +[30]: /es/actions/private_actions/use_private_actions/ +[31]: /es/agent/guide/setup_remote_config +[32]: https://app.datadoghq.com/organization-settings/remote-config/setup?page_id=api-key-enablement-step&standalone=1 +[33]: /es/security/application_security/setup/ +[34]: /es/security/application_security/ +[35]: /es/tracing/trace_pipeline/adaptive_sampling/ +[36]: /es/tracing/dynamic_instrumentation/#explore-dynamic-instrumentation \ No newline at end of file diff --git a/content/es/security/application_security/setup/nodejs/_index.md b/content/es/security/application_security/setup/nodejs/_index.md new file mode 100644 index 0000000000000..d8e495ce71a93 --- /dev/null +++ b/content/es/security/application_security/setup/nodejs/_index.md @@ -0,0 +1,51 @@ +--- +aliases: +- /es/security_platform/application_security/getting_started/nodejs +- /es/security/application_security/getting_started/nodejs +- /es/security/application_security/enabling/tracing_libraries/threat_detection/nodejs/ +- /es/security/application_security/threats/setup/threat_detection/nodejs +- /es/security/application_security/threats_detection/nodejs +- /es/security/application_security/setup/aws/fargate/nodejs +further_reading: +- link: /security/application_security/add-user-info/ + tag: Documentación + text: Añadir información del usuario a trazas (traces) +- link: https://github.com/DataDog/dd-trace-js + tag: Código fuente + text: Código fuente de la biblioteca Node.js de Datadog +- link: /security/default_rules/?category=cat-application-security + tag: Documentación + text: Reglas de protección de aplicaciones y API predefinidas +- link: /security/application_security/troubleshooting + tag: Documentación + text: Solucionar problemas con la protección de aplicaciones y API +title: Activar App and API Protection para Node.js +--- +{{< partial name="app_and_api_protection/callout.html" >}} + +{{% aap/aap_and_api_protection_nodejs_overview showSetup="false" %}} + +## Entornos + +### Hosts +{{< appsec-integrations >}} +{{< appsec-integration name="Linux" avatar="linux" link="./linux" >}} +{{< appsec-integration name="macOS" avatar="apple" link="./macos" >}} +{{< appsec-integration name="Windows" avatar="windows" link="./windows" >}} +{{< /appsec-integrations >}} + +### Plataformas de nube y contenedores +{{< appsec-integrations >}} +{{< appsec-integration name="Docker" avatar="docker" link="./docker" >}} +{{< appsec-integration name="Kubernetes" avatar="kubernetes" link="./kubernetes" >}} +{{< /appsec-integrations >}} + +### AWS +{{< appsec-integrations >}} +{{< appsec-integration name="AWS Fargate" avatar="aws-fargate" link="./aws-fargate" >}} +{{< /appsec-integrations >}} + +## Recursos adicionales + +- [Guía de resolución de problemas](./troubleshooting) +- [Información de compatibilidad(./compatibility) \ No newline at end of file diff --git a/content/es/security/application_security/terms.md b/content/es/security/application_security/terms.md index e67c23c1bae5c..72ffabec61646 100644 --- a/content/es/security/application_security/terms.md +++ b/content/es/security/application_security/terms.md @@ -23,14 +23,14 @@ Intento de ataque Biblioteca de Datadog : _también_ rastreador, biblioteca de rastreo -: una biblioteca específica del lenguaje de programación incrustada en aplicaciones web. Datadog App and API Protection utiliza la librería para monitorizar y proteger. APM utiliza la misma biblioteca para instrumentar código para rastrear telemetría. +: una biblioteca específica del lenguaje de programación incrustada en aplicaciones web. Datadog App and API Protection utiliza la biblioteca para monitorizar y proteger. APM utiliza la misma biblioteca para instrumentar código para rastrear telemetría. Regla de detección : Definición de lógica condicional que se aplica a los datos ingeridos y a las configuraciones de la nube. Cuando coincide al menos un caso definido en una regla durante un periodo de tiempo determinado, Datadog genera una _señal de seguridad_. : Consulta [Reglas de detección][10]. Lista de permisos (antiguo filtro de exclusión) -: Mecanismo para descartar las trazas de seguridad marcadas por la librería de Datadog App and API Protection y las reglas WAF en la aplicación. La lista de permisos se aplica a medida que las solicitudes se ingieren en Datadog (admisión), y ayuda a gestionar los falsos positivos y los costes de admisión. +: Mecanismo para descartar las trazas de seguridad marcadas por la biblioteca de Datadog App and API Protection y las reglas WAF en la aplicación. La lista de permisos se aplica a medida que las solicitudes se ingieren en Datadog (admisión), y ayuda a gestionar los falsos positivos y los costes de admisión. : Consulta [Filtros de exclusión][11] en la aplicación. Reglas WAF en la aplicación (antiguas reglas de eventos) @@ -74,12 +74,12 @@ Información sobre amenazas : Consulta [Información sobre amenazas][16]. atacantes sospechosos -: Precursor de las IP marcadas. Las IPs sospechosas han alcanzado un umbral mínimo de tráfico de ataque para ser clasificadas como sospechosas, pero no el umbral para Flagged. Los umbrales no son configurables por el usuario. -: Véase [Atacantes Explorer][17] +: un precursor de las IPs marcadas. Las IPs sospechosas han alcanzado un umbral mínimo de tráfico de ataque para ser clasificadas como sospechosas, pero no el umbral para Flagged (Marcadas). Los umbrales no son configurables por el usuario. +: Consulta [Attackers Explorer][17] atacantes marcados -: IPs que envían grandes cantidades de tráfico de ataque. Se recomienda revisar y bloquear las IP marcadas. Los umbrales no son configurables por el usuario. -: Ver [Atacantes Explorer][17] +: IPs que envían grandes cantidades de tráfico de ataque. Se recomienda revisar y bloquear las IPs marcadas. Los umbrales no son configurables por el usuario. +: Consulta [Attackers Explorer][17] huella digital del atacante : identificadores calculados a partir de las características de la solicitud para rastrear a un atacante a través de múltiples solicitudes. @@ -134,7 +134,7 @@ Inyección de OGNLi (Object-Graph Navigation Language Injection) [5]: https://owasp.org/Top10/A10_2021-Server-Side_Request_Forgery_%28SSRF%29/ [6]: https://owasp.org/www-project-web-security-testing-guide/v42/4-Web_Application_Security_Testing/07-Input_Validation_Testing/11.1-Testing_for_Local_File_Inclusion [7]: https://owasp.org/www-project-top-ten/2017/A1_2017-Injection -[8]: /es/agent/remote_config/ +[8]: /es/remote_configuration [10]: /es/security/detection_rules/ [11]: https://app.datadoghq.com/security/appsec/exclusions [12]: /es/security/application_security/policies/inapp_waf_rules/ @@ -144,4 +144,4 @@ Inyección de OGNLi (Object-Graph Navigation Language Injection) [16]: /es/security/application_security/how-it-works/threat-intelligence/ [17]: /es/security/application_security/security_signals/attacker-explorer/ [18]: /es/security/application_security/security_signals/attacker_fingerprint/ -[19]: /es/security/application_security/security_signals/attacker_clustering/ +[19]: /es/security/application_security/security_signals/attacker_clustering/ \ No newline at end of file diff --git a/content/es/security/application_security/troubleshooting.md b/content/es/security/application_security/troubleshooting.md index 5166510f50885..3a6aa1ca16661 100644 --- a/content/es/security/application_security/troubleshooting.md +++ b/content/es/security/application_security/troubleshooting.md @@ -27,7 +27,7 @@ Existe una serie de pasos que deben ejecutarse correctamente para que la informa Para comprobar si AAP se está ejecutando, puedes utilizar la métrica `datadog.apm.appsec_host`. -1. Ve a **Métricas > Resumen** en Datadog. +1. Ve a **Metrics > Summary** (Métricas > Resumen) en Datadog. 2. Busca la métrica `datadog.apm.appsec_host` . Si la métrica no existe, entonces no hay servicios ejecutando AAP. Si la métrica existe, los servicios se informan mediante las etiquetas (tags) de métricas `host` y `service`. 3. Selecciona la métrica y busca `service` en la sección **Etiquetas** para ver qué servicios están ejecutando AAP. @@ -248,7 +248,7 @@ Para resolver este paso del proceso, haz lo siguiente: - Comprueba los detalles del Agent que se está ejecutando en esta dirección `http://:/info`, normalmente `http://localhost:8126/info`. - Asegúrate de que no hay errores de transmisión del Agent relacionados con tramos (spans) en los [logs de tu rastreador][7]. -- Si el Agent se instala en una máquina independiente, comprueba que `DD_AGENT_HOST` y, opcionalmente, `DD_TRACE_AGENT_PORT` están configurados, o que `DD_TRACE_AGENT_URL` está configurado para la librería de rastreo de aplicaciones. +- Si el Agent se instala en una máquina independiente, comprueba que `DD_AGENT_HOST` y, opcionalmente, `DD_TRACE_AGENT_PORT` están configurados, o que `DD_TRACE_AGENT_URL` está configurado para la biblioteca de rastreo de aplicaciones. ### Comprobar si los tramos se transmiten correctamente a Datadog @@ -270,7 +270,7 @@ A continuación se indican los pasos adicionales para solucionar problemas para {{< programming-lang-wrapper langs="java,.NET,go,ruby,PHP,Node.js,python" >}} {{< programming-lang lang="java" >}} -La librería Java utiliza [SLF4J][1] para la generación de logs. Añade las siguientes marcas de tiempo de ejecución para que el rastreador genere logs en un archivo: +La biblioteca Java utiliza [SLF4J][1] para la generación de logs. Añade las siguientes marcas de tiempo de ejecución para que el rastreador genere logs en un archivo: ```java -Ddatadog.slf4j.simpleLogger.defaultLogLevel=info @@ -283,7 +283,7 @@ Luego de que se inicia el servicio, el rastreador genera logs en un archivo espe {{< /programming-lang >}} {{< programming-lang lang=".NET" >}} -La librería .NET genera logs en un archivo, pero no puede generar logs en `stdout`/`stderr`. El nivel de logs por defecto es `INFO`. Para habilitar logs `DEBUG`, configura `DD_TRACE_DEBUG=true`. +La biblioteca .NET genera logs en un archivo, pero no puede generar logs en `stdout`/`stderr`. El nivel de logs por defecto es `INFO`. Para habilitar logs `DEBUG`, configura `DD_TRACE_DEBUG=true`. Los archivos de log están disponibles en los siguientes directorios: @@ -363,9 +363,9 @@ Por ejemplo, el siguiente log de inicio muestra que AAP está deshabilitado: #### Activa logs de depuración -Habilita logs de depuración con la variable de entorno `DD_TRACE_DEBUG=1`. La librería AAP generará logs para el resultado de error estándar. +Habilita logs de depuración con la variable de entorno `DD_TRACE_DEBUG=1`. La biblioteca AAP generará logs para el resultado de error estándar. -**Nota:** AAP sólo envía logs cuando está habilitado. Utiliza la variable de entorno `DD_APPSEC_ENABLED=1` para habilitar AAP. +**Nota:** AAP solo envía logs cuando está habilitado. Utiliza la variable de entorno `DD_APPSEC_ENABLED=1` para habilitar AAP. [1]: /es/tracing/troubleshooting/tracer_startup_logs/ {{< /programming-lang >}} @@ -540,7 +540,7 @@ Espera un minuto a que el Agent reenvíe las trazas y luego comprueba que estas Para comprobar si AAP se está ejecutando, puedes utilizar la métrica `datadog.apm.appsec_host`. -1. Ve a **Métricas > Resumen** en Datadog. +1. Ve a **Metrics > Summary** (Métricas > Resumen) en Datadog. 2. Busca la métrica `datadog.apm.appsec_host` . Si la métrica no existe, entonces no hay servicios ejecutando AAP. Si la métrica existe, los servicios se informan mediante las etiquetas de métricas `host` y `service`. 3. Selecciona la métrica y busca `service` en la sección **Etiquetas** para ver qué servicios están ejecutando AAP. @@ -550,7 +550,7 @@ Los datos de AAP se envían con trazas de APM. Consulta [Solucionar problemas de ### Confirmar que las versiones del rastreador están actualizadas -Consulta la documentación de configuración del producto App and API Protection para confirmar que estás utilizando la versión correcta del rastreador. Estas versiones mínimas son necesarias para comenzar a enviar datos de telemetría que incluyan información de la librería. +Consulta la documentación de configuración del producto App and API Protection para confirmar que estás utilizando la versión correcta del rastreador. Estas versiones mínimas son necesarias para comenzar a enviar datos de telemetría que incluyan información de la biblioteca. ### Garantizar la comunicación de los datos de telemetría @@ -560,6 +560,9 @@ Asegúrate de que la variable de entorno `DD_INSTRUMENTATION_TELEMETRY_ENABLED` Para desactivar AAP, utiliza uno de los siguientes métodos. +Si habilitaste AAP utilizando la variable de entorno `DD_APPSEC_ENABLED=true`, utiliza la sección DD_APPSEC_ENABLED a continuación. +Si habilitaste AAP mediante la [Configuración remota][16], utiliza el método de configuración remota que se indica a continuación. + ### DD_APPSEC_ENABLED Si la variable de entorno `DD_APPSEC_ENABLED=true` está configurada para tu servicio, elimina la variable de entorno `DD_APPSEC_ENABLED=true` de la configuración de tu aplicación y reinicia tu servicio. @@ -568,22 +571,22 @@ Si tu servicio es un servicio PHP, define explícitamente la variable de entorno ### Configuración remota -Si AAP se habilitó mediante [configuración remota][16], haz lo siguiente: - 1. Ve a [Servicios][15]. - 2. Selecciona **Gestión de amenazas en modo monitorización**. - 3. En la faceta **Gestión de amenazas**, activa **Monitoring Only**, **No data**, and **Ready to block** (Sólo monitorización, Sin datos y Listo para el bloqueo). +Si AAP se habilitó mediante [configuración remota][16], haz lo siguiente: + 1. Ve a [Services (Servicios)][15]. + 2. Selecciona **App & API Protection in Monitoring Mode** (App & API Protection en modo de monitorización). + 3. En la faceta **App & API Protection**, activa **Monitoring Only** (Solo monitorización), **No data** (Sin datos) y **Ready to block** (Listo para bloquear). 4. Haz clic en un servicio. - 5. En los detalles del servicio, en **Detección de amenazas**, haz clic en **Deactivate** (Desactivar). + 5. En los detalles del servicio, en **App & API Protection**, haz clic en **Deactivate** (Desactivar).
Si AAP se habilitó mediante configuración remota, puedes utilizar el botón Deactivate (Desactivar). Si AAP se habilitó mediante configuración local, el botón Deactivate (Desactivar) no es una opción.
### Desactivar en bloque -Para deshabilitar AAP en tus servicios de forma masiva, haz lo siguiente: - 1. Ve a [Servicios][15]. - 2. En la faceta **Gestión de amenazas**, activa **Monitoring Only**, **No data**, and **Ready to block** (Sólo monitorización, Sin datos y Listo para el bloqueo). +Para deshabilitar AAP en tus servicios de forma masiva, haz lo siguiente: + 1. Ve a [Services (Servicios)][15]. + 3. En la faceta **App & API Protection**, activa **Monitoring Only** (Solo monitorización), **No data** (Sin datos) y **Ready to block** (Listo para bloquear). 3. Selecciona las casillas de verificación de servicios en las que quieres deshabilitar la detección de amenazas. - 4. En **Acciones masivas**, selecciona **Desactivar detección de amenazas en (número) servicios**. + 4. En **Bulk Actions** (Acciones en bloque), selecciona **Deactivate Threat detection on (number of) services** (Desactivar detección de amenazas en (número) servicios). ## ¿Necesitas más ayuda? @@ -612,4 +615,4 @@ Si sigues teniendo problemas con AAP, ponte en contacto con el [servicio de asis [14]: /es/security/code_security/software_composition_analysis [15]: https://app.datadoghq.com/security/configuration/asm/services-config [16]: https://app.datadoghq.com/organization-settings/remote-config -[17]: https://ddtrace.readthedocs.io/en/stable/integrations.html#flask +[17]: https://ddtrace.readthedocs.io/en/stable/integrations.html#flask \ No newline at end of file diff --git a/content/es/security/cloud_siem/_index.md b/content/es/security/cloud_siem/_index.md index de1ee1b809abd..1413250b4d132 100644 --- a/content/es/security/cloud_siem/_index.md +++ b/content/es/security/cloud_siem/_index.md @@ -12,6 +12,10 @@ further_reading: tag: Blog text: Automatiza tareas de seguridad habituales y protégete frente a las amenazas con Datadog Workflows y Cloud SIEM +- link: https://www.datadoghq.com/blog/soar/ + tag: Blog + text: Automatizar la protección de identidades, la contención de amenazas y la inteligencia + sobre amenazas con los flujos de trabajo SOAR de Datadog - link: https://www.datadoghq.com/blog/compliance-governance-transparency-with-datadog-audit-trail/ tag: Blog text: Mejora el control, la gestión y la transparencia en todos tus equipos con @@ -28,41 +32,244 @@ further_reading: text: Crear una cobertura de seguridad suficiente para tu entorno en la nube - link: https://www.datadoghq.com/blog/monitor-dns-logs-for-network-and-security-datadog/ tag: Blog - text: Monitorización de logs DNS para la red y los análisis de seguridad + text: Monitorizar logs de DNS para análisis de red y seguridad - link: https://www.datadoghq.com/blog/akamai-zero-trust-application-security/ tag: Blog - text: Monitoriza Akamai Zero Trust y Application Security con Datadog Cloud SIEM + text: Monitorizar Akamai Zero Trust y Application Security con Datadog Cloud SIEM +- link: https://www.datadoghq.com/blog/microsoft-365-detections/ + tag: Blog + text: Cómo se aprovechan los atacantes de los servicios de Microsoft 365 +- link: https://www.datadoghq.com/blog/monitor-security-metrics/ + tag: Blog + text: Monitorizar la postura de seguridad de tu organización con Datadog +- link: https://www.datadoghq.com/blog/risky-behavior-cloud-environments/ + tag: Blog + text: Identificar comportamientos de riesgo en entornos de la nube +- link: https://www.datadoghq.com/blog/detect-phishing-activity-amazon-ses/ + tag: Blog + text: 'Monitorización de Amazon SES: Detectar campañas de phishing en la nube' +- link: https://www.datadoghq.com/blog/detection-as-code-cloud-siem/ + tag: Blog + text: Crea, prueba y escala detecciones como código con Datadog Cloud SIEM title: Cloud SIEM --- -{{< learning-center-callout header="Join an enablement webinar session" hide_image="true" btn_title="Sign Up" btn_url="https://www.datadoghq.com/technical-enablement/sessions/?tags.topics-0=Security">}} - Descubre cómo Datadog Cloud SIEM y Cloud Security Management mejoran la detección de amenazas de tu organización e investigación de entornos dinámicos a escala en la nube. +{{< learning-center-callout header="'Unete a una sesión web de capacitación" hide_image="true" btn_title="Inscríbete" btn_url="https://www.datadoghq.com/technical-enablement/sessions/?tags.topics-0=Security">}} + Descubre cómo Datadog Cloud SIEM y Cloud Security aumentan el nivel de detección e investigación de amenazas de tu organización en entornos dinámicos a escala de la nube. {{< /learning-center-callout >}} ## Información general -Datadog Cloud SIEM (Security Information y Event Management) unifica los equipos de desarrollo, operaciones y seguridad en una sola plataforma. Utiliza un único dashboard para visualizar el contenido de DevOps, las métricas empresariales y la información de seguridad. Cloud SIEM detecta en tiempo real las amenazas a tus aplicaciones y tu infraestructura, como ataques dirigidos, comunicaciones desde direcciones IP incluidas en la lista de amenazas y configuraciones inseguras. Notifica estos problemas de seguridad a tu equipo por correo electrónico, Slack, Jira, PagerDuty o webhooks. +Datadog Cloud SIEM (Información de seguridad y Event Management) es un sistema de análisis y correlación de datos de seguridad. Permite a todo el equipo de operaciones de seguridad ver, detectar, investigar y responder a los problemas de seguridad. Aprovechando la plataforma escalable de Datadog, Cloud SIEM ingiere telemetría tanto de sistemas en la nube como de sistemas on-premises mediante el Datadog Agent e integraciones basadas en la API. + +Una respuesta de seguridad eficaz requiere velocidad, contexto, conocimiento y automatización. Cloud SIEM analiza continuamente los datos entrantes para detectar amenazas, generar señales de seguridad procesables y correlacionarlas a través de múltiples fuentes. Esto permite a tu equipo investigar incidentes y responder con rapidez. + +Para mantener a tu equipo al tanto de los últimos ataques, Datadog también cuenta con un equipo de investigadores de amenazas que analizan petabytes de telemetría a través de sistemas en la nube y on-premises para identificar amenazas emergentes y comportamientos de atacantes. Consulta [Datadog Security Labs][1] para leer artículos sobre sus investigaciones recientes. + +### Seguridad y observabilidad + +Cloud SIEM integra la telemetría en la nube y on-premises directamente en los flujos de trabajo de seguridad para acelerar la investigación y la respuesta. Y con una plataforma compartida que une los equipos de DevOps y seguridad, las organizaciones pueden acabar con los silos y responder a las amenazas de forma colaborativa y eficiente. + +### Control flexible de los costes de los datos de seguridad + +A medida que tu organización crece, es fundamental controlar el coste de ingesta de los logs de seguridad sin comprometer la visibilidad. Cloud SIEM está integrado con Datadog Log Management para que puedas elegir la capacidad de retención y consulta adecuada para tus logs de seguridad. Esta flexibilidad te ayuda a equilibrar la rentabilidad con tus necesidades de detección de amenazas. -{{< img src="security/security_monitoring/cloud_siem_overview_2.png" alt="Página principal de Cloud SIEM que muestra la sección de información general de seguridad con widgets para señales importantes, actores sospechosos, recursos afectados, información sobre amenazas y tendencias de señales" >}} +Almacena logs utilizando una de las opciones disponibles: +- [Indexación estándar][6] para logs que deben consultarse frecuentemente con el mayor número de cálculos. +- [Logs flexibles][7] para logs que deben conservarse a largo plazo, pero que a veces deben consultarse con urgencia. +- [Archivos de logs][8] para logs que se consultan con poca frecuencia y deben almacenarse a largo plazo. -Las amenazas aparecen en Datadog como señales de seguridad y se pueden correlacionar y clasificar en el [Security Signals Explorer][1]. Las señales de seguridad son generadas por Datadog Cloud SIEM con [Reglas de detección][2]. Las Reglas de detección detectan amenazas a través de diferentes fuentes y están disponibles para su uso inmediato. Puedes clonar cualquiera de las reglas de detección proporcionadas para cambiar la configuración. También puedes añadir una [nueva regla][3] desde cero para adaptarla a tu caso de uso específico. +### Incorporación guiada de datos de seguridad + +Los [paquetes de contenido][9] de Cloud SIEM son un conjunto de integraciones de Datadog diseñados para los equipos de seguridad. Cada paquete de contenido contiene instrucciones sobre cómo configurar la integración y qué incluye, como reglas de detección, dashboards predefinidos interactivos, parseos y flujos de trabajo SOAR. Los paquetes de contenido resaltan información práctica específica de cada integración para ayudarte a investigar los problemas de seguridad. + +### Monitorización del estado del paquete de contenido + +Una vez activado un paquete de contenido, te informa del estado de la integración y te ofrece pasos para solucionar problemas si algo va mal, para que puedas volver a estar operativo lo antes posible. + +### Búsqueda y análisis de logs + +Crea búsquedas en el Log Explorer utilizando facetas o haciendo clic en los campos directamente en los logs. O utiliza Bits AI y la búsqueda en lenguaje natural para encontrar eventos de seguridad importantes. Con las funciones integradas de búsqueda por grupos y tablas, así como el análisis de patrones y las visualizaciones, los equipos de seguridad pueden obtener información sobre seguridad a partir de sus datos. Consulta [Log Explorer][11] y [Sintaxis de búsqueda de logs][10] para obtener más información. ## Para empezar -{{< whatsnext desc="See the following documents to get started with Cloud SIEM:" >}} - {{< nextlink href="/getting_started/cloud_siem/">}}Empezando con la Guía de Cloud SIEM{{< /nextlink >}} - {{< nextlink href="/security/cloud_siem/guide/aws-config-guide-for-cloud-siem/">}}Configurar AWS para Cloud SIEM{{< /nextlink >}} - {{< nextlink href="/security/cloud_siem/guide/google-cloud-config-guide-for-cloud-siem/">}}Configurar Google Cloud para Cloud SIEM{{< /nextlink >}} - {{< nextlink href="/security/cloud_siem/guide/azure-config-guide-for-cloud-siem/">}}Configurar Azure para Cloud SIEM{{< /nextlink >}} - {{< nextlink href="/integrations/">}}Buscar integraciones específicas para configurar la recopilación de logs en ellas{{< /nextlink >}} - {{< nextlink href="/security/default_rules#cat-cloud-siem-log-detection">}}Comenzar a usar reglas de detección predefinidas de Cloud SIEM{{< /nextlink >}} - {{< nextlink href="/security/detection_rules">}}Crear tus propias reglas de detección personalizadas{{< /nextlink >}} -{{< /whatsnext >}} +Si aún no tienes una cuenta en Datadog, regístrate para obtener una [prueba gratuita][2]. Después de acceder a tu cuenta de Datadog: + +1. Navega hasta [Cloud SIEM][3]. +1. Haz clic en **Enable Cloud SIEM** (Habilitar Cloud SIEM). +1. Sigue los pasos de incorporación. + +Consulta la [Guía de introducción][4] para obtener instrucciones de configuración más detalladas. + +## Página de información general de Cloud SIEM + +Navega hasta la [página de información general de Cloud SIEM][3]. Utiliza esta página para ver las perspectivas clave de seguridad y actuar sobre flujos de trabajo comunes para analistas de seguridad, ingenieros de seguridad y detección, y gerentes del Centro de Operaciones de Seguridad (SOC). Desde la página de información general, puedes: +- Acceder a señales importantes, casos abiertos y entidades de alto riesgo. +- Completar las tareas de incorporación y revisar el estado del paquete de contenido. +- Ver e investigar las principales señales por geografía o proveedor de servicios de Internet (ISP). +- Analizar señales y reglas mediante tácticas de MITRE ATT&CK. +- Seguimiento del rendimiento de la detección (tiempo medio hasta la detección (MTTD), tasas de falsos positivos). +- Leer las últimas investigaciones y notas de la versión de [Security Labs][1]. + +Haz clic en **Customize Page** (Personalizar página) para reordenar u ocultar los módulos de modo que puedas ver lo que es importante para ti. + +Obtén más información sobre cada una de las secciones de página de información general de Cloud SIEM. + +### Cobertura de seguridad + +{{< img src="security/security_monitoring/landing/01_security_coverage.png" alt="Secciones de cobertura de código que muestra 11 paquetes de contenido y 1 paquete de contenido roto y un gráfico de barras de los logs analizados por Cloud SIEM" style="width:100%;" >}} + +Está atento a cualquier problema de tratamiento de datos o laguna en la cobertura. + +#### Paquetes de contenido e integraciones habilitados + +Ve los paquetes de contenido y las integraciones habilitados en las categorías críticas para proporcionar una cobertura de seguridad completa. Pasa el ratón por encima de cada sección de la barra horizontal para ver qué paquetes de contenido están activados en cada categoría. + +#### Paquete de contenido y KPIs de estado del log + +Comprueba si algún paquete de contenido o integración se encuentra en estado de advertencia o roto para poder resolver las brechas de cobertura. Haz clic en un cuadro de estado para ver los paquetes de contenido afectados. + +#### Logs analizados + +Consulta las tendencias de registro en tus principales fuentes de log e identifica cualquier pico o caída inusual. Haz clic en la leyenda de la parte inferior para explorar las tendencias por fuente. + +### Señales y casos importantes + +{{< img src="security/security_monitoring/landing/02_important_signals_cases.png" alt="" style="width:100%;" >}} + +Ve los acontecimientos importantes que ocurren en tu entorno, como: + +#### Señales abiertas recientes agrupadas por regla + +Ve las señales agrupadas por nombre de regla y ordenadas por gravedad para obtener una visión general de las señales más importantes de tu entorno. Haz clic en una señal o en un conjunto de gravedad para ver más detalles en una vista filtrada en el Signal Explorer. + +#### Casos de seguridad abiertos recientemente + +Utiliza [Case Management][5] para realizar un seguimiento de las señales que requieren un análisis más detallado. Ve los casos de seguridad activos en tu entorno y haz clic en una incidencia para ver más detalles. + +### Información sobre riesgos + +{{< img src="security/security_monitoring/landing/03_risk_insights.png" alt="" style="width:100%;" >}} + +Revisa las entidades de riesgo de tu entorno. + +#### Entidades de mayor riesgo + +Ve las entidades con las puntuaciones de riesgo más altas. Haz clic en una entidad para ver más detalles y tomar acción. + +#### Desglose por tipo de entidad + +Ve los tipos de entidades más comunes en tu entorno. Haz clic en una parte del gráfico circular para filtrar la lista de entidades por tipo. + +#### Desglose de la puntuación de riesgo de las entidades + +Ver entidades por gravedad. Haz clic en un cuadro de gravedad para ver una lista de entidades con esa gravedad. + +### Mapa de amenazas + +{{< img src="security/security_monitoring/landing/04_threat_map.png" alt="" style="width:100%;" >}} + +Obtén información sobre dónde se generan las señales en tu entorno. + +#### Principales IPs por distribución de países + +Ve qué IPs están generando más señales con un desglose de señales importantes y menos importantes. Utiliza también el mapa para ver una lista de señales por país. + +#### Señales por país + +Ve el desglose proporcional de dónde se originan las señales. Haz clic en una parte del gráfico circular para filtrar por país y estado o provincia, e identificar las señales procedentes de lugares inesperados. + +#### Señales por proveedor de ISP + +Revisa qué ISPs están enviando señales. Haz clic en una parte del gráfico circular para desglosarlo por proveedor y ubicación. + +### Información general de seguridad + +{{< img src="security/security_monitoring/landing/05_security_overview.png" alt="" style="width:100%;" >}} + +Información general superficial de todas las señales. + +#### Distribución de señales + +En la parte izquierda de la sección, ve las señales agrupadas por gravedad y tendencia a lo largo de la ventana temporal seleccionada. +En la parte derecha, puedes ver un desglose de la actividad de las señales por gravedad, fuente y resolución. Haz clic en un nodo del diagrama de Sankey para ver las señales en Signal Explorer filtradas según las características específicas de ese nodo. + +#### Tiempo medio de respuesta a las señales + +Ve los KPIs de la rapidez de respuesta de tu equipo. Haz clic en un cuadro de gravedad para ver las señales configuradas en `under review` o `archive` y filtradas según la gravedad seleccionada. + +### Cobertura de MITRE ATT&CK + +{{< img src="security/security_monitoring/landing/06_mitre_coverage.png" alt="" style="width:100%;" >}} + +Cobertura de reglas de detección y actividad de señales mediante tácticas y técnicas de MITRE ATT&CK. + +#### Técnicas con al menos 1 regla + +Ve cuántas técnicas están cubiertas por las reglas de detección activadas en tu entorno. + +#### KPIs de densidad de reglas + +Ve cuántas técnicas tienen una densidad alta, media o baja, o no tienen ninguna regla. Haz clic en un cuadro para ver un mapa de MITRE filtrado. + +#### Señales por vista táctica + +Ve qué tácticas de MITRE ATT&CK están generando señales. Haz clic en una parte del gráfico circular para ver el Signal Explorer filtrado por esa táctica. Haz clic en el menú desplegable y selecciona **Rules count** (Conteo de reglas) para ver qué tácticas tienen más reglas asignadas. Cuando se visualiza por recuento de reglas, al hacer clic en una parte del gráfico circular se crea una vista del Explorer de la regla de detección filtrada por esa táctica. + +#### Señales por vista técnica + +Ve qué técnicas de MITRE ATT&CK están generando señales. Haz clic en una parte del gráfico circular para ver el Signal Explorer filtrado por técnicas. Haz clic en el menú desplegable y selecciona **Rules count** (Conteo de reglas) para ver qué técnicas tienen más reglas asignadas. Cuando se visualiza por recuento de reglas, al hacer clic en una parte del gráfico circular se puede ver el Explorer de la regla de detección filtrado por esa técnicas. + +### Rendimiento de las reglas de detección + +{{< img src="security/security_monitoring/landing/07_detection_rule_performance.png" alt="" style="width:100%;" >}} + +Obtén una comprensión más profunda del rendimiento de las reglas de detección. Esta sección funciona mejor si realiza el triaje de señales en Cloud SIEM. + +#### KPIs de MTTD para Cloud SIEM + +Ve el tiempo medio de detección (MTTD) de todas las señales. Los cuadros de abajo muestran el MTTD para señales críticas, altas y medias. Haz clic en un cuadro para ver las señales con esa gravedad en Signal Explorer. + +#### Actividad de las señales + +Ve las tendencias de la señal en la ventana de tiempo seleccionada. Selecciona las casillas de verificación de gravedad en la parte inferior del gráfico de barras para ampliar el alcance por gravedad, lo que puede ser útil para identificar picos o caídas inusuales. + +#### Reglas por cambio de señal importante (1 semana) + +Ve qué reglas han aumentado la actividad de señales importantes en comparación con la semana anterior. Haz clic en el nombre de una regla para ver las señales en Signal Explorer filtradas por ese nombre de regla. + +#### Señales por cambio de gravedad (1 semana) + +Ve cómo han cambiado las gravedades de todas las señales en comparación con la semana anterior. Haz clic en una gravedad para ver las señales con esa gravedad en Signal Explorer. + +#### Señales importantes por motivo de archivo + +Ve cuántas señales se archivaron por motivo de archivo. Haz clic en un motivo para ver el Signal Explorer filtrado por ese motivo de archivo. + +#### Reglas archivadas con verdadero positivo (malicioso) + +Ve qué reglas se han archivado en `True Positive: Malicious`. Haz clic en una regla para ver las señales en Signal Explorer. + +#### Reglas archivadas con verdadero positivo (benigno) + +Ve qué reglas se han archivado en `True Positive: Benign`. Haz clic en una regla para ver las señales en Signal Explorer. + +#### Reglas por tasa de falsos positivos + +Ve qué reglas son las más ruidosas calculando el porcentaje de señales que se marcan como falsos positivos de todas las señales generadas por una regla. Haz clic en una regla para ver las señales correspondientes en Signal Explorer. ## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} -[1]: /es/security/cloud_siem/investigate_security_signals -[2]: /es/security/default_rules#cat-cloud-siem -[3]: /es/security/detection_rules \ No newline at end of file +[1]: https://securitylabs.datadoghq.com/ +[2]: https://www.datadoghq.com/product/cloud-siem/ +[3]: https://app.datadoghq.com/security/home? +[4]: /es/getting_started/security/cloud_siem/ +[5]: /es/security/cloud_siem/investigate_security_signals/#case-management +[6]: /es/logs/log_configuration/indexes +[7]: /es/logs/log_configuration/flex_logs/ +[8]: /es/logs/log_configuration/archives/ +[9]: /es/security/cloud_siem/content_packs/ +[10]: /es/logs/explorer/search_syntax/ +[11]: /es/logs/explorer/ \ No newline at end of file diff --git a/content/es/security/cloud_siem/detect_and_monitor/custom_detection_rules/create_rule/_index.md b/content/es/security/cloud_siem/detect_and_monitor/custom_detection_rules/create_rule/_index.md new file mode 100644 index 0000000000000..26c93965eefc7 --- /dev/null +++ b/content/es/security/cloud_siem/detect_and_monitor/custom_detection_rules/create_rule/_index.md @@ -0,0 +1,4 @@ +--- +title: Crear una regla personalizada +type: multi-code-lang +--- diff --git a/content/es/security/code_security/dev_tool_int/pull_request_comments/_index.md b/content/es/security/code_security/dev_tool_int/pull_request_comments/_index.md new file mode 100644 index 0000000000000..bbb21efdd4d2f --- /dev/null +++ b/content/es/security/code_security/dev_tool_int/pull_request_comments/_index.md @@ -0,0 +1,140 @@ +--- +aliases: +- /es/static_analysis/github_pull_requests +- /es/code_analysis/github_pull_requests/ +- /es/security/code_security/dev_tool_int/github_pull_requests/ +description: Aprende a configurar comentarios de solicitudes de incorporación de cambios + para repositorios explorados por Code Security. +title: Comentarios de solicitudes de incorporación de cambios +--- + +## Información general +Code Security puede publicar comentarios directamente en las solicitudes de incorporación de cambios de tu sistema de gestión de código (SCM) source (fuente) cuando se detecten vulnerabilidades. Esto te ayuda a ver y solucionar los problemas en contexto antes de fusionar el código. Los comentarios tienen reconocimiento diferente, lo que significa que solo marcan los nuevos problemas introducidos en las líneas modificadas en la solicitud de incorporación de cambios. + +Existen dos tipos de comentarios de solicitudes de incorporación de cambios: +- **Comentario en línea**: Marca una conclusión individual de Code Security en líneas específicas de código y sugiere una corrección (si está disponible). + + {{< img src="/code_security/github_inline_pr_comment_light.png" alt="A Datadog bot has posted an inline comment on a GitHub pull request flagging a \"Critical: Code Vulnerability\". Este comentario sugiere sustituir el código os.system(command) con os.system(shlex.quote(command)) para depurar la llamada de proceso." style="width:100%;" >}} +- **Comentario resumido**: Combina todas las conclusiones de Datadog en un único comentario. + + {{< img src="/code_security/github_summary_comment_injections_light.png" alt="Un bot de Datadog ha publicado un comentario resumido en una solicitud de incorporación de cambios de GitHub. El comentario tiene una sección \"Warnings\" (Advertencias) en la que se enumeran vulnerabilidades críticas de código, como SQL e inserciones de comandos, con vínculos a los archivos y líneas específicas de código." style="width:100%;" >}} + +Puedes configurar los comentarios de PR a nivel de la organización o del repositorio en [Configuración del repositorio][7], con los siguientes controles: +- Activación/desactivación de comentarios de PR por tipo de exploración (pruebas de seguridad de aplicaciones estáticas (SAST), SCA estático, secretos, IaC) +- Configuración de umbrales de gravedad para cada tipo de exploración +- Exclusión de los resultados de los archivos test o de las dependencias desarrollo/test + +**Nota**: Los comentarios de PR no son checks de PR. Para configurar las checks, consulta [Quality Gates][10]. + +## Requisitos previos +- Debes tener activada la integración de código source (fuente) de Datadog para tu proveedor. Los comentarios de PR son compatibles con los repositorios de [GitHub][2], [GitLab][8] y Azure DevOps ([en vista previa][9]). +- Tus repositorios deben tener activados los productos Code Security correspondientes. Para actvar Code Security en la aplicación, ve a la [page (página) de configuración de **Code Security**][4]. + +## Configurar comentarios de solicitud de incorporación de cambios +Sigue los pasos que se indican a continuación en función de tu proveedor de gestión de códigos source (fuente). + +{{< tabs >}} +{{% tab "GitHub" %}} + +
Si utilizas la exploración alojada en Datadog, activa la alternancia del tipo de exploración que desees (por ejemplo, Análisis estático de código (pruebas de seguridad de aplicaciones estáticas (SAST))) una vez completados los pasos de configuración de GitHub. +Si utilizas Acciones de GitHub para ejecutar tus exploraciones, activa la opción acción en inserción para que aparezcan los comentarios una vez completada la configuración de GitHub.
+ +### Conecta tu(s) cuenta(s) de GitHub a Datadog +Para obtener instrucciones de configuración, lee la documentación de [integración de código source (fuente) de Datadog y GitHub][2]. + +### Crear o actualizar una aplicación de GitHub +Si ya tienes una aplicación de GitHub conectada a Datadog, actualízala. De lo contrario, crea una nueva aplicación de GitHub. + +
Los permisos que concedas a la aplicación de GitHub determinan qué funciones de integración de GitHub están disponibles para la configuración.
+ +#### Crear e instalar una aplicación GitHub + +1. En Datadog, ve a [**Integraciones** > **Aplicaciones GitHub** > **Añadir una nueva aplicación GitHub**][3]. +2. Rellena los datos necesarios, como el nombre de la organización GitHub. +3. En **Seleccionar función**, marca la casilla **Code Security: Comentarios de revisión de solicitudes de extracción**. +4. En **Editar permisos**, comprueba que el permiso **Solicitudes de extracción** está configurado para **Lectura y escritura**. +5. Haz clic en **Create App in GitHub** (Crear aplicación en GitHub). +6. Introduce un nombre para tu aplicación y envíalo. +7. Haz clic en **Install GitHub App** (Instalar aplicación GitHub). +8. Elige en qué repositorios debe instalarse la aplicación y luego haz clic en **Install & Authorize** (Instalar y autorizar). + + {{< img src="ci/static-analysis-install-github-app.png" alt="Pantalla de instalación de la aplicación de GitHub" style="width:50%;" >}} + +#### Actualizar una GitHub App existente + +1. En Datadog, ve a [**Integraciones > Aplicaciones GitHub**][5] y busca la aplicación GitHub que quieres utilizar para la seguridad del código. + {{< img src="ci/static-analysis-existing-github-app.png" alt="Ejemplo de comentario de Static Code Analysis en una solicitud de extracción" style="width:90%;" >}} +2. En la pestaña **Características**, observa la sección **Code Security: Comentarios de solicitudes de extracción** para determinar si tu aplicación GitHub necesita permisos adicionales. Si es así, haz clic en **Update permissions in GitHub** (Actualizar permisos en GitHub) para editar la configuración de la aplicación. +3. En **Permisos de repositorio**, configura el acceso a **Solicitudes de extracción** como **Lectura y escritura**. + {{< img src="ci/static-analysis-pr-read-write-permissions.png" alt="Desplegable correspondiente al permiso de lectura y escritura en solicitudes de extracción" style="width:90%;" >}} +4. Bajo el título **Suscribirse a eventos**, marca la casilla **Solicitud de extracción**. + {{< img src="ci/static-analysis-pr-review-comment.png" alt="Casilla correspondiente al permiso para comentarios de revisión en solicitudes de extracción" style="width:90%;" >}} + + +[2]: /es/integrations/github/ +[3]: https://app.datadoghq.com/integrations/github/add +[5]: https://app.datadoghq.com/integrations/github/configuration + +{{% /tab %}} +{{% tab "GitLab" %}} + +Consulta las instrucciones de configuración de l[Código source (fuente) de GitLab][8] para conectar GitLab a Datadog. + +[8]: /es/integrations/gitlab-source-code/ + +{{% /tab %}} +{{% tab "Azure DevOps" %}} + +Azure DevOps para Code Security está en vista previa. [Solicita acceso para unirte a la vista previa][9]. + +[9]: https://www.datadoghq.com/product-preview/azure-devops-integration-code-security/ + +{{% /tab %}} +{{< /tabs >}} + +## Opciones de configuración + +Antes de activar los comentarios de PR, asegúrate de que **al menos una capacidad de exploración de Code Security esté activada en el repositorio.** Incluso si los comentarios de PR están configurados a nivel de la organización, solo se añaden en repositorios donde está activo un tipo de exploración admitido (por ejemplo, pruebas de seguridad de aplicaciones estáticas (SAST), SCA o IaC). Los repositorios sin ningún tipo de exploración activado no recibirán comentarios de PR. + +Los comentarios de PR pueden configurarse a nivel de la organización o a nivel del repositorio: +- **Nivel de la organización:** La configuración se aplica a todos los repositorios de la organización que tengan activada al menos una capacidad de exploración. +- **Nivel del repositorio:** La configuración sustituye los valores predeterminados de la organización para el repositorio seleccionado. + +Al configurar los comentarios de PR, puedes: +- Activar o desactivar comentarios para tipos específicos de exploración (pruebas de seguridad de aplicaciones estáticas (SAST), SCA, IaC). +- Configura umbrales mínimos de gravedad para controlar cuándo aparecen los comentarios. +- Excluye los comentarios de los resultados en los archivos test o en las dependencias desarrollo/test para evitar el ruido de los problemas de baja prioridad. + +## Configurar los comentarios de PR a nivel de la organización + +1. En Datadog, ve a [**Seguridad** > **Code Security** > **Configuración**][7]. +1. En **Configuración del repositorio**, haz clic en **Global PR Comment Configuration** (Configuración global de comentarios en solicitudes de extracción). +1. Configura los parámetros: + - **Activar comentarios en solicitudes de extracción para todos los tipos y gravedades de análisis**: Habilita esta opción para aplicar comentarios en solicitudes de extracción para todos los tipos y gravedades. + - **Activar para Static Analysis (SAST)**: Activa esta opción para habilitar comentarios en solicitudes de extracción para SAST. Si está activada, especifica un umbral de gravedad mínimo. Además, selecciona **Excluir comentarios en solicitudes de extracción, si se detectan infracciones en archivos de test** para evitar comentarios sobre problemas encontrados en archivos de test. + - **Activar para Software Composition Analysis (SCA)**: Activa esta opción para habilitar comentarios en solicitudes de extracción para SCA. Si está activada, especifica un umbral de gravedad mínimo. Además, selecciona **Excluir comentarios en solicitudes de extracción, si se detectan infracciones en dependencias de test o desarrollo** para evitar comentarios sobre problemas encontrados en dependencias existentes, sólo en entornos de test o desarrollo. + - **Activar para Infrastructure-as-Code (IaC)**: Activa esta opción para habilitar comentarios en solicitudes de extracción para IaC. Si está activada, especifica un umbral de gravedad mínimo. +1. Haz clic en **Save** (Guardar). + +## Configurar comentarios de PR a nivel del repositorio + +1. En Datadog, ve a [**Seguridad** > **Code Security** > **Configuración**][7]. +1. En **Configuración del repositorio**, selecciona un repositorio de la lista. +1. Configura los parámetros: + - **Activar comentarios en solicitudes de extracción para todos los tipos y gravedades de análisis**: Habilita esta opción para aplicar comentarios en solicitudes de extracción para todos los tipos y gravedades. + - **Activar para Static Analysis (SAST)**: Activa esta opción para habilitar comentarios en solicitudes de extracción para SAST. Si está activada, especifica un umbral de gravedad mínimo. Además, selecciona **Excluir comentarios en solicitudes de extracción, si se detectan infracciones en archivos de test** para evitar comentarios sobre problemas encontrados en archivos de test. + - **Activar para Software Composition Analysis (SCA)**: Activa esta opción para habilitar comentarios en solicitudes de extracción para SCA. Si está activada, especifica un umbral de gravedad mínimo. Además, selecciona **Excluir comentarios en solicitudes de extracción, si se detectan infracciones en dependencias de test o desarrollo** para evitar comentarios sobre problemas encontrados en dependencias existentes, sólo en entornos de test o desarrollo. + - **Activar para Infrastructure-as-Code (IaC)**: Activa esta opción para habilitar comentarios en solicitudes de extracción para IaC. Si está activada, especifica un umbral de gravedad mínimo. + - **Bloquear todos los comentarios en este repositorio**: Activa esta opción para desactivar todos los comentarios de este repositorio, anulando la configuración global. +1. Haz clic en **Save configuration** (Guardar configuración). + +[1]: /es/security/code_security/ +[2]: /es/integrations/github/ +[3]: https://app.datadoghq.com/integrations/github/add +[4]: https://app.datadoghq.com/security/configuration/code-security/setup +[5]: https://app.datadoghq.com/integrations/github/configuration +[6]: /es/security/code_security/static_analysis/github_actions/ +[7]: https://app.datadoghq.com/security/configuration/code-security/settings +[8]: /es/integrations/gitlab-source-code/ +[9]: https://www.datadoghq.com/product-preview/azure-devops-integration-code-security/ +[10]: /es/quality_gates/?tab=staticanalysis#setup \ No newline at end of file diff --git a/content/es/security/code_security/iac_security/_index.md b/content/es/security/code_security/iac_security/_index.md new file mode 100644 index 0000000000000..f573c85711504 --- /dev/null +++ b/content/es/security/code_security/iac_security/_index.md @@ -0,0 +1,89 @@ +--- +aliases: +- /es/security/cloud_security_management/iac_scanning/ +further_reading: +- link: https://www.datadoghq.com/blog/datadog-iac-security/ + tag: Blog + text: Evitar que los errores de configuración de la nube lleguen a la producción + con Datadog IaC Security +- link: /security/code_security/iac_security/setup + tag: Documentación + text: Configurar IaC Security +- link: /security/code_security/iac_security/exclusions + tag: Documentación + text: Configurar exclusiones de IaC Security +- link: /security/code_security/iac_security/iac_rules/ + tag: Documentación + text: Reglas de IaC Security +title: Infrastructure as Code (IaC) Security +--- + +Datadog Infrastructure as Code (IaC) Security detecta errores de configuración en el código de Terraform antes de su despliegue. Señala problemas como la falta de cifrado o el acceso demasiado permisivo en los archivos almacenados en los repositorios de GitHub conectados. Los tipos de archivos compatibles incluyen archivos Terraform independientes y módulos locales. + +{{< img src="/security/infrastructure_as_code/iac_misconfiguration_side_panel.png" alt="Panel lateral de errores de configuración de IaC en el que se muestran detalles del problema de alta gravedad activado por IMDSv1, incluidos un resumen de seguridad, un fragmento de código, marcas de tiempo de detección y pasos de corrección." width="100%">}} + +## Cómo funciona + +IaC Security se integra con tus repositorios de GitHub para buscar continuamente errores de configuración. Analiza cada commit en todas las ramas y realiza un análisis diario completo de cada repositorio configurado. Los hallazgos aparecen cuando se detectan infracciones y se asocian con el repositorio, la rama y la ruta de archivo relevantes. Esto te permite identificar, priorizar y corregir errores de configuración directamente en el origen. + +## Capacidades clave + +### Revisar y corregir infracciones en solicitudes de extracción + +Cuando una solicitud de extracción de GitHub incluye cambios en la infraestructura como código, Datadog añade comentarios en línea para señalar cualquier infracción. Cuando corresponde, también sugiere correcciones de código que pueden aplicarse directamente en la solicitud de extracción. También puedes abrir una nueva solicitud de extracción desde Datadog para corregir un hallazgo. Para obtener más información, consulta [Solicitudes de extracción de GitHub][5]. + +### Ver y filtrar los hallazgos + +Después de configurar IaC Security, cada commit de un repositorio analizado activa un análisis. Los hallazgos se resumen en la página [Vulnerabilidades de Code Security][3] y se agrupan por repositorio en la página [Repositorios de Code Security][6]. + +Utiliza filtros para delimitar los resultados: + +- Gravedad +- Estado (abierto, silenciado, fijo) +- Resource type +- Proveedor de la nube +- Ruta del archivo +- Equipo +- Repositorio + +Haz clic en cualquier hallazgo para abrir un panel lateral que muestra: + +- **Detalles**: Una descripción y el código relevante que ha activado el hallazgo. (Para ver fragmentos de código, [instala la aplicación GitHub][9]). +- **Solución**: Si están disponibles, se sugieren correcciones de código para los hallazgos que admiten la corrección. + +### Crear tickets de Jira a partir de hallazgos + +Puedes crear un ticket bidireccional de Jira directamente desde cualquier hallazgo para realizar un seguimiento de los problemas y solucionarlos en tus flujos de trabajo existentes. El estado del ticket permanece sincronizado entre Datadog y Jira. Para obtener más información, consulta [Sincronización bidireccional de tickets con Jira][4]. + +### Silenciar los hallazgos + +Para eliminar un hallazgo, haz clic en **Mute** (Silenciar) en el panel de detalles del hallazgo. Se abre un flujo de trabajo, donde puedes [crear una regla de silenciado][10] para el filtrado contextual por valores de etiqueta (tag) (por ejemplo, por `service` o `environment`). Silenciar un hallazgo lo oculta y lo excluye de los informes. + +Para restaurar un hallazgo silenciado, haz clic en **Unmute** (Anular el modo de silencio) en el panel de detalles. También puedes utilizar el filtro **Estado** en la página [Vulnerabilidades de Code Security][3] para revisar los hallazgos silenciados. + +### Excluir reglas, archivos o recursos específicos + +Puedes configurar exclusiones para evitar que ciertos hallazgos aparezcan en los resultados del análisis. Las exclusiones pueden basarse en el ID de la regla, la ruta del archivo, el tipo de recurso, la gravedad o la etiqueta. + +Las exclusiones se gestionan a través de un archivo de configuración o comentarios en línea en tu código IaC. Para ver los formatos compatibles y ejemplos de uso, consulta [Configurar exclusiones de IaC Security][7]. + +## Siguientes pasos + +1. [Configura IaC Security][1] en tu entorno. +2. Configura [exclusiones de análisis][2] para reducir los falsos positivos o ignorar los resultados esperados. +3. Revisa y clasifica los hallazgos en la página [Vulnerabilidades de Code Security][3]. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/security/code_security/iac_security/setup +[2]: /es/security/code_security/iac_security/exclusions +[3]: https://app.datadoghq.com/security/code-security/iac +[4]: /es/security/ticketing_integrations#bidirectional-ticket-syncing-with-jira +[5]: /es/security/code_security/dev_tool_int/github_pull_requests/ +[6]: https://app.datadoghq.com/ci/code-analysis? +[7]: /es/security/code_security/iac_security/exclusions/?tab=yaml +[8]: /es/security/automation_pipelines/mute +[9]: https://app.datadoghq.com/integrations/github/ +[10]: /es/security/automation_pipelines/ \ No newline at end of file diff --git a/content/es/security/code_security/static_analysis/static_analysis_rules/_index.md b/content/es/security/code_security/static_analysis/static_analysis_rules/_index.md index 28e1a962ec9eb..a2fb222db89c5 100644 --- a/content/es/security/code_security/static_analysis/static_analysis_rules/_index.md +++ b/content/es/security/code_security/static_analysis/static_analysis_rules/_index.md @@ -9,214 +9,177 @@ aliases: is_beta: false type: static-analysis rulesets: + apex-code-style: + title: Reglas para hacer cumplir el estilo de código Apex y las mejores prácticas. + description: Code Security para escribir reglas Apex que sigan los estándares de codificación establecidos. + apex-security: + title: Reglas de seguridad para Apex + description: Reglas enfocadas a encontrar problemas de seguridad en tu código Apex. csharp-best-practices: title: "Prácticas recomendadas para C#" - description: | - Reglas para aplicar las prácticas recomendadas de C#. + description: Reglas para aplicar las prácticas recomendadas de C#. csharp-code-style: title: "Seguir los patrones del estilo de código de C#" - description: | - Reglas para aplicar el código de estilo de C#. + description: Reglas para aplicar el código de estilo de C#. csharp-inclusive: title: "Usar lenguaje inclusivo en C#" - description: | - Reglas para que tu código de C# sea más inclusivo. + description: Reglas para que tu código de C# sea más inclusivo. csharp-security: title: "Escribir código de C# seguro y protegido" - description: | - Reglas centradas en encontrar problemas de seguridad en tu código de C#. + description: Reglas centradas en encontrar problemas de seguridad en tu código de C#. docker-best-practices: title: Seguir las prácticas recomendadas con el uso de Docker - description: | - Prácticas recomendadas para el uso de Docker. + description: Prácticas recomendadas para el uso de Docker. github-actions: title: Proteger las GitHub Actions - description: | - Reglas para verificar tus GitHub Actions y detectar patrones inseguros, como permisos o fijación de versiones. + description: Reglas para verificar tus GitHub Actions y detectar patrones inseguros, como permisos o fijación de versiones. go-best-practices: title: Prácticas recomendadas para Go - description: | - Reglas para que sea más rápido y sencillo escribir código de Go. Desde el estilo de código hasta la prevención de errores, este conjunto de reglas ayuda a los desarrolladores a escribir código de Go eficiente, fácil de mantener y de alto rendimiento. + description: Reglas para que sea más rápido y sencillo escribir código de Go. Desde el estilo de código hasta la prevención de errores, este conjunto de reglas ayuda a los desarrolladores a escribir código de Go eficiente, fácil de mantener y de alto rendimiento. go-inclusive: title: Usar lenguaje inclusivo en Go - description: | - Verifica el código de Go para detectar problemas de redacción. + description: Verifica el código de Go para detectar problemas de redacción. go-security: title: Garantizar que el código de Go esté protegido y seguro - description: | - Detecta problemas de seguridad comunes (como la inyección de SQL, XSS o inyección de shell) en tu base de código de Go. + description: Detecta problemas de seguridad comunes (como la inyección de SQL, XSS o inyección de shell) en tu base de código de Go. java-best-practices: title: Seguir las prácticas recomendadas en Java - description: | - Reglas para aplicar las prácticas recomendadas de Java. + description: Reglas para aplicar las prácticas recomendadas de Java. java-code-style: title: Seguir los patrones del estilo de código de Java - description: | - Reglas para aplicar el código de estilo de Java. + description: Reglas para aplicar el código de estilo de Java. java-inclusive: title: Usar lenguaje inclusivo en Java - description: | - Reglas de Java para evitar redactar textos inadecuados en el código y los comentarios. + description: Reglas de Java para evitar redactar textos inadecuados en el código y los comentarios. java-security: title: Garantizar que el código de Java sea seguro - description: | - Reglas centradas en encontrar problemas de seguridad en código de Java. + description: Reglas centradas en encontrar problemas de seguridad en código de Java. javascript-best-practices: title: Seguir las mejores prácticas para escribir código de JavaScript - description: | - Reglas para aplicar las prácticas recomendadas de JavaScript. + description: Reglas para aplicar las prácticas recomendadas de JavaScript. javascript-browser-security: title: Reglas de seguridad para aplicaciones web de JavaScript - description: | - Reglas centradas en encontrar problemas de seguridad en tus aplicaciones web de JavaScript. + description: Reglas centradas en encontrar problemas de seguridad en tus aplicaciones web de JavaScript. javascript-code-style: title: Aplicar el estilo de código de JavaScript - description: | - Reglas para aplicar el código de estilo de JavaScript. + description: Reglas para aplicar el código de estilo de JavaScript. javascript-common-security: title: Reglas de seguridad comunes para JavaScript - description: | - Reglas centradas en encontrar problemas de seguridad en tu código de JavaScript. + description: Reglas centradas en encontrar problemas de seguridad en tu código de JavaScript. javascript-express: title: Consultar las prácticas recomendadas y seguridad de Express.js - description: | - Reglas específicas para las prácticas recomendadas y seguridad de Express.js. + description: Reglas específicas para las prácticas recomendadas y seguridad de Express.js. javascript-inclusive: title: Verifica el código de JavaScript para detectar problemas de redacción. - description: | - Reglas de JavaScript para evitar redactar textos inadecuados en el código y los comentarios. + description: Reglas de JavaScript para evitar redactar textos inadecuados en el código y los comentarios. javascript-node-security: title: Identificar posibles puntos críticos de seguridad en Node - description: | - Reglas para identificar posibles puntos críticos de seguridad en Node. Esto puede incluir falsos positivos que requieren una evaluación más exhaustiva. + description: Reglas para identificar posibles puntos críticos de seguridad en Node. Esto puede incluir falsos positivos que requieren una evaluación más exhaustiva. jsx-react: title: Reglas de linting específicas de React - description: | - Este complemento exporta una configuración `recommended` que aplica las prácticas recomendadas de React. + description: Este complemento exporta una configuración `recommended` que aplica las prácticas recomendadas de React. kotlin-best-practices: title: Seguir las mejores prácticas para escribir código de Kotlin - description: | - Reglas para aplicar las prácticas recomendadas de Kotlin. + description: Reglas para aplicar las prácticas recomendadas de Kotlin. kotlin-code-style: title: Aplicar el estilo de código de Kotlin - description: | - Reglas para aplicar el código de estilo de Kotlin. + description: Reglas para aplicar el código de estilo de Kotlin. kotlin-security: title: Aplicar la codificación segura de Kotlin - description: | - Reglas enfocadas a encontrar problemas de seguridad en tu código Kotlin. + description: Reglas enfocadas a encontrar problemas de seguridad en tu código Kotlin. php-best-practices: title: Seguir las mejores prácticas para escribir código de PHP - description: | - Reglas para aplicar las prácticas recomendadas de PHP, mejorar el estilo de código, prevenir errores, y promover un código de PHP de alto rendimiento, fácil de mantener y eficiente. + description: Reglas para aplicar las prácticas recomendadas de PHP, mejorar el estilo de código, prevenir errores, y promover un código de PHP de alto rendimiento, fácil de mantener y eficiente. php-code-style: title: Aplicar el estilo de código de PHP - description: | - Reglas para aplicar el código de estilo de PHP. + description: Reglas para aplicar el código de estilo de PHP. php-security: title: Reglas de seguridad para PHP - description: | - Reglas centradas en encontrar problemas de seguridad en tu código de PHP. + description: Reglas centradas en encontrar problemas de seguridad en tu código de PHP. python-best-practices: title: Seguir las mejores prácticas para escribir código de Python - description: | - Prácticas recomendadas de Python para escribir código eficiente y sin errores. + description: Prácticas recomendadas de Python para escribir código eficiente y sin errores. python-code-style: title: Aplicar el estilo de código de Python - description: | - Reglas para aplicar el código de estilo de Python. + description: Reglas para aplicar el código de estilo de Python. python-design: title: Verificar la estructura de programa de Python - description: | - Reglas para verificar la estructura de programa de Python, incluido cosas como bucles anidados. + description: Reglas para verificar la estructura de programa de Python, incluido cosas como bucles anidados. python-django: title: Consultar las prácticas recomendadas y seguridad de Django - description: | - Reglas específicas para las prácticas recomendadas y seguridad de Django. + description: Reglas específicas para las prácticas recomendadas y seguridad de Django. python-flask: title: Consultar las prácticas recomendadas y seguridad de Flask - description: | - Reglas específicas para las prácticas recomendadas y seguridad de Flask. + description: Reglas específicas para las prácticas recomendadas y seguridad de Flask. python-inclusive: title: Verifica el código de Python para detectar problemas de redacción. - description: | - Reglas de Python para evitar redactar textos inadecuados en el código y los comentarios. + description: Reglas de Python para evitar redactar textos inadecuados en el código y los comentarios. python-pandas: title: Prácticas recomendadas para la ciencia de datos con pandas - description: | - Un conjunto de reglas para verificar que el código de pandas se use de forma adecuada. + description: Un conjunto de reglas para verificar que el código de pandas se use de forma adecuada. - - Garantiza que las declaraciones `import` sigan las pautas de codificación. - - Evita códigos y métodos obsoletos. - - Evita el código ineficiente siempre que sea posible. + - Garantiza que las declaraciones `import` sigan las pautas de codificación. + - Evita códigos y métodos obsoletos. + - Evita el código ineficiente siempre que sea posible. python-security: title: Garantizar que el código de Python esté protegido y seguro - description: | - Reglas centradas en encontrar problemas de seguridad y vulnerabilidad en tu código de Python, incluidos aquellos que se encuentran en OWASP10 y SANS25. + description: Reglas centradas en encontrar problemas de seguridad y vulnerabilidad en tu código de Python, incluidos aquellos que se encuentran en OWASP10 y SANS25. - - Uso de protocolos de cifrado y hash incorrectos - - Falta de control de acceso - - Configuración errónea de seguridad - - Inyecciones de SQL - - Credenciales codificadas - - Inyección de shell - - Deserialización insegura + - Uso de protocolos de cifrado y hash incorrectos + - Falta de control de acceso + - Configuración errónea de seguridad + - Inyecciones de SQL + - Credenciales codificadas + - Inyección de shell + - Deserialización insegura rails-best-practices: title: Patrones ampliamente adoptados por la comunidad de Ruby on Rails - description: | - Prácticas recomendadas para escribir código de Ruby on Rails. + description: Prácticas recomendadas para escribir código de Ruby on Rails. ruby-best-practices: title: Seguir las prácticas recomendadas en Ruby - description: | - Reglas para aplicar las prácticas recomendadas de Ruby. + description: Reglas para aplicar las prácticas recomendadas de Ruby. ruby-code-style: title: Reglas para aplicar el código de estilo de Ruby. - description: | - Codifica las reglas de seguridad para escribir reglas de Ruby que sigan las normas de codificación establecidas. + description: Codifica las reglas de seguridad para escribir reglas de Ruby que sigan las normas de codificación establecidas. ruby-inclusive: title: Reglas para código de Ruby inclusivo - description: | - Escribir código de Ruby inclusivo + description: Escribir código de Ruby inclusivo ruby-security: title: Reglas de seguridad para Ruby - description: | - Reglas centradas en encontrar problemas de seguridad en tu código de Ruby. + description: Reglas centradas en encontrar problemas de seguridad en tu código de Ruby. + swift-code-style: + title: Reglas para imponer el estilo y las buenas prácticas del código Swift. + description: Code Security para escribir reglas Swift que sigan los estándares de codificación establecidos. + swift-security: + title: Reglas de seguridad para Swift + description: Reglas centradas en encontrar problemas de seguridad en tu código Swift. terraform-aws: title: Terraform AWS - description: | - Reglas a fin de aplicar las prácticas recomendadas de Terraform para AWS. + description: Reglas a fin de aplicar las prácticas recomendadas de Terraform para AWS. tsx-react: title: Calidad del código de TypeScript con React - description: | - Este complemento exporta una configuración `recommended` que aplica las prácticas recomendadas de React. + description: Este complemento exporta una configuración `recommended` que aplica las prácticas recomendadas de React. typescript-best-practices: title: Seguir las mejores prácticas para escribir código de TypeScript - description: | - Reglas para aplicar las prácticas recomendadas de TypeScript. + description: Reglas para aplicar las prácticas recomendadas de TypeScript. typescript-browser-security: title: Reglas de seguridad para aplicaciones web de TypeScript - description: | - Reglas centradas en encontrar problemas de seguridad en tus aplicaciones web de TypeScript. + description: Reglas centradas en encontrar problemas de seguridad en tus aplicaciones web de TypeScript. typescript-code-style: title: Patrones de código con opiniones de TypeScript - description: | - Reglas que se consideran las prácticas recomendadas para las bases de código de TypeScript modernas, pero que no afectan la lógica del programa. Por lo general, estas reglas tienen como objetivo aplicar patrones de código más simples. + description: Reglas que se consideran las prácticas recomendadas para las bases de código de TypeScript modernas, pero que no afectan la lógica del programa. Por lo general, estas reglas tienen como objetivo aplicar patrones de código más simples. typescript-common-security: title: Reglas de seguridad comunes para TypeScript - description: | - Reglas centradas en encontrar problemas de seguridad en tu código de TypeScript. + description: Reglas centradas en encontrar problemas de seguridad en tu código de TypeScript. typescript-express: title: Consultar las prácticas recomendadas y seguridad de Express.js con TypeScript - description: | - Reglas específicas para las prácticas recomendadas y seguridad de Express.js con TypeScript. + description: Reglas específicas para las prácticas recomendadas y seguridad de Express.js con TypeScript. typescript-inclusive: title: Verifica el código de TypeScript para detectar problemas de redacción. - description: | - Reglas de TypeScript para evitar redactar textos inadecuados en el código y los comentarios. + description: Reglas de TypeScript para evitar redactar textos inadecuados en el código y los comentarios. typescript-node-security: title: Identificar posibles puntos críticos de seguridad en Node - description: | - Reglas para identificar posibles puntos críticos de seguridad en Node. Esto puede incluir falsos positivos que requieren una evaluación más exhaustiva. + description: Reglas para identificar posibles puntos críticos de seguridad en Node. Esto puede incluir falsos positivos que requieren una evaluación más exhaustiva. cascade: modal: title: Prueba esta regla y analiza tu código con Datadog Code Security diff --git a/content/es/security/detection_rules/_index.md b/content/es/security/detection_rules/_index.md index 8e5fa216e48c4..8dce40f46d3a6 100644 --- a/content/es/security/detection_rules/_index.md +++ b/content/es/security/detection_rules/_index.md @@ -28,6 +28,9 @@ products: - icon: app-sec name: App and API Protection url: /security/application_security/ +- icon: cloud-security-management + name: Workload Protection + url: /security/workload_protection/ title: Reglas de detección --- @@ -44,10 +47,31 @@ Las reglas predefinidas están disponibles para los siguientes productos de segu - [Cloud SIEM][3] utiliza la detección de logs para analizar logs ingeridos en tiempo real. - Cloud Security: - [Cloud Security Misconfigurations][4] utiliza reglas de detección de configuración en la nube y configuración de infraestructura para analizar el estado de tu entorno en la nube. - - [Workload Protection][5] utiliza las reglas del Agent y de detección para monitorizar activamente y evaluar la actividad del sistema. - [Cloud Security Identity Risks][6] utiliza reglas de detección para detectar riesgos basados en IAM en tu infraestructura de nube. +- [Workload Protection][5] utiliza las reglas del Agent y de detección para monitorizar activamente y evaluar la actividad del sistema. - [App and API Protection][7] (AAP) aprovecha Datadog [APM][8], el [Datadog Agent][9] y las reglas de detección para detectar amenazas en el entorno de tu aplicación. +## Mapa de MITRE ATT&CK + +{{< product-availability names="Cloud SIEM,App and API Protection,Workload Protection" >}} + +MITRE ATT&CK es un marco que ayuda a las organizaciones a comprender cómo actúan los ciberatacantes. Mapea lo siguiente: + +- **Táctica:** el "por qué" de un ataque. Son los objetivos generales, como obtener acceso inicial, ejecutar código malicioso o robar datos. +- **Técnicas:** el "cómo" de un ataque. Son las acciones específicas que realiza un atacante para lograr una táctica, como utilizar el phishing para entrar en un sistema o explotar una vulnerabilidad en el software. + +Mediante el mapeo de tácticas y técnicas, MITRE ATT&CK proporciona a los equipos de seguridad un lenguaje común para comunicar las amenazas y preparar mejor las defensas. + +Para utilizar el mapa de ATT&CK de MITRE, haz lo siguiente: + +1. Abrir reglas de detección en [SIEM][16] o [Workload Protection][17]. +2. Selecciona el mapa **MITRE ATT&CK**. +3. Selecciona uno o varios productos en el filtro . +4. Revisa el mapa para ver lo siguiente: + - Evaluar la cobertura: determina qué técnicas de ataque están bien cubiertas y cuáles están poco vigiladas. + - Priorizar la creación de reglas: centrarse en la creación de reglas de detección para técnicas con baja o nula cobertura. + - Racionalización de la gestión de reglas: gestionar y actualizar las reglas de detección, asegurándote de que se ajustan a la información sobre amenazas más reciente. +El mapa de ATT&CK de MITRE está disponible en SIEM o Workload Protection, pero puedes seleccionar Application and API Protection en el filtro. Application and API Protection se incluye en el mapa de MITRE ATT&CK para una cobertura de seguridad integral. ## Reglas de detección beta El equipo de investigación de seguridad de Datadog añade continuamente nuevas reglas de detección de seguridad predefinidas. Aunque el objetivo es ofrecer detecciones de alta calidad con el lanzamiento de integraciones u otras nuevas funciones, a menudo es necesario observar el rendimiento de la detección a escala antes de poner la regla a disposición general. De este modo, el equipo de investigación de seguridad de Datadog dispone del tiempo necesario para perfeccionar o eliminar las posibilidades de detección que no cumplan nuestras normas. @@ -111,12 +135,12 @@ Para eliminar una regla personalizada, haz clic en el menú vertical de tres pun ### Consultar el historial de versiones de una regla -{{< img src="/security/security_monitoring/detection_rules/rule_version_history_20250207.png" alt="Historial de versiones del compromiso de un token de acceso GitHub OAuth" style="width:80%;" >}} +{{< img src="/security/security_monitoring/detection_rules/rule_version_history_20250207.png" alt="Historial de versiones de un compromiso de token de acceso GitHub OAuth" style="width:80%;" >}} Utiliza el historial de versiones de reglas para: -- Ver las versiones anteriores de una regla de detección y comprender los cambios a lo largo del tiempo. -- Ver quién realizó los cambios para mejorar la colaboración. -- Comparar versiones con diferencias para analizar las modificaciones y el impacto de los cambios. +- Consulta las versiones anteriores de una regla de detección y entiende los cambios a lo largo del tiempo. +- Descubre quién realizó los cambios para mejorar la colaboración. +- Compara versiones con diferencias para analizar las modificaciones y el impacto de los cambios. Para ver el historial de versiones de una regla: 1. Ve a la página [Parámetros de seguridad][15]. En el panel de navegación izquierdo: @@ -171,8 +195,10 @@ El proceso de obsolescencia de las reglas es el siguiente: [8]: /es/tracing/ [9]: /es/agent/ [10]: https://app.datadoghq.com/security/configuration/ -[11]: /es/security/cloud_siem/detection_rules/ +[11]: /es/security/cloud_siem/detect_and_monitor/custom_detection_rules/ [12]: /es/security/application_security/policies/custom_rules/ [13]: /es/security/cloud_security_management/misconfigurations/custom_rules [14]: /es/security/workload_protection/workload_security_rules?tab=host#create-custom-rules -[15]: https://app.datadoghq.com/security/configuration/ \ No newline at end of file +[15]: https://app.datadoghq.com/security/configuration/ +[16]: https://app.datadoghq.com/security/rules +[17]: https://app.datadoghq.com/security/workload-protection/detection-rules \ No newline at end of file diff --git a/content/es/security/workload_protection/_index.md b/content/es/security/workload_protection/_index.md index 8a6b5bf22ab43..c8ebf89ee9563 100644 --- a/content/es/security/workload_protection/_index.md +++ b/content/es/security/workload_protection/_index.md @@ -13,21 +13,21 @@ cascade: aliases: - /security/threats/agent_expressions - _target: - path: /seguridad/carga_protección/backend_linux + path: /security/workload_protection/backend_linux aliases: - - /seguridad/amenazas/backend_linux + - /security/threats/backend_linux - _target: path: /security/workload_protection/backend_windows aliases: - /security/threats/backend_windows - _target: - path: /seguridad/carga_proteccion/expresiones_linux + path: /security/workload_protection/linux_expressions aliases: - - /seguridad/amenazas/expresiones_linux + - /security/threats/linux_expressions - _target: - path: /seguridad/carga_protección/expresiones_windows + path: /security/workload_protection/windows_expressions aliases: - - /seguridad/amenazas/expresiones_windows + - /security/threats/windows_expressions title: Workload Protection --- @@ -56,7 +56,7 @@ Por defecto, todas las reglas de detección de amenazas de minería de criptomon Workload Protection Threats viene con más de 50 reglas de detección predefinidas que son mantenidas por un equipo de expertos en seguridad. Las reglas identifican los riesgos más importantes para que puedas tomar medidas correctivas de inmediato. Las reglas de expresión del Agent definen las actividades de carga de trabajo que deben recopilarse para el análisis, mientras que las reglas de detección de backend analizan las actividades e identifican técnicas de ataque y otros patrones de comportamiento peligrosos. -Utiliza la [configuración remota][7] para desplegar automáticamente reglas nuevas y actualizadas en el Agent. [Personaliza las reglas][5] definiendo cómo cada regla monitoriza la actividad de proceso, red y archivos, [crea reglas personalizadas][6], y [configura notificaciones en tiempo real](#set-up-real-time-notifications) para nuevas señales. +Configura [Cloud Security][1] con {{< tooltip glossary="Configuración remota" case="title" >}} para desplegar automáticamente reglas nuevas y actualizadas en el Agent. [Personaliza las reglas][5] definiendo cómo cada regla monitoriza la actividad de procesos, redes y archivos, [crea reglas personalizadas][6] y [configura notificaciones en tiempo real](#set-up-real-time-notifications) para nuevas señales. @@ -80,20 +80,19 @@ Datadog está introduciendo una nueva función llamada Active Protection para ha ## Para empezar {{< whatsnext >}} - {{< nextlink href="/security/threats/setup">}}Instalación y configuración completas{{< /nextlink >}} + {{< nextlink href="/security/cloud_security_management/setup/">}}Finalizar la configuración{{< /nextlink >}} {{< nextlink href="/account_management/rbac/permissions/#cloud-security-platform">}}Permisos de roles de Datadog para Workload Protection{{< /nextlink >}} - {{< nextlink href="/security/workload_protection/workload_security_rules">}}Más información sobre las reglas de detección de Workload Protection{{< /nextlink >}} - {{< nextlink href="/security/default_rules/#cat-workload-security">}}Empieza a utilizar reglas de detección de Workload Protection predefinidas{{< /nextlink >}} + {{< nextlink href="/security/workload_protection/workload_security_rules">}}Más información sobre reglas de detección de Workload Protection{{< /nextlink >}} + {{< nextlink href="/security/default_rules/#cat-workload-security">}}Empezar a utilizar reglas de detección de Workload Protection predefinidas{{< /nextlink >}} {{< nextlink href="/getting_started/cloud_security_management">}}Empezando con Cloud Security Management{{< /nextlink >}} {{< /whatsnext >}} -[1]: /es/security/threats/setup/?tab=kuberneteshelm#prerequisites +[1]: /es/security/cloud_security_management/setup/ [2]: /es/agent/ [3]: /es/security/notifications/ [4]: /es/security/notifications/#notification-channels [5]: /es/security/notifications/#detection-rule-notifications [6]: /es/security/workload_protection/agent_expressions -[7]: /es/security/threats/setup [8]: /es/security/workload_protection/security_signals [9]: /es/network_monitoring/performance/ [10]: /es/security/workload_protection/guide/active-protection \ No newline at end of file diff --git a/content/es/serverless/_index.md b/content/es/serverless/_index.md index 5d6e3f28edf2d..38600b5f589db 100644 --- a/content/es/serverless/_index.md +++ b/content/es/serverless/_index.md @@ -86,13 +86,13 @@ La extensión de Datadog para Azure App Service proporciona capacidades de rastr Azure Container Apps es una plataforma serverless totalmente gestionada para desplegar y escalar aplicaciones basadas en contenedores. Datadog proporciona la monitorización y la recopilación de log para Container Apps a través de la [integración Azure][9]. -Datadog también ofrece una solución, ahora en Vista previa, para [instrumentar tus aplicaciones de contenedor][10] con un Agent diseñado específicamente para permitir el rastreo, las métricas personalizadas y la recopilación directa de logs. +Datadog también ofrece una solución para [instrumentar tus aplicaciones de Container Apps][10] con un Agent específico para permitir el rastreo, las métricas personalizadas y la recopilación directa de logs. ### Google Cloud Run Google Cloud Run es una solución informática asíncrona, liviana y basada en eventos que te permite crear funciones pequeñas con un solo propósito. Para monitorizar las funciones serverless que se ejecutan en Google Cloud Platform, habilita la [integración de Google Cloud Platform][11]. -Datadog también ofrece una solución, ahora en Vista previa, para [instrumentar tus aplicaciones Cloud Run][12] con un Agent especialmente diseñado para permitir el rastreo, las métricas personalizadas y la recopilación directa de logs. +Datadog también ofrece una solución para [instrumentar tus aplicaciones de Cloud Run][12] con un Agent específico para permitir el rastreo, las métricas personalizadas y la recopilación directa de logs. ## Referencias adicionales @@ -104,7 +104,7 @@ Datadog también ofrece una solución, ahora en Vista previa, para [instrumentar [4]: /es/serverless/custom_metrics [5]: /es/serverless/distributed_tracing [6]: /es/serverless/deployment_tracking -[7]: /es/infrastructure/serverless/azure_app_services/#overview +[7]: /es/serverless/azure_app_service/#overview [8]: https://app.datadoghq.com/functions?cloud=azure&config_serverless-azure-app=true&group=service [9]: /es/integrations/azure/#log-collection [10]: /es/serverless/azure_container_apps diff --git a/content/es/serverless/aws_lambda/configuration.md b/content/es/serverless/aws_lambda/configuration.md index 418634d3d673d..156db221f6e4d 100644 --- a/content/es/serverless/aws_lambda/configuration.md +++ b/content/es/serverless/aws_lambda/configuration.md @@ -33,6 +33,7 @@ Primero, [instala][1] Datadog Serverless Monitoring para comenzar a recopilar m - [Recopilar datos de perfiles](#collect-profiling-data) - [Enviar la telemetría a través de PrivateLink o un proxy](#send-telemetry-over-privatelink-or-proxy) - [Enviar la telemetría a varias organizaciones de Datadog](#send-telemetry-to-multiple-datadog-organizations) +- [Activar el cumplimiento de FIPS](#enable-fips-compliance) - [Propagar el contexto de las trazas en los recursos de AWS](#propagate-trace-context-over-aws-resources) - [Fusionar las trazas de X-Ray y Datadog](#merge-x-ray-and-datadog-traces) - [Habilitar la firma de código para AWS Lambda](#enable-aws-lambda-code-signing) @@ -40,13 +41,17 @@ Primero, [instala][1] Datadog Serverless Monitoring para comenzar a recopilar m - [Migrar de x86 a arm64 con la Datadog Lambda Extension](#migrating-between-x86-to-arm64-with-the-datadog-lambda-extension) - [Configurar la Datadog Lambda Extension para hacer tests locales](#configure-the-datadog-lambda-extension-for-local-testing) - [Instrumentar AWS Lambda con la API de OpenTelemetry](#Instrumentar-AWS-lambda-with-the-opentelemetry-api) +- [Uso de Datadog Lambda Extension v67+](#using-datadog-lambda-extension-v67) +- [Configuración del enlace automático para PutItem de DynamoDB](#configure-auto-linking-for-dynamodb-putitem) +- [Visualización y modelado correcto de los servicios de AWS](#visualize-and-model-aws-services-by-resource-name) +- [Envío de logs a Observability Pipelines](#sending-data-to-observability-pipelines) - [Solucionar problemas](#troubleshoot) - [Referencias adicionales](#further-reading) ## Habilitar la detección de amenazas para observar los intentos de ataque -Recibe alertas sobre atacantes que tengan como objetivo tus aplicaciones serverless y responde con rapidez. +Recibe alertas sobre los atacantes que apuntan a tus aplicaciones sin servidor y responde rápidamente. Para empezar, asegúrate de tener el [rastreo habilitado][43] para tus funciones. @@ -57,13 +62,11 @@ Para habilitar la monitorización de amenazas, añade las siguientes variables d AWS_LAMBDA_EXEC_WRAPPER: /opt/datadog_wrapper ``` -Vuelve a desplegar la función e invócala. Al cabo de unos minutos, aparecerá en las [vistas ASM][3]. +Vuelve a desplegar la función e invócala. Al cabo de unos minutos, aparece en las [vistas AAP][49]. -[3]: https://app.datadoghq.com/security/appsec?column=time&order=desc - -Para ver la detección de amenazas de Application Security Management en acción, envía patrones de ataque conocidos a tu aplicación. Por ejemplo, envía un encabezado HTTP con el valor `acunetix-product` para activar un intento de [ataque de escaneo de seguridad][44]: +Para ver en acción la detección de amenazas a las aplicaciones y las API, envía patrones de ataque conocidos a tu aplicación. Por ejemplo, envía una cabecera HTTP con el valor `acunetix-product` para activar un intento de [ataque al analizador de seguridad][44]: ```sh - curl -H 'My-ASM-Test-Header: acunetix-product' https:/// + curl -H 'My-AAP-Test-Header: acunetix-product' https:/// ``` Unos minutos después de habilitar tu aplicación y enviar los patrones de ataque, **la información sobre las amenazas aparece en el [Application Signals Explorer][41]**. @@ -89,7 +92,7 @@ datadog-ci lambda instrument \ {{% /tab %}} {{% tab "Serverless Framework" %}} -Asegúrate de usar la última versión del complemento [Datadog Serverless Plugin][1] y aplica las etiquetas con los parámetros `env`, `service`, `version` y `tags`. Por ejemplo: +Asegúrate de usar la última versión del [complemento sin servidor Datadog][1] y aplica las etiquetas con los parámetros `env`, `service`, `version` y `tags`. Por ejemplo: ```yaml custom: @@ -123,13 +126,13 @@ Transform: [1]: https://docs.datadoghq.com/es/serverless/serverless_integrations/macro {{% /tab %}} -{{% tab "CDK AWS" %}} +{{% tab "AWS CDK" %}} Asegúrate de usar la última versión de la [construcción del CDK serverless de Datadog][1] y aplica las etiquetas con los parámetros `env`, `service`, `version` y `tags`. Por ejemplo: ```typescript -const datadog = new Datadog(this, "Datadog", { - // ... otros parámetros obligatorios, como el sitio de Datadog y la clave de la API +const datadog = new DatadogLambda(this, "Datadog", { + // ... other required parameters, such as the Datadog site and API key env: "dev", service: "web", version: "v1.2.3", @@ -140,7 +143,7 @@ datadog.addLambdaFunctions([]); [1]: https://github.com/DataDog/datadog-cdk-constructs {{% /tab %}} -{{% tab "Others" %}} +{{% tab "Otros" %}} Si vas a recopilar la telemetría de tus funciones de Lambda mediante la [Datadog Lambda Extension][1], define las siguientes variables de entorno en tus funciones de Lambda. Por ejemplo: - DD_ENV: dev @@ -210,13 +213,13 @@ Transform: [1]: https://docs.datadoghq.com/es/serverless/serverless_integrations/macro {{% /tab %}} -{{% tab "CDK AWS" %}} +{{% tab "AWS CDK" %}} Asegúrate de usar la última versión de la [construcción del CDK serverless de Datadog][1] y define el parámetro `captureLambdaPayload` como `true`. Por ejemplo: ```typescript -const datadog = new Datadog(this, "Datadog", { - // ... otros parámetros obligatorios, como el sitio de Datadog y la clave de la API +const datadog = new DatadogLambda(this, "Datadog", { + // ... other required parameters, such as the Datadog site and API key captureLambdaPayload: true }); datadog.addLambdaFunctions([]); @@ -224,7 +227,7 @@ datadog.addLambdaFunctions([]); [1]: https://github.com/DataDog/datadog-cdk-constructs {{% /tab %}} -{{% tab "Others" %}} +{{% tab "Otros" %}} Define la variable de entorno `DD_CAPTURE_LAMBDA_PAYLOAD` como `true` en tus funciones de Lambda. @@ -274,11 +277,11 @@ DD_APM_REPLACE_TAGS=[ ] ``` +Para recopilar cargas útiles de los servicios de AWS, consulta [Capturar solicitudes y respuestas de los servicios de AWS][54]. -## Recopilar trazas procedentes de recursos distintos de Lambda -
En estos momentos, esta característica es compatible con Python, Node.js, Java y .NET.
+## Recopilar trazas procedentes de recursos distintos de Lambda Datadog puede inferir tramos de APM en función de los eventos de Lambda entrantes para los recursos gestionados de AWS que activan la función de Lambda. Esto puede ayudarte a visualizar la relación entre los recursos gestionados de AWS e identificar problemas de rendimiento en tus aplicaciones serverless. Consulta [más detalles sobre el producto][12]. @@ -319,6 +322,7 @@ Para cambiar el nombre de todos los servicios anteriores asociados a una integra | `lambda_kinesis` | `"lambda_kinesis:newServiceName"` | | `lambda_dynamodb` | `"lambda_dynamodb:newServiceName"` | | `lambda_url` | `"lambda_url:newServiceName"` | +| `lambda_msk` | `"lambda_msk:newServiceName"` | #### Cambiar el nombre de servicios específicos @@ -334,6 +338,7 @@ Para un enfoque más granular, utiliza estos identificadores específicos de los | Kinesis | Nombre del flujo | `"MyStream:newServiceName"` | | DynamoDB | Nombre de la tabla | `"ExampleTableWithStream:newServiceName"` | | URL de Lambda | ID de la API | `"a8hyhsshac:newServiceName"` | +| MSK | Nombre del clúster | `"ExampleCluster:newServiceName"` | #### Ejemplos con descripción @@ -350,11 +355,11 @@ Para ver qué bibliotecas y marcos instrumenta de forma automática el cliente d ## Seleccionar las frecuencias de muestreo para la ingesta de tramos de APM -Para gestionar la [frecuencia de muestreo de las invocaciones rastreadas de APM][17] para las funciones serverless, define la variable de entorno `DD_TRACE_SAMPLING_RULES` en una función con un valor entre 0,000 (no se rastrea ninguna invocación de la función de Lambda) y 1,000 (se rastrean todas las invocaciones). +Para gestionar la [frecuencia de muestreo de invocaciones de APM rastreadas][17] de las funciones sin servidor, configura la variable de entorno `DD_TRACE_SAMPLING_RULES` en la función con un valor entre 0.000 (sin rastreo de invocaciones de funciones Lambda) y 1.000 (con rastreo de todas las invocaciones de funciones Lambda). -Nota: El uso de DD_TRACE_SAMPLE_RATE está obsoleto. Utiliza DD_TRACE_SAMPLING_RULES en su lugar. Por ejemplo, si ya has establecido DD_TRACE_SAMPLE_RATE en 0.1, estableceDD_TRACE_SAMPLING_RULES en [{"sample_rate":0.1}] en su lugar. - -Las métricas se calculan en función del 100 % del tráfico de la aplicación, y son precisas independientemente de la configuración del muestreo. +**Notas**: + - El uso de `DD_TRACE_SAMPLE_RATE` está obsoleto. Utiliza `DD_TRACE_SAMPLING_RULES` en su lugar. Por ejemplo, si ya configuraste `DD_TRACE_SAMPLE_RATE` como `0.1`, configura `DD_TRACE_SAMPLING_RULES` como `[{"sample_rate":0.1}]` en su lugar. + - Las métricas de tráfico globales como `trace (traza)..hits` se calculan en función de las invocaciones muestreadas *sólo* en Lambda. Para los servicios de alto rendimiento, normalmente no es necesario que recopiles todas las solicitudes, porque los datos de las trazas son muy repetitivos. Los problemas suficientemente graves siempre deberían poder detectarse en varias trazas. Los [controles de ingesta][18] te permiten solucionar los problemas sin salirte del presupuesto. @@ -372,7 +377,7 @@ Para borrar atributos de trazas por razones de seguridad de los datos, consulta ## Habilitar y deshabilitar la recopilación de trazas -La recopilación de trazas a través de la Datadog Lambda Extension está habilitada de forma predeterminada. +La recopilación de trazas (traces) a través de la extensión Datadog Lambda está activada por defecto. Si quieres empezar a recopilar las trazas de tus funciones de Lambda, aplica las configuraciones que se indican a continuación: @@ -407,18 +412,18 @@ Transform: ``` {{% /tab %}} -{{% tab "CDK AWS" %}} +{{% tab "AWS CDK" %}} ```typescript -const datadog = new Datadog(this, "Datadog", { - // ... otros parámetros obligatorios, como el sitio de Datadog y la clave de la API +const datadog = new DatadogLambda(this, "Datadog", { + // ... other required parameters, such as the Datadog site and API key enableDatadogTracing: true }); datadog.addLambdaFunctions([]); ``` {{% /tab %}} -{{% tab "Others" %}} +{{% tab "Otros" %}} Define la variable de entorno `DD_TRACE_ENABLED` como `true` en tus funciones de Lambda. @@ -460,18 +465,18 @@ Transform: ``` {{% /tab %}} -{{% tab "CDK AWS" %}} +{{% tab "AWS CDK" %}} ```typescript -const datadog = new Datadog(this, "Datadog", { - // ... otros parámetros obligatorios, como el sitio de Datadog y la clave de la API +const datadog = new DatadogLambda(this, "Datadog", { + // ... other required parameters, such as the Datadog site and API key enableDatadogTracing: false }); datadog.addLambdaFunctions([]); ``` {{% /tab %}} -{{% tab "Others" %}} +{{% tab "Otros" %}} Define la variable de entorno `DD_TRACE_ENABLED` como `false` en tus funciones de Lambda. @@ -482,7 +487,7 @@ Define la variable de entorno `DD_TRACE_ENABLED` como `false` en tus funciones d Si usas la [extensión de Lambda][2] para recopilar trazas y logs, Datadog añade automáticamente el ID de solicitud de AWS Lambda al tramo `aws.lambda` en la etiqueta `request_id`. Además, los logs de Lambda para la misma solicitud se añaden en el atributo `lambda.request_id`. Las vistas de trazas y logs de Datadog se vinculan mediante el uso del ID de solicitud de AWS Lambda. -Si usas la [función de Lambda del Forwarder][4] para recopilar trazas y logs, `dd.trace_id` se inserta automáticamente en los logs (habilitada por la variable de entorno `DD_LOGS_INJECTION`). Las vistas de trazas y logs de Datadog se conectan mediante el ID de traza de Datadog. Esta característica es compatible con la mayoría de aplicaciones que utilizan tiempos de ejecución y loggers populares (consulta la [compatibilidad por tiempo de ejecución][24]). +Si estás utilizando la [función del Forwarder Lambda][4] para recopilar trazas y logs, `dd.trace_id` se inyecta automáticamente en logs (habilitado por defecto con la variable de entorno `DD_LOGS_INJECTION`). Las vistas de traza y log de Datadog se conectan utilizando el ID de traza de Datadog. Esta característica es compatible con la mayoría de las aplicaciones que utilizan un tiempo de ejecución y un registrador populares (ver [compatibilidad por tiempo de ejecución][24]). Si usas un tiempo de ejecución o un logger personalizado no compatible, sigue estos pasos: - Al generar logs en JSON, debes obtener el ID de traza de Datadog mediante `dd-trace` y añadirlo a tus logs en el campo `dd.trace_id`: @@ -503,7 +508,7 @@ Si usas un tiempo de ejecución o un logger personalizado no compatible, sigue e ## Vincular errores al código fuente -La [integración del código fuente de Datadog][26] te permite vincular tu telemetría (como stack traces) al código fuente de tus funciones de Lambda en los repositorios de Git. +La [integración del código fuente de Datadog][26] te permite vincular tu telemetría (como trazas de stack tecnológico) al código fuente de tus funciones Lambda en tus repositorios Git. Para obtener instrucciones sobre cómo configurar la integración del código fuente en tus aplicaciones serverless, consulta la [sección Integrar información de Git en los artefactos de compilación][101]. @@ -531,13 +536,13 @@ Si quieres enviar datos a varias organizaciones, puedes habilitar el envío múl Puedes habilitar el envío múltiple con una clave de API de texto sin formato al configurar las siguientes variables de entorno en tu función de Lambda. ```bash -# Habilitar el envío doble para métricas +# Enable dual shipping for metrics DD_ADDITIONAL_ENDPOINTS={"https://app.datadoghq.com": ["", ""], "https://app.datadoghq.eu": [""]} -# Habilitar el envío doble para APM (trazas) +# Enable dual shipping for APM (traces) DD_APM_ADDITIONAL_ENDPOINTS={"https://trace.agent.datadoghq.com": ["", ""], "https://trace.agent.datadoghq.eu": [""]} -# Habilitar el envío doble para APM (perfilado) +# Enable dual shipping for APM (profiling) DD_APM_PROFILING_ADDITIONAL_ENDPOINTS={"https://trace.agent.datadoghq.com": ["", ""], "https://trace.agent.datadoghq.eu": [""]} -# Habilitar el envío doble para logs +# Enable dual shipping for logs DD_LOGS_CONFIG_FORCE_USE_HTTP=true DD_LOGS_CONFIG_ADDITIONAL_ENDPOINTS=[{"api_key": "", "Host": "agent-http-intake.logs.datadoghq.com", "Port": 443, "is_reliable": true}] ``` @@ -578,6 +583,40 @@ La extensión de Datadog es compatible con el descifrado automático de valores Para obtener información sobre un uso más avanzado, consulta la [guía de Envío múltiple][32]. +## Habilitar el cumplimiento FIPS + +
Para obtener una descripción completa del cumplimiento de FIPS de las funciones AWS Lambda, consulta la página de Cumplimiento de FIPS para AWS Lambda exclusiva.
+ +Para habilitar el cumplimiento de FIPS de las funciones AWS Lambda, sigue estos pasos: + +1. Utiliza una capa de extensión que cumpla con FIPS haciendo referencia al ARN apropiado: + +{{< tabs >}} +{{% tab "AWS GovCLoud" %}} + ```sh + arn:aws-us-gov:lambda::002406178527:layer:Datadog-Extension-FIPS:{{< latest-lambda-layer-version layer="extension" >}} + arn:aws-us-gov:lambda::002406178527:layer:Datadog-Extension-ARM-FIPS:{{< latest-lambda-layer-version layer="extension" >}} + ``` +{{% /tab %}} +{{% tab "AWS Commercial" %}} + ```sh + arn:aws:lambda::464622532012:layer:Datadog-Extension-FIPS:{{< latest-lambda-layer-version layer="extension" >}} + arn:aws:lambda::464622532012:layer:Datadog-Extension-ARM-FIPS:{{< latest-lambda-layer-version layer="extension" >}} + ``` +{{% /tab %}} +{{< /tabs >}} + +2. Para las funciones Lambda que utilizan Python, JavaScript o Go, configura la variable de entorno `DD_LAMBDA_FIPS_MODE` como `true`. Esta variable de entorno: + - En el modo FIPS, las funciones auxiliares para métricas de Lambda requieren la extensión que cumpla con FIPS para el envío de métricas + - Utiliza endpoints AWS FIPS para la búsqueda de claves de API + - Está activado por defecto en los entornos GovCloud + +3. Para las funciones Lambda que utilizan Ruby, .NET o Java, no es necesario configurar ninguna variable de entorno adicional. + +4. Para un cumplimiento de FIPS completo de extremo a extremo, configura tu función Lambda para utilizar el sitio US1-FED de Datadog: + - Configura `DD_SITE` en `ddog-gov.com` (necesario para el cumplimiento de FIPS de extremo a extremo). + **Nota**: Aunque los componentes Lambda que cumplen con FIPS funcionan con cualquier sitio de Datadog, sólo el sitio US1-FED dispone de endpoints de entrada que cumplen con FIPS. + ## Propagar el contexto de las trazas en los recursos de AWS Datadog inyecta de forma automática el contexto de las trazas en las solicitudes de AWS SDK salientes y extrae el contexto de las trazas del evento de Lambda. Esto le permite rastrear una solicitud o transacción a través de servicios distribuidos. Consulta [Propagación de trazas serverless][33]. @@ -615,6 +654,8 @@ Para proceder con la migración, compara las [instrucciones de instalación de l **Nota**: Datadog recomienda migrar las aplicaciones de desarrollo y de prueba primero y las aplicaciones de producción una por una. +
La extensión Datadog Lambda permite la recopilación de logs de forma predeterminada. Si estás migrando del Forwarder a la extensión, asegúrate de eliminar tu suscripción a logs. De lo contrario, es posible que veas logs duplicados.
+ {{< tabs >}} {{% tab "Datadog CLI" %}} @@ -644,7 +685,7 @@ Para proceder con la migración, compara las [instrucciones de instalación de l 5. Si configuraste tu integración de AWS para Datadog de modo que suscriba automáticamente los grupos de logs del Forwarder a Lambda, deshabilita esta característica cuando migres _todas_ las funciones de Lambda de esa región. {{% /tab %}} -{{% tab "CDK AWS" %}} +{{% tab "AWS CDK" %}} 1. Actualiza `datadog-cdk-constructs` o `datadog-cdk-constructs-v2` a la última versión. 2. Configura el parámetro `extensionLayerVersion` con la última versión de la extensión, que es `{{< latest-lambda-layer-version layer="extension" >}}`. @@ -654,9 +695,9 @@ Para proceder con la migración, compara las [instrucciones de instalación de l 6. Si configuraste tu integración de AWS para Datadog de modo que suscriba automáticamente los grupos de logs del Forwarder a Lambda, deshabilita esta característica cuando migres _todas_ las funciones de Lambda de esa región. {{% /tab %}} -{{% tab "Others" %}} +{{% tab "Otros" %}} -1. Actualiza la capa de la librería Lambda de Datadog de tu tiempo de ejecución a la última versión. +1. Actualiza la capa de la biblioteca Lambda de Datadog de tu tiempo de ejecución a la última versión. 2. Instala la última versión de la Datadog Lambda Extension. 3. Define las variables de entorno obligatorias `DD_SITE` y `DD_API_KEY_SECRET_ARN`. 3. Define las variables de entorno `DD_ENV`, `DD_SERVICE` y `DD_VERSION` si antes las definiste como etiquetas de recursos de Lambda. @@ -677,16 +718,86 @@ Si no puedes usar versiones de capa, Datadog recomienda configurar el [Datadog F ## Configurar la Datadog Lambda Extension para hacer tests locales -Para testear la imagen de contenedor de tu función de Lambda de forma local con la Datadog Lambda Extension instalada, debes definir `DD_LOCAL_TEST` como `true` en tu entorno de tests local. De lo contrario, la extensión esperará respuestas de API de las extensiones de AWS y bloqueará la invocación. +No todos los emuladores Lambda son compatibles con la API de telemetría de AWS Lambda. Para probar la imagen de contenedor de tu función Lambda de forma local con la extensión Datadog Lambda instalada, necesitas configurar `DD_SERVERLESS_FLUSH_STRATEGY` en `periodically,1` en tu entorno de test local. De lo contrario, la extensión esperará las respuestas de la API de telemetría de AWS Lambda y bloqueará la invocación. ## Instrumentar AWS Lambda con la API de OpenTelemetry -La librería de rastreo de Datadog, que se incluye en la Datadog Lambda Extension tras su instalación, acepta los tramos y trazas generados a partir del código instrumentado por OpenTelemetry, procesa la telemetría y la envía a Datadog. +La biblioteca de rastreo de Datadog, que se incluye en la Datadog Lambda Extension tras su instalación, acepta los tramos y trazas generados a partir del código instrumentado por OpenTelemetry, procesa la telemetría y la envía a Datadog. Puedes utilizar este enfoque si, por ejemplo, tu código ya se instrumentó con la API de OpenTelemetry. También puedes utilizar este enfoque si quieres instrumentar mediante código agnóstico del proveedor con la API de OpenTelemetry sin dejar de obtener los beneficios de utilizar las bibliotecas de rastreo de Datadog. Para instrumentar AWS Lambda con la API de OpenTelemetry, define la variable de entorno `DD_TRACE_OTEL_ENABLED` como `true`. Consulta [Instrumentación personalizada con la API de OpenTelemetry][48] para obtener más detalles. +## Uso de Datadog Lambda Extension v67+ +La versión 67+ de [Datadog Extension][53] está optimizada para reducir significativamente la duración del arranque en frío. +Para utilizar la extensión optimizada, establece la variable de entorno `DD_SERVERLESS_APPSEC_ENABLED` en `false`. +Cuando la variable de entorno `DD_SERVERLESS_APPSEC_ENABLED` se establece en `true`, la Datadog Extension utiliza por defecto la versión anterior totalmente compatible. También puedes forzar a tu extensión a utilizar la versión anterior configurando `DD_EXTENSION_VERSION` en `compatibility`. Datadog te anima a informar de cualquier comentario o error añadiendo una [incidencia en GitHub][54] y etiquetando tu incidencia con `version/next`. + +## Configuración del enlace automático para PutItem de DynamoDB +Disponible para los tiempos de ejecución de Python y Node.js. +Cuando los segmentos de tus solicitudes asíncronas no pueden propagar el contexto de traza, la función [enlace automático de tramos][55] de Datadog detecta automáticamente los tramos vinculados. +Para habilitar el enlace automático de tramos para la operación `PutItem` de [DynamoDB Change Streams][56], configura nombres de clave primaria para tus tablas. + +{{< tabs >}} +{{% tab "Python" %}} +```python +ddtrace.config.botocore['dynamodb_primary_key_names_for_tables'] = { + 'table_name': {'key1', 'key2'}, + 'other_table': {'other_key'}, +} +``` +{{% /tab %}} +{{% tab "Node.js" %}} +```js +// Initialize the tracer with the configuration +const tracer = require('dd-trace').init({ + dynamoDb: { + tablePrimaryKeys: { + 'table_name': ['key1', 'key2'], + 'other_table': ['other_key'] + } + } +}) +``` +{{% /tab %}} +{{% tab "Environment variable" %}} +```sh +export DD_BOTOCORE_DYNAMODB_TABLE_PRIMARY_KEYS='{ + "table_name": ["key1", "key2"], + "other_table": ["other_key"] +}' +``` +{{% /tab %}} +{{< /tabs >}} + +Esto permite instrumentar las llamadas `PutItem` a DynamoDB con punteros a tramo. Muchas llamadas a la API de DynamoDB no incluyen los campos de clave principal del elemento como valores independientes, por lo que deben proporcionarse al rastreador por separado. La configuración anterior está estructurada como un diccionario (`dict`) u objeto cuya clave son los nombres de tabla como cadenas (`str`). Cada valor es el conjunto de nombres de campo de clave primaria (como cadenas) para la tabla asociada. El conjunto puede tener exactamente uno o dos elementos, dependiendo del esquema de clave primaria de la tabla. + +## Visualización y modelado de los servicios de AWS por nombre de recurso + +Estas versiones de las capas Lambda de [Node.js][50], [Python][51] y [Java][52] lanzaron cambios para nombrar, modelar y visualizar correctamente los servicios gestionados de AWS. + +Los nombres de los servicios reflejan el nombre real del recurso de AWS y no solo el servicio de AWS: +* `aws.lambda` → `[function_name]` +* `aws.dynamodb` → `[table_name]` +* `aws.sns` → `[topic_name]` +* `aws.sqs` → `[queue_name]` +* `aws.kinesis` → `[stream_name]` +* `aws.s3` → `[bucket_name]` +* `aws.eventbridge` → `[event_name]` + +Es posible que prefieras el modelo de representación de servicios anterior si tus dashboards y monitores dependen de la convención de nomenclatura heredada. Para restaurar el comportamiento anterior, establece la variable de entorno: `DD_TRACE_AWS_SERVICE_REPRESENTATION_ENABLED=false` + +Se recomienda la configuración actualizada del modelado de servicios. + +## Envío de logs a Observability Pipelines +La versión 87+ de la Datadog Lambda Extension permite a los usuarios enviar logs a [Observability Pipelines][58]. + +Para activar esta función, establece estas variables de entorno: +- `DD_OBSERVABILITY_PIPELINES_WORKER_LOGS_ENABLED`: `true` +- `DD_OBSERVABILITY_PIPELINES_WORKER_LOGS_URL`: `` + +**Nota**: Tu Observability pipeline debe utilizar `Http Server` como fuente para procesar logs de Lambda Extension. No utilices `Datadog Agent` como fuente. + ## Solucionar problemas Si tienes problemas para configurar tus instalaciones, define la variable de entorno `DD_LOG_LEVEL` como `debug` en los logs de depuración. Para obtener más consejos sobre cómo solucionar problemas, consulta la [guía de solución de problemas de la monitorización serverless][39]. @@ -744,3 +855,13 @@ Si tienes problemas para configurar tus instalaciones, define la variable de ent [46]: https://docs.datadoghq.com/es/tracing/glossary/#services [47]: /es/logs/ [48]: /es/tracing/trace_collection/otel_instrumentation/ +[49]: https://app.datadoghq.com/security/appsec?column=time&order=desc +[50]: https://github.com/DataDog/datadog-lambda-js/releases/tag/v12.127.0 +[51]: https://github.com/DataDog/datadog-lambda-python/releases/tag/v8.113.0 +[52]: https://github.com/DataDog/datadog-lambda-java/releases/tag/v24 +[53]: https://github.com/DataDog/datadog-lambda-extension +[54]: https://github.com/DataDog/datadog-lambda-extension/issues +[55]: /es/serverless/aws_lambda/distributed_tracing/#span-auto-linking +[56]: https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/Streams.html +[57]: /es/tracing/guide/aws_payload_tagging/?code-lang=python&tab=nodejs +[58]: https://www.datadoghq.com/product/observability-pipelines/ \ No newline at end of file diff --git a/content/es/serverless/aws_lambda/opentelemetry.md b/content/es/serverless/aws_lambda/opentelemetry.md index 4a38877cdf75f..974321ac6648f 100644 --- a/content/es/serverless/aws_lambda/opentelemetry.md +++ b/content/es/serverless/aws_lambda/opentelemetry.md @@ -15,24 +15,24 @@ Esta página trata sobre el uso de OpenTelemetry con Datadog Serverless Monitori Existen varias formas de instrumentar las funciones de AWS Lambda con OpenTelemetry y enviar los datos a Datadog: - [Compatibilidad de la API de OpenTelemetry en los rastreadores de Datadog](#opentelemetry-api-support-within-datadog-tracers) (recomendado) -- [Enviar trazas de OpenTelemetry desde cualquier SDK de OpenTelemetry a través de la extensión Datadog Lambda](#sdk) (beta) +- [Enviar trazas (traces) de OpenTelemetry desde cualquier SDK de OpenTelemetry a través de la extensión Lambda Datadog](#sdk) (Vista previa) ### Compatibilidad de la API de OpenTelemetry en los rastreadores de Datadog -La librería de rastreo de Datadog, que se incluye en la extensión Lambda Datadog tras su instalación, acepta tramos (spans) y trazas (traces) personalizados creados con código instrumentado con OpenTelemetry, procesa la telemetría y la envía a Datadog. +La biblioteca de rastreo de Datadog, que se incluye en la Datadog Lambda Extension tras su instalación, acepta tramos (spans) y trazas personalizados creados con código instrumentado con OpenTelemetry, procesa la telemetría y la envía a Datadog. -Puedes utilizar este enfoque si, por ejemplo, tu objetivo principal es el código que ya se ha instrumentado con la API de OpenTelemetry. Esto significa que puedes mantener una instrumentación independiente del proveedor para todos tus servicios, sin dejar de aprovechar la implementación, el etiquetado y las características nativos de Datadog. +Puedes utilizar este enfoque si, por ejemplo, tu objetivo principal es el código que ya se ha instrumentado con la API de OpenTelemetry. Esto significa que puedes mantener una instrumentación independiente del proveedor para todos tus servicios, sin dejar de aprovechar la implementación, el etiquetado y las características nativos de Datadog. Para instrumentar AWS Lambda con la API de OpenTelemetry, define la variable de entorno `DD_TRACE_OTEL_ENABLED` como `true` en tu función de Lambda. Consulta [Instrumentación personalizada con la API de OpenTelemetry][3] para obtener instrucciones específicas del tiempo de ejecución. -### Enviar trazas de OpenTelemetry desde cualquier SDK de OpenTelemetry a través de la extensión Datadog Lambda {#sdk} +### Enviar trazas de OpenTelemetry desde cualquier SDK de OpenTelemetry a través de la Datadog Lambda Extension {#sdk} -
Esta característica está en fase beta.
+Este enfoque es análogo a la [Ingesta de OLTP en el Datadog Agent][4]. Se recomienda en situaciones en las que la compatibilidad del rastreo puede no estar disponible para un tiempo de ejecución (por ejemplo, Rust o PHP). -Este enfoque es análogo a la [Ingesta de OLTP en el Datadog Agent][4]. Se recomienda en situaciones en las que la compatibilidad del rastreo puede no estar disponible para un tiempo de ejecución (por ejemplo, Rust o PHP). +**Nota**: No se admite el envío de métricas personalizadas desde el endpoint OTLP en la extensión. -1. Pídele a OpenTelemetry que exporte tramos a la extensión Datadog Lambda. Luego, añade la instrumentación de OpenTelemetry para AWS Lambda. +1. Pídele a OpenTelemetry que exporte tramos a la Datadog Lambda Extension. Luego, añade la instrumentación de OpenTelemetry para AWS Lambda. {{< tabs >}} {{% tab "Python" %}} @@ -169,8 +169,8 @@ Este enfoque es análogo a la [Ingesta de OLTP en el Datadog Agent][4]. Se recom environment: NODE_OPTIONS: --require instrument ``` - {{% /tab %}} - {{< /tabs >}} +{{% /tab %}} +{{< /tabs >}} 1. Despliega. @@ -178,7 +178,8 @@ Este enfoque es análogo a la [Ingesta de OLTP en el Datadog Agent][4]. Se recom {{< partial name="whats-next/whats-next.html" >}} + [1]: https://opentelemetry.io/ [2]: /es/opentelemetry [3]: /es/tracing/trace_collection/otel_instrumentation/ -[4]: /es/opentelemetry/interoperability/otlp_ingest_in_the_agent/?tab=host +[4]: /es/opentelemetry/interoperability/otlp_ingest_in_the_agent/?tab=host \ No newline at end of file diff --git a/content/es/serverless/google_cloud_run/containers/_index.md b/content/es/serverless/google_cloud_run/containers/_index.md new file mode 100644 index 0000000000000..df5bb2692ac34 --- /dev/null +++ b/content/es/serverless/google_cloud_run/containers/_index.md @@ -0,0 +1,47 @@ +--- +further_reading: +- link: /integrations/google-cloud-run/ + tag: Documentación + text: Integración Google Cloud Run +- link: https://www.datadoghq.com/blog/collect-traces-logs-from-cloud-run-with-datadog/ + tag: Blog + text: Recopilar trazas (traces), logs y métricas personalizadas de servicios de + Cloud Run +- link: /serverless/google_cloud_run/containers/in_container/ + tag: Documentación + text: Instrumentar tu contenedor con la estrategia dentro-del-contenedor +- link: /serverless/google_cloud_run/containers/sidecar/ + tag: Documentación + text: Instrumentar tu contenedor con la estrategia del sidecar +- link: https://www.datadoghq.com/blog/instrument-cloud-run-with-datadog-sidecar/ + tag: Blog + text: Instrumentar aplicaciones de Google Cloud Run con el nuevo sidecar del Datadog + Agent +title: Elegir un método de instrumentación para contenedores +--- + +Para instrumentar tus contenedores Google Cloud Run con Datadog, elige una de las dos opciones: + +{{% gcr-container-options %}} + +- [**Dentro-del-contenedor**][1]: Envuelve tu contenedor de aplicaciones con el Datadog Agent. Elige esta opción para una configuración más sencilla, menos gastos generales y una canalización directa de logs. +- [**Sidecar**][2]: Despliega el Datadog Agent en un contenedor separado junto al contenedor de tu aplicación. Elige esta opción si tienes varios contenedores en un único servicio, si prefieres un aislamiento estricto del Datadog Agent o si tienes cargas de trabajo que responden al rendimiento. + +## Comparación: Instrumentación dentro-del-contenedor frente a la instrumentación con sidecar + +| Aspecto | Dentro-del-contenedor | Sidecar | +|-------------------------------|----------------------------------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------| +| Implementación | Un contenedor (tu aplicación, envuelta con el Datadog Agent) | Dos contenedores (tu aplicación, el Datadog Agent) | +| Cambios de imagen | Aumenta el tamaño de la imagen de la aplicación. | No hay cambios en la imagen de la aplicación. | +| Gastos generales | Menos que el sidecar (sin contenedor adicional). | Más vCPU/memoria. La sobreasignación del sidecar desperdicia costes, mientras que la infraasignación conduce a un escalado prematuro. | +| Generación de logs | Acceso directo stdout/stderr. | Enrutamiento de volumen compartido + biblioteca de logs a un archivo de log. Los errores no detectados requieren un tratamiento adicional, ya que no son gestionados automáticamente por tu biblioteca de generación de logs. | +| Aislamiento de fallos | En raras ocasiones, los errores del Datadog Agent pueden afectar a tu aplicación. | Los fallos del Datadog Agent están aislados. | +| Observación de varios contenedores | No compatible | Compatible | + + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/serverless/google_cloud_run/containers/in_container +[2]: /es/serverless/google_cloud_run/containers/sidecar \ No newline at end of file diff --git a/content/es/serverless/guide/_index.md b/content/es/serverless/guide/_index.md index 7552ae0adef49..ead3d2edd71b3 100644 --- a/content/es/serverless/guide/_index.md +++ b/content/es/serverless/guide/_index.md @@ -11,12 +11,13 @@ title: Guías de Serverless Monitoring ## Guías generales sobre las aplicaciones serverless -{{< whatsnext desc="Best practices for monitoring your serverless applications" >}} - {{< nextlink href="/serverless/guide/connect_invoking_resources" >}}Mayor visibilidad de los recursos que invocan funciones de Lambda{{< /nextlink >}} - {{< nextlink href="/serverless/guide/serverless_warnings" >}}Advertencias de las aplicaciones serverless{{< /nextlink >}} - {{< nextlink href="/serverless/guide/serverless_tagging" >}}Etiquetado serverless{{< /nextlink >}} - {{< nextlink href="/serverless/guide/agent_configuration" >}}Configuración del Agent{{< /nextlink >}} - {{< nextlink href="/serverless/guide/opentelemetry" >}}Serverless y OpenTelemetry{{< /nextlink >}} +{{< whatsnext desc="Prácticas recomendadas para la monitorización de tus aplicaciones sin servidor" >}} + {{< nextlink href="/serverless/guide/connect_invoking_resources" >}}Visibilidad detallada de los recursos que invocan funciones Lambda{{< /nextlink >}} + {{< nextlink href="/serverless/guide/serverless_warnings" >}}Advertencias sin servidor{{< /nextlink >}} + {{< nextlink href="/serverless/guide/serverless_tagging" >}}Etiquetado sin servidor{{< /nextlink >}} + {{< nextlink href="/serverless/guide/agent_configuration" >}}Configuración de Agent{{< /nextlink >}} + {{< nextlink href="/serverless/guide/opentelemetry" >}}Sin servidor y OpenTelemetry{{< /nextlink >}} + {{< nextlink href="/serverless/guide/disable_serverless" >}}Desactivar la monitorización sin servidor{{< /nextlink >}} {{< /whatsnext >}} {{< whatsnext desc="Azure App Service y Container Apps" >}} diff --git a/content/es/serverless/libraries_integrations/macro.md b/content/es/serverless/libraries_integrations/macro.md index f2a09db41c2d6..152a71d588524 100644 --- a/content/es/serverless/libraries_integrations/macro.md +++ b/content/es/serverless/libraries_integrations/macro.md @@ -14,7 +14,7 @@ La macro configura automáticamente la ingesta de métricas, traces (trazas) y l Para las funciones lambda, esta macro: -- Instala y configura la librería Datadog Lambda y Extensión Lambda para tus funciones Lambda [Python][1], [Node.js][2], [.NET][9] y [Java][10]. +- Instala y configura la biblioteca Datadog Lambda y Extensión Lambda para tus funciones Lambda [Python][1], [Node.js][2], [.NET][9] y [Java][10]. - Permite recopilar métricas de Lambda mejoradas y métricas personalizadas de tus funciones de Lambda. - Gestiona las suscripciones desde Datadog Forwarder a tus grupos de logs de la función Lambda, si lo deseas. @@ -124,8 +124,8 @@ También puedes especificar una versión de la macro de las últimas [versiones] Para configurar aún más tu macro, utiliza los siguientes parámetros personalizados: | Parámetro | Descripción | -| --------------------------- | ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | -| `addLayers` | Si se añaden las Lambda Layers o se espera que el usuario traiga las suyas propias. Por defecto es `true`. Cuando es `true`, también se requieren las variables de la versión de la librería Lambda. Cuando es `false`, debes incluir la librería Datadog Lambda en los paquetes de despliegue de tus funciones. | +|-----------------------------| ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | +| `addLayers` | Si se añaden las Lambda Layers o se espera que el usuario traiga las suyas propias. Por defecto es `true`. Cuando es `true`, también se requieren las variables de la versión de la biblioteca Lambda. Cuando es `false`, debes incluir la biblioteca Datadog Lambda en los paquetes de despliegue de tus funciones. | | `pythonLayerVersion` | Versión de la capa Lambda de Python a instalar, como "21". Es obligatorio si estás desplegando al menos una función Lambda escrita en Python y `addLayers` es `true`. Busca el último número de versión en [https://github.com/DataDog/datadog-lambda-python/releases][5]. | | `nodeLayerVersion` | Versión de la capa Node.js Lambda a instalar, como "29". Es obligatorio si estás desplegando al menos una función Lambda escrita en Node.js y `addLayers` es `true`. Busca el último número de versión en [https://github.com/DataDog/datadog-lambda-js/releases][6]. | | `dotnetLayerVersion` | Versión de la capa .NET Lambda a instalar, como "14". Es obligatorio si estás desplegando al menos una función Lambda escrita en .NET y `addLayers` es `true`. Busca el número de la última versión en [https://github.com/DataDog/dd-trace-dotnet-aws-lambda-layer/releases][9]. | @@ -142,7 +142,7 @@ Para configurar aún más tu macro, utiliza los siguientes parámetros personali | `apiKMSKey` | La clave de API de Datadog cifrada mediante KMS. Utiliza este parámetro en lugar de `apiKey` cuando `flushMetricsToLogs` sea `false` y estés utilizando el cifrado KMS. | | `enableEnhancedMetrics` | Habilita métricas mejoradas para funciones Lambda. En forma predeterminada es `true`. La función Datadog Forwarder Lambda debe suscribirse al grupo de logs de la función. | | `enableXrayTracing` | Habilita el rastreo en funciones Lambda. En forma predeterminada `false`. | -| `enableDDTracing` | Habilita el rastreo en la función Lambda a través de dd-trace, la librería de la APM de Datadog. El valor predeterminado es `true`. La función Datadog Forwarder Lambda debe suscribirse al grupo de logs de la función. | +| `enableDDTracing` | Habilita el rastreo en la función Lambda a través de dd-trace, la biblioteca de la APM de Datadog. El valor predeterminado es `true`. La función Datadog Forwarder Lambda debe suscribirse al grupo de logs de la función. | | `enableDDLogs` | Habilita la recopilación de logs de Datadog para la función Lambda. Esta configuración no tiene ningún efecto en los logs enviados a través de Datadog Forwarder. En forma predeterminada es `true`. | | `service` | Cuando se configura junto con `extensionLayerVersion`, la macro añade una variable de entorno `DD_SERVICE` a todas las funciones Lambda con el valor proporcionado. Cuando se configura junto con `forwarderArn`, la macro añade una etiqueta (tag) `service` a todas las funciones Lambda con el valor proporcionado. La macro también añade una etiqueta (tag) `service` a todas las máquinas de estado con el valor proporcionado. | | `env` | Cuando se configura junto con `extensionLayerVersion`, la macro añade una variable de entorno `DD_ENV` a todas las funciones Lambda con el valor proporcionado. Cuando se configura junto con `forwarderArn`, la macro añade una etiqueta (tag) `env` a todas las funciones Lambda con el valor proporcionado. La macro también añade una etiqueta (tag) `env` a todas las máquinas de estado con el valor proporcionado. | @@ -152,15 +152,16 @@ Para configurar aún más tu macro, utiliza los siguientes parámetros personali | `captureLambdaPayload` | Etiqueta automáticamente el tramo (span) de ejecución de la función con cargas útiles de solicitud y respuesta, para que puedan mostrarse en la aplicación de APM. | | `enableColdStartTracing` | Configúralo en `false` para desactivar el rastreo de inicio en frío. Se utiliza en Node.js y Python. Por defecto es `true`. | | `coldStartTraceMinDuration` | Configura la duración mínima (en milisegundos) para que un evento de carga de módulo se rastree a través del rastreo de arranques en frío. El valor predeterminado es `3`. | -| `coldStartTraceSkipLibs` | Opcionalmente, omite la creación de tramos (spans) de inicio en frío para una lista separada por comas de librerías. Es útil para limitar la profundidad u omitir bibliotecas conocidas. El valor por defecto depende del tiempo de ejecución. | +| `coldStartTraceSkipLibs` | Opcionalmente, omite la creación de tramos (spans) de inicio en frío para una lista separada por comas de bibliotecas. Es útil para limitar la profundidad u omitir bibliotecas conocidas. El valor por defecto depende del tiempo de ejecución. | | `enableProfiling` | Activa Datadog Continuous Profiler con `true`. Es compatible en Beta con Node.js y Python. Por defecto es `false`. | | `encodeAuthorizerContext` | Cuando se configura en `true` para los autorizadores de Lambda, el contexto de rastreo se codifica en la respuesta para la propagación. Compatible con Node.js y Python. En forma predeterminada es `true`. | | `decodeAuthorizerContext` | Cuando se configura en `true` para Lambdas que están autorizadas a través de autorizadores Lambda, analiza y utiliza el contexto de rastreo codificado (si se encuentra). Compatible con Node.js y Python. En forma predeterminada es `true`. | | `apmFlushDeadline` | Se utiliza para determinar cuándo enviar tramos antes de que se agote el tiempo, en milisegundos. Cuando el tiempo restante en una invocación de AWS lambda es inferior al valor configurado, el rastreador intenta enviar tramos activos actuales y todos los tramos finalizados. Es compatible con Node.js y Python. El valor por defecto es `100` milisegundos. | | `stepFunctionForwarderArn` | Cuando se configura, el reenvío se suscribe a todos los grupos de logs de la máquina de estados. Es necesario para instrumentar las funciones de step (UI) / paso (generic). | -| `llmObsEnabled` | Activar el envío de datos a LLM Observability. Por defecto `false`. | -| `llmObsMlApp` | El nombre de su aplicación LLM, servicio o project (proyecto), bajo el cual se agrupan todas las trazas y periodos. Esto ayuda a distinguir entre diferentes aplicaciones o experimentos. Consulte [Directrices de nomenclatura de aplicaciones](https://docs.datadoghq.com/llm_observability/sdk/?tab=nodejs#application-naming-guidelines) para conocer los caracteres permitidos y otras restricciones. Para anular este valor para una raíz dada span (tramo), consulte [Rastreo de múltiples aplicaciones](https://docs.datadoghq.com/llm_observability/sdk/?tab=nodejs#tracing-multiple-applications). Obligatorio si `llmObsEnabled` es `true` | -| `llmObsAgentlessEnabled` | Sólo es necesario si no está utilizando la extensión Lambda Datadog, en cuyo caso case (incidencia) debe establecerse en `true`. Por defecto `false`. | +| `llmObsEnabled` | Alterna para activar el envío de datos a LLM Observability. En forma predeterminada es `false`. | +| `llmObsMlApp` | El nombre de tu aplicación, servicio o project (proyecto) de LLM, en el cual se agrupan todas las traces (trazas) y spans (tramos). Esto ayuda a distinguir entre diferentes aplicaciones o experimentos. Consulta [Directrices de nomenclatura de aplicaciones](https://docs.datadoghq.com/llm_observability/sdk/?tab=nodejs#application-naming-guidelines) para conocer los caracteres permitidos y otras restricciones. Para sustituir este valor con un span (tramo) raíz dado, consulta [Rastreo de varias aplicaciones](https://docs.datadoghq.com/llm_observability/sdk/?tab=nodejs#tracing-multiple-applications). Es obligatorio si `llmObsEnabled` es `true` | +| `llmObsAgentlessEnabled` | Sólo es obligatorio si no utiilzas la extensión Lambda de Datadog, en cuyo caso debes configurar en `true`. En forma predeterminada, es `false`. | +| `lambdaFips` | Activa la compatibilidad de FIPS para la función lambda. En forma predeterminada, es `false`. | ## Solucionar problemas @@ -261,4 +262,4 @@ Si tienes preguntas o comentarios sobre el producto, únete al canal `#serverles [7]: https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-logs-subscriptionfilter.html [8]: https://docs.datadoghq.com/es/serverless/datadog_lambda_library/extension/ [9]: https://github.com/DataDog/dd-trace-dotnet-aws-lambda-layer/releases -[10]: https://github.com/DataDog/datadog-lambda-java/releases +[10]: https://github.com/DataDog/datadog-lambda-java/releases \ No newline at end of file diff --git a/content/es/serverless/libraries_integrations/plugin.md b/content/es/serverless/libraries_integrations/plugin.md index b6ae323a9db87..1521ab2e3ee19 100644 --- a/content/es/serverless/libraries_integrations/plugin.md +++ b/content/es/serverless/libraries_integrations/plugin.md @@ -3,7 +3,7 @@ aliases: - /es/serverless/serverless_integrations/plugin dependencies: - https://github.com/DataDog/serverless-plugin-datadog/blob/main/README.md -title: Complemento de Datadog Serverless Framework +title: Complemento de marco serverless de Datadog --- ![crear](https://github.com/DataDog/serverless-plugin-datadog/workflows/build/badge.svg) [![Cobertura del código](https://img.shields.io/codecov/c/github/DataDog/serverless-plugin-datadog)](https://codecov.io/gh/DataDog/serverless-plugin-datadog) @@ -11,11 +11,11 @@ title: Complemento de Datadog Serverless Framework [![Slack](https://chat.datadoghq.com/badge.svg?bg=632CA6)](https://chat.datadoghq.com/) [![Licencia](https://img.shields.io/badge/license-Apache--2.0-blue)](https://github.com/DataDog/serverless-plugin-datadog/blob/master/LICENSE) -Datadog recomienda el complemento de Severless Framework a los desarrolladores que utilicen el Serverless Framework para desplegar sus aplicaciones serverless. -El complemento habilita automáticamente la instrumentación para que las aplicaciones recopilen métricas, trazas (traces) y logs mediante: +Datadog recomienda el complemento de marco serverless a los desarrolladores que utilicen el marco serverless para desplegar sus aplicaciones serverless. +El complemento activa automáticamente la instrumentación para que las aplicaciones recopilen métricas, trazas (traces) y logs mediante: -- Instalación de la librería Datadog Lambda en tus funciones Lambda como una capa Lambda. -- Instalación de la extensión Datadog Lambda a tus funciones Lambda como una campa Lambda (`addExtension`) o la suscripción de Datadog Forwarder a los grupos de logs de tus funciones Lambda (`forwarderArn`). +- Instalación de la biblioteca Lambda Datadog en tus funciones Lambda como una capa Lambda. +- Instalación de la extensión Lambda Datadog a tus funciones Lambda como una capa Lambda (`addExtension`) o la suscripción de Datadog Forwarder a los grupos de logs de tus funciones Lambda (`forwarderArn`). - Realización de los cambios de configuración necesarios, como añadir variables de entorno o capas de rastreo adicionales, a tus funciones Lambda. ## Empezando @@ -26,7 +26,7 @@ Una vez finalizada la instalación, configura las [opciones avanzadas](https://d ## Actualización -Cada versión del complemento se publica con un [conjunto específico de versiones de Datadog Lambda Layers][15]. Para recoger las nuevas características y correcciones de errores proporcionadas por las últimas versiones de Datadog Lambda Layers, actualiza el complemento del marco serverless. Realiza un test de la nueva versión antes de aplicarla a tus aplicaciones de producción. +Cada versión del complemento se publica con un [conjunto específico de versiones de capas Lambda Datadog][15]. Para recoger las nuevas características y correcciones de errores proporcionadas por las últimas versiones de Datadog Lambda Layers, actualiza el complemento del marco serverless. Realiza un test de la nueva versión antes de aplicarla a tus aplicaciones de producción. ## Parámetros de configuración @@ -34,8 +34,8 @@ Para configurar más tu complemento, utiliza los siguientes parámetros personal | Parámetro | Descripción | | ----------------------------- |------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| -| `site` | Configura a qué sitio de Datadog se enviarán los datos, como `datadoghq.com` (por defecto), `datadoghq.eu`, `us3.datadoghq.com`, `us5.datadoghq.com`, `ap1.datadoghq.com` o `ddog-gov.com`. Este parámetro es necesario cuando se recopila telemetría utilizando la extensión Datadog Lambda. | -| `apiKey` | [Clave de la API de Datadog][7]. Este parámetro es necesario cuando se recopila telemetría utilizando la extensión Datadog Lambda. Como alternativa, también puedes configurar la variable de entorno `DATADOG_API_KEY` en tu entorno de despliegue. | +| `site` | Define el sitio de Datadog al que se enviarán los datos, como `datadoghq.com` (por defecto), `datadoghq.eu`, `us3.datadoghq.com`, `us5.datadoghq.com`, `ap1.datadoghq.com`, `ap2.datadoghq.com` o `ddog-gov.com`. Este parámetro es necesario cuando se recopila telemetría utilizando la extensión Lambda Datadog. | +| `apiKey` | [Clave de la API de Datadog][7]. Este parámetro es necesario cuando se recopila telemetría utilizando la extensión Lambda Datadog. Como alternativa, también puedes configurar la variable de entorno `DATADOG_API_KEY` en tu entorno de despliegue. | | `appKey` | Clave de la aplicación de Datadog. Solo es necesaria cuando el campo `monitors` está definido. Como alternativa, también puedes configurar la variable de entorno `DATADOG_APP_KEY` en tu entorno de despliegue. | | `apiKeySecretArn` | Una alternativa al uso del campo `apiKey`. El ARN del secreto que almacena la clave de la API de Datadog en AWS Secrets Manager. Recuerda añadir el permiso `secretsmanager:GetSecretValue` al rol de ejecución de Lambda. | | `apiKMSKey` | Una alternativa al uso del campo `apiKey`. Clave de la API de Datadog cifrada mediante KMS. Recuerda añadir el permiso `kms:Decrypt` al rol de ejecución de Lambda. | @@ -45,26 +45,27 @@ Para configurar más tu complemento, utiliza los siguientes parámetros personal | `tags` | Una lista separada por comas de pares `key`:`value` como una sola cadena. Cuando se configura junto con `extensionLayerVersion`, se añade una variable de entorno `DD_TAGS` a todas las funciones Lambda con el valor proporcionado. Cuando se configura junto con `forwarderArn`, el complemento analiza la cadena y configura cada par `key`:`value` como una etiqueta en todas las funciones Lambda. | | `enableXrayTracing` | Configura `true` para activar el rastreo X-Ray en las funciones Lambda y las integraciones de la API Gateway. Por defecto es `false`. | | `enableDDTracing` | Activa el rastreo de Datadog en las funciones Lambda. Por defecto es `true`. | -| `enableASM` | Activa [Datadog Application Security Management (ASM)][19] en la función Lambda. Necesita que la extensión Datadog esté presente (utilizando `addExtension` o añadida manualmente) y `enableDDTracing`. Por defecto es `false`. | +| `enableASM` | **Obsoleto**: Utiliza `appSecMode` en su lugar. Activa [Datadog App and API Protection][19] en la función Lambda. Requiere que la extensión Datadog esté presente (utilizaando `addExtension` o añadiéndola manualmente) y `enableDDTracing`. Por defecto es `false`. | +| `appSecMode` | Configura [Datadog App and API Protection][19]. Acepta `off`, `on`, `extension` y `tracer`. Para activar App and API Protection,, configura el valor como `on`. Los valores `on`, `extension` y `tracer` requieren `enableDDTracing`. Por defecto es `off`. Para obtener más información sobre las opciones `tracer` y `extension`, consulta [Activar App and API Protection en la aplicación](#enable-in-tracer-app-and-api-protection) | | `enableDDLogs` | Activa la recopilación de logs de Datadog mediante la extensión Lambda. Por defecto es `true`. Nota: Esta configuración no tiene ningún efecto en los logs enviados por el Datadog Forwarder . | -| `monitors` | Cuando se define, el complemento de Datadog configura monitors para la función desplegada. Requiere configurar `DATADOG_API_KEY` y `DATADOG_APP_KEY` en tu entorno. Para saber cómo definir monitors, consulta [Para activar y configurar un Monitor serverless recomendado](#to-enable-and-configure-a-recommended-serverless-monitor). | +| `monitors` | Cuando se define, el complemento de Datadog configura monitores para la función desplegada. Requiere configurar `DATADOG_API_KEY` y `DATADOG_APP_KEY` en tu entorno. Para saber cómo definir monitores, consulta [Para activar y configurar un monitor serverless recomendado](#to-enable-and-configure-a-recommended-serverless-monitor). | | `captureLambdaPayload` | [Captura las cargas útiles entrantes y salientes de AWS Lambda][17] en los tramos (spans) de APM de Datadog para invocaciones Lambda. Por defecto es `false`. | | `enableSourceCodeIntegration` | Activa la [Integración del código fuente Datadog][18] para la función. Por defecto es `true`. | | `uploadGitMetadata` | Activa la carga de metadatos Git para la función, como parte de la integración del código fuente. Configúralo en false si tienes instalada la integración de Datadog Github, ya que hace innecesaria la carga de metadatos Git. Por defecto es `true`. | | `subscribeToAccessLogs` | Activa la suscripción automática de Datadog Forwarder a los grupos de logs de acceso de API Gateway. Requiere la configuración de `forwarderArn`. Por defecto es `true`. | | `subscribeToExecutionLogs` | Activa la suscripción automática de Datadog Forwarder a los grupos de logs de API HTTP y Websocket. Requiere la configuración de `forwarderArn`. Por defecto es `true`. | | `forwarderArn` | El ARN de Datadog Forwarder que se suscribirá a los grupos de logs de Lambda o API Gateway. | -| `addLayers` | Si deseas instalar la librería de Datadog Lambda como una capa. Por defecto es `true`. Configúralo en `false` cuando planees empaquetar la librería Datadog Lambda al paquete de despliegue de tus funciones por tu cuenta para poder instalar una versión específica de la librería Datadog Lambda ([Python][8] o [Node.js][9]). | -| `addExtension` | Si se instala la extensión Datadog Lambda como capa. El valor por defecto es `true`. Cuando se activa, es necesario configurar `apiKey` y `site`. | +| `addLayers` | Si deseas instalar la biblioteca Lambda Datadog como una capa. Por defecto es `true`. Configúralo en `false` cuando planees empaquetar la biblioteca Lambda Datadog al paquete de despliegue de tus funciones por tu cuenta para poder instalar una versión específica de la biblioteca Lambda Datadog ([Python][8] o [Node.js][9]). | +| `addExtension` | Si se instala la extensión Lambda Datadog como capa. El valor por defecto es `true`. Cuando se activa, es necesario configurar `apiKey` y `site`. | | `exclude` | Cuando se configura, este complemento ignora todas las funciones especificadas. Utiliza este parámetro si tienes algunas funciones que no deban incluir la funcionalidad Datadog. Por defecto es `[]`. | | `enabled` | Cuando se configura en `false`, el complemento de Datadog permanece inactivo. Por defecto es `true`. Puedes controlar esta opción utilizando una variable de entorno. Por ejemplo, utiliza `enabled: ${strToBool(${env:DD_PLUGIN_ENABLED, true})}` para activar/desactivar el complemento durante el despliegue. Como alternativa, también puedes utilizar el valor pasado a través de `--stage` para controlar esta opción-[consulta el ejemplo](#disable-plugin-for-particular-environment). | | `customHandler` | Cuando se configura, el controlador especificado se configura como el controlador para todas las funciones. | | `failOnError` | Cuando se configura, este complemento genera un error si no se crea o actualiza algún monitor Datadog personalizado. Esto ocurre después del despliegue, pero hará que el resultado de `serverless deploy` devuelva un código de salida distinto de cero (para un error de la CI de usuario). Por defecto es `false`. | -| `logLevel` | El nivel del log, configurado en `DEBUG` para un registro extendido. | +| `logLevel` | Nivel de log de la extensión Lambda y las bibliotecas de seguimiento de Datadog. Configúralo como `DEBUG` para la generación de logs ampliada. No afecta a qué logs de usuarios se reenvían a Datadog. | | `skipCloudformationOutputs` | Se configura en `true` si deseas omitir añadir Datadog Cloudformation Outputs para tu stack. Esto es útil si se está ejecutando en el límite de 200 salidas que puede causar un error en la creación del stack. | | `enableColdStartTracing` | Se configura en `false` para desactivar el rastreo de inicio en frío. Se utiliza en NodeJS y Python. Por defecto es `true`. | | `coldStartTraceMinDuration` | Configura la duración mínima (en milisegundos) de un evento de carga de un módulo que se va a rastrear a través del rastreo de inicio en frío. Número. Por defecto es `3`. | -| `coldStartTraceSkipLibs` | Omite opcionalmente la creación de tramos de inicio en frío para un lista separada por comas de librerías. Es útil para limitar la profundidad u omitir bibliotecas conocidas. El valor por defecto depende del tiempo de ejecución. | +| `coldStartTraceSkipLibs` | Opcionalmente omitir la creación de tramos de inicio en frío para un lista separada por comas de bibliotecas. Útil para limitar la profundidad u omitir bibliotecas conocidas. El valor por defecto depende del tiempo de ejecución. | | `subdomain` | Configura el subdominio opcional que se utilizará para las URL de las aplicaciones que se imprimen en la salida. Por defecto es `app`. | | `enableProfiling` | Activa el Datadog Continuous Profiler con `true`. Es compatible en Beta con NodeJS y Python. Por defecto es `false`. | | `encodeAuthorizerContext` | Cuando se configura en `true` para los autorizadores Lambda, el contexto de rastreo se codificará en la respuesta para la propagación. Compatible con NodeJS y Python. Por defecto es `true`. | @@ -73,6 +74,11 @@ Para configurar más tu complemento, utiliza los siguientes parámetros personal | `enableStepFunctionsTracing` | Activa la suscripción automática de los grupos de logs de Datadog Forwarder a Step Functions y el rastreo de Step Functions. Si no hay grupos de logs de Step Functions configurados, se crearán automáticamente. Requiere la configuración de `forwarderArn`. Por defecto es `false`. | | `propagateUpstreamTrace` | Cuando se configura en `true`, las trazas de invocaciones de Stepfunction aguas abajo se fusionan con las invocaciones de Stepfunction aguas arriba. Por defecto es `false`. | | `redirectHandlers` | Opcionalmente desactiva la redirección del controlador si se configura en `false`. Esto solo debe configurarse en `false` cuando APM está totalmente desactivada. Por defecto es `true`. | +| `isFIPSEnabled` | Cuando se configura como `true`, se utiliza una capa de extensión Lambda compatible con FIPS. Esto solo funciona si `addExtension` es `true`. Por defecto es `true` si `addExtension` es `true` y la región AWS empieza por `us-gov-`. En caso contrario, el valor por defecto es `false`. | +| `llmObsEnabled` | Activar el envío de datos a LLM Observability. Por defecto es `false`. | +| `llmObsMlApp` | El nombre de tu aplicación, servicio o proyecto LLM, bajo el cual se agrupan todas las trazas (traces) y tramos (spans). Esto ayuda a distinguir entre diferentes aplicaciones o experimentos. Consulta [Instrucciones de nomenclatura de aplicaciones](https://docs.datadoghq.com/llm_observability/sdk/?tab=nodejs#application-naming-guidelines) para ver los caracteres permitidos y otras restricciones. Para anular este valor para un tramo raíz dado, consulta [Rastreo de múltiples aplicaciones](https://docs.datadoghq.com/llm_observability/sdk/?tab=nodejs#tracing-multiple-applications). Obligatorio si `llmObsEnabled` es `true`. | +| `llmObsAgentlessEnabled` | Solo es obligatorio si no estás utilizando la extensión Lambda Datadog, en cuyo caso debe configurarse como `true`. Por defecto es `false`. | + Para utilizar cualquiera de estos parámetros, añade una sección `custom` > `datadog` a tu `serverless.yml` similar a este ejemplo: ```yaml @@ -125,9 +131,9 @@ custom: ### Serverless Monitors -Hay siete monitors recomendados con valores por defecto preconfigurados. +Hay siete monitores recomendados con valores por defecto preconfigurados. -| Monitor | Métricas | Umbral | ID de Serverless Monitor | +| Monitor | Métricas | Umbral | ID de monitor serverless | | :------------------: | :--------------------------------------------------------------------------------------: | :--------: | :--------------------: | | Alto porcentaje de errores | `aws.lambda.errors`/`aws.lambda.invocations` | >= 10 % | `high_error_rate` | | Tiempo de espera | `aws.lambda.duration.max`/`aws.lambda.timeout` | >= 1 | `timeout` | @@ -137,17 +143,17 @@ Hay siete monitors recomendados con valores por defecto preconfigurados. | Limitaciones altas | `aws.lambda.throttles`/`aws.lambda.invocations` | >= 20 % | `high_throttles` | | Mayores costos | `aws.lambda.enhanced.estimated_cost` | ↑20 % | `increased_cost` | -#### Para activar y configurar un Serverless Monitor recomendado +#### Para activar y configurar un monitor serverless recomendado -Para crear un Monitor recomendado, debes utilizar tu respectivo ID de Serverless Monitor. Ten en cuenta que también debes configurar las `DATADOG_API_KEY` y `DATADOG_APP_KEY` en tu entorno. +Para crear un monitor recomendado, debes utilizar tu respectivo ID de monitor serverless. Ten en cuenta que también debes configurar las `DATADOG_API_KEY` y `DATADOG_APP_KEY` en tu entorno. -Si deseas configurar más los parámetros de un Monitor recomendado, puedes definir directamente los valores de los parámetros en el ID del Serverless Monitor. Los parámetros no especificados en un Monitor recomendado utilizarán el valor por defecto recomendado. El parámetro `query` para monitors recomendados no se puede modificar directamente y utilizará por defecto el valor de `query` definido anteriormente; sin embargo, puedes cambiar el valor umbral en `query` redefiniéndolo dentro del parámetro `options`. Para eliminar un Monitor, elimina el Monitor de la plantilla `serverless.yml`. Para hallar más documentación sobre cómo definir los parámetros de Monitors, consulta la [API de Datadog Monitors](https://docs.datadoghq.com/api/latest/monitors/#create-a-monitor). +Si quieres configurar aún más los parámetros de un monitor recomendado, puedes definir directamente los valores de los parámetros en el ID del monitor serverless. Los parámetros no especificados de un monitor recomendado utilizan el valor por defecto recomendado. El parámetro `query` de monitores recomendados no se puede modificar directamente y utiliza por defecto el valor de `query` definido anteriormente, aunque puedes cambiar el valor del umbral en `query`, redefiniéndolo dentro del parámetro `options`. Para eliminar un monitor, elimina el monitor de la plantilla `serverless.yml`. Para ver más documentación sobre cómo definir los parámetros de monitor, consulta la [API de monitor de Datadog](https://docs.datadoghq.com/api/latest/monitors/#create-a-monitor). La creación de un Monitor se produce después del despliegue de la función. En el caso de que no se consiga crear un Monitor, la función seguirá desplegándose correctamente. -##### Para crear un Monitor recomendado con los valores por defecto +##### Para crear un monitor recomendado con los valores por defecto -Define el ID apropiado del serverless monitor sin especificar ningún valor de parámetro. +Define el ID del monitor serverless apropiado sin especificar ningún valor de parámetro. ```yaml custom: @@ -157,34 +163,34 @@ custom: - high_error_rate: ``` -##### Para configurar un Monitor recomendado +##### Para configurar un monitor recomendado ```yaml -personalizado: +custom: datadog: addLayers: true monitors: - high_error_rate: - nombre: "High Error Rate with Modified Warning Threshold" - mensaje: "More than 10% of the function’s invocations were errors in the selected time range. Notify @data.dog@datadoghq.com @slack-serverless-monitors" - etiquetas: ["modified_error_rate", "serverless", "error_rate"] + name: "High Error Rate with Modified Warning Threshold" + message: "More than 10% of the function's invocations were errors in the selected time range. Notify @data.dog@datadoghq.com @slack-serverless-monitors" + tags: ["modified_error_rate", "serverless", "error_rate"] require_full_window: true - prioridad: 2 - opciones: + priority: 2 + options: include_tags: true notify_audit: true - Umbrales: - advertencia: 0.05 - crítico: 0.1 + thresholds: + warning: 0.05 + critical: 0.1 ``` ##### Para eliminar un Monitor -Al eliminar el identificador del serverless Monitor y sus parámetros se eliminará el Monitor. +Al eliminar el ID del monitor serverless y sus parámetros se eliminará el monitor. #### Para activar y configurar un Monitor personalizado -Para definir un Monitor personalizado, debes definir una cadena de ID única de serverless Monitor, además de pasar la clave de la API y la clave de la aplicación, `DATADOG_API_KEY` y `DATADOG_APP_KEY`, en tu entorno. El parámetro `query` es obligatorio, pero todos los demás parámetros son opcionales. Define una cadena de ID única de serverless Monitor y especifica los parámetros necesarios a continuación. Para hallar más documentación sobre los parámetros de Monitor, consulta la [API de Datadog Monitors](https://docs.datadoghq.com/api/latest/monitors/#create-a-monitor). +Para definir un monitor personalizado, debes definir una cadena única de ID de monitor serverless, además de pasar la clave de la API y la clave de la aplicación, `DATADOG_API_KEY` y `DATADOG_APP_KEY`, en tu entorno. El parámetro `query` es obligatorio, pero todos los demás parámetros son opcionales. Define una cadena única de ID de monitor serverless y especifica los parámetros necesarios a continuación. Para hallar más documentación sobre los parámetros de Monitor, consulta la [API de Datadog Monitors](https://docs.datadoghq.com/api/latest/monitors/#create-a-monitor). ```yaml personalizado: @@ -208,6 +214,21 @@ personalizado: crítico: 3 ``` +### Activar App and API Protection en el rastreador + +La [biblioteca Lambda Datadog para Python][8] (versión `8.114.0` o posterior) puede ejecutar [App and API Protection][19] en tu función, proporcionando al motor de seguridad más contexto sobre solicitudes. Esto complementa el enfoque dentro de la extensión, proporcionado por la [extensión Lambda Datadog][12]. Pronto habrá compatibilidad con otros tiempos de ejecución. + +`appSecMode` controla qué implementación ejecuta: + +* **`on` (recomendado):** Activa App and API Protection. + - Si utilizas un tiempo de ejecución compatible y las capas proporcionadas por el complemento (`addLayers: true`), activa la implementación de la biblioteca. + - Para otros tiempos de ejecución, activa la implementación de la **extensión**. +* **`tracer`:** Fuerza la implementación de la biblioteca. Cada función debe ser Python y utilizar la biblioteca Python en la versión `8.114.0` o más reciente. +* **`extension`:** Fuerza la implementación de la **extensión**, incluso si existe una biblioteca compatible. +* **`off`:** Desactiva App and API Protection. + + + ## Cambios de última hora [**v5.0.0**](https://github.com/DataDog/serverless-plugin-datadog/releases/tag/v5.0.0) @@ -217,7 +238,7 @@ personalizado: [**v4.0.0**](https://github.com/DataDog/serverless-plugin-datadog/releases/tag/v4.0.0) -- La extensión Datadog Lambda es ahora el mecanismo por defecto para transmitir telemetría a Datadog. +- La extensión Lambda Datadog es ahora el mecanismo por defecto para transmitir telemetría a Datadog. ## Trabajar con serverless-plugin-warmup Esta biblioteca es compatible en el mayor esfuerzo con [serverless-plugin-warmup](https://github.com/juanjoDiaz/serverless-plugin-warmup). Si deseas excluir la función del calentador de Datadog, utiliza la función `exclude` de este biblioteca. @@ -233,7 +254,7 @@ plugins: Si encuentras un error en este paquete, ¡háznoslo saber presentando una incidencia! Antes de abrir un nuevo problema, busca los problemas existentes para evitar duplicaciones. -Cuando abras un problema, incluye tu versión de Serverless Framework, Python/Node.js y la traza del stack si está disponible. También, incluye los pasos para la reproducción cuando corresponda. +Cuando abras un problema, incluye tu versión de marco serverless, Python/Node.js y la traza del stack si está disponible. También, incluye los pasos para la reproducción cuando corresponda. También puedes abrir un problema para solicitar una función. @@ -269,4 +290,4 @@ Este producto incluye el software desarrollado en Datadog ( **Incidents** (incidentes) > **Settings** (Configuración) > **Integrations** (Integraciones)][3] para activar las capacidades de Slack para Incident Management. + +## Declarar incidentes desde Slack + +Cuando conectas un espacio de trabajo de Slack a una organización de Datadog, los usuarios del espacio de trabajo pueden utilizar los accesos directos de Slack relacionados con Incident Management. + +Puedes declarar un incident (incidente) con el siguiente comando de barra oblicua: + +``` +/datadog incident +``` + +Para declarar un incident (incidente) desde un mensaje de Slack, sitúa el cursor sobre el mensaje, haz clic en **More actions** (Más acciones) (los tres puntos verticales) y selecciona **Declare incident** (Declarar incidente). Datadog publica un mensaje en el hilo del mensaje que confirma la creación del incident (incidente). + +En forma predeterminada, solo los usuarios de Slack conectados a una organización de Datadog pueden declarar incidentes. Los usuarios de Slack pueden conectarse a una organización de Datadog mediante la ejecución de `/datadog connect`. + +Para permitir que cualquier usuario de Slack en el espacio de trabajo declare incidentes, activa **Permitir que los usuarios de Slack declaren incidentes sin una cuenta de Datadog conectada** en la configuración de Incident Management. + +## Canales de incident (incidente) + +Puedes configurar Incident Management para crear automáticamente un canal de Slack dedicado para cada incident (incidente) que cumpla los criterios que definas. A continuación, tus respondedores pueden gestionar el incident (incidente) directamente en Slack desde el canal de incident (incidente). + +Para utilizar los canales de incident (incidente), ve a [**Incidents** (Incidentes) > **Settings** (Configuración) > **Integrations** (Integraciones)][3] y activa **Create Slack channels for incidents** (Crear canales de Slack para incidentes). + +La **plantilla de nombre de canal** que definas determina cómo Datadog nombra los incident (incidente) channels que creas. Las siguientes variables están disponibles en las plantillas de nombres de canales: + +* `{{public_id}}`: Identificador numérico del incident (incidente) +* `{{title}}`: título del incident (incidente) +* `{{created}}`: fecha de recreación del incident (incidente) en formato MM_DD_AAAA +* `{{yyyy}}`: año de creación de cuatro dígitos del incident (incidente) +* `{{mm}}`: mes de creación de dos dígitos del incident (incidente) +* `{{dd}}`: día de creación de dos dígitos del mes del incident (incidente) +* `{{random_adjective}}`: Adjetivo aleatorio +* `{{random_noun}}`: Sustantivo aleatorio + + +### Sincronización de mensajes (reflejo de Slack) + +Tras activar la creación automática de canales, puedes configurar Incident Management para sincronizar los mensajes entre un canal de Slack de incident (incidente) y la línea de tiempo del incident (incidente) en Datadog. + +Para activar la sincronización, activa **Insertar mensajes de canales de Slack en la línea de tiempo de incident (incidente)** en la configuración de Incident Management y, a continuación, selecciona una de las siguientes opciones: + +* **Refleja todos los mensajes en tiempo real**: Datadog sincroniza todos los mensajes publicados por los usuarios de Slack en el canal de incident (incidente). +* **Insertar un mensaje cuando se añade 📌 como reacción**: Datadog sincroniza los mensajes sólo cuando los usuarios de Slack reaccionan a ellos con marcadores (📌). + +Para ambas opciones, no es necesario que el autor de un mensaje esté conectado a la organización de Datadog para que Datadog sincronice el mensaje. En el caso de los mensajes anclados, el autor **debe** estar conectado a la organización de Datadog para que el mensaje anclado se sincronice. + +En organizaciones con facturación Incident Managment en función del uso + +* La autoría de un mensaje que se sincroniza con Datadog **no** te convierte en usuario facturable para el mes en curso. +* Anclar un mensaje que luego se sincroniza **te convierte en usuario facturable**. + +En organizaciones con facturación de Incident Management en función del puesto: + +* **No** es necesario que dispongas de un puesto para que Datadog sincronice tus mensajes con Incident Management. +* Cuando anclas un mensaje, **debes** tener un puesto para que Datadog sincronice el mensaje que has anclado. + +### Comandos de Slack en el canal de incident (incidente) + +En un canal incident (incidente) de Slack, puedes ejecutar comandos de Slack para modificar los estados y la gravedad del incident (incidente), asignar roles del respondedor, paginar equipos de guardia y mucho más. + +Para obtener una lista completa de los comandos de Slack, consulta [comandos de Slack](#slack-commands). + +### Otras opciones de configuración del canal de incident (incidente) + +Accede a todas las opciones de configuración de Slack en Incident Management a través de la page (página) [**Incidents** (Incidentes) > **Settings** (Configuración) > **Integrations** (Integraciones)][3]. + +| Función | Descripción y notas | +|-----------------------------------------------------------|-------------------------------------------------------------------------------------------------------------------------------------------------| +| **Enviar mensajes de línea de tiempo de incident (incidente) a Slack** | Envía automáticamente las actualizaciones de la línea de tiempo de incident (incidente) desde Datadog al canal de Slack.

Mantiene a los participantes del canal sincronizados con las actualizaciones de Datadog. | +| **Añadir enlaces importantes a los marcadores del canal** | Publica enlaces relacionados con incidents (incidentes) en los marcadores del canal de Slack.

Proporciona un cómodo acceso a los recursos. | +| **Añadir miembros del equipo automáticamente** | Cuando se añade un equipo de Datadog al incident (incidente), sus miembros se añaden al canal de Slack. | +| **Envía actualizaciones de incident (incidente) al canal Slack** | Actualiza el tema del canal con el estado, la gravedad y el responsable del incident (incidente). | +| **Enviar una notificación de Slack cuando comience una reunión** | Notifica al canal de Slack cuando se inicie una reunión, con los participantes y un enlace para unirse.

Proporciona un cómodo acceso a las llamadas de incident (incidente). | +| **Activar Bits AI en canales de incident (incidente) de Slack** | Activa funciones de IA que utilizan el contexto de incident (incidente) de Datadog.

Se aplica a todos los tipos de incident (incidente) en el espacio de trabajo de Slack seleccionado. | +| **Archivar automáticamente los canales de Slack tras la resolución** | Archiva canales de incident (incidente) de Slack una vez resuelto el incident (incidente).

Ayuda a reducir el desorden en los canales. | + +## Canal mundial de actualizaciones de incidents (incidentes) + +Puedes configurar Incident Management para que publique automáticamente actualizaciones sobre incidentes en un canal de Slack seleccionado. Para activarlo: + +1. En Datadog, ve a [**Incidents** (Incidentes) > **Settings** (Configuración) > **Integraions** (Integraciones][3]. +1. En la sección Slack, activa **Enviar todas las actualizaciones de incident (incidente) a un canal global**. +1. Selecciona el espacio de trabajo de Slack y el canal de Slack donde deseas que se publiquen las actualizaciones de incidencias. + +Datadog notifica automáticamente al canal seleccionado los nuevos incidentes declarados, así como los cambios en los estados de incident (incidente), las gravedades y los responsables del incident (incidente). + +Bajo la superficie, esta función es una [regla de notificación integrada y oculta de incident (incidente)][5]. Si deseas personalizar el mensaje o sus desencadenantes, desactívala y define tu propia regla de notificación. + +## Comandos de Slack + +Puedes consultar la lista completa de comandos disponibles en Slack en cualquier momento escribiendo `/dd help` o `/datadog help` en Slack. Esto abrirá la referencia del comando directamente en tu espacio de trabajo de Slack. Para abrir la bandeja acción para acciones de gestión comunes de incident (incidente), escribe `/datadog`. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
CategoríaComandoDescripción
Comandos globales (se ejecutan en cualquier lugar)/datadog incidentDeclara un nuevo incident (incidente).
/datadog incident testDeclara un nuevo test de incident (incidente) (si los incidentes de test están activados para el tipo de incident (incidente) ).
/datadog incident listEnumera todos los incidentes abiertos (activos y estables).
Comandos de canales de incident (incidente)/datadogAbre la bandeja de acción de incident (incidente) para realizar acciones comunes.
/datadog incident updateActualiza el estado del incident (incidente), la gravedad u otro atributo del incident (incidente).
/datadog incident notifyNotifica a @-handles sobre el incident (incidente).
/datadog incident privateHacer privado el incident (incidente) (si los incidentes privados están activados).
/datadog incident (incidente) respondersGestiona el equipo de respuesta de incident (incidente)(añade respondedores y asigna roles de respondedor).
/datadog taskCrea una nueva tarea de incident (incidente).
/datadog task listLista las tareas existentes en el incident (incidente).
+ + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/integrations/slack/ +[2]: /es/integrations/slack/?tab=datadogforslack +[3]: https://app.datadoghq.com/incidents/settings#Integrations +[4]: /es/integrations/jira/ +[5]: /es/service_management/incident_management/incident_settings/notification_rules/ +[6]: /es/integrations/slack/?tab=datadogforslack#permissions \ No newline at end of file diff --git a/content/es/service_management/on-call/schedules.md b/content/es/service_management/on-call/schedules.md index da4553ea77511..283e940fd62b2 100644 --- a/content/es/service_management/on-call/schedules.md +++ b/content/es/service_management/on-call/schedules.md @@ -103,6 +103,13 @@ Si tienes problemas al exportar los datos de tu cronograma On-Call a Google Cale - Cambia `webcal://` por `http://` o `https://` al principio de la URL. Por ejemplo, cambia `webcal://` por `http://`. +### Gestión de las bajas de usuarios + +Cuando los miembros del equipo abandonan tu organización, no se eliminan automáticamente de los horarios de On-Call: + +- **Horario de la membresía**: los usuarios dados de baja permanecen en los horarios de On-Call hasta que se eliminan manualmente. Debes actualizar los horarios para eliminar a los antiguos miembros del equipo y reasignar sus turnos. +- **Notificaciones**: si se desactiva la cuenta de Datadog de un usuario, este deja de recibir notificaciones de On-Call (como SMS, correo electrónico y notificaciones push), aunque siga asignado a turnos programados. + ## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/service_management/status_pages/_index.md b/content/es/service_management/status_pages/_index.md index dde72bd562e37..e2924f83229d5 100644 --- a/content/es/service_management/status_pages/_index.md +++ b/content/es/service_management/status_pages/_index.md @@ -1,123 +1,151 @@ --- further_reading: +- link: https://www.datadoghq.com/blog/status-pages + tag: Blog + text: Mantener informados a las partes interesadas con las páginas de estado de + Datadog - link: service_management/incident_management/ tag: Documentación text: Obtén más información sobre la gestión de incidencias - link: service_management/on-call/ tag: Documentación text: Más información sobre la programación de guardias +- link: service_management/incident_management/integrations/status_pages + tag: Documentación + text: Integrar las páginas de estado de Datadog con Incident Management title: Páginas de estado --- -{{< callout url="https://www.datadoghq.com/product-preview/status-pages/">}} -Páginas de estado está en Vista Previa. -{{< /callout >}} - ## Información general -{{< img src="service_management/status_pages/shopist_status_page_example.png" alt="Ejemplo de page (página) de estado en la que se muestran componentes de servicios con su estado actual y actualizaciones recientes de incident (incidente)" style="width:100%;" >}} +{{< img src="service_management/status_pages/shopist_status_page.png" alt="Ejemplo de página de estado en la que se muestran componentes de servicios con su estado actual y actualizaciones de incidentes recientes" style="width:100%;" >}} -Las páginas de estado forman parte de la serie de respuestas a incidents (incidentes) de Datadog, junto con On-Call e Incident Management. Permiten a tu equipo comunicar de forma proactiva la **disponibilidad del servicio**, **incidents (incidentes)** y **actualizaciones de mantenimiento** a clientes o partes interesadas internas a través de una page (página) web compartible. +Las páginas de estado forman parte de la serie de respuestas a incidentes de Datadog, junto con On-Call e Incident Management. Permiten a tu equipo comunicar de forma proactiva la **disponibilidad del servicio** y los **incidentes** a clientes o partes interesadas internas a través de una página web compartible. Utiliza las páginas de estado para: * Compartir la disponibilidad de sistemas y funciones críticos * Comunicar claramente las interrupciones del servicio durante los incidents (incidentes) -* Reducir el volumen de asistencia entrante con actualizaciones proactivas +* Reduzca el volumen de asistencia entrante con notificaciones proactivas por correo electrónico -## Configurar permisos +## Configurar permisos Hay tres permisos RBAC que son relevantes para las páginas de estado. Los usuarios con el rol de administrador de Datadog tienen todos los permisos necesarios. Para crear, actualizar o publicar páginas de estado, debes tener permisos RBAC `status_pages_settings_read`, `status_pages_settings_write` y `status_pages_incident_write`. Para obtener más información, consulta [Control de acceso][1]. -| Nombre | Descripción | Función predeterminada | -| :---- | :---- | :---- | -| Configuración de lectura de las páginas de estado (`status_pages_settings_read`) | Mira la lista de páginas de estado, la configuración de cada página de estado, sus incidents (incidentes) y las páginas de estado privadas lanzadas. | Rol de sólo lectura de Datadog | -| Configuración de escritura de las páginas de estado (`status_pages_settings_write`) | Crea e inicia nuevas páginas de estado y configure los parámetros de las páginas de estado. | Rol de administrador de Datadog | -| Escritura de incidents (incidentes) de páginas de estado (`status_pages_incident_write`) | Publicar y actualizar incidents (incidentes). | Rol de administrador de Datadog | + + + + + + + + + + + + + + + + + + + + + + + + + +
NombreDescripcionRol predeterminado
Configuración de lectura de las páginas de estado
status_pages_settings_read
Visualiza la lista de páginas de estado, los parámetros de cada página de estado, sus incidentes y las páginas de estado internas iniciadasRol de solo lectura de Datadog
Configuración de escritura de las páginas de estado
status_pages_settings_write
Crea e inicia nuevas páginas de estado y configura los parámetros de las páginas de estado.Rol de administrador de Datadog
Escritura de avisos de páginas de estado
status_pages_incident_write
Publica y actualiza incidentes.Rol de administrador de Datadog
## Crear una página de estado -1. En Datadog, ve a [**Service Management (gestión de servicios) > Páginas de estado**][2]. +1. En Datadog, ve a [**Service Management > Status Pages** (Gestión de servicios > Páginas de estado)][2]. 1. Haz clic en **Crear página de estado** y sigue el flujo de incorporación: | Campo | Descripción | | ----------------- | ----------- | - | **Visibilidad** | Selecciona quién puede acceder a la Page (página):
- **Pública** - Cualquiera con el enlace puede ver
- **Privada** - Sólo los usuarios autentificados en tu organización Datadog pueden ver | - | **Nombre de page (página)** | Se muestra como encabezado de la page (página) (si no se carga ningún logotipo).
*Ejemplo: Acme Cloud Platform* | - | **Prefijo de dominio** | Se utiliza como prefijo de subdominio de tu page (página) de estado.
*Ejemplo: shopist → shopist.status.datadoghq.com*
- Debe ser **globalmente único**
- En minúsculas, alfanumérico y con guión
- Puede afectar a los enlaces si se cambia posteriormente |. - | **Logotipo de la empresa o Favicon** *(opcional)* | Carga un logotipo o favicon para personalizar la apariencia de tu page (página) de estado | + | **Tipo de página de estado** | Elige quién puede acceder a la página:
- **Público** - Cualquiera con el enlace puede visualizar
- **Interno** - Solo usuarios autentificados de tu organización Datadog pueden visualizar | + | **Nombre de la página** | Se muestra como encabezado de la página (si no se carga ningún logotipo).
*Ejemplo: Acme Cloud Platform* | + | **Prefijo de dominio** | Se utiliza como prefijo de subdominio de tu página de estado. Para obtener más información sobre dominios personalizados, consulta la sección [Configurar un dominio personalizado](#set-a-custom-domain).
*Ejemplo: shopist → shopist.statuspage.datadoghq.com*
- Debe ser **globalmente único**
- En minúsculas, alfanumérico y con guión
- Puede afectar a los enlaces si se cambia posteriormente |. + | **Suscripciones** *(opcional)* | Permite a los usuarios recibir notificaciones por correo electrónico sobre actualizaciones de páginas de estado. Cuando las suscripciones están activadas, los usuarios pueden registrarse para recibir notificaciones sobre nuevos avisos y actualizaciones. Puedes activar o desactivar las suscripciones para cada página de estado. **Nota**: Las [suscripciones por correo electrónico](#email-subscriptions) son de doble opción, el correo electrónico debe ser confirmado. | + | **Logotipo de la empresa, favicon o imagen de cabecera de correo electrónico** *(opcional)* | Carga un logotipo, favicon o imagen para personalizar el aspecto de tu página de estado y las notificaciones por correo electrónico. | 1. (Opcional) [Añadir componentes](#add-components) para mostrar el estado de los servicios individuales. 1. Haz clic en **Guardar parámetros** -
Una página de estado no está en tiempo real después de guardar tus parámetros. Para que la page (página) esté disponible, publica tu página de estado.
+
Una página de estado no está en tiempo real después de guardar tus parámetros. Para que la página esté disponible, publica tu página de estado.
## Añadir componentes {{< img src="/service_management/status_pages/status_page_components.png" alt="Configuración de componentes de la página de estado con el panel de vista previa en tiempo real" style="width:100%;" >}} -Los componentes son los bloques de construcción de tu Page (página) de estado. Cada uno de ellos representa un servicio o función que les interesa a los usuarios. Algunos ejemplos de componentes son: -- Puerta de acceso de API -- Dashboard web -- Clúster de bases de datos +Los componentes son los bloques de construcción de tu página de estado. Cada uno de ellos representa un servicio o función que les interesa a los usuarios. Algunos ejemplos de componentes son: +- API Gateway +- Dashboard web +- Clúster de bases de datos - Servicios para la región de EE.UU. -Puedes añadir componentes a tu page (página) de estado, ya sea en la configuración inicial o a través de los parámetros de la página de estado: +Puedes añadir componentes a tu página de estado, ya sea en la configuración inicial o a través de los parámetros de la página de estado: -1. Desde tu page (página) de estado, haz clic en **Configuración** y selecciona la pestaña **Componentes**. -1. Crea componentes individuales o un grupo de componentes relacionados. Puede asociar [incidentes](#add-an-incident) a estos componentes para reflejar el efecto en tu page (página) de estado. -1. Selecciona un tipo de visualización: - 1. Barras y porcentaje de tiempo de actividad - 1. Sólo barras - 1. Sólo nombre del componente +1. Desde tu página de estado, haz clic en **Settings** (Parámetros) y selecciona la pestaña **Components** (Componentes). +1. Crea componentes individuales o un grupo de componentes relacionados. Puedes asociar [avisos](#add-a-notice) a estos componentes para reflejar el impacto en tu página de estado. +1. Selecciona un tipo de visualización: + 1. Barras y porcentaje de tiempo de actividad + 1. Solo barras + 1. Solo nombre del componente -## Publica tu page (página) de estado +## Publicar tu página de estado -Después de guardar la configuración de tu Page (página) de estado, haz clic en **Lanzar page (página) de estado** para que la page (página) esté disponible en tu URL. +Después de guardar la configuración de tu página de estado, haz clic en **Launch Status Page** (Iniciar página de estado) para que la página esté disponible en tu URL. Si has seleccionado: -- **Pública**, la page (página) es inmediatamente accesible a todos los visitantes. -- **Privada**, el acceso está limitado a los usuarios autentificados en tu organización Datadog. - -## Añade un incident (incidente) +- **Público**, la página es inmediatamente accesible a todos los visitantes. +- **Interno**, el acceso está limitado a los usuarios autentificados de Datadog de tu organización. -
Los incidents (incidentes) publicados en las páginas de estado no son los mismos que los incidentes declarados en Incident Management de Datadog. Los incidentes de las páginas de estado son mensajes cuidadosamente elaborados que se publican en un sitio web público para comunicar el estado del sistema y pueden englobar varios incidentes internos de Incident Management.
+## Añadir un aviso -Cuando surja un problema, puedes comunicarlo claramente a través de tu página de estado. +Los avisos en las páginas de estado son mensajes cuidadosamente elaborados que se publican en un sitio web público para comunicar el estado del sistema. Cuando surge un problema, puedes comunicarlo claramente a través de tu página de estado. -1. Desde una página de estadeo, haz clic en **Publicar incident (incidente)** para abrir un modal "Publicar incident (incidente) de página de estado" y proporcionar: +1. Desde una página de estado, haz clic en **Publish Notice** (Publicar aviso) para abrir un modal "Publish Status Page Notice" (Publicar aviso de página de estado) y proporciona: | Campo | Descripción | | ---- | ---- | | **Título** | Descripción breve y clara del incident (incidente)
*Ejemplo: Aumento del porcentaje de errores en la región de EE.UU.* | | **Estado** | Estado actual del incident (incidente):
- Investigando
- Identificado
- Monitorizando
- Resuelto | | **Mensaje** *(opcional)* | Detalles adicionales para tus usuarios
*Ejemplos: causa conocida, tiempo de resolución esperado* | - | **Componentes afectados** | Uno o más componentes afectados por el incident (incidente) | + | **Componentes afectados** | Uno o más componentes afectados por el incidente | | **Efecto** | Nivel de efecto por componente:
- Operativo
- Rendimiento degradado
- Interrupción parcial
- Interrupción grave | -1. Haz clic en **Publicar incident (incidente)**. + | **Notificar a los suscriptores** | Alternar para enviar el aviso a los suscriptores | +1. Haz clic en **Publish Notice** (Publicar aviso). -{{< img src="/service_management/status_pages/publish_status_page_incident.png" alt="Captura de pantalla del modal de creación del incident (incidente) de la página de estado con los campos completados" style="width:70%;" >}} +{{< img src="/service_management/status_pages/publish_status_page_incident_1.png" alt="Captura de pantalla del modal de creación de un aviso de página de estado con los campos rellenados" style="width:70%;" >}} -Tras la publicación de un incident (incidente), el incident (incidente): -- Aparece en la lista de páginas de estado en **Incidentes Activos**. +Tras la publicación de un aviso, este: +- Aparece en la lista de páginas de estado bajo **Active Notices** (Avisos activos). - Actualiza las barras de tiempo de actividad de los componentes afectados. -- Es visible en la línea de tiempo del historial del incident (incidente). +- Es visible en la línea de tiempo del historial de avisos. + +Puedes publicar **actualizaciones** a lo largo del tiempo para mantener informados a los usuarios y, a continuación, marcar el aviso como **Resuelto**. + +## Suscripciones por correo electrónico -Puedes publicar **actualizaciones** a lo largo del tiempo para mantener informados a los usuarios y luego marcar el incident (incidente) como **Resuelto**. +Las suscripciones por correo electrónico en las páginas de estado son de **doble opción**: los usuarios deben confirmar su dirección de correo electrónico antes de ser añadidos como suscriptores. Después de introducir un correo electrónico para suscribirse, se envía un correo de confirmación, y la suscripción solo se activa cuando el usuario hace clic en el enlace de confirmación. -{{< img src="/service_management/status_pages/live_status_page_incident_history.mp4" alt="Video en el que se muestra la línea de tiempo del historial del incident (incidente) en una página de estado en tiempo real con los incidentes y actualizaciones publicados" video=true >}} +Para las páginas de estado **internas**, el proceso de suscripción es el mismo, pero los usuarios deben iniciar sesión en la misma organización Datadog para confirmar su suscripción y recibir notificaciones. ## Configurar un dominio personalizado Para que coincida con tu marca, tienes la opción de asignar tu página de estado a un dominio personalizado como `status.acme.com`. -1. Desde tu página de estado, haz clic en **Configuración**. +1. Desde tu página de estado, haz clic en **Settings** (Parámetros). 1. Selecciona **Dominio personalizado**. -1. Sigue las instrucciones para introducir tu dominio y añadir registros DNS. -1. Datadog detecta automáticamente la configuración DNS y proporciona un certificado SSL. +1. Sigue las instrucciones para introducir tu dominio y añadir registros DNS. +1. Datadog detecta automáticamente la configuración DNS y proporciona un certificado SSL. -
Los dominios personalizados requieren acceso a tu proveedor de DNS para añadir un registro CNAME o A.
+
Los dominios personalizados requieren acceso a tu proveedor de DNS para añadir un registro CNAME o A.
-**Notas**: +**Nota**: - La propagación de DNS puede tardar varios minutos. - Puedes volver al dominio predeterminado Datadog en cualquier momento. diff --git a/content/es/synthetics/api_tests/http_tests.md b/content/es/synthetics/api_tests/http_tests.md index 29ea435ff3bf1..79f3c8079f311 100644 --- a/content/es/synthetics/api_tests/http_tests.md +++ b/content/es/synthetics/api_tests/http_tests.md @@ -46,7 +46,7 @@ Puedes crear un test utilizando una de las siguientes opciones: - **Crea un test a partir de una plantilla**: - 1. Pasa el ratón por encima de una de las plantillas ya rellenadas y haz clic en **View Template** (Ver plantilla). Se abrirá un panel lateral en el que se mostrará la información de configuración rellenada previamente, que incluye: detalles de tests, detalles de solicitudes, aserciones, condiciones de alerta y parámetros de monitor. + 1. Pasa el ratón por encima de una de las plantillas ya rellenadas y haz clic en **View Template** (Ver plantilla). Se abrirá un panel lateral en el que se mostrará la información de configuración rellenada previamente, que incluye: detalles de tests, detalles de solicitudes, aserciones, condiciones de alerta y parámetros de monitor. 2. Haz clic en **+Create Test** (+Crear test) para abrir la página **Definir solicitud**, en la que podrás revisar y editar las opciones de configuración rellenadas previamente. Los campos presentados son idénticos a aquellos disponibles cuando se crea un test desde cero. 3. Haz clic en **Save Details** (Guardar detalles) para enviar tu test de API.

@@ -54,14 +54,14 @@ Puedes crear un test utilizando una de las siguientes opciones: - **Crea un test desde cero**: - 1. Para crear un test desde cero, haz clic en la plantilla **+ Start from scratch** (+ Empezar desde cero), selecciona el tipo de solicitud `HTTP` y especifica la **URL** a consultar. + 1. Para crear un test desde cero, haz clic en la plantilla **+ Start from scratch** (+ Empezar desde cero), selecciona el tipo de solicitud `HTTP` y especifica la **URL** a consultar. Los métodos disponibles son: `GET`, `POST`, `PATCH`, `PUT`, `HEAD`, `DELETE` y `OPTIONS`. Se admiten las URL `http` y `https`.
Para ver más opciones, consulta Opciones avanzadas.
2. **Pon un nombre** a tu test HTTP. - 3. Añade **etiquetas (tags)** de entorno así como cualquier otra etiqueta a tu test HTTP. A continuación, puedes utilizar estas etiquetas para filtrar a través de tus tests Synthetic en la [página de monitorización Synthetic y tests continuos][3]. + 3. Añade **etiquetas (tags)** de entorno así como cualquier otra etiqueta a tu test HTTP. A continuación, puedes utilizar estas etiquetas para filtrar a través de tus tests Synthetic en la [página de monitorización Synthetic y tests continuos][3]. 4. Haz clic en **Enviar** para probar la configuración de la solicitud. Aparecerá una vista previa de la respuesta en la parte derecha de la pantalla.

@@ -89,7 +89,7 @@ Puedes crear un test utilizando una de las siguientes opciones: {{% tab "Autenticación" %}} - * **Certificado de cliente**: Autentícate a través de mTLS cargando tu certificado de cliente (`.crt`) y la clave privada asociada (`.key`) en formato `PEM`. Puedes utilizar la librería `openssl` para convertir tus certificados. Por ejemplo, puedes convertir un certificado `PKCS12` en certificados y claves privadas en formato `PEM`. + * **Certificado de cliente**: Autentícate a través de mTLS cargando tu certificado de cliente (`.crt`) y la clave privada asociada (`.key`) en formato `PEM`. Puedes utilizar la biblioteca `openssl` para convertir tus certificados. Por ejemplo, puedes convertir un certificado `PKCS12` en certificados y claves privadas en formato `PEM`. ``` openssl pkcs12 -in .p12 -out .key -nodes -nocerts @@ -117,7 +117,7 @@ Puedes crear un test utilizando una de las siguientes opciones: * **Cuerpo de la solicitud**: Añade el contenido del cuerpo de tu solicitud HTTP. * El cuerpo de la solicitud está limitado a un tamaño máximo de 50 kilobytes para `application/json`, `application/x-www-form-urlencoded`, `text/html`, `text/plain`, `text/xml`, `GraphQL`. * El cuerpo de la solicitud está limitado a un archivo de 3 megabytes para `application/octet-stream`. - * El cuerpo de la solicitud está limitado a tres archivos de 3 megabytes cada uno para `multipart/form-data`. + * El cuerpo de la solicitud está limitado a tres archivos de 3 megabytes cada uno para `multipart/form-data`. {{% /tab %}} {{% tab "Proxy" %}} @@ -141,15 +141,17 @@ Define variables para tus tests de API HTTP con JavaScript: {{< img src="synthetics/api_tests/http_javascript.png" alt="Definir tests de API HTTP con Javascript" style="width:90%;" >}} +
Las capacidades de JavaScript no son compatibles con los tests de API en ubicaciones privadas de Windows.
+ {{% /tab %}} -{{< /tabs >}} + {{< /tabs >}} ### Definición de aserciones Las aserciones definen cuál es el resultado esperado de un test. Después de hacer clic en **URL del test**, se añaden aserciones básicas de `response time`, `status code` y `header` `content-type` basadas en la respuesta obtenida. Debes definir al menos una aserción para que sea monitorizada por tu test. -| Tipo | Operador | Tipo de valor | +| Tipo | Operator | Tipo de valor | |---------------|--------------------------------------------------------------------------------------------------------|----------------------------------------------------------------| | cuerpo | `contains`, `does not contain`, `is`, `is not`,
`matches`, `does not match`,
[`jsonpath`][4], [`xpath`][5] | Cadena
[Expresión regular][6] | | encabezado | `contains`, `does not contain`, `is`, `is not`,
`matches`, `does not match` | Cadena
[Expresión regular][6] | @@ -228,7 +230,7 @@ No se ha encontrado la entrada DNS para la URL del test. Entre las posibles caus `Error performing HTTP/2 request` : No se ha podido realizar la solicitud. Para obtener más información, consulta la página de [errores][16] específicos. -`INVALID_REQUEST` +`INVALID_REQUEST` : La configuración del test no es válida (por ejemplo, un error tipográfico en la URL). `SSL` @@ -236,7 +238,7 @@ No se ha encontrado la entrada DNS para la URL del test. Entre las posibles caus `TIMEOUT` : La solicitud no se ha podido completar en un plazo razonable. Pueden ocurrir dos tipos de `TIMEOUT`: - - `TIMEOUT: The request couldn't be completed in a reasonable time.` indica que la duración de la solicitud ha alcanzado el tiempo de espera definido en el test (por defecto se define en 60s). + - `TIMEOUT: The request couldn't be completed in a reasonable time.` indica que la duración de la solicitud ha alcanzado el tiempo de espera definido en el test (por defecto se establece en 60s). Para cada solicitud, en la cascada de la red sólo se muestran las etapas completadas de la solicitud. Por ejemplo, en el caso de que sólo se muestre `Total response time`, el tiempo de espera se produjo durante la resolución DNS. - `TIMEOUT: Overall test execution couldn't be completed in a reasonable time.` indica que la duración del test (solicitud + aserciones) alcanza la duración máxima (60,5 segundos). @@ -273,4 +275,4 @@ Si estás utilizando la [función de rol personalizado][14], añade tu usuario a [14]: /es/account_management/rbac#custom-roles [15]: /es/account_management/rbac/#create-a-custom-role [16]: /es/synthetics/api_tests/errors/#http-errors -[17]: /es/api_catalog +[17]: /es/api_catalog \ No newline at end of file diff --git a/content/es/synthetics/browser_tests/_index.md b/content/es/synthetics/browser_tests/_index.md index 0fbc55cbc2945..59b6ff5008b68 100644 --- a/content/es/synthetics/browser_tests/_index.md +++ b/content/es/synthetics/browser_tests/_index.md @@ -5,9 +5,9 @@ aliases: description: Simula y monitoriza los recorridos de los usuarios desde localizaciones específicas. further_reading: -- link: https://www.datadoghq.com/blog/browser-tests/ - tag: Blog - text: Monitorización de la experiencia de los usuarios con tests de navegador +- link: /synthetics/guide/version_history/ + tag: Guía + text: Historial de versiones de Synthetic Monitoring - link: https://www.datadoghq.com/blog/test-creation-best-practices/ tag: Blog text: Prácticas recomendadas para la creación de tests de extremo a extremo @@ -16,13 +16,16 @@ further_reading: text: 'Centro de aprendizaje de Datadog: Empezando con los tests de navegador Synthetic' - link: /getting_started/synthetics/browser_test tag: Documentación - text: Empezando con los tests de navegador + text: Introducción a los tests de navegador - link: /synthetics/guide/synthetic-test-monitors tag: Documentación text: Más información sobre los monitores de test Synthetic - link: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/synthetics_test tag: Sitio externo text: Creación y gestión de tests de navegador Synthetic con Terraform +- link: https://www.datadoghq.com/blog/ambassador-browser-tests/ + tag: Blog + text: Cómo ayudé a mi cliente a escalar sus tests de navegador con Datadog title: Tests de navegador --- @@ -100,7 +103,7 @@ Cuando configures un nuevo test de navegador de Synthetic Monitoring, utiliza fr [1]: /es/synthetics/guide/identify_synthetics_bots/?tab=apitests [2]: https://developer.mozilla.org/en-US/docs/Web/HTTP/Headers/Set-Cookie -{{% /tab %}} + {{% /tab %}} {{% tab "Certificado" %}} @@ -129,13 +132,13 @@ Selecciona **Ignorar error de certificado del servidor** para indicar al test qu [1]: /es/synthetics/browser_tests/advanced_options#prevent-screenshot-capture [2]: /es/data_security/synthetics -{{% /tab %}} + {{% /tab %}} {{% tab "URL de inicio" %}} Introduce una cantidad de tiempo en segundos que el test deberá esperar antes de declarar el paso de test inicial como fallido. -{{% /tab %}} + {{% /tab %}} {{% tab "Hora e idioma" %}} @@ -143,9 +146,9 @@ Introduce una cantidad de tiempo en segundos que el test deberá esperar antes d [1]: https://www.loc.gov/standards/iso639-2/php/code_list.php -{{% /tab %}} + {{% /tab %}} -{{% tab "Blocked Requests" %}} + {{% tab "Blocked Requests" %}} Introduce uno o más patrones de solicitud para bloquear el proceso de carga mientras se ejecuta el test. Introduce un patrón de solicitud por línea utilizando el [formato de patrón coincidente][1]. Se admiten comodines (por ejemplo, `*://*.example.com/*`). @@ -153,9 +156,9 @@ Introduce una cantidad de tiempo en segundos que el test deberá esperar antes d [1]: https://developer.chrome.com/docs/extensions/develop/concepts/match-patterns -{{% /tab %}} + {{% /tab %}} -{{< /tabs >}} + {{< /tabs >}} {{% synthetics-variables %}} @@ -188,7 +191,7 @@ Puedes personalizar las condiciones de alerta para definir las circunstancias en Se envía una notificación según el conjunto de condiciones de alerta. Utiliza esta sección para definir qué mensajes enviar a tus equipos y cómo hacerlo. -1. Introduce un **mensaje** para el test del navegador. Este campo permite el [formato Markdown][7] estándar y admite las siguientes [variables condicionales][8]: +1. Introduce un **mensaje** para el test de navegador o utiliza los mensajes prerellenados de monitor. Este campo permite el [formato Markdown][7] estándar y admite las siguientes [variables condicionales][8]: | Variable condicional | Descripción | |----------------------------|---------------------------------------------------------------------| @@ -201,19 +204,34 @@ Se envía una notificación según el conjunto de condiciones de alerta. Utiliza | `{{#is_priority}}` | Mostrar cuando el monitor coincide con la prioridad (de P1 a P5). | | `{{^is_priority}}` | Mostrar a menos que el monitor coincida con la prioridad (de P1 a P5). | - Los mensajes de notificación incluyen el **mensaje** definido en esta sección e información sobre las localizaciones que fallan. + Los mensajes de notificación incluyen el **mensaje** definido en esta sección e información sobre las ubicaciones que fallan. Los mensajes prerellenados de monitor se incluyen en la sección del cuerpo del mensaje: + + {{< img src="/synthetics/browser_tests/browser_tests_pre-filled.png" alt="La sección del monitor de Synthetic Monitoring, que resalta los mensajes de monitor prerellenados" style="width:100%;" >}} + + Por ejemplo, para crear un monitor que itere sobre los pasos extrayendo variables para los tests de navegador, añade lo siguiente al mensaje de monitor: + + ```text + {{! List extracted variables across all successful steps }} + # Extracted variables + {{#each synthetics.attributes.result.steps}} + {{#if extractedValue}} + * **Name**: `{{extractedValue.name}}` + **Value:** {{#if extractedValue.secure}}*Obfuscated (value hidden)*{{else}}`{{{extractedValue.value}}}`{{/if}} + {{/if}} + {{/each}} + ``` 2. Selecciona los miembros del equipo y los servicios a los que notificar. -3. Especifica una frecuencia de reenvío de notificaciones. Para evitar el reenvío de notificaciones en caso de tests fallidos, deja la opción como `Never renotify if the monitor has not been resolved`. -4. Haz clic en **Guardar detalles y grabar test** para guardar la configuración de tu test y grabar los pasos del navegador. +3. Especifica una frecuencia para volver a enviar la notificación. Para evitar una nueva notificación en caso de error en tests, activa la opción `Stop re-notifying on X occurrences`. +4. Haz clic en **Save & Start Recording** (Guardar e iniciar grabación) para guardar la configuración de test y grabar los pasos del navegador. -Para obtener más información, consulta [Usar monitores de tests Synthetic][9]. +Para más información, consulta [Notificaciones de Synthetic Monitoring][9]. ## Para grabar tus pasos -Los tests sólo se pueden grabar desde [Google Chrome][10]. Para grabar tu test, descarga la [extensión de Datadog para la grabación de tests de Google Chrome][11]. +Los tests solo se pueden grabar desde [Google Chrome][10] y [Microsoft Edge][18]. Para grabar tu test, descarga la [extensión de Grabación de tests de Datadog][11]. -Durante la grabación de un test de navegador puedes cambiar de pestaña para realizar una acción en tu aplicación (como hacer clic en un enlace que abre otra pestaña) y añadir otro paso de test. Tu test de navegador debe interactuar primero con la página (a través de un clic), antes de poder realizar una [aserción][12]. Al grabar todos los pasos del test, el test del navegador puede cambiar de pestaña automáticamente durante la ejecución del test. +Puedes cambiar de pestaña en una grabación del test de navegador para realizar una acción en tu aplicación (como hacer clic en un enlace que abre otra pestaña) y añadir otro paso de test. El test de navegador debe interactuar primero con la página (a través de un clic) antes de poder realizar una [confirmación][12]. Al grabar todos los pasos de test, el test de navegador puede cambiar de pestaña automáticamente en la ejecución de test. {{< img src="synthetics/browser_tests/browser_check_record_test.png" alt="Test de grabación de un test de navegador" width="90%" >}} @@ -227,6 +245,73 @@ Durante la grabación de un test de navegador puedes cambiar de pestaña para re Datadog recomienda finalizar tu test de navegador con una **[aserción][12]** para confirmar que el recorrido ejecutado por el test del navegador ha dado como resultado el estado esperado. 6. Una vez que termines tu escenario, haz clic en **Guardar e iniciar test**. +## Repetición de pasos + +La repetición de pasos te permite volver a ejecutar uno o más pasos de tu test de navegador directamente en tu navegador con la [extensión Grabación de test de Datadog][11]. Esta función te ayuda a establecer el estado correcto cuando añades o editas pasos en medio de un test, por lo que no necesitas hacerlo manualmente. + +### Permiso de depuración + +Los pasos basados en JavaScript y las simulaciones de pulsaciones de teclas requieren el permiso del depurador. + +La primera vez que la extensión se actualice a una versión que requiera permiso de depuración, verás una solicitud de permiso y la extensión se desactivará hasta que la apruebes: +{{< img src="synthetics/browser_tests/recording__replay--accepting-permission_2.mp4" alt="Aceptar el permiso del depurador" video="true" height="400px" >}} +

Haz clic en el menú de tres puntos {{< img src="icons/kebab.png" inline="true" style="width:14px;">}} para aceptar el permiso.

+ +### Cómo utilizar la Repetición del paso + +Puedes repetir los pasos de tres maneras: + +1. Repetición de paso único: reejecuta un único paso: +{{< img src="synthetics/browser_tests/recording__replay--replay-one-step_1.mp4" alt="Repetición de un paso único" video="true" height="400px" >}} +

Pasa el ratón por encima del paso, y haz clic en el botón de reproducción para repetir solo este paso.

+ +2. Repetición de todos los pasos: ejecuta toda la secuencia de pasos definida en la grabadora: +{{< img src="synthetics/browser_tests/recording__replay--replay-all-steps_1.mp4" alt="Repetición de todos los pasos" video="true" height="400px" >}} +

Haz clic en el botón repetir todo (⏩︎) en la parte superior de la lista de pasos para repetir todos los pasos.

+ +3. Repetición de los pasos seleccionados: ejecuta un subconjunto de pasos que selecciones en la lista de pasos: +{{< img src="synthetics/browser_tests/recording__replay--replay-selected-steps_1.mp4" alt="Repetición de los pasos seleccionados" video="true">}} +

Selecciona los pasos que deseas repetir y, a continuación, haz clic en el botón de repetición seleccionado (⏩︎) en la parte superior de la lista de pasos.

+ +### Compatibilidad con la función de repetición de pasos + +La siguiente tabla resume qué tipos de paso de test de navegador admiten la repetición de pasos: + +| Tipo de paso | Compatibilidad con la repetición de pasos | Notas | +|--------------------------|:------------------------:|-------| +| Extraer variable | {{< X >}} | | +| Ir a la URL | {{< X >}} | | +| Actualizar | {{< X >}} | | +| Desplazarse | {{< X >}} | | +| Seleccionar una opción | {{< X >}} | | +| Esperar | {{< X >}} | | +| Ejecutar test de API | {{< X >}} | | +| Confirmar el estado de la casilla | {{< X >}} | | +| Confirmar la URL actual | {{< X >}} | | +| Confirmar el atributo de elemento | {{< X >}} | | +| Confirmar el contenido de elemento | {{< X >}} | | +| Confirmar el elemento presente | {{< X >}} | | +| Confirmar la descarga del archivo | {{< X >}} | | +| Confirmar el contenido de página | {{< X >}} | | +| Confirmar los faltantes de página | {{< X >}} | | +| Confirmar desde JavaScript | {{< X >}} | | +| Extraer desde JavaScript | {{< X >}} | | +| Pulsar tecla | {{< X >}} | | +| Escribir texto | {{< X >}} | | +| Clic | {{< X >}}* | *Se admiten pasos de clic, pero pueden comportarse de forma diferente que en una ejecución completa de test de Synthetic Monitoring. | +| Pasar el cursor | {{< X >}}* | *Se admiten pasos flotantes, pero pueden comportarse de forma diferente que en una ejecución completa del test de Synthetic Monitoring. | + +### Tipos de pasos no compatibles con la repetición de pasos + +| Tipo de paso | Compatible con la repetición de pasos | +|--------------------------|:------------------------:| +| Confirmar correo electrónico | Aún no se admite | +| Confirmar solicitudes | Aún no se admite | +| Extraer del cuerpo del correo electrónico | Aún no se admite | +| Ir al enlace de correo electrónico | Aún no se admite | +| Cargar archivos | Aún no se admite | +| Confirmar el lenguaje natural | Aún no se admite | + ## Permisos De manera predeterminada, solo los usuarios con los roles de [administrador de Datadog y estándar de Datadog][15] pueden crear, editar y eliminar tests de navegador Synthetic. Para crear, editar y eliminar tests de navegador Synthetic, actualiza tu usuario a uno de esos dos [roles predeterminados][15]. @@ -246,7 +331,7 @@ Utiliza el [control de acceso detallado][17] para limitar quién tiene acceso a 6. Selecciona el nivel de acceso que deseas asociar a cada uno de ellos. 7. Haz clic en **Done** (Listo). -
Nota: Puedes ver los resultados de una localización privada incluso sin tener acceso a esa localización privada.
+
Puedes ver los resultados de una Ubicación privada incluso sin acceso del Visor a esa Ubicación privada.
| Nivel de acceso | Ver configuración del test | Editar configuración del test | Ver los resultados de los tests | Ejecutar tests | Ver grabación | Editar grabación | | ------------ | ----------------------- | ----------------------- | ------------------| --------- | -------------- | -------------- | @@ -266,7 +351,7 @@ Utiliza el [control de acceso detallado][17] para limitar quién tiene acceso a [6]: /es/api/latest/synthetics/#create-or-clone-a-test [7]: http://daringfireball.net/projects/markdown/syntax [8]: /es/monitors/notify/variables/?tab=is_alert#conditional-variables -[9]: /es/synthetics/guide/synthetic-test-monitors +[9]: /es/synthetics/notifications/ [10]: https://www.google.com/chrome [11]: https://chrome.google.com/webstore/detail/datadog-test-recorder/kkbncfpddhdmkfmalecgnphegacgejoa [12]: /es/synthetics/browser_tests/actions/#assertion @@ -274,4 +359,5 @@ Utiliza el [control de acceso detallado][17] para limitar quién tiene acceso a [14]: /es/synthetics/browser_tests/actions/ [15]: /es/account_management/rbac#custom-roles [16]: /es/account_management/rbac/#create-a-custom-role -[17]: /es/account_management/rbac/granular_access \ No newline at end of file +[17]: /es/account_management/rbac/granular_access +[18]: https://www.microsoft.com/edge \ No newline at end of file diff --git a/content/es/synthetics/guide/_index.md b/content/es/synthetics/guide/_index.md index c25184bbd98f5..60ffbb60a2452 100644 --- a/content/es/synthetics/guide/_index.md +++ b/content/es/synthetics/guide/_index.md @@ -13,13 +13,17 @@ title: Guías para la monitorización Synthetic {{< whatsnext desc="Guías generales:" >}} {{< nextlink href="synthetics/guide/identify_synthetics_bots/" >}}Identificar bots Synthetic{{< /nextlink >}} - {{< nextlink href="synthetics/guide/clone-test" >}}Clonar tus tests Synthetic{{< /nextlink >}} + {{< nextlink href="synthetics/guide/clone-test" >}}Clonar tus Synthetic tests{{< /nextlink >}} + {{< nextlink href="synthetics/guide/otp-email-synthetics-test" >}}Extraer una contraseña única desde un cuerpo de email mediante Synthetic Browser Tests{{< /nextlink >}} + {{< nextlink href="synthetics/guide/version_history" >}}Historial de versiones para Synthetic Monitoring{{< /nextlink >}} + {{< nextlink href="synthetics/guide/kerberos-authentication/" >}}Autenticación de Kerberos para Synthetic Monitoring{{< /nextlink >}} + {{< nextlink href="synthetics/guide/step-duration/" >}}Cómo la duración de los pasos se determina en tests de navegador{{< /nextlink >}} {{< /whatsnext >}} {{< whatsnext desc="Alertas:" >}} - {{< nextlink href="synthetics/guide/synthetic-test-monitors/" >}}Utilizar monitores en tests Synthetic{{< /nextlink >}} - {{< nextlink href="synthetics/guide/synthetic-test-retries-monitor-status/" >}}Entender cómo los nuevos intentos de tests Synthetic determinan el estado del monitor{{< /nextlink >}} - {{< nextlink href="synthetics/guide/uptime-percentage-widget" >}}Monitorizar tiempos de actividad de páginas web utilizando SLOs{{< /nextlink >}} + {{< nextlink href="monitors/types/synthetic_monitoring/" >}}Uso de monitores de Synthetic Test{{< /nextlink >}} + {{< nextlink href="synthetics/guide/synthetic-test-retries-monitor-status/" >}}Comprender cómo Synthetic test reintenta determinar el estado del monitor{{< /nextlink >}} + {{< nextlink href="synthetics/guide/uptime-percentage-widget" >}}Monitorizar el tiempo de funcionamiento del sitio web con SLOs{{< /nextlink >}} {{< /whatsnext >}} {{< whatsnext desc="API:" >}} @@ -28,24 +32,24 @@ title: Guías para la monitorización Synthetic {{< /whatsnext >}} {{< whatsnext desc="Prácticas recomendadas:" >}} - {{< nextlink href="synthetics/guide/synthetic-tests-caching" >}}Evitar problemas de caché en los tests Synthetic{{< /nextlink >}} - {{< nextlink href="synthetics/guide/monitor-https-redirection" >}}Monitorizar si tus solicitudes HTTP se redireccionan como HTTPS{{< /nextlink >}} - {{< nextlink href="synthetics/guide/reusing-browser-test-journeys/" >}}Reutilizar los recorridos de tests de navegadores en tu paquete para tests{{< /nextlink >}} - {{< nextlink href="synthetics/guide/custom-javascript-assertion/" >}}Utilizar aserciones JavaScript en tests de navegadores{{< /nextlink >}} - {{< nextlink href="synthetics/guide/email-validation/" >}}Utilizar la validación mediante correo electrónico en tests de navegadores{{< /nextlink >}} - {{< nextlink href="synthetics/guide/testing-file-upload-and-download/" >}}Carga y descarga de archivos de test{{< /nextlink >}} - {{< nextlink href="synthetics/guide/popup/" >}}Gestionar ventanas emergentes en tests de navegadores{{< /nextlink >}} - {{< nextlink href="synthetics/guide/recording-custom-user-agent/" >}}Grabar pasos con un Agent de usuario personalizado{{< /nextlink >}} - {{< nextlink href="synthetics/guide/manually-adding-chrome-extension/" >}}Añadir manualmente la extensión Chrome a tus tests de navegadores{{< /nextlink >}} + {{< nextlink href="synthetics/guide/synthetic-tests-caching" >}}Evitar problemas de caché en tests Synthetic{{< /nextlink >}} + {{< nextlink href="synthetics/guide/monitor-https-redirection" >}}Monitorizar que tus solicitudes HTTP se redirijan como HTTPS{{< /nextlink >}} + {{< nextlink href="synthetics/guide/reusing-browser-test-journeys/" >}}Reutilizar recorridos de tests de navegador de tu paquete de tests{{< /nextlink >}} + {{< nextlink href="synthetics/guide/custom-javascript-assertion/" >}}Utilizar afirmaciones de JavaScript personalizadas en tests de navegador{{< /nextlink >}} + {{< nextlink href="synthetics/guide/email-validation/" >}}Utilizar validaciones mediante correo electrónico en tests de navegador{{< /nextlink >}} + {{< nextlink href="synthetics/guide/testing-file-upload-and-download/" >}}Cargar y descargar archivos de test{{< /nextlink >}} + {{< nextlink href="synthetics/guide/popup/" >}}Gestionar mensajes emergentes en tests de navegador{{< /nextlink >}} + {{< nextlink href="synthetics/guide/recording-custom-user-agent/" >}}Registrar etapas con un Agent de usuario personalizado{{< /nextlink >}} + {{< nextlink href="synthetics/guide/manually-adding-chrome-extension/" >}}Agregar manualmente la extensión Chrome en tus tests de navegador{{< /nextlink >}} {{< nextlink href="synthetics/guide/browser-tests-using-shadow-dom/" >}}Ejecutar tests en aplicaciones utilizando un Shadow DOM{{< /nextlink >}} - {{< nextlink href="synthetics/guide/http-tests-with-hmac/" >}}Crear tests HTTP con la autenticación mediante el Código de autenticación de mensajes basado en hash (HMAC){{< /nextlink >}} + {{< nextlink href="synthetics/guide/http-tests-with-hmac/" >}}Crear tests HTTP con la autenticación del código de autenticación de mensajes basado en hash (HMAC){{< /nextlink >}} + {{< nextlink href="synthetics/guide/canvas-content-javascript/" >}}Confirmar contenidos de lienzos con JavaScript{{< /nextlink >}} {{< /whatsnext >}} {{< whatsnext desc="Integraciones Datadog:" >}} - {{< nextlink href="logs/guide/ease-troubleshooting-with-cross-product-correlation" >}}Facilitar la resolución de problemas con la correlación entre productos{{< /nextlink >}} - {{< nextlink href="synthetics/guide/explore-rum-through-synthetics/" >}}Explorar una vista previa de funciones RUM en Synthetics{{< /nextlink >}} - {{< nextlink href="synthetics/guide/rum-to-synthetics" >}}Generar tests de navegador Synthetic a partir de repeticiones de sesiones en RUM{{< /nextlink >}} - + {{< nextlink href="logs/guide/ease-troubleshooting-with-cross-product-correlation" >}}Facilitar la resolución de errores con la corrrelación cruzada de productos{{< /nextlink >}} + {{< nextlink href="synthetics/guide/explore-rum-through-synthetics/" >}}Explorar una versión preliminar de funciones RUM en Synthetic Monitoring{{< /nextlink >}} + {{< nextlink href="synthetics/guide/rum-to-synthetics" >}}Generar tests de navegador Synthetic a partir de repetciones de sesión de RUM{{< /nextlink >}} {{< /whatsnext >}} {{< whatsnext desc="Métricas:" >}} diff --git a/content/es/synthetics/guide/manage-browser-tests-through-the-api.md b/content/es/synthetics/guide/manage-browser-tests-through-the-api.md index a8a199d07d245..242bbba887bc1 100644 --- a/content/es/synthetics/guide/manage-browser-tests-through-the-api.md +++ b/content/es/synthetics/guide/manage-browser-tests-through-the-api.md @@ -21,7 +21,7 @@ La monitorización de tu aplicación de extremo a extremo es crucial para compre Datadog recomienda crear primero los tests de navegador en la IU de Datadog y recuperar las configuraciones de los tests con la API. 1. [Crea un test de navegador][2] y [guarda una grabación][3]. -2. Utiliza el [endpoint Get the list of all tests][4] para recuperar el lista de todos los tests de Synthetics. +2. Utiliza el [endpoint Obtener la lista de todos los tests][4] para recuperar la lista de todos los tests de Synthetic Monitoring. 3. Filtra en `type: browser` y recupera el `public_ids` de los tests de navegador que deseas gestionar con la API. 4. Utiliza el [endpoint Get a browser test][5] para recuperar los archivos de configuración de cada test de navegador. diff --git a/content/es/synthetics/guide/reusing-browser-test-journeys.md b/content/es/synthetics/guide/reusing-browser-test-journeys.md index 0ac5db426ffa2..f0541d94784de 100644 --- a/content/es/synthetics/guide/reusing-browser-test-journeys.md +++ b/content/es/synthetics/guide/reusing-browser-test-journeys.md @@ -9,6 +9,9 @@ further_reading: - link: https://www.datadoghq.com/blog/test-creation-best-practices/ tag: Blog text: Prácticas recomendadas para crear tests de extremo a extremo +- link: https://www.datadoghq.com/blog/ambassador-browser-tests/ + tag: Blog + text: Cómo ayudé a mi cliente a ampliar sus tests de navegador con Datadog title: Reutiliza los recorridos de tests del navegador en todo el conjunto de tests --- diff --git a/content/es/synthetics/guide/synthetic-tests-caching.md b/content/es/synthetics/guide/synthetic-tests-caching.md index 783ed3df75112..dd8a0d55a32e3 100644 --- a/content/es/synthetics/guide/synthetic-tests-caching.md +++ b/content/es/synthetics/guide/synthetic-tests-caching.md @@ -6,6 +6,10 @@ further_reading: - link: /synthetics/api_tests/http_tests tag: Documentación text: Configurar un test de HTTP +- link: https://www.datadoghq.com/blog/cache-purge-ci-cd/ + tag: Blog + text: Patrones para una purga de caché segura y eficaz en pipelines de Continuous + Integration Continuous Delivery title: Evita los problemas de caché en los tests de Sintético --- @@ -15,15 +19,15 @@ En esta guía se describe cómo evitar los problemas de almacenamiento en caché ## Tests de API -### Tests de HTTP +### Tests HTTP -Puedes aprovechar las [variables locales][1] para generar una cadena aleatoria y enviarla con tu carga útil para asegurarte de que tus [tests HTTP][2] no utilicen tus sistemas de almacenamiento en caché. +Puedes aprovechar las [variables locales][1] para generar una cadena aleatoria y enviarla con tu carga útil para asegurarte de que tus [tests de HTTP][2] no utilicen tus sistemas de almacenamiento en caché. ## Tests de navegador Los navegadores se eliminan después de cada ejecución del test, lo que garantiza que tus tests de navegador no tengan problemas relacionados con la caché en el lado del cliente. -## Referencias adiionales +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/synthetics/guide/uptime-percentage-widget.md b/content/es/synthetics/guide/uptime-percentage-widget.md index 77254c73656a9..13dcd4aa8768a 100644 --- a/content/es/synthetics/guide/uptime-percentage-widget.md +++ b/content/es/synthetics/guide/uptime-percentage-widget.md @@ -21,7 +21,7 @@ Para poder cumplir los acuerdos de nivel del servicio suscritos con clientes int A continuación, te mostramos cómo lograrlo con la herramienta [Synthetic Monitoring][1] y el [widget de objetivos de nivel del servicio ][2] (SLOs). Para ello, usaremos `http://example.com/` como ejemplo. -## Cree una supervisión en Synthetic Monitoring test +## Crear un test de Synthetic Monitoring Para crear un [test de API de Synthetics][3] con `http://example.com/`, consulta [Crear un test de API simple][4]. diff --git a/content/es/synthetics/multistep.md b/content/es/synthetics/multistep.md index 5d306bff85d2e..2efa6e26cc3e4 100644 --- a/content/es/synthetics/multistep.md +++ b/content/es/synthetics/multistep.md @@ -5,18 +5,15 @@ further_reading: - link: https://www.datadoghq.com/blog/monitor-apis-with-datadog/ tag: Blog text: Monitorizar tus flujos de trabajo con los tests de API multipaso de Datadog -- link: https://learn.datadoghq.com/courses/intro-to-synthetic-tests - tag: Centro de aprendizaje - text: Introducción a los tests Synthetic -- link: /getting_started/synthetics/api_test - tag: Documentación - text: Comienza con los tests de API +- link: /synthetics/guide/version_history/ + tag: Guía + text: Historial de versiones de Synthetic Monitoring Monitoring - link: /synthetics/private_locations tag: Documentación text: Ejecutar tests de API multipaso en endpoints internos - link: /synthetics/guide/synthetic-test-monitors tag: Documentación - text: Más información sobre los monitores de test sintéticos + text: Más información sobre los monitores de test Synthetic - link: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/synthetics_test tag: Sitio externo text: Crear y gestionar tests de API multipaso Synthetic con Terraform @@ -46,7 +43,7 @@ Los tests de API multipaso pueden ejecutarse desde Datadog [gestionado](#select- 1. Dale un nombre a tu test de API multipaso. 2. Añade `env` y otras etiquetas (tags) a tu test multipaso de API. Puedes utilizar estas etiquetas (tags) para filtrar a través de tus tests de Synthetic Monitoring en la [page (página) Synthetic Monitoring & Continuous Testing][5]. -### Selecciona las localizaciones +### Seleccionar localizaciones Selecciona las **Localizaciones** para tu test de la API multipasos. Los tests de la API multipasos pueden ejecutarse tanto desde ubicaciones gestionadas como desde [ubicaciones privadas][4] según tu preferencia por ejecutar el test desde fuera o dentro de tu red. @@ -129,7 +126,7 @@ De forma predeterminada, se pueden crear hasta 10 pasos de test. Para aumentar e {{% /tab %}} -{{< /tabs >}} + {{< /tabs >}} ### Añadir configuración de ejecución @@ -197,11 +194,11 @@ Para visualizar tu lista de variables, escribe `{{` en el campo de tu elección. ### Subtests -Los tests de API multipaso admiten subtests, lo que te permite reutilizar tests de API existentes o extraer pasos en componentes reutilizables. Puedes anidar subtests hasta dos niveles de profundidad. +Los tests de API de varios steps (UI) / pasos (generic) admiten subtests, lo que te permite reutilizar tests de API de varios pasos existentes o extraer pasos en componentes reutilizables. Puedes anidar subtests hasta dos niveles de profundidad. -Para utilizar un test de API existente como subtest, haz clic en **Subtest**, ve a la pestaña **Desde test existente** y selecciona un test de API en el menú desplegable. +Para utilizar un test de API de varios steps (UI) / pasos (generic) existente como subtest, haz clic en **Subtest**, ve a la pestaña **From Existing Test** (Desde un test existente) y selecciona un test de API de varios pasos en el menú desplegable. -Para convertir pasos de tu test de API actual en un subtest, haz clic en la pestaña **Extraer de Pasos**, selecciona los pasos registrados que deseas extraer y haz clic en **Convertir en Subtest**. +Para convertir pasos de tu test de API de varios steps (UI) / pasos (generic) en un subtest, haz clic en la pestaña **Extract From Steps** (Extraer de pasos), selecciona los pasos grabados que desees extraer y haz clic en **Convert to Subtest** (Convertir en subtest). {{< img src="synthetics/multistep_tests/subtest.png" alt="Interfaz de usuario para añadir un subtest a un test de API multipaso" width="60%" >}} @@ -209,6 +206,8 @@ Para sustituir una variable de subtest en un test de API multipaso, defínela en Si no necesitas ejecutar un subtest de forma independiente, puedes pausarlo. Sigue ejecutándose como parte del test de API multipaso, pero no se ejecuta por sí solo. +**Nota:** Solo se pueden añadir tstes de API de varios steps (UI) / pasos (generic) como subtests. No se admite el uso de [tests de API][1] como subtests. + ## Fallo del test Un test se considera `FAILED` si un paso no satisface una o varias afirmaciones o si la solicitud de un paso falla prematuramente. En algunos casos, el test puede fallar sin poder probar las afirmaciones contra el endpoint, estas razones incluyen: @@ -265,7 +264,7 @@ Puedes restringir el acceso a un test de API multipaso en función de los roles [9]: /es/monitors/notify/?tab=is_alert#configure-notifications-and-automations [10]: http://daringfireball.net/projects/markdown/syntax [11]: /es/monitors/notify/variables/?tab=is_alert#conditional-variables -[12]: /es/synthetics/guide/synthetic-test-monitors +[12]: /es/monitors/types/synthetic_monitoring/ [13]: /es/synthetics/settings/#global-variables [14]: /es/synthetics/api_tests/http_tests?tab=requestoptions#test-failure [15]: /es/synthetics/api_tests/grpc_tests?tab=unarycall#test-failure diff --git a/content/es/synthetics/notifications/_index.md b/content/es/synthetics/notifications/_index.md new file mode 100644 index 0000000000000..e8f7f92fdc4e9 --- /dev/null +++ b/content/es/synthetics/notifications/_index.md @@ -0,0 +1,252 @@ +--- +further_reading: +- link: synthetics/notifications/template_variables + tag: Documentación + text: Utiliza variables de plantilla en tus notificaciones de Synthetic Monitoring +- link: synthetics/notifications/conditional_alerting + tag: Documentación + text: Utiliza alertas condicionales en tus notificaciones de Synthetic Monitoring +- link: /synthetics/notifications/statuspage/ + tag: Documentación + text: Aprende a integrar los monitores de Synthetic Monitoring con Statuspage +title: Notificaciones de Synthetic Monitoring +--- + +## Información general + +Personaliza tus alertas en [Synthetic Monitoring][1] para ofrecer a los respondedores de la llamada un contexto significativo. El sistema de plantillas de mensajes de Synthetic Monitoring te permite enriquecer las alertas con detalles de test, extraer datos de los resultados de test y dirigir las notificaciones condicionalmente en función del fallo. + +
Las notificaciones de Synthetic Monitoring no son compatibles con tus pipelines de Continuous Integration Continuous Delivery de Continuous Testing.
+ +Puedes personalizar las notificaciones utilizando: + +- **[Contenido prellenado](#pre-filled-monitor-messages)**: Comienza con un punto de partida estructurado. +- **[Variables de plantilla][2]**: Enriquece tus notificaciones con contenido dinámico. +- **[Lógica condicional][3]**: Adapta los mensajes de alerta a los distintos tipos de test y procesos. +- **[Uso avanzado][4]**: Estructura mensajes complejos utilizando plantillas de manillar. +- **[Visualización de notificaciones personalizadas](#display-custom-notifications-massage)**: Muestra solo tu mensaje personalizado sin contenido enriquecido predeterminado. +- **[Notificaciones simuladas](#simulate-notifications)**: Test tus mensajes de notificación mediante el envío de notificaciones simuladas. + +**Nota**: Para obtener información sobre el acceso a variables locales (configuración), consulta la sección [Variables][6]. + +## Mensajes de monitores (noun) prellenados + +Synthetic Monitoring proporciona mensajes prellenados con metadatos como: + +- Nombre del test +- Identificador del monitor (noun) +- Ubicaciones fallidas +- Información sobre la última ejecución fallida de test +- Es hora de que test empiece a fallar + +Estos valores aparecen en forma predeterminada en la mayoría de los canales de notificación. Puedes sustituir o ampliar el mensaje con [plantillas][2]. + + {{< img src="/synthetics/browser_tests/browser_tests_pre-filled.png" alt="Sección de monitores (noun) de Synthetic Monitoring, en la que se resaltan mensajes de monitores (noun) prellenados" style="width:100%;" >}} + +**Ejemplos**: + +{{< tabs >}} +{{% tab "Respuesta de solicitud de API" %}} + +**Solicitud:** +```handlebars +{{#with synthetics.attributes.result.request}} +We made a {{method}} request to `{{{url}}}`{{#if headers}} with the following headers: + +{{#each headers}} +{{@key}}={{this}} +{{/each}} + +{{/if}} +{{#if body}}And the body: + +{{{body}}} + +{{/if}} +{{/with}} +``` + +**Respuesta:** +```handlebars +{{#with synthetics.attributes.result.response}} +We received an HTTP {{httpVersion}} response with a {{statusCode}} status code{{#if headers}} with the following headers: + +{{#each headers}} +{{@key}}={{this}} +{{/each}} + +{{/if}} +{{#if redirects}} +Redirections: +{{#each redirects}} +* {{statusCode}} redirect to `{{{location}}}` +{{/each}} +{{/if}} +The body's size was {{eval "humanize_bytes(bodySize)"}}{{#if body}} and contained: + +{{{body}}} + +{{/if}} +{{/with}} +``` + +{{% /tab %}} +{{% tab "Tests de WebSocket" %}} + +```handlebars +{{! Websocket request and response details }} +{{#with synthetics.attributes.result}} +{{#if handshake }} +The handshake received a response with the {{handshake.response.statusCode}} status code. +{{/if}} +{{#if request}} +A WebSocket request was made with the message: + +{{{request.message}}} + +{{/if}} +{{#if response}} +and the response closed with status code {{response.close.statusCode}} and reason `{{response.close.reason}}` +{{#if response.message}}, containing the message: + +{{{response.message}}} + +{{else}}.{{/if}} +{{/if}} +{{/with}} +``` + +{{% /tab %}} +{{% tab "Variables de tests de la API" %}} + +Itera sobre las variables extraídas para los tests de la API: + +**Variables de configuración:** +```handlebars +{{#each synthetics.attributes.result.variables.config}} +* **Name:** {{name}} + Type: {{type}} + Value: {{#if secure}}*Obfuscated (value hidden)*{{else}}{{value}}{{/if}} +{{/each}} +``` + +**Variables extraídas (solo visibles para notificaciones de recuperación):** +```handlebars +{{#each synthetics.attributes.result.variables.extracted}} +* **Name:** {{name}} + Global Variable ID: {{id}} + Value: {{#if secure}}*Obfuscated (value hidden)*{{else}}{{val}}{{/if}} +{{/each}} +``` + +{{% /tab %}} +{{% tab "Variables de varios pasos de la API" %}} + +Itera sobre pasos extrayendo variables para tests de varios pasos de la API: + +```handlebars +{{! List extracted variables across all successful steps }} +# Extracted Variables +{{#each synthetics.attributes.result.steps}} + {{#each variables.extracted}} + * **Name**: `{{name}}` + Value: {{#if secure}}*Obfuscated (value hidden)*{{else}}`{{{val}}}`{{/if}} + {{/each}} +{{/each}} +``` + +{{% /tab %}} +{{% tab "Variables de tests del navegador y móviles" %}} + +Itera sobre los pasos extrayendo variables para tests del navegador y móvil: + +```handlebars +{{#each synthetics.attributes.result.steps}} + {{#if extractedValue}} + * **Name**: {{extractedValue.name}} + **Value:** {{#if extractedValue.secure}}*Obfuscated (value hidden)*{{else}}{{extractedValue.value}}{{/if}} + {{/if}} +{{/each}} +``` + +{{% /tab %}} +{{< /tabs >}} + +## Mostrar un mensaje de notificación personalizado + +Las notificaciones de Synthetic Monitoring admiten la posibilidad de mostrar **solo el mensaje de notificación personalizado** en las notificaciones de alertas, ocultando todo el contenido enriquecido predeterminado, como los detalles de la consulta, las etiquetas, las capturas de pantalla y los pies de página. + +En forma predeterminada, todos los monitores incluyen detalles enriquecidos en el mensaje de alerta. Esto puede incluir: +- Metadatos de tests +- Información de step (UI) / paso (generic) fallido +- Capturas de pantalla +- Etiquetas +- Enlaces a los recursos de Datadog + +### Notificaciones prestablecidas + +Puedes seleccionar entre las siguientes opciones para ocultar o mostrar la información pertinente para ti: + +| Prestablecido | Descripción | +|-------------------|-----------------------------------------------------------------------------| +| `show_all` | (Predeterminado) Incluye todos los datos y metadatos enriquecidos. | | +| `hide_handles` | Oculta los controladores de `@notification` (por ejemplo, `@slack-channel`). | +| `hide_all` | Oculta todo el contenido adicional, excepto el mensaje personalizado y el enlace al evento. | + +{{< img src="/monitors/monitor_types/synthetic_monitoring/content_in_notification.png" alt="Page (página) de monitor (noun) de Synthetic Monitoring, que destaca el contenido mostrado en la notificación desplegable" style="width:80%;" >}} + +### Ejemplo + +| Canal | `show_all` | `hide_all` | +|---------|--------------------|---------------------| +| Correo electrónico | Información del detalle completo de test, captura de pantalla, step (UI) / paso (generic) | Solo mensaje personalizado y enlace al evento | +| Slack | Contenido enriquecido + vista previa de la ejecución fallida | Solo mensaje personalizado | + +Consulta [Notificaciones de monitor (noun)][5] para obtener más información. + +## Notificaciones simuladas + +Puedes test tus mensajes de notificación enviando notificaciones simuladas. Para ello: + +1. Añade un controlador de notificación a tu mensaje de monitor (noun) +2. Haz clic en el botón **Notificaciones simuladas**: + + {{< img src="/synthetics/notifications/simulate_notifications.png" alt="Pantalla de Synthetic Monitoring, que resalta el botón de Notificaciones simuladas" style="width:80%;" >}} + +3. Selecciona el tipo de notificación que deseas test y haz clic en **Send** (Enviar): + + {{< img src="/synthetics/notifications/simulate_notifications_type.png" alt="Envía una notificación que simula una falla o recuperación de test." style="width:80%;" >}} + +Las notificaciones simuladas incluyen **[TEST]** en sus líneas del asunto y utilizan un nombre de monitor (noun) predeterminado cuando sea necesario. + +**Ejemplos:** + + + + + + +
+{{< img src="/synthetics/notifications/simulated_notifications_email.png" alt="Notificación por correo electrónico que simula una falla del test." style= "width:100%;" >}} + +{{< img src="/synthetics/notifications/simulated_notifications_email_recovered.png" alt="Notificación por correo electrónico que simula una recuperación del test." style= "width:100%;" >}} +
+ +**Notas importantes sobre las notificaciones simuladas:** + +- Los resultados de tests utilizados en las simulaciones son datos de muestra estandarizados, no resultados reales de tu configuración específica del test. +- Los resultados varían en función del tipo de test, el subtipo (para tests de la API) y el tipo de notificación: + - **Notificaciones de alerta**: Datos de fallos simulados + - **Notificaciones de recuperación**: Datos de éxito simulados +- Todos los usuarios reciben los mismos datos simulados, independientemente de su configuración del test. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/monitors/types/synthetic_monitoring/ +[2]: /es/synthetics/notifications/template_variables +[3]: /es/synthetics/notifications/conditional_alerting +[4]: /es/synthetics/notifications/advanced_notifications +[5]: /es/monitors/notifications +[6]: /es/synthetics/notifications/template_variables/?tab=testinfo#variables \ No newline at end of file diff --git a/content/es/tests/flaky_management/_index.md b/content/es/tests/flaky_management/_index.md new file mode 100644 index 0000000000000..7e0ef8f13afd6 --- /dev/null +++ b/content/es/tests/flaky_management/_index.md @@ -0,0 +1,157 @@ +--- +description: Rastrea, clasifica y gestiona los tests de errores. +further_reading: +- link: /continuous_integration/tests/ + tag: Documentación + text: Más información sobre Test Optimization +- link: /tests/flaky_tests/ + tag: Documentación + text: Aprende a trabajar con tests de errores +- link: https://www.datadoghq.com/knowledge-center/flaky-tests/ + tag: Centro de conocimiento + text: Información general de tests con errores +title: Gestión de tests con errores +--- + +{{< site-region region="gov" >}} +
Test Optimization no está disponible en el sitio seleccionado ({{< region-param key="dd_site_name" >}}) en este momento.
+{{< /site-region >}} + +## Información general + +La página [Gestión de tests defectuosos][1] proporciona una vista centralizada para realizar un seguimiento, clasificar y remediar tests defectuosos en toda la organización. Puedes ver el estado de cada test junto con métricas de impacto clave como el número de fallos de pipeline, el tiempo de CI perdido y la tasa de fallos. + +Desde esta interfaz, puedes actuar sobre los tests defectuosos para mitigar su impacto. Pon en cuarentena o desactiva los tests problemáticos para evitar que los fallos conocidos rompan las compilaciones, y crea casos e incidentes en Jira para realizar un seguimiento del trabajo realizado para solucionarlos. + +{{< img src="tests/flaky_management.png" alt="Información general de la interfaz de usuario de gestión de tests defectuosos" style="width:100%;" >}} + +## Cambiar el estado de un test defectuoso + +Utiliza el menú desplegable de estado para cambiar cómo se gestiona un test defectuoso en tu pipeline CI. Esto puede ayudar a reducir el ruido de CI, manteniendo la trazabilidad y el control. Los estados disponibles son: + +| Estado | Descripción | +| ----------- | ----------- | +| **Activo** | Se sabe que el test es defectuoso y se está ejecutando en CI. | +| **En cuarentena** | El test se mantiene ejecutándose en segundo plano, pero los fallos no afectan al estado de CI ni rompen los pipelines. Esto es útil para aislar los tests defectuosos sin bloquear las fusiones. | +| **Desactivado** El test se omite por completo en CI. Utilízalo cuando un test ya no sea relevante o necesite ser eliminado temporalmente del pipeline. | +| **Corregido** | El test ha pasado la prueba de forma consistente y ya no tiene fallos. Si es compatible, utiliza el [flujo de corrección](#confirm-fixes-for-flaky-tests) para confirmar una corrección y aplicar automáticamente este estado, en lugar de cambiarlo manualmente. | + +
Las acciones de estado tienen requisitos de versión mínimos para la biblioteca de instrumentación de cada lenguaje de programación. Consulta Compatibilidad para obtener más detalles.
+ +## Configura políticas para automatizar el ciclo de vida de los tests defectuosos + +Configura políticas de tests defectuosos automatizadas para controlar cómo se gestionan los tests defectuosos en cada repositorio. Por ejemplo, un test con defectos en la rama preeterminada puede ser automáticamente puesto en cuarentena y luego desactivado si permanece sin corregir después de 30 días. + +1. Haz clic en el botón **Policies* (Políticas) situado en la parte superior derecha de la página de gestión de tests defectuosos. También puedes ir a [**Políticas de tests defectuosos**][13] en los parámetros de entrega de software. +2. Busca y selecciona el repositorio que quieres configurar. Se abrirá el menú desplegable **Edit Policies** (Editar políticas). + {{< img src="tests/flaky-policies-2.png" alt="Página Políticas de tests defectuosos con el menú Edit Policies (Editar políticas) abierto para configurar una política" style="width:100%;" >}} + +3. Utiliza los conmutadores para activar acciones automatizadas específicas y utiliza reglas de automatización para personalizar aún más la forma en que los tests son colocados en cuarentena, se desactivan o se vuelven a intentar: + +| Acción | Descripción | +| ---- | ---- | +| **Cuarentena** | Utiliza los conmutadores para permitir que los tests defectuosos se coloquen en cuarentena para este repositorio. Personaliza reglas de automatización basadas en:
  • Tiempo: Coloca en cuarentena un test si su estado es `Active` durante un número especificado de días.
  • Rama: Coloca en cuarentena un test `Active` si presenta defectos en una o más ramas especificadas.| +| **Desactivar** | Utiliza los conmutadores para permitir que los tests defectuosos esté desactiven para este repositorio. Es posible que quieras hacer esto después de colocarlos en cuarentena o para proteger ramas específicas de potenciales defectos. Personaliza reglas de automatización basadas en:
  • Estado y hora: Desactiva un test si tiene un estado especificado durante un número especificado de días.
  • Rama: Desactiva un test `Active` o `Quarantined` si presenta defectos en una o más ramas especificadas. | +| **Intento de corregir** | Cuando intentes corregir un test defectuoso, vuelve a intentar automáticamente el test un número especificado de veces en el commit que contiene la corrección. | +| **Corregido** | Si un test defectuoso deja de presentar defectos durante 30 días, pasa automáticamente al estado Corregido. Esta automatización es el comportamiento por defecto y no se puede personalizar. | + +## Rastreo de la evolución de tests con errores + +Rastrea la evolución del número de tests con errores con la métrica predefinida `test_optimization.test_management.flaky_tests`. La métrica se enriquece con las siguientes tags (etiquetas) para ayudarte a investigar los counts con más detalle. + +- `repository_id` +- `branch` +- `flaky_status` +- `test_codeowners` +- `flaky_category` + +La tag (etiqueta) `branch` sólo existe cuando el test tiene errores en la rama predeterminada del repositorio durante los últimos 30 días. Esto te ayuda a descartar tests que sólo han mostrado errores en ramas de funciones, ya que estas pueden no ser relevantes. Puedes configurar la rama predeterminada de tus repositorios en [Configuración del repositorio][2]. + +## Investigar un test con errores + +Para obtener más información sobre un test específico con errores, utiliza estas opciones en el menú de acciones al final de cada fila: + +- **Ver la última ejecución fallida de test **: Abre el panel lateral con los detalles de la última ejecución fallida de test. +- **Ver ejecuciones relacionadas de test **: Abre el [Explorer de test optimization (optimización de tests)][3] poblado con todas las ejecuciones recientes del test. + +## Crea casos para los tests con errores + +Para cualquier test con errores, puedes crear un case (incidencia) y utilizar [Case Management][4] para rastrear cualquier trabajo de corrección. Haz clic en el botón **Crear case (incidencia)** o utiliza el menú de acciones situado al final de la fila. + +## Confirmar las correcciones de los tests con errores + +Cuando se corrige un test con errores, el flujo de corrección de test optimization (optimización de tests) puede confirmar la corrección reintentando el test varias veces. Si tiene éxito, el estado del test se actualiza automáticamente a `Fixed`. Para activar el flujo de corrección: + +1. En la página de test que estás corrigiendo, haz clic en **Link commit to Flaky test fix** (Vincular commit con la corrección del test defectuoso) en la interfaz de gestión de tests defectuosos. +1. Copia la clave única de test con errores que aparece (por ejemplo, `DD_ABC123`). +1. Incluye la clave del test en el título de tu confirmación Git o en el mensaje de la corrección (por ejemplo, `git commit -m "DD_ABC123"`). +1. Cuando Datadog detecta la clave del test en tu confirmación, activa automáticamente el flujo de corrección para ese test: + - Reintenta 20 veces cualquier test que estés intentando corregir. + - Ejecuta tests aunque estén marcados como `Disabled`. + - Si se superan todos los reintentos, se actualiza el estado del test a `Fixed`. + - Si falla algún reintento, mantiene el estado actual del test(`Active`, `Quarantined`, o `Disabled`). + +## Categorización de tests defectuosos mediante IA + +La Gestión de tests defectuosos utiliza la IA para asignar automáticamente una categoría de causa raíz a cada test defectuoso en función de patrones de ejecución y señales de error. Esto te ayuda a filtrar, clasificar y priorizar tests defectuosos con mayor eficacia. + +
    Un test debe tener al menos una ejecución fallida que incluya las etiquetas (tags) @error.message y @error.stack para poder ser categorizado. Si el test se ha detectado recientemente, la categorización puede tardar varios minutos en finalizar.
    + +### Categorías + +| Categoría | Descripción | +|-------------------------|-------------| +| **Simultaneidad** | Test que invoca múltiples subprocesos que interactúan de forma insegura o imprevista. Los defectos son causados, por ejemplo, por condiciones de carrera resultantes de suposiciones implícitas sobre el orden de ejecución, que conducen a bloqueos en determinadas ejecuciones de tests. | +| **Aleatoriedad** | Test que utiliza el resultado de un generador de datos aleatorios. Si el test no tiene en cuenta todos los casos posibles, puede fallar de forma intermitente, por ejemplo, solo cuando el resultado de un generador de números aleatorios es cero. | +| **Punto flotante** | Test que utiliza el resultado de una operación de coma flotante. Las operaciones de coma flotante pueden sufrir excesos y defectos de precisión, sumas no asociativas, etc., que, si no se tienen en cuenta adecuadamente, pueden dar lugar a resultados incoherentes (por ejemplo, comparar un resultado de coma flotante con un valor real exacto en una aserción). | +| **Colección desordenada**| Test que supone un orden de iteración particular para un objeto de colección desordenada. Dado que no se especifica ningún orden, los tests que suponen un orden fijo probablemente serán defectuoso por varias razones (por ejemplo, la implementación de la clase de colección). | +| **Rango demasiado restrictivo**| Test cuyas aserciones solo aceptan parte del rango de salida válido. Falla intermitentemente en casos límite no gestionados. | +| **Tiempo de espera** | Test que falla debido a limitaciones de tiempo, ya sea a nivel de test individual o como parte de un conjunto. Esto incluye aquellos tests que superan su límite de tiempo de ejecución (por ejemplo, test individual o todo el conjunto) y fallan intermitentemente debido a tiempos de ejecución variables. | +| **Dependencia del orden** | Test que depende de un valor o recurso compartido modificado por otro test. Cambiar el orden de ejecución de test puede romper esas dependencias y producir resultados incoherentes. | +| **Fuga de recursos** | Test que gestiona incorrectamente un recurso externo (por ejemplo, no logra liberar memoria). Los siguientes tests que reutilicen el recurso pueden presentar defectos. | +| **Espera asíncrona** | Test que realiza una llamada asíncrona o espera a que los elementos se carguen/representen, pero no espera explícitamente a que se completen (a menudo utilizando un retraso fijo). Si la llamada o la representación tardan más que el retraso, el test falla. | +| **E/S** | Test defectuoso debido a su gestión de entrada/salida, por ejemplo, fallando cuando se agota el espacio en disco durante una escritura. | +| **Red** | Test que depende de la disponibilidad de la red (por ejemplo, consultas a un servidor). Si la red no está disponible o está congestionada, el test puede fallar. | +| **Tiempo** | Test que se basa en la hora del sistema y puede fallar debido a discrepancias de precisión o de zona horaria (por ejemplo, falla cuando pasa la medianoche en UTC). | +| **Dependencia del entorno** | Test que depende de sistemas operativos, versiones de bibliotecas o hardwares específicos. Puede ser aprobado en un entorno, pero fallar en otro, especialmente en entornos CI de nube donde las máquinas varían de forma no determinista. | +| **Desconocido** | El test es defectuoso por una razón desconocida. | + +## Recibir notificaciones + +Configura notificaciones para realizar un seguimiento de los cambios en tus tests defectuosos. Cada vez que un usuario o una política cambia el estado de un test defectuoso, se envía un mensaje a los destinatarios seleccionados. Puedes enviar notificaciones a direcciones de correo electrónico o a canales de Slack (consulta la [integración de Datadog con Slack][5]) y enrutar los mensajes en función de los propietarios de códigos de test. Si no se especifica ningún propietario de código, se notifica a todos los destinatarios seleccionados de los cambios en tests defectuosos del repositorio. Configura la notificación para cada repositorio desde la página [**Políticas de tests defectuosos**][13] en los parámetros de entrega de software. + +Las notificaciones no se envían inmediatamente, sino que se agrupan por lotes cada pocos minutos para reducir el ruido. + +{{< img src="tests/flaky_management_notifications_settings.png" alt="Interfaz de usuario de parámetros de notificación" style="width:100%;" >}} + +## Compatibilidad + +Para utilizar las funciones de la gestión de tests defectuosos, debes utilizar la instrumentación nativa de Datadog para tu marco de test. En la tabla siguiente se indican las versiones mínimas de cada biblioteca de rastreo Datadog necesaria para poner en cuarentena, desactivar e intentar reparar tests con errores. Haz clic en el nombre de un lenguaje para obtener información sobre la configuración: + +| Lenguaje | Cuarentena y desactivación | Intento de corrección | +| --------------- | ----------------------------- | ---------------------------- | +| [.NET][6] | 3.13.0+ | 3.17.0+ | +| [Go][7] | 1.73.0 o posterior (Orchestrion v1.3.0 o posterior) | 2.2.2 o posterior (Orchestrion v1.6.0 o posterior) | +| [Java][8] | 1.48.0+ | 1.50.0+ | +| [JavaScript][9] | 5.44.0+ | 5.52.0+ | +| [Python][10] | 3.3.0+ | 3.8.0+ | +| [Ruby][11] | 1.13.0+ | 1.17.0+ | +| [Swift][12] | 2.6.1 o posterior | 2.6.1 o posterior | + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/ci/test/flaky +[2]: https://app.datadoghq.com/source-code/repositories +[3]: /es/tests/explorer +[4]: /es/service_management/case_management +[5]: /es/integrations/slack/?tab=datadogforslack +[6]: /es/tests/setup/dotnet/ +[7]: /es/tests/setup/go/ +[8]: /es/tests/setup/java/ +[9]: /es/tests/setup/javascript/ +[10]: /es/tests/setup/python/ +[11]: /es/tests/setup/ruby/ +[12]: /es/tests/setup/swift/ +[13]: https://app.datadoghq.com/ci/settings/test-optimization/flaky-test-management \ No newline at end of file diff --git a/content/es/tracing/guide/ddsketch_trace_metrics.md b/content/es/tracing/guide/ddsketch_trace_metrics.md index c60cb2ac626e0..0edfad95e0acf 100644 --- a/content/es/tracing/guide/ddsketch_trace_metrics.md +++ b/content/es/tracing/guide/ddsketch_trace_metrics.md @@ -1,6 +1,8 @@ --- aliases: - /es/tracing/faq/resource-trace-doesn-t-show-up-under-correct-service/ +description: Conoce las métricas basadas en DDSketch en APM para calcular percentiles + precisos y distribuciones de latencia con mayor exactitud. further_reading: - link: https://www.datadoghq.com/blog/engineering/computing-accurate-percentiles-with-ddsketch/ tag: Blog diff --git a/content/es/tracing/guide/ignoring_apm_resources.md b/content/es/tracing/guide/ignoring_apm_resources.md index 360be2811fa70..486d94ac6000d 100644 --- a/content/es/tracing/guide/ignoring_apm_resources.md +++ b/content/es/tracing/guide/ignoring_apm_resources.md @@ -1,34 +1,37 @@ --- +description: Aprende a excluir recursos no deseados de las trazas (traces), como los + checks de estado, utilizando reglas de muestreo y filtrado para reducir el ruido + y gestionar los costes. title: Ignorar los recursos no deseados en APM --- -Un servicio puede administrar una variedad de solicitudes, algunas de las cuales puede que no desees que se rastreen o se incluyan en las métricas de traces (trazas). Un ejemplo de esto son, posiblemente, los checks de estado en una aplicación web. Esta documentación cubre dos opciones principales: muestreo y filtrado. +Un servicio puede administrar una variedad de solicitudes, algunas de las cuales puede que no quieras que se rastreen o se incluyan en las métricas de trazas. Un ejemplo de esto son, posiblemente, los checks de estado en una aplicación web. Esta documentación cubre dos opciones principales: muestreo y filtrado. Si necesitas ayuda para decidir cuál opción es la más adecuada para tu caso de uso, ponte en contacto con [asistencia técnica de Datadog][1]. ## Muestreo -Si deseas que el span (tramo) se incluya en las métricas de traces (trazas) pero no deseas que se ingiera, utiliza reglas de muestreo. Para obtener más información sobre el muestreo, consulta [Controles de ingesta][4]. +Si quieres que el tramo (span) se incluya en las métricas de trazas pero no quieres que se ingiera, utiliza reglas de muestreo. Para obtener más información sobre el muestreo, consulta [Controles de ingesta][4]. ### Utilización de reglas de muestreo -El enfoque de recomendado consiste en utilizar reglas de muestreo, que permiten muestrear traces (trazas) en función de los nombres de los recursos, los nombres de los servicios, las etiquetas (tags) y los nombres de las operaciones: +El enfoque de recomendado consiste en utilizar reglas de muestreo, que permiten muestrear trazas en función de los nombres de los recursos, los nombres de los servicios, las etiquetas (tags) y los nombres de las operaciones: ```shell DD_TRACE_SAMPLING_RULES='[{"resource": "GET healthcheck", "sample_rate": 0.0}]' ``` -O para realizar un muestreo basado en las etiquetas (tags) de la URL HTTP: +O para realizar un muestreo basado en las etiquetas de la URL HTTP: ```shell DD_TRACE_SAMPLING_RULES='[{"tags": {"http.url": "http://.*/healthcheck$"}, "sample_rate": 0.0}]' ``` -
    Nota: Las decisiones de muestreo se determinan utilizando el primer span (tramo) de una trace (traza). Si el span (tramo) que contiene la etiqueta sobre la que se deseas filtrar no es una {{< tooltip glossary="trace root span (span de origen de traza)" case="sentencia" >}}, esta regla no se aplica.
    +
    Las decisiones de muestreo se determinan utilizando el primer tramo de una traza. Si el tramo que contiene la etiqueta con la que quieres filtrar no es una {{< tooltip glossary="trace root span" case="sentence" >}}, esta regla no se aplica.
    ## Filtrado -Si no deseas que se ingiera el span (tramo) y no deseas que se refleje en las métricas de traces (trazas), utiliza el filtrado. +Si no quieres que se ingiera el tramo y no quiere que se refleje en las métricas de trazas, utiliza el filtrado. Existen dos formas de especificar que un punto de conexión de este tipo no debe rastrearse y debe excluirse de las métricas de trazas: @@ -37,25 +40,25 @@ Existen dos formas de especificar que un punto de conexión de este tipo no debe ### Opciones de configuración del Trace Agent -El componente Trace Agent dentro del Datadog Agent tiene dos métodos para evitar que aparezcan ciertas trazas: ignorar etiquetas (tags) de tramos (spans) o ignorar recursos. Si se descartan trazas debido a esta configuración, las métricas de trazas excluyen estas solicitudes. +El componente Trace Agent dentro del Datadog Agent tiene dos métodos para evitar que aparezcan ciertas trazas: ignorar etiquetas de tramos o ignorar recursos. Si se descartan trazas debido a esta configuración, las métricas de trazas excluyen estas solicitudes. La configuración del Trace Agent para ignorar ciertos tramos o recursos se aplica a todos los servicios que envían trazas a este Datadog Agent particular. Si tienes requisitos específicos de la aplicación, utiliza, en su lugar, el método de [Configuración del rastreador](#tracer-configuration). -#### Ignorar en función de las span tagss +#### Ignorar en función de las etiquetas de tramos -Empezando con el Datadog Agent 6.27.0/7.27.0, con la opción **filtrar por etiquetas**, se descartan trazas con tramos de raíz que coincidan con span tagss especificadas. Esta opción se aplica a todos los servicios que envían trazas a este Datadog Agent particular. Las trazas que se descartan debido al filtro por etiquetas no se incluyen en las métricas de trazas. +Empezando con el Datadog Agent 6.27.0/7.27.0, con la opción **filtrar por etiquetas**, se descartan trazas con tramos de raíz que coincidan con etiquetas de tramos especificadas. Esta opción se aplica a todos los servicios que envían trazas a este Datadog Agent particular. Las trazas que se descartan debido al filtro por etiquetas no se incluyen en las métricas de trazas. -Si puedes identificar mediante programación un conjunto de trazas que sabes que no deseas enviar a Datadog y ninguna otra opción de esta guía resuelve tu necesidad, puedes considerar añadir una [etiqueta de tramo personalizada][2] para poder descartar las trazas. [Ponte en contacto con el servicio de soporte técnico][1] para tratar tu caso de uso con más detalle, de modo que Datadog pueda seguir ampliando esta funcionalidad. +Si puedes identificar mediante programación un conjunto de trazas que sabes que no quieres enviar a Datadog y ninguna otra opción de esta guía resuelve tu necesidad, puedes considerar añadir una [etiqueta de tramo personalizada][2] para poder descartar las trazas. [Ponte en contacto con el servicio de soporte técnico][1] para tratar tu caso de uso con más detalle, de modo que Datadog pueda seguir ampliando esta funcionalidad. La opción de filtrar por etiquetas requiere una coincidencia exacta de las cadenas. Si tu caso de uso requiere ignorar por expresiones regulares, consulta [Ignorar en función de los recursos](#ignoring-based-on-resources). -Puedes especificar span tagss para requerir o rechazar utilizando un lista de claves y valores separados por espacios en variables de entorno: +Puedes especificar etiquetas de tramos para requerir o rechazar utilizando un lista de claves y valores separados por espacios en variables de entorno: `DD_APM_FILTER_TAGS_REQUIRE` -: Recopila solo las trazas que tienen tramos de raíz con una coincidencia exacta con las span tagss y valores especificados. Si no coincide con esta regla, se descarta la traza. Por ejemplo, `DD_APM_FILTER_TAGS_REQUIRE="key1:value1 key2:value2"`. En el Datadog Agent 7.49+, las expresiones regulares pueden estar provistas de `DD_APM_FILTER_TAGS_REGEX_REQUIRE`. +: Recopila solo las trazas que tienen tramos de raíz con una coincidencia exacta con las etiquetas de tramos y valores especificados. Si no coincide con esta regla, se descarta la traza. Por ejemplo, `DD_APM_FILTER_TAGS_REQUIRE="key1:value1 key2:value2"`. En el Datadog Agent 7.49+, las expresiones regulares pueden estar provistas de `DD_APM_FILTER_TAGS_REGEX_REQUIRE`. `DD_APM_FILTER_TAGS_REJECT` -: Rechaza las trazas que tienen tramos de raíz con una coincidencia exacta con las span tagss y valores especificados. Si coincide con esta regla, se descarta la traza. Por ejemplo, `DD_APM_FILTER_TAGS_REJECT="key1:value1 key2:value2"`. En el Datadog Agent 7.49+, las expresiones regulares pueden estar provistas de `DD_APM_FILTER_TAGS_REGEX_REJECT`. +: Rechaza las trazas que tienen tramos de raíz con una coincidencia exacta con las etiquetas de tramos y valores especificados. Si coincide con esta regla, se descarta la traza. Por ejemplo, `DD_APM_FILTER_TAGS_REJECT="key1:value1 key2:value2"`. En el Datadog Agent 7.49+, las expresiones regulares pueden estar provistas de `DD_APM_FILTER_TAGS_REGEX_REJECT`. {{< tabs >}} @@ -72,7 +75,7 @@ apm_config: Por ejemplo, para ignorar comprobaciones de estado donde la `http.url` coincide con este punto conexión: -{{< code-block lang="yaml" filename="Datadog.yaml" >}} +{{< code-block lang="yaml" filename="datadog.yaml" >}} apm_config: filter_tags: reject: ["http.url:http://localhost:5050/healthcheck"] @@ -93,21 +96,21 @@ spec: containers: trace-agent: env: - - name: DD_APM_FILTER_TAGS_REJECT - value: tag_key1:tag_val2 tag_key2:tag_val2 + - nombre: DD_APM_FILTER_TAGS_REJECT + valor: tag_key1:tag_val2 tag_key2:tag_val2 {{< /code-block >}} {{% k8s-operator-redeploy %}} ##### Helm -{{< code-block lang="yaml" filename="Datadog-values.yaml" >}} +{{< code-block lang="yaml" filename="datadog-values.yaml" >}} agents: containers: traceAgent: env: - - name: DD_APM_FILTER_TAGS_REJECT - value: tag_key1:tag_val2 tag_key2:tag_val2 + - nombre: DD_APM_FILTER_TAGS_REJECT + valor: tag_key1:tag_val2 tag_key2:tag_val2 {{< /code-block >}} @@ -119,7 +122,7 @@ agents: Al filtrar trazas de esta manera, se eliminan estas solicitudes de las [métricas de trazas][3]. Para obtener más información sobre cómo reducir el consumo sin afectar las métricas de trazas, consulta [Controles de consumo][4]. -En el backend, Datadog crea y añade las siguientes etiquetas (tags) de spans (tramos) a los spans (tramos) después de la ingesta. Ten en cuenta que estas etiquetas (tags) no se pueden utilizar para eliminar traces (trazas) en el nivel del Datadog Agent, ya que el Agent sólo filtra en función de las etiquetas (tags) disponibles antes de la ingesta. +En el backend, Datadog crea y añade las siguientes etiquetas de tramos a los tramos después de la ingesta. Ten en cuenta que estas etiquetas no se pueden utilizar para eliminar trazas a nivel del Datadog Agent, ya que el Agent solo filtra en función de las etiquetas disponibles antes de la ingesta. | Nombre | Descripción | @@ -134,8 +137,8 @@ En el backend, Datadog crea y añade las siguientes etiquetas (tags) de spans (t | `http.useragent_details.browser.family` | La familia de navegadores informada por el User-Agent. | | `http.useragent_details.device.family` | La familia de dispositivos informada por el User-Agent. | -
    Nota: Desde el 1.º de octubre de 2022, el backend Datadog aplica una reasignación para aplicar la Semántica de etiquetas (tags) de spans (tramos) - a través de rastreadores en todos los spans (tramos) ingeridos. Si deseas descartar spans (tramos) en función de las etiquetas (tags) en el nivel del Datadog Agent, utiliza las etiquetas (tags) en la columna Reasignar desde.
    +
    A partir del 1 de octubre de 2022, el backend de Datadog implementa una reasignación para aplicar la Semántica de etiquetas de tramos + en los rastreadores en todos los tramos ingeridos. Si quieres descartar tramos en función de las etiquetas a nivel del Datadog Agent, utiliza las etiquetas de la columna Reasignar desde.
    ##### Comunicaciones de red @@ -215,7 +218,7 @@ Puedes especificar los recursos que deseas ignorar en el archivo de configuraci Utilización de `Datadog.yaml`: -{{< code-block lang="yaml" filename="Datadog.yaml" >}} +{{< code-block lang="yaml" filename="datadog.yaml" >}} apm_config: ## @param ignore_resources - lista de cadenas - opcional ## Se puede proporcionar un lista de expresiones regulares para excluir determinados trazas en función del nombre del recurso. @@ -238,9 +241,9 @@ DD_APM_IGNORE_RESOURCES="(GET|POST) /healthcheck,API::NotesController#index" ##### Ejemplo -Considera una traza que contiene llamadas a `/api/healthcheck` desde la cual no deseas trazas: +Considera una traza que contiene llamadas a `/api/healthcheck` desde la cual no quieres ver trazas: -{{< img src="tracing/guide/ignoring_apm_resources/ignoreresources.png" alt="Gráfica de llamas de un recurso que deseas que el rastreador ignore" style="width:90%;">}} +{{< img src="tracing/guide/ignoring_apm_resources/ignoreresources.png" alt="Gráfica de llamas de un recurso que quieres que el rastreador ignore" style="width:90%;">}} Toma nota del nombre del recurso del tramo de raíz global. @@ -255,7 +258,7 @@ Según cuál sea tu forma de despliegue, la sintaxis será un poco diferente: {{< tabs >}} {{% tab "datadog.yaml" %}} -{{< code-block lang="yaml" filename="Datadog.yaml" >}} +{{< code-block lang="yaml" filename="datadog.yaml" >}} apm_config: ignore_resources: Api::HealthchecksController#index$ {{< /code-block >}} @@ -273,7 +276,7 @@ apm_config: En la lista de variables de entorno del contenedor del Datadog Agent, añade `DD_APM_IGNORE_RESOURCES` con un patrón como el del ejemplo siguiente. Docker Compose tiene su propia [sustitución de variables][1] para tener en cuenta cuando utilices caracteres especiales como `$`. {{< code-block lang="yaml" >}} - environment: + environment: // otras variables de entorno del Datadog Agent - DD_APM_IGNORE_RESOURCES=Api::HealthchecksController#index$$ {{< /code-block >}} @@ -281,7 +284,7 @@ En la lista de variables de entorno del contenedor del Datadog Agent, añade `DD Para valores múltiples: {{< code-block lang="yaml" >}} - environment: + environment: // otras variables de entorno del Datadog Agent - DD_APM_IGNORE_RESOURCES="value1","Api::HealthchecksController#index$$" {{< /code-block >}} @@ -318,49 +321,49 @@ Para valores múltiples: En el contenedor del Trace Agent dedicado, añade la variable de entorno `DD_APM_IGNORE_RESOURCES`: {{< code-block lang="yaml" >}} - - name: trace-agent - image: "gcr.io/datadoghq/agent:latest" + - nombre: trace-agent + imagen: "gcr.io/datadoghq/agent:latest" imagePullPolicy: IfNotPresent - command: ["trace-agent", "-config=/etc/datadog-agent/datadog.yaml"] - resources: {} - ports: + comando: ["trace-agent", "-config=/etc/datadog-agent/datadog.yaml"] + recursos: {} + puertos: - containerPort: 8126 hostPort: 8126 - name: traceport - protocol: TCP + nombre: traceport + protocolo: TCP env: - - name: DD_API_KEY + - nombre: DD_API_KEY valueFrom: secretKeyRef: - name: "datadog-secret" - key: api-key - - name: DD_KUBERNETES_KUBELET_HOST + nombre: "datadog-secret" + clave: api-key + - nombre: DD_KUBERNETES_KUBELET_HOST valueFrom: fieldRef: fieldPath: status.hostIP - - name: KUBERNETES - value: "yes" - - name: DOCKER_HOST - value: unix:///host/var/run/docker.sock - - name: DD_LOG_LEVEL - value: "INFO" - - name: DD_APM_ENABLED - value: "true" - - name: DD_APM_NON_LOCAL_TRAFFIC - value: "true" - - name: DD_APM_RECEIVER_PORT - value: "8126" - - name: DD_KUBELET_TLS_VERIFY - value: "false" - - name: DD_APM_IGNORE_RESOURCES - value: "Api::HealthchecksController#index$" + - nombre: KUBERNETES + valor: "yes" + - nombre: DOCKER_HOST + valor: unix:///host/var/run/docker.sock + - nombre: DD_LOG_LEVEL + valor: "INFO" + - nombre: DD_APM_ENABLED + valor: "true" + - nombre: DD_APM_NON_LOCAL_TRAFFIC + valor: "true" + - nombre: DD_APM_RECEIVER_PORT + valor: "8126" + - nombre: DD_KUBELET_TLS_VERIFY + valor: "false" + - nombre: DD_APM_IGNORE_RESOURCES + valor: "Api::HealthchecksController#index$" {{< /code-block >}} Para valores múltiples: {{< code-block lang="yaml" >}} - - name: DD_APM_IGNORE_RESOURCES - value: '"value1","Api::HealthchecksController#index$"' + - nombre: DD_APM_IGNORE_RESOURCES + valor: '"value1","Api::HealthchecksController#index$"' {{< /code-block >}} {{% /tab %}} @@ -370,7 +373,7 @@ En la sección `traceAgent` del archivo `values.yaml`, añade `DD_APM_IGNORE_RES {{< code-block lang="yaml" filename="values.yaml" >}} traceAgent: - # agents.containers.traceAgent.env -- Variables de entorno adicionales para el contenedor del trace-agent + # agents.containers.traceAgent.env -- Variables de entorno adicionales para el contenedor del trace-agent container env: - name: DD_APM_IGNORE_RESOURCES value: Api::HealthchecksController#index$ @@ -380,8 +383,8 @@ En la sección `traceAgent` del archivo `values.yaml`, añade `DD_APM_IGNORE_RES Para valores múltiples: {{< code-block lang="yaml" >}} - - name: DD_APM_IGNORE_RESOURCES - value: value1, Api::HealthchecksController#index$ + - nombre: DD_APM_IGNORE_RESOURCES + valor: value1, Api::HealthchecksController#index$ {{< /code-block >}} También puedes configurar `agents.containers.traceAgent.env` en el comando `helm install`: @@ -402,7 +405,7 @@ Si utilizas Amazon ECS (como en EC2), en tu definición del contenedor del Datad {{< code-block lang="json" >}} "environment": [ - // otras variables de entorno para el Datadog Agent + // other environment variables for the Datadog Agent { "name": "DD_APM_IGNORE_RESOURCES", "value": "Api::HealthchecksController#index$" @@ -413,13 +416,13 @@ Si utilizas Amazon ECS (como en EC2), en tu definición del contenedor del Datad {{% /tab %}} {{< /tabs >}} -
    Nota: Al filtrar trazas de esta manera, se eliminan estas solicitudes de las métricas de trazas. Para obtener información sobre cómo reducir el consumo sin afectar las métricas de trazas, consulta controles de consumo.
    +
    Al filtrar las trazas de esta manera se eliminan estas solicitudes de las métricas de trazas. Para obtener información sobre cómo reducir la ingesta sin afectar a las métricas de trazas, consulta los controles de ingestión.
    ## Opciones de configuración del rastreador Algunos de los rastreadores específicos del lenguaje tienen una opción para modificar tramos antes de que se envíen al Datadog Agent. Utiliza esta opción si tienes requisitos específicos de la aplicación y utilizas uno de los lenguajes que se enumeran a continuación. -
    Notas:
    1. Si la solicitud está asociada a una trace (traza) distribuida, la trace (traza) resultante puede tener imprecisiones de muestreo si se descartan partes de ella debido a estas reglas de filtrado.
    2. Filtrar traces (trazas) de esta manera elimina estas solicitudes de las métricas de traces (trazas) . Para obtener información sobre cómo reducir la ingesta sin afectar a las métricas de traces (trazas), consulta los controles de ingesta.
    +
    1. Si la solicitud está asociada a una traza distribuida, la traza resultante puede tener imprecisiones de muestreo si se descartan partes de ella debido a estas reglas de filtrado.
    2. Al filtrar las trazas de esta manera se eliminan estas solicitudes de las métricas de trazas. Para obtener información sobre cómo reducir la ingesta sin afectar a las métricas de trazas, consulta los controles de ingesta.
    {{< programming-lang-wrapper langs="ruby,python,nodeJS,java" >}} @@ -490,7 +493,7 @@ tracer.use('http', { //import http ``` -
    Nota: La configuración del rastreador para la integración debe venir antes de que se importe ese módulo instrumentado.
    +
    La configuración del rastreador para la integración debe venir antes de que se importe ese módulo instrumentado.
    [1]: https://datadoghq.dev/dd-trace-js/interfaces/export_.plugins.connect.html#blocklist {{< /programming-lang >}} @@ -534,4 +537,4 @@ public class GreetingController { [3]: /es/tracing/guide/metrics_namespace/ [4]: /es/tracing/trace_ingestion/ingestion_controls [5]: /es/tracing/configure_data_security/?tab=mongodb#exclude-resources-from-being-collected -[6]: https://golang.org/pkg/regexp/ +[6]: https://golang.org/pkg/regexp/ \ No newline at end of file diff --git a/content/es/tracing/guide/instrument_custom_method.md b/content/es/tracing/guide/instrument_custom_method.md index 9e244b57f3810..c7976a8effc66 100644 --- a/content/es/tracing/guide/instrument_custom_method.md +++ b/content/es/tracing/guide/instrument_custom_method.md @@ -1,4 +1,7 @@ --- +description: Aprende a añadir la instrumentación personalizada a métodos y funciones + para obtener una visibilidad detallada de tu lógica empresarial y del rendimiento + de tu aplicación. further_reading: - link: /tracing/guide/alert_anomalies_p99_database/ tag: 3 minutos @@ -21,7 +24,7 @@ _8 minutos para completarlo_ {{< img src="tracing/guide/custom_span/custom_span_1_cropped.png" alt="Vista de análisis" style="width:90%;">}} -
    Nota: En esta página se describe el uso de OpenTracing para la instrumentación personalizada de aplicaciones. OpenTracing está obsoleto. Los conceptos presentados aquí todavía se aplican, pero, en su lugar, sigue las instrucciones y ejemplos de Instrumentación personalizada con OpenTelemetry para tu idioma.
    +
    En esta página se describe el uso de OpenTracing para la instrumentación personalizada de aplicaciones. OpenTracing está obsoleto. Los conceptos presentados aquí todavía se aplican, pero te recomendamos seguir las instrucciones y ejemplos de Instrumentación personalizada con OpenTelemetry para tu lenguaje.
    Para proporcionarte una visibilidad profunda de tu lógica de negocio, la APM de Datadog te permite personalizar los tramos (spans) que componen tus trazas en función de tus necesidades e implementación. Esto te permite rastrear cualquier método de tu código base e incluso componentes específicos dentro de los métodos. Puedes utilizar esto para optimizar y monitorizar áreas críticas de tu aplicación en la granularidad que funcione para ti. @@ -41,7 +44,7 @@ El tramo `http.request POST /charge/` está tardando mucho sin tener ningún tra En Java, la APM Datadog te permite instrumentar tu código para generar tramos personalizados, ya sea utilizando decoradores de métodos o instrumentando bloques de código específicos. -**Instument a method with a decorator** (Instrumentar un método con un decorador): +**Instrumentar un método con un decorador**: Este ejemplo añade un tramo al método `BackupLedger.write`, que añade nuevas filas a un libro de contabilidad de transacciones. Se añade un tramo para rastrear todas las transacciones contabilizadas como una sola unidad. @@ -64,7 +67,7 @@ public class BackupLedger { **Instrument a specific code block** (Instrumentar un bloque de código específico): -Este ejemplo añade tramos secundarios al tramo `BackupLedger.write` creado anteriormente. Este método añade un tramo secundario para cada transacción en el libro de contabilidad y una [etiqueta (tag) personalizada][1] con el ID de transacción específico. +Este ejemplo añade tramos secundarios al tramo `BackupLedger.write` creado anteriormente. Este método añade un tramo secundario para cada transacción en el libro de contabilidad y una [etiqueta personalizada][1] con el ID de transacción específico. ```java import datadog.trace.api.Trace; @@ -102,7 +105,7 @@ public class BackupLedger { En Python, la APM Datadog te permite instrumentar tu código para generar tramos personalizados, ya sea utilizando decoradores de métodos o instrumentando bloques de código específicos. -**Instument a method with a decorator** (Instrumentar un método con un decorador): +**Instrumentar un método con un decorador**: Este ejemplo añade un tramo al método `BackupLedger.write`, que añade nuevas filas a un libro de contabilidad de transacciones. Se añade un tramo para rastrear todas las transacciones contabilizadas como una sola unidad. @@ -122,7 +125,7 @@ class BackupLedger: **Instrument a specific code block** (Instrumentar un bloque de código específico): -Este ejemplo añade tramos secundarios al tramo `BackupLedger.write` creado anteriormente. Este método añade un tramo secundario para cada transacción en el libro de contabilidad y una [etiqueta (tag) personalizada][1] con el ID de transacción específico. +Este ejemplo añade tramos secundarios al tramo `BackupLedger.write` creado anteriormente. Este método añade un tramo secundario para cada transacción en el libro de contabilidad y una [etiqueta personalizada][1] con el ID de transacción específico. ```python from ddtrace import tracer diff --git a/content/es/tracing/guide/send_traces_to_agent_by_api.md b/content/es/tracing/guide/send_traces_to_agent_by_api.md index c14d6f1394978..a905f76185de8 100644 --- a/content/es/tracing/guide/send_traces_to_agent_by_api.md +++ b/content/es/tracing/guide/send_traces_to_agent_by_api.md @@ -3,6 +3,8 @@ aliases: - /es/api/latest/tracing/ - /es/api/v1/tracing/ - /es/api/v2/tracing/ +description: Aprende a enviar trazas directamente al Datadog Agent utilizando la API + de rastreo para integraciones personalizadas y frameworks no compatibles. further_reading: - link: /tracing/ tag: Documentación @@ -47,7 +49,7 @@ y cada tramo es un diccionario con `trace_id`, `span_id`, `resource` y así suce |------------|---------|---------------------------------------| | `duration` | int64 | La duración de la solicitud en nanosegundos. | | `error` | int32 | Establece este valor en 1 para indicar si se ha producido un error. Si se produce un error, debes añadir información adicional, como el mensaje de error, el tipo y la información de stack en la propiedad meta. | -| `meta` | objecto | Conjunto de metadatos clave-valor. Las claves y los valores deben ser cadenas. | +| `meta` | objeto | Conjunto de metadatos clave-valor. Las claves y los valores deben ser cadenas. | | - `` | cadena | Propiedades adicionales para metadatos clave-valor. | | métricas | objeto | Un conjunto de metadatos clave-valor. Las claves deben ser cadenas y los valores deben ser números de coma flotante de 64 bits. | | - `` | doble | Propiedades adicionales para métricas clave-valor. | @@ -58,7 +60,7 @@ y cada tramo es un diccionario con `trace_id`, `span_id`, `resource` y así suce | `span_id` | int64 | El ID de número entero del tramo (64 bits sin signo). | | `start` | int64 | La hora de inicio de la solicitud en nanosegundos desde la epoch UNIX. | | `trace_id` | int64 | Los 64 bits inferiores del ID entero único para la traza que contiene este tramo. Para un ID de traza de 128 bits, configura los 64 bits superiores utilizando la etiqueta (tag) `_dd.p.tid` en formato hexadecimal en minúsculas en el campo `meta`. | -| `type` | enumerado | Tipo de solicitud. Valores de enumerado (enum) permitidos: `web`, `db`, `cache`, `custom` | +| `type` | enum | Tipo de solicitud. Valores de enumerado (enum) permitidos: `web`, `db`, `cache`, `custom` | ### Ejemplo @@ -153,6 +155,6 @@ Invoke-RestMethod -Uri $uri -Method Put -Body $body -Headers $headers {{% /tab %}} {{< /tabs >}} -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/tracing/guide/setting_primary_tags_to_scope.md b/content/es/tracing/guide/setting_primary_tags_to_scope.md index 96b258822a455..e415489f6066b 100644 --- a/content/es/tracing/guide/setting_primary_tags_to_scope.md +++ b/content/es/tracing/guide/setting_primary_tags_to_scope.md @@ -1,6 +1,8 @@ --- aliases: - /es/tracing/advanced/setting_primary_tags_to_scope/ +description: Aprende a establecer etiquetas primarias para delimitar y filtrar los + datos de APM en diferentes entornos, servicios y versiones para una mejor organización. further_reading: - link: /tracing/other_telemetry/connect_logs_and_traces/ tag: Documentación diff --git a/content/es/tracing/guide/setting_up_APM_with_cpp.md b/content/es/tracing/guide/setting_up_APM_with_cpp.md index 9d431bd636f78..11b5e56604898 100644 --- a/content/es/tracing/guide/setting_up_APM_with_cpp.md +++ b/content/es/tracing/guide/setting_up_APM_with_cpp.md @@ -1,4 +1,6 @@ --- +description: Aprende a configurar APM y el rastreo distribuido para aplicaciones C++ + utilizando bibliotecas de rastreo e instrumentación de Datadog. further_reading: - link: /tracing/trace_collection/dd_libraries/cpp/ tag: Documentación @@ -33,7 +35,7 @@ sudo apt-get update sudo apt-get -y install g++ cmake ``` -Descarga e instala la librería `dd-trace-cpp` con: +Descarga e instala la biblioteca `dd-trace-cpp` con: ```bash wget https://github.com/DataDog/dd-trace-cpp/archive/v1.0.0.tar.gz -O dd-trace-cpp.tar.gz @@ -48,7 +50,7 @@ mkdir dd-trace-cpp tar zxvf dd-trace-cpp.tar.gz -C ./dd-trace-cpp/ --strip-components=1 ``` -Por último, crea e instala la librería: +Por último, crea e instala la biblioteca: ```bash cd dd-trace-cpp @@ -139,9 +141,9 @@ Haz clic en el servicio para ver tus trazas. {{< img src="tracing/guide/setting_up_APM_with_cpp/traces_ui.png" alt="Interfaz de usuario de trazas de APM" >}} -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} [1]: /es/tracing/setup/cpp/ -[2]: https://app.datadoghq.com/account/settings/agent/latest?platform=ubuntu +[2]: https://app.datadoghq.com/account/settings/agent/latest?platform=ubuntu \ No newline at end of file diff --git a/content/es/tracing/guide/slowest_request_daily.md b/content/es/tracing/guide/slowest_request_daily.md index 039fbd53302a9..2b1f1a857444e 100644 --- a/content/es/tracing/guide/slowest_request_daily.md +++ b/content/es/tracing/guide/slowest_request_daily.md @@ -22,7 +22,7 @@ _3 minutos para completarse_ Con Datadog APM , puedes investigar el rendimiento de tus endpoints, identificar solicitudes lentas e investigar la causa raíz de los problemas de latencia. Este ejemplo muestra la [traza][1] más lenta del día para un endpoint de pago de comercio electrónico y cómo se ralentiza debido al alto uso de la CPU. -1. **Abra el [Catálogo de servicios][2]**. +1. **Abre el [Software Catalog][2]**. Esta página contiene una lista de todos los servicios que envían datos a Datadog. Ten en cuenta que puedes buscar palabras clave, filtrar por `env-tag` y establecer el marco temporal. diff --git a/content/es/tracing/guide/trace_ingestion_volume_control.md b/content/es/tracing/guide/trace_ingestion_volume_control.md index 3c2b2e70c3341..323e13bfa8608 100644 --- a/content/es/tracing/guide/trace_ingestion_volume_control.md +++ b/content/es/tracing/guide/trace_ingestion_volume_control.md @@ -1,4 +1,6 @@ --- +description: Aprende a controlar el volumen de ingesta de tramo con los mecanismos + de rastreo de APM para gestionar los costes manteniendo la observabilidad. further_reading: - link: /tracing/trace_pipeline/ingestion_controls/ tag: Documentación @@ -23,7 +25,7 @@ Si decides reducir el volumen de ingesta para determinados servicios, las **[mé **Nota**: Si tus aplicaciones y servicios están instrumentadas con bibliotecas de OpenTelemetry y configuras el muestreo en el nivel de SDK o en el nivel de Collector, las métricas de APM se basan en el conjunto **muestreado** de datos de forma predeterminada. Consulta [Muestreo de ingesta con OpenTelemetry][4] para obtener más información. -
    Fase beta: alternativamente, utiliza el Datadog Connector para calcular métricas de APM sobre los datos no muestreados. Lee Cambiar de Datadog Processor a Datadog Connector para métricas de APM con OpenTelemetry para obtener más información.
    +
    También, puedes usar el Datadog Connector para calcular las métricas de APM en datos sin muestrear. Lee Cambiar de Datadog Processor a Datadog Connector para métricas de APM de OpenTelemetry para obtener más información.
    Los datos de traza son muy repetitivos, lo que significa que las muestras de traza para investigar cualquier problema siguen estando disponibles con el muestreo de ingesta. En el caso de servicios de alto rendimiento, no suele ser necesario recopilar todas y cada una de las solicitudes: un problema lo suficientemente importante siempre debería mostrar indicios en varias trazas. Los controles de ingesta te ayudan a tener la visibilidad que necesitas para solucionar problemas sin salirse del presupuesto. @@ -41,7 +43,7 @@ Los monitores de [**análisis de traza**][6] basados en el recuento también se ## Evalúa la configuración de ingesta de tu servicio -Para evaluar el estado actual de la instrumentación de aplicaciones, aprovecha la [página de Control de ingesta de traza][1] que brinda información detallada sobre la configuración del Agent y la librería de rastreo. +Para evaluar el estado actual de la instrumentación de aplicaciones, aprovecha la [página de Control de ingesta de traza][1] que brinda información detallada sobre la configuración del Agent y la biblioteca de rastreo. ### Comprende si estás dentro de la asignación de ingesta mensual @@ -73,7 +75,7 @@ Si el servicio tiene una alta tasa de Bytes/segundo de descarga y una alta tasa ### Configura globalmente la frecuencia de muestreo de la ingesta a nivel del Agent -La columna **Configuration** (Configuración) te indica si tus servicios están configurados con reglas de muestreo. Si los servicios superiores están etiquetados con la configuración `AUTOMATIC`, al cambiar la **Agent Configuration** (Configuración del Agent) se reduce el volumen globalmente en los servicios. +La columna **Configuration** (Configuración) te indica si tus servicios están o no configurados con reglas de muestreo. Si los servicios principales están etiquetados con la configuración `AUTOMATIC`, al cambiar la **configuración del Agent** se reducirá el volumen globalmente en todos los servicios. Para reducir el volumen de ingesta en el nivel del Agent, configura `DD_APM_MAX_TPS` (establecido en `10` por defecto) para reducir la parte del volumen de muestreo basada en el título. Lee más información sobre el [mecanismo de muestreo por defecto][7]. @@ -83,13 +85,13 @@ Además, para reducir el volumen de [error][9] y trazas [poco frecuentes][10]: - Configura `DD_APM_ERROR_TPS` para reducir la cuota de error de muestreo. - Establece `DD_APM_DISABLE_RARE_SAMPLER` en true para dejar de muestrear las trazas poco frecuentes. -### Configura independientemente la frecuencia de muestreo de la ingesta para los servicios a nivel de librería +### Configura independientemente la frecuencia de muestreo de la ingesta para los servicios a nivel de biblioteca Al configurar las frecuencias de muestreo para unos pocos servicios de alto rendimiento, la mayor parte del volumen de ingesta "excedente" puede reducirse. Haz clic en un servicio para ver el **Service Ingestion Summary** (Resumen de ingesta del servicio). Observa el **Ingestion reasons breakdown** (Desglose de motivos de ingesta) en el panel lateral, que ofrece una descripción general de la parte de volumen de ingesta atribuida a cada mecanismo. -Si el motivo principal de la mayor parte del volumen de ingesta es el muestreo basado en títulos (`auto` o `rule`), el volumen puede configurarse estableciendo una regla de muestreo en el nivel de la librería de rastreo. +Si el motivo principal de la mayor parte del volumen de ingesta es el muestreo basado en títulos (`auto` o `rule`), el volumen puede configurarse estableciendo una regla de muestreo en el nivel de la biblioteca de rastreo. Haz clic en el botón **Manage Ingestion Rate** (Gestionar tasa de ingesta) para configurar una tasa de muestreo para el servicio. Selecciona el lenguaje de servicio y la frecuencia de muestreo de ingesta que deseas aplicar. @@ -112,7 +114,7 @@ El mecanismo por defecto para muestrear trazas es el muestreo basado en la fase El muestreo basado en la fase inicial es configurable en las bibliotecas de rastreo o desde el Datadog Agent: -| Motivo de la ingesta | Dónde | Descripción del mecanismo de ingesta | Predeterminado | +| Motivo de la ingesta | Dónde | Descripción del mecanismo de ingesta | Valor predeterminado | |--------------------|-------------------|-----------------------|---------| | `auto` | [Agent](#globally-configure-the-ingestion-sampling-rate-at-the-agent-level) | El Datadog Agent distribuye las frecuencias de muestreo a las bibliotecas de rastreo. | 10 trazas por segundo por Agent | | `rule` | [Bibliotecas de rastreo](#independently-configure-the-ingestion-sampling-rate-for-services-at-the-library-level) | El porcentaje de muestreo definido por las bibliotecas para servicios específicos. | nulo | @@ -120,10 +122,10 @@ El muestreo basado en la fase inicial es configurable en las bibliotecas de rast Otros motivos de ingesta aparecen en la página Control de la ingesta y como una etiqueta en la métrica `datadog.estimated_usage.apm.ingested_bytes`. Estas razones de ingesta pueden ser responsables de tu volumen de ingesta: -| Motivo de la ingesta | Dónde | Descripción del mecanismo de ingesta | Predeterminado | +| Motivo de la ingesta | Dónde | Descripción del mecanismo de ingesta | Valor predeterminado | |--------------------|-------------------|-----------------------|---------| | `error` | [Agent](#globally-configure-the-ingestion-sampling-rate-at-the-agent-level) | Muestreo de errores no detectados por el muestreo basado en la fase inicial. | 10 trazas por segundo por Agent (nulo, si se definen reglas) | -| `rare` | [Agent](#globally-configure-the-ingestion-sampling-rate-at-the-agent-level) | Muestreo de trazas poco frecuentes (captura de todas las combinaciones de un conjunto de span tags). | 5 trazas por segundo por Agent (nulo, si se definen reglas) | +| `rare` | [Agent](#globally-configure-the-ingestion-sampling-rate-at-the-agent-level) | Muestreo de trazas poco frecuentes (captura de todas las combinaciones de un conjunto de etiquetas de tramo). | 5 trazas por segundo por Agent (nulo, si se definen reglas) | | `manual` | En el código | Anulación de decisión en código para mantener/descartar un tramo y sus secundarios. | nulo | | `analytics` | Agent y bibliotecas de rastreo | [Mecanismo de ingesta obsoleto][16] que muestrea tramos únicos sin la traza completa. | nulo | @@ -135,7 +137,7 @@ Además, otros productos pueden ser responsables del volumen de tramos muestread Más información sobre los motivos de ingesta en la [documentación sobre Mecanismos de ingesta][2]. -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} @@ -154,4 +156,4 @@ Más información sobre los motivos de ingesta en la [documentación sobre Mecan [13]: https://github.com/open-telemetry/opentelemetry-specification/blob/main/specification/trace/sdk.md#parentbased [14]: https://github.com/open-telemetry/opentelemetry-collector-contrib/blob/main/processor/tailsamplingprocessor/README.md [15]: https://github.com/open-telemetry/opentelemetry-collector-contrib/blob/main/processor/probabilisticsamplerprocessor/README.md -[16]: /es/tracing/legacy_app_analytics +[16]: /es/tracing/legacy_app_analytics \ No newline at end of file diff --git a/content/es/tracing/guide/week_over_week_p50_comparison.md b/content/es/tracing/guide/week_over_week_p50_comparison.md index a405d204099b1..8b13dd1be5055 100644 --- a/content/es/tracing/guide/week_over_week_p50_comparison.md +++ b/content/es/tracing/guide/week_over_week_p50_comparison.md @@ -1,4 +1,6 @@ --- +description: Aprende a crear dashboards y monitores que comparen las métricas de latencia + del servicio semana tras semana para identificar tendencias y problemas de rendimiento. further_reading: - link: /tracing/guide/alert_anomalies_p99_database/ tag: 3 minutos @@ -46,7 +48,7 @@ Datadog puede mostrarte la latencia de tu aplicación a lo largo del tiempo y c **Nota**: A medida que realices tu análisis, puedes exportar este gráfico a cualquier dashboard desde la vista del servicio, y mostrar estos datos junto a cualquier otro gráfico generado en Datadog, incluyendo tus métricas personalizadas, información de nivel de host y logs. -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/tracing/metrics/metrics_namespace.md b/content/es/tracing/metrics/metrics_namespace.md index 959fb951e5915..6a935b3a8a31b 100644 --- a/content/es/tracing/metrics/metrics_namespace.md +++ b/content/es/tracing/metrics/metrics_namespace.md @@ -5,6 +5,9 @@ algolia: aliases: - /es/tracing/getting_further/metrics_namespace - /es/tracing/guide/metrics_namespace +description: Guía completa de las métricas de trazas de APM, incluido el espacio de + nombres, los tipos (aciertos, errores, latencia, Apdex) y cómo se calculan a partir + del tráfico de la aplicación. further_reading: - link: tracing/trace_collection/ tag: Documentación @@ -49,7 +52,7 @@ Con las siguientes definiciones: : Nombre de la métrica (ejemplos: `hits`, `errors`, `apdex`, `duration`). Consulta la sección siguiente. `` -: Rastrea etiquetas (tags) de métricas. Las etiquetas posibles son: `env`, `service`, `version`, `resource`, `http.status_code`, `http.status_class`, `rpc.grpc.status_code`(requiere el Datadog Agent v7.65.0 o posterior) y etiquetas del Datadog Agent (incluyendo [etiquetas primarias adicionales][4] y del host). +: Rastrea etiquetas (tags) de métricas. Las etiquetas posibles son: `env`, `service`, `version`, `resource`, `http.status_code`, `http.status_class`, `rpc.grpc.status_code`(requiere el Datadog Agent v7.65.0 o posterior) y etiquetas del Datadog Agent (incluyendo [etiquetas primarias adicionales][4] y del host). : **Nota:** Otras etiquetas configuradas en tramos no están disponibles como etiquetas en métricas de rastreo. ## Sufijo de métrica @@ -105,7 +108,7 @@ Las siguientes métricas se mantienen con fines de compatibilidad con versiones ### Duración (legacy)
    -Importante: Las métricas de duración se mantienen sólo con fines de compatibilidad con versiones anteriores. Para todos los casos de uso de medición de la latencia, Datadog recomienda especialmente utilizar métricas de distribución de la latencia, ya que proporcionan una mayor precisión para los cálculos de percentiles y el análisis general del rendimiento. +Importante: Las métricas de duración se mantienen solo por compatibilidad con versiones anteriores. Para todos los casos de uso de medición de latencia, Datadog recomienda encarecidamente utilizar las métricas de distribución de latencia en su lugar, ya que proporcionan una mayor precisión para los cálculos de percentiles y el análisis general del rendimiento.
    `trace..duration` @@ -119,7 +122,7 @@ Esta métrica no admite agregaciones de percentiles. Para obtener más informaci ### Duración (legacy)
    -Importante: Las métricas de duración se mantienen sólo con fines de compatibilidad con versiones anteriores. Para todos los casos de uso de medición de la latencia, Datadog recomienda especialmente utilizar métricas de distribución de la latencia, ya que proporcionan una mayor precisión para los cálculos de percentiles y el análisis general del rendimiento. +Importante: Las métricas de duración se mantienen solo por compatibilidad con versiones anteriores. Para todos los casos de uso de medición de latencia, Datadog recomienda encarecidamente utilizar las métricas de distribución de latencia en su lugar, ya que proporcionan una mayor precisión para los cálculos de percentiles y el análisis general del rendimiento.
    `trace..duration.by_http_status` @@ -130,11 +133,11 @@ Esta métrica no admite agregaciones de percentiles. Para obtener más informaci ## Impacto del muestreo en métricas de rastreo -En la mayoría de los casos, las métricas de rastreo se calculan sobre la base de todo el tráfico de la aplicación. Sin embargo, con determinadas configuraciones de muestreo de la ingesta de trazas, las métricas representan sólo un subconjunto de todas las solicitudes. +En la mayoría de los casos, las métricas de rastreo se calculan sobre la base de todo el tráfico de la aplicación. Sin embargo, con determinadas configuraciones de muestreo de la ingesta de trazas, las métricas representan solo un subconjunto de todas las solicitudes. -### Muestreo del lado de la aplicación +### Muestreo del lado de la aplicación -Algunas bibliotecas de rastreo admiten el muestreo del lado de la aplicación, que reduce el número de tramos antes de que se envíen al Datadog Agent. Por ejemplo, la librería de rastreo Ruby proporciona un muestreo del lado de la aplicación para reducir la sobrecarga de rendimiento. Sin embargo, esto puede afectar a las métricas de rastreo, ya que el Datadog Agent necesita todos los tramos para calcular métricas precisas. +Algunas bibliotecas de rastreo admiten el muestreo del lado de la aplicación, que reduce el número de tramos antes de que se envíen al Datadog Agent. Por ejemplo, la biblioteca de rastreo Ruby proporciona un muestreo del lado de la aplicación para reducir la sobrecarga de rendimiento. Sin embargo, esto puede afectar a las métricas de rastreo, ya que el Datadog Agent necesita todos los tramos para calcular métricas precisas. Muy pocas bibliotecas de rastreo admiten esta configuración y por lo general no se recomienda su uso. @@ -160,4 +163,4 @@ Los tramos X-Ray se muestrean antes de enviarse a Datadog, lo que significa que [7]: /es/metrics/types/?tab=gauge#metric-types [8]: /es/tracing/software_catalog/#services-types [9]: /es/tracing/glossary/#services -[10]: /es/tracing/guide/configure_an_apdex_for_your_traces_with_datadog_apm/ +[10]: /es/tracing/guide/configure_an_apdex_for_your_traces_with_datadog_apm/ \ No newline at end of file diff --git a/content/es/tracing/other_telemetry/connect_logs_and_traces/nodejs.md b/content/es/tracing/other_telemetry/connect_logs_and_traces/nodejs.md index e05e03e8728d0..ad5caa0d508d9 100644 --- a/content/es/tracing/other_telemetry/connect_logs_and_traces/nodejs.md +++ b/content/es/tracing/other_telemetry/connect_logs_and_traces/nodejs.md @@ -24,22 +24,57 @@ type: multi-code-lang ## Inyección automática -Activa la inyección con la variable de entorno `DD_LOGS_INJECTION=true` o configurando directamente el rastreador: +Permite la inyección automática del ID de traza para `bunyan`, `paperplane`, `pino` y `winston` cuando se utilizan registradores de aplicación estructurados. + +Para versiones anteriores del rastreador, la inyección puede activarse con la variable de entorno `DD_LOGS_INJECTION=true` o configurando el rastreador directamente: ```javascript -// Esta línea debe ir antes de importar el registrador. +// This line must come before importing the logger. const tracer = require('dd-trace').init({ - logInjection: true + logInjection: false }); ``` -Esto permite la inyección automática de ID de traza para `bunyan`, `paperplane`, `pino` y `winston`. - Si aún no lo has hecho, configura el rastreador de Node.js con `DD_ENV`, `DD_SERVICE` y `DD_VERSION`. Esto proporcionará la mejor experiencia para añadir `env`, `service` y `version` (ve [etiquetado de servicios unificado][1] para obtener más detalles). **Nota**: La inyección automática solo funciona para logs con formato JSON. +### Ejemplo con Winston y Express + +He aquí un ejemplo sencillo en el que se utiliza Winston con Express: + +```javascript +// init tracer first +require('dd-trace').init({ logInjection: true }); + +const express = require('express'); +const { createLogger, format, transports } = require('winston'); + +const logger = createLogger({ + level: 'info', + format: format.json(), // JSON required for auto-injection + transports: [new transports.Console()] +}); + +const app = express(); + +app.get('/hello', (req, res) => { + logger.info('hello world'); + // dd.trace_id & dd.span_id will be auto-added + res.json({ ok: true }); +}); + +const port = process.env.PORT || 3000; +app.listen(port, () => logger.info(`listening on ${port}`)); +``` + +Esto devolvería un log en el formato: + +``` +{"dd":{"service":"minimal-nodejs-datadog-log-injection","span_id":"8985025821692657638","trace_id":"68c2114800000000669b6b6b2aaf59c9","version":"1.0.0"},"level":"info","message":"hello world"} +``` + ## Inyección manual Si estás utilizando una biblioteca de registro no compatible con la inyección automática, pero utilizas el formato JSON, es posible hacer la inyección manual directamente en tu código. @@ -67,7 +102,7 @@ class Logger { module.exports = Logger; ``` -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/tracing/services/inferred_services.md b/content/es/tracing/services/inferred_services.md index 1310c6ca91aad..fc28076ddb45f 100644 --- a/content/es/tracing/services/inferred_services.md +++ b/content/es/tracing/services/inferred_services.md @@ -1,6 +1,8 @@ --- aliases: - /es/tracing/guide/inferred-service-opt-in +description: Descubre automáticamente dependencias de servicios como bases de datos + y colas mediante el análisis de solicitudes salientes. further_reading: - link: /tracing/services/service_page/ tag: Documentación @@ -42,7 +44,7 @@ Alternativamente, configura estas variables de entorno en tu configuración del {{< code-block collapsible="true" lang="yaml" >}} -DD_APM_COMPUTE_STATS_BY_SPAN_KIND=true +DD_APM_COMPUTE_STATS_BY_SPAN_KIND=true DD_APM_PEER_TAGS_AGGREGATION=true {{< /code-block >}} @@ -70,7 +72,7 @@ Alternativamente, configura estas variables de entorno en tu configuración del {{< code-block collapsible="true" lang="yaml" >}} -DD_APM_COMPUTE_STATS_BY_SPAN_KIND=true +DD_APM_COMPUTE_STATS_BY_SPAN_KIND=true DD_APM_PEER_TAGS_AGGREGATION=true DD_APM_PEER_TAGS='["_dd.base_service","amqp.destination","amqp.exchange","amqp.queue","aws.queue.name","aws.s3.bucket","bucketname","cassandra.keyspace","db.cassandra.contact.points","db.couchbase.seed.nodes","db.hostname","db.instance","db.name","db.namespace","db.system","grpc.host","hostname","http.host","http.server_name","messaging.destination","messaging.destination.name","messaging.kafka.bootstrap.servers","messaging.rabbitmq.exchange","messaging.system","mongodb.db","msmq.queue.path","net.peer.name","network.destination.name","peer.hostname","peer.service","queuename","rpc.service","rpc.system","server.address","streamname","tablename","topicname"]' @@ -106,7 +108,7 @@ exporters: traces: compute_stats_by_span_kind: true peer_tags_aggregation: true - peer_tags: ["_dd.base_service","amqp.destination","amqp.exchange","amqp.queue","aws.queue.name","aws.s3.bucket","bucketname","db.cassandra.contact.points","db.couchbase.seed.nodes","db.hostname","db.instance","db.name","db.namespace","db.system","grpc.host","hostname","http.host","http.server_name","messaging.destination","messaging.destination.name","messaging.kafka.bootstrap.servers","messaging.rabbitmq.exchange","messaging.system","mongodb.db","msmq.queue.path","net.peer.name","network.destination.name","peer.hostname","peer.service","queuename","rpc.service","rpc.system","server.address","streamname","tablename","topicname"] + peer_tags: ["_dd.base_service","amqp.destination","amqp.exchange","amqp.queue","aws.queue.name","aws.s3.bucket","bucketname","db.cassandra.contact.points","db.couchbase.seed.nodes","db.hostname","db.instance","db.name","db.namespace","db.system","grpc.host","hostname","http.host","http.server_name","messaging.destination","messaging.destination.name","messaging.kafka.bootstrap.servers","messaging.rabbitmq.exchange","messaging.system","mongodb.db","msmq.queue.path","net.peer.name","network.destination.name","peer.hostname","peer.service","queuename","rpc.service","rpc.system","server.address","streamname","tablename","topicname"] {{< /code-block >}} @@ -119,7 +121,7 @@ exporters: ## Nombrar entidades inferidas -Para determinar los nombres y los tipos de las dependencias de servicios inferidos, Datadog utiliza atributos de tramo (span) estándar y los asigna a atributos `peer.*`. Por ejemplo, las API externas inferidas utilizan el esquema de nomenclatura por defecto `net.peer.name` como `api.stripe.com`, `api.twilio.com` y `us6.api.mailchimp.com`. Las bases de datos inferidas utilizan el esquema de nomenclatura por defecto `db.instance`. +Para determinar los nombres y tipos de las dependencias de servicio inferidas, Datadog utiliza atributos estándar de tramo y los asigna a atributos de `peer.*`. Por ejemplo, las API externas inferidas utilizan el esquema de nomenclatura predeterminado `net.peer.name` como `api.stripe.com`, `api.twilio.com` y `us6.api.mailchimp.com`. Las bases de datos inferidas utilizan el esquema de nomenclatura predeterminado `db.instance`. Puedes renombrar entidades inferidas creando [reglas de renombrado][5]. ### Etiquetas (tags) pares @@ -161,9 +163,9 @@ Si la etiqueta con mayor prioridad, como `peer.db.name`, no se detecta como part Con los servicios inferidos, las dependencias de servicios se detectan automáticamente a partir de los atributos de tramo existentes. Como resultado, no es necesario cambiar los nombres de los servicios (utilizando la etiqueta `service`) para identificar estas dependencias. -Habilita `DD_TRACE_REMOVE_INTEGRATION_SERVICE_NAMES_ENABLED` para asegurarte de que ninguna integración Datadog defina nombres de servicios diferentes del nombre global del servicio por defecto. Esto también mejora la forma en que las conexiones servicio-a-servicio y los servicios inferidos son representados en las visualizaciones de Datadog, a través de todos los lenguajes de librerías de rastreo e integraciones compatibles. +Habilita `DD_TRACE_REMOVE_INTEGRATION_SERVICE_NAMES_ENABLED` para asegurarte de que ninguna integración Datadog defina nombres de servicios diferentes del nombre global del servicio por defecto. Esto también mejora la forma en que las conexiones servicio-a-servicio y los servicios inferidos son representados en las visualizaciones de Datadog, a través de todos los lenguajes de bibliotecas de rastreo e integraciones compatibles. -
    La activación de esta opción puede afectar a métricas de APM, métricas de tramos personalizadas, análisis de trazas (traces), filtros de retención, análisis de datos confidenciales, monitores, dashboards o notebooks existentes que hacen referencia a los antiguos nombres de servicios. Actualiza estos recursos para utilizar la etiqueta global de servicio por defecto (servicio:<DD_SERVICE>).
    +
    La activación de esta opción puede afectar a las métricas existentes de APM, las métricas personalizadas de tramo, los análisis de traza, los filtros de retención, los escaneos de datos confidenciales, los monitores, los dashboards o los notebooks que hacen referencia a los antiguos nombres de servicio. Actualiza estos activos para utilizar la etiqueta de servicio global predeterminada(service:<DD_SERVICE>).
    Para obtener instrucciones sobre cómo eliminar servicios anulados y migrar a servicios inferidos, consulta la guía [Anulación de servicios][4]. @@ -171,6 +173,8 @@ Para obtener instrucciones sobre cómo eliminar servicios anulados y migrar a se [2]: /es/tracing/services/service_page [3]: /es/database_monitoring/ [4]: /es/tracing/guide/service_overrides +[5]: /es/tracing/services/renaming_rules/ + {{< /site-region >}} {{< site-region region="gov" >}}
    La función de servicios inferidos no está disponible por defecto en tu centro de datos. Rellena este formulario para solicitar acceso.
    @@ -179,4 +183,4 @@ Para obtener instrucciones sobre cómo eliminar servicios anulados y migrar a se ## Referencias adicionales -{{< partial name="whats-next/whats-next.html" >}} +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/tracing/trace_collection/automatic_instrumentation/dd_libraries/java.md b/content/es/tracing/trace_collection/automatic_instrumentation/dd_libraries/java.md index fb1b1250bbeb9..9e0bd4dd5efe8 100644 --- a/content/es/tracing/trace_collection/automatic_instrumentation/dd_libraries/java.md +++ b/content/es/tracing/trace_collection/automatic_instrumentation/dd_libraries/java.md @@ -31,7 +31,7 @@ Antes de empezar, asegúrate de haber [instalado y configurado el Agent][18]. ### Instrumentar tu solicitud -Después de instalar y configurar tu Datadog Agent, el siguiente paso es añadir la librería de rastreo directamente en la aplicación para instrumentarla. Consulta más bibliografía con [información sobre la compatibilidad][1]. +Después de instalar y configurar tu Datadog Agent, el siguiente paso es añadir la biblioteca de rastreo directamente en la aplicación para instrumentarla. Consulta más bibliografía con [información sobre la compatibilidad][1]. Para empezar a rastrear tus aplicaciones: @@ -65,9 +65,11 @@ Para empezar a rastrear tus aplicaciones: ```text java -javaagent:/path/to/dd-java-agent.jar -Ddd.profiling.enabled=true -Ddd.logs.injection=true -Ddd.service=my-app -Ddd.env=staging -Ddd.version=1.0 -jar path/to/your/app.jar ``` - Si tienes mucha necesidad de reducir el tamaño de tu imagen y omitir módulos, puedes utilizar el comando [jdeps][19] para identificar dependencias. Sin embargo, los módulos necesarios pueden cambiar con el tiempo, así que hazlo bajo tu propia responsabilidad. + **Nota**: Si tienes una gran necesidad de reducir el tamaño de tu imagen y omitir módulos, puedes utilizar el comando [`jdeps`][19] para identificar dependencias. Sin embargo, los módulos necesarios pueden cambiar con el tiempo, así que hazlo bajo tu propia responsabilidad. -
    Habilitar la creación de perfiles puede afectar a tu factura en función de tu paquete APM. Para obtener más información, consulta la página de tarifas.
    + **Nota**: Al activar el rastreador para Java 24+, es posible que aparezcan advertencias relacionadas con el acceso nativo JNI o el acceso a memoria `sun.misc.Unsafe`. Suprime estas advertencias añadiendo las variables de entorno `--illegal-native-access=allow` y `--sun-misc-unsafe-memory-access=allow` justo antes del argumento `-javaagent:/path/to/dd-java-agent.jar`. Consulta [JEP 472][23] y [JEP 498][24] para más información. + +
    La activación de la creación de perfiles puede afectar tu factura según tu paquete de APM. Consulta la página de precios para obtener más información.
    | Variable de entorno | Propiedad del sistema | Descripción| | --------- | --------------------------------- | ------------ | @@ -214,7 +216,21 @@ La instrumentación puede venir de la instrumentación automática, de la API Op ## Configuración -Si es necesario, configura la librería de rastreo para que envíe datos de telemetría sobre el rendimiento de la aplicación, según sea necesario, incluida la configuración del etiquetado unificado de servicios. Para ver más detalles, consulta la [configuración de librerías][9]. +Si es necesario, configura la biblioteca de rastreo para que envíe datos de telemetría sobre el rendimiento de la aplicación, según sea necesario, incluida la configuración del etiquetado unificado de servicios. Para ver más detalles, consulta la [configuración de bibliotecas][9]. + +### Configuración remota + +La configuración remota permite a Datadog Agent configurar dinámicamente los ajustes de rastreo sin necesidad de reiniciar la aplicación. Por defecto, la configuración remota está activada. Para desactivarla, establece la variable de entorno: + +``` +DD_REMOTE_CONFIG_ENABLED=false +``` + +O añade la propiedad del sistema de JVM: + +``` +-Ddd.remote_config.enabled=false +``` ## Referencias adicionales @@ -232,10 +248,12 @@ Si es necesario, configura la librería de rastreo para que envíe datos de tele [9]: /es/tracing/trace_collection/library_config/java/ [10]: /es/tracing/trace_collection/compatibility/java/#supported-jvm-runtimes [11]: /es/tracing/trace_collection/library_injection_local/ -[16]: /es/agent/remote_config/ +[16]: /es/tracing/guide/remote_config [17]: https://app.datadoghq.com/services [18]: /es/tracing/trace_collection/automatic_instrumentation/?tab=datadoglibraries#install-and-configure-the-agent [19]: https://docs.oracle.com/en/java/javase/11/tools/jdeps.html [20]: https://docs.github.com/en/account-and-profile/managing-subscriptions-and-notifications-on-github/managing-subscriptions-for-activity-on-github/viewing-your-subscriptions [21]: https://github.com/DataDog/dd-trace-java/releases [22]: https://docs.datadoghq.com/es/getting_started/support/ +[23]: https://openjdk.org/jeps/472 +[24]: https://openjdk.org/jeps/498 \ No newline at end of file diff --git a/content/es/tracing/trace_collection/automatic_instrumentation/dd_libraries/ruby_v1.md b/content/es/tracing/trace_collection/automatic_instrumentation/dd_libraries/ruby_v1.md index a9a38e0b39a2e..862e8c2494589 100644 --- a/content/es/tracing/trace_collection/automatic_instrumentation/dd_libraries/ruby_v1.md +++ b/content/es/tracing/trace_collection/automatic_instrumentation/dd_libraries/ruby_v1.md @@ -2111,7 +2111,7 @@ Por ejemplo, si `tracing.sampling.default_rate` está configurado mediante [conf | | `DD_TRACE_AGENT_URL` | `nil` | Configura el endpoint de la URL donde se envían las trazas. Tiene prioridad sobre `agent.host` y `agent.port`. Si la [configuración del Agent](#configuring-trace-data-ingestion) configura `receiver_port` o `DD_APM_RECEIVER_PORT` con un valor distinto del valor predeterminado `8126`, entonces `DD_TRACE_AGENT_PORT` o `DD_TRACE_AGENT_URL` deben coincidir con él. | | `diagnostics.debug` | `DD_TRACE_DEBUG` | `false` | Habilita o deshabilita el modo de depuración. Imprime logs con información detallada. **NO recomendado para entornos de producción u otros entornos confidenciales.** Para obtener más detalles, consulta [Depuración y diagnóstico](#debugging-and-diagnostics). | | `diagnostics.startup_logs.enabled` | `DD_TRACE_STARTUP_LOGS` | `nil` | Imprime la configuración de inicio y los diagnósticos para registrar. Para evaluar el estado del rastreo al inicio de la aplicación y obtener más detalles, consulta [Depuración y diagnóstico](#debugging-and-diagnostics). | -| `env` | `DD_ENV` | `nil` | Tu entorno de aplicación. (Por ejemplo, `production`, `staging`, etc.) Este valor se drfine como una etiqueta en todas las trazas. | +| `env` | `DD_ENV` | `nil` | Tu entorno de aplicación. (Por ejemplo, `production`, `staging`, etc.) Este valor se define como una etiqueta en todas las trazas. | | `service` | `DD_SERVICE` | *Nombre de archivo de Ruby* | El nombre de servicio por defecto de tu aplicación. (Por ejemplo, `billing-api`). Este valor se establece como una etiqueta en todas las trazas. | | `tags` | `DD_TAGS` | `nil` | Etiquetas personalizadas en pares de valores separados por `,` (por ejemplo, `layer:api,team:intake`). Estas etiquetas se configuran en todas las trazas. Para más detalles, consulta [Entorno y etiquetas](#environment-and-tags). | | `time_now_provider` | | `->{ Time.now }` | Cambia cómo se recupera la hora. Para obtener más detalles, consulta [Configuración del proveedor de tiempo](#setting-the-time-provider). | diff --git a/content/es/tracing/trace_collection/compatibility/nodejs.md b/content/es/tracing/trace_collection/compatibility/nodejs.md index 23056efbee367..fde34ab20f012 100644 --- a/content/es/tracing/trace_collection/compatibility/nodejs.md +++ b/content/es/tracing/trace_collection/compatibility/nodejs.md @@ -16,7 +16,7 @@ type: multi-code-lang ### Control de versiones -El control de versiones de la librería de rastreo de Datadog Node.js sigue [control de versiones semántico][1]. Cuando se publica una nueva versión principal, se convierte en la línea de publicación principal, donde aterrizan todas las nuevas funciones, correcciones de errores y parches de seguridad. Aquí hay un esquema de lo que constituye cada tipo de cambio de control de versiones semántico: +El control de versiones de la biblioteca de rastreo de Datadog Node.js sigue [control de versiones semántico][1]. Cuando se publica una nueva versión principal, se convierte en la línea de publicación principal, donde aterrizan todas las nuevas funciones, correcciones de errores y parches de seguridad. Aquí hay un esquema de lo que constituye cada tipo de cambio de control de versiones semántico: | Principal | Secundaria | Parche | |---------------------------------|-------------------------------------------------------------------------|----------------------| @@ -38,7 +38,7 @@ Si tienes alguna pregunta o duda sobre nuestro soporte técnico para una versió ### Soporte técnico de versiones de Node.js Cuando el proyecto Node.js deja de dar soporte técnico a una línea de versión principal LTS (cuando pasa a EOL), se le deja de dar soporte técnico en la siguiente versión principal de `dd-trace`. -La última línea de versión principal que da soporte técnico de la librería de `dd-trace` brinda soporte técnico a esa versión EOL de Node.js durante por lo menos otro año en el modo de mantenimiento. +La última línea de versión principal que da soporte técnico de la biblioteca de `dd-trace` brinda soporte técnico a esa versión EOL de Node.js durante por lo menos otro año en el modo de mantenimiento. Algunos problemas no pueden resolverse en `dd-trace` y deben solucionarse en Node.js. Cuando esto ocurre y la versión de Node.js en cuestión es EOL, no es posible resolver el problema sin pasar a otra versión que no sea EOL. En Datadog no se realizan nuevas versiones de `dd-trace` para ofrecer soporte técnico para las líneas de versiones principales de Node.js que no son LTS (versiones impares). @@ -68,7 +68,7 @@ APM proporciona instrumentación predefinida para muchos marcos de trabajo popul Para obtener más información sobre cómo intercambiar y configurar las extensiones, restaura la [documentación de la API][5]. -### Compatibilidad con web frameworks +### Compatibilidad con marcos web | Módulo | Versiones | Tipo de soporte técnico | Notas | | ----------------------- | -------- | --------------- | ------------------------------------------ | @@ -146,14 +146,16 @@ O bien modifica el archivo `package.json` si sueles iniciar una aplicación con ### Compatibilidad con Worker -| Módulo | Versiones | Tipo de soporte técnico | Notas | -| -------------------------- | -------- | --------------- | ------------------------------------------------------ | -| [@google-cloud/pubsub][42] | `>=1.2` | Totalmente compatible | | -| [amqp10][43] | `>=3` | Totalmente compatible | Compatible con brokers AMQP 1.0 (como ActiveMQ o Apache Qpid) | -| [amqplib][44] | `>=0.5` | Totalmente compatible | Compatible con brokers AMQP 0.9 (como RabbitMQ o Apache Qpid) | -| [generic-pool][45] | `>=2` | Totalmente compatible | | -| [kafkajs][46] | `>=1.4` | Totalmente compatible | | -| [rhea][48] | `>=1` | Totalmente compatible | | +| Módulo | Versiones | Tipo de soporte técnico | Notas | +| -------------------------- | -------- | --------------- | ------------------------------------------------------ | +| [@azure/service-bus][68] | `>=7.9.2` | Totalmente compatible | | +| [@confluentinc/kafka-javascript][67] | `>=1` | Totalmente compatible | | +| [@google-cloud/pubsub][42] | `>=1.2` | Totalmente compatible | | +| [amqp10][43] | `>=3` | Totalmente compatible | Compatible con brokers AMQP 1.0 (como ActiveMQ o Apache Qpid) | +| [amqplib][44] | `>=0.5` | Totalmente compatible | Compatible con brokers AMQP 0.9 (como RabbitMQ o Apache Qpid) | +| [generic-pool][45] | `>=2` | Totalmente compatible | | +| [kafkajs][46] | `>=1.4` | Totalmente compatible | | +| [rhea][48] | `>=1` | Totalmente compatible | | ### Compatibilidad con SDK @@ -190,7 +192,7 @@ O bien modifica el archivo `package.json` si sueles iniciar una aplicación con Para más información o para debatir [deja un comentario en este tema de github][62] o [ponte en contacto con el servicio de soporte técnico][3] para seguir hablando. -## Para leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} @@ -258,3 +260,5 @@ Para más información o para debatir [deja un comentario en este tema de github [64]: https://github.com/openai/openai-node [65]: https://github.com/dotansimha/graphql-yoga [66]: https://js.langchain.com/ +[67]: https://www.npmjs.com/package/@confluentinc/kafka-javascript +[68]: https://www.npmjs.com/package/@azure/service-bus \ No newline at end of file diff --git a/content/es/tracing/trace_pipeline/ingestion_mechanisms.md b/content/es/tracing/trace_pipeline/ingestion_mechanisms.md index 1c030b32debb9..08ca0b7b225b5 100644 --- a/content/es/tracing/trace_pipeline/ingestion_mechanisms.md +++ b/content/es/tracing/trace_pipeline/ingestion_mechanisms.md @@ -35,7 +35,7 @@ Como la decisión se toma al comienzo de la traza y, luego, se transmite a todas Puedes configurar la frecuencias de muestreo para el muestreo basado en la fase inicial en dos lugares: - En el **[Agent](#in-the-agent)** (por defecto) -- A nivel de la **[biblioteca de rastreo](#in-tracing-libraries-user-defined-rules)**: los mecanismos de la librería de rastreo sustituyen a la configuración del Agent. +- A nivel de la **[biblioteca de rastreo](#in-tracing-libraries-user-defined-rules)**: los mecanismos de la biblioteca de rastreo sustituyen a la configuración del Agent. ### En el Agent `ingestion_reason: auto` @@ -65,7 +65,7 @@ Todos los tramos de una traza muestreada utilizando el Datadog Agent [frecuencia ### En las bibliotecas de rastreo: reglas definidas por el usuario `ingestion_reason: rule` -Para llevar a cabo un control más pormenorizado, utiliza las opciones de configuración de muestreo de la librería de rastreo: +Para llevar a cabo un control más pormenorizado, utiliza las opciones de configuración de muestreo de la biblioteca de rastreo: - Configura una **frecuencia de muestreo específica que se aplicará a la raíz del rastreo**, por servicio y/o nombre del recurso, sustituyendo el [mecanismo por defecto] del Agent(#in-the-agent). - Configura un **límite de frecuencia** para restringir el número de trazas ingeridas por segundo. El límite de la frecuencia por defecto es de 100 trazas por segundo por instancia de servicio (cuando se utiliza el [mecanismo por defecto](#in-the-agent) del Agent, se omite el limitador de frecuencia). @@ -103,14 +103,14 @@ Define la variable de entorno `DD_TRACE_RATE_LIMIT` en un número de trazas por **Nota**: El uso de `DD_TRACE_SAMPLE_RATE` está obsoleto. Utiliza `DD_TRACE_SAMPLING_RULES` en su lugar. Por ejemplo, si ya has establecido `DD_TRACE_SAMPLE_RATE` en `0.1`, establece`DD_TRACE_SAMPLING_RULES` en `[{"sample_rate":0.1}]` en su lugar. -Más información sobre los controles de muestreo en la [documentación de librerías de rastreo de Java][2]. +Más información sobre los controles de muestreo en la [documentación de bibliotecas de rastreo de Java][2]. [1]: /es/tracing/guide/resource_based_sampling [2]: /es/tracing/trace_collection/dd_libraries/java [3]: https://github.com/DataDog/dd-trace-java/releases/tag/v1.26.0 {{% /tab %}} {{% tab "Python" %}} -**Remote configuration** +**Configuración remota** A partir de la versión 2.9.0, para las aplicaciones Python, configura las frecuencias de muestreo por servicio y por recurso desde la interfaz de usuario de la página de control de la ingesta. @@ -131,14 +131,14 @@ Define la variable de entorno `DD_TRACE_RATE_LIMIT` en un número de trazas por **Nota**: El uso de `DD_TRACE_SAMPLE_RATE` está obsoleto. Utiliza `DD_TRACE_SAMPLING_RULES` en su lugar. Por ejemplo, si ya has establecido `DD_TRACE_SAMPLE_RATE` en `0.1`, establece `DD_TRACE_SAMPLING_RULES` en `[{"sample_rate":0.1}]` en su lugar. -Más información sobre los controles de muestreo en la [documentación de la librería de rastreo de Python][2]. +Más información sobre los controles de muestreo en la [documentación de la biblioteca de rastreo de Python][2]. [1]: https://github.com/DataDog/dd-trace-py/releases/tag/v2.8.0 [2]: /es/tracing/trace_collection/dd_libraries/python [3]: /es/tracing/guide/resource_based_sampling/ {{% /tab %}} {{% tab "Ruby" %}} -**Remote configuration** +**Configuración remota** A partir de la versión 2.0.0, para las aplicaciones Ruby, configura las frecuencias de muestreo por servicio y por recurso desde la interfaz de usuario de la página de control de la ingesta. @@ -147,7 +147,7 @@ Para obtener más información sobre cómo configurar remotamente las frecuencia **Nota**: La configuración remota tiene prioridad sobre la configuración local. **Configuración local** -Para aplicaciones Ruby, configura una frecuencia de muestreo global para la librería utilizando la variable de entorno `DD_TRACE_SAMPLE_RATE`. Configura frecuencias de muestreo por servicio con la variable de entorno `DD_TRACE_SAMPLING_RULES`. +Para aplicaciones Ruby, configura una frecuencia de muestreo global para la biblioteca utilizando la variable de entorno `DD_TRACE_SAMPLE_RATE`. Configura frecuencias de muestreo por servicio con la variable de entorno `DD_TRACE_SAMPLING_RULES`. Por ejemplo, para enviar el 50 % de las trazas del servicio llamado `my-service` y el 10 % del resto de las trazas: @@ -158,7 +158,7 @@ export DD_TRACE_SAMPLING_RULES='[{"service": "my-service", "sample_rate": 0.5}]' Define la variable de entorno `DD_TRACE_RATE_LIMIT` en un número de trazas por segundo por instancia de servicio para configurar un límite de frecuencia. Si no se define ningún valor `DD_TRACE_RATE_LIMIT`, se aplicará un límite de 100 trazas por segundo. -Obtén más información sobre los controles de muestreo en la [documentación acerca de la librería de rastreo de Ruby][1]. +Obtén más información sobre los controles de muestreo en la [documentación acerca de la biblioteca de rastreo de Ruby][1]. [1]: /es/tracing/trace_collection/dd_libraries/ruby#sampling {{% /tab %}} @@ -185,14 +185,14 @@ Define la variable de entorno `DD_TRACE_RATE_LIMIT` en un número de trazas por **Nota**: El uso de `DD_TRACE_SAMPLE_RATE` está obsoleto. Utiliza `DD_TRACE_SAMPLING_RULES` en su lugar. Por ejemplo, si ya has establecido `DD_TRACE_SAMPLE_RATE` en `0.1`, establece `DD_TRACE_SAMPLING_RULES` en `[{"sample_rate":0.1}]` en su lugar. -Obtén más información sobre los controles de muestreo en la [documentación de la librería de rastreo de Go][1]. +Obtén más información sobre los controles de muestreo en la [documentación de la biblioteca de rastreo de Go][1]. [1]: /es/tracing/trace_collection/dd_libraries/go [2]: https://github.com/DataDog/dd-trace-go/releases/tag/v1.60.0 [3]: /es/tracing/guide/resource_based_sampling {{% /tab %}} {{% tab "Node.js" %}} -**Remote configuration** +**Configuración remota** A partir de la versión 5.16.0, para las aplicaciones Node.js, configura las frecuencias de muestreo por servicio y por recurso desde la interfaz de usuario de la página de control de la ingesta. @@ -202,7 +202,7 @@ Para obtener más información sobre cómo configurar remotamente las frecuencia **Configuración local** -Para aplicaciones Node.js, configura una frecuencia de muestreo global en la librería utilizando la variable de entorno `DD_TRACE_SAMPLE_RATE`. +Para aplicaciones Node.js, configura una frecuencia de muestreo global en la biblioteca utilizando la variable de entorno `DD_TRACE_SAMPLE_RATE`. También puedes configurar las frecuencias de muestreo por servicio. Por ejemplo, para enviar el 50 % de las trazas del servicio llamado `my-service` y el 10 % para el resto de las trazas: @@ -221,12 +221,12 @@ tracer.init({ Define la variable de entorno `DD_TRACE_RATE_LIMIT` en un número de trazas por segundo por instancia de servicio para configurar un límite de frecuencia. Si no se define ningún valor `DD_TRACE_RATE_LIMIT`, se aplicará un límite de 100 trazas por segundo. -Más información sobre los controles de muestreo en la [documentación de la librería de rastreo de Node.js][1]. +Más información sobre los controles de muestreo en la [documentación de la biblioteca de rastreo de Node.js][1]. [1]: /es/tracing/trace_collection/dd_libraries/nodejs {{% /tab %}} {{% tab "PHP" %}} -**Remote configuration** +**Configuración remota** A partir de la versión 1.4.0, para las aplicaciones PHP, configura las frecuencias de muestreo por servicio y por recurso desde la página de control de la ingesta. @@ -236,7 +236,7 @@ Para obtener más información sobre cómo configurar remotamente las frecuencia **Configuración local** -Para aplicaciones PHP, configura una frecuencia de muestreo global para la librería con la variable de entorno `DD_TRACE_SAMPLE_RATE`. Configura frecuencias de muestreo por servicio utilizando la variable de entorno `DD_TRACE_SAMPLING_RULES`. +Para aplicaciones PHP, configura una frecuencia de muestreo global para la biblioteca con la variable de entorno `DD_TRACE_SAMPLE_RATE`. Configura frecuencias de muestreo por servicio utilizando la variable de entorno `DD_TRACE_SAMPLING_RULES`. Por ejemplo, para enviar el 50% de las trazas del servicio denominado `my-service`, el 20% de las trazas de otros endpoints y el 10% del resto de las trazas, configura: @@ -245,12 +245,12 @@ export DD_TRACE_SAMPLE_RATE=0.1 export DD_TRACE_SAMPLING_RULES='[{"service": "my-service", "resource":"GET /checkout", "sample_rate": 1},{"service": "my-service", "sample_rate": 0.2}]' ``` -Obtén más información sobre los controles de muestreo en la [documentación de la librería de rastreo de PHP][1]. +Obtén más información sobre los controles de muestreo en la [documentación de la biblioteca de rastreo de PHP][1]. [1]: /es/tracing/trace_collection/dd_libraries/php {{% /tab %}} {{% tab "C++" %}} -**Remote configuration** +**Configuración remota** A partir de la versión 0.2.2, para las aplicaciones C++, configura las frecuencias de muestreo por servicio y por recurso desde la interfaz de usuario de la página de control de la ingesta. @@ -259,7 +259,7 @@ Para obtener más información sobre cómo configurar remotamente las frecuencia **Nota**: La configuración remota tiene prioridad sobre la configuración local. **Configuración local** -A partir de [v0.1.0][1], la librería C++ de Datadog admite las siguientes configuraciones: +A partir de [v0.1.0][1], la biblioteca C++ de Datadog admite las siguientes configuraciones: - Frecuencia de muestreo global: variable de entorno `DD_TRACE_SAMPLE_RATE` - Frecuencias de muestreo por servicio: variable de entorno `DD_TRACE_SAMPLING_RULES`. - Configuración del límite de frecuencia: variable de entorno `DD_TRACE_RATE_LIMIT`. @@ -277,20 +277,27 @@ C++ no proporciona integraciones para la instrumentación automática, pero la u [2]: /es/tracing/trace_collection/proxy_setup {{% /tab %}} {{% tab ".NET" %}} -Para las aplicaciones .NET, establece una frecuencia de rastreo global para la librería utilizando la variable de entorno `DD_TRACE_SAMPLE_RATE`. Define las frecuencias de muestreo por servicio con la variable de entorno `DD_TRACE_SAMPLING_RULES`. +Para las aplicaciones .NET, establece una frecuencia de rastreo global para la biblioteca utilizando la variable de entorno `DD_TRACE_SAMPLE_RATE`. Define las frecuencias de muestreo por servicio con la variable de entorno `DD_TRACE_SAMPLING_RULES`. Por ejemplo, para enviar el 50 % de las trazas del servicio llamado `my-service` y el 10 % del resto de las trazas: ``` -export DD_TRACE_SAMPLE_RATE=0.1 -export DD_TRACE_SAMPLING_RULES='[{"service": "my-service", "sample_rate": 0.5}]' +#using powershell +$env:DD_TRACE_SAMPLE_RATE=0.1 +$env:DD_TRACE_SAMPLING_RULES='[{"service": "my-service", "sample_rate": 0.5}]' + +#using JSON file +{ + "DD_TRACE_SAMPLE_RATE": "0.1", + "DD_TRACE_SAMPLING_RULES": "[{\"service\": \"my-service\", \"resource\": \"GET /checkout\", \"sample_rate\": 0.5}]" +} ```
    A partir de la versión 2.35.0, si la configuración remota del Agent está activada donde se ejecuta el servicio, puedes configurar un DD_TRACE_SAMPLE_RATE por servicio en la interfaz de usuario del Catálogo de software.
    Define la variable de entorno `DD_TRACE_RATE_LIMIT` en un número de trazas por segundo por instancia de servicio para configurar un límite de frecuencia. Si no se define ningún valor `DD_TRACE_RATE_LIMIT`, se aplicará un límite de 100 trazas por segundo. -Lee más acerca de los controles de muestreo en la [documentación de librerías de rastreo de .NET][1].\ +Lee más acerca de los controles de muestreo en la [documentación de bibliotecas de rastreo de .NET][1].\ Más información sobre la [configuración de variables de entorno para .NET][2]. [1]: /es/tracing/trace_collection/automatic_instrumentation/dd_libraries/dotnet-core @@ -298,7 +305,7 @@ Más información sobre la [configuración de variables de entorno para .NET][2] {{% /tab %}} {{< /tabs >}} -**Nota**: Todos los tramos de una traza muestreada utilizando una configuración de librería de rastreo se etiquetan (tag) con el motivo de la ingesta `rule`. Los servicios configurados con reglas de muestreo definidas por el usuario se marcan como `Configured` en la columna de configuración de la [Página de control de la ingesta][5]. +**Nota**: Todos los tramos de una traza muestreada utilizando una configuración de biblioteca de rastreo se etiquetan (tag) con el motivo de la ingesta `rule`. Los servicios configurados con reglas de muestreo definidas por el usuario se marcan como `Configured` en la columna de configuración de la [Página de control de la ingesta][5]. ## Trazas con errores o poco frecuentes @@ -307,7 +314,7 @@ Para las trazas que no se capturan a través del muestreo basado en la fase inic - **Trazas con errores**: Es importante muestrear los errores, dado que así se pueden observar los posibles errores del sistema. - **Trazas poco frecuentes**: Muestrear las trazas poco frecuentes te permite mantener la visibilidad sobre la totalidad del sistema, puesto que te aseguras de que los servicios y recursos con poco tráfico se sigan monitorizando. -**Nota**: Los muestreadores de trazas con errores o poco frecuentes se omitirán en los servicios en los que hayas configurado las [reglas de muestreo de librerías](#in-tracing-libraries-user-defined-rules). +**Nota**: Los muestreadores de trazas con errores o poco frecuentes se omitirán en los servicios en los que hayas configurado las [reglas de muestreo de bibliotecas](#in-tracing-libraries-user-defined-rules). ### Trazas con errores `ingestion_reason: error` @@ -325,7 +332,7 @@ Con el Agent 7.33 y sus versiones posteriores, puedes configurar el muestreador **Notas**: 1. Establece el parámetro en `0` para desactivar el muestreador de errores. 2. El muestreador de errores captura trazas locales con tramos con errores en el nivel del Agent. Si se distribuye la traza, no hay ninguna garantía de que la traza completa se envíe a Datadog. -3. Por defecto, los tramos descartados mediante las reglas de rastreo de la librería o la lógica personalizada como `manual.drop` se **excluyen** en el muestreador de errores. +3. Por defecto, los tramos descartados mediante las reglas de rastreo de la biblioteca o la lógica personalizada como `manual.drop` se **excluyen** en el muestreador de errores. #### Datadog Agent 7.42.0 y superiores @@ -333,7 +340,7 @@ El muestreo de errores se puede configurar de forma remota si utilizas el Agent #### Datadog Agent 6/7.41.0 y superiores -Para sustituir el comportamiento por defecto de modo que el muestreador de errores **incluya** los tramos descartados a través de las reglas de la librería de rastreo o la lógica personalizada como `manual.drop`, activa la función con: `DD_APM_FEATURES=error_rare_sample_tracer_drop` en el Datadog Agent (o el contenedor del Trace Agent dedicado en el pod del Datadog Agent en Kubernetes). +Para sustituir el comportamiento por defecto de modo que el muestreador de errores **incluya** los tramos descartados a través de las reglas de la biblioteca de rastreo o la lógica personalizada como `manual.drop`, activa la función con: `DD_APM_FEATURES=error_rare_sample_tracer_drop` en el Datadog Agent (o el contenedor del Trace Agent dedicado en el pod del Datadog Agent en Kubernetes). #### Datadog Agent 6/7.33 a 6/7.40.x @@ -356,7 +363,7 @@ La frecuencia de muestreo de trazas poco frecuentes se puede configurar de forma Por defecto, el muestreador de trazas poco frecuentes está **no activado**. -**Nota: Cuando se **habilita**, los tramos descartados a través de las reglas de la librería de rastreo o la lógica personalizada como `manual.drop` se **excluyen** en este muestreador. +**Nota: Cuando se **habilita**, los tramos descartados a través de las reglas de la biblioteca de rastreo o la lógica personalizada como `manual.drop` se **excluyen** en este muestreador. Para configurar el muestreador de trazas poco frecuentes, actualiza la configuración `apm_config.enable_rare_sampler` en el archivo principal de la configuración del Agent (`datadog.yaml`) o con la variable de entorno `DD_APM_ENABLE_RARE_SAMPLER` : @@ -365,7 +372,7 @@ Para configurar el muestreador de trazas poco frecuentes, actualiza la configura @env DD_APM_ENABLE_RARE_SAMPLER - boolean - optional - default: false ``` -Para evaluar los tramos descartados a través de las reglas de la librería de rastreo o la lógica personalizada como `manual.drop`, +Para evaluar los tramos descartados a través de las reglas de la biblioteca de rastreo o la lógica personalizada como `manual.drop`, activa la función con: `DD_APM_FEATURES=error_rare_sample_tracer_drop` en el Trace Agent . @@ -373,7 +380,7 @@ Para evaluar los tramos descartados a través de las reglas de la librería de r Por defecto, el muestreador de trazas poco frecuentes está activado. -**Nota: Cuando **está activado**, los tramos descartados a través de las reglas de la librería de rastreo o la lógica personalizada como `manual.drop` **están excluidos** en este muestreador. Para incluir estos tramos en esta lógica, actualiza al Datadog Agent 6.41.0/7.41.0 o superior. +**Nota: Cuando **está activado**, los tramos descartados a través de las reglas de la biblioteca de rastreo o la lógica personalizada como `manual.drop` **están excluidos** en este muestreador. Para incluir estos tramos en esta lógica, actualiza al Datadog Agent 6.41.0/7.41.0 o superior. Para cambiar la configuración por defecto del muestreador de trazas poco frecuentes, actualiza la configuración `apm_config.disable_rare_sampler` en el archivo principal de la configuración del Agent (`datadog.yaml`) o con la variable entorno `DD_APM_DISABLE_RARE_SAMPLER` : @@ -385,7 +392,7 @@ Para cambiar la configuración por defecto del muestreador de trazas poco frecue ## Forzar la conservación y el descarte `ingestion_reason: manual` -El mecanismo de muestreo basado en la fase inicial se puede sustituir en la librería de rastreo. Por ejemplo, si necesitas monitorizar una transacción crítica, puedes forzar la conservación de la traza asociada. Por otro lado, también puedes forzar el descarte de la traza en caso de que contenga información repetitiva o innecesaria, como los checks de estado. +El mecanismo de muestreo basado en la fase inicial se puede sustituir en la biblioteca de rastreo. Por ejemplo, si necesitas monitorizar una transacción crítica, puedes forzar la conservación de la traza asociada. Por otro lado, también puedes forzar el descarte de la traza en caso de que contenga información repetitiva o innecesaria, como los checks de estado. - Configura Manual Keep en un tramo para indicar que se deben ingerir este y todos los tramos secundarios. El rastreo resultante puede aparecer incompleto en la interfaz de usuario si el tramo en cuestión no es el tramo raíz de la traza. @@ -499,7 +506,7 @@ package main import ( "log" "net/http" - "github.com/DataDog/dd-trace-go/v2/ddtrace/ext" + "github.com/DataDog/dd-trace-go/v2/ddtrace/ext" "github.com/DataDog/dd-trace-go/v2/ddtrace/tracer" ) @@ -695,7 +702,7 @@ Esta función está disponible para el Datadog Agent v[7.40.0][19] o posterior. {{< tabs >}} {{% tab "Java" %}} -A partir de la librería de rastreo [versión 1.7.0][1], para las aplicaciones Java, establece las reglas de muestreo del **tramo** del nombre por servicio y por operación con la variable de entorno `DD_SPAN_SAMPLING_RULES`. +A partir de la biblioteca de rastreo [versión 1.7.0][1], para las aplicaciones Java, establece las reglas de muestreo del **tramo** del nombre por servicio y por operación con la variable de entorno `DD_SPAN_SAMPLING_RULES`. Por ejemplo, para recopilar el 100 % de los tramos del servicio llamado `my-service`, para la operación `http.request`, hasta 50 tramos por segundo: @@ -703,7 +710,7 @@ Por ejemplo, para recopilar el 100 % de los tramos del servicio llamado `my-ser @env DD_SPAN_SAMPLING_RULES=[{"service": "my-service", "name": "http.request", "sample_rate":1.0, "max_per_second": 50}] ``` -Más información sobre los controles de muestreo en la [documentación de la librería de rastreo de Java][2]. +Más información sobre los controles de muestreo en la [documentación de la biblioteca de rastreo de Java][2]. [1]: https://github.com/DataDog/dd-trace-java/releases/tag/v1.7.0 [2]: /es/tracing/trace_collection/dd_libraries/java @@ -718,7 +725,7 @@ Por ejemplo, para recopilar `100%` de los tramos del servicio llamado `my-servic ``` -Más información sobre los controles de muestreo en la [documentación de la librería de rastreo de Python][2]. +Más información sobre los controles de muestreo en la [documentación de la biblioteca de rastreo de Python][2]. [1]: https://github.com/DataDog/dd-trace-py/releases/tag/v1.4.0 [2]: /es/tracing/trace_collection/dd_libraries/python @@ -732,7 +739,7 @@ Por ejemplo, para recopilar `100%` de los tramos del servicio llamado `my-servic @env DD_SPAN_SAMPLING_RULES=[{"service": "my-service", "name": "http.request", "sample_rate":1.0, "max_per_second": 50}] ``` -Más información sobre los controles de muestreo en la [documentación de la librería de rastreo de Ruby][2]. +Más información sobre los controles de muestreo en la [documentación de la biblioteca de rastreo de Ruby][2]. [1]: https://github.com/DataDog/dd-trace-rb/releases/tag/v1.5.0 [2]: /es/tracing/trace_collection/dd_libraries/ruby#sampling @@ -753,7 +760,7 @@ Por ejemplo, para recopilar `100%` de los tramos del servicio para el recurso `P @env DD_SPAN_SAMPLING_RULES=[{"resource": "POST /api/create_issue", "tags": { "priority":"high" }, "sample_rate":1.0}] ``` -Más información sobre los controles de muestreo en la [documentación de la librería de rastreo de Go][2]. +Más información sobre los controles de muestreo en la [documentación de la biblioteca de rastreo de Go][2]. [1]: https://github.com/DataDog/dd-trace-go/releases/tag/v1.41.0 [2]: /es/tracing/trace_collection/dd_libraries/go @@ -768,7 +775,7 @@ Por ejemplo, para recopilar `100%` de los tramos del servicio llamado `my-servic @env DD_SPAN_SAMPLING_RULES=[{"service": "my-service", "name": "http.request", "sample_rate":1.0, "max_per_second": 50}] ``` -Más información sobre los controles de muestreo en la [documentación de la librería de rastreo de Node.js][1]. +Más información sobre los controles de muestreo en la [documentación de la biblioteca de rastreo de Node.js][1]. [1]: /es/tracing/trace_collection/dd_libraries/nodejs {{% /tab %}} @@ -781,7 +788,7 @@ Por ejemplo, para recopilar `100%` de los tramos del servicio llamado `my-servic @env DD_SPAN_SAMPLING_RULES=[{"service": "my-service", "name": "http.request", "sample_rate":1.0, "max_per_second": 50}] ``` -Más información sobre los controles de muestreo en la [documentación de la librería de rastreo de PHP][2]. +Más información sobre los controles de muestreo en la [documentación de la biblioteca de rastreo de PHP][2]. [1]: https://github.com/DataDog/dd-trace-php/releases/tag/0.77.0 [2]: /es/tracing/trace_collection/dd_libraries/php @@ -803,17 +810,23 @@ A partir de la versión [v2.18.0][1], para las aplicaciones .NET, establece las Por ejemplo, para recopilar `100%` de los tramos del servicio llamado `my-service`, para la operación `http.request`, hasta `50` tramos por segundo: ``` -@env DD_SPAN_SAMPLING_RULES='[{"service": "my-service", "name": "http.request", "sample_rate":1.0, "max_per_second": 50}]' +#using powershell +$env:DD_SPAN_SAMPLING_RULES='[{"service": "my-service", "name": "http.request", "sample_rate":1.0, "max_per_second": 50}]' + +#using JSON file +{ + "DD_SPAN_SAMPLING_RULES": "[{\"service\": \"my-service\", \"name\": \"http.request\", \"sample_rate\": 1.0, \"max_per_second\": 50}]" +} ``` -Más información sobre los controles de muestreo en la [documentación de la librería de rastreo de .NET][2]. +Más información sobre los controles de muestreo en la [documentación de la biblioteca de rastreo de .NET][2]. [1]: https://github.com/DataDog/dd-trace-dotnet/releases/tag/v2.18.0 [2]: /es/tracing/trace_collection/dd_libraries/dotnet-core {{% /tab %}} {{< /tabs >}} -
    El mecanismo de App Analytics está totalmente obsoleto. Para ingerir tramos únicos sin la traza completa, utiliza la configuración del muestreo del tramo único . Para ingerir trazas completas, utiliza las configuraciones del muestreo basado en la fase inicial.
    +
    El mecanismo App Analytics está totalmente obsoleto. Para ingerir tramos individuales sin la traza completa, utiliza la configuración de muestreo de tramo único. Para ingerir trazas completas, utiliza las configuraciones de muestreo Head-Based.
    ## Tramos ingeridos por productos @@ -881,5 +894,5 @@ Según tu configuración con los SDK de OpenTelemetry (mediante la utilización [18]: https://github.com/DataDog/dd-sdk-reactnative/releases/tag/1.2.0 [19]: https://github.com/DataDog/datadog-agent/releases/tag/7.40.0 [20]: https://github.com/DataDog/datadog-agent/releases/tag/7.42.0 -[21]: tracing/guide/remote_config -[22]: /es/opentelemetry/guide/ingestion_sampling_with_opentelemetry +[21]: /es/tracing/guide/remote_config/ +[22]: /es/opentelemetry/guide/ingestion_sampling_with_opentelemetry \ No newline at end of file diff --git a/content/es/tracing/troubleshooting/tracer_debug_logs.md b/content/es/tracing/troubleshooting/tracer_debug_logs.md index 60bde32613fa1..dd2f4158772df 100644 --- a/content/es/tracing/troubleshooting/tracer_debug_logs.md +++ b/content/es/tracing/troubleshooting/tracer_debug_logs.md @@ -1,11 +1,40 @@ --- -null -... +description: Habilita y recopila logs de depuración de trazas de APM para solucionar + problemas de configuración y conectividad. +further_reading: +- link: /tracing/troubleshooting/connection_errors/ + tag: Documentación + text: Solucionar problemas de errores de conexión de APM +title: Logs de depuración de rastreador --- +## Recopilación de logs de depuración automatizada +
    La depuración automatizada de logs solo es compatible con Java, Python, Node.js y .NET. Para otros lenguajes, utiliza la recopilación manual de depuración de logs.
    + +Un flare te permite enviar la información necesaria para solucionar problemas al equipo de soporte de Datadog, incluyendo el logs del rastreador, con los datos confidenciales eliminados. Los flares son útiles para solucionar problemas como el uso elevado de la CPU, el uso elevado de la memoria y tramos (spans) faltantes. + +### Requisitos previos +- La [configuración remota][3] debe estar activada. +- Tu clave de API debe estar configurada para la Configuración remota. +- Debes tener una versión del rastreador compatible: + - Java: `1.26.0` o posterior + - Python: `3.12.0` o posterior + - Node.js: `5.15.0` o posterior, o `4.39.0` o posterior + - .NET: `2.46.0` o posterior + +### Enviar un flare +Para enviar un flare desde el sitio de Datadog, asegúrate de haber habilitado [Fleet Automation][3] en el Agent. +{{% remote-flare %}} + +
    Si no ves la opción para tu servicio, es probable que haya un error en la conexión entre la aplicación y el Datadog Agent y deberías optar por la opción manual de proporcionar los logs del rastreador de depuración.
    + +Por ejemplo: + +{{< img src="agent/fleet_automation/fleet-automation-flare-agent-and-tracer-debuglevel.png" alt="El botón Enviar ticket inicia un formulario para enviar una bengala sobre un nuevo ticket de asistencia o uno existente" style="width:60%;" >}} + ## Activar el modo de depuración -Utiliza la configuración de depuración de Datadog para diagnosticar problemas o auditar datos de traza. Datadog no recomienda activar el modo de depuración en sistemas de producción porque aumenta el número de eventos que se envían a los registradores. Utiliza el modo de depuración solo con fines de depuración. +Utiliza la configuración de depuración de Datadog para diagnosticar problemas o auditar datos de rastreo. Datadog no recomienda activar el modo de depuración en sistemas de producción porque aumenta el número de eventos que se envían a los registradores. Utiliza el modo de depuración solo con fines de depuración. El modo de depuración está desactivado por defecto. Para activarlo, sigue las instrucciones del rastreador de lenguaje correspondiente: @@ -15,10 +44,15 @@ El modo de depuración está desactivado por defecto. Para activarlo, sigue las Para habilitar el modo de depuración para el rastreador de Datadog Java, establece el indicador `-Ddd.trace.debug=true` when starting the JVM or add `DD_TRACE_DEBUG=true` como variable de entorno. -**Nota**: El rastreador de Datadog Java implementa SL4J SimpleLogger, por lo que [se pueden aplicar todos sus ajustes][1], por ejemplo, el registro en un archivo de log dedicado: +**Notas**: +- Datadog Java Tracer implementa SLF4J SimpleLogger, para que [se puedan aplicar todas sus configuraciones][1]. Por ejemplo, puedes configurarlo para generar logs en un archivo de log exclusivo: ``` -Ddatadog.slf4j.simpleLogger.logFile= ``` +- Para generar logs de Datadog Java Tracer en un formato JSON compatible con la interfaz de usuario de Datadog Logs, utiliza: +``` +-Ddatadog.slf4j.simpleLogger.jsonEnabled=true +``` [1]: https://www.slf4j.org/api/org/slf4j/simple/SimpleLogger.html @@ -40,11 +74,11 @@ Los pasos para activar el modo de depuración en el rastreador de Datadog Python ``` import logging -# configuración del registrador raíz +# root logger configuration root_logger = logging.getLogger() root_logger.setLevel(logging.DEBUG) -# anular la configuración ddtrace al nivel de log WARNING +# override the ddtrace configuration to WARNING log level logging.getLogger("ddtrace").setLevel(logging.WARNING) ``` @@ -59,7 +93,7 @@ logging.getLogger("ddtrace").setLevel(logging.WARNING) 3. Para dirigir logs a la consola, para aplicaciones **Python 2**, configura `logging.basicConfig()` o similar. Los logs se envían automáticamente a la consola para aplicaciones **Python 3**. -### Escenario 3: ddtrace versión 1.0.x a 1.2.x +### Escenario 2: ddtrace versión 1.3.2 a <2.x 1. Para activar el modo de depuración: `DD_TRACE_DEBUG=true` @@ -71,9 +105,9 @@ logging.getLogger("ddtrace").setLevel(logging.WARNING) 2. Para dirigir logs a la consola, para aplicaciones **Python 2 o Python 3**, configura `logging.basicConfig()` o utiliza `DD_CALL_BASIC_CONFIG=true`. -### Escenario 5: Configuración del registro de depuración en el código de la aplicación con la librería de registro estándar +### Escenario 5: Configuración de la generación de logs de depuración en el código de la aplicación con la biblioteca de registro estándar -Para cualquier versión de ddtrace, en lugar de establecer la variable de entorno del rastreador `DD_TRACE_DEBUG`, puedes habilitar el registro de depuración en el código de la aplicación utilizando directamente la librería estándar de `logging`: +Para cualquier versión de ddtrace, en lugar de establecer la variable de entorno del rastreador `DD_TRACE_DEBUG`, puedes habilitar la generación de logs de depuración en el código de la aplicación utilizando directamente la biblioteca estándar de `logging`: ``` log = logging.getLogger("ddtrace.tracer") @@ -90,7 +124,7 @@ Para activar el modo de depuración del rastreador de Datadog Ruby, configura la Por defecto, todos los logs son procesados por el registrador por defecto de Ruby. Cuando uses Rails, deberías ver los mensajes en tu archivo de log de aplicación. -Los mensajes de logs de cliente de Datadog se marcan con `[ddtrace]`, para que puedas aislarlos de otros mensajes. +Los mensajes de log de cliente de Datadog se marcan con `[ddtrace]`, para que puedas aislarlos de otros mensajes. Puedes anular el registrador predeterminado y sustituirlo por uno personalizado con el atributo `log` del rastreador: @@ -111,13 +145,17 @@ Consulta [la documentación de la API][1] para obtener más detalles. {{< programming-lang lang="go" >}} +{{% tracing-go-v2 %}} + Para habilitar el modo de depuración para el rastreador de Datadog Go, establece la variable de entorno `DD_TRACE_DEBUG=true`, o habilita el modo de depuración durante la configuración de `Start`: ```go package main -import "gopkg.in/DataDog/dd-trace-go.v1/ddtrace/tracer" +import ( + "github.com/DataDog/dd-trace-go/v2/ddtrace/tracer" +) func main() { tracer.Start(tracer.WithDebugMode(true)) @@ -127,7 +165,7 @@ func main() { #### Logs de tramo abandonados -El rastreador de Datadog Go también admite el registro para tramos (spans) potencialmente abandonados. Para habilitar este modo de depuración en Go, establece la variable de entorno `DD_TRACE_DEBUG_ABANDONED_SPANS=true`. Para cambiar la duración después de la cual los tramos se consideran abandonados (por defecto=`10m`), establece la variable de entorno `DD_TRACE_ABANDONED_SPAN_TIMEOUT` al tiempo de duración deseado. Los logs de tramos abandonados aparecen en el nivel de información. +El rastreador de Datadog Go también admite la generación de logs para tramos (spans) potencialmente abandonados. Para habilitar este modo de depuración en Go, establece la variable de entorno `DD_TRACE_DEBUG_ABANDONED_SPANS=true`. Para cambiar la duración después de la cual los tramos se consideran abandonados (por defecto=`10m`), establece la variable de entorno `DD_TRACE_ABANDONED_SPAN_TIMEOUT` al tiempo de duración deseado. Los logs de tramos abandonados aparecen en el nivel de información. También puedes activar la depuración de tramos abandonados durante la configuración de `Start`: @@ -137,7 +175,7 @@ package main import ( "time" - "gopkg.in/DataDog/dd-trace-go.v1/ddtrace/tracer" + "github.com/DataDog/dd-trace-go/v2/ddtrace/tracer" ) func main() { @@ -199,7 +237,7 @@ Para activar el modo de depuración para el rastreador de Datadog .NET, establec ```csharp using Datadog.Trace; -// habilitar modo de depuración +// enable debug mode GlobalSettings.SetDebugEnabled(true); ``` @@ -210,12 +248,12 @@ Los logs se guardan por defecto en los siguientes directorios. Utiliza la config |------------------------------------------------------|--------------------------------------------------| | Windows | `%ProgramData%\Datadog .NET Tracer\logs\` | | Linux | `/var/log/datadog/dotnet/` | -| Linux (cuando se utiliza la [inyección de la librería de Kubernetes][1]) | `/datadog-lib/logs` | +| Linux (cuando se utiliza la [inyección de la biblioteca de Kubernetes][1]) | `/datadog-lib/logs` | | Azure App Service | `%AzureAppServiceHomeDirectory%\LogFiles\datadog`| **Nota:**: En Linux, debes crear el directorio de logs antes de activar el modo de depuración. -Desde la versión `2.19.0`, puedes utilizar el ajuste `DD_TRACE_LOGFILE_RETENTION_DAYS` para configurar el rastreador para borrar archivos de log del directorio de registro actual al iniciarse. El rastreador borra archivos de log de la misma antigüedad y más antiguos que el número de días dado, con un valor por defecto de `32`. +A partir de la versión `2.19.0`, puedes utilizar el ajuste `DD_TRACE_LOGFILE_RETENTION_DAYS` para configurar el rastreador para borrar archivos de log del directorio de generación de logs actual al iniciarse. El rastreador elimina archivos de log de la misma antigüedad y más antiguos que el número de días dado, con un valor por defecto de `32`. Para más detalles sobre cómo configurar el rastreador de .NET, consulta la sección [Configuración][2]. @@ -243,7 +281,7 @@ Con dd-trace-php 0.98.0+, puedes especificar una ruta a un archivo de log para d - **INI**: `datadog.trace.log_file` **Notas**: - - Para obtener más información sobre dónde configurar `DD_TRACE_LOG_FILE`, consulta [Configuración de la librería de rastreo de PHP][2]. + - Para obtener más información sobre dónde configurar `DD_TRACE_LOG_FILE`, consulta [Configuración de la biblioteca de rastreo de PHP][2]. - Si no se especifica `DD_TRACE_LOG_FILE`, los logs pasarán a la localización del error por defecto en PHP (Ver **Opción 2** para más detalles). **Opción 2:** @@ -261,7 +299,7 @@ Si estás configurando en su lugar en el nivel de PHP, utiliza el parámetro ini {{< programming-lang lang="cpp" >}} -Las bibliotecas binarias de versión están compiladas con símbolos de depuración añadidos a la versión optimizada. Puedes utilizar GDB o LLDB para depurar la librería y leer los volcados de núcleos. Si estás compilando la librería desde la fuente, pasa el argumento `-DCMAKE_BUILD_TYPE=RelWithDebInfo` a cmake para compilar una versión optimizada con símbolos de depuración. +Las bibliotecas binarias de versión están compiladas con símbolos de depuración añadidos a la versión optimizada. Puedes utilizar GDB o LLDB para depurar la biblioteca y leer los volcados de núcleos. Si estás compilando la biblioteca desde la fuente, pasa el argumento `-DCMAKE_BUILD_TYPE=RelWithDebInfo` a cmake para compilar una versión optimizada con símbolos de depuración. ```bash cmake -B .build -DCMAKE_BUILD_TYPE=RelWithDebInfo .. @@ -275,7 +313,8 @@ cmake --install .build ## Revisar logs de depuración -Cuando el modo de depuración para tu rastreador está habilitado, los mensajes de log específicos del rastreador informan cómo se inicializó el rastreador y si las trazas fueron enviadas al Agent. **Estos logs no son enviados al Datadog Agent en el flare y son almacenados en una ruta separada según tu configuración de registro**. Los siguientes ejemplos de log muestran lo que podría aparecer en tu archivo de log. + +Cuando el modo de depuración de tu rastreador está habilitado, los mensajes de log específicos del rastreador informan cómo se inicializó el rastreador y si se enviaron trazas (traces) al Agent. Los logs de depuración se almacenan en una ruta separada dependiendo de tu configuración de generación de logs. Si habilitas la información del rastreador a nivel de aplicación, también se envían logs de depuración en la bengala para los [lenguajes compatibles](##prerequisites). Los siguientes ejemplos de logs muestran lo que puede aparecer en tu archivo de log. Si hay errores que no entiendes, o si se informan trazas como descartadas en Datadog, pero no puedes verlas en la interfaz de usuario de Datadog, [ponte en contacto con el soporte de Datadog][1] y proporciona las entradas de log pertinentes con [un flare][2]. @@ -307,7 +346,7 @@ Si hay errores que no entiendes, o si se informan trazas como descartadas en Dat {{< /programming-lang >}} {{< programming-lang lang="python" >}} -Los logs generados por el rastreador de Python tienen el nombre de gestor de registro `ddtrace`. +Los logs generados por el rastreador de Python tienen la `ddtrace` del nombre del gestor de generación de logs. **Se generaron trazas:** @@ -473,9 +512,11 @@ Disponible a partir de 0.98.0: {{< /programming-lang-wrapper >}} -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} [1]: /es/help/ [2]: /es/agent/troubleshooting/#send-a-flare +[3]: /es/tracing/guide/remote_config +[5]: /es/remote_configuration#enabling-remote-configuration \ No newline at end of file diff --git a/content/es/tracing/troubleshooting/tracer_startup_logs.md b/content/es/tracing/troubleshooting/tracer_startup_logs.md index 2397871b65f86..662c49d9c6e5b 100644 --- a/content/es/tracing/troubleshooting/tracer_startup_logs.md +++ b/content/es/tracing/troubleshooting/tracer_startup_logs.md @@ -1,4 +1,6 @@ --- +description: Configura y analiza los logs de inicio del rastreador para solucionar + problemas de configuración y conectividad del Agent. further_reading: - link: /tracing/troubleshooting/connection_errors/ tag: Documentación @@ -20,7 +22,7 @@ Si no ves logs en absoluto, asegúrate de que tus logs de aplicación no están {{< programming-lang-wrapper langs="java,.NET,php,go,nodejs,python,ruby,cpp" >}} {{< programming-lang lang="java" >}} -**Configuration:** +**Configuration:** (Configuración) ```text {"os_name":"Mac OS X","os_version":"10.15.4","architecture":"x86_64","lang":"jvm","lang_version":"11.0.6","jvm_vendor":"AdoptOpenJDK","jvm_version":"11.0.6+10","java_class_version":"55.0","enabled":true,"service":"unnamed-java-app","agent_url":"http://localhost:8126","agent_error":false,"debug":false,"analytics_enabled":false,"sampling_rules":[{},{}],"priority_sampling_enabled":true,"logs_correlation_enabled":false,"profiling_enabled":false,"dd_version":"null","health_checks_enabled":false,"configuration_file":"no config file present","runtime_id":"b69deb26-8bc3-4c00-8952-d42bf8c2123b"} @@ -43,18 +45,18 @@ Los archivos de log se guardan por defecto en los siguientes directorios. Utiliz |------------------------------------------------------|--------------------------------------------------| | Windows | `%ProgramData%\Datadog .NET Tracer\logs\` | | Linux | `/var/log/datadog/dotnet/` | -| Linux (cuando se utiliza la [inyección de la librería de Kubernetes][1]) | `/datadog-lib/logs` | +| Linux (cuando se utiliza la [inyección de la biblioteca de Kubernetes][1]) | `/datadog-lib/logs` | | Azure App Service | `%AzureAppServiceHomeDirectory%\LogFiles\datadog`| **Nota:** En Linux, debes crear el directorio de logs antes de activar el modo de depuración. -Desde la versión `2.19.0`, puedes utilizar el ajuste `DD_TRACE_LOGFILE_RETENTION_DAYS` para configurar el rastreador para borrar archivos de log del directorio de registro actual al iniciarse. El rastreador borra archivos de log de la misma antigüedad y más antiguos que el número de días dado, con un valor por defecto de `32`. +A partir de la versión `2.19.0`, puedes utilizar el ajuste `DD_TRACE_LOGFILE_RETENTION_DAYS` para configurar el rastreador para borrar archivos de log del directorio de generación de logs actual al iniciarse. El rastreador elimina archivos de log de la misma antigüedad y más antiguos que el número de días dado, con un valor por defecto de `32`. - `dotnet-tracer-managed-{processName}-{timestamp}.log` contiene los logs de configuración. - `dotnet-tracer-native-{processName}-{processID}.log` contiene los logs de diagnóstico, si se genera alguno. -**Configuration:** +**Configuration:** (Configuración) ```text 2020-06-29 12:26:39.572 +02:00 [INF] DATADOG TRACER CONFIGURATION - @@ -124,7 +126,7 @@ ddtrace.disable => Off => Off ... ``` -**Configuration:** +**Configuration:** (Configuración) Si el rastreador está en [modo DEBUG][1] (depuración), los logs de inicio aparecerán en `error_log` una vez por proceso en la primera solicitud. @@ -153,7 +155,7 @@ echo \DDTrace\startup_logs() . PHP_EOL; {{< /programming-lang >}} {{< programming-lang lang="go" >}} -**Configuration:** +**Configuration:** (Configuración) ```text 2020/07/09 15:57:07 Datadog Tracer v1.26.0 INFO: DATADOG TRACER CONFIGURATION {"date":"2020-07-09T15:57:07-05:00","os_name":"darwin","os_version":"10.15.4","version":"v1.26.0","lang":"Go","lang_version":"go1.14.2","env":"","service":"splittest2","agent_url":"http://127.0.0.1:8126/v0.4/traces","agent_error":"","debug":true,"analytics_enabled":false,"sample_rate":"NaN","sampling_rules":null,"sampling_rules_error":"","tags":{"runtime-id":"d269781c-b1bf-4d7b-9a55-a8174930554f"},"runtime_metrics_enabled":false,"health_metrics_enabled":false,"dd_version":"","architecture":"amd64","global_service":""} @@ -175,7 +177,7 @@ El rastreador de Go imprime una de las dos líneas de diagnóstico posibles, una Los logs de inicio están desactivados por defecto a partir de la versión 2.x del rastreador. Pueden activarse utilizando la variable de entorno `DD_TRACE_STARTUP_LOGS=true`. -**Configuration:** +**Configuration:** (Configuración) ```text [2020-07-02 14:51:16.421] [INFO] app - host:port==localhost:9080 @@ -208,7 +210,7 @@ Para ver los logs de inicio del rastreador, añade un registrador, o establece ` Para ver las opciones de registro en un archivo con `DD_TRACE_LOG_FILE`, lee [Logs de depuración del rastreador][1]. -**Configuration:** +**Configuration:** (Configuración) ```text 2020-07-09 11:04:08,098 INFO [ddtrace.tracer] [tracer.py:338] - - DATADOG TRACER CONFIGURATION - {"date": "2020-07-09T15:04:08.092797", "os_name": "Darwin", "os_version": "19.5.0", "is_64_bit": true, "architecture": "64bit", "vm": "CPython", "version": "0.38.1.dev79+gd22e2972.d20200707", "lang": "python", "lang_version": "3.7.6", "pip_version": "20.0.2", "in_virtual_env": true, "agent_url": "http://localhost:1234", "agent_error": "Agent not reachable. Exception raised: [Errno 61] Connection refused", "env": "", "is_global_tracer": true, "enabled_env_setting": null, "tracer_enabled": true, "sampler_type": "DatadogSampler", "priority_sampler_type": "RateByServiceSampler", "service": "", "debug": true, "enabled_cli": true, "analytics_enabled": false, "log_injection_enabled": false, "health_metrics_enabled": false, "dd_version": "", "priority_sampling_enabled": true, "global_tags": "", "tracer_tags": "", "integrations": {"asyncio": "N/A", "boto": "N/A", "botocore": {"enabled": true, "instrumented": false, "module_available": true, "module_version": "1.15.32", "module_imported": false, "config": "N/A"}, "bottle": {"enabled": false, "instrumented": false, "module_available": true, "module_version": "0.12.18", "module_imported": false, "config": null}, "cassandra": "N/A", "celery": {"enabled": true, "instrumented": false, "module_available": true, "module_version": "4.2.2", "module_imported": false, "config": "N/A"}, "consul": "N/A", "django": "N/A", "elasticsearch": "N/A", "algoliasearch": {"enabled": true, "instrumented": false, "module_available": true, "module_version": "2.2.0", "module_imported": false, "config": "N/A"}, "futures": "N/A", "grpc": "N/A", "mongoengine": {"enabled": true, "instrumented": false, "module_available": true, "module_version": "0.19.1", "module_imported": false, "config": "N/A"}, "mysql": "N/A", "mysqldb": "N/A", "pymysql": "N/A", "psycopg": "N/A", "pylibmc": {"enabled": true, "instrumented": false, "module_available": true, "module_version": "1.6.1", "module_imported": false, "config": "N/A"}, "pymemcache": {"enabled": true, "instrumented": false, "module_available": true, "module_version": "1.4.4", "module_imported": false, "config": "N/A"}, "pymongo": {"enabled": true, "instrumented": false, "module_available": true, "module_version": "3.10.1", "module_imported": false, "config": "N/A"}, "redis": {"enabled": true, "instrumented": false, "module_available": true, "module_version": "3.5.3", "module_imported": false, "config": "N/A"}, "rediscluster": "N/A", "requests": {"enabled": true, "instrumented": false, "module_available": true, "module_version": "2.23.0", "module_imported": false, "config": "N/A"}, "sqlalchemy": "N/A", "sqlite3": "N/A", "aiohttp": {"enabled": true, "instrumented": false, "module_available": true, "module_version": "3.6.2", "module_imported": false, "config": "N/A"}, "aiopg": {"enabled": true, "instrumented": false, "module_available": true, "module_version": "0.15.0", "module_imported": false, "config": "N/A"}, "aiobotocore": {"enabled": false, "instrumented": false, "module_available": true, "module_version": "1.0.1", "module_imported": false, "config": null}, "httplib": "N/A", "vertica": "N/A", "molten": {"enabled": true, "instrumented": false, "module_available": true, "module_version": "0.7.4", "module_imported": false, "config": "N/A"}, "jinja2": "N/A", "mako": "N/A", "flask": "N/A", "kombu": {"enabled": false, "instrumented": false, "module_available": true, "module_version": "4.3.0", "module_imported": false, "config": null}, "falcon": {"enabled": false, "instrumented": false, "module_available": true, "module_version": "1.4.1", "module_imported": false, "config": null}, "pylons": "N/A", "pyramid": {"enabled": false, "instrumented": false, "module_available": true, "module_version": "1.10.4", "module_imported": false, "config": null}, "logging": "N/A"}} @@ -251,7 +253,7 @@ export DD_TRACE_STARTUP_LOGS=true Cuando se activan los logs de inicio, el rastreador emite información de configuración y diagnóstico. -**Configuration:** +**Configuration:** (Configuración) El rastreador Ruby imprime una línea de configuración para cada producto (por ejemplo, Profiling, Core y Tracing). @@ -274,7 +276,7 @@ W, [2020-07-08T21:19:05.765994 #143] WARN -- ddtrace: [ddtrace] DATADOG ERROR - {{< /programming-lang >}} {{< programming-lang lang="cpp" >}} -**Configuration:** +**Configuration:** (Configuración) ```text {"agent_url":"http://localhost:8126","analytics_enabled":false,"analytics_sample_rate":null,"date":"2020-07-03T00:44:37+0000","dd_version":"","enabled":true,"env":"test-env","lang":"cpp","lang_version":"201402","operation_name_override":"","report_hostname":false,"sampling_rules":"[{\"sample_rate\": 1.0}]","service":"service_name","tags":{},"version":"v1.2.0"} @@ -305,7 +307,7 @@ Si una integración que estás utilizando no es compatible, o deseas un análisi Para cada lenguaje, puedes desactivar los logs de inicio configurando la variable de entorno `DD_TRACE_STARTUP_LOGS=false`, pero hazlo solo si los logs emitidos plantean un problema. Si más tarde envías logs de [depuración][8], recuerda habilitar los logs de inicio y enviar todos los logs relevantes juntos para acelerar el análisis de tu caso de soporte. -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} @@ -316,4 +318,4 @@ Para cada lenguaje, puedes desactivar los logs de inicio configurando la variabl [5]: /es/help/ [6]: /es/tracing/troubleshooting/connection_errors/ [7]: /es/tracing/compatibility_requirements/ -[8]: /es/tracing/troubleshooting/tracer_debug_logs/ +[8]: /es/tracing/troubleshooting/tracer_debug_logs/ \ No newline at end of file diff --git a/content/es/watchdog/alerts/_index.md b/content/es/watchdog/alerts/_index.md index d305a32409e45..86f228bb4eaee 100644 --- a/content/es/watchdog/alerts/_index.md +++ b/content/es/watchdog/alerts/_index.md @@ -1,4 +1,6 @@ --- +description: Ve e interpreta las alertas de Watchdog que detectan de forma proactiva + anomalías en tus sistemas y aplicaciones mediante una monitorización basada en IA. title: Alertas de Watchdog --- @@ -116,7 +118,7 @@ Watchdog escanea todos los servicios y recursos para buscar anomalías en las si * Tasa de error * Latencia - * Aciertos (tasa de solicitudes) + * Aciertos (índice de solicitudes) Watchdog filtra los endpoints y servicios poco utilizados para reducir el ruido y evitar anomalías en pequeñas cantidades de tráfico. Además, si se detecta una anomalía en la tasa de aciertos pero no tiene impacto en la latencia o la tasa de errores, se ignora la anomalía. @@ -210,7 +212,7 @@ Haz clic en el icono de los prismáticos para ver una tarjeta de alerta de Watch Para archivar una alerta de Watchdog, abre el panel lateral y haz clic en el icono de la carpeta en la esquina superior derecha. Al archivarla, la alerta se oculta del explorador, así como de otras ubicaciones de Datadog, como por ejemplo la página de inicio. Si se archiva una alerta, el icono rosa de los prismáticos de Watchdog no aparece junto al servicio o al recurso correspondiente. -Para ver las alertas archivadas, selecciona la opción **Show _N_ archived alerts** (Mostrar _N_ alertas archivadas) de la casilla de verificación, en la parte superior izquierda del [Explorador de alertas de Watchdog][1]. Esta opción sólo está disponible si hay al menos una alerta archivada. Puedes ver quién ha archivado cada alerta y cuándo lo ha hecho, y también puedes restaurar las alertas archivadas en tu fuente. +Para ver las alertas archivadas, selecciona la opción **Show _N_ archived alerts** (Mostrar _N_ alertas archivadas) de la casilla de verificación, en la parte superior izquierda del [Explorador de alertas de Watchdog][1]. Esta opción solo está disponible si hay al menos una alerta archivada. Puedes ver quién ha archivado cada alerta y cuándo lo ha hecho, y también puedes restaurar las alertas archivadas en tu fuente. **Nota**: El archivado no impide que Watchdog etiquete futuros problemas relacionados con el servicio o el recurso. diff --git a/content/es/watchdog/faulty_deployment_detection.md b/content/es/watchdog/faulty_deployment_detection.md index 1f1d1a77e86df..2da610f96fdd3 100644 --- a/content/es/watchdog/faulty_deployment_detection.md +++ b/content/es/watchdog/faulty_deployment_detection.md @@ -1,4 +1,7 @@ --- +description: Detecta despliegues de código defectuosos en cuestión de minutos mediante + el análisis automático del rendimiento de nuevos despliegues de Watchdog en comparación + con las versiones anteriores. title: Detección automática de una implementación con errores --- diff --git a/content/fr/account_management/billing/usage_attribution.md b/content/fr/account_management/billing/usage_attribution.md index 565a9600fc9ae..86db2913b75dd 100644 --- a/content/fr/account_management/billing/usage_attribution.md +++ b/content/fr/account_management/billing/usage_attribution.md @@ -15,10 +15,6 @@ title: Attribution de l'utilisation ## Présentation -
    -L'attribution de l'utilisation est une fonctionnalité avancée incluse dans la formule Enterprise. Pour toutes les autres formules, contactez votre chargé de compte ou envoyez un e-mail à success@datadoghq.com pour demander l'activation de cette fonctionnalité. -
    - Les administrateurs ou les utilisateurs disposant de l'autorisation Usage Read peuvent accéder à l'onglet Usage Attribution depuis la section Plan & Usage dans Datadog. La page Usage Attribution fournit les informations et fonctionnalités suivantes : - Consulter la répartition de l'utilisation en fonction des différentes clés de tag et ajouter ou modifier de nouvelles clés (jusqu'à trois clés de tag) diff --git a/content/fr/agent/guide/install-agent-6.md b/content/fr/agent/guide/install-agent-6.md new file mode 100644 index 0000000000000..1557b27932fe8 --- /dev/null +++ b/content/fr/agent/guide/install-agent-6.md @@ -0,0 +1,1238 @@ +--- +further_reading: +- link: agent/ + tag: Documentation + text: L'Agent Datadog +private: true +title: Installer l'Agent Datadog 6 +--- + +Ce guide décrit comment installer la version 6 de l'Agent. Datadog recommande d'installer la version 7 de l'Agent ou d'effectuer la mise à niveau vers celle-ci pour bénéficier des dernières fonctionnalités. Pour en savoir plus sur l'installation de la dernière version de l'Agent, suivez les [instructions d'installation les plus récentes de l'Agent][1]. Pour obtenir plus d'informations sur la mise à niveau vers la version 7 de l'Agent à partir d'une version antérieure, consultez la section relative à la [mise à niveau vers la version 7 de l'Agent Datadog][2]. + +## macOS + +- La version 6 de l'Agent Datadog nécessite macOS 10.12 ou ultérieur. +- La version 6.34 de l'Agent est la dernière à prendre en charge macOS 10.12. +- La version 6.38 de l'Agent est la dernière version 6 pour macOS. + +### Installer l'Agent + +#### Ligne de commande + +Exécutez la commande suivante, en remplaçant `MY_API_KEY` par votre clé d'API Datadog : +{{< code-block lang="shell" >}} +DD_AGENT_MAJOR_VERSION=6 DD_API_KEY=MY_API_KEY DD_SITE="${site}" bash -c "$(curl -L https://install.datadoghq.com/scripts/install_mac_os.sh)" +{{< /code-block >}} + +L'Agent s'exécute à l'ouverture de la session. Vous pouvez le désactiver à partir de la barre d'état système. + +#### LaunchDaemon + +L'Agent Datadog peut être installé en tant que LaunchDaemon dans l'ensemble du système en spécifiant `DD_SYSTEMDAEMON_INSTALL=true` et `DD_SYSTEMDAEMON_USER_GROUP=username:groupname`. Remplacez `MY_API_KEY` par votre clé d'API Datadog : + +{{< code-block lang="shell" >}} +DD_SYSTEMDAEMON_INSTALL=true DD_SYSTEMDAEMON_USER_GROUP=username:groupname DD_AGENT_MAJOR_VERSION=6 DD_API_KEY=MY_API_KEY DD_SITE="datad0g.com" bash -c "$(curl -L https://install.datadoghq.com/scripts/install_mac_os.sh)" +{{< /code-block >}} + +L'Agent s'exécute au démarrage du système. Un utilisateur non root valide et son groupe doivent être fournis à l'aide de la variable `DD_SYSTEMDAEMON_USER_GROUP`. Le processus de l'Agent s'exécute sous cet utilisateur et ce groupe. + +L'application de la barre d'état système n'est pas prise en charge par les installations via un LaunchDaemon dans l'ensemble du système. + +#### Interface graphique + +1. Téléchargez et installez le [package DMG][3]. +1. Ajoutez la ligne suivante à `/opt/datadog-agent/etc/datadog.yaml`, en remplaçant `MY_API_KEY` par votre clé d'API Datadog : + {{< code-block lang="shell" >}} +api_key: MY_API_KEY +site: datad0g.com +{{< /code-block >}} + +### Gérer l'Agent + +Vous disposez des ressources suivantes pour gérer l'Agent : +- L'application de l'Agent Datadog dans la barre d'état système, pour les installations basées sur un seul utilisateur +- `launchctl` pour les installations via un LaunchDaemon dans l'ensemble du système +- La commande `datadog-agent` ; le binaire se trouve dans `/usr/local/bin` + +Activez ou désactivez les intégrations dans `/opt/datadog-agent/etc/conf.d.` + +## Windows + +Depuis la version 6.11.0, les composants principaux, APM et de tracing de l'Agent Windows s'exécutent sous le compte `ddagentuser` et sont créés au moment de l'installation, au lieu de s'exécuter sous le compte `LOCAL_SYSTEM`. Si vous passez d'une version 6.x de l'Agent Datadog à la version 6.11 ou à une version ultérieure, consultez la documentation [Utilisateur de l'Agent pour Windows][10] avant de procéder à la mise à niveau. + +Les liens vers les différentes versions du programme d'installation de Windows sont fournis au [format JSON][6]. + +### Installer l'Agent + +#### Installation interactive + +1. Téléchargez et exécutez le [programme d'installation de l'Agent Datadog][4]. +1. Exécutez le programme d'installation (en tant qu'administrateur) en ouvrant `datadog-agent-6-latest.amd64.msi`. +1. Suivez les instructions à l'écran, acceptez l'accord de licence et saisissez votre clé d'API Datadog. +1. Saisissez votre région Datadog : {{< region-param key=dd_site code="true" >}}. +1. Si vous le souhaitez, lancez le Datadog Agent Manager lorsque cela vous est demandé. + +#### Installation sans surveillance + +1. Téléchargez et exécutez le [programme d'installation de l'Agent Datadog][4]. +1. Exécutez l'une des commandes suivantes dans le répertoire où vous avez téléchargé le programme d'installation, en remplaçant `MY_API_KEY` par votre clé d'API Datadog : + - Invite de commandes : + {{< code-block lang="shell" >}} +start /wait msiexec /qn /i datadog-agent-6-latest.amd64.msi APIKEY="MY_API_KEY" SITE="datad0g.com" +{{< /code-block >}} + - Powershell : + {{< code-block lang="powershell" >}} +Start-Process -Wait msiexec -ArgumentList '/qn /i datadog-agent-6-latest.amd64.msi APIKEY="MY_API_KEY" SITE="datad0g.com"' +{{< /code-block >}} + +`HOSTNAME` et `TAGS` sont des valeurs facultatives. Consultez la [documentation relative à l'Agent Windows][5] pour découvrir toutes les options disponibles. + +#### Déploiement sur Azure + +Pour installer l'Agent sur Azure, suivez les instructions de la [documentation Microsoft Azure][8]. + +## Linux et Unix + +{{< tabs >}} + +{{% tab "Debian" %}} +### Installation en une seule étape + +La commande en une seule étape installe les packages APT pour l'Agent Datadog et vous demande de saisir votre mot de passe. +- Si l'Agent n'est pas déjà installé sur votre machine et que vous ne souhaitez pas qu'il démarre automatiquement après l'installation, ajoutez `DD_INSTALL_ONLY=true` au début de la commande avant de l'exécuter. +- Si vous disposez d'un fichier de configuration de l'Agent, les valeurs existantes sont conservées lors de la mise à jour. +- Vous pouvez configurer certaines des options de l'Agent au cours de la procédure d'installation initiale. Pour en savoir plus, consultez les [options de configuration install_script][101]. + +Pour installer l'Agent, exécutez la commande suivante, en remplaçant `MY_API_KEY` par votre clé d'API Datadog : +```shell +DD_API_KEY=MY_API_KEY DD_SITE="datad0g.com" bash -c "$(curl -L https://s3.amazonaws.com/dd-agent/scripts/install_script_agent6.sh)" +``` + +### Installation en plusieurs étapes + +1. Configurez APT afin de pouvoir effectuer des téléchargements via HTTPS et installer `curl` et `gnupg` : + ```shell + sudo apt-get update + sudo apt-get install apt-transport-https curl gnupg + ``` +1. Configurez le référentiel Debian de Datadog sur votre système et créez un keyring d'archive Datadog : + ```shell + sudo sh -c "echo 'deb [signed-by=/usr/share/keyrings/datadog-archive-keyring.gpg] https://apt.datadoghq.com/ stable 6' > /etc/apt/sources.list.d/datadog.list" + sudo touch /usr/share/keyrings/datadog-archive-keyring.gpg + sudo chmod a+r /usr/share/keyrings/datadog-archive-keyring.gpg + + curl https://keys.datadoghq.com/DATADOG_APT_KEY_CURRENT.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch + curl https://keys.datadoghq.com/DATADOG_APT_KEY_06462314.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch + curl https://keys.datadoghq.com/DATADOG_APT_KEY_C0962C7D.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch + curl https://keys.datadoghq.com/DATADOG_APT_KEY_F14F620E.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch + curl https://keys.datadoghq.com/DATADOG_APT_KEY_382E94DE.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch + ``` + +1. Si vous utilisez Debian 8 ou une version antérieure, copiez le keyring vers `/etc/apt/trusted.gpg.d` : + ```shell + sudo cp -a /usr/share/keyrings/datadog-archive-keyring.gpg /etc/apt/trusted.gpg.d/ + ``` + +1. Mettez à jour votre répertoire APT local et installez l'Agent : + ```shell + sudo apt-get update + sudo apt-get install datadog-agent datadog-signing-keys + ``` + +1. Si vous effectuez une mise à niveau depuis la version 5.17 ou une version ultérieure de l'Agent, vous pouvez choisir d'importer votre configuration existante de l'Agent 5 : + ```shell + sudo -u dd-agent -- datadog-agent import /etc/dd-agent /etc/datadog-agent + ``` + +1. Si vous n'effectuez pas de mise à niveau et que vous ne souhaitez pas utiliser une ancienne configuration, copiez l'exemple de configuration et installez le fichier Agent. Remplacez `MY_API_KEY` par votre clé d'API Datadog : + ```shell + sudo sh -c "sed 's/api_key:.*/api_key: MY_API_KEY/' /etc/datadog-agent/datadog.yaml.example > /etc/datadog-agent/datadog.yaml" + ``` +1. Configurez la région Datadog : + ```shell + sudo sh -c "sed -i 's/# site:.*/site: datad0g.com/' + /etc/datadog-agent/datadog.yaml" + ``` +1. Assurez-vous que les autorisations de l'utilisateur de l'Agent sont correctes : + ```shell + sudo sh -c "chown dd-agent:dd-agent /etc/datadog-agent/datadog.yaml && chmod 640 /etc/datadog-agent/datadog.yaml" + ``` +1. Démarrez l'Agent : + ```shell + sudo systemctl restart datadog-agent.service + ``` + +[101]: https://github.com/DataDog/agent-linux-install-script/blob/main/README.md#agent-configuration-options +{{% /tab %}} + +{{% tab "Ubuntu" %}} +### Installation en une seule étape + +La commande en une seule étape installe les packages APT pour l'Agent Datadog et vous demande de saisir votre mot de passe. Si l'Agent n'est pas déjà installé sur votre machine et que vous ne souhaitez pas qu'il démarre automatiquement après l'installation, ajoutez `DD_INSTALL_ONLY=true` au début de la commande avant de l'exécuter. + +Exécutez la commande suivante, en remplaçant `MY_API_KEY` par votre clé d'API Datadog : +```shell +DD_API_KEY=MY_API_KEY bash -c "$(curl -L https://raw.githubusercontent.com/DataDog/dd-agent/master/packaging/datadog-agent/source/install_agent.sh)" +``` + +### Installation en plusieurs étapes + +1. Configurez APT afin de pouvoir effectuer des téléchargements via HTTPS et installer `curl` et `gnupg` : + ```shell + sudo apt-get update + sudo apt-get install apt-transport-https curl gnupg + ``` +1. Configurez le référentiel Debian de Datadog sur votre système et créez un keyring d'archive Datadog : + ```shell + sudo sh -c "echo 'deb [signed-by=/usr/share/keyrings/datadog-archive-keyring.gpg] https://apt.datadoghq.com/ stable 6' > /etc/apt/sources.list.d/datadog.list" + sudo touch /usr/share/keyrings/datadog-archive-keyring.gpg + sudo chmod a+r /usr/share/keyrings/datadog-archive-keyring.gpg + + curl https://keys.datadoghq.com/DATADOG_APT_KEY_CURRENT.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch + curl https://keys.datadoghq.com/DATADOG_APT_KEY_06462314.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch + curl https://keys.datadoghq.com/DATADOG_APT_KEY_C0962C7D.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch + curl https://keys.datadoghq.com/DATADOG_APT_KEY_F14F620E.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch + curl https://keys.datadoghq.com/DATADOG_APT_KEY_382E94DE.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch + ``` +1. Si vous utilisez Ubuntu 14 ou une version antérieure, copiez le keyring vers `/etc/apt/trusted.gpg.d` : + ```shell + sudo cp -a /usr/share/keyrings/datadog-archive-keyring.gpg /etc/apt/trusted.gpg.d/ + ``` + +1. Mettez à jour votre répertoire APT local et installez l'Agent : + ```shell + sudo apt-get update + sudo apt-get install datadog-agent datadog-signing-keys + ``` + +1. Si vous effectuez une mise à niveau depuis la version 5.17 ou une version ultérieure de l'Agent, vous pouvez choisir d'importer votre configuration existante de l'Agent 5 : + ```shell + sudo -u dd-agent -- datadog-agent import /etc/dd-agent /etc/datadog-agent + ``` + +1. Si vous n'effectuez pas de mise à niveau et que vous ne souhaitez pas utiliser une ancienne configuration, copiez l'exemple de configuration et installez le fichier Agent. Remplacez `MY_API_KEY` par votre clé d'API Datadog : + ```shell + sudo sh -c "sed 's/api_key:.*/api_key: MY_API_KEY/' /etc/datadog-agent/datadog.yaml.example > /etc/datadog-agent/datadog.yaml" + ``` +1. Configurez la région Datadog : + ```shell + sudo sh -c "sed -i 's/# site:.*/site: datad0g.com/' /etc/datadog-agent/datadog.yaml" + ``` +1. Assurez-vous que les autorisations de l'utilisateur de l'Agent sont correctes : + ```shell + sudo sh -c "chown dd-agent:dd-agent /etc/datadog-agent/datadog.yaml && chmod 640 /etc/datadog-agent/datadog.yaml" + ``` +1. Démarrez l'Agent : + - Ubuntu 16.04 et versions ultérieures : + ```shell + sudo systemctl restart datadog-agent.service + ``` + - Ubuntu 14.04 : + ```shell + sudo initctl start datadog-agent + ``` + +{{% /tab %}} + +{{% tab "Amazon Linux" %}} +### Installation en une seule étape + +La commande en une seule étape installe les packages YAM pour l'Agent Datadog et vous demande de saisir votre mot de passe. +- Si l'Agent n'est pas déjà installé sur votre machine et que vous ne souhaitez pas qu'il démarre automatiquement après l'installation, ajoutez `DD_INSTALL_ONLY=true` au début de la commande avant de l'exécuter. +- Si vous disposez d'un fichier de configuration de l'Agent, les valeurs existantes sont conservées lors de la mise à jour. +- Vous pouvez configurer certaines des options de l'Agent au cours de la procédure d'installation initiale. Pour en savoir plus, consultez les [options de configuration install_script][101]. + +1. Exécutez la commande suivante, en remplaçant `MY_API_KEY` par votre clé d'API Datadog : + ```shell + DD_API_KEY=MY_API_KEY DD_SITE="datad0g.com" bash -c "$(curl -L https://s3.amazonaws.com/dd-agent/scripts/install_script_agent6.sh)" + ``` + +1. For Amazon Linux 2022 installations on Agent version <= 6.39. The Agent requires the `libxcrypt-compat` package: + ```shell + dnf install -y libxcrypt-compat + ``` + +### Multi-step install + +1. On an x86_64 host, set up the Datadog YUM repo by creating `/etc/yum.repos.d/datadog.repo` with the following configuration: + ```conf + [datadog] + name=Datadog, Inc. + baseurl=https://yum.datadoghq.com/stable/6/x86_64/ + enabled=1 + gpgcheck=1 + repo_gpgcheck=1 + gpgkey=https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_4F09D16B.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_B01082D3.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public + ``` + +1. On an arm64 host, set up the Datadog YUM repo by creating `/etc/yum.repos.d/datadog.repo` with the following configuration: + ```conf + [datadog] + name=Datadog, Inc. + baseurl=https://yum.datadoghq.com/stable/6/aarch64/ + enabled=1 + gpgcheck=1 + repo_gpgcheck=1 + gpgkey=https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_4F09D16B.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_B01082D3.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public + ``` + +1. If upgrading from Agent 5 or 6, delete the obsolete RPM GPG key: + ```shell + sudo sh -c 'if rpm -q gpg-pubkey-4172a230-55dd14f6 >/dev/null; then rpm --erase gpg-pubkey-4172a230-55dd14f6; fi' + ``` + +1. Update your local yum repo and install the Agent: + ```shell + sudo yum makecache + sudo yum install datadog-agent + ``` + +1. Optionally, if upgrading from Agent 5.17 or higher, import your existing Agent 5 configuration: + ```shell + sudo -u dd-agent -- datadog-agent import /etc/dd-agent /etc/datadog-agent + ``` + +1. If you're not upgrading and do not want to use an old configuration, copy the example config into place and install the Agent. Replace `MY_API_KEY` with your Datadog API key: + ```shell + sudo sh -c "sed 's/api_key:.*/api_key: MY_API_KEY/' /etc/datadog-agent/datadog.yaml.example > /etc/datadog-agent/datadog.yaml" + ``` + +1. Configure the Datadog region: + ```shell + sudo sh -c "sed -i 's/# site:.*/site: datad0g.com/' /etc/datadog-agent/datadog.yaml" + ``` +1. Ensure the Agent user's permissions are correct:: + ```shell + sudo sh -c "chown dd-agent:dd-agent /etc/datadog-agent/datadog.yaml && chmod 640 /etc/datadog-agent/datadog.yaml" + ``` +1. Start the Agent: + - Amazon Linux 2.0: + ```shell + sudo systemctl restart datadog-agent.service + ``` + - Amazon Linux 1.0: + ```shell + sudo initctl start datadog-agent + ``` + +[101]: https://github.com/DataDog/agent-linux-install-script/blob/main/README.md#agent-configuration-options +{{% /tab %}} + +{{% tab "CentOS and RedHat" %}} +### One-step install + +The one-step command installs the YUM packages for the Datadog Agent and prompts you for your password. +- If the Agent is not already installed on your machine and you don't want it to start automatically after the installation, prepend `DD_INSTALL_ONLY=true` to the command before running it. +- If you have an existing Agent configuration file, existing values are retained during the update. +- You can configure some of the Agent options during the initial install process. For more information, check the [install_script configuration options][101]. + +Run the following command, replacing `MY_API_KEY` with your Datadog API key: +```shell +DD_UPGRADE=true DD_SITE="datad0g.com" bash -c "$(curl -L https://s3.amazonaws.com/dd-agent/scripts/install_script_agent6.sh)" +``` + +### Multi-step install + +1. Set up the Datadog YUM repo by creating `/etc/yum.repos.d/datadog.repo` with the following configuration: + ```conf + [datadog] + name=Datadog, Inc. + baseurl=https://yum.datadoghq.com/rpm/x86_64/ + enabled=1 + gpgcheck=0 + repo_gpgcheck=1 + gpgkey=https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_4F09D16B.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_B01082D3.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public + ``` + + **Note**: The `repo_gpgcheck=0` option is a workaround for [a bug in DNF][102]. + +1. If you're upgrading from Agent 5 or a previous version of Agent 6, delete the obsolete RPM GPG key: + ```shell + sudo sh -c 'if rpm -q gpg-pubkey-4172a230-55dd14f6 >/dev/null; then rpm --erase gpg-pubkey-4172a230-55dd14f6; fi' + ``` + +1. Update your local yum repo and install the Agent: + ```shell + sudo yum makecache + sudo yum remove datadog-agent-base + sudo yum install datadog-agent + ``` + +1. Optionally, if upgrading from Agent 5.17 or higher, import your existing Agent 5 configuration: + ```shell + sudo -u dd-agent -- datadog-agent import /etc/dd-agent /etc/datadog-agent + ``` + +1. If you're not upgrading and do not want to use an old configuration, copy the example config into place and install the Agent. Replace `MY_API_KEY` with your Datadog API key: + ```shell + sudo sh -c "sudo sh -c "sed 's/api_key:.*/api_key: .*/api_key: MY_API_KEY/' /etc/datadog-agent/datadog.yaml.example > /etc/datadog-agent/datadog.yaml" + ``` + +1. Configure the Datadog region: + ```shell + sudo sh -c "sed -i 's/# site:.*/site: datad0g.com/' /etc/datadog-agent/datadog.yaml" + ``` + +1. Ensure the Agent user's permissions are correct:: + ```shell + sudo sh -c "chown dd-agent:dd-agent /etc/datadog-agent/datadog.yaml && chmod 640 /etc/datadog-agent/datadog.yaml" + ``` + +1. Start the Agent: + - Centos or Red Hat 7 and higher: + ```shell + sudo systemctl restart datadog-agent.service + ``` + - Centos or Red Hat 6: + ```shell + sudo initctl start datadog-agent + ``` + +[101]: https://github.com/DataDog/agent-linux-install-script/blob/main/README.md#agent-configuration-options +[102]: https://bugzilla.redhat.com/show_bug.cgi?id=1792506 +{{% /tab %}} + +{{% tab "Alma, Oracle, and Rocky" %}} +### One-step install + +The one-step command installs the YUM packages for the Datadog Agent and prompts you for your password. +- If the Agent is not already installed on your machine and you don't want it to start automatically after the installation, prepend `DD_INSTALL_ONLY=true` to the command before running it. +- If you have an existing Agent configuration file, existing values are retained during the update. +- You can configure some of the Agent options during the initial install process. For more information, check the [install_script configuration options][101]. + +Run the following command, replacing `MY_API_KEY` with your Datadog API key: +```shell +DD_UPGRADE=true DD_SITE="datad0g.com" bash -c "$(curl -L https://s3.amazonaws.com/dd-agent/scripts/install_script_agent6.sh)" +``` + +### Multi-step install + +1. Set up the Datadog YUM repo by creating `/etc/yum.repos.d/datadog.repo` with the following configuration: + ```conf + [datadog] + name=Datadog, Inc. + baseurl=https://yum.datadoghq.com/rpm/x86_64/ + enabled=1 + gpgcheck=1 + repo_gpgcheck=1 + gpgkey=https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_4F09D16B.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_B01082D3.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public + ``` + +1. If you're upgrading from Agent 5 or a previous version of Agent 6, delete the obsolete RPM GPG key: + ```shell + sudo sh -c 'if rpm -q gpg-pubkey-4172a230-55dd14f6 >/dev/null; then rpm --erase gpg-pubkey-4172a230-55dd14f6; fi' + ``` + +1. Update your local yum repo and install the Agent: + ```shell + sudo yum makecache + sudo yum remove datadog-agent-base + sudo yum install datadog-agent + ``` + +1. Optionally, if upgrading from Agent 5.17 or higher, import your existing Agent 5 configuration: + ```shell + sudo -u dd-agent -- datadog-agent import /etc/dd-agent /etc/datadog-agent + ``` + +1. If you're not upgrading and do not want to use an old configuration, copy the example config into place and install the Agent. Replace `MY_API_KEY` with your Datadog API key: + ```shell + sudo sh -c "sudo sh -c "sed 's/api_key:.*/api_key: .*/api_key: MY_API_KEY/' /etc/datadog-agent/datadog.yaml.example > /etc/datadog-agent/datadog.yaml" + ``` + +1. Configure the Datadog region: + ```shell + sudo sh -c "sed -i 's/# site:.*/site: datad0g.com/' /etc/datadog-agent/datadog.yaml" + ``` + +1. Ensure the Agent user's permissions are correct:: + ```shell + sudo sh -c "chown dd-agent:dd-agent /etc/datadog-agent/datadog.yaml && chmod 640 /etc/datadog-agent/datadog.yaml" + ``` + +1. Restart the Agent: + ```shell + sudo systemctl restart datadog-agent.service + ``` + +[101]: https://github.com/DataDog/agent-linux-install-script/blob/main/README.md#agent-configuration-options +{{% /tab %}} + +{{% tab "Fedora" %}} +### One-step install + +The one-step command installs the YUM packages for the Datadog Agent and prompts you for your password. +- If the Agent is not already installed on your machine and you don't want it to start automatically after the installation, prepend `DD_INSTALL_ONLY=true` to the command before running it. +- If you have an existing Agent configuration file, existing values are retained during the update. +- You can configure some of the Agent options during the initial install process. For more information, check the [install_script configuration options][101]. + +Run the following command, replacing `MY_API_KEY` with your Datadog API key: +```shell +DD_API_KEY=MY_API_KEY bash -c "$(curl -L https://raw.githubusercontent.com/DataDog/dd-agent/master/packaging/datadog-agent/source/install_agent.sh)" +``` + +### Multi-step install + +1. Set up the Datadog YUM repo by creating `/etc/yum.repos.d/datadog.repo` with the following configuration: + ```conf + [datadog] + name=Datadog, Inc. + baseurl=https://yum.datadoghq.com/rpm/x86_64/ + enabled=1 + gpgcheck=1 + repo_gpgcheck=1 + gpgkey=https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_4F09D16B.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_B01082D3.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public + ``` + +1. If you're upgrading from Agent 5 or a previous version of Agent 6, delete the obsolete RPM GPG key: + ```shell + sudo sh -c 'if rpm -q gpg-pubkey-4172a230-55dd14f6 >/dev/null; then rpm --erase gpg-pubkey-4172a230-55dd14f6; fi' + ``` + +1. Update your local yum repo and install the Agent: + ```shell + sudo yum makecache + sudo yum install datadog-agent + ``` + +1. Optionally, if upgrading from Agent 5.17 or higher, import your existing Agent 5 configuration: + ```shell + sudo -u dd-agent -- datadog-agent import /etc/dd-agent /etc/datadog-agent + ``` + +1. If you're not upgrading and do not want to use an old configuration, copy the example config into place and install the Agent. Replace `MY_API_KEY` with your Datadog API key: + ```shell + sudo sh -c "sudo sh -c "sed 's/api_key:.*/api_key: .*/api_key: MY_API_KEY/' /etc/datadog-agent/datadog.yaml.example > /etc/datadog-agent/datadog.yaml" + ``` + +1. Configure the Datadog region: + ```shell + sudo sh -c "sed -i 's/# site:.*/site: datad0g.com/' /etc/datadog-agent/datadog.yaml" + ``` + +1. Ensure the Agent user's permissions are correct:: + ```shell + sudo sh -c "chown dd-agent:dd-agent /etc/datadog-agent/datadog.yaml && chmod 640 /etc/datadog-agent/datadog.yaml" + ``` + +1. Restart the Agent: + ```shell + sudo systemctl restart datadog-agent.service + ``` + +[101]: https://github.com/DataDog/agent-linux-install-script/blob/main/README.md#agent-configuration-options +{{% /tab %}} + +{{% tab "Suse" %}} +### One-step install + +The one-step command installs the YUM packages for the Datadog Agent and prompts you for your password. +- If the Agent is not already installed on your machine and you don't want it to start automatically after the installation, prepend `DD_INSTALL_ONLY=true` to the command before running it. +- If you have an existing Agent configuration file, existing values are retained during the update. +- You can configure some of the Agent options during the initial install process. For more information, check the [install_script configuration options][101]. + +Run the following command, replacing `MY_API_KEY` with your Datadog API key: +```shell +DD_API_KEY=MY_API_KEY DD_SITE="datad0g.com" bash -c "$(curl -L https://s3.amazonaws.com/dd-agent/scripts/install_script_agent6.sh)" +``` + +### Installation en plusieurs étapes + +1. Set up the Datadog YUM repo by creating `/etc/zypp/repos.d/datadog.repo` with the following configuration: + ```conf + [datadog] + name=Datadog, Inc. + baseurl=hhttps://yum.datadoghq.com/suse/stable/6/x86_64 + enabled=1 + gpgcheck=1 + repo_gpgcheck=1 + gpgkey=https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_4F09D16B.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_B01082D3.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public + https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public + ``` + +1. If you're upgrading from Agent 5 or a previous version of Agent 6, delete the obsolete RPM GPG key: + ```shell + sudo sh -c 'if rpm -q gpg-pubkey-4172a230-55dd14f6 >/dev/null; then rpm --erase gpg-pubkey-4172a230-55dd14f6; fi' + ``` + +1. Update your local zypper repo and install the Agent: + ```shell + sudo zypper refresh + sudo rpm --import https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public + sudo rpm --import https://keys.datadoghq.com/DATADOG_RPM_KEY_4F09D16B.public + sudo rpm --import https://keys.datadoghq.com/DATADOG_RPM_KEY_B01082D3.public + sudo rpm --import https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public + sudo rpm --import https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public + sudo zypper install datadog-agent + ``` + +1. Si vous effectuez une mise à niveau depuis la version 5.17 ou une version ultérieure de l'Agent, vous pouvez choisir d'importer votre configuration existante de l'Agent 5 : + ```shell + sudo -u dd-agent -- datadog-agent import /etc/dd-agent /etc/datadog-agent + ``` + +1. Si vous n'effectuez pas de mise à niveau et que vous ne souhaitez pas utiliser une ancienne configuration, copiez l'exemple de configuration et installez le fichier Agent. Remplacez `MY_API_KEY` par votre clé d'API Datadog : + ```shell + sudo sh -c "sudo sh -c "sed 's/api_key:.*/api_key: .*/api_key: MY_API_KEY/' /etc/datadog-agent/datadog.yaml.example > /etc/datadog-agent/datadog.yaml" + ``` + +1. Configurez la région Datadog : + ```shell + sudo sh -c "sed -i 's/# site:.*/site: datad0g.com/' /etc/datadog-agent/datadog.yaml" + ``` + +1. Assurez-vous que les autorisations de l'utilisateur de l'Agent sont correctes : + ```shell + sudo sh -c "chown dd-agent:dd-agent /etc/datadog-agent/datadog.yaml && chmod 640 /etc/datadog-agent/datadog.yaml" + ``` + +1. Restart the Agent: + ```shell + sudo systemctl restart datadog-agent.service + ``` + +[101]: https://github.com/DataDog/agent-linux-install-script/blob/main/README.md#agent-configuration-options +{{% /tab %}} + +{{% tab "AIX" %}} +### Installation en une seule étape + +The one-step command installs the latest BFF package for the Datadog Agent and prompts you for your password if necessary. Si l'Agent n'est pas déjà installé sur votre machine et que vous ne souhaitez pas qu'il démarre automatiquement après l'installation, ajoutez `DD_INSTALL_ONLY=true` au début de la commande avant de l'exécuter. + +Exécutez la commande suivante, en remplaçant `MY_API_KEY` par votre clé d'API Datadog : +```shell +DD_API_KEY=MY_API_KEY DD_SITE="datad0g.com" ksh -c "$(curl -L https://raw.githubusercontent.com/DataDog/datadog-unix-agent/master/scripts/install_script.sh)" +``` + +### Upgrade from a previous installation + +To install the Agent while keeping your existing configuration, run the following command: +```shell +DD_UPGRADE=true DD_SITE="datad0g.com" ksh -c "$(curl -L https://raw.githubusercontent.com/DataDog/datadog-unix-agent/master/scripts/install_script.sh)" +``` + +For a full list of the available installation script environment variables, see [Basic Agent Usage for AIX][101]. + +### Installation en plusieurs étapes + +1. Download the preferred BFF from the [datadog-unix-agent][102] repo releases. + +1. Install the artifact as root with `installp`: + ```shell + installp -aXYgd datadog-unix-agent-latest.powerpc.aix..bff datadog-unix-agent + ``` + +1. If you don't have an existing configuration file, copy the example config into place. Replace `MY_API_KEY` with your Datadog API key: + ```shell + sudo sh -c "sed 's/api_key:.*/api_key: MY_API_KEY/' /etc/datadog-agent/datadog.yaml.example > /etc/datadog-agent/datadog.yaml" + ``` + +1. Configurez la région Datadog : + ```shell + sudo sh -c "sed \'s/# site:.*/site: datad0g.com/\' /etc/datadog-agent/datadog.yaml > /etc/datadog-agent/datadog.yaml.new && mv /etc/datadog-agent/datadog.yaml.new /etc/datadog-agent/datadog.yaml" + ``` + +1. Ensure that the Datadog Agent has the correct permissions: + ```shell + sudo sh -c "chown dd-agent:dd-agent /etc/datadog-agent/datadog.yaml && chmod 660 /etc/datadog-agent/datadog.yaml" + ``` + +1. Stop the Agent service: + ```shell + sudo stopsrc -s datadog-agent + ``` + +1. Verify the Agent service has stopped: + ``` + sudo lssrc -s datadog-agent + ``` + +1. Restart the Agent service: + ```shell + sudo startsrc -s datadog-agent + ``` + +[101]: /fr/agent/basic_agent_usage/aix/#installation +[102]: https://github.com/DataDog/datadog-unix-agent/releases +{{% /tab %}} + +{{< /tabs >}} + +## Cloud and containers + +{{< tabs >}} + +{{% tab "Kubernetes" %}} + +Run the Datadog Agent directly in your Kubernetes cluster to start collecting your cluster and applications metrics, traces, and logs. You can deploy the Agent with a Helm chart, [the Datadog Operator][101] or directly with [a DaemonSet][102]. For more information about installing the Datadog Agent on different distributions, see the [Kubernetes distributions documentation][103]. + +### Installing the Datadog Agent + +To install the chart with a custom release name `RELEASE_NAME`: + +1. [Install Helm][104]. +1. Add the Datadog Helm repository: + ```shell + helm repo add datadog https://helm.datadoghq.com + ``` + +1. Fetch the latest version of newly added charts: + ```shell + helm repo update + ``` + +1. Create an empty `values.yaml` file, and override any of the [default values][105] if desired. See the [Datadog `helm-charts` repo][106] for examples. +1. Deploy the Datadog Agent, replacing `MY_API_KEY` with your Datadog API key: + **With Helm v3+**: + ```shell + helm install RELEASE_NAME -f datadog-values.yaml --set datadog.site='datad0g.com' --set agents.image.tag='6' --set datadog.apiKey=MY_API_KEY datadog/datadog + ``` + + **With Helm v1 or v2**: + ```shell + helm install -f datadog-values.yaml --name RELEASE_NAME --set datadog.site='datad0g.com' --set agents.image.tag='6' --set datadog.apiKey=MY_API_KEY datadog/datadog + ``` + + This chart adds the Datadog Agent to all nodes in your cluster using a DaemonSet. Soon after installation, Datadog begins to report hosts and metrics data in your account. + +### Enabling log collection + +To enable log collection with Helm, update your `datadog-values.yaml` file with the following log collection configuration: + +```yaml +datadog: + logs: + enabled: true + containerCollectAll: true +``` + +Then upgrade your Datadog Helm chart: +```shell +helm upgrade -f datadog-values.yaml RELEASE_NAME datadog/datadog +``` + +### Enabling trace collection + +Follow the dedicated [APM setup documentation][107] to learn how to collect your application traces in a Kubernetes environment. + +### Further Reading + +For information on available Agent features, see the [Kubernetes documentation][108]. + +[101]: /fr/containers/kubernetes/?tab=operator +[102]: /fr/containers/kubernetes/?tab=daemonset +[103]: /fr/containers/kubernetes/distributions/ +[104]: https://v3.helm.sh/docs/intro/install/ +[105]: https://github.com/DataDog/helm-charts/blob/main/charts/datadog/values.yaml +[106]: https://github.com/DataDog/helm-charts/tree/main/examples/datadog +[107]: https://dd-dev-local.datad0g.com/apm/service-setup?architecture=container-based&collection=Helm%20Chart%20%28Recommended%29&environment=kubernetes +[108]: /fr/containers/kubernetes/ +{{% /tab %}} + +{{% tab "Docker" %}} +### Installation en une seule étape + +The one-step installation command runs a signed Docker container which embeds the Datadog Agent to monitor your host. The Docker integration is enabled by default, as well as [Autodiscovery][101] in automatic configuration mode. + +
    You must not run more than one Datadog Agent per node. Running multiple Agents may result in unexpected behavior.
    + +For a one-step install, run the following command. Replace `MY_API_KEY` with your Datadog API key: + +On Amazon Linux v2: +```shell +docker run -d --name dd-agent -v /var/run/docker.sock:/var/run/docker.sock:ro -v /proc/:/host/proc/:ro -v /cgroup/:/host/sys/fs/cgroup:ro -e DD_API_KEY=MY_API_KEY -e DD_SITE="datad0g.com" gcr.io/datadoghq/agent:6 +``` + +On other operating systems: +```shell +docker run -d --name dd-agent -v /var/run/docker.sock:/var/run/docker.sock:ro -v /proc/:/host/proc/:ro -v /sys/fs/cgroup/:/host/sys/fs/cgroup:ro -e DD_API_KEY=MY_API_KEY -e DD_SITE="datad0g.com" gcr.io/datadoghq/agent:6 +``` + +#### Troubleshooting + +If the one-step installation command does not work, it's possible that your system mounts the `cgroup` directory in an unexpected place or does not use CGroups for memory management. CGroups are required for the Docker check to succeed. To enable CGroups, see [the Setup documentation][102]. + +If CGroups are enabled, but the check is failing because of an unexpected `cgroup` directory location: +1. Run `mount | grep "cgroup type tmpfs"` to retrieve the location of the `cgroup` directory. +1. Replace the first occurrence of `/sys/fs/cgroup` in the one-step installation command with the location of the `cgroup` directory. + +### Send custom metrics with DogStatsD + +By default, DogStatsD only listens to localhost. To listen to DogStatsD packets from other containers: +1. Add `-e DD_DOGSTATSD_NON_LOCAL_TRAFFIC=true` to the container's parameters. +1. Bind the container's statsd port to the hosts's IP by adding the `-p 8125:8125/udp` option to the container's parameters. +1. Configure your client library to send UDP packets to the hosts's IP. + +### Customize your Agent configuration + +- For information on configuring the Agent, see [Docker Agent for Docker, containerd, and Podman][103]. +- To tune Autodiscovery, see [Docker Integrations Autodiscovery][104]. + +[101]: /fr/containers/docker/integrations/?tabs=docker +[102]: /fr/containers/docker/?tab=standard#setup +[103]: /fr/containers/docker/?tab=standard +[104]: /fr/containers/docker/integrations/?tab=docker + +{{% /tab %}} + +{{% tab "CoreOS" %}} +Running CoreOS Container Linux is supported with the Docker runtime. For installation instructions, see [Docker][1]. + +To run CoreOS Tectonic on Kubernetes, see [Kubernetes][2]. + +[1]: ?tab=docker#cloud-and-containers +[2]: ?tab=kubernetes#cloud-and-containers + +{{% /tab %}} + +{{% tab "OpenShift" %}} +Starting with version 6.1, the Datadog Agent supports monitoring OpenShift Origin and Enterprise clusters. Depending on your needs and the security constraints of your cluster, three deployment scenarios are supported: + +- [Restricted SCC operations][101] +- [Host network SCC operations][102] +- [Custom Datadog for all features][103] + +To install OpenShift, see the [Kubernetes installation instructions](?tab=kubernetes#cloud-and-containers). The Kubernetes integration targets OpenShift 3.7.0+ by default. For older versions of OpenShift, you must complete additional installation steps. For more information, see the [OpenShift integration documentation][104]. + +[101]: /fr/integrations/openshift/?tab=helm#restricted-scc-operations +[102]: /fr/integrations/openshift/?tab=helm#host +[103]: /fr/integrations/openshift/?tab=helm#custom-datadog-scc-for-all-features +[104]: /fr/integrations/openshift/?tab=helm#installation +{{% /tab %}} + +{{% tab "Cloud Foundry" %}} +
    The Datadog Agent BOSH release only works on Ubuntu and Red Hat stemcells.
    + +1. Upload the Datadog Agent release to your BOSH Director: + + ```shell + # BOSH CLI v1 + bosh upload release https://cloudfoundry.datadoghq.com/datadog-agent/datadog-agent-boshrelease-latest.tgz + + # BOSH CLI v2 + bosh upload-release https://cloudfoundry.datadoghq.com/datadog-agent/datadog-agent-boshrelease-latest.tgz + ``` + +2. Configure Datadog as an addon in your runtime config. Replace `MY_API_KEY` with your Datadog API key:: + + ```yaml + # runtime.yml + --- + releases: + - name: datadog-agent + version: $UPLOADED_VERSION # e.g. 1.0.5140 + + addons: + - name: datadog + jobs: + - name: dd-agent + release: datadog-agent + properties: + dd: + use_dogstatsd: yes + dogstatsd_port: 18125 # Many Cloud Foundry deployments have their own StatsD listening on port 8125 + api_key: MY_API_KEY + tags: ["my-cloud-foundry-deployment"] # optional. Add any tags you wish + # Optionally, enable any Agent Checks here + # integrations: + # directory: + # init_config: {} + # instances: + # directory: "." + ``` + +3. Add the runtime to your [runtime config][101]: + + ```shell + # BOSH cli v1 + bosh update runtime-config runtime.yml + + # BOSH cli v2 + bosh update-runtime-config runtime.yml + ``` + +4. Redeploy any existing deployments: + ```shell + # BOSH cli v1 + bosh deployment myDeployment.yml + bosh -n deploy + + # BOSH cli v2 + bosh -n -d myDeployment deploy myDeployment.yml + ``` + +[101]: https://bosh.io/docs/runtime-config/ +{{% /tab %}} + +{{< /tabs >}} + +## Configuration management + +{{< tabs >}} +{{% tab "Ansible" %}} + +Installing the Agent with Ansible requires Ansible version 2.10 or higher. + +
    The Datadog Ansible collection supports most Debian, RHEL-based and SUSE-based Linux distributions, macOS, and Windows.
    + +### Prerequisites + +#### Windows +Before you can use the Datadog Ansible Collection to manage Windows hosts, you must install the `ansible.windows` collection: +```shell +ansible-galaxy collection install ansible.windows +``` + +#### openSUSE and SLES + +Before you can use the Datadog Ansible Collection to manage openSUSE/SLES hosts, you must install the `community.general` collection: + +```shell +ansible-galaxy collection install community.general +``` + +### Install Datadog + +1. Install the Datadog Ansible collection from Ansible Galaxy on your Ansible server: + ```shell + ansible-galaxy collection install datadog.dd + ``` + - The Datadog Ansible collection is also available through the [Red Hat Automation Hub][101] where it is officially certified by Red Hat. + - Installing the collection is recommended. If needed, you can also install Datadog using the [standalone role][102]. + +2. To deploy the Datadog Agent on hosts, add the Datadog role and your API key to your playbook. Replace `MY_API_KEY` with your Datadog API key: + ```yaml + - hosts: servers + tasks: + - name: Import the Datadog Agent role from the Datadog collection + import_role: + name: datadog.dd.agent + vars: + datadog_api_key: "MY_API_KEY" + datadog_agent_major_version: 6 + datadog_site: "datad0g.com" + ``` + + To ensure that the Agent can group your hosts together, only use node hostnames that the Datadog Agent is tracking. You can check what hostnames the Agent is tracking using the following command: + + ```shell + sudo datadog-agent status + ``` + +## Specific Agent checks + +To use a specific Agent check or integration on one of your nodes, you can use the `datadog_checks` variable. Here is an example for the process check: +```yaml +- hosts: servers + tasks: + - name: Import the Datadog Agent role from the Datadog collection + import_role: + name: datadog.dd.agent + vars: + datadog_api_key: "MY_API_KEY" + datadog_agent_major_version: 6 + datadog_site: "datad0g.com" + datadog_checks: + process: + init_config: + instances: + - name: ssh + search_string: ['ssh', 'sshd'] + - name: syslog + search_string: ['rsyslog'] + cpu_check_interval: 0.2 + exact_match: true + ignore_denied_access: true +``` + +You can find more examples of the Agent role usage on the GitHub repo for the [standalone role][103]. + +### Metrics and events + +To get metrics and events on Datadog after Ansible runs, see the Ansible callback project's [GitHub page][104]. + +[101]: https://console.redhat.com/ansible/automation-hub/repo/published/datadog/dd/ +[102]: /fr/agent/guide/ansible_standalone_role/#ansible-role-versus-ansible-collection +[103]: https://github.com/DataDog/ansible-datadog/#role-variables +[104]: https://github.com/DataDog/ansible-datadog-callback + +{{% /tab %}} +{{% tab "Puppet" %}} +
    Starting with version 2.9.0, the datadog_agent module supports both Windows and Linux nodes. Previous versions of the datadog_agent module only support Linux nodes.
    + +## Requirements: +- Requires Puppet Open Source version >= 4.6 or Puppet Enterprise version >= 2016.4 + +## Install the Agent + +1. Install the `datadog_agent` module from the [Puppet Forge][101] on your Puppet server: + - For fresh installs, run the `module install command`: + ```shell + puppet module install datadog-datadog_agent + ``` + - If the module is already installed, upgrade it: + ```shell + puppet module upgrade datadog-datadog_agent + ``` + +2. To deploy the Datadog Agent on nodes, add this parametrized class to your manifests. Replace `MY_API_KEY` with your Datadog API key: + ```puppet + node "db1.mydomain.com" { + class { "datadog_agent": + api_key => "MY_API_KEY", + datadog_site => "datad0g.com", + agent_major_version => 6, + } + } + ``` + + To ensure that the Agent can group your hosts together, only use node hostnames that the Datadog Agent is tracking. You can check what hostnames the Agent is tracking using the following command: + + ```shell + sudo datadog-agent status + ``` + +3. Enable reporting to Datadog on your Puppet server: + 1. Add the following parameters to `/etc/puppet/puppet.conf`: + ```conf + [master] + report = true + reports = datadog_reports + pluginsync = true + + [agent] + report = true + pluginsync = true + ``` + + 1. In your manifest, add the `puppet_run_reports` option to your Puppet server. For example: + ```puppet + node "puppet" { + class { "datadog_agent": + api_key => "MY_API_KEY", + datadog_site => "datad0g.com", + agent_major_version => 6, + puppet_run_reports => true, + } + } + ``` +1. Run Puppet on your Puppet server to install all necessary dependencies. +1. Restart your Puppet server to begin receiving Puppet data in Datadog. + +## Specific Agent checks + +To use a specific Agent check or integration on one of your nodes, see the relevant [integration manifest][102] for a code sample. Here is an example for the elasticsearch integration: + +```puppet +node "elastic-node1.mydomain.com" { + class { "datadog_agent": + api_key => "MY_API_KEY", + datadog_site => "datad0g.com", + agent_major_version => 6, + } + include "datadog_agent::integrations::elasticsearch" +} +``` + +Refer to the [GitHub repository of the module][103] for more examples and advanced use cases. + +[101]: https://forge.puppetlabs.com/modules/datadog/datadog_agent/readme +[102]: https://github.com/DataDog/puppet-datadog-agent/tree/main/manifests/integrations +[103]: https://github.com/DataDog/puppet-datadog-agent + +{{% /tab %}} + +{{% tab "Chef" %}} + +
    Requires Chef version 10.14.x or higher.
    + +1. Add the Datadog cookbook: + - If you are using [Berkshelf][101], add the cookbook to your Berksfile: + ```shell + cookbook 'datadog', '~> 4.0' + ``` + + - If you're not using Berkshelf, install the cookbook in to your repository using Knife: + ```shell + knife cookbook site install datadog + ``` + +1. Set the Datadog-specific attributes in either a role, environment, or another recipe. Replace `MY_API_KEY` with your Datadog API key: + ```chef + node.default['datadog']['api_key'] = "MY_API_KEY" + + # Use an existing application key or create a new one for Chef + node.default['datadog']['application_key'] = "Generate Application Key" + + # Enable install for Agent version 6 + node.default['datadog']['agent_major_version'] = 6 + + # Set the Datadog site + node.default['datadog']['site'] = "datad0g.com" + ``` + +1. Upload the updated cookbook to your Chef server: + ```shell + berks upload + # or + knife cookbook upload datadog + knife cookbook list | grep datadog && + echo -e "e[0;32mdatadog cookbook - OKe[0m" || + echo -e "e[0;31mmissing datadog cookbook - OKe[0m" + ``` + +1. Add the cookbook to your node's `run_list` or `role`: + ```chef + "run_list": [ + "recipe[datadog::dd-agent]" + ] + ``` + +1. Wait for the next scheduled `chef-client` run. + + +For more information and examples, see the [Agent GitHub repository][102]. + +[101]: https://docs.chef.io/workstation/berkshelf/ +[102]: https://github.com/DataDog/chef-datadog + +{{% /tab %}} + +{{% tab "SaltStack" %}} + +
    The Datadog Saltstack formula only supports Debian-based and RedHat-based systems.

    +The following instructions add the Datadog formula to the base Salt environment. To add it to another Salt environment, replace references to base with the name of your Salt environment.
    + + + +### Install using `gitfs_remotes` +1. Install the [Datadog formula][101] in the base environment of your Salt Master node, using the `gitfs_remotes` option in your Salt Master configuration file (by default `/etc/salt/master`): + ```yaml + fileserver_backend: + - roots # Active by default, necessary to be able to use the local salt files we define in the next steps + - gitfs # Adds gitfs as a fileserver backend to be able to use gitfs_remotes + + gitfs_remotes: + - https://github.com/DataDog/datadog-formula.git: + - saltenv: + - base: + - ref: 3.0 # Pin here the version of the formula you want to use + ``` + +1. Restart your Salt Master service: + ```shell + systemctl restart salt-master + ``` + or + ```shell + service salt-master restart + ``` + +### Install by cloning the Datadog formula + +1. Clone the [Datadog formula][101] on your Salt Master node: + ```shell + mkdir -p /srv/formulas && cd /srv/formulas + git clone https://github.com/DataDog/datadog-formula.git + ``` +1. Add the cloned formula to the base environment in the `file_roots` of your Salt Master configuration file (by default `/etc/salt/master`): + ```yaml + file_roots: + base: + - /srv/salt/ + - /srv/formulas/datadog-formula/ + ``` + +## Deploy the Agent to your hosts + +1. Add the Datadog formula to your top file (by default `/srv/salt/top.sls`): + ```yaml + base: + '*': + - datadog + ``` + +1. Add a `datadog.sls` pillar file to your pillar directory (by default `/srv/pillar/`) and add your API key. Replace `MY_API_KEY` with your Datadog API key: + ```yaml + datadog: + config: + api_key: MY_API_KEY + install_settings: + agent_version: + ``` + +1. Add the `datadog.sls` pillar file to the top pillar file (by default `/srv/pillar/top.sls`): + ```yaml + base: + '*': + - datadog + ``` + +1. To use a specific Agent check or integration on one of your hosts, you can use the checks variable. Here is an example for the directory integration: + ```yaml + datadog: + config: + api_key: MY_API_KEY + install_settings: + agent_version: + checks: + directory: + config: + instances: + - directory: "/srv/pillar" + name: "pillars" + ``` + +Refer to the formula [GitHub repository][101] for logs configuration, check examples, and advanced use cases. + +[101]: https://github.com/DataDog/datadog-formula +{{% /tab %}} + +{{< /tabs >}} + +## Install from source + +Follow [the instructions in the Agent GitHub repository][11] to build the Agent 6 `.deb` and `.rpm` packages on Linux with Docker. + +Alternatively, you can build the Agent binary for version 6 following the [Getting Started instructions][12]. + +## Further reading + +{{< partial name="whats-next/whats-next.html" >}} + + +[1]: https://app.datadoghq.com/account/settings/agent/latest?platform=overview +[2]: /fr/agent/versions/upgrade_to_agent_v7/ +[3]: https://s3.amazonaws.com/dd-agent/datadogagent.dmg +[4]: https://s3.amazonaws.com/ddagent-windows-stable/datadog-agent-6-latest.amd64.msi +[5]: /fr/agent/basic_agent_usage/windows/ +[6]: https://s3.amazonaws.com/ddagent-windows-stable/installers.json +[7]: https://s3.amazonaws.com/ddagent-windows-stable/ddagent-cli-latest.exe +[8]: /fr/integrations/azure/ +[9]: https://github.com/DataDog/dd-agent/wiki/Windows-Agent-Installation +[10]: /fr/agent/guide/windows-agent-ddagent-user/ +[11]: https://github.com/DataDog/datadog-agent/blob/main/docs/dev/agent_omnibus.md#building-inside-docker-linux-only-recommended +[12]: https://github.com/DataDog/datadog-agent#getting-started \ No newline at end of file diff --git a/content/ja/continuous_integration/guides/identify_highest_impact_jobs_with_critical_path.md b/content/ja/continuous_integration/guides/identify_highest_impact_jobs_with_critical_path.md new file mode 100644 index 0000000000000..3465b04377090 --- /dev/null +++ b/content/ja/continuous_integration/guides/identify_highest_impact_jobs_with_critical_path.md @@ -0,0 +1,74 @@ +--- +description: CI パイプラインの所要時間を改善するため、クリティカル パス上にある CI ジョブの特定方法を学びます。 +further_reading: +- link: /continuous_integration/search/#pipeline-details-and-executions + tag: ドキュメント + text: パイプライン実行を検索・管理する方法を学びます +- link: continuous_integration/search/#highlight-critical-path + tag: ドキュメント + text: パイプライン実行でクリティカル パスをハイライトする +title: パイプラインの所要時間を短縮するためにクリティカル パス上の CI ジョブを特定する +--- + +## 概要 + +このガイドでは、CI パイプライン全体の所要時間を短縮するために、どのジョブを優先すべきかを判断できるよう、クリティカル パス上にある CI ジョブの特定方法を解説します。 + +### CI パイプラインにおけるクリティカル パスの理解 + +CI パイプライン実行におけるクリティカル パスとは、そのパイプライン実行の総所要時間を決定する、最も長い CI ジョブの連なりです。本質的には、CI ジョブの依存関係グラフの中で、完了までに最も時間がかかる経路を指します。CI パイプライン実行の総所要時間を短縮するには、このクリティカル パス上の CI ジョブの所要時間を短縮する必要があります。 + +{{< img src="continuous_integration/critical_path_highlight_pipeline.png" alt="パイプライン実行におけるクリティカル パス上のジョブのハイライト。" width="90%">}} + +ジョブの所要時間を見るだけでは十分でない場合があります。CI ジョブは通常、他のジョブと並列に実行されるため、パイプライン実行時間の短縮は、その CI ジョブの **排他的時間** をどれだけ減らせるかによって決まります。 + +クリティカル パス上のジョブの排他的時間は、並列で実行されていた他のジョブの実行時間を除外して、CI ランナーが特定のジョブの実行に費やした時間を表します。 + +{{< img src="continuous_integration/critical_path_highlight_pipeline_exclusive_time.png" alt="パイプライン実行においてクリティカル パス上のジョブの排他的時間をハイライト。" width="90%">}} + +たとえば、CI ジョブ `job1` が 100 ms の所要時間でクリティカル パス上にあり、80 ms の所要時間を持つ CI ジョブ `job2` と並列で実行されている場合、クリティカル パス上における `job1` の排他的時間は 20 ms です。つまり、`job1` の所要時間を 20 ms より多く短縮しても、パイプライン全体の所要時間は 20 ms しか短縮されません。 + +## CI パイプラインを改善するための主要な CI ジョブを特定する + +### ファセットの使用 + +`@ci.on_critical_path` や `@ci.critical_path.exclusive_time` といったファセットを使用すると、CI パイプライン内でどの CI ジョブがクリティカル パス上にあるかを特定できます。これらのファセットを活用して、要件に合わせたカスタム ダッシュボードやノート ブックを作成できます。 + +{{< img src="continuous_integration/critical_path_facets.png" alt="クリティカル パスのファセットでフィルタリング" width="90%">}} + +これらのファセットは、クエリで `ci_level:job` を使用する場合にのみ利用できます。 + +### ダッシュボード テンプレートの使用 + +次のダッシュボード テンプレート [CI Visibility - Critical Path][1] をインポートすることもできます: +- ダッシュボード テンプレート [civisibility-critical-path-dashboard.json][1] を開き、内容をクリップボードにコピーします。 +- Datadog で [New Dashboard][2] を作成します。 +- コピーした内容を新しいダッシュボードに貼り付けます。 +- ダッシュボードを保存します。 + +{{< img src="continuous_integration/critical_path_dashboard.png" alt="CI Visibility のクリティカル パス ダッシュボード" width="90%">}} + +#### 用語 + +| 列 | 説明 | +|---------------------------------------|------------------------------------------------------------------------------------------------------------------------------------------------------------------| +| Total Exclusive Time On Critical Path | ジョブの排他的時間の合計です。対象となるパイプラインで見込める時間短縮量の概算を示します。 | +| Avg Exclusive Time On Critical Path | クリティカル パス上にある特定ジョブの平均排他的時間です。ジョブの排他的時間を減らした場合に、パイプラインの所要時間がどの程度短縮されるかを示します。 | +| Rate On Critical Path | ジョブがクリティカル パス上にある頻度を測定します。 | + +##### 例 + +前の画像では、`metrics` という CI ジョブは合計排他的時間 (Total Exclusive Time On Critical Path) が最も高く、改善候補であることがわかります。平均排他的時間はおよそ 21 分であり、この CI ジョブについて最大 21 分の改善余地があることを意味します。 + +この CI ジョブが 43.5% の割合でクリティカル パス上にあることがわかっているため、パイプライン実行の 43.5% において、平均パイプライン所要時間を最大 21 分短縮できる可能性があります。 + +{{< img src="continuous_integration/critical_path_dashboard_outlier_job_highlighted.png" alt="排他的時間の改善候補となる CI ジョブ。" width="90%">}} + +## 参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /resources/json/civisibility-critical-path-dashboard.json +[2]: /ja/dashboards/ +[3]: /ja/continuous_integration/pipelines/gitlab/?tab=gitlabcom +[4]: /ja/continuous_integration/search/#highlight-critical-path \ No newline at end of file diff --git a/content/ja/integrations/github_copilot.md b/content/ja/integrations/github_copilot.md new file mode 100644 index 0000000000000..b1cf243a806d9 --- /dev/null +++ b/content/ja/integrations/github_copilot.md @@ -0,0 +1,156 @@ +--- +app_id: github-copilot +app_uuid: b976afbb-2433-4bd9-b33d-5b9856114285 +assets: + dashboards: + Copilot Overview: assets/dashboards/github_copilot_overview.json + integration: + auto_install: false + events: + creates_events: false + metrics: + check: + - github_copilot.organizations.billing.seats.total + metadata_path: metadata.csv + prefix: github_copilot + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 31503641 + source_type_name: GitHub Copilot +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com (日本語対応) + support_email: help@datadoghq.com +categories: +- ai/ml +- コラボレーション +- 開発ツール +- モニター +- ソースコントロール +custom_kind: インテグレーション +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: github_copilot +integration_id: github-copilot +integration_title: GitHub Copilot +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: github_copilot +public_title: GitHub Copilot +short_description: ライセンスの配布状況を追跡し、採用傾向を監視し、Copilot の各種機能に対する開発者のエンゲージメントを分析します。 +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::AI/ML + - Category::Collaboration + - Category::Developer Tools + - Category::Metrics + - カテゴリ::ソースコントロール + - Submitted Data Type::Metrics + - Offering::Integration + configuration: README.md#Setup + description: ライセンスの配布状況を追跡し、採用傾向を監視し、Copilot の各種機能に対する開発者のエンゲージメントを分析します。 + media: + - caption: GitHub Copilot 概要ダッシュボード + image_url: images/overview-dashboard.png + media_type: image + - caption: GitHub Copilot Code Completion + image_url: images/copilot_dashb_code-completion.png + media_type: image + - caption: GitHub Copilot Languages Breakdown + image_url: images/copilot_dsh_languages-breakdown.png + media_type: image + - caption: GitHub Copilot IDE Chat + image_url: images/copilot_dash_ide-chat.png + media_type: image + overview: README.md#Overview + resources: + - resource_type: documentation + url: https://docs.datadoghq.com/integrations/github_copilot + - resource_type: blog + url: https://www.datadoghq.com/blog/monitor-github-copilot-with-datadog/ + support: README.md#Support + title: GitHub Copilot +--- + + +## 概要 + +Datadog の [GitHub Copilot][1] インテグレーションを利用すると、組織全体の Copilot の使用状況が詳細に可視化され、採用状況の測定、チーム パフォーマンスの最適化、AI によるコード提案が開発ワークフローに与える影響の把握が可能になります。 +このインテグレーションにより、次のことができます。 +- **Copilot の採用状況の分析** - 開発者が Copilot のコード提案を受け入れる頻度を測定し、開発プロセスのどの段階で Copilot の機能が活用されているかを把握できます。 +- **ライセンス配布状況の追跡** - 組織内で割り当てられた Copilot ライセンスのステータスを監視し、ライセンスの利用を最適化できます。 +- **ユーザー エンゲージメントの把握** - 開発者が Copilot とどのようにやり取りしているかを理解し、以下の区別を行うことができます。 + - **アクティブ ユーザー**: 受動的にコード提案を受け取る、Copilot チャットで対話するなど、Copilot に関連する何らかのアクティビティがある開発者。 + - **エンゲージド ユーザー**: 提案を受け入れる、プル リクエストのサマリーを生成するなど、Copilot の機能を積極的に利用している開発者。エンゲージド ユーザーは全員アクティブ ユーザーでもあります。 + +### 収集されるメトリクス +Datadog は、Copilot の採用状況・使用状況を詳細に可視化し、チーム、プログラミング言語、IDE、リポジトリごとに粒度の高いインサイトを提供します。具体的には、次のような情報が含まれます。 +- **Copilot の使用状況に関するメトリクス** - IDE でのコード補完、チャット アクティビティ (IDE と GitHub.com の両方)、プル リクエストのサマリーなど、Copilot との主なやり取りを追跡できます。これらのメトリクスは日単位で利用できますが、社内で有効な Copilot ライセンスが 5 つ以上必要です。 + - **IDE Code Completion & Chat** - IDE 内での使用状況を収集します (テレメトリーが有効になっている場合)。 + - **GitHub.com Chat** - GitHub.com の Copilot チャットとのインタラクションを測定します。 + - **Pull Request Usage** - 自動サマリーなど、Copilot が支援するプル リクエスト アクティビティを追跡します。 +- **請求に関するメトリクス** - 現在の請求サイクルにおける Copilot のシート割り当て状況をリアルタイムで確認できます。Datadog はこのデータを継続的に更新し、正確かつ最新のライセンス利用状況を表示します。 +Datadog の GitHub Copilot インテグレーションを利用することで、AI 支援開発の効率化を図るとともに、全チームを対象にその採用状況や効果を完全に可視化することができます。 + + +## セットアップ + +GitHub Copilot を Datadog に統合するにあたり、Datadog は OAuth を使用して GitHub に接続します。認証済みユーザーは、統合対象の組織でオーナー権限を持っている必要があります。 + +### インストール + +1. [Integrations ページ][2]に移動して、「GitHub Copilot」インテグレーションを検索します。 +2. タイルをクリックします。 +3. インテグレーションをインストールするためにアカウントを追加するには、**Add GitHub Account** ボタンをクリックします。 +4. モーダルに表示された手順を確認したら、**Authorize** ボタンをクリックします。GitHub のログイン ページにリダイレクトされます。 +5. ログイン後、ユーザー アカウントがアクセス権を持つ組織に応じて、アクセス権を付与する GitHub 組織を選択するよう求められます。 +6. 組織にアクセス制限がかかっている場合: + - 組織名の横にある **Request** をクリックします。 + - 組織の管理者: **Organization settings > Third-party Access > OAuth app policy** で承認します。 + ![GH のアクセス承認][3] +7. **Authorize datadog-integrations** をクリックします。 +8. 新しいアカウントが追加された状態で、Datadog の GitHub Copilot タイルにリダイレクトされます。アカウント名を覚えやすい名称に変更することをおすすめします。異なる組織へのアクセス権を持つ複数のアカウントを追加できます。 + +**注**: GitHub はこの選択された承認内容を保存します。再度プロンプトを表示させたり、新しい組織を追加したりする場合は、GitHub (`Integrations > Applications > Authorized OAuth Apps > Datadog - GitHub Copilot OAuth App`) でアプリのアクセス権を取り消し、セットアップ プロセスをやり直してください。 +![GH のアクセス取り消し][4] + +## 検証 + +インストール後、`github_copilot` という接頭辞の付いたメトリクスが利用可能になります。 + +## 収集データ + +### メトリクス +{{< get-metrics-from-git "github_copilot" >}} + + +### サービスチェック + +GitHub Copilot には、サービス チェックは含まれません。 + +### イベント + +GitHub Copilot には、イベントは含まれません。 + +## トラブルシューティング + +ご不明な点は、[Datadog のサポートチーム][6]までお問合せください。 + +## その他の参考資料 + +お役に立つドキュメント、リンクや記事: + +- [Datadog を使用した GitHub Copilot の監視][7] + +[1]: https://github.com/features/copilot +[2]: https://app.datadoghq.com/integrations/github-copilot +[3]: images/gh_approved_access.png +[4]: images/revoke_access_gh.png +[5]: https://github.com/DataDog/integrations-internal-core/blob/main/github_copilot/metadata.csv +[6]: https://docs.datadoghq.com/ja/help/ +[7]: https://www.datadoghq.com/blog/monitor-github-copilot-with-datadog/ \ No newline at end of file diff --git a/content/ja/real_user_monitoring/mobile_and_tv_monitoring/unity/advanced_configuration.md b/content/ja/real_user_monitoring/mobile_and_tv_monitoring/unity/advanced_configuration.md new file mode 100644 index 0000000000000..8167bf0d46875 --- /dev/null +++ b/content/ja/real_user_monitoring/mobile_and_tv_monitoring/unity/advanced_configuration.md @@ -0,0 +1,192 @@ +--- +aliases: +- /ja/real_user_monitoring/unity/advanced_configuration +- /ja/real_user_monitoring/otel +- /ja/real_user_monitoring/mobile_and_tv_monitoring/advanced_configuration/otel +- /ja/real_user_monitoring/mobile_and_tv_monitoring/setup/otel +- /ja/real_user_monitoring/unity/otel_support/ +- /ja/real_user_monitoring/mobile_and_tv_monitoring/advanced_configuration/unity +description: Unity Monitoring の設定方法を学びます。 +further_reading: +- link: https://github.com/DataDog/dd-sdk-unity + tag: ソースコード + text: dd-sdk-unity のソースコード +- link: real_user_monitoring/explorer/ + tag: ドキュメント + text: RUM データの調査方法 +title: Unity の高度な設定 +--- +## 概要 + +まだ Datadog Unity SDK for RUM をセットアップしていない場合は、[アプリ内のセットアップ手順][1] に従うか、[RUM Unity のセットアップ ドキュメント][2] を参照してください。[OpenTelemetry と RUM Unity の連携を設定する方法](#opentelemetry-setup)もご確認ください。 + +### 高度な初期化オプション + +`Custom Endpoint` +: オプション
    +**型**: String
    +**デフォルト**: `true`
    +デフォルトの Datadog エンドポイントではなく、カスタム エンドポイントにデータを送信します。これは、カスタム サーバー経由でデータをプロキシする場合に便利です。 + +`SDK Verbosity` +: オプション
    +**型**: Enum
    +**デフォルト**: `Warn`
    +Datadog SDK が出力するデバッグ情報のレベル。レベルが高いほど、より多くの情報を出力します。このオプションは、想定どおりに動作しない場合に SDK からデバッグ情報を取得したり、コンソール ログから SDK 関連のデバッグ エントリを除去したりするのに役立ちます。 + +`Telemetry Sample Rate` +: オプション
    +**型**: Double
    +**デフォルト**: `20` +Datadog が内部テレメトリ データを送信する割合。値が 100 の場合、すべてのテレメトリ データがサンプリングされ、Datadog に送信されます。 + +### ビューの自動追跡 + +`Enable Automatic Scene Tracking` を選択すると、Datadog は Unity の `SceneManager` にフックしてシーンのロード/アンロードを検出し、RUM ビューを適切に開始します。`SceneManager` 以外の方法でシーン間を移動している場合、または `SceneManager` を伴わないビューの変更も追跡したい場合は、`DdRum.StartView` と `DdRum.StopView` を使って手動でビューを追跡する必要があります。 + +### ユーザーアクションの追跡 + +`DdRum.AddAction` を使用すると、タップ、クリック、スクロールなどの特定のユーザー アクションを追跡できます。 + +`RumActionType.Tap` のような瞬間的な RUM アクションを手動で登録するには、`DdRum.AddAction()` を使用します。`RumActionType.Scroll` のような連続的な RUM アクションを登録するには、`DdRum.StartAction()` または `DdRum.StopAction()` を使用します。 + +例: + +```cs +void DownloadResourceTapped(string resourceName) { + DatadogSdk.Instance.Rum.AddAction( + RumActionType.Tap, + resourceName, + ); +} +``` + +`DdRum.StartAction` と `DdRum.StopAction` を使用する場合、Datadog Unity SDK がアクションの開始と完了を対応付けられるよう、`type` の値は同一である必要があります。 + +### リソースの追跡 + +Datadog は、RUM ビューからのリソースおよび HTTP 呼び出しを追跡できるよう、`UnityWebRequest` のドロップイン代替として `DatadogTrackedWebRequest` を提供しています。 + +通常の `UnityWebRequest` と同様に使用できます。 + +```cs +var request = DatadogTrackedWebRequest.Get("https://httpbin.org/headers"); +yield return request.SendWebRequest(); + +Debug.Log("Got result: " + request.downloadHandler.text); +``` + +### カスタムリソースの追跡 + +`DatadogTrackedWebRequest` による自動リソース追跡に加えて、以下のメソッドを使うと、ネットワーク リクエストやサード パーティ プロバイダーの API など、特定のカスタム リソースを追跡できます。 + +- `DdRum.StartResource` +- `DdRum.StopResource` +- `DdRum.StopResourceWithError` +- `DdRum.StopResourceWithErrorInfo` + +例: + +```cs +// ネットワーククライアントで + +DatadogSdk.Instance.Rum.startResource( + "resource-key", + RumHttpMethod.Get, + url, +); + +// その後 + +DatadogSdk.Instance.Rum.stopResource( + "resource-key", + 200, + RumResourceType.Image +); +``` + +Datadog Unity SDK がリソースの開始と完了を対応付けられるよう、両方の呼び出しで `resourceKey` に用いる `string` は、対象リソースごとに一意である必要があります。 + +### カスタムエラーの追跡 + +特定のエラーを追跡するには、エラーが発生したときに例外、ソース、その他任意の属性情報を `DdRum` に通知します。 + +```cs +try +{ + // エラーを起こしやすいコード +} +catch(Exception e) +{ + DatadogSdk.Instance.Rum.AddError(e, RumErrorSource.Source); +} +``` + +## カスタムグローバル属性の追跡 + +Datadog Unity SDK が自動的に取得する[デフォルトの RUM 属性][3]に加えて、RUM イベントにカスタム属性などのコンテキスト情報を追加して、Datadog における可観測性を高めることができます。 + +カスタム属性を使用すると、観察されたユーザーの行動に関する情報 (カート値、マーチャント層、広告キャンペーンなど) をコードレベルの情報 (バックエンドサービス、セッションタイムライン、エラーログ、ネットワークヘルスなど) でフィルタリングおよびグループ化することができます。 + +### カスタムグローバル属性の設定 + +カスタム グローバル属性を設定するには、`DdRum.AddAttribute` を使用します。 + +* 属性を追加または更新するには、`DdRum.AddAttribute` を使用します。 +* キーを削除するには、`DdRum.RemoveAttribute` を使用します。 + +### ユーザーセッションの追跡 + +RUM セッションにユーザー情報を追加すると、次のことが簡単になります。 + +* 特定のユーザーのジャーニーをたどる +* エラーの影響を最も受けているユーザーを把握する +* 最も重要なユーザーのパフォーマンスを監視する + +{{< img src="real_user_monitoring/browser/advanced_configuration/user-api.png" alt="RUM UI のユーザー API" style="width:90%" >}} + +| 属性 | タイプ | 説明 | +| ----------- | ------ | ------------------------------------------------------------------------------- | +| `usr.id` | 文字列 | (必須) 一意のユーザー識別子 | +| `usr.name` | 文字列 | (オプション) RUM UI にデフォルトで表示されるユーザー フレンドリーな名前。 | +| `usr.email` | 文字列 | (オプション) ユーザー名がない場合に RUM UI に表示されるユーザーのメール アドレス。 | + +ユーザー セッションを識別するには、`DatadogSdk.SetUserInfo` を使用します。 + +例: + +```cs +DatadogSdk.Instance.SetUserInfo("1234", "John Doe", "john@doe.com"); +``` + +### カスタム ユーザー属性の追加 + +ユーザー セッションにカスタム属性を追加できます。この追加情報は、ログ、トレース、RUM イベントに自動的に適用されます。 + +既存の属性を削除するには、その属性に `null` を設定します。 + +例: + +```cs +DatadogSdk.Instance.AddUserExtraInfo(new () +{ + { "attribute_1", "foo" }, + { "attribute_2", null }, +}); +``` + +## Clear all data + +`ClearAllData` を使用すると、Datadog にまだ送信されていないすべてのデータをクリアできます。 + +```cs +DatadogSdk.instance.ClearAllData(); +``` + +## 参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/rum/application/create +[2]: /ja/real_user_monitoring/mobile_and_tv_monitoring/unity/setup/ +[3]: /ja/real_user_monitoring/mobile_and_tv_monitoring/unity/data_collected/ \ No newline at end of file diff --git a/content/ja/real_user_monitoring/session_replay/heatmaps.md b/content/ja/real_user_monitoring/session_replay/heatmaps.md new file mode 100644 index 0000000000000..d09fc474d21ac --- /dev/null +++ b/content/ja/real_user_monitoring/session_replay/heatmaps.md @@ -0,0 +1,147 @@ +--- +aliases: +- /ja/real_user_monitoring/heatmaps +description: ヒート マップは、ウェブ サイト上でユーザーがどこをクリックしているかを確認できるビジュアライゼーションの一種です。 +further_reading: +- link: /real_user_monitoring/session_replay/browser/ + tag: ドキュメント + text: ブラウザー向け Session Replay +- link: /real_user_monitoring/session_replay/mobile/ + tag: ドキュメント + text: モバイル向け Session Replay +- link: https://www.datadoghq.com/blog/visualize-behavior-datadog-scrollmaps/ + tag: ブログ + text: Datadog Heatmaps の Scrollmaps を使用して、ページ上のユーザー インタラクションを可視化する +title: ヒート マップ +--- + +{{< img src="real_user_monitoring/session_replay/heatmaps/heatmaps-landing.png" alt="ヒート マップ 機能の概要。" style="width:100%;">}} + +ヒート マップ (heat map とも) とは、Session Replay データの上にユーザーのインタラクションをオーバーレイ表示して可視化するものです。Real User Monitoring (RUM) には 3 種類のヒート マップがあります: + +- **Click maps:** ページでユーザーがどのように操作しているかを理解するために、ユーザーのインタラクション (クリック) を表示します。 +- **Top Elements:** 特定のページで最も操作された要素のランキングを、最大上位 10 件まで表示します。 +- **Scroll maps:** ユーザーがページをどこまでスクロールしたかを表示します。ページの平均的なファースト ビュー (average fold) の位置も確認できます。平均的なファースト ビューは、ユーザーがスクロールせずにデバイス上で見られる最下点を指します。 + +ヒート マップを使うと、複雑なデータをひと目で確認でき、ユーザー エクスペリエンス最適化のための示唆が得られます。 + +## 前提条件 + +ヒート マップを使い始めるには: + +1. SDK のバージョンを確認します: + - Click maps の場合、SDK は最新バージョン v4.40.0 以降である必要があります。 + - Scroll maps の場合、SDK は v4.50.0 以降が必要です。 +2. [Session Replay][1] を有効化します。 +3. アクション追跡を有効にするため、SDK の初期化時に `trackUserInteractions: true` を設定します (Click maps で必須)。 + +## はじめに + +[**Digital Experience > Real User Monitoring > Session Replay > Heatmaps**][2] に移動します。アプリケーションとビューを選択します。 + +[Real User Monitoring ランディング ページ][3] で、[アプリケーション セレクター][4] からアプリケーションとビューを選択します。Timeframe セレクターの左側で、表示したい heatmap の種類を選択できます: Top Elements、Click Map、Scroll Map。これにより、特定のビューの [ヒート マップ ページ][2] に移動します。 + +{{< img src="real_user_monitoring/session_replay/heatmaps/heatmaps-different-views.png" alt="Heatmaps ページでは、アプリケーション、マップ タイプ、デバイス タイプ、アクション名、詳細フィルターなどで異なるビューを表示できます。" style="width:100%;">}} + +次の追加の表示オプションがあります: + +- 表示中のビューを切り替えるには、上部の **View Name** と **Application** セレクターを使用します。 +- デバイス ビューを変更するには、**Device type** セレクターを使用します。 +- アクション名でフィルタするには、**Filter actions by** ドロップダウンを使用します。 +- 特定の地域など、より詳細なフィルターを追加するには、**Add Filter** ボタンをクリックします。 + +## Top Elements + +Top Elements ヒート マップは、特定のビューにおけるクリック アクションを集計し、最も操作された要素とそのインタラクション順位を表示します。マップ上のランキングは、サイドに表示されるアクション名と対応しています。 + +{{< img src="real_user_monitoring/session_replay/heatmaps/heatmaps-top-elements.png" alt="ページでクリックされた要素の上位ランキング。" style="width:100%;">}} + +パネル内の任意のアクション名にホバーすると、マップ上の対応するアクションがハイライト表示されます。 + +## Click maps + +Click map は、セッションからのユーザー クリック アクションを集計し、マップ上にブロブとして可視化することで、特定のビューで最も操作されたアクションを示します。 + +{{< img src="real_user_monitoring/session_replay/heatmaps/heatmaps-clickmaps.png" alt="ウェブ サイト上にオーバーレイされた Click map データ。" style="width:100%;">}} + +左側には、そのページで発生したすべてのアクションが頻度順に一覧表示されます。アクションをクリックすると、次のようにそのインタラクションの詳細を確認できます: + +- ユーザーがそのアクションを実行した回数や、そのページにおける上位アクション全体の分析での位置づけ。 +- そのアクションでフラストレーション シグナルが発生している場合 (例: ボタンへのレイジ クリック)、関連するフラストレーション シグナルも確認できます。 + +このビューから **Start a Funnel** ボタンをクリックして、ユーザーの離脱を特定することもできます。 + +{{< img src="real_user_monitoring/session_replay/heatmaps/heatmaps-clickmap-actions.png" alt="アクション例と、そのアクションから取得できる情報の例。" style="width:50%;">}} + +## Scroll maps + +Scroll maps は、特定のページにおけるスクロール アクティビティの集計を表示します。Scroll maps を使うと、ページの平均的なファースト ビュー (average fold) がどこに位置するかや、どれだけのユーザーが特定の深さまでスクロールしたかを確認できます。Scroll map 上のフローティングの青いバーを、評価したい深さまでドラッグできます。 + +{{< img src="real_user_monitoring/session_replay/heatmaps/heatmaps-scrollmap.png" alt="サンプル E コマース アプリケーションの 寝具 ページの Scroll map" style="width:100%;">}} + +Scroll map の左側のパネルには、ハイ レベル な インサイトとクエリ結果への直接リンクがあります。たとえば、特定のパーセンタイルを越えてスクロールしたビューの一覧へのリンクなどです。インサイト パネルの下には、ページのミニ マップと、詳細な スクロール データを表示する分布 グラフがあり、どこで最も大きな離脱が発生しているかの特定に役立ちます。 + +{{< img src="real_user_monitoring/session_replay/heatmaps/heatmaps-minimap.png" alt="スクロール データのインサイト向けクエリのスクリーン ショット" style="width:50%;">}} + +## Snapshots + +Snapshot は、特定の時点における Session Replay の状態です。Snapshot を変更すると、選択した Snapshot に応じて異なる結果が表示されます。ヒート マップの Snapshot として特定の Snapshot を選択するには、**Change Snapshot** ボタンを使用できます。 + +背景 Snapshot を選択する手順: + +1. ヒート マップのビューで、**Change Snapshot** ボタンをクリックします。 + + {{< img src="real_user_monitoring/session_replay/heatmaps/heatmaps-change-snapshot-button.png" alt="ヒート マップの背景 Snapshot を変更するには Change Snapshot ボタンをクリックします。" style="width:100%;">}} +1. 右側のアクション イベントをクリックして、ヒート マップ用に別の Snapshot を選択します。 + + {{< img src="real_user_monitoring/session_replay/heatmaps/heatmaps-list-all-events.png" alt="Session Replay のアクション イベント一覧。" style="width:100%;">}} + +1. セッションに [アクションが含まれていない](#the-view-that-i-selected-is-not-showing-the-initial-content) 場合は、**Choose Another Replay** をクリックしてリプレイの一覧に戻れます。 +1. **Select Snapshot** ボタンをクリックすると、一時停止している時点の Snapshot をヒート マップに適用します。 + +## 次のステップ + +ヒート マップを分析したら、関連データを探索してユーザー アクションを理解しましょう。[Analytics Explorer][4] にピボットするか、関連する [Session Replay][1] を視聴して、セッション全体の文脈の中でユーザー アクションを視覚的に確認できます。 + +## トラブル シューティング + +### 特定のビューのヒート マップを見ていますが、想定外のページが表示されます。 + +ヒート マップは RUM のビュー名に基づきます。RUM アプリケーションの構成によっては、多くのページが同じビュー名の下にグループ化され始めたり、特定のビュー名を持つようになったりすることがあります。 + +### 選択したビューで初期コンテンツが表示されません。 + +ヒート マップは Session Replay データで生成されます。Datadog のインテリジェントなアルゴリズムは、ページの初期状態に最も一致し、かつ最新のリプレイを選択します。場合によっては、適切なリプレイが見つからないことがあります。ヒート マップの Snapshot を切り替えるには、**Change Snapshot** ボタンを使用してリプレイの異なる状態を移動し、目的の状態を見つけてください。閲覧中のリプレイに目的の Snapshot が含まれていない場合は、**Choose Another Replay** ボタンで同じビューの別のリプレイを選択できます。 + +{{< img src="real_user_monitoring/session_replay/heatmaps/heatmaps-change-the-snapshot.mp4" alt="Change Snapshot をクリックして異なる背景を選択します。" video=true >}} + +### ヒート マップの横のアクション リストで、ヒート マップ内に表示されていない要素を示すアイコンが見えます。 + +アイコンのツール チップには element is not visible と表示されます。これは、その要素がページ上の一般的なアクションではあるものの、ヒート マップの Snapshot では表示されていないことを意味します。その要素を確認するには、右上の **Change Snapshot** をクリックし、その要素が存在する Snapshot に切り替えてください。 + +{{< img src="real_user_monitoring/session_replay/heatmaps/heatmaps-hidden-elements.png" alt="ヒート マップのアクション リスト内の非表示要素。" style="width:100%;">}} + +### **ヒート マップの作成を試みると、「No Replay Data」状態が表示されます。** + +これは、現在の検索フィルターに一致し、ヒート マップの背景として使用できる Session Replay が Datadog に見つからなかったことを意味します。[Browser SDK][6] でセッションの記録を開始したばかりの場合、Session Replay が閲覧可能になるまで数分かかることがあります。 + +### ヒート マップの作成を試みると、「Not enough data to generate a heatmap」状態が表示されます。 + +これは、現在選択されているリプレイにユーザー アクションを一致させられなかったことを意味します。次のようなさまざまな理由が考えられます: + +- アプリケーションが最新の SDK バージョン (>= 4.20.0) を使用していない。 +- ページが最近大きく変更された。 + +### ページ上のユーザー情報がすべて空である。 + +ユーザー情報は既定では収集されません。ヒート マップは、セッション データで利用可能なユーザー情報を使用して、行動に関する関連インサイトを表示します。 + +## 参考資料 +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ja/real_user_monitoring/session_replay/ +[2]: https://app.datadoghq.com/rum/heatmap/ +[3]: https://app.datadoghq.com/rum/performance-monitoring +[4]: /ja/real_user_monitoring/explorer/#view-by-application +[5]: https://app.datadoghq.com/rum/sessions +[6]: https://github.com/DataDog/browser-sdk/blob/main/packages/rum/package.json \ No newline at end of file diff --git a/content/ko/containers/docker/integrations.md b/content/ko/containers/docker/integrations.md index caff4f9bc91d8..bb6fbb8c06d53 100644 --- a/content/ko/containers/docker/integrations.md +++ b/content/ko/containers/docker/integrations.md @@ -1,6 +1,7 @@ --- aliases: - /ko/agent/docker/integrations +description: Autodiscovery를 사용하여 Docker 컨테이너에서 실행되는 애플리케이션에 모니터링 통합을 구성하세요 further_reading: - link: /agent/docker/log/ tag: 설명서 @@ -17,73 +18,99 @@ further_reading: - link: /agent/docker/tag/ tag: 설명서 text: 컨테이너에서 내보내는 모든 데이터에 태그 할당 -title: 도커 통합 자동 탐지 +title: Docker 및 통합 --- +이 페이지에서는 Datadog의 _Autodiscovery_ 기능을 사용하여 Docker 인프라용 통합을 설치하고 구성하는 방법을 다룹니다. Autodiscovery를 사용하면 `%%host%%`와 같은 [변수][1]를 사용하여 구성 설정을 동적으로 채울 수 있습니다. + +Autodiscovery 작동 방식에 관한 자세한 설명은 [컨테이너 시작하기: Autodiscovery][2]를 참고하세요. 특정 컨테이너를 Autodiscovery에서 제외하거나 준비되지 않은 포드를 허용하는 등 고급 Autodiscovery 옵션은 [컨테이너 검색 관리][3]를 참고하세요. + +Kubernetes 사용자는 [Kubernetes 및 통합][4]을 참고하세요. +
    -이 기능에 대해 자세히 알아보려면 자동 탐지 시작 설명서를 확인하세요. +다음 Datadog 통합은 프로세스 트리 데이터 또는 파일 시스템 액세스가 필요하기 때문에 Autodiscovery와 호환되지 않습니다. Ceph, Varnish, Postfix, Cassandra Nodetool, Gunicorn.

    +Autodiscovery와 호환되지 않는 통합을 모니터링하려면 포드에서 Prometheus 내보내기 도구를 사용하여 HTTP 엔드포인트를 노출한 다음, OpenMetrics 통합(Autodiscovery 지원)을 사용하여 포드를 찾고 엔드포인트를 쿼리할 수 있습니다.
    -이 페이지에서는 도커와의 통합을 위해 자동 탐지를 어떻게 설정해야 하는지를 다룹니다 . 쿠버네티스를 사용하는 경우 [쿠버네티스 통합 자동 탐지 설명서][1]을 참조하세요. +## 통합 설정 -자동 탐지의 목표는 지정된 컨테이너에 대해 에이전트 검사를 실행할 때 Datadog 통합 설정을 적용하는 것입니다. 이에 대한 자세한 내용은 호스트에서 에이전트를 실행할 때의 [에이전트 통합 설정][2]을 참조하세요. +일부 통합에는 액세스 토큰 생성이나 Datadog Agent에 대한 읽기 권한 부여와 같은 설정 단계가 필요합니다. 통합 문서에 있는 **Setup** 섹션을 참고하세요. -자동 탐지와의 통합을 설정하려면 다음 매개 변수를 사용합니다: +### 커뮤니티 통합 +Datadog Agent와 함께 제공되지 않는 통합을 사용하려면 원하는 통합을 포함하는 사용자 지정 이미지를 빌드해야 합니다. 자세한 내용은 [커뮤니티 통합 사용][5]을 참고하세요. -| 파라미터 | 필수 | 설명 | -|----------------------|----------|---------------------------------------------------------------------------------------------------| -| `` | 예 | Datadog 통합 이름 | -| `` | 예 | 지정된 Datadog-``에 대한 `init_config:` 섹션 설정 | -| `` | 예 | 지정된 Datadog-``에 대한 `instances:` 섹션 설정 | +## 설정 -**참고**: ``는 Datadog 에이전트 7.36에 도입된 자동 탐지 v2에 필요하지 않습니다. +일반적으로 사용되는 일부 통합에는 Autodiscovery의 기본 구성이 포함되어 있습니다. 자동 구성된 통합 목록과 해당 기본 구성 파일에 관한 자세한 내용은 [Autodiscovery 자동 구성][6]을 참고하세요. 이 목록에 있는 통합을 사용하며 기본 설정으로 충분한 경우, 추가 설정은 필요하지 않습니다. -아래 섹션의 각 탭은 지정된 컨테이너에 통합 템플릿을 적용하는 다른 방법을 보여줍니다. 사용 가능한 방법은 다음과 같습니다: +다른 구성이 필요할 경우: -* [도커 라벨](?tab=docker#configuration) -* [에이전트 내에서 마운트 된 설정 파일](?tab=file#configuration) -* [키-값 저장소](?tab=keyvaluestore#configuration) +1. 사용 사례에 맞는 구성 방법(Docker 레이블, 로컬 파일, 키-값 저장소)을 선택하세요. +2. 선택한 방법의 템플릿 형식을 참조하세요. 각 형식에는 ``와 같은 자리 표시자가 포함되어 있습니다. +3. 이러한 플레이스홀더에 대한 [값을 입력합니다](#placeholder-values). -**참고**: 지원되는 일부 통합은 [Ceph][4], [Varnish][5], [Postfix][6], [Cassandra Nodetools][7] 및 [Gunicorn][8]과 같은 파일 시스템 액세스 또는 프로세스 트리 데이터가 필요하기 때문에 표준 자동 탐지와 함께 작동하지 않습니다. 이러한 통합에 대해 자동 탐지를 실행하려면 컨테이너에서 공식 Prometheus 익스포터를 사용한 다음 에이전트에서 자동 탐지를 사용하여 컨테이너를 찾고 엔드포인트를 쿼리하세요. +{{< tabs >}} +{{% tab "Labels" %}} -## 설정 +#### Dockerfile -{{< tabs >}} -{{% tab "Docker (AD v2)" %}} +Datadog Agent v7.36 이상: -**참고**: AD Annotations v2는 통합 설정을 단순화하기 위해 Datadog 에이전트 7.36에 도입되었습니다. 이전 버전의 Datadog 에이전트인 경우 AD Annotations v1을 사용합니다. +```yaml +LABEL "com.datadoghq.ad.checks"='{"": {"instances": [], "logs": []}}' +``` -도커 컨테이너를 통해 자동 탐지를 자동으로 실행하려면 컨테이너화된 에이전트에 `/var/run/docker.sock` 를 마운트합니다. Windows에서는 `\\.\pipe\docker_engine` 을 마운트합니다. +이전 Agent 버전: -통합 템플릿은 도커 라벨로 저장될 수 있습니다. 자동 탐지를 사용하면 에이전트가 도커에서 실행 중인지를 탐지하고 모든 라벨에서 통합 템플릿을 자동으로 검색합니다. 자동 탐지에서는 라벨이 다음과 같이 표시될 것으로 예상합니다: +```yaml +LABEL "com.datadoghq.ad.check_names"='[]' +LABEL "com.datadoghq.ad.init_configs"='[]' +LABEL "com.datadoghq.ad.instances"='[]' +LABEL "com.datadoghq.ad.logs"='[]' +``` + +#### docker-compose.yaml -**도커파일**: +Datadog Agent v7.36 이상: ```yaml -LABEL "com.datadoghq.ad.checks"='{"": {"instances": []}}' +labels: + com.datadoghq.ad.checks: '{"": {"instances": [], "logs": []}}' ``` -**docker-compose.yaml**: +이전 Agent 버전: ```yaml labels: - com.datadoghq.ad.checks: '{"": {"instances": []}}' + com.datadoghq.ad.check_names: '[]' + com.datadoghq.ad.init_configs: '[]' + com.datadoghq.ad.instances: '[]' + com.datadoghq.ad.logs: '[]' ``` -**`docker run`, `nerdctl run`, 또는 `podman run` 명령 사용**: +#### docker run, nerdctl run, podman run 사용 + +Datadog Agent v7.36 이상: ```shell --l com.datadoghq.ad.checks="{\"\": {\"instances\": []}}" +docker run -l com.datadoghq.ad.checks="{\"\": {\"instances\": [], \"logs\": []}}" +``` + +이전 Agent 버전: + +```shell +docker run -l com.datadoghq.ad.check_names='[]' -l com.datadoghq.ad.init_configs='[]' -l com.datadoghq.ad.instances='[]' -l com.datadoghq.ad.logs='[]' ``` **참고**: 이러한 라벨을 설정하는 동안 JSON에서 벗어날 수 있습니다. 예: ```shell -docker run --label "com.datadoghq.ad.checks="{\"apache\": {\"instances\": [{\"apache_status_url\":\"http://%%host%%/server-status?auto2\"}]}}" +docker run -l "com.datadoghq.ad.checks="{\"apache\": {\"instances\": [{\"apache_status_url\":\"http://%%host%%/server-status?auto2\"}]}}" ``` -**도커 스웜**: +#### Docker Swarm +Docker Cloud에서 Swarm 모드를 사용하는 경우 이미지에 레이블을 적용해야 합니다. -도커 클라우드(Docker Cloud)에서 스웜 모드를 사용한다면 라벨을 이미지에 적용해야 합니다. +Datadog Agent v7.36 이상: ```yaml version: "1.0" @@ -92,52 +119,11 @@ services: project: image: '' labels: - com.datadoghq.ad.checks: '{"": {"instances": []}}' - -``` - -**참고**: 자동 탐지를 설정할 때 Datadog은 컨테이너화된 환경 전체에서 텔레메트리를 통합하기 위해 도커 라벨을 사용할 것을 권장합니다. 자세한 내용은 [통합 서비스 태깅][1] 설명서를 참조하세요. - - -[1]: /ko/getting_started/tagging/unified_service_tagging/?tab=docker -{{% /tab %}} -{{% tab "Docker (AD v1)" %}} - -Docker 컨테이너에서 자동적으로 자동탐지를 활성화하려면 `/var/run/docker.sock`을 컨테이너화 Agent에 마운트하세요. Windows의 경우에는 `\\.\pipe\docker_engine`를 마운트하세요. - -통합 템플릿은 도커 라벨로 저장될 수 있습니다. 자동 탐지를 사용하면 에이전트가 도커에서 실행 중인지를 탐지하고 모든 라벨에서 통합 템플릿을 자동으로 검색합니다. 자동 탐지에서는 라벨이 다음과 같이 표시될 것으로 예상합니다: - -**도커파일**: - -```yaml -LABEL "com.datadoghq.ad.check_names"='[]' -LABEL "com.datadoghq.ad.init_configs"='[]' -LABEL "com.datadoghq.ad.instances"='[]' -``` - -**docker-compose.yaml**: - -```yaml -labels: - com.datadoghq.ad.check_names: '[]' - com.datadoghq.ad.init_configs: '[]' - com.datadoghq.ad.instances: '[]' -``` - -**`docker run`, `nerdctl run`, 또는 `podman run` 명령 사용**: - -```shell --l com.datadoghq.ad.check_names='[]' -l com.datadoghq.ad.init_configs='[]' -l com.datadoghq.ad.instances='[]' -``` + com.datadoghq.ad.checks: '{"": {"instances": [], "logs": []}}' -**참고**: 이러한 라벨을 설정하는 동안 JSON에서 벗어날 수 있습니다. 예: -```shell -docker run --label "com.datadoghq.ad.check_names=[\"redisdb\"]" --label "com.datadoghq.ad.init_configs=[{}]" --label "com.datadoghq.ad.instances=[{\"host\":\"%%host%%\",\"port\":6379}]" --label "com.datadoghq.ad.logs=[{\"source\":\"redis\"}]" --name redis redis ``` -**도커 스웜**: - -도커 클라우드(Docker Cloud)에서 스웜 모드를 사용한다면 라벨을 이미지에 적용해야 합니다. +이전 Agent 버전: ```yaml version: "1.0" @@ -149,51 +135,53 @@ services: com.datadoghq.ad.check_names: '[]' com.datadoghq.ad.init_configs: '[]' com.datadoghq.ad.instances: '[]' + com.datadoghq.ad.logs: '[]' ``` -**참고**: 자동 탐지를 설정할 때 Datadog은 컨테이너화된 환경 전체에서 텔레메트리를 통합하기 위해 도커 라벨을 사용할 것을 권장합니다. 자세한 내용은 [통합 서비스 태깅][1] 설명서를 참조하세요. - - -[1]: /ko/getting_started/tagging/unified_service_tagging/?tab=docker {{% /tab %}} -{{% tab "File" %}} - -템플릿을 로컬 파일로 저장하고 컨테이너화된 에이전트 내부에 마운트 할 경우 외부 서비스나 특정 오케스트레이션 플랫폼이 필요하지 않습니다. 단점은 템플릿을 변경, 추가 또는 제거할 때마다 에이전트 컨테이너를 재시작해야 한다는 것입니다. 에이전트는 마운트 된 `/conf.d` 디렉토리에서 자동 탐지 템플릿을 찾습니다. +{{% tab "Local file" %}} -에이전트 v6.2.0(및 v5.24.0) 이후 기본 템플릿은 모니터링되는 소프트웨어를 자동으로 감지하는 대신 해당 소프트웨어의 기본 포트를 사용합니다. 다른 포트를 사용해야 하는 경우, [도커 컨테이너 라벨](?tab=docker-labels)에서 사용자 지정 자동 탐지 템플릿을 사용하세요. +Autodiscovery 템플릿을 마운트된 `/conf.d` 디렉터리 내에 로컬 파일로 저장할 수 있습니다. 템플릿을 변경, 추가 또는 제거할 때마다 Agent 컨테이너를 다시 시작해야 합니다. -이러한 통합 템플릿은 기본적인 경우를 위한 것입니다. 추가 옵션 활성화를 위해 사용자 지정 Datadog 통합 설정이 필요하다면 다른 컨테이너 식별자 또는 템플릿 변수 인덱싱을 사용하거나 자체 자동 설정 파일을 작성하세요: - -1. 호스트에 `conf.d/.d/conf.yaml` 파일을 생성하고 사용자 지정 자동 설정을 추가합니다. -2. 호스트 `conf.d/` 폴더를 컨테이너화된 에이전트 `conf.d` 폴더에 마운트합니다. +1. 호스트에 `conf.d/.d/conf.yaml` 파일을 생성합니다. + ```yaml + ad_identifiers: + - -**자동 설정 파일 예시**: + init_config: + -```text -ad_identifiers: - + instances: + -init_config: - + logs: + + ``` -instances: - -``` +2. 호스트 `conf.d/` 폴더를 컨테이너화된 에이전트 `conf.d` 폴더에 마운트합니다. -``에 대한 자세한 내용은 [자동 탐지 컨테이너 식별자][1] 설명서를 참조하세요. + **docker-compose.yaml** + ```yaml + volumes: + [...] + - /conf.d:/conf.d + ``` -**참고**: 에이전트가 파일 이름에서 직접 유추하므로 ``을 설정할 필요가 없습니다. + **docker run** + ```shell + docker run -d --name datadog-agent \ + [...] + -v /conf.d:/conf.d \ + ``` -[1]: /ko/agent/guide/ad_identifiers/ {{% /tab %}} {{% tab "Key-value store" %}} - -자동 탐지는 [Consul][1], Etcd 및 Zookeeper를 통합 템플릿 소스로 사용할 수 있습니다. 키-값 저장소를 사용하려면 에이전트 `datadog.yaml` 설정 파일에서 키-값 저장소를 설정하고, 이 파일을 컨테이너화된 에이전트 내부에 마운트합니다. 또는 컨테이너화된 에이전트에 키-값 저장소를 환경 변수로 전달합니다. +[Consul][1], [etcd][2] 또는 [ZooKeeper][3]에서 Autodiscovery 템플릿을 가져올 수 있습니다. `datadog.yaml` 구성 파일에서 키-값 저장소를 구성한 후 이 파일을 Agent 컨테이너에 마운트하거나, Agent 컨테이너의 환경 변수로 사용할 수 있습니다. ** datadog.yaml에서 설정하기** -`datadog.yaml` 파일에서 `` 주소와 키-값 저장소의 ``를 설정합니다. +`datadog.yaml`에서 `` 주소와 키-값 저장소의 ``를 설정합니다. ```yaml config_providers: @@ -224,7 +212,7 @@ instances: password: ``` -그런 다음 [에이전트를 재시작][2]하여 설정 변경사항을 적용합니다. +[Datadog Agent를 다시 시작][4]하여 변경 사항을 적용합니다. **환경 변수 설정**: @@ -233,183 +221,120 @@ instances: ```yaml /datadog/ check_configs/ - / + / - check_names: [""] - init_configs: [""] - - instances: [""] + - instances: [""] + - logs: [""] ... ``` -**참고**: 자동 탐지는 지정된 컨테이너에 특정 설정을 적용하기 위해 키-값 저장소 사용 시 ``와 `.spec.containers[0].image`를 조합하여 **image**로 컨테이너를 식별합니다. - [1]: /ko/integrations/consul/ -[2]: /ko/agent/configuration/agent-commands/ +[2]: /ko/integrations/etcd/ +[3]: /ko/integrations/zk/ +[4]: /ko/agent/configuration/agent-commands/ + {{% /tab %}} {{< /tabs >}} -## 예시 +### 플레이스홀더 값 -### Datadog Redis 통합 +다음과 같이 플레이스홀더 값을 제공합니다. -{{< tabs >}} -{{% tab "Docker" %}} +`` +: Datadog 통합 이름 (예: `etcd` 또는 `redisdb`) -다음 `docker-compose.yml` 파일은 사용자 지정 `password` 매개 변수를 사용하여 올바른 Redis 통합 템플릿을 적용합니다: +`` +: 컨테이너 이미지와 일치시킬 식별자.

    +예: 컨테이너 식별자로 `redis`를 제공하면 이름이 `redis`인 이미지를 사용하는 컨테이너에만 Autodiscovery 템플릿이 적용됩니다. `foo/redis:latest`와 `bar/redis:v2`를 실행하는 컨테이너 하나가 있는 경우, Autodiscovery 템플릿은 두 컨테이너 모두에 적용됩니다.

    +`ad_identifiers` 파라미터는 목록을 사용하므로 여러 컨테이너 식별자를 제공할 수 있습니다. 또한, 사용자 지정 식별자를 사용할 수도 있습니다. [사용자 지정 Autodiscovery 식별자][7]를 참고하세요. -```yaml -labels: - com.datadoghq.ad.check_names: '["redisdb"]' - com.datadoghq.ad.init_configs: '[{}]' - com.datadoghq.ad.instances: '[{"host": "%%host%%","port":"6379","password":"%%env_REDIS_PASSWORD%%"}]' -``` +`` +: 통합의 `.d/conf.yaml.example` 파일에서 `init_config`에 나열된 구성 파라미터. `init_config` 섹션은 일반적으로 비어 있습니다. -{{% /tab %}} -{{% tab "File" %}} +`` +: 통합의 `.d/conf.yaml.example` 파일에서 `instances`에 있는 구성 파라미터 목록 -Redis는 에이전트와 함께 패키징된 기본 자동 탐지 템플릿 중 하나이므로 이 파일을 마운트할 필요가 없습니다. 다음 Redis 템플릿은 에이전트와 함께 패키징됩니다: +`` +: 통합의 `.d/conf.yaml.example` 파일에서 `logs`에 있는 구성 파라미터 목록 -```yaml -ad_identifiers: - - redis - -init_config: +## 예시 -instances: +### Redis 통합 - - host: "%%host%%" - port: "6379" -``` +Redis는 [Autodiscovery 자동 구성][6]을 사용할 수 있는 기술입니다. 다음 예제는 `password` 파라미터를 제공하는 사용자 지정 구성으로 기본 구성을 재정의하는 방법을 보여줍니다. -이는 최소한의 [Redis 통합 설정][1]처럼 보이지만 `ad_identifiers` 옵션에 주목할 필요가 있습니다. 이 필수 옵션을 사용하여 컨테이너 식별자를 제공할 수 있습니다. 자동 탐지는 `redis` 이미지를 실행하는 동일한 호스트의 모든 컨테이너에 이 템플릿을 적용합니다. 자세한 내용은 [자동 탐지 식별자][2] 설명서를 참조하세요. +비밀번호를 `REDIS_PASSWORD`라는 환경 변수로 저장한 후 다음을 따릅니다. -Redis에서 해당 통계 엔드포인트에 액세스할 때 추가 `password`가 필요한 경우: +{{< tabs >}} +{{% tab "Docker" %}} -1. 호스트에 `conf.d/`와 `conf.d/redisdb.d` 폴더를 생성합니다. -2. 호스트에서 아래 사용자 지정 자동 설정을 `conf.d/redisdb.d/conf.yaml`에 추가합니다. -3. 호스트 `conf.d/` 폴더를 컨테이너화된 에이전트 `conf.d/` 폴더에 마운트합니다. +Datadog Agent v7.36 이상: ```yaml -ad_identifiers: - - redis - -init_config: - -instances: - - - host: "%%host%%" - port: "6379" - password: "%%env_REDIS_PASSWORD%%" -``` - -**참고**: `"%%env_%%"` 템플릿 변수 로직은 암호를 일반 텍스트로 저장하지 않기 위해 사용되므로 `REDIS_PASSWORD` 환경 변수가 에이전트에게 전달되어야 합니다. [자동 탐지 템플릿 변수 설명서][3]를 참조하세요. - -[1]: https://github.com/DataDog/integrations-core/blob/master/redisdb/datadog_checks/redisdb/data/auto_conf.yaml -[2]: /ko/agent/guide/ad_identifiers/ -[3]: /ko/agent/faq/template_variables/ -{{% /tab %}} -{{% tab "Key-value store" %}} - -다음 etcd 명령은 사용자 지정 `password` 매개 변수를 사용하여 Redis 통합 템플릿을 생성합니다. - -```conf -etcdctl mkdir /datadog/check_configs/redis -etcdctl set /datadog/check_configs/redis/check_names '["redisdb"]' -etcdctl set /datadog/check_configs/redis/init_configs '[{}]' -etcdctl set /datadog/check_configs/redis/instances '[{"host": "%%host%%","port":"6379","password":"%%env_REDIS_PASSWORD%%"}]' +labels: + com.datadoghq.ad.checks: '{"redisdb": {"instances": [{"host": "%%host%%","port":"6379","password":"%%env_REDIS_PASSWORD%%"}], "logs": [{"type": "file", "path": "/var/log/redis_6379.log", "source": "redis", "service": "redis_service"}]}}' ``` -세 값은 각각의 목록입니다. 자동 탐지는 공유 목록 인덱스를 기반으로 목록의 항목들을 통합 설정에 맞춥니다. 이 경우 `check_names[0]`, `init_configs[0]` 및 `instances[0]`에서 첫 번째(그리고 유일한) 검사 설정을 구성합니다. - -**참고**: `"%%env_%%"` 템플릿 변수 로직은 암호를 일반 텍스트로 저장하지 않기 위해 사용되므로 `REDIS_PASSWORD`환경 변수가 에이전트에게 전달되어야 합니다. [자동 탐지 템플릿 변수 설명서][1]를 참조하세요. - -자동 설정 파일과 달리 **키-값 저장소는 컨테이너 식별자로 짧거나 긴 이미지 이름을 사용할 수 있습니다.** (예: `redis` 또는 `redis:latest`) - -[1]: /ko/agent/faq/template_variables/ -{{% /tab %}} -{{< /tabs >}} - -### Datadog Apache 및 HTTP 검사 통합 - -아래 설정은 ``:`httpd`를 사용하여 Apache 컨테이너 이미지에 적용됩니다. 자동 탐지 템플릿은 Apache 컨테이너에서 메트릭을 수집하고 두 개의 엔드포인트를 테스트하기 위해 인스턴스로 Datadog-HTTP 검사를 설정하도록 구성되어 있습니다. - -검사 이름은 `apache`, `http_check`, `` 및 `` 입니다. 전체 설정은 해당 설명서 페이지: [Datadog-Apache 통합][9], [Datadog-HTTP 검사 통합][10]에서 확인할 수 있습니다. - -{{< tabs >}} -{{% tab "Docker" %}} +이전 Agent 버전: ```yaml labels: - com.datadoghq.ad.check_names: '["apache", "http_check"]' - com.datadoghq.ad.init_configs: '[{},{}]' - com.datadoghq.ad.instances: '[[{"apache_status_url": "http://%%host%%/server-status?auto"}],[{"name":"","url":"http://%%host%%/website_1","timeout":1},{"name":"","url":"http://%%host%%/website_2","timeout":1}]]' + com.datadoghq.ad.check_names: '["redisdb"]' + com.datadoghq.ad.init_configs: '[{}]' + com.datadoghq.ad.instances: '[{"host": "%%host%%","port":"6379","password":"%%env_REDIS_PASSWORD%%"}]' + com.datadoghq.ad.logs: '[{"type": "file", "path": "/var/log/redis_6379.log", "source": "redis", "service": "redis_service"}]' ``` {{% /tab %}} {{% tab "File" %}} +1. 호스트에 `conf.d/redisdb.d/conf.yaml` 파일을 생성합니다. + + ```yaml + ad_identifiers: + - redis + init config: + instances: + - host: "%%host%%" + port: "6379" + username: "datadog" + password: "%%env_REDIS_PASSWORD%%" + logs: + - type: "file" + path: "/var/log/redis.log" + source: "redis" + service: "redis_service" + ``` -* 호스트에서 `conf.d/`와 `conf.d/apache.d` 폴더를 생성하세요. -* 호스트에서 아래의 사용자 지정 자동 설정을 `conf.d/apache.d/conf.yaml`에 추가합니다. - -```yaml -ad_identifiers: - - httpd - -init_config: - -instances: - - apache_status_url: http://%%host%%/server-status?auto -``` - -**참고**: 이는 최소한의 [Apache 검사 설정][1]처럼 보이지만 `ad_identifiers` 옵션에 주목할 필요가 있습니다. 이 필수 옵션을 사용하여 컨테이너 식별자를 제공할 수 있습니다. 자동 탐지는 `httpd` 이미지를 실행하는 동일한 호스트의 모든 컨테이너에 이 템플릿을 적용합니다. 자세한 내용은 [자동 탐지 식별자][2] 설명서를 참조하세요. - -* 다음으로 호스트에서 `conf.d/http_check.d` 폴더를 생성하세요. -* 호스트에서 아래의 사용자 지정 자동 설정을 `conf.d/http_check.d/conf.yaml`에 추가합니다. - -```yaml -ad_identifiers: - - httpd - -init_config: - -instances: - - name: "" - url: "http://%%host%%/website_1" - timeout: 1 - - - name: "" - url: "http://%%host%%/website_2" - timeout: 1 -``` - -* 마지막으로 호스트 `conf.d/` 폴더를 컨테이너화된 에이전트 `conf.d/` 폴더에 마운트합니다. +2. 호스트 `conf.d/` 폴더를 컨테이너화된 에이전트 `conf.d` 폴더에 마운트합니다. -[1]: https://github.com/DataDog/integrations-core/blob/master/apache/datadog_checks/apache/data/conf.yaml.example -[2]: /ko/agent/guide/ad_identifiers/ {{% /tab %}} {{% tab "Key-value store" %}} +다음 etcd 명령은 사용자 지정 `password` 매개 변수를 사용하여 Redis 통합 템플릿을 생성합니다. + ```conf -etcdctl set /datadog/check_configs/httpd/check_names '["apache", "http_check"]' -etcdctl set /datadog/check_configs/httpd/init_configs '[{}, {}]' -etcdctl set /datadog/check_configs/httpd/instances '[[{"apache_status_url": "http://%%host%%/server-status?auto"}],[{"name": "", "url": "http://%%host%%/website_1", timeout: 1},{"name": "", "url": "http://%%host%%/website_2", timeout: 1}]]' +etcdctl mkdir /datadog/check_configs/redis +etcdctl set /datadog/check_configs/redis/check_names '["redisdb"]' +etcdctl set /datadog/check_configs/redis/init_configs '[{}]' +etcdctl set /datadog/check_configs/redis/instances '[{"host": "%%host%%","port":"6379","password":"%%env_REDIS_PASSWORD%%"}]' ``` -**참고**: 각 목록의 순서가 중요합니다. 에이전트는 설정의 모든 부분이 세 목록에 걸쳐 동일한 인덱스를 갖는 경우에만 HTTP 검사 설정을 올바르게 생성할 수 있습니다. - +세 값 모두 목록입니다. Autodiscovery는 공유 목록 인덱스를 기반으로 목록 항목을 통합 구성으로 조합합니다. 이 경우, `check_names[0]`, `init_configs[0]`, `instances[0]`를 사용하여 첫 번째(그리고 유일한) 점검을 구성합니다. {{% /tab %}} {{< /tabs >}} -## 참고 자료 +다음 예에서는 모두 [Autodiscovery 템플릿 변수][1]를 사용합니다. +- `%%host%%`는 컨테이너의 IP로 채워집니다. +- `%%env_REDIS_PASSWORD%%`는 Agent 프로세스가 인식하는 `REDIS_PASSWORD`라는 환경 변수로 채워집니다. -{{< partial name="whats-next/whats-next.html" >}} +여러 컨테이너 세트에 여러 점검을 구성하는 방법과 예시를 더 보고 싶을 경우 [Autodiscovery: 시나리오 및 예][8]를 참고하세요. -[1]: /ko/agent/kubernetes/integrations/ -[2]: /ko/getting_started/integrations/#configuring-agent-integrations -[3]: /ko/integrations/#cat-autodiscovery -[4]: /ko/integrations/ceph/ -[5]: /ko/integrations/varnish/#autodiscovery -[6]: /ko/integrations/postfix/ -[7]: /ko/integrations/cassandra/#agent-check-cassandra-nodetool -[8]: /ko/integrations/gunicorn/ -[9]: /ko/integrations/apache/#setup -[10]: /ko/integrations/http_check/#setup \ No newline at end of file +[1]: /ko/containers/guide/template_variables/ +[2]: /ko/getting_started/containers/autodiscovery +[3]: /ko/containers/guide/autodiscovery-management +[4]: /ko/containers/kubernetes/integrations/ +[5]: /ko/agent/guide/use-community-integrations/ +[6]: /ko/containers/guide/auto_conf +[7]: /ko/containers/guide/ad_identifiers +[8]: /ko/containers/guide/autodiscovery-examples \ No newline at end of file diff --git a/content/ko/containers/guide/autodiscovery-with-jmx.md b/content/ko/containers/guide/autodiscovery-with-jmx.md new file mode 100644 index 0000000000000..560e125198b73 --- /dev/null +++ b/content/ko/containers/guide/autodiscovery-with-jmx.md @@ -0,0 +1,421 @@ +--- +algolia: + tags: + - JMX + - JMX 메트릭 + - 누락된 웹 로직 + - JMX 제한 + - Cassandra + - Kafka + - Tomcat + - WebLogic +aliases: +- /ko/agent/guide/autodiscovery-with-jmx +description: Autodiscovery 템플릿을 사용하여 컨테이너화된 Java 애플리케이션용 JMX 기반 통합 구성 +further_reading: +- link: /agent/kubernetes/integrations/ + tag: 설명서 + text: 자동탐지 통합 템플릿 생성 및 불러오기 +- link: /agent/guide/ad_identifiers/ + tag: 설명서 + text: 해당하는 통합 템플릿과 컨테이너 매치하기 +- link: /agent/guide/autodiscovery-management/ + tag: 설명서 + text: Agent 자동탐지에 포함할 컨테이너 관리하기 +- link: /agent/kubernetes/tag/ + tag: 설명서 + text: 애플리케이션에서 동적으로 태그를 할당하고 수집하기 +title: JMX를 활용한 자동탐지 +--- + +컨테이너 환경에서는 Agent가 JMX 서버에 연결하는 방식에 몇 가지 차이점이 있습니다. Autodiscovery 기능을 사용하면 이러한 통합을 동적으로 설정할 수 있습니다. Datadog의 JMX 기반 통합을 사용하여 Kubernetes 포드에서 JMX 애플리케이션 메트릭을 수집하세요. + +애플리케이션에 Java 트레이서를 사용하는 경우 [Java 런타임 메트릭][2] 기능을 활용하여 해당 메트릭을 Agent로 보낼 수도 있습니다. + +## 설치 + +### JMX 지원 Agent 사용 +JMX 유틸리티는 기본적으로 Agent에 설치되지 않습니다. JMX 통합을 설정하려면 Agent의 이미지 태그에 `-jmx`을 추가하세요. (예: `gcr.io/datadoghq/agent:latest-jmx`) + +Datadog Operator 또는 Helm을 사용하는 경우 다음과 같이 구성하면 Agent의 이미지 태그에 `-jmx`를 추가할 수 있습니다. + +{{< tabs >}} +{{% tab "Operator" %}} +```yaml +apiVersion: datadoghq.com/v2alpha1 +kind: DatadogAgent +metadata: + name: datadog +spec: + #(...) + override: + nodeAgent: + image: + jmxEnabled: true +``` +{{% /tab %}} +{{% tab "Helm" %}} +```yaml +agents: + image: + tagSuffix: jmx +``` +{{% /tab %}} +{{< /tabs >}} + + + +## 설정 + +다음 메서드 중 하나를 사용하세요. + +- [Autodiscovery 주석](#autodiscovery-annotations)(권장) +- [Autodiscovery 구성 파일](#autodiscovery-configuration-files): 구성 파라미터를 세부적으로 조정 + +### 자동탐지 어노테이션 + +이 메서드에서는 Java 기반 포드에 주석을 사용하여 JMX 점검 구성을 적용합니다. 이를 통해 Agent는 새 컨테이너가 시작될 때 JMX 점검을 자동으로 구성할 수 있습니다. 이러한 주석은 포드를 생성하는 객체(Deployment, DaemonSet 등)가 아니라 생성된 포드에 있어야 합니다. + +Autodiscovery 주석에는 다음 템플릿을 사용하세요. + +```yaml +apiVersion: v1 +kind: Pod +metadata: + name: + annotations: + ad.datadoghq.com/.checks: | + { + "": { + "init_config": { + "is_jmx": true, + "collect_default_metrics": true + }, + "instances": [{ + "host": "%%host%%", + "port": "" + }] + } + } + # (...) +spec: + containers: + - name: '' + # (...) + env: + - name: POD_IP + valueFrom: + fieldRef: + fieldPath: status.podIP + - name: JAVA_OPTS + value: >- + -Dcom.sun.management.jmxremote + -Dcom.sun.management.jmxremote.authenticate=false + -Dcom.sun.management.jmxremote.ssl=false + -Dcom.sun.management.jmxremote.local.only=false + -Dcom.sun.management.jmxremote.port= + -Dcom.sun.management.jmxremote.rmi.port= + -Djava.rmi.server.hostname=$(POD_IP) +``` + +이 예시에서: +- ``은 포드 이름입니다. +- ``는 포드 내의 원하는 컨테이너와 일치합니다. +- ``는 원하는 JMX 통합의 이름입니다. [사용 가능한 JMX 통합](#available-jmx-integrations) 목록을 확인하세요. +- 주석과 `JAVA_OPTS` 사이에 일치한다면 원하는 대로 ``를 설정하세요. + +이 구성을 사용하면 Datadog Agent가 해당 포드를 검색하고 `%%host%%`[Autodiscovery 템플릿 변수][3]를 기준으로 JMX 서버에 요청을 보냅니다. 이 요청은 검색된 포드의 IP 주소로 확인됩니다. 따라서 `java.rmi.server.hostname`이 이전에 [Kubernetes Downward API][5]를 통해 입력된 `POD_IP` 주소로 설정됩니다. + +**참고**: `JAVA_OPTS` 환경 변수는 Java 기반 컨테이너 이미지에서 시작 파라미터로 일반적으로 사용됩니다(예: `java $JAVA_OPTS -jar app.jar`). 사용자 지정 애플리케이션을 사용하거나 애플리케이션이 이 패턴을 따르지 않는 경우 이러한 시스템 속성을 수동으로 설정하세요. + + +#### 예제 주석: Tomcat +다음 구성은 포트 `9012`에 [Tomcat][81] JMX 통합을 실행합니다. + +```yaml +apiVersion: v1 +kind: Pod +metadata: + name: tomcat-test + annotations: + ad.datadoghq.com/tomcat.checks: | + { + "tomcat": { + "init_config": { + "is_jmx": true, + "collect_default_metrics": true + }, + "instances": [{ + "host": "%%host%%", + "port": "9012" + }] + } + } +spec: + containers: + - name: tomcat + image: tomcat:8.0 + imagePullPolicy: Always + ports: + - name: jmx-metrics + containerPort: 9012 + env: + - name: POD_IP + valueFrom: + fieldRef: + fieldPath: status.podIP + - name: JAVA_OPTS + value: >- + -Dcom.sun.management.jmxremote + -Dcom.sun.management.jmxremote.authenticate=false + -Dcom.sun.management.jmxremote.ssl=false + -Dcom.sun.management.jmxremote.local.only=false + -Dcom.sun.management.jmxremote.port=9012 + -Dcom.sun.management.jmxremote.rmi.port=9012 + -Djava.rmi.server.hostname=$(POD_IP) +``` + +#### 사용자 정의 메트릭 주석 템플릿 +이 통합에서 추가 메트릭을 수집해야 하는 경우 `init_config` 섹션에 추가하세요. + +```yaml +ad.datadoghq.com/.checks: | + { + "": { + "init_config": { + "is_jmx": true, + "collect_default_metrics": true, + "conf": [{ + "include": { + "domain": "java.lang", + "type": "OperatingSystem", + "attribute": { + "FreePhysicalMemorySize": { + "metric_type": "gauge", + "alias": "jvm.free_physical_memory" + } + } + } + }] + }, + "instances": [{ + "host": "%%host%%", + "port": "" + }] + } + } +``` + +이 메트릭의 형식에 관한 자세한 내용은 [JMX 통합][6] 문서를 참고하세요. + +### Autodiscovery 구성 파일 + +Datadog-JMX 통합에 보다 복잡한 사용자 정의 구성을 전달해야 하는 경우 [Autodiscovery Container Identifiers][1]를 사용하여 사용자 정의 `metrics.yaml` 파일뿐만 아니라 사용자 정의 통합 구성 파일도 전달할 수 있습니다. + +#### 1. 구성 파일 작성 + +이 메서드를 사용하려면 Agent에 구성 파일과 메트릭 수집을 위한 `metrics.yaml` 파일(선택 사항)이 필요합니다. 이러한 파일은 Agent 포드에 마운트하거나 컨테이너 이미지에 포함시킬 수 있습니다. + +구성 파일 명명 규칙은 먼저 [사용 가능한 통합의 필수 단계](#available-jmx-integrations)에서 원하는 통합 이름을 식별하는 것입니다. 이 이름이 확정되면 해당 통합과 관련된 이름의 구성 파일 _또는_ 통합의 설정 디렉터리 내에 있는 구성 파일이 Agent에 필요합니다. + +예를 들어, [Tomcat][81] 통합은 다음 _둘 중 하나_를 생성합니다. +- `/etc/datadog-agent/conf.d/tomcat.yaml` 또는 +- `/etc/datadog-agent/conf.d/tomcat.d/conf.yaml` + +사용자 정의 `metrics.yaml` 파일을 사용하는 경우 통합의 config 디렉터리에 포함하세요. (예: `/etc/datadog-agent/conf.d/tomcat.d/metrics.yaml`.) + +이 구성 파일에는 `ad_identifiers`가 포함되어야 합니다. + +```yaml +ad_identifiers: + - + +init_config: + is_jmx: true + conf: + + +instances: + - host: "%%host%%" + port: "" +``` + +``를 원하는 컨테이너의 짧은 이미지 이름으로 바꾸세요. 예를 들어, 컨테이너 이미지 `gcr.io/CompanyName/my-app:latest`의 짧은 이미지 이름은 `my-app`입니다. Datadog Agent는 해당 컨테이너를 발견하면 이 파일에 설명된 대로 JMX 구성을 설정합니다. + +짧은 이미지 이름을 기준으로 하지 않으려면, [컨테이너에 사용자 지정 식별자][4]를 지정하여 참조할 수 있습니다. + +Kubernetes 주석과 마찬가지로 구성 파일도 [Autodiscovery 템플릿 변수][3]를 사용할 수 있습니다. 이 경우 `host` 구성은 검색된 컨테이너의 IP 주소를 확인하기 위해 `%%host%%`를 사용합니다. + +``의 `init_config` 및 `instances` 구성을 구조화하는 방법은 [JMX 통합][6] 문서(및 [사전 제공된 통합 예시 구성](#available-jmx-integrations)을 참고하세요. + +#### 2. 구성 파일 마운트 +{{< tabs >}} +{{% tab "Operator" %}} + +Datadog Operator를 사용하는 경우 재정의를 추가하세요. + +```yaml +apiVersion: datadoghq.com/v2alpha1 +kind: DatadogAgent +metadata: + name: datadog +spec: + #(...) + override: + nodeAgent: + image: + jmxEnabled: true + extraConfd: + configDataMap: + .yaml: |- + ad_identifiers: + - + + init_config: + is_jmx: true + + instances: + - host: "%%host%%" + port: "" +``` + +{{% /tab %}} +{{% tab "Helm" %}} + +Helm에서는 `datadog.confd` 옵션을 사용하세요. + +```yaml +datadog: + confd: + .yaml: | + ad_identifiers: + - + + init_config: + is_jmx: true + + instances: + - host: "%%host%%" + port: "" +``` + +{{% /tab %}} +{{% tab "사용자 정의 이미지" %}} +이러한 파일을 Agent 컨테이너(예: Amazon ECS)에 마운트할 수 없다면, 원하는 구성 파일이 포함된 Agent Docker 이미지를 빌드할 수 있습니다. + +예시: + +```Dockerfile +FROM gcr.io/datadoghq/agent:latest-jmx +COPY conf.d/tomcat.d/ +COPY conf.d/tomcat.d/ +``` + +그런 다음 이 새로운 커스텀 이미지를 일반 컨테이너화된 Agent로 사용하세요. +{{% /tab %}} + +{{< /tabs >}} + +#### 3. JMX 서버 노출 +Agent가 액세스할 수 있도록 JMX 서버를 설정합니다. + +```yaml +spec: + containers: + - # (...) + env: + - name: POD_IP + valueFrom: + fieldRef: + fieldPath: status.podIP + - name: JAVA_OPTS + value: >- + -Dcom.sun.management.jmxremote + -Dcom.sun.management.jmxremote.authenticate=false + -Dcom.sun.management.jmxremote.ssl=false + -Dcom.sun.management.jmxremote.local.only=false + -Dcom.sun.management.jmxremote.port= + -Dcom.sun.management.jmxremote.rmi.port= + -Djava.rmi.server.hostname=$(POD_IP) +``` + +## 사용 가능한 JMX 통합 +Datadog Agent에는 미리 구성된 여러 JMX 통합이 포함되어 있습니다. + +| 통합 이름 | 메트릭 파일 | 설정 파일 | +|--------------------------|--------------------|-------------------------| +| [activemq][41] | [metrics.yaml][42] | [conf.yaml.example][43] | +| [cassandra][44] | [metrics.yaml][45] | [conf.yaml.example][46] | +| [confluent_platform][47] | [metrics.yaml][48] | [conf.yaml.example][49] | +| [hazelcast][50] | [metrics.yaml][51] | [conf.yaml.example][52] | +| [hive][53] | [metrics.yaml][54] | [conf.yaml.example][55] | +| [hivemq][56] | [metrics.yaml][57] | [conf.yaml.example][58] | +| [hudi][59] | [metrics.yaml][60] | [conf.yaml.example][61] | +| [ignite][62] | [metrics.yaml][63] | [conf.yaml.example][64] | +| [jboss_wildfly][66] | [metrics.yaml][67] | [conf.yaml.example][68] | +| [kafka][69] | [metrics.yaml][70] | [conf.yaml.example][71] | +| [presto][72] | [metrics.yaml][73] | [conf.yaml.example][74] | +| [solr][75] | [metrics.yaml][76] | [conf.yaml.example][77] | +| [sonarqube][78] | [metrics.yaml][79] | [conf.yaml.example][80] | +| [tomcat][81] | [metrics.yaml][82] | [conf.yaml.example][83] | +| [weblogic][84] | [metrics.yaml][85] | [conf.yaml.example][86] | + +위 표의 각 통합에는 애플리케이션별로 반환되는 JMX 메트릭의 예상 패턴과 일치하도록 미리 정의된 `metrics.yaml` 파일이 있습니다. 안내된 통합의 이름을 Autodiscovery 주석이나 구성 파일에서 ``으로 사용하세요. + +또는 `jmx`를 ``으로 사용하여 기본 JMX 통합을 설정하고 기본 `jvm.*` 메트릭만 수집할 수 있습니다. + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ko/containers/guide/ad_identifiers/?tab=kubernetes +[2]: /ko/tracing/metrics/runtime_metrics/java/ +[3]: /ko/containers/guide/template_variables/ +[4]: /ko/containers/guide/ad_identifiers/?tab=kubernetes#custom-autodiscovery-container-identifiers +[5]: https://kubernetes.io/docs/concepts/workloads/pods/downward-api/ +[6]: /ko/integrations/java/ +[41]: /ko/integrations/activemq/ +[42]: https://github.com/DataDog/integrations-core/blob/master/activemq/datadog_checks/activemq/data/metrics.yaml +[43]: https://github.com/DataDog/integrations-core/blob/master/activemq/datadog_checks/activemq/data/conf.yaml.example +[44]: /ko/integrations/cassandra/ +[45]: https://github.com/DataDog/integrations-core/blob/master/cassandra/datadog_checks/cassandra/data/metrics.yaml +[46]: https://github.com/DataDog/integrations-core/blob/master/cassandra/datadog_checks/cassandra/data/conf.yaml.example +[47]: /ko/integrations/confluent_platform/ +[48]: https://github.com/DataDog/integrations-core/blob/master/confluent_platform/datadog_checks/confluent_platform/data/metrics.yaml +[49]: https://github.com/DataDog/integrations-core/blob/master/confluent_platform/datadog_checks/confluent_platform/data/conf.yaml.example +[50]: /ko/integrations/hazelcast/ +[51]: https://github.com/DataDog/integrations-core/blob/master/hazelcast/datadog_checks/hazelcast/data/metrics.yaml +[52]: https://github.com/DataDog/integrations-core/blob/master/hazelcast/datadog_checks/hazelcast/data/conf.yaml.example +[53]: /ko/integrations/hive/ +[54]: https://github.com/DataDog/integrations-core/blob/master/hive/datadog_checks/hive/data/metrics.yaml +[55]: https://github.com/DataDog/integrations-core/blob/master/hive/datadog_checks/hive/data/conf.yaml.example +[56]: /ko/integrations/hivemq/ +[57]: https://github.com/DataDog/integrations-core/blob/master/hivemq/datadog_checks/hivemq/data/metrics.yaml +[58]: https://github.com/DataDog/integrations-core/blob/master/hivemq/datadog_checks/hivemq/data/conf.yaml.example +[59]: /ko/integrations/hudi/ +[60]: https://github.com/DataDog/integrations-core/blob/master/hudi/datadog_checks/hudi/data/metrics.yaml +[61]: https://github.com/DataDog/integrations-core/blob/master/hudi/datadog_checks/hudi/data/conf.yaml.example +[62]: /ko/integrations/ignite/ +[63]: https://github.com/DataDog/integrations-core/blob/master/ignite/datadog_checks/ignite/data/metrics.yaml +[64]: https://github.com/DataDog/integrations-core/blob/master/ignite/datadog_checks/ignite/data/conf.yaml.example +[66]: /ko/integrations/jboss_wildfly/ +[67]: https://github.com/DataDog/integrations-core/blob/master/jboss_wildfly/datadog_checks/jboss_wildfly/data/metrics.yaml +[68]: https://github.com/DataDog/integrations-core/blob/master/jboss_wildfly/datadog_checks/jboss_wildfly/data/conf.yaml.example +[69]: /ko/integrations/kafka/ +[70]: https://github.com/DataDog/integrations-core/blob/master/kafka/datadog_checks/kafka/data/metrics.yaml +[71]: https://github.com/DataDog/integrations-core/blob/master/kafka/datadog_checks/kafka/data/conf.yaml.example +[72]: /ko/integrations/presto/ +[73]: https://github.com/DataDog/integrations-core/blob/master/presto/datadog_checks/presto/data/metrics.yaml +[74]: https://github.com/DataDog/integrations-core/blob/master/presto/datadog_checks/presto/data/conf.yaml.example +[75]: /ko/integrations/solr/ +[76]: https://github.com/DataDog/integrations-core/blob/master/solr/datadog_checks/solr/data/metrics.yaml +[77]: https://github.com/DataDog/integrations-core/blob/master/solr/datadog_checks/solr/data/conf.yaml.example +[78]: /ko/integrations/sonarqube/ +[79]: https://github.com/DataDog/integrations-core/blob/master/sonarqube/datadog_checks/sonarqube/data/metrics.yaml +[80]: https://github.com/DataDog/integrations-core/blob/master/sonarqube/datadog_checks/sonarqube/data/conf.yaml.example +[81]: /ko/integrations/tomcat/ +[82]: https://github.com/DataDog/integrations-core/blob/master/tomcat/datadog_checks/tomcat/data/metrics.yaml +[83]: https://github.com/DataDog/integrations-core/blob/master/tomcat/datadog_checks/tomcat/data/conf.yaml.example +[84]: /ko/integrations/weblogic/ +[85]: https://github.com/DataDog/integrations-core/blob/master/weblogic/datadog_checks/weblogic/data/metrics.yaml +[86]: https://github.com/DataDog/integrations-core/blob/master/weblogic/datadog_checks/weblogic/data/conf.yaml.example \ No newline at end of file diff --git a/content/ko/integrations/itunified_ug_dbxplorer.md b/content/ko/integrations/itunified_ug_dbxplorer.md new file mode 100644 index 0000000000000..bf98be7be9eda --- /dev/null +++ b/content/ko/integrations/itunified_ug_dbxplorer.md @@ -0,0 +1,207 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: itunified-ug-dbxplorer +app_uuid: 1349589a-6fc1-4ddd-99c7-7b23ba82903a +assets: + dashboards: + dbXplorer - ASH Monitor: assets/dashboards/itunified_ug_dbxplorer_ash_monitor.json + dbXplorer - DB Performance Health: assets/dashboards/itunified_ug_dbxplorer_db_health_performance.json + dbXplorer - Oracle LMS: assets/dashboards/itunified_ug_dbxplorer_oracle_lms.json + dbXplorer - Space Monitoring: assets/dashboards/itunified_ug_dbxplorer_space_monitoring.json + dbXplorer - Status Summary: assets/dashboards/itunified_ug_dbxplorer_status_summary.json + integration: + auto_install: false + events: + creates_events: false + metrics: + check: dbxplorer.oracle.database.availability.status + metadata_path: metadata.csv + prefix: dbxplorer.oracle + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 14507249 + source_type_name: itunified_ug_dbxplorer + monitors: + ASM diskgroup space is running low: assets/monitors/dbxplorer_space_prdictive_diskgroup_usage.json + DB wait event higher than usual: assets/monitors/dbxplorer_db_health_anomaly_wait_events.json + Database is unavailable: assets/monitors/dbxplorer_db_health_availability.json + Database load higher than usual: assets/monitors/dbxplorer_db_health_anomaly_load.json + Permanent tablespace usage predicted to be too high: assets/monitors/dbxplorer_space_predictive_tablespace_permanent.json + Recovery area capacity is predicted to be too low: assets/monitors/dbxplorer_space_predictive_recovery_area.json + SQL query CPU time higher than usual: assets/monitors/dbxplorer_ash_sql_id_cpu_time.json + SQL query elapsed time higher than usual: assets/monitors/dbxplorer_ash_sql_id_elapsed_time.json + SQL query elapsed time is longer than usual (1 week): assets/monitors/dbxplorer_ash_sql_id_1w.json + SQL query elapsed time is longer than usual (4 hours): assets/monitors/dbxplorer_ash_sql_id_4h.json + Temporary tablespace usage predicted to be too high: assets/monitors/dbxplorer_space_predictive_tablespace_temp.json + Undo tablespace usage predicted to be too high: assets/monitors/dbxplorer_space_predictive_tablespace_undo.json +author: + homepage: https://www.itunified.de + name: ITUNIFIED UG + sales_email: support.datadog@itunified.de + support_email: support.datadog@itunified.de + vendor_id: itunified +categories: +- marketplace +- 클라우드 +- oracle +- 데이터 저장 +- 메트릭 +- 경고 +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: itunified_ug_dbxplorer +integration_id: itunified-ug-dbxplorer +integration_title: Oracle DBMS용 dbXplorer +integration_version: '' +is_public: true +legal_terms: + eula: assets/eula.pdf +manifest_version: 2.0.0 +name: itunified_ug_dbxplorer +pricing: +- billing_type: tag_count + includes_assets: true + metric: datadog.marketplace.itunified_ug.itunified_ug_dbxplorer.dbxplorer.oracle.database.integration.status + product_id: itunified-ug-dbxplorer + short_description: Oracle 클러스터, DB, 파일 시스템을 모니터링하세요. + tag: db_unique_name + unit_label: 고유한 DB 이름 + unit_price: 50.0 +public_title: Oracle DBMS용 dbXplorer +short_description: Oracle 데이터베이스 상태 및 성능을 모니터링하고 분석하세요 +supported_os: +- linux +tile: + changelog: CHANGELOG.md + classifier_tags: + - 지원 OS::Linux + - 제공::통합 + - Category::Marketplace + - Category::Cloud + - Submitted Data Type::Metrics + - Submitted Data Type::Logs + - Category::Oracle + - 카테고리::데이터 저장 + - Category::Metrics + - Category::Alerting + configuration: README.md#Setup + description: Oracle 데이터베이스 상태 및 성능을 모니터링하고 분석하세요 + media: + - caption: dbXplorer - ASH Monitoring + image_url: images/1.png + media_type: 이미지 + - caption: dbXplorer - ASH Monitoring sql_id related logs view + image_url: images/2.png + media_type: 이미지 + - caption: dbXplorer - DB Performance Health + image_url: images/3.png + media_type: 이미지 + - caption: dbXplorer - Space Monitoring + image_url: images/4.png + media_type: 이미지 + - caption: dbXplorer - Status Summary + image_url: images/5.png + media_type: 이미지 + overview: README.md#Overview + resources: + - resource_type: 블로그 + url: https://www.datadoghq.com/blog/itunified-datadog-marketplace/ + support: README.md#Support + title: Oracle DBMS용 dbXplorer + uninstallation: README.md#Uninstallation +--- + + + + +## 개요 + +**dbXplorer**를 사용하면 Oracle(19c 이상) 데이터베이스를 모니터링하여 Datadog에서 제공하는 실시간 분석 및 성능 메트릭을 확인할 수 있습니다. 또한 Oracle 데이터베이스 인스턴스의 상태와 성능에 관한 심층적인 가시성을 확보할 수 있습니다. + +이 통합으로 다음 이점을 누릴 수 있습니다. +- 사전 모니터링: 성능 병목 현상, 비정상적인 활동, 오류에 관한 실시간 알림을 통해 잠재적인 문제를 조기에 감지합니다. +- 성능 최적화: 데이터베이스 성능 인사이트를 수집하여 쿼리와 리소스를 조정하고 최적의 활용도와 응답 시간을 보장합니다. +- 간소화된 관리: 여러 Oracle 데이터베이스의 모니터링을 단일 플랫폼으로 중앙화하여 관리 프로세스를 간소화하고 운영 오버헤드를 줄입니다. + +이 통합은 Oracle 데이터베이스에서 다음 유형의 데이터를 모니터링합니다. +- 성능 메트릭: 쿼리 응답 시간, 메모리 사용량(예: PGA 및 SGA 통계), 리소스 병목 현상에 관한 데이터가 포함됩니다. 이 데이터는 성능 문제를 파악하고 데이터베이스 운영을 최적화하는 데 도움이 됩니다. +- 상태 메트릭: 연결 시간, 사용자 세션, 시스템 가용성 등의 중요한 상태 메트릭을 추적하여 적절한 개입하고 가동 중지를 방지할 수 있습니다. + +**ITUnified 소개:** 20년 이상의 전문 지식을 보유한 Oracle 인증 데이터베이스 관리자(DBA) 전문가들은 복잡한 프로젝트를 처리하고 고객의 데이터베이스 관리 및 운영을 지원하는 데 필요한 기술을 갖추고 있습니다. ITUnified는 상세한 니즈 평가를 통해 맞춤형 데이터베이스 지원 및 서비스를 전문적으로 제공합니다. + +### 메트릭 + +dbXplorer 통합은 8개 카테고리에서 77개의 메트릭을 수집합니다. + +Oracle 내부 DBA_HIST_ACTIVE_SESS_HISTORY 테이블을 기반으로 하는 11개의 메트릭입니다. 이전 및 반복된 SQL 쿼리 값을 제공합니다. + +Oracle의 내부 DBA_HIST_SQLSTAT 테이블을 기반으로 한 28개의 메트릭은 SQL 쿼리에 대한 애플리케이션, CPU, 디스크 읽기 및 쓰기, I/O, 동시성 대기 시간을 제공합니다. + +Oracle 내부 V$OSSTAT 테이블을 기반으로 한 11가지 메트릭입니다. 이 테이블에는 운영 체제의 시스템 사용률 통계가 포함되어 있습니다. + +V$SESSION_EVENT 테이블에서 2개의 메트릭이 검색되고 세션의 이벤트 대기에 관한 정보가 표시됩니다. + +v$system_event 테이블에서 10개의 메트릭이 검색되고 이벤트에 대한 총 대기 시간 정보가 표시됩니다. + +1개의 메트릭에 통계 이름이 포함되어 있습니다. 다양한 통계 이름은 [여기][2]에서 확인할 수 있습니다. + +데이터베이스 복구 영역과 관련된 5개 메트릭. + +테이블스페이스 사용과 관련된 8개 메트릭. + +### 모니터링 + +12개의 모니터가 포함되어 있으며, 다음과 같은 알림을 받을 수 있습니다. +- CPU 및 경과 시간을 기반으로 SQL 실행과 관련된 이상 감지. +- 로드 및 대기 이벤트의 데이터베이스 상태 알림 +- 일반 데이터베이스 가용성 +- 실행 취소, 임시 및 영구 테이블스페이스 사용량에 관한 예측 알림 +- 복구 영역 사용에 관한 예측 알림 +- ASM 디스크 사용에 관한 예측 알림 + +### 대시보드 + +dbXplorer 통합에는 4개의 대시보드가 ​​포함되어 있습니다. + +#### dbXplorer - ASH Monitoring +"dbXplorer - ASH Monitoring" 대시보드는 SQLSTAT 및 ACTIVE SESSION HISTORY(ASH) 데이터를 활용하여 Oracle 데이터베이스에 관한 포괄적인 성능 분석을 제공하도록 설계되었습니다. 이 대시보드는 SQLSTAT의 SQL 실행 메트릭과 ASH의 세션 수준 활동 인사이트를 결합하여 데이터베이스 성능과 최적화 기회에 관한 전체적인 뷰를 제공합니다. 경과 시간, CPU 시간, I/O 작업과 같은 다양한 성능 메트릭을 모니터링하고 분석하는 상세한 시계열 그래프와 쿼리 테이블을 포함한 여러 위젯 또한 있습니다. 주요 기능으로는 특정 SQL 식별자에 대한 이상 탐지, 과거 성능 분석, 성능 문제를 진단하고 데이터베이스 운영을 최적화하기 위한 트렌드 모니터링이 있습니다. + +#### dbXplorer - DB Performance Health +"dbXplorer - DB Performance Health" 대시보드는 로드 이상, 세션 대기 이상, CPU 사용량, 메모리 사용량 등 다양한 측면에 초점을 맞춰 Oracle 데이터베이스 성능을 종합적으로 모니터링하도록 설계되었습니다. 그래프와 표를 사용해 데이터를 시각적으로 표시하는 여러 위젯을 활용하여 데이터베이스 관리자가 성능 병목 현상을 신속하게 파악하고 해결할 수 있도록 지원합니다. 주요 기능으로는 v$session_event 및 v$session_wait 뷰를 통한 세션 대기 이벤트 상세 분석이 있으며, 이를 통해 특정 대기 이벤트와 데이터베이스 세션에 미치는 영향에 관한 인사이트를 제공합니다. 또한, v$system_event 및 v$osstat 뷰를 통해 시스템 전체 성능 메트릭을 모니터링하고 분석하는 도구를 제공하며, 시스템 수준 대기 및 데이터베이스 운영에 영향을 미치는 운영 체제 상호작용을 다룹니다. + +#### dbXplorer - Space Monitoring +"dbXplorer - Space Monitoring" 대시보드는 Oracle 데이터베이스 테이블스페이스, 복구 영역 및 ASM(Automatic Storage Management) 디스크 그룹에 관한 자세한 모니터링 및 예측 기능을 제공합니다. 현재 및 과거 데이터 사용량, 중요 임계값 알림, 여러 기간의 공간 할당 추세를 시각화할 수 있습니다. 대시보드 내 위젯에는 시계열 그래프, 쿼리 테이블, 상태 요약이 포함되어 있어 사용자가 총 공간, 사용된 공간, 사용 가능한 공간 등의 메트릭을 효율적으로 추적할 수 있습니다. 또한, 대시보드는 템플릿 변수를 통한 동적 필터링 옵션을 제공하여 특정 데이터베이스 인스턴스 또는 클러스터에 맞게 사용자 정의가 가능합니다. 이 도구는 최적의 성능을 유지하고 시스템에서 잠재적인 공간 관련 문제를 사전에 방지하려는 데이터베이스 관리자에게 유용합니다. + +#### dbXplorer - Status Summary +"dbXplorer - Status Summary" 대시보드는 데이터베이스 작업의 상태 및 로그를 간략하게 보여줍니다. "Availability Logs"는 데이터베이스 가용성 관련 이벤트를 타임스탬프 및 인스턴스 이름과 같은 다양한 파라미터를 기준으로 정렬하여 표시합니다. 또 다른 위젯인 "dbXplorer Logs"는 데이터베이스 트랜잭션의 로그 데이터를 요약된 뷰로 구성하여 로거 이름별로 그룹화하고 심각도별 로그 수를 표시합니다. "Status Summary" 위젯은 목록 및 개수 형식으로 상태 개요를 제공하며, 문제 심각도에 따라 데이터 표시 우선순위를 지정합니다. + +#### dbXplorer - Oracle LMS +"dbXplorer - Oracle LMS" 대시보드는 Oracle License Management Services(LMS)에 중점을 두고 라이선스 관련 데이터베이스 기능의 사용량을 추적하고 보고합니다. CPU 사용량을 시각화하여 데이터베이스 작업 규모와 잠재적 라이선스 요구 사항을 파악하는 데 도움이 됩니다. 또한, 대시보드에는 데이터베이스 기능을 제품에 매핑하기 위해 복잡한 쿼리를 실행하는 기능 사용 통계가 포함되어 있으며, 사용량을 현재 및 과거 사용량과 같은 카테고리로 분류하고 기능 보고에서 예외를 관리할 수 있습니다. 이 대시보드는 데이터베이스 관리자가 Oracle 라이선스 준수를 확인하는데 도움이 되지만, 이 대시보드에만 의존해서는 안됩니다. + + +### 사전 필수 조건 + +- Oracle Grid Infrastructure를 사용하는 19c EE 이후의 Oracle 데이터베이스 버전은 지원됩니다. 이전 데이터베이스 버전이나 서버리스 설치 환경에서의 데이터 수집은 지원되지 않습니다. + +- 이 통합에는 Oracle Diagnostic 및 Tuning Pack 라이선스가 필요합니다. 이 팩을 사용하거나 라이선스를 구매하지 않으려면 ASH 및 AWR 메트릭 수집을 비활성화해야 합니다. 이러한 메트릭을 수집하거나 비활성화하는 방법에 관한 설명은 설정 지침에서 확인할 수 있습니다. + +## 지원 +기능 요청이나 문의 사항은 [support.datadog@itunified.de][1]로 문의하세요. + +### 참고 자료 + +기타 유용한 문서, 링크 및 기사: + +- [Datadog Marketplace에서 ITUnified의 제품으로Oracle 데이터베이스 성능 최적화][5] + +[1]: mailto:support.datadog@itunified.de +[2]: https://docs.oracle.com/en/database/oracle/oracle-database/19/refrn/statistics-descriptions-2.html#GUID-2FBC1B7E-9123-41DD-8178-96176260A639 +[3]: https://hub.docker.com/repository/docker/itunified/dbxagent/general +[4]: https://app.datadoghq.com/monitors/recommended?q=dbXplorer&only_installed=false&p=1 +[5]: https://www.datadoghq.com/blog/itunified-datadog-marketplace/ + +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog Technology Partner의 지원을 받습니다. 사용하려면 Marketplace에서 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/jlcp_sefaz.md b/content/ko/integrations/jlcp_sefaz.md new file mode 100644 index 0000000000000..e9ffd5af1c613 --- /dev/null +++ b/content/ko/integrations/jlcp_sefaz.md @@ -0,0 +1,123 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: jlcp-sefaz +app_uuid: fc85f52c-08c0-48bc-9617-6950707c8f91 +assets: + dashboards: + JLCPSefaz_CompactView: assets/dashboards/JLCPSefaz_CompactView.json + JLCPSefaz_DetailedView: assets/dashboards/JLCPSefaz_DetailedView.json + JLCPSefaz_Overview: assets/dashboards/JLCPSefaz_Overview.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: + - sefaz.can_connect + - sefaz.response_time + metadata_path: metadata.csv + prefix: sefaz. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 15205183 + source_type_name: JLCP Sefaz + monitors: + Authorizer Service is down: assets/monitors/metric_monitor.json +author: + homepage: https://www.jlcp.com.br/ + name: JLCP + sales_email: contato@jlcp.com.br + support_email: contato@jlcp.com.br + vendor_id: jlcp +categories: +- 경고 +- marketplace +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: jlcp_sefaz +integration_id: jlcp-sefaz +integration_title: Sefaz +integration_version: '' +is_public: true +legal_terms: + eula: assets/eula.pdf +manifest_version: 2.0.0 +name: jlcp_sefaz +pricing: +- billing_type: flat_fee + includes_assets: true + product_id: jlcp-sefaz + short_description: 브라질의 모든 주를 모니터링. + unit_price: 100.0 +public_title: Sefaz +short_description: 브라질의 여러 주에서 SEFAZ 서비스를 모니터링하세요. +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::Alerting + - Category::Marketplace + - 제공::통합 + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: 브라질의 여러 주에서 SEFAZ 서비스를 모니터링하세요. + media: + - caption: 'JLCP: Sefaz 개요' + image_url: images/JLCPSefaz_Overview.png + media_type: 이미지 + - caption: 'JLCP: Sefaz 간략 뷰' + image_url: images/JLCPSefaz_CompactView.png + media_type: 이미지 + - caption: 'JLCP: Sefaz 상세한 뷰' + image_url: images/JLCPSefaz_DetailedView.png + media_type: 이미지 + overview: README.md#Overview + support: README.md#Support + title: Sefaz + uninstallation: README.md#Uninstallation +--- + + + + +## 개요 + +JLCP Sefaz 통합은 브라질 여러 주에서 전자 송장(NF-e) 서비스를 제공하는 세무서(Secretaria de Estado da Fazenda, SEFAZ)를 모니터링합니다. SEFAZ는 브라질의 재정 관리 및 상거래 적법성에 필수적인 세무 행정 및 전자 재정 문서 발행을 담당합니다. + +이 통합은 NF-e 서비스의 가용성 상태(예: OK, WARNING, CRITICAL)와 각 서비스의 응답 시간의 원격 측정 데이터를 수집합니다. + +모니터링되는 서비스는 다음과 같습니다. +- nfe_inutilizacao: NF-e 번호 매기기 비활성화. +- nfe_consulta_protocolo: NF-e 프로토콜 상담. +- nfe_status_servico: NF-e 서비스 상태 상담. +- nfe_consulta_cadastro: 납세자 등록 상담. +- nfe_recepcao_evento: NF-e 이벤트 접수. +- nfe_autorizacao: NF-e 발급 승인. +- nfe_ret_autorizacao: NF-e 승인 반환. +- nfe_distribuicao_dfe: 전자 재정 문서의 배포. + +##### 고객 혜택 + +이 통합을 사용하면 브라질에서 전자 송장 발행에 필수적인 NF-e 서비스 상태를 사전에 포괄적으로 파악할 수 있습니다. 또한, 가용성 및 성능 문제를 신속하게 파악하고 해결하여 지속적인 영업 운영과 세무 요건 준수를 보장할 수 있습니다. 통합을 통해 제공되는 상세한 가시성 및 성능 분석은 프로세스 최적화, 인프라 용량 계획 수립, 다운타임 감소를 지원하여 운영 효율성과 고객 만족도를 향상시킵니다. + +## 지원 + +지원이나 기능 관련 문의는 [contato@jlcp.com.br][3]을 통해 JLCP Sefaz에 문의하세요. 지원 언어는 영어, 스페인어, 포르투갈어입니다. + +[1]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/ +[2]: https://docs.datadoghq.com/ko/agent/guide/agent-configuration-files/#agent-configuration-directory +[3]: mailto:contato@jlcp.com.br + +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog 기술 파트너의 지원을 받습니다. 사용하려면 Marketplace에서 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/trek10_coverage_advisor.md b/content/ko/integrations/trek10_coverage_advisor.md new file mode 100644 index 0000000000000..c15bc7800e92e --- /dev/null +++ b/content/ko/integrations/trek10_coverage_advisor.md @@ -0,0 +1,131 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: trek10-coverage-advisor +app_uuid: 2faacd70-a192-4a28-8b36-e55298d7b3b4 +assets: + integration: + auto_install: false + configuration: {} + events: + creates_events: true + metrics: + check: trek10.coverage.aws_metric_count + metadata_path: metadata.csv + prefix: trek10.coverage + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10114 + source_type_name: Trek10 AWS Coverage Advisor + monitors: + New unmonitored metric available: assets/monitors/monitor_new.json + New unmonitored metric discovered: assets/monitors/monitor_existing.json +author: + homepage: https://www.trek10.com + name: Trek10 + sales_email: signup-trek10-coverage-advisor@trek10.com + support_email: trek10-coverage-advisor@trek10.com + vendor_id: trek10 +categories: +- marketplace +- aws +custom_kind: integration +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: trek10_coverage_advisor +integration_id: trek10-coverage-advisor +integration_title: Trek10 AWS Coverage Advisor +integration_version: '' +is_public: true +legal_terms: + eula: assets/eula.pdf +manifest_version: 2.0.0 +name: trek10_coverage_advisor +pricing: +- billing_type: flat_fee + includes_assets: true + product_id: coverage-advisor + short_description: Trek10 AWS Coverage Advisor 정액 요금 + unit_price: 100 +public_title: Trek10 AWS Coverage Advisor +short_description: 120개 이상의 AWS 메트릭을 확인하여 모니터링 누락 점검 +supported_os: +- 리눅스 +- macos +- windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::macOS + - Supported OS::Windows + - Category::Marketplace + - Category::AWS + - Offering::Integration + - 제출한 데이터 유형::메트릭 + - Submitted Data Type::Events + configuration: README.md#Setup + description: 120개 이상의 AWS 메트릭을 확인하여 모니터링 누락 점검 + media: + - caption: Trek10 Dashboard + image_url: images/1600px-900px_maindashview_trek10_DDG_image.png + media_type: image + overview: README.md#Overview + support: README.md#Support + title: Trek10 AWS Coverage Advisor + uninstallation: README.md#Uninstallation +--- + + + + +## 개요 +Coverage Advisor는 Datadog 계정의 중요한 AWS CloudWatch 메트릭을 모니터링합니다. 이 도구는 Datadog과 AWS를 사용해 클라우드 네이티브 운영을 한 다년간의 경험을 바탕으로, Trek10이 지속적으로 업데이트하는 모니터링 추천 데이터베이스를 기반으로 구축되었습니다. 커버리지 보고서, 대시보드, 신규 추천 알림을 통해 AWS 인프라가 변화함에 따라 모니터를 최신 상태로 유지할 수 있습니다. + +가입 후, 이 통합에서 대시보드를 ​​Datadog 계정으로 복사합니다. 이에 따라 Datadog 추천 모니터 페이지에 두 개의 이벤트 모니터가 표시됩니다. + +대시보드는 Datadog 계정 모니터링 상태를 보여주며, 모니터링되는 메트릭과 모니터링되지 않는 메트릭에 관한 보고서를 생성할 수 있습니다. Trek10이 해당 모니터 없이 중요한 AWS CloudWatch 메트릭을 새로 발견하면 첫 번째 이벤트 모니터에서 알림을 표시합니다. 또 사용 중인 AWS 서비스와 일치하는 새 CloudWatch 메트릭이 추천 목록에 추가되면 두 번째 이벤트 모니터에서 알림을 표시합니다. + + + +*이 Datadog 도구에 관해 구체적인 요청이 있으신가요? Datadog 기반 플랫폼과 함께 24/7 AWS 관리형 서비스를 찾고 계신가요? AWS 또는 Datadog에 관한 전문 지식이 필요하신가요? 저희 [영업팀](https://trek10.com/contact)에 문의하세요.* + +### 메트릭 +* Trek10은 매일 밤 trek10.coverage.aws_metric_count라는 메트릭을 푸시합니다. 이 메트릭을 사용하면 현재 Datadog 계정으로 수집되고 있지만 모니터가 설정되지 않은 메트릭이 얼마나 되는지 확인할 수 있습니다. 메트릭에는 `all_metrics`, `metrics_monitored`, `monitoring_recommendations` 값으로 필터링할 수 있는 `metric_type` 태그가 있습니다. + + +### 이벤트 +* Trek10은 모니터링되지 않는 서비스를 발견하면 이벤트를 푸시합니다. 이 이벤트를 통해 기본 대시보드로 돌아가 최근 추천 사항을 확인하고 보고서를 생성할 수 있습니다. + + +### 모니터 +* Trek10은 모니터링되지 않은 서비스가 있을 때 알림을 제공하는 두 가지 모니터를 제공합니다. + +### 대시보드 +* Trek10은 중앙 집중식 고급 대시보드를 제공하여, 모니터링되지 않은 메트릭 수를 확인하고, 최근 추천 사항을 살펴보며, 모든 추천 사항을 PDF 보고서로 생성할 수 있습니다. 또한 통합 기능이 새 추천 사항을 제공하기 위해 고객 계정을 매일 밤 확인할지 여부를 제어할 수 있습니다. + +### 사용량 +이 통합을 사용하면 계정에 있는 AWS 메트릭 중 해당 모니터가 없는 메트릭을 빠르게 확인할 수 습니다. 매주 대시보드에서 확인하고 보고서를 생성할 수 있으며, 매일 알림을 받으려면 모니터를 설정하여 알림을 받을 수도 있습니다. + +### 벤더 정보 +* Trek10 +* 소개: 안녕하세요? 저희는 기술 전문가이자 개발자인 Trek10입니다. AWS와 Datadog을 오랫동안 사용해왔고, 여러 기업이 두 서비스를 채택하고 최적화할 수 있도록 전문 서비스와 교육을 지원해왔습니다. 저희는 AWS 관리형 서비스에서 주로 Datadog을 핵심 모니터링 도구로 활용합니다. 또 고객 계정에 새 모니터를 추가해야 할 때를 알려 주는 내부 도구를 고객의 용도에 맞게 수정하여 제공합니다. +* 웹사이트: trek10.com + +## 지원 +* 저희는 설정할 때 대시보드와 모니터를 고객 계정으로 복제합니다. 이 설정을 할 때 제공된 API 키를 사용합니다. 혹시 API 키를 회전하는 경우 trek10-coverage-advisor@trek10.com으로 문의해 주세요. 연동 관련 문제나 문의 사항은 trek10-coverage-advisor@trek10.com으로 이메일을 보내 주세요(안내에 따라 티켓을 접수). +* AWS 운영, 모니터링, 개발 등 모든 문의 사항은 다음 주소로 문의해 주세요. + * 이메일(고객지원): trek10-coverage-advisor@trek10.com + * 이메일(기타 문의): info@trek10.com + * 웹사이트: https://www.trek10.com/contact + + + + + + + + +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며, Datadog Technology Partner의 지원을 받습니다. 사용하려면 Marketplace에서 구매하세요. \ No newline at end of file diff --git a/content/ko/security/application_security/code_security/setup/compatibility/nodejs.md b/content/ko/security/application_security/code_security/setup/compatibility/nodejs.md new file mode 100644 index 0000000000000..57ba7cfd9163c --- /dev/null +++ b/content/ko/security/application_security/code_security/setup/compatibility/nodejs.md @@ -0,0 +1,181 @@ +--- +code_lang: nodejs +code_lang_weight: 50 +title: Node.js 호환성 요구 사항 +type: multi-code-lang +--- + +## Application Security 기능 + +다음은 특정 트레이서 버전에 대해 Node.js 라이브러리에서 지원되는 애플리케이션 보안 기능입니다. + +| 애플리케이션 보안 기능 | 최소 Node.js 트레이서 버전 | +|----------------------------------------|----------------------------------------------------| +| 위협 탐지 | 4.0.0 | +| Threat Protection | 4.0.0 | +| 차단된 요청에 대한 응답 사용자 지정 | 4.1.0 | +| 소프트웨어 구성 분석(SCA) | 4.0.0 | +| 코드 보안 | Node.js 16+의 경우 4.18.0 또는 Node.js 18+의 경우 5.0.0 | +| 자동 사용자 활동 이벤트 추적 | Node.js 16+용 4.4.0 | +| API Security | Node.js 16+용 4.30.0 또는 Node.js 18+용 5.6.0 | + +Node.js에서 지원되는 모든 애플리케이션 보안 기능을 사용하는 데 필요한 최소 트레이서 버전은 4.30.0입니다. + + +**참고**: +- Threat Protection를 사용하려면 명시된 트레이스 최소 버전에 포함된 [Remote Configuration][2]을 활성화해야 합니다. + +### 지원되는 배포 유형 +| 유형 | 위협 탐지 지원 | 소프트웨어 구성 분석 | +|-------------|--------------------------|-------------------------------| +| Docker | {{< X >}} | {{< X >}} | +| 쿠버네티스(Kubernetes) | {{< X >}} | {{< X >}} | +| Amazon ECS | {{< X >}} | {{< X >}} | +| AWS Fargate | {{< X >}} | {{< X >}} | +| AWS Lambda | {{< X >}} | {{< X >}} | + +## 언어 및 프레임워크 호환성 + +### Node.js 버전 지원 + +Node.js 프로젝트에서 LTS 주요 릴리스 라인에 대한 지원을 중단하면(서비스 종료 시), 다음 주요 버전인 `dd-trace`의 다음 주요 버전의 해당 릴리스에 대한 지원이 중단됩니다. +`dd-trace` 라이브러리의 마지막 주요 지원 릴리스 라인은 유지 관리 모드 기준으로 최소 1년 동안 해당 EOL 버전의 Node.js를 지원합니다. + +일부 문제는 `dd-trace`에서 해결할 수 없으며, 대신 Node.js에서 해결해야 합니다. 이러한 문제가 발생하고, 문제가 있는 Node.js 릴리스가 EOL인 경우, 다른 비 EOL 릴리스로 전환하지 않고는 문제를 해결할 수 없습니다. +Datadog은 비 LTS Node.js 주요 릴리스 라인(홀수 버전)에 대한 특정 지원을 제공하기 위해 `dd-trace` 새 릴리스를 생성하지 않습니다. + +최상의 지원을 받으려면 항상 최신 LTS 릴리스와 `dd-trace`의 최신 메이저 버전을 실행합니다. 어떤 릴리스 라인을 사용하든 최신 보안 수정 사항이 적용되도록 해당 릴리스 라인의 최신 버전의 Node.js도 사용합니다. + +Node.js 릴리스에 대한 자세한 내용은 [공식 Node.js 문서][4]를 참조하세요. + + + +### 운영 체제 지원 + +다음 운영 체제가 `dd-trace`에서 공식적으로 지원됩니다. 목록에 없는 운영 체제에서도 작동할 수 있지만, 애플리케이션 보안 기능, 프로파일링 및 런타임 메트릭과 같은 일부 기능이 누락될 수 있습니다. 일반적으로 메이저 전이 처음 출시될 때 활발하게 유지 관리되는 운영 체제가 지원됩니다. + + +| 운영 체제 | 아키텍처 | 최소 버전 | +|------------------|---------------|------------------------------------------| +| Linux (glibc) | arm64, x64 | CentOS 7, Debian 9, RHEL 7, Ubuntu 14.04 | +| Linux (musl) | arm64, x64 | Alpine 3.13 | +| macOS | arm64, x64 | Catalina (10.15) | +| 윈도우즈(Windows) | x64 | Windows 8.1, Windows Server 2012 | + + + + + +### 웹 프레임워크 호환성 + +- 공격자 소스 HTTP 요청 세부 정보 +- HTTP 요청 태그(상태 코드, 메소드 등) +- Distributed Tracing으로 애플리케이션을 통한 공격 플로 확인 + +##### Application Security 기능 노트 +- **Software Composition Analysis**는 모든 프레임워크에서 지원됩니다. +- 프레임워크가 하단 목록에 명시되지 않은 경우에도 **Code Security**는 취약한 암호화, 취약한 해싱, 안전하지 않은 쿠키, HttpOnly Flag가 없는 쿠키, SameSite Flag가 없는 쿠키의 취약점을 탐지합니다. + + +| 프레임워크 | 버전 | Threat Detection이 지원되나요? | Threat Protection이 지원되나요? | Code Security? | +|-----------|----------|-----------------------------|------------------------------|----------------------------------------------------| +| express | >=4 | {{< X >}} | {{< X >}} | {{< X >}} | +| nextjs | >=11.1 | {{< X >}} | | | + + + + + +
    지원하지 않는 기능이나 Node.js 프레임워크에 대한 추가 지원이 필요하다면 문의해 주세요. 간단한 양식을 작성하여 세부 사항을 전송해 주시기 바랍니다.
    + + +### 네트워킹 프레임워크 호환성 + + +**네트워킹 추적은 다음을 제공합니다.** + +- 애플리케이션을 통한 Distributed Tracing +- 요청 기반 차단 + +##### Application Security 기능 노트 +- **Software Composition Analysis**는 모든 프레임워크에서 지원됩니다. + + + +| 프레임워크 | Threat Detection이 지원되나요? | Threat Protection이 지원되나요? | Code Security? | +|-----------|-----------------------------|------------------------------|----------------------------------------------------| +| http | {{< X >}} | {{< X >}} | {{< X >}} | +| https | {{< X >}} | {{< X >}} | {{< X >}} | + + +
    원하는 프레임워크가 목록에 없다면 저희에게 알려주세요! 간단한 양식을 작성하여 자세한 내용을 보내주세요.
    + +### 데이터 스토어 호환성 + + +**Datastore 추적은 다음을 제공합니다.** + +- 요청에서 응답까지의 시간 측정 +- 쿼리 정보(예: 보안 처리된(sanitized) 쿼리 문자열) +- 오류 및 스택 트레이스 캡처 + +##### Application Security 기능 노트 +- **Software Composition Analysis**는 모든 프레임워크에서 지원됩니다. +- **Threat Protection**는 HTTP 요청(인풋) 레이어에서도 작동하므로, 아래 표에 명시되지 않은 데이터베이스를 포함한 모든 데이터베이스에서 기본적으로 작동합니다. + + +| 프레임워크 | 버전 | Threat Detection이 지원되나요? | Threat Protection이 지원되나요? | Code Security? | +|--------------------------|-----------|-----------------------------|------------------------------|----------------------------------------------------| +| [@apollo/server][43] | `>=4` | {{< X >}} | {{< X >}} | | +| [apollo-server-core][44] | `>=3` | {{< X >}} | {{< X >}} | | +| [cassandra-driver][28] | `>=3` | {{< X >}} | {{< X >}} | | +| [couchbase][29] | `^2.4.2` | {{< X >}} | {{< X >}} | | +| [elasticsearch][30] | `>=10` | {{< X >}} | {{< X >}} | | +| [ioredis][31] | `>=2` | {{< X >}} | {{< X >}} | | +| [knex][32] | `>=0.8` | {{< X >}} | {{< X >}} | | +| [mariadb][5] | `>=3` | {{< X >}} | {{< X >}} | | +| [memcached][33] | `>=2.2` | {{< X >}} | {{< X >}} | | +| [mongodb-core][34] | `>=2` | {{< X >}} | {{< X >}} | {{< X >}} | +| [mysql][35] | `>=2` | {{< X >}} | {{< X >}} | {{< X >}} | +| [mysql2][36] | `>=1` | {{< X >}} | {{< X >}} | {{< X >}} | +| [oracledb][37] | `>=5` | {{< X >}} | {{< X >}} | | +| [pg][38] | `>=4` | {{< X >}} | {{< X >}} | {{< X >}} | +| [redis][39] | `>=0.12` | {{< X >}} | {{< X >}} | | +| [sharedb][40] | `>=1` | {{< X >}} | {{< X >}} | | +| [tedious][41] | `>=1` | {{< X >}} | {{< X >}} | | +| [sequelize][42] | `>=4` | {{< X >}} | {{< X >}} | {{< X >}} | + + +### 사용자 Authentication Frameworks 호환성 + +**User Authentication Framework 통합은 다음을 제공합니다.** + +- 사용자 ID를 포함한 사용자 로그인 이벤트 +- Account Takeover 탐지 기능은 사용자 로그인 이벤트를 모니터링합니다. + +| 프레임워크 | 최소 Framework 버전 | +|-----------------|---------------------------| +| passport-local | 1.0.0 | +| passport-http | 0.3.0 | + +[1]: /ko/tracing/trace_collection/compatibility/nodejs/ +[2]: /ko/agent/remote_config/#enabling-remote-configuration +[4]: https://github.com/nodejs/release#release-schedule +[5]: https://github.com/mariadb-corporation/mariadb-connector-nodejs +[28]: https://github.com/datastax/nodejs-driver +[29]: https://github.com/couchbase/couchnode +[30]: https://github.com/elastic/elasticsearch-js +[31]: https://github.com/luin/ioredis +[32]: https://knexjs.org +[33]: https://github.com/3rd-Eden/memcached +[34]: http://mongodb.github.io/node-mongodb-native/core +[35]: https://github.com/mysqljs/mysql +[36]: https://github.com/sidorares/node-mysql2 +[37]: https://oracle.github.io/node-oracledb/ +[38]: https://node-postgres.com +[39]: https://github.com/NodeRedis/node_redis +[40]: https://share.github.io/sharedb/ +[41]: http://tediousjs.github.io/tedious +[42]: https://github.com/sequelize/sequelize +[43]: https://github.com/apollographql/apollo-server +[44]: https://www.npmjs.com/package/apollo-server-core \ No newline at end of file diff --git a/content/ko/security/application_security/software_composition_analysis/setup/_index.md b/content/ko/security/application_security/software_composition_analysis/setup/_index.md index 7af0f7b052ee3..7601c1bd0205e 100644 --- a/content/ko/security/application_security/software_composition_analysis/setup/_index.md +++ b/content/ko/security/application_security/software_composition_analysis/setup/_index.md @@ -109,6 +109,9 @@ SCA는 지원되는 언어에서 `-Ddd.appsec.sca.enabled` 플래그 또는 `DD_ {{< tabs >}} {{% tab "Docker CLI" %}} +`docker run` 명령에 다음 인수를 추가하여 APM에 대한 구성 컨테이너를 업데이트하세요. + + ```shell docker run [...] -e DD_APPSEC_SCA_ENABLED=true [...] ``` diff --git a/content/ko/security/code_security/iast/setup/compatibility/nodejs.md b/content/ko/security/code_security/iast/setup/compatibility/nodejs.md new file mode 100644 index 0000000000000..bc2e80a15a531 --- /dev/null +++ b/content/ko/security/code_security/iast/setup/compatibility/nodejs.md @@ -0,0 +1,181 @@ +--- +code_lang: nodejs +code_lang_weight: 50 +title: Node.js 호환성 요구 사항 +type: multi-code-lang +--- + +## Application Security 기능 + +다음은 특정 트레이서 버전에 대해 Node.js 라이브러리에서 지원되는 애플리케이션 보안 기능입니다. + +| 애플리케이션 보안 기능 | 최소 Node.js 트레이서 버전 | +|----------------------------------------|----------------------------------------------------| +| 위협 탐지 | 4.0.0 | +| Threat Protection | 4.0.0 | +| 차단된 요청에 대한 응답 사용자 지정 | 4.1.0 | +| 소프트웨어 구성 분석(SCA) | 4.0.0 | +| 코드 보안 | Node.js 16+의 경우 4.18.0 또는 Node.js 18+의 경우 5.0.0 | +| 자동 사용자 활동 이벤트 추적 | Node.js 16+용 4.4.0 | +| API Security | Node.js 16+용 4.30.0 또는 Node.js 18+용 5.6.0 | + +Node.js에서 지원되는 모든 애플리케이션 보안 기능을 사용하는 데 필요한 최소 트레이서 버전은 4.30.0입니다. + + +**참고**: +- Threat Protection를 사용하려면 명시된 트레이스 최소 버전에 포함된 [Remote Configuration][2]을 활성화해야 합니다. + +### 지원되는 배포 유형 +| 유형 | 위협 탐지 지원 | 소프트웨어 구성 분석 | +|-------------|--------------------------|-------------------------------| +| 도커(Docker) | {{< X >}} | {{< X >}} | +| Kubernetes | {{< X >}} | {{< X >}} | +| Amazon ECS | {{< X >}} | {{< X >}} | +| AWS Fargate | {{< X >}} | {{< X >}} | +| AWS Lambda | {{< X >}} | {{< X >}} | + +## 언어 및 프레임워크 호환성 + +### Node.js 버전 지원 + +Node.js 프로젝트에서 LTS 주요 릴리스 라인에 대한 지원을 중단하면(서비스 종료 시), 다음 주요 버전인 `dd-trace`의 다음 주요 버전의 해당 릴리스에 대한 지원이 중단됩니다. +`dd-trace` 라이브러리의 마지막 주요 지원 릴리스 라인은 유지 관리 모드 기준으로 최소 1년 동안 해당 EOL 버전의 Node.js를 지원합니다. + +일부 문제는 `dd-trace`에서 해결할 수 없으며, 대신 Node.js에서 해결해야 합니다. 이러한 문제가 발생하고, 문제가 있는 Node.js 릴리스가 EOL인 경우, 다른 비 EOL 릴리스로 전환하지 않고는 문제를 해결할 수 없습니다. +Datadog은 비 LTS Node.js 주요 릴리스 라인(홀수 버전)에 대한 특정 지원을 제공하기 위해 `dd-trace` 새 릴리스를 생성하지 않습니다. + +최상의 지원을 받으려면 항상 최신 LTS 릴리스와 `dd-trace`의 최신 메이저 버전을 실행합니다. 어떤 릴리스 라인을 사용하든 최신 보안 수정 사항이 적용되도록 해당 릴리스 라인의 최신 버전의 Node.js도 사용합니다. + +Node.js 릴리스에 대한 자세한 내용은 [공식 Node.js 문서][4]를 참조하세요. + + + +### 운영 체제 지원 + +다음 운영 체제가 `dd-trace`에서 공식적으로 지원됩니다. 목록에 없는 운영 체제에서도 작동할 수 있지만, 애플리케이션 보안 기능, 프로파일링 및 런타임 메트릭과 같은 일부 기능이 누락될 수 있습니다. 일반적으로 메이저 전이 처음 출시될 때 활발하게 유지 관리되는 운영 체제가 지원됩니다. + + +| 운영 체제 | 아키텍처 | 최소 버전 | +|------------------|---------------|------------------------------------------| +| Linux (glibc) | arm64, x64 | CentOS 7, Debian 9, RHEL 7, Ubuntu 14.04 | +| Linux (musl) | arm64, x64 | Alpine 3.13 | +| macOS | arm64, x64 | Catalina (10.15) | +| 윈도우즈(Windows) | x64 | Windows 8.1, Windows Server 2012 | + + + + + +### 웹 프레임워크 호환성 + +- 공격자 소스 HTTP 요청 세부 정보 +- HTTP 요청 태그(상태 코드, 메소드 등) +- Distributed Tracing으로 애플리케이션을 통한 공격 플로 확인 + +##### Application Security 기능 노트 +- **Software Composition Analysis**는 모든 프레임워크에서 지원됩니다. +- 프레임워크가 하단 목록에 명시되지 않은 경우에도 **Code Security**는 취약한 암호화, 취약한 해싱, 안전하지 않은 쿠키, HttpOnly Flag가 없는 쿠키, SameSite Flag가 없는 쿠키의 취약점을 탐지합니다. + + +| 프레임워크 | 버전 | Threat Detection이 지원되나요? | Threat Protection이 지원되나요? | Code Security? | +|-----------|----------|-----------------------------|------------------------------|----------------------------------------------------| +| express | >=4 | {{< X >}} | {{< X >}} | {{< X >}} | +| nextjs | >=11.1 | {{< X >}} | | | + + + + + +
    지원하지 않는 기능이나 Node.js 프레임워크에 대한 추가 지원이 필요하다면 문의해 주세요. 간단한 양식을 작성하여 세부 사항을 전송해 주시기 바랍니다.
    + + +### 네트워킹 프레임워크 호환성 + + +**네트워킹 추적은 다음을 제공합니다.** + +- 애플리케이션을 통한 Distributed Tracing +- 요청 기반 차단 + +##### Application Security 기능 노트 +- **Software Composition Analysis**는 모든 프레임워크에서 지원됩니다. + + + +| 프레임워크 | Threat Detection이 지원되나요? | Threat Protection이 지원되나요? | Code Security? | +|-----------|-----------------------------|------------------------------|----------------------------------------------------| +| http | {{< X >}} | {{< X >}} | {{< X >}} | +| https | {{< X >}} | {{< X >}} | {{< X >}} | + + +
    원하는 프레임워크가 목록에 없다면 저희에게 알려주세요! 간단한 양식을 작성하여 자세한 내용을 보내주세요.
    + +### 데이터 스토어 호환성 + + +**Datastore 추적은 다음을 제공합니다.** + +- 요청에서 응답까지의 시간 측정 +- 쿼리 정보(예: 보안 처리된(sanitized) 쿼리 문자열) +- 오류 및 스택 트레이스 캡처 + +##### Application Security 기능 노트 +- **Software Composition Analysis**는 모든 프레임워크에서 지원됩니다. +- **Threat Protection**는 HTTP 요청(인풋) 레이어에서도 작동하므로, 아래 표에 명시되지 않은 데이터베이스를 포함한 모든 데이터베이스에서 기본적으로 작동합니다. + + +| 프레임워크 | 버전 | Threat Detection이 지원되나요? | Threat Protection이 지원되나요? | Code Security? | +|--------------------------|-----------|-----------------------------|------------------------------|----------------------------------------------------| +| [@apollo/server][43] | `>=4` | {{< X >}} | {{< X >}} | | +| [apollo-server-core][44] | `>=3` | {{< X >}} | {{< X >}} | | +| [cassandra-driver][28] | `>=3` | {{< X >}} | {{< X >}} | | +| [couchbase][29] | `^2.4.2` | {{< X >}} | {{< X >}} | | +| [elasticsearch][30] | `>=10` | {{< X >}} | {{< X >}} | | +| [ioredis][31] | `>=2` | {{< X >}} | {{< X >}} | | +| [knex][32] | `>=0.8` | {{< X >}} | {{< X >}} | | +| [mariadb][5] | `>=3` | {{< X >}} | {{< X >}} | | +| [memcached][33] | `>=2.2` | {{< X >}} | {{< X >}} | | +| [mongodb-core][34] | `>=2` | {{< X >}} | {{< X >}} | {{< X >}} | +| [mysql][35] | `>=2` | {{< X >}} | {{< X >}} | {{< X >}} | +| [mysql2][36] | `>=1` | {{< X >}} | {{< X >}} | {{< X >}} | +| [oracledb][37] | `>=5` | {{< X >}} | {{< X >}} | | +| [pg][38] | `>=4` | {{< X >}} | {{< X >}} | {{< X >}} | +| [redis][39] | `>=0.12` | {{< X >}} | {{< X >}} | | +| [sharedb][40] | `>=1` | {{< X >}} | {{< X >}} | | +| [tedious][41] | `>=1` | {{< X >}} | {{< X >}} | | +| [sequelize][42] | `>=4` | {{< X >}} | {{< X >}} | {{< X >}} | + + +### 사용자 Authentication Frameworks 호환성 + +**User Authentication Framework 통합은 다음을 제공합니다.** + +- 사용자 ID를 포함한 사용자 로그인 이벤트 +- Account Takeover 탐지 기능은 사용자 로그인 이벤트를 모니터링합니다. + +| 프레임워크 | 최소 Framework 버전 | +|-----------------|---------------------------| +| passport-local | 1.0.0 | +| passport-http | 0.3.0 | + +[1]: /ko/tracing/trace_collection/compatibility/nodejs/ +[2]: /ko/tracing/guide/remote_config/ +[4]: https://github.com/nodejs/release#release-schedule +[5]: https://github.com/mariadb-corporation/mariadb-connector-nodejs +[28]: https://github.com/datastax/nodejs-driver +[29]: https://github.com/couchbase/couchnode +[30]: https://github.com/elastic/elasticsearch-js +[31]: https://github.com/luin/ioredis +[32]: https://knexjs.org +[33]: https://github.com/3rd-Eden/memcached +[34]: https://www.mongodb.com/docs/drivers/node/current/ +[35]: https://github.com/mysqljs/mysql +[36]: https://github.com/sidorares/node-mysql2 +[37]: https://oracle.github.io/node-oracledb/ +[38]: https://node-postgres.com +[39]: https://github.com/NodeRedis/node_redis +[40]: https://share.github.io/sharedb/ +[41]: http://tediousjs.github.io/tedious +[42]: https://github.com/sequelize/sequelize +[43]: https://github.com/apollographql/apollo-server +[44]: https://www.npmjs.com/package/apollo-server-core \ No newline at end of file diff --git a/content/ko/service_management/incident_management/investigate/_index.md b/content/ko/service_management/incident_management/investigate/_index.md new file mode 100644 index 0000000000000..8a5006406af63 --- /dev/null +++ b/content/ko/service_management/incident_management/investigate/_index.md @@ -0,0 +1,82 @@ +--- +aliases: +- /ko/monitors/incident_management/incident_details +- /ko/service_management/incident_management/incident_details +description: 인시던트의 설정 및 작업을 관리합니다 +further_reading: +- link: /service_management/incident_management/declare + tag: 설명서 + text: 인시던트 선언 +- link: /service_management/incident_management/describe + tag: 설명서 + text: 인시던트 설명 +title: 인시던트 조사 +--- + +## 개요 + +{{< img src="/service_management/incidents/investigate/incidents_overview_tab.png" alt="Overview 탭 - 인시던트 상세 뷰 예시" style="width:100%;" >}} + +효과적인 인시던트 조사는 인시던트를 식별하고 분류하는 것부터 시작하며, 포괄적인 데이터를 수집하여 상세한 인시던트 타임라인을 구축합니다. Datadog Incident Details 페이지는 실시간 모니터링, 조사, 문제 해결, 협업, 분석을 한 곳에서 할 수 있는 중앙화된 플랫폼을 제공하여 인시던트 조사에 도움을 줍니다. 대응 담당자는 동적 대시보드와 대화형 타임라인을 통해 인시던트 데이터와 패턴을 시각화할 수 있습니다. 인시던트 세부 정보를 활용하면 다음과 같은 작업을 할 수 있습니다. + +- 원인을 파악하고 영향을 효율적으로 평가할 수 있도록 실시간으로 데이터를 집계하고 표시합니다. +- 팀 협업 기능을 활용하여 소통하고, 진행 상황을 추적하며, 문제 해결 작업을 조율할 수 있습니다. +- 다양한 뷰를 전환하며 영향을 받은 서비스와 종속성을 탐색하여 철저하게 문제를 조사하고 해결할 수 있습니다. + +## 인시던트 상세 정보 + +Datadog의 모든 인시던트에는 속성 필드, 신호, 작업, 문서, 대응자, 알림을 관리할 수 있는 자체 Incident Details 페이지가 있습니다. Incident Details 페이지에는 주요 작업에 빠르게 액세스할 수 있는 글로벌 헤더가 포함되어 있습니다. 페이지의 나머지 부분은 관련 인시던트 데이터를 그룹화하는 탭 섹션으로 나뉩니다. + +### 글로벌 헤더 + +글로벌 헤더로 [Status and Severity][1] 선택기와 [Incident Integrations][2] 링크에 액세스할 수 있습니다. 모든 새 인시던트에 Slack 및 Microsoft Teams 자동 링크를 구성하는 방법은 [인시던트 설정][3] 문서를 참고하세요. + +인시던트가 해결되면 헤더에 [사후 분석 템플릿][4]을 사용하여 사후 분석 Notebook을 생성하는 옵션이 나타납니다. 앱에서 사후 분석 템플릿을 구성하려면 [Incident Settings][5] 페이지로 이동하여 사후 분석의 구조와 내용을 정의하세요. + +### Overview 탭 + +Overview 탭은 인시던트의 속성을 확인하고 고객에게 미치는 영향을 정의하는 기본 페이지 역할을 합니다. 기본적으로 Root Cause, Services, Teams, Detection Method, Summary 등의 속성이 포함되어 있습니다. 이러한 속성은 What Happened, Why it Happened, Attributes 섹션으로 분류됩니다. + +Datadog 메트릭 태그의 `:` 쌍을 사용하여 더 많은 속성 필드를 추가하거나 [Incident Settings][6]을 통해 사용자 지정 필드를 생성하세요. 이러한 속성에 값을 할당하여 Incident Homepage 및 Incident Management Analytics에서 검색 및 쿼리를 개선할 수 있습니다. 중요 정보의 우선순위를 지정하려면 속성 필드를 재정렬하고 다양한 제목 아래로 이동할 수 있습니다. + +고객에게 영향을 미치는 인시던트는 **Impacts** 섹션에 영향 세부 내용을 추가하여 명시합니다. + +{{< img src="/service_management/incidents/investigate/incident_details_impacts.png" alt="이미지 설명" style="width:90%;" >}} + +1. **Add**를 클릭합니다. +2. 영향이 시작된 날짜와 시간을 지정합니다. +3. 영향이 계속되는 경우 종료 날짜와 시간을 비워 두고 종료된 경우 날짜 및 시간을 지정합니다. +4. `Scope of impact`에는 고객에게 미치는 영향의 특성을 입력합니다. +5. **Save**을 클릭합니다. + +Overview 탭은 속성 필드를 보관하는 것 외에도 다음과 같은 간략한 요약 모듈을 제공합니다. + +| 요약 모듈 | 설명 | +|-------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------| +| 요약된 타임라인(Condensed Timeline) | 인시던트 상태가 변경된 타임스탬프와 영향이 시작되고 종료된 시간을 표시합니다. 이를 통해 인시던트의 수명 주기를 간략하게 파악할 수 있습니다. | +| 최신 알림(Latest Notifications)| [Notification 탭][7]에서 전체 알림 목록에 빠르게 액세스할 수 있으며, 인시던트와 관련해 가장 최근에 전송된 알림을 표시합니다.| +| 보류 중인 작업(Pending Tasks) | 가장 최근의 미완료 작업을 표시하며, Remediation 탭에서 전체 작업 목록에 빠르게 액세스할 수 있습니다. | +| 대응자(Responders) | 현재 인시던트 커맨더와 인시던트에 할당된 다른 대응자의 아바타를 표시합니다. | +| 최근 타임라인 항목(Recent Timeline Entries) | 인시던트 타임라인에서 가장 최근 항목 5개를 표시하며, Timeline 탭 전체를 빠르게 볼 수 있습니다. 자세한 내용은 [타임라인][8] 문서를 참고하세요. | + +## 추가 조사 도구 + +인시던트를 등록한 후, 대응자는 Incident Details 페이지를 활용하여 사용 가능한 정보를 적용함으로써 인시던트를 설명하고 분석할 수 있습니다. + +{{< whatsnext desc="다른 조사 도구에 관해 자세히 알아보려면 다음 페이지를 참고하세요:">}} + {{< nextlink href="/service_management/incident_management/investigate/timeline" >}}타임라인: 인시던트 발생 전후의 이벤트 순서를 추적합니다. 시각화 자료와 시간 기반 데이터를 활용하여 이벤트의 시간적 순서와 영향을 이해할 수 있습니다. +{{< /nextlink >}} +{{< /whatsnext >}} + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ko/service_management/incident_management/describe/#incident-details +[2]: /ko/service_management/incident_management/#integrations +[3]: /ko/service_management/incident_management/incident_settings#integrations +[4]: /ko/service_management/incident_management/incident_settings/templates#postmortems +[5]: https://app.datadoghq.com/incidents/settings#Postmortems +[6]: /ko/service_management/incident_management/incident_settings/property_fields +[7]: /ko/service_management/incident_management/notification/ +[8]: /ko/service_management/incident_management/investigate/timeline \ No newline at end of file diff --git a/content/ko/service_management/incident_management/investigate/timeline.md b/content/ko/service_management/incident_management/investigate/timeline.md new file mode 100644 index 0000000000000..983a96da9d225 --- /dev/null +++ b/content/ko/service_management/incident_management/investigate/timeline.md @@ -0,0 +1,59 @@ +--- +further_reading: +- link: /service_management/incident_management/investigate/ + tag: 설명서 + text: 인시던트 조사 +title: 타임라인 +--- + +## 개요 + +{{< img src="/service_management/incidents/investigate/timeline/timeline_tab.png" alt="Timeline 탭을 보여주는 인시던트 예시" style="width:100%;" >}} + +Incident Timeline은 인시던트 발생 시에 실행된 작업의 주요 정보 출처입니다. 작업이 실행됨에 따라 변경 사항, 변경 담당자, 변경 시간을 기록하기 위해 타임라인에 시간순으로 새로운 셀이 추가됩니다. + +기본적으로 타임라인 셀은 `oldest first` 순서대로 정렬되지만 타임라인 상단에 있는 버튼을 사용하여 `newest first`로 변경할 수 있습니다. + +## 콘텐츠 유형 + +각 셀에는 셀이 포함하는 정보의 종류를 나타내는 고유한 콘텐츠 유형이 있습니다. + +| 콘텐츠 유형 | 설명 | +| ------------------ | ------------------------------------------------------------------------------------------------------ | +| 응답자 메모 | 인시던트 대응자가 직접 작성한 메모입니다. 대응자 메모에는 다음과 같은 하위 유형이 있습니다:
    - *Graph*: 대응자 메모에는 하나 이상의 Datadog 그래프가 포함됩니다
    - *Link*: 대응자 메모에는 하이퍼링크가 포함됩니다
    - *Code*: 대응자 메모에는 코드 블록의 Markdown 구문으로 묶인 텍스트가 포함됩니다. +| 인시던트 업데이트 | 인시던트의 속성(상태 및 심각도 포함) 또는 그 영향에 관한 변경 사항. +| 통합 업데이트 | Incident Management 제품의 [통합][1]을 통해 변경된 사항. +| 작업 | Incident Details 페이지의 Remediation 섹션에서 인시던트 작업에 관한 변경 사항. +| 전송된 알림 | 인시던트 대응자가 수동 알림을 보낼 때의 업데이트. + +### 응답자 메모 + +Incident Details 페이지의 섹션 탭 아래에 있는 텍스트 상자를 사용하여 타임라인에 직접 응답자 메모를 추가할 수 있습니다. 또는 [Slack에서 타임라인][2]에 응답자 메모를 추가할 수도 있습니다. 응답자 메모 생성 시 타임스탬프를 사용자 지정하여 타임라인의 시간 순서대로 이전 시점에 관련되었던 중요한 정보를 확인할 수 있습니다. + +작성한 응답자 메모의 내용이나 타임스탬프를 편집하거나 완전히 삭제할 수 있습니다. 또한 특정 셀의 링크를 복사하여 팀원과 공유할 수도 있습니다. + +### 그래프 셀 + +그래프 정의는 [Organization Settings][3]에서 활성화된 경우 그래프 공유 URL을 통해 저장됩니다. 그래프 셀이 타임라인에 추가된 후 24시간 동안은 Dashboards, Notebooks, 기타 페이지에서 볼 수 있는 것과 동일한 대화형 호버 상태가 유지됩니다. 타임라인에서 24시간이 지나면 그래프는 그래프가 표시하던 내용을 캡처한 정적 이미지로 대체됩니다. 데이터 보존 기간이 짧은 그래프의 경우, 그래프의 실시간 데이터가 만료된 후에도 백업을 볼 수 있도록 하기 위한 것입니다. + +### 이미지 + +Datadog에서 호스팅할 이미지를 업로드하려면 타임라인 위의 텍스트 상자 필드에 이미지 파일을 끌어다 놓으세요. 그러면 이미지가 타임라인에 개별 셀로 추가됩니다. + +또는 기존 셀에 이미지를 추가할 수도 있습니다. +{{< img src="/service_management/incidents/investigate/timeline/timeline_cell_add_image.png" alt="이미지 설명" style="width:100%;" >}} +1. 셀을 편집하려면 연필 아이콘을 클릭합니다. +2. 이미지 아이콘을 클릭하고 파일 디렉터리에서 이미지를 찾습니다. +3. 다음 옵션을 사용하여 Datadog에서 호스팅할 이미지를 업로드할 수 있습니다. + * 업로드 영역에 이미지 파일을 끌어다 놓습니다. + * **Choose File**을 클릭하고 파일 디렉터리에서 이미지를 찾습니다. + * 공개적으로 접근 가능한 이미지의 URL을 붙여넣습니다. + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + + +[1]: /ko/service_management/incident_management/#integrations +[2]: /ko/integrations/slack/?tab=slackapplicationus#using-datadog-incidents +[3]: https://app.datadoghq.com/organization-settings/public-sharing/settings \ No newline at end of file diff --git a/content/ko/tests/test_impact_analysis/setup/javascript.md b/content/ko/tests/test_impact_analysis/setup/javascript.md new file mode 100644 index 0000000000000..d139dc739262b --- /dev/null +++ b/content/ko/tests/test_impact_analysis/setup/javascript.md @@ -0,0 +1,198 @@ +--- +aliases: +- /ko/continuous_integration/intelligent_test_runner/javascript/ +- /ko/continuous_integration/intelligent_test_runner/setup/javascript/ +- /ko/intelligent_test_runner/setup/javascript +code_lang: 자바스크립트(Javascript) +code_lang_weight: 20 +further_reading: +- link: /continuous_integration/tests + tag: 설명서 + text: 테스트 결과 및 성능 탐색 +- link: /continuous_integration/troubleshooting/ + tag: 설명서 + text: CI Visibility 문제 해결 +title: JavaScript 및 TypeScript용 Test Impact Analysis +type: multi-code-lang +--- + +## 개요 + +JavaScript용 Test Impact Analysis는 개별 테스트가 아닌 전체 _테스트 모음_(테스트 파일)을 건너뜁니다. + + +## 호환성 + +Test Impact Analysis는 다음 버전 및 테스트 프레임워크에서만 지원됩니다. + +* `jest>=24.8.0` + * `dd-trace>=4.17.0` 또는 `dd-trace>=3.38.0` 에서 확인하세요. + * `testRunner`으로 `jest-circus/runner`만 지원됩니다. + * `jsdom` 및 `node`만 테스트 환경으로 지원됩니다. +* `mocha>=5.2.0` + * `dd-trace>=4.17.0` 또는 `dd-trace>=3.38.0` 에서 확인하세요. + * `nyc`][1]로 mocha를 실행하여 코드 검사를 활성화합니다. +* `cucumber-js>=7.0.0` + * `dd-trace>=4.17.0` 또는 `dd-trace>=3.38.0` 에서 확인하세요. + * [`nyc`][1]와 함께 cucumber-js를 실행하여 코드 적용 범위를 활성화합니다. +* `cypress>=6.7.0` + * `dd-trace>=4.17.0` 또는 `dd-trace>=3.38.0` 에서 확인하세요. + * [코드 지원 범위][2]를 사용하여 웹 애플리케이션을 계측할 수 있습니다. + +## 설정 + +### 테스트 최적화 + +Test Impact Analysis를 설정하기 전에 [JavaScript 및 TypeScript용 Test Optimization][3]을 설정하세요. Agent를 통해 데이터를 보고하는 경우 v6.40 이상 또는 v7.40 이상을 사용하세요. + +{{% ci-itr-activation-instructions %}} + +## 활성화된 Test Impact Analysis로 테스트 실행 + +{{< tabs >}} + +{{% tab "온-프레미스 CI 공급자(Datadog Agent)" %}} + +설정이 완료되면 평소처럼 테스트를 실행합니다. + +{{< code-block lang="shell" >}} +NODE_OPTIONS="-r dd-trace/ci/init" DD_ENV=ci DD_SERVICE=my-javascript-app yarn test +{{< /code-block >}} + +{{% /tab %}} + +{{% tab "클라우드 CI 공급자 (에이전트리스)" %}} + +설정이 완료되면 평소처럼 테스트를 실행합니다. + +{{< code-block lang="shell" >}} +NODE_OPTIONS="-r dd-trace/ci/init" DD_ENV=ci DD_SERVICE=my-javascript-app DD_CIVISIBILITY_AGENTLESS_ENABLED=true DD_API_KEY=$DD_API_KEY yarn test +{{< /code-block >}} + +{{% /tab %}} +{{< /tabs >}} + +### Cypress + +Cypress에서 Test Impact Analysis를 사용하려면 웹 애플리케이션에 코드 커버리지를 적용해야 합니다. 코드 커버리지 활성화에 대한 자세한 내용은 [Cypress 문서][2]를 참고하세요. + +코드 커버리지가 성공적으로 활성화되었는지 확인하려면 Cypress를 사용하여 웹 앱으로 이동한 후 `window.__coverage__` 전역 변수를 확인하세요. `dd-trace`는 이 변수를 사용하여 Test Impact Analysis용 코드 커버리지를 수집합니다. + +## 일관성 없는 테스트 기간 + +`jest`와 같은 일부 프레임워크에는 다른 테스트가 실행된 후 테스트 속도를 높이는 캐시 메커니즘이 있습니다([jest 캐시][4] 문서 참고). Test Impact Analysis에서 일부 테스트 파일을 제외한 모든 테스트 파일을 건너뛰는 경우, 이러한 테스트 모음은 콜드 캐시에서 실행되므로 평소보다 시간이 걸릴 수 있지만, 테스트 명령의 총 실행 시간은 여전히 감소합니다. + +## 특정 테스트에 대한 건너뛰기 비활성화 + +Test Impact Analysis를 재정의하여 특정 테스트를 건너뛰지 않도록 할 수 있습니다. 이러한 테스트를 '건너뛸 수 없는 테스트'라고 합니다. + +### 테스트 건너뛸 수 없는 이유는 무엇인가요? + +Test Impact Analysis는 코드 커버리지 데이터를 사용하여 테스트를 건너뛸지 여부를 결정합니다. 경우에 따라 이 데이터만으로는 결정을 내리기에 충분하지 않을 수 있습니다. + +예를 들면 다음과 같습니다: + +* 텍스트 파일에서 데이터를 읽는 테스트 +* 테스트 중인 코드 외부의 API와 상호 작용하는 테스트(예: 원격 REST API) + +테스트를 건너뛸 수 없도록 지정하면 Test Impact Analysis에서 커버리지 데이터와 관계없이 테스트를 실행합니다. + +### 테스트를 unskippable(건너뛸 수 없음)로 표시 + +{{< tabs >}} +{{% tab "Jest/Mocha/Cypress" %}} +테스트 파일 상단에 다음 docblock을 사용하여 테스트 모음을 unskippable(건너뛸 수 없음)로 표시할 수 있습니다. 이렇게 하면 테스트 파일에 정의된 테스트가 Test Impact Analysis로 인해 건너뛰는 것을 방지할 수 있습니다. 이는 jest의 [`testEnvironmentOptions`][1]와 유사합니다. + +```javascript +/** + * @datadog {"unskippable": true} + */ + +describe('context', () => { + it('can sum', () => { + expect(1 + 2).to.equal(3) + }) +}) +``` + +[1]: https://jestjs.io/docs/configuration#testenvironmentoptions-object +{{% /tab %}} +{{% tab "Cucumber" %}} +기능 파일에서 `@datadog:unskippable` [태그][1]을 사용하여 unskippable(건너뛸 수 없음)로 표시할 수 있습니다. 이렇게 하면 기능 파일에 정의된 시나리오가 Test Impact Analysis로 인해 건너뛰는 것을 방지할 수 있습니다. + +``` +@datadog:unskippable +Feature: Greetings + Scenario: Say greetings + When the greeter says greetings + Then I should have heard "greetings" +``` +[1]: https://cucumber.io/docs/cucumber/api/?lang=javascript#tags +{{% /tab %}} +{{< /tabs >}} + +### 건너뛸 수 없는 테스트의 예 + +이 섹션은 unskippable(건너뛸 수 없음)로 표시해야 하는 테스트의 몇 가지 예를 보여줍니다. + +#### 고정 장치에 의존하는 테스트 +```javascript +/** + * We have a `payload.json` fixture file in `./fixtures/payload` + * that is processed by `processPayload` and put into a snapshot. + * Changes in `payload.json` do not affect the test code coverage but can + * make the test fail. + */ + +/** + * @datadog {"unskippable": true} + */ +import processPayload from './process-payload'; +import payload from './fixtures/payload'; + +it('can process payload', () => { + expect(processPayload(payload)).toMatchSnapshot(); +}); +``` + +#### 외부와 통신하는 테스트 서비스 +```javascript +/** + * We query an external service running outside the context of + * the test. + * Changes in this external service do not affect the test code coverage + * but can make the test fail. + */ + +/** + * @datadog {"unskippable": true} + */ +it('can query data', (done) => { + fetch('https://www.external-service.com/path') + .then((res) => res.json()) + .then((json) => { + expect(json.data[0]).toEqual('value'); + done(); + }); +}); +``` + +``` +# Same way as above we're requesting an external service + +@datadog:unskippable +Feature: Process the payload + Scenario: Server responds correctly + When the server responds correctly + Then I should have received "value" +``` + + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://www.npmjs.com/package/nyc +[2]: https://docs.cypress.io/guides/tooling/code-coverage#Instrumenting-code +[3]: /ko/continuous_integration/tests/javascript +[4]: https://jestjs.io/docs/cli#--cache \ No newline at end of file diff --git a/content/ko/tests/test_impact_analysis/setup/python.md b/content/ko/tests/test_impact_analysis/setup/python.md new file mode 100644 index 0000000000000..26cc2ccdb8cc9 --- /dev/null +++ b/content/ko/tests/test_impact_analysis/setup/python.md @@ -0,0 +1,223 @@ +--- +aliases: +- /ko/continuous_integration/intelligent_test_runner/python/ +- /ko/continuous_integration/intelligent_test_runner/setup/python/ +- /ko/intelligent_test_runner/setup/python +code_lang: python +code_lang_weight: 30 +further_reading: +- link: /continuous_integration/tests + tag: 설명서 + text: 테스트 결과 및 성능 탐색 +- link: /continuous_integration/troubleshooting/ + tag: 설명서 + text: CI Visibility 문제 해결 +title: Python용 Test Impact Analysis +type: multi-code-lang +--- + +## 호환성 + +Test Impact Analysis는 다음 버전 및 테스트 프레임워크에서만 지원됩니다. + +* `pytest>=7.2.0` + * `ddtrace>=2.1.0`부터. + * `Python>=3.7`부터. + * `coverage>=5.5` 필수. + * `pytest-cov`와 호환되지 않음([알려진 제한 사항](#known-limitations) 참고) +* `unittest` + * `ddtrace>=2.2.0`부터. + * `Python>=3.7`부터. +* `coverage` + * 커버리지 수집과 호환되지 않음([알려진 제한 사항](#known-limitations) 참고) + +## 설정 + +### 테스트 최적화 + +Test Impact Analysis를 설정하기 전에 [Python용 Test Optimization][1]을 설정하세요. Agent를 통해 데이터를 보고하는 경우 v6.40 이상 또는 v7.40 이상을 사용하세요. + +{{% ci-itr-activation-instructions %}} + +### 필수 종속 항목 + +Test Impact Analysis에는 [`coverage` 패키지][2]가 필요합니다. + +예를 들어 CI 테스트 환경에 패키지를 설치하려면 관련 요구 사항 파일에 패키지를 지정하거나 `pip`를 사용하세요. + +{{< code-block lang="shell" >}} +pip install coverage +{{< /code-block >}} + +이미 `coverage` 패키지나 플러그인(예: `pytest-cov`)을 사용하고 있다면 [알려진 제한 사항](#known-limitations)을 참고하세요. + +## 활성화된 Test Impact Analysis로 테스트 실행 + +Datadog 통합을 활성화한 상태에서 테스트를 실행하면 Test Impact Analysis가 활성화됩니다. 다음 명령으로 테스트를 실행하세요. + +{{< tabs >}} + +{{% tab "Pytest" %}} + +{{< code-block lang="shell" >}} +DD_ENV=ci DD_SERVICE=my-python-app pytest --ddtrace +{{< /code-block >}} + +{{% /tab %}} + +{{% tab "Unittest" %}} + +{{< code-block lang="shell" >}} +DD_ENV=ci DD_SERVICE=my-python-app ddtrace-run python -m unittest +{{< /code-block >}} + +{{% /tab %}} + +{{< /tabs >}} + +### Test Impact Analysis 일시적 비활성화 + +`DD_CIVISIBILITY_ITR_ENABLED` 환경 변수를 `false` 또는 `0`으로 설정하여 Test Impact Analysis를 로컬 환경에서 비활성화할 수 있습니다. + +`DD_CIVISIBILITY_ITR_ENABLED`(선택 사항) +: Test Impact Analysis 커버리지 및 테스트 건너뛰기 기능 활성화
    +**기본값**: `(true)` + +Test Impact Analysis를 비활성화하려면 다음 명령을 실행하세요. + +{{< tabs >}} + +{{% tab "Pytest" %}} + +{{< code-block lang="shell" >}} +DD_ENV=ci DD_SERVICE=my-python-app DD_CIVISIBILITY_ITR_ENABLED=false pytest --ddtrace +{{< /code-block >}} + +{{% /tab %}} + +{{% tab "Unittest" %}} + +{{< code-block lang="shell" >}} +DD_ENV=ci DD_SERVICE=my-python-app DD_CIVISIBILITY_ITR_ENABLED=false ddtrace-run python -m unittest +{{< /code-block >}} + +{{% /tab %}} + +{{< /tabs >}} + +## 특정 테스트에 대한 건너뛰기 비활성화 + +Test Impact Analysis 동작을 재정의하여 특정 테스트를 건너뛰지 않도록 할 수 있습니다. 이러한 테스트를 '건너뛸 수 없는 테스트'라고 합니다. + +### 테스트 건너뛸 수 없는 이유는 무엇인가요? + +Test Impact Analysis는 코드 커버리지 데이터를 사용하여 테스트를 건너뛸지 여부를 결정합니다. 경우에 따라 이 데이터만으로는 결정을 내리기에 충분하지 않을 수 있습니다. + +예를 들면 다음과 같습니다: + +* 텍스트 파일에서 데이터를 읽는 테스트 +* 테스트 중인 코드 외부의 API와 상호 작용하는 테스트(예: 원격 REST API) + +테스트를 건너뛸 수 없도록 지정하면 Test Impact Analysis에서 커버리지 데이터와 관계없이 테스트를 실행합니다. + + +{{< tabs >}} + +{{% tab "Pytest" %}} + +### 호환성 + +다음 버전에서는 건너뛸 수 없는 테스트가 지원됩니다. + +* `pytest` + * `ddtrace>=1.19.0`부터. + +### 테스트를 unskippable(건너뛸 수 없음)로 표시 + +[`pytest`][1]의 [`skipif` 표시][2]를 사용하면 Test Impact Analysis에서 개별 테스트나 모듈을 건너뛰지 않도록 할 수 있습니다. `condition`을 `False`로, `reason`을 `"datadog_itr_unskippable"`로 지정하세요. + +#### 개별 테스트 + +다음과 같이 `@pytest.mark.skipif` 데코레이터를 사용하여 개별 테스트를 건너뛸 수 없음으로 표시할 수 있습니다. +```python +import pytest + +@pytest.mark.skipif(False, reason="datadog_itr_unskippable") +def test_function(): + assert True +``` +#### 모듈 + +다음과 같이 [`pytestmark` 전역 변수][3]를 사용하여 모듈을 건너뛸 수 있습니다. +```python +import pytest + +pytestmark = pytest.mark.skipif(False, reason="datadog_itr_unskippable") + +def test_function(): + assert True +``` + +**참고**: 이는 다른 `skip` 표시나 `condition`이 `True`인 `skipif` 표시를 덮어쓰지 않습니다. + +[1]: https://pytest.org/ +[2]: https://docs.pytest.org/en/latest/reference/reference.html#pytest-mark-skipif-ref +[3]: https://docs.pytest.org/en/latest/reference/reference.html#globalvar-pytestmark + +{{% /tab %}} + +{{% tab "Unittest" %}} + +### 호환성 + +다음 버전에서는 건너뛸 수 없는 테스트가 지원됩니다. + +* `unittest` + * `ddtrace>=2.2.0`부터. + +### `unittest`에서 테스트를 unskippable(건너뛸 수 없음)로 표시 + +[`unittest`][1]의 [`skipif` 표시][2]를 사용하면 Test Impact Analysis에서 개별 테스트를 건너뛰지 않도록 할 수 있습니다. `condition`을 `False`로, `reason`을 `"datadog_itr_unskippable"`로 지정하세요. + +#### 개별 테스트 + +다음과 같이 `@unittest.skipif` 데코레이터를 사용하여 개별 테스트를 건너뛸 수 없음으로 표시할 수 있습니다. +```python +import unittest + +class MyTestCase(unittest.TestCase): + @unittest.skipIf(False, reason="datadog_itr_unskippable") + def test_function(self): + assert True +``` + + +`@unittest.skipif`를 사용하면 다른 `skip` 표시나, `condition` 값이 `True`인 `skipIf` 표시를 덮어쓰지 않습니다. + +[1]: https://docs.python.org/3/library/unittest.html +[2]: https://docs.python.org/3/library/unittest.html#unittest.skipIf + +{{% /tab %}} + +{{< /tabs >}} + +## 알려진 제한사항 + +### 코드 커버리지 수집 + +#### 커버리지 툴과의 상호작용 + +Test Impact Analysis가 활성화된 경우 커버리지 데이터가 불완전하게 표시될 수 있습니다. 평소 테스트로 커버되는 코드 줄은 이 테스트가 건너뛰어지면 커버되지 않습니다. + +#### 커버리지 패키지와의 상호 작용 + +Test Impact Analysis는 [`coverage`][2] 패키지의 API를 사용하여 코드 커버리지를 수집합니다. `ddtrace`의 `Coverage` 클래스 사용으로 인해 `coverage run` 또는 `pytest-cov`와 같은 플러그인의 데이터가 불완전합니다. + +테스트 실행 순서를 변경하거나 병렬화를 도입하는 `pytest-xdist`와 같은 `pytest` 플러그인을 사용할 때 일부 경쟁 조건으로 인해 예외가 발생할 수 있습니다. + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ko/continuous_integration/tests/python +[2]: https://pypi.org/project/coverage/ \ No newline at end of file diff --git a/content/ko/tracing/guide/tutorial-enable-java-aws-ecs-fargate.md b/content/ko/tracing/guide/tutorial-enable-java-aws-ecs-fargate.md index e62ad7c0f3bbc..e6c20f6a32bea 100644 --- a/content/ko/tracing/guide/tutorial-enable-java-aws-ecs-fargate.md +++ b/content/ko/tracing/guide/tutorial-enable-java-aws-ecs-fargate.md @@ -173,7 +173,7 @@ terraform destroy{{< /code-block >}} 이제 두 서비스 모두에서 자동 계측을 사용할 수 있습니다. -
    참고: 이 샘플 명령의 플래그, 특히 샘플 속도는 이 튜토리얼이 적용되지 않은 환경에는 적합하지 않을 수 있습니다. 실제 환경에서 어떤 플래그를 사용해야 하는지 살펴보려면 추적 설정을 참고하세요.
    +
    이 샘플 명령의 플래그, 특히 샘플 속도는 이 튜토리얼이 적용되지 않은 환경에는 적합하지 않을 수 있습니다. 실제 환경에서 어떤 플래그를 사용해야 하는지 살펴보려면 추적 설정을 참고하세요
    . 3. 자동 계측은 편리하지만, 때로는 더 세분화된 스팬이 필요할 수 있습니다. Datadog의 Java DD Trace API를 사용하면 어노테이션이나 코드를 사용하여 코드 내에서 스팬을 지정할 수 있습니다. 코드에 어노테이션을 추가하여 샘플 메서드를 추적해 보세요. diff --git a/content/ko/tracing/trace_collection/custom_instrumentation/cpp/dd-api.md b/content/ko/tracing/trace_collection/custom_instrumentation/cpp/dd-api.md new file mode 100644 index 0000000000000..ad97d1ef12bac --- /dev/null +++ b/content/ko/tracing/trace_collection/custom_instrumentation/cpp/dd-api.md @@ -0,0 +1,151 @@ +--- +aliases: +- /ko/tracing/manual_instrumentation/cpp +- /ko/tracing/custom_instrumentation/cpp +- /ko/tracing/setup_overview/custom_instrumentation/cpp +- /ko/tracing/trace_collection/custom_instrumentation/cpp +- /ko/tracing/trace_collection/custom_instrumentation/dd_libraries/cpp +description: C++ 애플리케이션을 수동으로 계측하여 Datadog에 커스텀 트레이스를 전송하세요. +further_reading: +- link: 추적/연결_로그_및_트레이스 + tag: 설명서 + text: 로그 및 트레이스를 서로 연결 +- link: tracing/visualization/ + tag: 설명서 + text: 서비스, 리소스, 트레이스 탐색 +title: Datadog API를 사용한 C++ 사용자 정의 계측 +--- + +
    +아직 설정 가이드를 확인하지 않았다면 C++ 설정 가이드부터 확인해 보세요. +
    + +## 스팬(span) 생성하기 + +메서드를 수동으로 계측하는 방법: + +```cpp +{ + // 현재 요청의 루트 스팬을 생성합니다. + auto root_span = tracer.create_span(); + root_span.set_name("get_ingredients"); + // 루트 스팬의 리소스 이름을 설정합니다. + root_span.set_resource_name("bologna_sandwich"); + // 루트 스팬을 부모로 하는 자식 스팬을 생성합니다. + auto child_span = root_span.create_child(); + child_span.set_name("cache_lookup"); + // 자식 스팬의 리소스 이름을 설정합니다. + child_span.set_resource_name("ingredients.bologna_sandwich"); + // 스팬은 명확한 시간에 완료될 수 있습니다... + child_span.set_end_time(std::chrono::steady_clock::now()); +} // ... 또는 소멸자가 호출될 때 자동으로 완료될 수 있습니다. + // 예를 들어, root_span은 여기서 완료됩니다. +``` + +## 태그 추가 + +Datadog 내에서 옵저버빌리티 기능을 맞춤 설정하려면 [스팬][2]에 사용자 지정 [스팬 태그][1]를 추가하세요. 스팬 태그는 수신 트레이스에 적용되어 관찰된 동작을 가맹점 등급, 결제 금액, 사용자 ID와 같은 코드 수준 정보와 연결 지을 수 있습니다. + +일부 Datadog 태그는 [통합 서비스 태깅][3]에 필요합니다. + +{{< tabs >}} + +{{% tab "지역적" %}} + +### 수동 + +`Span::set_tag`를 호출하여 스팬 객체에 직접 태그를 추가합니다. 예: + +```cpp +// `Span::set_tag`를 호출하여 스팬에 직접 태그를 추가합니다. +auto span = tracer.create_span(); +span.set_tag("key must be string", "value must also be a string"); + +// 또는 `SpanConfig`를 설정하여 태그를 추가합니다. +datadog::tracing::SpanConfig opts; +opts.tags.emplace("team", "apm-proxy"); +auto span2 = tracer.create_span(opts); +``` + +{{% /tab %}} + +{{% tab "전역적" %}} + +### 환경 변수 + +모든 스팬에 걸쳐 태그를 설정하려면 `DD_TAGS` 환경 변수를 쉼표로 구분된 `key:value` 쌍 목록으로 설정합니다. + +``` +export DD_TAGS=team:apm-proxy,key:value +``` + +### 수동 + +```cpp +datadog::tracing::TracerConfig tracer_config; +tracer_config.tags = { + {"team", "apm-proxy"}, + {"apply", "on all spans"} +}; + +const auto validated_config = datadog::tracing::finalize_config(tracer_config); +auto tracer = datadog::tracing::Tracer(*validated_config); + +// 모든 새로운 스팬에는 `tracer_config.tags`에 정의된 태그가 포함됩니다. +auto span = tracer.create_span(); +``` + +{{% /tab %}} + +{{< /tabs >}} + +### 스팬에 대한 오류 설정 + +스팬을 오류와 연결하려면 스팬에 하나 이상의 오류 관련 태그를 설정하세요. +예: + +```cpp +span.set_error(true); +``` + +`error.message`, `error.stack`, `error.type`를 조합하고 각각 `Span::set_error_message`, `Span::set_error_stack`, `Span::set_error_type`를 사용하여 오류에 관한 구체적인 정보를 추가할 수 있습니다. 오류 태그에 관한 자세한 내용은 [오류 추적][4]을 참고하세요. + +오류 태그 조합을 추가하는 예: + +```cpp +// 이 스팬을 표준 라이브러리에서 발생하는 +// "bad file descriptor" 오류와 연결합니다. +span.set_error_message("error"); +span.set_error_stack("[EBADF] invalid file"); +span.set_error_type("errno"); +``` + +
    +`Span::set_error_*` 중 하나를 사용하면 기본적으로 `Span::set_error(true)`가 호출됩니다. +
    + +스팬에서 오류를 해제하려면 , `Span::set_error_stack`, `Span::set_error_type`, `Span::set_error_message` 조합을 제거하기 위해 `Span::set_error`를 `false`로 설정합니다. + +```cpp +// 이 스팬과 관련된 모든 오류 정보를 지웁니다. +span.set_error(false); +``` + +## 헤더를 추출 및 삽입하여 컨텍스트 전파 + +헤더를 삽입하고 추출하여 분산 트레이스의 컨텍스트 전파를 구성할 수 있습니다. 자세한 내용은 [트레이스 컨텍스트 전파][5]를 참고하세요. + +## 리소스 필터링 + +리소스 이름을 기준으로 트레이스를 제외하여 상태 점검과 같은 합성 트래픽이 트레이스를 전송하지 못하게 하고 트레이스 메트릭에 영향을 미치지 않도록 할 수 있습니다. 이 구성과 기타 보안 및 세부 구성에 관한 자세한 내용은 [보안][6] 페이지에서 확인할 수 있습니다. + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ko/tracing/glossary/#span-tags +[2]: /ko/tracing/glossary/#spans +[3]: /ko/getting_started/tagging/unified_service_tagging +[4]: /ko/tracing/error_tracking/ +[5]: /ko/tracing/trace_collection/trace_context_propagation/ +[6]: /ko/tracing/security \ No newline at end of file diff --git a/data/api/v1/translate_actions.es.json b/data/api/v1/translate_actions.es.json index 67958d70fd554..103125056f424 100644 --- a/data/api/v1/translate_actions.es.json +++ b/data/api/v1/translate_actions.es.json @@ -248,7 +248,7 @@ "summary": "Desactivar el silenciamiento de un host" }, "ListHosts": { - "description": "Este endpoint permite buscar hosts por nombre, alias o etiqueta.\nLos hosts activos durante las últimas 3 horas se incluyen por defecto.\nEl periodo de conservación es de 7 días.\nLos resultados se paginan con un máximo de 1000 resultados a la vez.", + "description": "Este endpoint permite buscar hosts por nombre, alias o etiqueta.\nPor defecto, se incluyen los hosts activos en las últimas 3 horas.\nLa retención es de 7 días.\nLos resultados se paginan con un máximo de 1000 resultados a la vez.\n**Nota:** Si el host es una instancia de Amazon EC2, `id` se sustituye por `aws_id` en la respuesta.\n**Nota**: Para enriquecer los datos devueltos por este endpoint con escaneos de seguridad, consulta el nuevo endpoint [api/v2/security/scanned-assets-metadata](https://docs.datadoghq.com/api/latest/security-monitoring/#list-scanned-assets-metadata).", "summary": "Obtener todos los hosts para tu organización" }, "GetHostTotals": { @@ -736,13 +736,13 @@ "request_schema_description": "Atributos que describen a qué incidente añadir la señal." }, "EditSecurityMonitoringSignalAssignee": { - "description": "Modifica el usuario que tiene asignada la evaluación de una señal de seguridad.", + "description": "Este endpoint está obsoleto - Modifica el asignatario de triaje de una señal de seguridad.", "summary": "Modificar el usuario que tiene asignada la evaluación de una señal de seguridad.", "request_description": "Atributos que describen la modificación de la señal.", "request_schema_description": "Atributos que describen una operación de actualización de asignatario a través de una señal de seguridad." }, "EditSecurityMonitoringSignalState": { - "description": "Cambia el estado que tiene la evaluación de una señal de seguridad.", + "description": "Este endpoint está obsoleto - Cambia el estado de triaje de una señal de seguridad.", "summary": "Cambiar el estado que tiene la evaluación de una señal de seguridad", "request_description": "Atributos que describen la modificación de la señal.", "request_schema_description": "Atributos que describen el cambio de estado de un estado determinado." @@ -935,6 +935,10 @@ "request_description": "Nueva información detallada del test que se va a guardar.", "request_schema_description": "Objeto que contiene información detallada de un test móvil Synthetic." }, + "SearchTests": { + "description": "Busca los Synthetic tests.", + "summary": "Buscar Synthetic test" + }, "TriggerTests": { "description": "Activa un conjunto de tests Synthetic.", "summary": "Activador de tests Synthetic", diff --git a/data/api/v2/translate_tags.es.json b/data/api/v2/translate_tags.es.json index f5d3c2afb8bf6..ef8da17c44dfd 100644 --- a/data/api/v2/translate_tags.es.json +++ b/data/api/v2/translate_tags.es.json @@ -19,14 +19,22 @@ "name": "Action Connection", "description": "Action Connections amplía tus integraciones instaladas y te permite realizar acciones en tus sistemas de terceros\n(por ejemplo, AWS, GitLab y Statuspage) con los productos Workflow Automation y App Builder de Datadog.\n\nLas integraciones de Datadog proporcionan automáticamente autenticación para Slack, Microsoft Teams, PagerDuty, Opsgenie,\nJIRA, GitHub y Statuspage. No necesitas conexiones adicionales para acceder a estas herramientas dentro de\nWorkflow Automation y App Builder.\n\nOfrecemos un control de acceso detallado para editar y resolver conexiones." }, + "actions-datastores": { + "name": "Actions Datastores", + "description": "Aprovecha la API Actions Datastore para crear, modificar y eliminar\nelementos en almacenes de datos propiedad de tu organización." + }, "agentless-scanning": { "name": "Agentless Scanning", - "description": "Datadog Agentless Scanning proporciona visibilidad de los riesgos y vulnerabilidades\ndentro de tus hosts, contenedores en ejecución y funciones serverless; todo ello sin\nrequerir que los equipos instalen Agents en cada host o donde no se puedan instalar Agents.\nVisita https://www.datadoghq.com/blog/agentless-scanning/ para obtener más información." + "description": "Datadog Agentless Scanning proporciona visibilidad de los riesgos y vulnerabilidades\ndentro de tus hosts, contenedores en ejecución y funciones serverless; todo ello sin\nrequerir que los equipos instalen Agents en cada host o donde no se puedan instalar Agents.\nAgentless también proporciona capacidades de análisis de datos confidenciales de tu almacenamiento\nPara obtener más información, visita https://www.datadoghq.com/blog/agentless-scanning/." }, "app-builder": { "name": "Creador de aplicaciones", "description": "Datadog App Builder proporciona una solución de poco código para desarrollar e integrar rápidamente aplicaciones seguras y personalizadas en tu stack tecnológico de monitorización, creadas para acelerar la corrección a escala. Estos endpoints de la API te permiten crear, leer, actualizar, eliminar y publicar aplicaciones." }, + "application-security": { + "name": "Application Security", + "description": "[Datadog Application Security](https://docs.datadoghq.com/security/application_security/) proporciona protección contra\nataques a nivel de aplicación que buscan explotar vulnerabilidades a nivel de código,\ncomo Server-Side-Request-Forgery (SSRF), inyección SQL, Log4Shell y\nReflected Cross-Site-Scripting (XSS). Puedes monitorizar y proteger aplicaciones\nalojadas directamente en un servidor, Docker, Kubernetes, Amazon ECS y (para los lenguajes\ncompatibles) AWS Fargate." + }, "audit": { "name": "Auditoría", "description": "Busca tus eventos de logs de auditoría a través de HTTP." @@ -53,15 +61,27 @@ }, "csm-threats": { "name": "Amenazas de CSM", - "description": "Cloud Security Management Threats (CSM Threats) monitoriza la actividad de archivos, redes y procesos en todo tu entorno para detectar amenazas en tiempo real para tu infraestructura. Para obtener más información sobre la configuración de CSM Threats, consulta [Cloud Security Management Threats](https://docs.datadoghq.com/security/threats/)." + "description": "Workload Protection monitoriza la actividad de archivos, redes y procesos en todo tu entorno para detectar amenazas en tiempo real a tu infraestructura. Para obtener más información sobre la configuración de Workload Protection, consulta [Workload Protection](https://docs.datadoghq.com/security/workload_protection/).\n\n**Nota**: Estos endpoints se dividen en función de si utilizas el sitio US1-FED o no. Consulta el recurso específico del sitio que estás utilizando." }, "case-management": { "name": "Case Management", - "description": "Visualiza y gestiona casos y proyectos dentro de la Gestión de casos. Para obtener más información, consulta la [página Gestión de Casos](https://docs.datadoghq.com/service_management/case_management/)." + "description": "Visualiza y gestiona casos y proyectos dentro de la Case Management. Para obtener más información, consulta la [página de Case Management](https://docs.datadoghq.com/service_management/case_management/)." + }, + "case-management-attribute": { + "name": "Atributo de Case Management", + "description": "Ver y configurar atributos personalizados dentro de Case Management. Consulta la [página de Case Management](https://docs.datadoghq.com/service_management/case_management/) para obtener más información." + }, + "case-management-type": { + "name": "Tipo de Case Management", + "description": "Ver y configurar los tipos de casos dentro de Case Management. Consulta la [página de Case Management](https://docs.datadoghq.com/service_management/case_management/) para obtener más información." }, "cloud-cost-management": { - "name": "Gestión de costes en la nube", - "description": "La API de gestión de costes en la nube te permite configurar, editar y eliminar cuentas de gestión de costes en la nube para AWS y Azure. Puedes consultar tus datos de costes utilizando el [endpoint de métricas](https://docs.datadoghq.com/api/latest/metrics/#query-timeseries-data-across-multiple-products) y la fuente de datos `cloud_cost`. Para obtener más información, consulta la [documentación sobre la gestión de costes en la nube](https://docs.datadoghq.com/cloud_cost_management/)." + "name": "Cloud Cost Management", + "description": "La API de Cloud Cost Management te permite configurar, editar y eliminar cuentas de Cloud Cost Management para AWS, Azure y Google Cloud. Puedes consultar tus datos de costes utilizando el [endpoint de métricas](https://docs.datadoghq.com/api/latest/metrics/#query-timeseries-data-across-multiple-products) y la fuente de datos `cloud_cost`. Para más información, consulta la [documentación de Cloud Cost Management](https://docs.datadoghq.com/cloud_cost_management/)." + }, + "cloud-network-monitoring": { + "name": "Cloud Network Monitoring", + "description": "La API de Cloud Network Monitoring te permite obtener conexiones agregadas y tráfico DNS con sus atributos. Consulta la [página de Cloud Network Monitoring](https://docs.datadoghq.com/network_monitoring/cloud_network_monitoring/) y la [página de Monitorización de DNS](https://docs.datadoghq.com/network_monitoring/dns/) para obtener más información." }, "cloudflare-integration": { "name": "Integración Cloudflare", @@ -73,31 +93,39 @@ }, "container-images": { "name": "Imágenes de contenedor", - "description": "La API de imágenes de contenedor te permite consultar los datos de imágenes de contenedor de tu organización. Para obtener más información, consulta la [página Vistas de imágenes de contenedor](https://docs.datadoghq.com/infrastructure/containers/container_images/)." + "description": "La API de imágenes de contenedor te permite consultar los datos de imágenes de contenedor de tu organización. Para obtener más información, consulta la [página de Vistas de imágenes de contenedor](https://docs.datadoghq.com/infrastructure/containers/container_images/)." }, "containers": { "name": "Contenedores", - "description": "La API de contenedores te permite consultar los datos de contenedor de tu organización. Para obtener más información, consulta la [página Monitorización de contenedores](https://docs.datadoghq.com/containers/)." + "description": "La API de contenedores te permite consultar los datos de contenedor de tu organización. Para obtener más información, consulta la [página de Container Monitoring](https://docs.datadoghq.com/containers/)." }, "dora-metrics": { "name": "Métricas de DORA", - "description": "Envía eventos para que las métricas de DORA midan y mejoren la entrega de software. Para obtener más información, consulte la [página de métricas de DORA](https://docs.datadoghq.com/dora_metrics/)." + "description": "Busca, envía o elimina eventos de DORA Metrics para medir y mejorar el rendimiento de la entrega de tu software. Consulta la [página de DORA Metrics](https://docs.datadoghq.com/dora_metrics/) para obtener más información.\n\n**Nota**: DORA Metrics no está disponibles en el sitio US1-FED." }, "dashboard-lists": { "name": "Recibir los elementos de una lista de dashboards", "description": "Interactúa con tus listas de dashboards a través de la API para\norganizar, buscar y compartir todos tus dashboards con tu equipo y\ntu organización." }, + "datasets": { + "name": "Conjuntos de datos", + "description": "Data Access Controls en Datadog es una función que permite a los administradores y gestores de acceso regular\nel acceso a datos confidenciales. Mediante la definición de conjuntos de datos restringidos, puedes asegurarte de que sólo determinados roles o equipos puedan\nver determinados tipos de telemetría (por ejemplo, logs, trazas, métricas y datos RUM)." + }, "domain-allowlist": { "name": "Lista de dominios permitidos", - "description": "Configura tu Lista de dominios permitidos de correo electrónico de Datadog directamente a través de la API de Datadog.\nLa lista de dominios de correo electrónico permitidos controla los dominios a los que se pueden enviar determinados correos electrónicos de Datadog.\nPara obtener más información, consulta la [página de documentación de Lista de dominios permitidos] (https://docs.datadoghq.com/account_management/org_settings/domain_allowlist)" + "description": "Configura tu Lista de dominios permitidos de correo electrónico de Datadog directamente a través de la API de Datadog.\nLa lista de dominios de correo electrónico permitidos controla los dominios a los que se pueden enviar determinados correos electrónicos de Datadog.\nPara obtener más información, consulta la [página de la documentación Lista de dominios permitidos] (https://docs.datadoghq.com/account_management/org_settings/domain_allowlist)" }, "downtimes": { "name": "Tiempos de inactividad", "description": "**Nota**: El tiempo de inactividad v2 está actualmente en beta privada. Para solicitar acceso, ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/).\n\nEl [tiempo de inactividad](https://docs.datadoghq.com/monitors/notify/downtimes) te ofrece\nun mayor control sobre las notificaciones de monitores permitiéndote excluir globalmente\ncontextos de alerta. Los parámetros de los tiempos de inactividad, que pueden programarse con horas de inicio y\nhoras de finalización, evitan todas las alertas relacionadas con etiquetas (tags) de Datadog especificas." }, + "error-tracking": { + "name": "Error Tracking", + "description": "Ve y gestiona las incidencias en Error Tracking. Consulta la [página de Error Tracking](https://docs.datadoghq.com/error_tracking/) para obtener más información." + }, "events": { "name": "Eventos", - "description": "La API de gestión de eventos permite publicar mediante programación eventos en el Events Explorer y recuperar eventos desde el Events Explorer. Consulta la página de [Gestión de eventos](https://docs.datadoghq.com/service_management/events/) para obtener más información.\n\n**Actualización de la `aggregation_key` de los eventos de monitor de Datadog a partir del 1 de marzo de 2025:** La `aggregation_key` de los eventos de monitor de Datadog es única para cada ID de monitor. A partir del 1 de marzo, esta clave también incluirá el Grupo de monitores, por lo que será única por *ID de monitor y Grupo de monitor*. Si utilizas la `aggregation_key` de eventos de monitor en las consultas de dashboard o en la API de eventos, deberás migrar para utilizar `@monitor.id`. Ponte en contacto con el [soporte](https://www.datadoghq.com/support/) si tienes alguna pregunta." + "description": "La API de Event Management permite publicar mediante programación eventos en el Events Explorer y recuperar eventos desde el Events Explorer. Consulta la [página de Event Management](https://docs.datadoghq.com/service_management/events/) para obtener más información.\n\n**Actualización de la `aggregation_key` de los eventos de monitor de Datadog a partir del 1 de marzo de 2025:** La `aggregation_key` de los eventos de monitor de Datadog es única para cada ID de monitor. A partir del 1 de marzo, esta clave también incluirá el Grupo de monitores, por lo que será única por *ID de monitor y Grupo de monitor*. Si utilizas la `aggregation_key` de eventos de monitor en las consultas de dashboard o en la API de eventos, deberás migrar para utilizar `@monitor.id`. Ponte en contacto con el [soporte](https://www.datadoghq.com/support/) si tienes alguna pregunta." }, "fastly-integration": { "name": "Integración Fastly", @@ -113,7 +141,7 @@ }, "incident-services": { "name": "Servicios asociados a incidentes", - "description": "Crea, actualiza, elimina y recupera servicios que pueden asociarse a incidentes. Para obtener más información, consulta la [página Gestión de incidentes](https://docs.datadoghq.com/service_management/incident_management/)." + "description": "Crea, actualiza, elimina y recupera servicios que pueden asociarse a incidentes. Para obtener más información, consulta la [página de Incident Management](https://docs.datadoghq.com/service_management/incident_management/)." }, "incident-teams": { "name": "Equipos de incidentes", @@ -121,15 +149,15 @@ }, "incidents": { "name": "Incidencias", - "description": "Gestiona la respuesta a incidentes, así como los archivos adjuntos, metadatos y tareas pendientes asociados. Para obtener más información, consulta la [página Gestión de incidentes](https://docs.datadoghq.com/service_management/incident_management/)." + "description": "Gestiona la respuesta a incidentes, así como los archivos adjuntos, metadatos y tareas pendientes asociados. Para obtener más información, consulta la [página de Incident Management](https://docs.datadoghq.com/service_management/incident_management/)." }, "key-management": { - "name": "Elimina una clave de aplicación que pertenece al usuario actual.", - "description": "Gestiona tus claves de API y de aplicación de Datadog. Se necesita una clave de API y\nuna clave de aplicación para que un usuario con los permisos necesarios interactúe\ncon estos endpoints. Puedes consultar la lista completa de claves de API y de aplicación\nen la [página de tu API Datadog](https://app.datadoghq.com/account/settings#api)." + "name": "Key Management", + "description": "Gestiona tu API de Datadog y claves de aplicación. Necesitas una clave de API y una\nclave de aplicación para un usuario con los permisos necesarios para interactuar con estos endpoints.\n\nConsulta las siguientes páginas para ver y gestionar tus claves:\n\n- [Claves de API](https://app.datadoghq.com/organization-settings/api-keys)\n- [Claves de aplicación](https://app.datadoghq.com/personal-settings/application-keys)" }, "logs": { "name": "Logs", - "description": "Busca tus logs y envíalos a tu plataforma Datadog a través de HTTP. Para obtener más información, consulta la [página Gestión de logs](https://docs.datadoghq.com/logs/)." + "description": "Busca tus logs y envíalos a tu plataforma Datadog a través de HTTP. Para obtener más información, consulta la [página de Gestión de logs](https://docs.datadoghq.com/logs/)." }, "logs-archives": { "name": "Archivos de logs", @@ -161,16 +189,32 @@ }, "network-device-monitoring": { "name": "Network Device Monitoring", - "description": "La API de monitorización de dispositivos de red te permite obtener dispositivos e interfaces y sus atributos. Para obtener más información, consulta la página de [monitorización de dispositivos de red](https://docs.datadoghq.com/network_monitoring/)." + "description": "La API de Network Device Monitoring te permite obtener dispositivos e interfaces y sus atributos. Para obtener más información, consulta la página de [Network Device Monitoring](https://docs.datadoghq.com/network_monitoring/)." + }, + "observability-pipelines": { + "name": "Observability Pipelines", + "description": "Observability Pipelines te permite recopilar y procesar logs dentro de tu propia infraestructura y luego enviarlos a integraciones descendentes." }, "okta-integration": { "name": "Integración Okta", "description": "Configura tu [integración Okta en Datadog](https://docs.datadoghq.com/integrations/okta/) directamente a través de la API Datadog." }, + "on-call": { + "name": "On-Call", + "description": "Configura tu [Datadog On-Call](https://docs.datadoghq.com/service_management/on-call/)\ndirectamente a través de la API Datadog." + }, + "on-call-paging": { + "name": "Buscapersonas On-Call", + "description": "Activa y gestiona páginas [Datadog On-Call](https://docs.datadoghq.com/service_management/on-call/)\ndirectamente a través de la API Datadog." + }, "opsgenie-integration": { "name": "Integración Opsgenie", "description": "Configura tu [integración Opsgenie en Datadog](https://docs.datadoghq.com/integrations/opsgenie/)\ndirectamente a través de la API Datadog." }, + "org-connections": { + "name": "Conexiones de organización", + "description": "Gestionar las conexiones entre organizaciones. Las conexiones entre organizaciones permiten compartir datos de forma controlada entre diferentes organizaciones de Datadog. Consulta la página [Visibilidad entre organizaciones](https://docs.datadoghq.com/account_management/org_settings/cross_org_visibility/) para obtener más información." + }, "organizations": { "name": "Organizaciones", "description": "Crea, edita y gestiona tus organizaciones. Consulta más información sobre [cuentas multi-organización](https://docs.datadoghq.com/account_management/multi_organization)." @@ -185,7 +229,11 @@ }, "rum": { "name": "RUM", - "description": "Gestiona tus aplicaciones Real User Monitoring (RUM) y busca o agrega tus eventos RUM a través de HTTP. Para obtener más información, consulta la [página RUM y Session Replay](https://docs.datadoghq.com/real_user_monitoring/)." + "description": "Gestiona tus aplicaciones Real User Monitoring (RUM) y busca o agrega tus eventos RUM a través de HTTP. Para obtener más información, consulta la [página de RUM y Session Replay](https://docs.datadoghq.com/real_user_monitoring/)." + }, + "reference-tables": { + "name": "Tablas de referencia", + "description": "Tablas de referencia de etiquetas generadas automáticamente" }, "restriction-policies": { "name": "Políticas de restricción", @@ -199,21 +247,25 @@ "name": "Métricas de rum", "description": "Gestiona la configuración de [métricas basadas en rum](https://app.datadoghq.com/rum/generate-métricas) para tu organización." }, + "rum-retention-filters": { + "name": "Filtros de retención RUM", + "description": "Gestiona filtros de retención a través de [Gestionar aplicaciones](https://app.datadoghq.com/rum/list) de RUM para tu organización." + }, "scim": { "name": "SCIM", "description": "Aprovisiona usuarios y equipos de Datadog utilizando las API de SCIM.\n\nNota: El aprovisionamiento de SCIM para equipos de Datadog sólo está disponible para determinadas organizaciones en este momento. Solicita acceso poniéndote en contacto con el soporte de Datadog, o consulta la [página de SCIM](https://docs.datadoghq.com/account_management/scim/) para obtener más información." }, "security-monitoring": { - "name": "Ver una lista de señales de seguridad", - "description": "Crea y gestiona tus reglas de seguridad, señales, filtros y mucho más. Para obtener más información, consulta la [página Seguridad de Datadog](https://docs.datadoghq.com/security/)." + "name": "Security Monitoring", + "description": "Crea y gestiona tus reglas de seguridad, señales, filtros y mucho más. Para obtener más información, consulta la [página de Datadog Security](https://docs.datadoghq.com/security/)." }, "sensitive-data-scanner": { "name": "Sensitive Data Scanner", - "description": "Crea, actualiza, elimina y recupera grupos y reglas del analizador de datos confidenciales. Para obtener más información, consulta la [página Analizador de datos confidenciales](https://docs.datadoghq.com/sensitive_data_scanner/)." + "description": "Crea, actualiza, elimina y recupera grupos y reglas del analizador de datos confidenciales. Para obtener más información, consulta la [página de Sensitive Data Scanner](https://docs.datadoghq.com/sensitive_data_scanner/)." }, "service-accounts": { "name": "Cuentas de servicio", - "description": "Crea, edita y desactiva cuentas de servicio. Para obtener más información, consulta la [página Cuentas de servicio](https://docs.datadoghq.com/account_management/org_settings/service_accounts/)." + "description": "Crea, edita y desactiva cuentas de servicio. Para obtener más información, consulta la [página de Cuentas de servicio](https://docs.datadoghq.com/account_management/org_settings/service_accounts/)." }, "service-definition": { "name": "Definición de servicio", @@ -231,6 +283,10 @@ "name": "Catálogo de software", "description": "API para crear, actualizar, recuperar y eliminar entidades del Catálogo de software." }, + "spa": { + "name": "Spa", + "description": "API SPA (Spark Pod Autosizing). Proporciona recomendaciones de recursos e información sobre costes para ayudar a optimizar las configuraciones de trabajo de Spark." + }, "spans": { "name": "Tramos (spans)", "description": "Busca y agrega tus tramos desde tu plataforma Datadog a través de HTTP." @@ -245,7 +301,11 @@ }, "teams": { "name": "Equipos", - "description": "Observa y gestiona equipos en Datadog. Para obtener más información, consulta la página [Equipos](https://docs.datadoghq.com/account_management/teams/)." + "description": "Observa y gestiona equipos en Datadog. Para obtener más información, consulta la [página Equipos](https://docs.datadoghq.com/account_management/teams/)." + }, + "test-optimization": { + "name": "Test Optimization", + "description": "Busca y gestiona los tests defectuosos a través de Test Optimization (optimización de tests). Consulta la [página Test Optimization](https://docs.datadoghq.com/tests/) para obtener más información." }, "usage-metering": { "name": "Medición del uso", diff --git a/data/partials/home.es.yaml b/data/partials/home.es.yaml index e4add72758ccb..75e3d56a84af8 100644 --- a/data/partials/home.es.yaml +++ b/data/partials/home.es.yaml @@ -3,8 +3,8 @@ guides: link: getting_started/agent/ link_text: Empezando con el Agent title: Instalar el Agent -- desc: Recopila métricas, trazas (traces) y logs con más de 850 integraciones incorporadas - para enviar a Datadog. +- desc: Recopila métricas, trazas y logs con más de 1000 integraciones incorporadas + para enviarlos a Datadog. link: getting_started/integrations/ link_text: Empezando con las integraciones title: Configurar integraciones @@ -171,6 +171,11 @@ nav_sections: icon: internal-developer-portal-wui link: internal_developer_portal title: Portal interno para desarrolladores + - desc: Gestiona los avisos, la escalada y los horarios de guardia en una sola + plataforma + icon: on-call + link: service_management/on-call/ + title: On-Call - nav_section: - name: Configuración - navtiles: diff --git a/layouts/shortcodes/observability_pipelines/log_source_configuration/logstash.ko.md b/layouts/shortcodes/observability_pipelines/log_source_configuration/logstash.ko.md new file mode 100644 index 0000000000000..70be9ce142a64 --- /dev/null +++ b/layouts/shortcodes/observability_pipelines/log_source_configuration/logstash.ko.md @@ -0,0 +1,14 @@ +Observability Pipelines Worker에 로그를 보내도록 Logstash를 구성하려면 다음 출력 구성을 사용하세요. + +``` +output { + lumberjack { + # 이 항목들을 업데이트하여 Observability Pipelines Worker로 연결되도록 하세요 + hosts => ["127.0.0.1"] + port => 5044 + ssl_certificate => "/path/to/certificate.crt" + } +} +``` + +**참고**: Logstash를 사용하려면 SSL을 구성해야 합니다. \ No newline at end of file diff --git a/layouts/shortcodes/observability_pipelines/prerequisites/http_server.ko.md b/layouts/shortcodes/observability_pipelines/prerequisites/http_server.ko.md new file mode 100644 index 0000000000000..78ac30aed3139 --- /dev/null +++ b/layouts/shortcodes/observability_pipelines/prerequisites/http_server.ko.md @@ -0,0 +1,4 @@ +Observability Pipelines의 HTTP/S 서버 소스를 사용하려면 다음 정보가 필요합니다. + +- HTTP/S 서버 주소(예: `0.0.0.0:9997`)입니다. Observability Pipelines Worker는 이 소켓 주소를 통해 HTTP 클라이언트 로그를 받습니다. +- HTTP 인증 비밀번호. \ No newline at end of file diff --git a/layouts/shortcodes/observability_pipelines/prerequisites/logstash.ko.md b/layouts/shortcodes/observability_pipelines/prerequisites/logstash.ko.md new file mode 100644 index 0000000000000..acd4de7f804f8 --- /dev/null +++ b/layouts/shortcodes/observability_pipelines/prerequisites/logstash.ko.md @@ -0,0 +1,4 @@ +Observability Pipelines의 Logstash 소스를 사용하려면 다음 정보가 필요합니다. + +- Logstash 주소(예: `0.0.0.0:8088`). Observability Pipelines Worker는 이 바인드 주소를 통해 애플리케이션 로그를 수신합니다. 나중에 애플리케이션에서 이 주소로 로그를 전송하도록 구성합니다. +- 포워더가 SSL을 사용하도록 전역적으로 구성된 경우, 개인 키를 생성할 때 사용한 적절한 TLS 인증서 및 비밀번호. \ No newline at end of file