Los repositorios de las instancias de GitHub son compatibles con GitHub.com, GitHub Enterprise Cloud (SaaS) y GitHub Enterprise Server (On-Prem). Para GitHub Enterprise Server, tu instancia debe ser accesible desde Internet. Si es necesario, puedes permitir
direcciones IP de webhooks de Datadog para que Datadog pueda conectarse a tu instancia.
@@ -70,10 +70,10 @@ Instala la [integración GitHub][101] de Datadog utilizando el [cuadro de la int
[102]: https://app.datadoghq.com/integrations/github/
{{% /tab %}}
-{{% tab "GitLab (SaaS & On-Prem)" %}}
+{{% tab "GitLab (SaaS y On-Prem)" %}}
-Los repositorios de las instancias de GitLab son compatibles con la vista previa cerrada. Los repositorios de las instancias de GitLab son compatibles tanto con GitLab.com (SaaS) como con GitLab Self-Managed/Dedicated (On-Prem). Para GitLab Self-Managed, tu instancia debe ser accesible desde Internet. Si es necesario, puedes permitir
direcciones IP de webhooks de Datadog para que Datadog pueda conectarse a tu instancia.
Únete a la vista previa.
+Los repositorios de las instancias de GitLab son compatibles con la vista previa cerrada. Los repositorios de las instancias de GitLab son compatibles tanto con GitLab.com (SaaS) como con GitLab Self-Managed/Dedicated (On-Prem). Para GitLab Self-Managed, tu instancia debe ser accesible desde Internet. Si es necesario, puedes permitir
direcciones IP de webhooks de Datadog para permitir que Datadog se conecte a tu instancia.
Únete a la vista previa.
Instala la [integración del código fuente de GitHub][101] de Datadog utilizando el [cuadro de la integración][102] o mientras accedes a otros productos de Datadog para conectarte a tus repositorios de GitHub.
@@ -82,21 +82,22 @@ Instala la [integración del código fuente de GitHub][101] de Datadog utilizand
[102]: https://app.datadoghq.com/integrations/gitlab-source-code/
{{% /tab %}}
-{{% tab "Azure DevOps (SaaS Only)" %}}
+{{% tab "Azure DevOps (solo SaaS)" %}}
-Instala la integración del código fuente de Azure DevOps de Datadog mientras accedes a [Datadog Code Security][101]. La funcionalidad de esta integración se limita a Code Security.
+Instala la integración de código fuente de Azure DevOps de Datadog utilizando el [cuadro de integración][102] o mientras se incorpora a [Datadog Code Security][101].
[101]: https://app.datadoghq.com/security/configuration/code-security/setup?provider=azure-devops&steps=static
+[102]: https://app.datadoghq.com/integrations/azure-devops-source-code/
{{% /tab %}}
-{{% tab "Other SCM Providers" %}}
+{{% tab "Otros proveedores de SCM" %}}
Si estás utilizando cualquier otro proveedor SCM, aún puedes vincular manualmente la telemetría con tu código fuente. Para ello, carga los metadatos de tu repositorio con el comando [`datadog-ci git-metadata upload`][1]. Se requiere `datadog-ci v2.10.0` o posterior.
@@ -120,7 +121,7 @@ Successfully synced git DB in 3.579 seconds.
✅ Uploaded in 5.207 seconds.
```
-[1]: https://github.com/DataDog/datadog-ci/tree/master/src/commands/git-metadata
+[1]: https://github.com/DataDog/datadog-ci/tree/master/packages/base/src/commands/git-metadata
{{% /tab %}}
{{< /tabs >}}
@@ -128,7 +129,7 @@ Successfully synced git DB in 3.579 seconds.
Se requiere el Datadog Agent v7.35.0 o posterior.
-Si ya tienes [APM][6] configurado, ve a [**Integrations** > **Link Source Code**][7] y configura la integración del código fuente para tus servicios de backend.
+Si ya tienes [APM][6] configurado, ve a [**Integrations** > **Link Source Code** (Integraciones > Vincular código fuente)][7] y configura la integración del código fuente para tus servicios de backend.
Tu telemetría debe estar etiquetada con información Git que vincule la versión de la aplicación en ejecución con un repositorio y una confirmación concretos.
@@ -145,11 +146,11 @@ Selecciona uno de los siguientes lenguajes que sea compatible con la integració
{{< tabs >}}
{{% tab "Go" %}}
-
Se requiere la librería del cliente Go versión 1.48.0 o posterior.
+
Se requiere la biblioteca del cliente Go versión 1.48.0 o posterior.
#### Contenedores
-Si utilizas contenedores Docker, tienes tres opciones: utilizar Docker, utilizar la librería de rastreo de Datadog o configurar tu aplicación con variables de entorno `DD_GIT_*`.
+Si utilizas contenedores Docker, tienes tres opciones: utilizar Docker, utilizar la biblioteca de rastreo de Datadog o configurar tu aplicación con variables de entorno `DD_GIT_*`.
##### Opción 1: Docker
@@ -179,7 +180,7 @@ Si utilizas la opción serverless, tienes tres opciones en función de la config
{{% sci-dd-git-env-variables %}}
-#### host
+#### Host
Si utilizas un host, tienes dos opciones.
@@ -200,11 +201,11 @@ Si utilizas un host, tienes dos opciones.
{{% tab "Python" %}}
-
Se requiere la librería del cliente Python versión 1.12.0 o posterior.
+
Se requiere la biblioteca del cliente Python versión 1.12.0 o posterior.
#### Contenedores
-Si utilizas contenedores Docker, tienes tres opciones: utilizar Docker, utilizar la librería de rastreo de Datadog o configurar tu aplicación con variables de entorno `DD_GIT_*`.
+Si utilizas contenedores Docker, tienes tres opciones: utilizar Docker, utilizar la biblioteca de rastreo de Datadog o configurar tu aplicación con variables de entorno `DD_GIT_*`.
##### Opción 1: Docker
@@ -237,7 +238,7 @@ Si utilizas la opción serverless, tienes tres opciones en función de la config
{{% sci-dd-git-env-variables %}}
-#### host
+#### Host
Si utilizas un host, tienes dos opciones.
@@ -252,14 +253,14 @@ Si utilizas un host, tienes dos opciones.
{{% /tab %}}
{{% tab ".NET" %}}
-
Se requiere la librería del cliente .NET versión 2.24.1 o posterior.
+
Se requiere la biblioteca del cliente .NET versión 2.24.1 o posterior.
Como primer paso, asegúrate de que tus archivos `.pdb` se despliegan junto con tus ensamblados .NET (`.dll` o `.exe`) en la misma carpeta.
A continuación, sigue el resto de las instrucciones en función de tu modelo de despliegue específico:
#### Contenedores
-Si utilizas contenedores Docker, tienes tres opciones: utilizar Docker, utilizar la librería de rastreo de Datadog o configurar tu aplicación con variables de entorno `DD_GIT_*`.
+Si utilizas contenedores Docker, tienes tres opciones: utilizar Docker, utilizar la biblioteca de rastreo de Datadog o configurar tu aplicación con variables de entorno `DD_GIT_*`.
##### Opción 1: Docker
@@ -289,7 +290,7 @@ Si utilizas la opción serverless, tienes tres opciones en función de la config
{{% sci-dd-git-env-variables %}}
-#### host
+#### Host
Si utilizas un host, tienes dos opciones: utilizar Microsoft SourceLink o configurar tu aplicación con variables de entorno `DD_GIT_*`.
@@ -305,7 +306,7 @@ Si utilizas un host, tienes dos opciones: utilizar Microsoft SourceLink o config
{{% tab "Node.js" %}}
- Se requiere la librería de cliente de Node.js versión 3.21.0 o posterior.
+ Se requiere la biblioteca de cliente de Node.js versión 3.21.0 o posterior.
Para aplicaciones de Node.js transpiladas (por ejemplo, TypeScript), asegúrate de generar y publicar mapas de fuentes con la aplicación desplegada, y de ejecutar Node.js con la opción
--enable-source-maps. De lo contrario, los enlaces de código y fragmentos no funcionarán.
@@ -313,38 +314,52 @@ Si utilizas un host, tienes dos opciones: utilizar Microsoft SourceLink o config
#### Contenedores
-Si utilizas contenedores Docker, tienes dos opciones: utilizar Docker o configurar tu aplicación con variables de entorno `DD_GIT_*`.
+Si utilizas contenedores de Docker, tienes varias opciones: utilizar un complemento si tu aplicación está empaquetada, utilizar Docker, o configurar tu aplicación con variables de entorno `DD_GIT_*`.
-##### Opción 1: Docker
+##### Opción 1: Complemento empaquetador
+
+{{% sci-dd-tags-bundled-node-js %}}
+
+##### Opción 2: Docker
{{% sci-docker %}}
-##### Opción 2: Variables de entorno `DD_GIT_*`
+##### Opción 3: Variables de entorno `DD_GIT_*`
{{% sci-dd-git-env-variables %}}
#### Serverless
-Si utilizas la opción serverless, tienes dos opciones en función de la configuración de tu aplicación serverless.
+Si estás utilizando Serverless, tienes varias opciones dependiendo de la configuración de tu aplicación serverless.
-##### Opción 1: Herramientas de Datadog
+##### Opción 1: Complemento empaquetador
+
+{{% sci-dd-tags-bundled-node-js %}}
+
+##### Opción 2: Herramientas de Datadog
{{% sci-dd-serverless %}}
-##### Opción 2: Variables de entorno `DD_GIT_*`
+##### Opción 3: Variables de entorno `DD_GIT_*`
{{% sci-dd-git-env-variables %}}
-#### host
+#### Host
-Si utilizas un host, configura tu aplicación con variables de entorno `DD_GIT_*`.
+Para entornos basados en host, tienes dos opciones basadas en tu configuración de compilación y despliegue.
+
+##### Opción 1: Complemento empaquetador
+
+{{% sci-dd-tags-bundled-node-js %}}
+
+##### Opción 2: Variables de entorno `DD_GIT_*`
{{% sci-dd-git-env-variables %}}
{{% /tab %}}
{{% tab "Ruby" %}}
-
Se requiere la librería del cliente Ruby versión 1.6.0 o posterior.
+
Se requiere la biblioteca del cliente Ruby versión 1.6.0 o posterior.
#### Contenedores
@@ -370,7 +385,7 @@ Si utilizas la opción serverless, tienes dos opciones en función de la configu
{{% sci-dd-tags-env-variable %}}
-#### host
+#### Host
Si utilizas un host, configura tu aplicación con la variable de entorno `DD_TAGS`.
@@ -379,7 +394,7 @@ Si utilizas un host, configura tu aplicación con la variable de entorno `DD_TAG
{{% /tab %}}
{{% tab "Java" %}}
-
Se requiere la librería del cliente Java versión 1.12.0 o posterior.
+
Se requiere la biblioteca del cliente Java versión 1.12.0 o posterior.
#### Contenedores
@@ -405,7 +420,7 @@ Si utilizas la opción serverless, tienes dos opciones en función de la configu
{{% sci-dd-git-env-variables %}}
-#### host
+#### Host
Si utilizas un host, configura tu aplicación con variables de entorno `DD_GIT_*`.
@@ -414,7 +429,7 @@ Si utilizas un host, configura tu aplicación con variables de entorno `DD_GIT_*
{{% /tab %}}
{{% tab "PHP" %}}
-
Se requiere la librería del cliente PHP versión 1.2.0 o posterior.
+
Se requiere la biblioteca del cliente PHP versión 1.2.0 o posterior.
#### Contenedores
@@ -428,7 +443,7 @@ Si utilizas contenedores Docker, tienes dos opciones: utilizar Docker o configur
{{% sci-dd-git-env-variables %}}
-#### host
+#### Host
Si utilizas un host, configura tu aplicación con variables de entorno `DD_GIT_*`.
@@ -468,8 +483,8 @@ Para los lenguajes no compatibles, utiliza las etiquetas `git.commit.sha` y `git
En [Error Tracking][1], puedes ver los enlaces de los marcos de stack tecnológico hasta su repositorio de origen.
1. Ve a [**APM** > **Error Tracking**][2].
-2. Haz clic en un problema. El panel **Issue Details** aparece a la derecha.
-3. En **Último evento**, si utilizas las integraciones GitHub o GitLab, haz clic en **Connect to preview** (Conectar para previsualizar) en los marcos de stack tecnológico. Puedes ver fragmentos de código en línea directamente en la traza de stack tecnológico. De lo contrario, puedes hacer clic en el botón **View** (Ver) a la derecha de un marco o seleccionar **View file** (Ver archivo), **View Git blame* (Ver Git blame) o **View commit** (Ver commit) para ser redirigido a tu herramienta de gestión de código fuente.
+2. Haz clic en un problema. El panel **Issue Details** (información del incidente) aparece a la derecha.
+3. En **Latest Event** (Último evento), si utilizas las integraciones GitHub o GitLab, haz clic en **Connect to preview** (Conectar para previsualizar) en los marcos de stack tecnológico. Puedes ver fragmentos de código en línea directamente en la traza de stack tecnológico. De lo contrario, puedes hacer clic en el botón **View** (Ver) a la derecha de un marco o seleccionar **View file** (Ver archivo), **View Git blame* (Ver Git blame) o **View commit** (Ver commit) para ser redirigido a tu herramienta de gestión de código fuente.
{{< img src="integrations/guide/source_code_integration/error-tracking-panel-full.png" alt="Botón de visualización de repositorio con tres opciones (ver archivo, ver blame y ver confirmación) disponibles a la derecha de una stack trace de error en Error Tracking, junto con fragmentos de código en línea en la stack trace" style="width:100%;">}}
@@ -479,22 +494,17 @@ En [Error Tracking][1], puedes ver los enlaces de los marcos de stack tecnológi
{{% /tab %}}
{{% tab "Continuous Profiler" %}}
-En [Continuous Profiler][1], puedes ver una vista previa del código fuente de los marcos de perfiles.
-
-1. Ve a [**APM** > **Profile Search**][2].
-2. Pasa el cursor sobre un método en el gráfico de llamas.
-3. Si es necesario, pulsa `Opt` o `Alt` para habilitar la vista previa.
-4. Si utilizas las integraciones GitHub o GitLab, haz clic en **Connect to preview** (Conectar para previsualizar) para ver fragmentos de código en línea directamente en el gráfico de llamas.
-
-{{< img src="integrations/guide/source_code_integration/profiler-source-code-preview.png" alt="Vista previa del código fuente en Continuous Profiler" style="width:100%;">}}
-
-También puedes ver los enlaces de los marcos de perfiles hasta su repositorio de origen. Esto es compatible con los perfiles desglosados por línea, método o archivo.
+Puedes ver vistas previas del código fuente directamente en gráficas de llamas de [Continuous Profiler][1].
-1. Ve a [**APM** > **Profile Search**][2].
-2. Pasa el cursor sobre un método en el gráfico de llamas. A la derecha aparece un icono con tres puntos con la etiqueta **More actions**.
-3. Haz clic en **More actions** > **View in repo** para abrir la traza en su repositorio de código fuente.
+1. Ve a [**APM** > **Profiles** > **Explorer**][2] (APM > Perfiles > Explorador).
+2. Selecciona el servicio que deseas investigar.
+3. Pasa el cursor sobre un método en el gráfico de llamas.
+4. Pulsa `Opt` (en macOS) o `Ctrl` (en otros sistemas operativos) para bloquear la información sobre herramientas y poder interactuar con su contenido.
+5. Si se te solicita, haz clic en **Connect to preview** (Conectar para previsualizar). La primera vez que hagas esto para un repositorio, serás redirigido a GitHub para **Authorize** (Autorizar) la aplicación de Datadog.
+6. Después de autorizar, la vista previa del código fuente aparece en el tooltip.
+7. Haz clic en el enlace de archivo en el tooltip para abrir el archivo de código fuente completo en tu repositorio.
-{{< img src="integrations/guide/source_code_integration/profiler-link-to-git.png" alt="Enlace a GitHub desde Continuous Profiler" style="width:100%;">}}
+{{< img src="integrations/guide/source_code_integration/profiler-source-code-preview-2.png" alt="Vista previa de código fuente en el Continuous Profiler" style="width:100%;">}}
[1]: /es/profiler/
[2]: https://app.datadoghq.com/profiling/explorer
@@ -503,8 +513,8 @@ También puedes ver los enlaces de los marcos de perfiles hasta su repositorio d
En **Serverless Monitoring**, puedes ver los enlaces de los errores en tus stack traces, asociadas a funciones Lambda, hasta su repositorio de origen.
-1. Ve a [**Infrastructure** > **Serverless**][101] y haz clic en la pestaña **AWS**.
-2. Haz clic en una función Lambda y luego en el botón **Open Trace** para una invocación con una stack trace asociada.
+1. Ve a [**Infrastructure** > **Serverless** (Infraestructura > Serverless)][101] y haz clic en la pestaña **AWS**.
+2. Haz clic en una función Lambda y luego en el botón **Open Trace** (Abrir traza) para una invocación con una stack trace asociada.
3. Si utilizas las integraciones GitHub o GitLab, haz clic en **Connect to preview** (Conectar para previsualizar) en los marcos de stack tecnológico. Puedes ver fragmentos de código en línea directamente en la traza de stack tecnológico. De lo contrario, puedes hacer clic en el botón **View** (Ver) a la derecha de un marco o seleccionar **View file** (Ver archivo), **View Git blame* (Ver Git blame) o **View commit** (Ver commit) para ser redirigido a tu herramienta de gestión de código fuente.
{{< img src="integrations/guide/source_code_integration/serverless-aws-function-errors.mp4" alt="Enlace a GitHub desde Serverless Monitoring" video="true" >}}
@@ -512,11 +522,11 @@ En **Serverless Monitoring**, puedes ver los enlaces de los errores en tus stack
[101]: https://app.datadoghq.com/functions?cloud=aws&entity_view=lambda_functions
{{% /tab %}}
-{{% tab "Optimización de test" %}}
+{{% tab "Test Optimization" %}}
-Puedes ver los enlaces de los tests fallidos a tu repositorio fuente en **Optimización de test**.
+Puedes ver los enlaces de los tests fallidos a tu repositorio fuente en **Test Optimization**.
-1. Ve a [**Software Delivery** > **Test Optimization** > **Test Runs**][101] (Entrega de software > Optimización de test > Ejecuciones de test) y selecciona un test fallido.
+1. Ve a [**Software Delivery** > **Test Optimization** > **Test Runs**][101] (Entrega de software > Test Optimization > Ejecuciones de test) y selecciona un test fallido.
2. Si utilizas las integraciones GitHub o GitLab, haz clic en **Connect to preview** (Conectar para previsualizar) en los marcos de stack tecnológico. Puedes ver fragmentos de código en línea directamente en la traza de stack tecnológico. De lo contrario, puedes hacer clic en el botón **View** (Ver) a la derecha de un marco o seleccionar **View file** (Ver archivo), **View Git blame* (Ver Git blame) o **View commit** (Ver commit) para ser redirigido a tu herramienta de gestión de código fuente.
{{< img src="integrations/guide/source_code_integration/test_run_blurred.png" alt="Enlace a GitHub desde CI Visibility Explorer" style="width:100%;">}}
@@ -531,8 +541,8 @@ Para obtener más información, consulta [Mejora de los flujos de trabajo de los
Puedes ver los enlaces de los escaneos fallidos de Static Analysis y Software Composition Analysis a tu repositorio de fuentes en **Code Security**.
-1. Navega hasta [**Software Delivery** > **Code Security**][101] y selecciona un repositorio.
-2. En la vista **Vulnerabilidades de código** o **Code Quality**, haz clic en una vulnerabilidad o infracción de código. En la sección **Detalles**, si utilizas las integraciones GitHub, GitLab o Azure DevOps, haga clic en **Connect to preview** (Conectar para previsualizar). Puedes ver fragmentos de código en línea que resaltan las líneas exactas de código que desencadenaron la vulnerabilidad o infracción. De lo contrario, puedes hacer clic en el botón **View** (Ver) a la derecha de un marco o seleccionar **View file** (Ver archivo), **View Git blame* (Ver Git blame) o **View commit** (Ver commit) para ser redirigido a tu herramienta de gestión de código fuente.
+1. Ve a [**Software Delivery** > **Code Security** (Entrega de software > Code Security)][101] y selecciona un repositorio.
+2. En la vista **Code Vulnerabilities** (Vulnerabilidades de código) o **Code Quality** (Callidad del còdigo), haz clic en una vulnerabilidad o infracción de código. En la sección **Detalles**, si utilizas las integraciones GitHub, GitLab o Azure DevOps, haga clic en **Connect to preview** (Conectar para previsualizar). Puedes ver fragmentos de código en línea que resaltan las líneas exactas de código que desencadenaron la vulnerabilidad o infracción. De lo contrario, puedes hacer clic en el botón **View** (Ver) a la derecha de un marco o seleccionar **View file** (Ver archivo), **View Git blame* (Ver Git blame) o **View commit** (Ver commit) para ser redirigido a tu herramienta de gestión de código fuente.
{{< img src="integrations/guide/source_code_integration/code-analysis-scan.png" alt="Enlace a GitHub desde la vista Code Security Code Vulnerabilities" style="width:100%;">}}
@@ -546,28 +556,28 @@ Para más información, consulta la [Documentación sobre Code Security][102].
Puedes ver los enlaces de los errores en los stack traces asociados de tus señales de seguridad a tu repositorio fuente en **App and API Protection Monitoring**.
-1. Navega a [**Security** > **App and API Protection**][101] (Seguridad > App and API Protection) y selecciona una señal de seguridad.
-2. Desplázate hasta la sección **Traces**, en la pestaña **Related Signals**, y haz clic en una stack trace asociada.
+1. Ve a [**Security** > **App and API Protection** (Seguridad > Protección de aplicaciones y API)][101] y selecciona una señal de seguridad.
+2. Desplázate hasta la sección **Traces**, en la pestaña **Señales relacionadas**, y haz clic en una stack trace asociada.
3. Si utilizas las integraciones GitHub o GitLab, haz clic en **Connect to preview** (Conectar para previsualizar) en los marcos de stack tecnológico. Puedes ver fragmentos de código en línea directamente en la traza de stack tecnológico. De lo contrario, puedes hacer clic en el botón **View** (Ver) a la derecha de un marco o seleccionar **View file** (Ver archivo), **View Git blame* (Ver Git blame) o **View commit** (Ver commit) para ser redirigido a tu herramienta de gestión de código fuente.
-{{< img src="integrations/guide/source_code_integration/asm-signal-trace-blur.png" alt="Enlace a GitHub desde App and API Protection Monitoring" style="width:100%;">}}
+{{< img src="integrations/guide/source_code_integration/asm-signal-trace-blur.png" alt="Enlace a GitHub desde Monitorización de la protección de aplicaciones y API" style="width:100%;">}}
[101]: https://app.datadoghq.com/security/appsec
{{% /tab %}}
{{% tab "Dynamic Instrumentation" %}}
-Puedes ver los archivos de código fuente completos en [**Dynamic Instrumentation**][102] al crear o editar una instrumentación (log dinámico, métrica, tramo o span tags).
+Puedes ver los archivos de código fuente completos en [**Dynamic Instrumentation**][102] (Instrumentación dinámica) al crear o editar una instrumentación (log dinámico, métrica, tramo o etiquetas de tramo).
#### Crear nueva instrumentación
-1. Ve a [**APM** > **Dynamic Instrumentation**][101].
+1. Ve a [**APM** > **Dynamic Instrumentation** (APM > Instrumentación dinámica)][101].
2. Selecciona **Create New Instrumentation** (Crear nueva instrumentación) y elige un servicio a instrumentar.
3. Busca y selecciona un nombre de archivo o método de código fuente.
#### Ver o editar instrumentación
-1. Ve a [**APM** > **Dynamic Instrumentation**][101].
+1. Ve a [**APM** > **Dynamic Instrumentation** (APM > Instrumentación dinámica)][101].
2. Selecciona una instrumentación existente en la lista y haz clic en **View Events** (Ver eventos).
3. Selecciona la tarjeta de instrumentación para ver su localización en el código fuente.
@@ -585,9 +595,9 @@ Para más información, consulta la [documentación de Dynamic Instrumentation][
{{< tabs >}}
{{% tab "CI Visibility" %}}
-Los comentarios en solicitudes pull están habilitados por defecto cuando se accede por primera vez a CI Visibility, si la integración GitHub o GitLab está instalada correctamente. Estas integraciones publican un comentario resumiendo los trabajos fallidos detectados en tu solicitud pull.
+Los comentarios de solicitud pull están habilitados por defecto cuando se accede por primera vez a CI Visibility si la integración con GitHub o GitLab está instalada correctamente. Estas integraciones publican un comentario resumiendo los trabajos fallidos detectados en tu solicitud pull.
-{{< img src="integrations/guide/source_code_integration/ci-visibility-pr-comment.png" alt="Comentario en solicitud pull que resume los trabajos fallidos detectados por CI Visibility" style="width:100%;">}}
+{{< img src="integrations/guide/source_code_integration/ci-visibility-pr-comment.png" alt="Comentario en solicitud pull que resume los trabajos fallidos detectados por CI Visibility" style="width:100%;">}}
Para desactivar los comentarios en solicitudes pull para CI Visibility, ve a los [parámetros de repositorios de CI Visibility][101].
@@ -596,9 +606,9 @@ Para desactivar los comentarios en solicitudes pull para CI Visibility, ve a los
{{% /tab %}}
{{% tab "Code Security" %}}
-Los comentarios en solicitudes pull están habilitados por defecto cuando se accede por primera vez a Code Security, si la integración GitHub, GitLab o Azure DevOps está instalada correctamente. Estas integraciones publican dos tipos de comentarios en tus solicitudes pull.
+Los comentarios de solicitud pull están habilitados por defecto al acceder por primera vez a Code Security si la integración con GitHub, GitLab o Azure DevOps está instalada correctamente. Estas integraciones publican dos tipos de comentarios en tus solicitudes pull:
-1. Un único comentario que resume las nuevas infracciones detectadas en tu solicitud pull.
+1. Un único comentario que resuma las nuevas infracciones detectadas en tu solicitud pull.
{{< img src="integrations/guide/source_code_integration/code-security-summary-pr-comment.png" alt="Comentario en solicitud pull que resume las nuevas infracciones detectadas por Code Security" style="width:100%;">}}
@@ -611,9 +621,9 @@ Para desactivar los comentarios en solicitudes pull para Code Security, ve a los
[101]: https://app.datadoghq.com/security/configuration/code-security/settings
{{% /tab %}}
-{{% tab "Optimización de test" %}}
+{{% tab "Test Optimization" %}}
-Los comentarios en solicitudes pull están habilitados por defecto cuando se accede por primera vez a Test Optimization, si la integración GitHub o GitLab está instalada correctamente. Estas integraciones publican un comentario resumiendo los tests fallidos o defectuosos detectados en tu solicitud pull.
+Los comentarios de solicitud pull están habilitados por defecto cuando se accede por primera vez a Test Optimization (optimización de tests) si la integración con GitHub o GitLab está instalada correctamente. La integración publica un comentario en el que se resumen los tests fallidos y defectuosos detectados en tu solicitud pull.
{{< img src="integrations/guide/source_code_integration/test-optimization-pr-comment.png" alt="Comentario en solicitud pull que resume los tests fallidos y defectuosos detectados por Test Optimization" style="width:100%;">}}
@@ -635,4 +645,4 @@ Para desactivar los comentarios en solicitudes pull para Test Optimization, ve a
[6]: /es/tracing/
[7]: https://app.datadoghq.com/source-code/setup/apm
[8]: /es/tracing/error_tracking/
-[9]: /es/tracing/trace_collection/dd_libraries/
+[9]: /es/tracing/trace_collection/dd_libraries/
\ No newline at end of file
diff --git a/content/es/integrations/honeybadger.md b/content/es/integrations/honeybadger.md
index a357548c779cc..cf45eebce406f 100644
--- a/content/es/integrations/honeybadger.md
+++ b/content/es/integrations/honeybadger.md
@@ -1,54 +1,15 @@
---
app_id: honeybadger
-app_uuid: 385c386e-6394-41f4-8c92-5944e6b203f5
-assets:
- integration:
- auto_install: true
- events:
- creates_events: true
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 130
- source_type_name: Honeybadger
-author:
- homepage: https://www.datadoghq.com
- name: Datadog
- sales_email: info@datadoghq.com
- support_email: help@datadoghq.com
categories:
- event management
- issue tracking
custom_kind: integración
-dependencies: []
-display_on_public_website: true
-draft: false
-git_integration_title: honeybadger
-integration_id: honeybadger
-integration_title: Honeybadger
-integration_version: ''
-is_public: true
-manifest_version: 2.0.0
-name: honeybadger
-public_title: Honeybadger
-short_description: Visualiza, busca y analiza excepciones de Honeybadger en tu flujo
- de eventos.
-supported_os: []
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Category::Event Management
- - Category::Issue Tracking
- - Offering::Integration
- configuration: README.md#Configuración
- description: Visualiza, busca y analiza excepciones de Honeybadger en tu flujo de
- eventos.
- media: []
- overview: README.md#Información general
- support: README.md#Soporte
- title: Honeybadger
+description: Visualizar, buscar y discutir excepciones de Honeybadger en tu evento
+ stream.
+integration_version: 1.0.0
+media: []
+title: Honeybadger
---
-
-
## Información general
Honeybadger proporciona monitorización de excepciones y tiempo de actividad para mantener tus aplicaciones web libres de errores. Conecta Honeybadger a Datadog para recibir alertas de Honeybadger en tu flujo de eventos de Datadog.
@@ -59,13 +20,13 @@ Honeybadger proporciona monitorización de excepciones y tiempo de actividad par
Para capturar errores de Honeybadger:
-1. Abre tu [lista de proyectos][1] de Honeybadger.
-2. Haz clic en «Settings» (Configuración) del proyecto que deseas monitorizar.
-3. Haz clic en «Alerts & Integrations» (Alertas e integraciones).
-4. Selecciona «Datadog» como integración nueva.
-5. Añade tu [clave de API][2].
-6. Guarda la integración.
-7. Haz clic en el botón **Install Integration** (Instalar integración) del [cuadro de integración de Honeybadger][3].
+1. Abre tu [lista de proyectos](https://app.honeybadger.io/users/sign_in). de Honeybadger.
+1. Haz clic en «Settings» (Configuración) del proyecto que deseas monitorizar.
+1. Haz clic en «Alerts & Integrations» (Alertas e integraciones).
+1. Selecciona «Datadog» como integración nueva.
+1. Añade tu [clave de API](https://app.datadoghq.com/organization-settings/api-keys).
+1. Guarda la integración.
+1. Haz clic en el botón **Install Integration** (Instalar integración) del [cuadro de integración de Honeybadger](https://app.datadoghq.com/account/settings#integrations/honeybadger).
## Datos recopilados
@@ -83,9 +44,4 @@ La integración de Honeybadger no incluye checks de servicio.
## Solucionar problemas
-¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][4].
-
-[1]: https://app.honeybadger.io/users/sign_in
-[2]: https://app.datadoghq.com/organization-settings/api-keys
-[3]: https://app.datadoghq.com/account/settings#integrations/honeybadger
-[4]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/).
\ No newline at end of file
diff --git a/content/es/integrations/jenkins.md b/content/es/integrations/jenkins.md
index 27753bf7ad23a..ee9dd83d51bcc 100644
--- a/content/es/integrations/jenkins.md
+++ b/content/es/integrations/jenkins.md
@@ -1,21 +1,11 @@
---
-categories:
-- configuration & deployment
+app_id: jenkins
custom_kind: integración
-dependencies:
-- https://github.com/jenkinsci/datadog-plugin/blob/master/README.md
description: Reenvía automáticamente tus métricas, eventos y checks de servicio de
Jenkins to Datadog.
-doc_link: https://docs.datadoghq.com/integrations/jenkins/
-git_integration_title: jenkins
-has_logo: true
-integration_title: Jenkins
-is_public: true
-name: jenkins
-public_title: Integración de Datadog y Jenkins
-short_description: Reenvía automáticamente tus métricas, eventos y servicios de Jenkins
- checks to Datadog.
+title: Jenkins
---
+
Un complemento de Jenkins para reenviar automáticamente métricas, eventos y checks de servicio a una cuenta de Datadog.
![Dashboard de Jenkins Datadog][16]
@@ -274,7 +264,7 @@ pipeline {
datadog(testOptimization: [
enabled: true,
serviceName: "my-service", // the name of service or library being tested
- languages: ["JAVA"], // languages that should be instrumented (available options are "JAVA", "JAVASCRIPT", "PYTHON", "DOTNET", "RUBY")
+ languages: ["JAVA"], // languages that should be instrumented (available options are "JAVA", "JAVASCRIPT", "PYTHON", "DOTNET", "RUBY", "GO")
additionalVariables: ["my-var": "value"] // additional tracer configuration settings (optional)
])
}
@@ -425,7 +415,7 @@ NOTA: Como se menciona en la sección [personalización del trabajo](#job-custom
**Nota**: Esta configuración sólo se aplica a aquellos que utilizan la [configuración del Datadog Agent](#plugin-user-interface).
-1. La recopilación de logs está deshabilitada por defecto en el Datadog Agent; habilítala en tu archivo `datadog.yaml`:
+1. La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent, actívala en tu archivo `datadog.yaml`:
```yaml
logs_enabled: true
@@ -449,7 +439,7 @@ NOTA: Como se menciona en la sección [personalización del trabajo](#job-custom
Crea el estado `jenkins.job.status` con las siguientes etiquetas predeterminadas: `jenkins_url`, `job`, `node`, `user_id`
-## Resolución de problemas
+## Solucionar problemas
### Generación de un flare de diagnóstico.
diff --git a/content/es/integrations/journald.md b/content/es/integrations/journald.md
index 2c1e7c86e959e..441020a791fa4 100644
--- a/content/es/integrations/journald.md
+++ b/content/es/integrations/journald.md
@@ -1,89 +1,46 @@
---
app_id: journald
-app_uuid: 2ee4cbe2-2d88-435b-9ed9-dbe07ca1d059
-assets:
- integration:
- auto_install: true
- configuration:
- spec: assets/configuration/spec.yaml
- events:
- creates_events: false
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 10167
- source_type_name: journald
-author:
- homepage: https://www.datadoghq.com
- name: Datadog
- sales_email: info@datadoghq.com
- support_email: help@datadoghq.com
categories:
- recopilación de logs
custom_kind: integración
-dependencies:
-- https://github.com/DataDog/integrations-core/blob/master/journald/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: journald
-integration_id: journald
-integration_title: journald
+description: Monitoriza tus logs systemd-journald con Datadog.
integration_version: 3.0.0
-is_public: true
-manifest_version: 2.0.0
-name: journald
-public_title: journald
-short_description: Monitoriza tus logs systemd-journald con Datadog.
+media: []
supported_os:
- linux
- macos
- windows
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Supported OS::Linux
- - Supported OS::macOS
- - Supported OS::Windows
- - Category::Log Collection
- - Offering::Integration
- configuration: README.md#Setup
- description: Monitoriza tus logs systemd-journald con Datadog.
- media: []
- overview: README.md#Overview
- support: README.md#Support
- title: journald
+title: journald
---
-
-
-
-
## Información general
-Systemd-journald es un servicio de sistema que recopila y almacena datos de registro.
-Crea y mantiene diarios estructurados e indexados basados en información de registro procedente de diversas fuentes.
+Systemd-journald es un servicio de sistema que recopila y almacena datos de generación de logs.
+Este servicio crea y conserva registros estructurados e indexados basados en la información de generación de logs procedente de diversas fuentes.
## Configuración
### Instalación
-El check de journald está incluido en el paquete del [Datadog Agent ][1].
+El check de journald está incluido en el paquete del [Datadog Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
No es necesaria ninguna instalación adicional en tu servidor.
### Configuración
-Los archivos del diario, por defecto, son propiedad del grupo del sistema systemd-journal y pueden ser leidos por él. Para empezar a recopilar tus logs de diario, debes hacer lo siguiente:
+Los archivos del registro, por defecto, son propiedad del grupo del sistema systemd-journal y pueden ser leidos por él. Para empezar a recopilar tus logs de registro, debes hacer lo siguiente:
-1. [Instala el Agent][2] en la instancia que ejecuta el diario.
-2. Añade el usuario `dd-agent` al grupo `systemd-journal` ejecutando:
- ```text
- usermod -a -G systemd-journal dd-agent
- ```
+1. [Instala el Agent](https://app.datadoghq.com/account/settings/agent/latest) en la instancia que ejecuta el registro.
+1. Añade el usuario `dd-agent` al grupo `systemd-journal` ejecutando:
+ ```text
+ usermod -a -G systemd-journal dd-agent
+ ```
{{< tabs >}}
+
{{% tab "Host" %}}
Para configurar este check para un Agent que se ejecuta en un host:
-Edita el archivo `journald.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent][1] para empezar a recopilar logs.
+Edita el archivo `journald.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory) para empezar a recopilar logs.
#### Recopilación de logs
@@ -105,50 +62,44 @@ Para rellenar los atributos `source` y `service`, el Agent recopila `SYSLOG_IDEN
**Nota**: Con Agent 7.17+, si `container_mode` se establece en `true`, el comportamiento por defecto cambia para logs procedentes de contenedores de Docker. El atributo `source` de tus logs se establecen automáticamente en el nombre corto de imagen correspondiente del contenedor en lugar de simplemente `docker`.
-[Reinicia el Agent][2].
+[Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
-
-[1]: https://docs.datadoghq.com/es/agent/guide/agent-configuration-files/#agent-configuration-directory
-[2]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
{{% /tab %}}
-{{% tab "Contenedorizado" %}}
-Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][1] para obtener orientación sobre la aplicación de los parámetros que se indican a continuación.
+{{% tab "En contenedores" %}}
-#### Recopilación de logs
+Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/kubernetes/integrations/) para obtener orientación sobre la aplicación de los parámetros que se indican a continuación.
+#### Recopilación de logs
-La recopilación de logs está desactivada por defecto en Datadog Agent. Para activarla, consulta [recopilación de logs de Kubernetes][2].
+La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent. Para activarla, consulta [Recopilación de logs de Kubernetes](https://docs.datadoghq.com/agent/kubernetes/log/?tab=containerinstallation#setup).
| Parámetro | Valor |
| -------------- | ------------------------------------------------------ |
| `
` | `{"source": "journald", "service": ""}` |
-[1]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/
-[2]: https://docs.datadoghq.com/es/agent/kubernetes/log/?tab=containerinstallation#setup
{{% /tab %}}
-{{< /tabs >}}
+{{< /tabs >}}
#### Funciones avanzadas
-##### Cambiar la localización del diario
+##### Cambiar la localización del registro
-Por defecto, el Agent busca el diario en las siguientes localizaciones:
+Por defecto, el Agent busca el registro en las siguientes localizaciones:
- `/var/log/journal`
- `/run/log/journal`
-Si tu diario se encuentra en otro lugar, añade un parámetro `path` con la ruta del diario correspondiente.
+Si tu registro se encuentra en otro lugar, añade un parámetro `path` con la ruta del registro correspondiente.
-##### Filtrar unidades del diario
+##### Filtrar unidades del registro
Puedes filtrar unidades específicas _a nivel de sistema_ utilizando estos parámetros:
- `include_units`: incluye todas las unidades de nivel de sistema especificadas.
- `exclude_units`: excluye todas las unidades de nivel de sistema especificadas.
-
Ejemplo:
```yaml
@@ -177,14 +128,13 @@ logs:
- '*'
```
-##### Filtrar los mensajes del diario
+##### Filtrar los mensajes del registro
En el Datadog Agent versión `7.39.0`+, puedes filtrar mensajes arbitrarios utilizando pares de clave-valor con estos parámetros:
- `include_matches`: incluye mensajes coincidentes con `key=value`
- `exclude_matches`: excluye los mensajes que coinciden con `key=value`
-
Ejemplo:
```yaml
@@ -195,11 +145,11 @@ logs:
- _TRANSPORT=kernel
```
-##### Seguimiento del mismo diario varias veces
+##### Seguimiento del mismo registro varias veces
Si deseas informar de unidades con diferentes fuentes o etiquetas de servicio, éstas deben aparecer en configuraciones de journald separadas.
-Para ello debes identificar unívocamente la configuración del diario con un `config_id` (disponible en Agent `7.41.0` +).
+Para ello debes identificar unívocamente la configuración del registro con un `config_id` (disponible en Agent `7.41.0` +).
```yaml
logs:
@@ -222,34 +172,28 @@ logs:
Las etiquetas son fundamentales para encontrar información en entornos en contenedores altamente dinámicos, por lo que el Agent puede recopilar etiquetas de contenedor en logs de journald.
-Esto funciona automáticamente cuando el Agent se está ejecutando desde el host. Si estás utilizando la versión en contenedores del Datadog Agent, integra la ruta de tu diario y el siguiente archivo:
+Esto funciona automáticamente cuando el Agent se está ejecutando desde el host. Si estás utilizando la versión en contenedores del Datadog Agent, integra la ruta de tu registro y el siguiente archivo:
-- `/etc/machine-id`: esto asegura que el Agent puede consultar el diario almacenado en el host.
+- `/etc/machine-id`: esto asegura que el Agent puede consultar el registro almacenado en el host.
### Validación
-Ejecuta el [subcomando de estado][3] del Agent y busca `journald` en la sección Logs del Agent.
+[Ejecuta el [subcomando de estado del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `journald` en la sección Checks.
## Datos recopilados
### Métricas
-journald no incluye ninguna métrica.
+Journald no incluye métricas.
### Checks de servicio
-journald no incluye ningún check de servicio.
+Journald no incluye checks de servicio.
### Eventos
-journald no incluye ningún evento.
+Journald no incluye eventos.
## Solucionar problemas
-¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][4].
-
-
-[1]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
-[2]: https://app.datadoghq.com/account/settings/agent/latest
-[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
-[4]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/).
\ No newline at end of file
diff --git a/content/es/integrations/lambdatest.md b/content/es/integrations/lambdatest.md
index 96682ea60748d..74cac5fe97178 100644
--- a/content/es/integrations/lambdatest.md
+++ b/content/es/integrations/lambdatest.md
@@ -1,78 +1,21 @@
---
app_id: lambdatest
-app_uuid: 8d4556af-b5e8-4608-a4ca-4632111931c1
-assets:
- dashboards:
- LambdaTest: assets/dashboards/overview.json
- integration:
- auto_install: true
- configuration: {}
- events:
- creates_events: false
- metrics:
- check: []
- metadata_path: metadata.csv
- prefix: lambdatest.
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 10243
- source_type_name: LambdaTest
- logs:
- source: lambdatest
- oauth: assets/oauth_clients.json
-author:
- homepage: https://github.com/DataDog/integrations-extras
- name: LambdaTest
- sales_email: prateeksaini@lambdatest.com
- support_email: prateeksaini@lambdatest.com
categories:
- automatización
- contenedores
- rum
- seguimiento de problemas
- tests
-custom_kind: integration
-dependencies:
-- https://github.com/DataDog/integrations-extras/blob/master/lambdatest/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: lambdatest
-integration_id: lambdatest
-integration_title: LambdaTest
-integration_version: ''
-is_public: true
-manifest_version: 2.0.0
-name: lambdatest
-public_title: LambdaTest
-short_description: La plataforma de tests de automatización más potente
+custom_kind: integración
+description: La plataforma de tests de automatización más potente
+integration_version: 1.0.0
+media: []
supported_os:
- Linux
- Windows
- macOS
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Categoría::Automatización
- - Categoría::Contenedores
- - Categoría::Incidentes
- - Categoría::Seguimiento de problemas
- - Categoría::Tests
- - Sistema operativo compatible::Linux
- - Sistema operativo compatible::Windows
- - Sistema operativo compatible::macOS
- - Oferta::Integración
- configuration: README.md#Configuración
- description: La plataforma de tests de automatización más potente
- media: []
- overview: README.md#Información general
- support: README.md#Soporte
- title: LambdaTest
- uninstallation: README.md#Desinstalación
+title: LambdaTest
---
-
-
-
-
## Información general
Realiza una integración con LambdaTest y permite a tus equipos colaborar y realizar tests de forma eficaz. LambdaTest es una plataforma de tests en la nube que permite a los usuarios ejecutar tests manuales y automatizados en sus sitios web y aplicaciones web en más de 2000 navegadores, versiones de navegadores y sistemas operativos.
@@ -92,31 +35,28 @@ A continuación podrás ver todo lo que puedes hacer con LambdaTest:
## Configuración
-Toda la configuración ocurre en el dashboard de LambdaTest. Consulta la documentación de configuración de la [integración de LambdaTest en Datadog][1].
+Toda la configuración ocurre en el dashboard de LambdaTest. Consulta la documentación de configuración de la [integración LambdaTest-Datadog](https://www.lambdatest.com/support/docs/datadog-integration/).
### Configuración
A continuación se explica cómo realizar un seguimiento de los problemas en Datadog con LambdaTest:
1. Haz clic en **Connect Accounts** (Conectar cuentas) para iniciar la autorización de la integración de LambdaTest desde la página de inicio de sesión en LambdaTest.
-2. Inicia sesión en tu cuenta de LambdaTest, en el sitio web de LambdaTest, para que se te redirija a la página de autorización de Datadog.
-3. Haz clic en **Authorize** (Autorizar) para completar el proceso de integración.
-4. Una vez que se haya completado la configuración de la integración se enviará un correo electrónico de confirmación.
-5. Una vez que Datadog esté integrado en tu cuenta de LambdaTest, comienza a registrar errores y a realizar tests entre navegadores.
+1. Inicia sesión en tu cuenta de LambdaTest, en el sitio web de LambdaTest, para que se te redirija a la página de autorización de Datadog.
+1. Haz clic en **Authorize** (Autorizar) para completar el proceso de integración.
+1. Una vez que se haya completado la configuración de la integración se enviará un correo electrónico de confirmación.
+1. Una vez que Datadog esté integrado en tu cuenta de LambdaTest, comienza a registrar errores y a realizar tests entre navegadores.
## Desinstalación
-Una vez que se desinstala esta integración, se revocan todas las autorizaciones anteriores.
+Una vez que desinstales esta integración, se revocarán todas las autorizaciones anteriores.
-Además, asegúrate de que todas las claves de API asociadas a esta integración se han deshabilitado, buscando el nombre de la integración en la [página de gestión de las claves de API][2].
+Además, asegúrate de que todas las claves de API asociadas a esta integración se han desactivado, buscando el nombre de la integración en la [página de gestión de claves de API](/organization-settings/api-keys?filter=LambdaTest).
-## Compatibilidad
+## Soporte
Para recibir asistencia o solicitar funciones, ponte en contacto con LambdaTest a través de los siguientes canales:
Correo electrónico: support@lambdatest.com
Teléfono: +1-(866)-430-7087
-Sitio web: https://www.lambdatest.com/
-
-[1]: https://www.lambdatest.com/support/docs/datadog-integration/
-[2]: https://app.datadoghq.com/organization-settings/api-keys?filter=LambdaTest
\ No newline at end of file
+Sitio web: https://www.lambdatest.com/
\ No newline at end of file
diff --git a/content/es/integrations/microsoft_365.md b/content/es/integrations/microsoft_365.md
index aaf2afba0d135..530ba3dbebe12 100644
--- a/content/es/integrations/microsoft_365.md
+++ b/content/es/integrations/microsoft_365.md
@@ -1,36 +1,23 @@
---
+app_id: microsoft_365
categories:
- recopilación de logs
- seguridad
-custom_kind: integration
-dependencies: []
-description: Conéctate a Microsoft 365 para extraer los logs de auditoría de una organización
- a la plataforma de registro de Datadog.
-doc_link: https://docs.datadoghq.com/integrations/microsoft_365/
-draft: false
+custom_kind: integración
+description: 'Visualiza los logs de auditoría de Microsoft 365 en Datadog desde servicios
+ como: Microsoft Teams, Power BI, Azure Active Directory, Dynamics 365 y más'
further_reading:
- link: https://www.datadoghq.com/blog/microsoft-365-integration/
tag: Blog
text: Recopilar y monitorizar logs de auditoría de Microsoft 365 con Datadog
-git_integration_title: microsoft_365
-has_logo: true
-integration_id: ''
-integration_title: Logs de auditoría y seguridad de Microsoft 365
-integration_version: ''
-is_public: true
-manifest_version: '1.0'
-name: microsoft_365
-public_title: Logs de auditoría y seguridad de Microsoft 365 y Datadog
-short_description: 'Visualiza los logs de auditoría de Microsoft 365 en Datadog desde
- servicios como: Microsoft Teams, Power BI, Azure Active Directory, Dynamics 365
- y más'
-team: web-integrations
-version: '1.0'
+title: Logs de auditoría y seguridad de Microsoft 365
---
-
-
## Información general
+
+Si utilizas Cloud SIEM, Datadog recomienda utilizar la integración de
Microsoft Entra ID para una mejor cobertura de detección de seguridad.
+
+
Integra con Microsoft 365 para:
- Ver y analizar los logs de auditoría con el producto de registro de Datadog
@@ -41,19 +28,19 @@ Integra con Microsoft 365 para:
### Instalación
-Usa el [cuadro de Microsoft 365 y Datadog][1] para instalar la integración.
+Utiliza el [ícono de Datadog Microsoft 365](https://app.datadoghq.com/integrations/microsoft-365) para instalar la integración.
Haz clic en **Install a New Tenant** (Instalar un inquilino nuevo). Esto te indicará que debes iniciar sesión en tu cuenta de Microsoft 365 para obtener autorización. Debes iniciar sesión con una cuenta de administrador.
De manera opcional, añade etiquetas (tags) personalizadas separadas por comas que se adjunten a cada log para este inquilino recién configurado, por ejemplo, `environment:prod,team:us`. Estas etiquetas se pueden usar para filtrar o analizar logs.
-**Nota**: Tu organización debe tener el [registro de auditoría habilitado][2] para usar el registro de auditoría de Datadog.
+**Nota**: Tu organización debe tener [activado el registro de auditoría](https://docs.microsoft.com/en-us/microsoft-365/compliance/turn-audit-log-search-on-or-off?view=o365-worldwide#turn-on-audit-log-search) para utilizar el registro de auditoría de Datadog.
## Datos recopilados
### Logs
-Puedes recopilar logs de auditoría para todos los servicios que se mencionan en los [esquemas de la API de gestión de Office 365][3], como:
+Puedes recopilar logs de auditoría de todos los servicios mencionados en los [esquemas de la API de gestión de Office 365](https://learn.microsoft.com/en-us/office/office-365-management-api/office-365-management-activity-api-schema#office-365-management-api-schemas), como:
- Microsoft Teams
- Power BI
@@ -65,90 +52,90 @@ Puedes recopilar logs de auditoría para todos los servicios que se mencionan en
La integración de Microsoft 365 produce un evento de log por log de auditoría. Los logs recopilados se etiquetan con la fuente `microsoft-365`. Haz clic a continuación para obtener una lista de fuentes de log comunes con resúmenes y enlaces a consultas de log preestablecidas en Datadog.
- Haz clic para ver las fuentes de log comunes
+ Haz clic para ver las sources (fuentes) de logs habituales
-[`AirInvestigation`][4]
-: Relacionado con las investigaciones de Advanced eDiscovery y Advanced Threat Protection (ATP) dentro de Microsoft 365. Estos logs contienen información sobre incidencias de seguridad, investigaciones y acciones tomadas para mitigar amenazas, como alertas, pasos de corrección y datos forenses.
+[`AirInvestigation`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AAirInvestigation%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true)
+: Relacionado con investigaciones de Advanced eDiscovery y Advanced Threat Protection (ATP) en Microsoft 365. Estos logs contienen información sobre incidents (incidentes) de seguridad, investigaciones y medidas tomadas para mitigar amenazas, como alertas, steps (UI) / pasos (generic) de corrección y datos forenses.
-[`Audit.AzureActiveDirectory`][5]
-: Representa a los logs que genera Azure Active Directory (Azure AD), el servicio de gestión de identidad y acceso basado en la nube de Microsoft. Los logs de Azure AD proporcionan información sobre las actividades de inicio de sesión de los usuarios, la gestión de directorios y grupos, el acceso a las aplicaciones, y los eventos relacionados con la seguridad. Permite a las organizaciones gestionar el acceso de los usuarios y detectar posibles riesgos de seguridad.
+[`Audit.AzureActiveDirectory`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AAzureActiveDirectory%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true)
+: Representa logs generados Azure Active Directory (Azure AD), identidad basada en la nube de Microsoft y servicio de gestión de acceso. Los logs de Azure AD brindan información sobre las actividades de inicio de sesión del usuario, gestión de grupos y directorios, acceso a aplicaciones y eventos relacionados con la seguridad. Permite que las organizaciones gestionen el acceso del usuario y detecten posibles riesgos de seguridad.
-[`Audit.Exchange`][6]
-: Se refiere a los logs que genera Microsoft Exchange Server. Los logs de Exchange contienen información sobre la entrega de correos electrónicos, el acceso al buzón, las conexiones de clientes y las acciones administrativas dentro del entorno de Exchange. Ayuda a las organizaciones a monitorizar y solucionar problemas relacionados con correos electrónicos.
+[`Audit.Exchange`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AExchange%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true)
+: Se relaciona con logs generados por Microsoft Exchange Server. Los logs de Exchange contienen información sobre entrega de correo electrónico, acceso al buzón, conexiones de clientes y acciones administrativas en el entorno de Exchange. Ayda a las organizaciones a monitorizar y solucionar problemas relacionados con el correo electrónico.
-[`Audit.General`][7]
-: Contiene información sobre diversas actividades y eventos que se producen en tu entorno de Microsoft 365, como actividades de usuarios y administradores, eventos del sistema, incidencias de seguridad y otras acciones que no están directamente asociadas con servicios específicos como Exchange o SharePoint.
+[`Audit.General`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true)
+: Contiene información sobre distintas actividades y eventos que se producen en tu entorno de Microsoft 365, como actividades del usuario y del administrador, eventos del sistema, incidents (incidentes) de seguridad y otras medidas que no se relacionan directamente con servicios específicos como Exchange o SharePoint.
-[`Audit.MicrosoftForms`][8]
-: Representa a los logs que genera Microsoft Forms, una herramienta para crear encuestas, cuestionarios y formularios. Los logs de Forms incluyen información sobre la creación de formularios, el acceso, las respuestas y las actividades de los usuarios. Ayuda a las organizaciones a rastrear y proteger los datos de sus formularios.
+[`Audit.MicrosoftForms`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AMicrosoftForms%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true)
+: Representa logs generados por Microsoft Forms, una herramienta para crear encuestas, cuestionarios y formularios. Los logs de formularios incluyen información sobre creación de formularios, acceso, respuestas y actividades del usuario. Brinda asistencia a las organizaciones en el rastreo y la obtención de datos de sus formularios.
-[`Audit.MicrosoftStream`][9]
-: Hace referencia a los logs que genera Microsoft Stream, una plataforma para compartir vídeos dentro del ecosistema de Microsoft. Los logs de Stream contienen información sobre las cargas de vídeos, el acceso, el uso compartido y las actividades de los usuarios. Ayuda a las organizaciones a rastrear y proteger su contenido de vídeos.
+[`Audit.MicrosoftStream`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AMicrosoftStream%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true)
+: Se refiere a logs generados por Microsoft Stream, una plataforma para compartir videos en el ecosistema de Microsoft. Los logs de Stream contienen información sobre cargas de videos, acceso, compartir y actividades del usuario. Ayuda a las organizaciones a rastrear y obtener su contenido de video.
-[`Audit.MicrosoftTeams`][10]
-: Incluye los logs que genera Microsoft Teams, una plataforma de colaboración y comunicación. Los logs de Teams incluyen información sobre las actividades de los usuarios, la gestión de equipos y canales, el uso compartido de archivos, y los eventos de reuniones. Ayuda a las organizaciones a monitorizar las interacciones de los usuarios y garantizar una colaboración segura.
+[`Audit.MicrosoftTeams`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AMicrosoftTeams%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true)
+: Comprende logs producidos por Microsoft Teams, una plataforma de colaboración y comunicación. Los logs de Teams incluyen información sobre actividades del usuario, gestión de equipos y canales, archivos compartidos y eventos de reuniones. Ayuda a las organizaciones a monitorizar interacciones de usuarios y garantizar una colaboración segura.
-[`Audit.OneDrive`][11]
-: Hace referencia a los logs que genera OneDrive, el servicio de sincronización y almacenamiento de archivos basado en la nube de Microsoft. Los logs de OneDrive incluyen información sobre el acceso a los archivos, el uso compartido, las modificaciones y las actividades de los usuarios. Ayuda a las organizaciones a monitorizar y proteger sus datos basados en la nube.
+[`Audit.OneDrive`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AOneDrive%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true)
+: Se refiere a logs generados por OneDrive, el servicio de almacenamiento y sincronización de archivos basado en la nube de Microsoft. Los logs de OneDrive incluyen información sobre acceso a archivos, compartida, modificaciones y actividades del usuario. Ayuda a las organizaciones a monitorizar y obtener datos basados en la nube.
-[`Audit.PowerBI`][12]
-: Hace referencia a los logs que genera Power BI, la herramienta de análisis empresarial y visualización de datos de Microsoft. Los logs de Power BI contienen información sobre el acceso a los datos, la generación de informes, las actividades del dashboard y las interacciones de los usuarios. Ayuda a las organizaciones a monitorizar y proteger sus datos de inteligencia empresarial.
+[`Audit.PowerBI`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3APowerBI%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true)
+: Se refiere a logs producidos por Power BI, la herramienta de análisis comerciales y visualización de datos de Microsoft. Los logs de Power BI contienen información sobre acceso a datos, generación de informes, actividades de dashboard e interacciones de usuarios. Ayuda a las organizaciones a monitorizar y obtener sus datos de inteligencia comercial.
-[`Audit.Project`][13]
-: Hace referencia a los logs de auditoría de Microsoft Project, una herramienta de gestión de proyectos dentro del conjunto de aplicaciones de Microsoft 365. Estos logs capturan eventos relacionados con actividades de los usuarios, acciones administrativas y eventos del sistema dentro de Microsoft Project, como la creación de proyectos, actualizaciones de tareas, asignación de recursos y cambios de permisos.
+[`Audit.Project`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AProject%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true)
+: Se refiere a logs de auditoría de Microsoft Project, una herramienta de gestión de projects (proyectos) en la serie Microsoft 365. Estos logs capturan eventos relacionados con actividades del usuario, medidas administrativas y eventos del sistema en Microsoft Project, como creación de projects (proyectos), actualizaciones de tareas, asignación de recursos y cambios de permisos.
-[`Audit.SharePoint`][14]
-: Hace referencia a los logs que genera Microsoft SharePoint. Los logs de SharePoint registran el acceso de los usuarios, las modificaciones de documentos, la administración del sitio y los eventos relacionados con la seguridad. Permite a las organizaciones mantener la integridad de los datos y proteger sus sitios y contenidos de SharePoint.
+[`Audit.SharePoint`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3ASharePoint%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true)
+: Se refiere a logs producidos por Microsoft SharePoint. Los logs de SharePoint registran el acceso del usuario, modificaciones de documentos, administración de sitios y eventos relacionados con la seguridad. Permite que las organizaciones mantengan la integridad de los datos y obtengan sus sitios y contenido de SharePoint.
-[`Audit.SkypeForBusiness`][15]
-: Hace referencia a los logs de auditoría de las actividades de Skype Empresarial. Estos logs capturan eventos relacionados con acciones administrativas y de usuarios dentro del servicio de Skype Empresarial, como registros de detalles de llamadas, registros de detalles de conferencias, actividades de mensajería y acciones de administración, como la administración de usuarios y actualizaciones de políticas.
+[`Audit.SkypeForBusiness`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3ASkypeForBusiness%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true)
+: Se refiere a los logs de auditoría de actividades de Skype for Business. Estos logs capturan eventos relacionados con acciones del usuario y administrativas en el servicio de Skype for Business, como registros de detalles de llamadas, registros de detalles de conferencias, actividades de mensajería y medidas administrativas como actualizaciones de gestión y políticas del usuario.
-[`Audit.Yammer`][16]
-: Representa a los logs que genera Yammer, una plataforma de redes sociales para empresas. Los logs de Yammer incluyen información sobre las actividades de los usuarios, la gestión de grupos y comunidades, y el uso compartido de contenido. Ayuda a las organizaciones a monitorizar y proteger sus redes sociales internas.
+[`Audit.Yammer`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AYammer%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true)
+: Representa logs producidos por Yammer, una plataforma de redes sociales para empresas. Los logs de Yammer incluyen información sobre actividades del usuario, gestión de grupos y comunidades y contenido compartido. Ayuda a las organizaciones a monitorizar y obtener sus redes sociales internas.
-[`ComplianceManager`][17]
-: Relacionado con la herramienta Microsoft Compliance Manager, que ayuda a las organizaciones a evaluar, gestionar y rastrear sus actividades de cumplimiento en Microsoft 365. Estos logs contienen información sobre evaluaciones de cumplimiento, tareas, acciones de mejora y progreso hacia el cumplimiento de los requisitos normativos.
+[`ComplianceManager`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AComplianceManager%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true)
+: Se relaciona con la herramienta Microsoft Compliance Manager, que ayuda a las organizaciones a evaluar, gestionar y rastrear sus actividades de cumplimiento en Microsoft 365. Estos logs contienen información sobre evaluaciones de complimiento, tareas, medidas de mejoramiento y progreso hacia requisitos regulatorios de reuniones.
`DLP.All`
-: Captura eventos relacionados con políticas, detecciones y acciones de DLP en todos los servicios de Microsoft 365, incluidos Exchange, SharePoint, OneDrive, Microsoft Teams y otros. Estos logs proporcionan información sobre infracciones de políticas, detecciones de información confidencial y acciones tomadas para proteger los datos, como bloquear contenido, notificar a usuarios o administradores, y más.
+: Captura eventos relacionados con políticas de DLP, detecciones y acciones en todos los servicios de Microsoft 365, incluidos Exchange, SharePoint, OneDrive, Microsoft Teams y otros. Estos logs brindan información sobre incumplimientos de políticas detecciones de información confidencial y las medidas tomadas para proteger los datos, como bloqueo de contenido, notificación a usuarios o administradores y más.
`Dynamics365`
-: Recopila eventos de cualquiera de tus servicios y aplicaciones de [Microsoft Dynamics 365][18].
+: Recopila eventos de cualquiera de tus servicios y aplicaciones de [Microsoft Dynamics 365](https://learn.microsoft.com/dynamics365/).
-[`MicrosoftFlow`][19]
-: Asociado con el servicio de Microsoft Power Automate (antes conocido como Microsoft Flow), una plataforma basada en la nube que permite a los usuarios crear y gestionar flujos de trabajo automatizados entre varias aplicaciones y servicios. Estos logs capturan eventos relacionados con ejecuciones de flujos de trabajo, errores y acciones administrativas, como la creación, actualización o eliminación de flujos.
+[`MicrosoftFlow`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AMicrosoftFlow%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true)
+: Asociado con el servicio Microsoft Power Automate (anteriormente denominado Microsoft Flow), una plataforma basada en la nube que permite que los usuarios creen y gestionen workflows (UI) / procesos (generic) automatizados entre distintas aplicaciones y servicios. Estos logs capturan eventos relacionados con ejecuciones de workflows, errores y medidas administrativas, como la creación, actualización o eliminación de flujos.
-[`Mip`][20]
-: Se refiere a los logs que genera Microsoft Information Protection (MIP), un conjunto de herramientas y servicios para clasificar, etiquetar y proteger datos confidenciales. Los logs de MIP proporcionan información sobre la clasificación de datos, el acceso y los eventos de protección. Permite a las organizaciones gestionar y proteger su información confidencial.
+[`Mip`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AMip%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true)
+: Se relaciona con logs generados por Microsoft Information Protection (MIP), una serie de herramientas y servicios para clasificar, etiquetar y proteger datos confidenciales. Los logs de MIP brindan información sobre eventos de clasificación, acceso y protección de datos. Permite que las organizaciones gestionen y aseguren su información confidencial.
-[`MyAnalytics`][21]
-: Relacionado con el servicio de Microsoft MyAnalytics, que proporciona información sobre los hábitos de trabajo y las tendencias de productividad de una persona dentro del conjunto de aplicaciones de Microsoft 365. Estos logs contienen información sobre las actividades de los usuarios, como el tiempo dedicado a reuniones, correos electrónicos, colaboración y tiempo de concentración.
+[`MyAnalytics`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AMyAnalytics%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true)
+: Relacionado con el servicio Microsoft MyAnalytics, que brinda información sobre los hábitos laborales y las tendencias de productividad de una persona en la serie Microsoft 365. Estos logs contienen información sobre actividades de usuarios, el tiempo transcurrido en reuniones, correos electrónico, colaboración y tiempo de concentración.
-[`PowerApps`][22]
-: Hace referencia a los logs que genera Power Apps, la plataforma de desarrollo de aplicaciones de poco código de Microsoft. Los logs de Power Apps contienen información sobre la creación de aplicaciones, el acceso, el uso y las actividades del usuario.
+[`PowerApps`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3APowerApps%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true)
+: Se refiere a logs generados por Power Apps, la plataforma de código mínimo para el desarrollo de aplicaciones de Microsoft. Los logs de Power Apps contienen información sobre creación de aplicaciones, acceso, uso y actividades del usuario.
-[`Quarantine`][23]
-: Representa a los logs que generan los sistemas de cuarentena de correos electrónicos que se usan para aislar y revisar los correos electrónicos potencialmente maliciosos o no deseados. Los logs de cuarentena incluyen información sobre los correos electrónicos en cuarentena, los detalles del remitente y el destinatario, y las medidas adoptadas. Ayuda a las organizaciones a gestionar la seguridad de los correos electrónicos y a prevenir amenazas.
+[`Quarantine`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AQuarantine%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true)
+: Representa logs generados por sistemas de cuarentena de correo electrónico utilizados para aislar y revisar correos electrónicos posiblemente maliciosos o no deseados. Los logs de cuarentena incluyen información sobre correos electrónicos en cuarentena, datos del remitente y del destinatario y medidas tomadas. Ayuda a las organizaciones a gestionar la seguridad del correo electrónico email y a protegerse de amenazas.
-[`Rdl`][24]
-: Relacionado con SQL Server Reporting Services (SSRS), una plataforma de generación de informes basada en servidores que permite a los usuarios crear, publicar y gestionar informes en varios formatos. La fuente de log Rdl captura eventos relacionados con la ejecución de informes, el acceso y las acciones administrativas, como la generación, actualización o eliminación de informes.
+[`Rdl`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3ARdl%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true)
+: Relacionado con SQL Server Reporting Services (SSRS), una plataforma de informes basada en el servidor que permite que los usuarios creen, publiquen y gestionen informes en distintos formatos. La source (fuente) de logs de Rdl captura eventos relacionados con la ejecución de informes, el acceso y las medidas administrativas, como generar, actualizar o eliminar informes.
-[`SecurityComplianceCenter`][25]
-: Se refiere a los logs que genera el Centro de seguridad y cumplimiento de Microsoft, una plataforma centralizada para gestionar las funciones de seguridad y cumplimiento en todos los servicios de Microsoft 365. Estos logs proporcionan información sobre incidencias de seguridad, infracciones de políticas y actividades de gestión del cumplimiento. Ayuda a las organizaciones a mantener un entorno de TI seguro y que cumpla con las normas.
+[`SecurityComplianceCenter`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3ASecurityComplianceCenter%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true)
+: Se refiere a logs generados por Microsoft's Security & Compliance Center, una plataforma centralizada para gestionar funciones de seguridad y cumplimiento en todos los servicios de Microsoft 365. Estos logs brindan información sobre incidents (ncidentes) de seguridad, incumplimientos de políticas y actividades de gestión de cumplimiento. Ayuda a las organizaciones a mantener un entorno seguro y cumplidor de TI.
-[`SecurityMonitoringEntityReducer`][26]
-: Asociado con logs de eventos de seguridad y actividades de agregación de alertas en Microsoft 365. Estos logs proporcionan información sobre eventos de seguridad, anomalías y posibles amenazas detectadas en el entorno de Microsoft 365.
+[`SecurityMonitoringEntityReducer`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3ASecurityMonitoringEntityReducer%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true)
+: Asociado con logs de eventos de seguridad y actividades de agregación de alertas en Microsoft 365. Estos logs brindan informaciones sobre eventos de seguridad, anomalías y posibles amenazas detectadas en todo el entorno de Microsoft 365.
-[`ThreatIntelligence`][27]
-: Incluye logs que generan los sistemas o herramientas de inteligencia de amenazas que recopilan, analizan y comparten información sobre amenazas de seguridad emergentes. Los logs de inteligencia de amenazas proporcionan información sobre posibles amenazas, vulnerabilidades e indicadores de riesgo. Ayuda a las organizaciones a defenderse de manera proactiva contra los ciberataques.
+[`ThreatIntelligence`](https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AThreatIntelligence%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true)
+: Comprende logs generados por sistemas o herramientas de inteligencia de amenazas que recopilan, analizan y comparten información sobre amenazas a la seguridad surgidas. Los logs de inteligencia de amenazas brindan información sobre posibles amenazas, vulnerabilidades e indicadores de compromiso. Ayuda a las organizaciones a defenderse en forma proactiva de ciberataques.
-Consulta los [esquemas de la API de gestión de Office 365][3] para obtener la lista completa de posibles fuentes de log.
+Consulta [Esquemas de la API de gestión de Office 365](https://learn.microsoft.com/en-us/office/office-365-management-api/office-365-management-activity-api-schema#office-365-management-api-schemas) para ver la lista completa de posibles sources (fuentes) de logs.
### Seguridad
-Puedes usar [Cloud SIEM][28] de Datadog para detectar amenazas en tiempo real en tu entorno con logs de auditoría de Microsoft 365. Consulta la lista completa de [reglas de detección de Microsoft 365 predefinidas][29] o [crea una regla de detección personalizada][30].
+Puedes utilizar [Cloud SIEM] de Datadog (https://docs.datadoghq.com/security/#cloud-siem) para detectar amenazas en tiempo real en tu entorno con logs de auditoría de Microsoft 365. Consulte la lista completa de [reglas de detección predefinidas de Microsoft 365](https://docs.datadoghq.com/security/default_rules/?category=cat-cloud-siem-log-detection&search=microsoft+365) o [crea una regla de detección personalizada](https://docs.datadoghq.com/security/detection_rules/#create-detection-rules).
{{< img src="integrations/microsoft_365/microsoft_365_rules.png" alt="La página de reglas de seguridad predefinidas con Cloud SIEM seleccionado y Microsoft 365 ingresado en la barra de búsqueda" style="width:80;" popup="true">}}
@@ -156,50 +143,18 @@ Puedes usar [Cloud SIEM][28] de Datadog para detectar amenazas en tiempo real en
La integración de Microsoft 365 no recopila métricas.
-### Checks de servicios
+### Checks de servicio
La integración de Microsoft 365 no recopila checks de servicio.
-## Resolución de problemas
+## Solucionar problemas
La entrada de logs de Datadog solo permite retrotraer eventos de log hasta 18 horas atrás. Se descartan los eventos de log con una marca de tiempo anterior.
Datadog no es compatible con los inquilinos de DoD, gobierno de CCG o gobierno de GCC High, porque requieren diferentes endpoints de Microsoft.
-¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][31].
-
-## Leer más
-
-{{< partial name="whats-next/whats-next.html" >}}
-
-[1]: https://app.datadoghq.com/integrations/microsoft-365
-[2]: https://docs.microsoft.com/en-us/microsoft-365/compliance/turn-audit-log-search-on-or-off?view=o365-worldwide#turn-on-audit-log-search
-[3]: https://learn.microsoft.com/en-us/office/office-365-management-api/office-365-management-activity-api-schema#office-365-management-api-schemas
-[4]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AAirInvestigation%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true
-[5]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AAzureActiveDirectory%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true
-[6]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AExchange%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true
-[7]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true
-[8]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AMicrosoftForms%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true
-[9]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AMicrosoftStream%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true
-[10]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AMicrosoftTeams%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true
-[11]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AOneDrive%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true
-[12]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3APowerBI%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true
-[13]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AProject%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true
-[14]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3ASharePoint%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true
-[15]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3ASkypeForBusiness%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true
-[16]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AYammer%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true
-[17]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AComplianceManager%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true
-[18]: https://learn.microsoft.com/dynamics365/
-[19]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AMicrosoftFlow%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true
-[20]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AMip%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true
-[21]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AMyAnalytics%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true
-[22]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3APowerApps%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true
-[23]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AQuarantine%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true
-[24]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3ARdl%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true
-[25]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3ASecurityComplianceCenter%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true
-[26]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3ASecurityMonitoringEntityReducer%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true
-[27]: https://app.datadoghq.com/logs?query=source%3Amicrosoft-365%20service%3AThreatIntelligence%20&cols=host%2Cservice&index=%2A&messageDisplay=inline&stream_sort=desc&viz=stream&live=true
-[28]: https://docs.datadoghq.com/es/security/#cloud-siem
-[29]: https://docs.datadoghq.com/es/security/default_rules/?category=cat-cloud-siem-log-detection&search=microsoft+365
-[30]: https://docs.datadoghq.com/es/security/detection_rules/#create-detection-rules
-[31]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
+¿Necesitas ayuda? Ponte en contacto con [asistencia técnica de Datadog](https://docs.datadoghq.com/help/).
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
\ No newline at end of file
diff --git a/content/es/integrations/mysql.md b/content/es/integrations/mysql.md
index b106ffc6b73ca..4da709691e412 100644
--- a/content/es/integrations/mysql.md
+++ b/content/es/integrations/mysql.md
@@ -1,110 +1,50 @@
---
-app_id: "mysql"
-app_uuid: "f6177896-da1e-4bc4-ab19-fd32e8868647"
-assets:
- dashboards:
- mysql: "assets/dashboards/overview.json"
- mysql-screenboard: "assets/dashboards/overview-screenboard.json"
- integration:
- auto_install: true
- configuration:
- spec: "assets/configuration/spec.yaml"
- events:
- creates_events: true
- metrics:
- check: "mysql.net.connections"
- metadata_path: "metadata.csv"
- prefix: "mysql."
- process_signatures:
- - "mysqld"
- service_checks:
- metadata_path: "assets/service_checks.json"
- source_type_id: !!int "18"
- source_type_name: "MySQL"
- monitors:
- MySQL database replica is not running properly: "assets/monitors/replica_running.json"
- SELECT query volume is dropping: "assets/monitors/select_query_rate.json"
- saved_views:
- mysql_processes: "assets/saved_views/mysql_processes.json"
- operations: "assets/saved_views/operations.json"
- operations_overview: "assets/saved_views/operations_overview.json"
- slow_operations: "assets/saved_views/slow_operations.json"
-author:
- homepage: "https://www.datadoghq.com"
- name: "Datadog"
- sales_email: "info@datadoghq.com"
- support_email: "help@datadoghq.com"
+app_id: mysql
categories:
-- "data stores"
-- "log collection"
-custom_kind: "integración"
-dependencies:
-- "https://github.com/DataDog/integrations-core/blob/master/mysql/README.md"
-display_on_public_website: true
-draft: false
-git_integration_title: "mysql"
-integration_id: "mysql"
-integration_title: "MySQL"
-integration_version: "14.3.0"
-is_public: true
-manifest_version: "2.0.0"
-name: "mysql"
-public_title: "MySQL"
-short_description: "Recopila métricas de esquema de rendimiento, rendimiento de consultas, métricas personalizadas y mucho más."
+- data stores
+- log collection
+custom_kind: integración
+description: Recopila métricas de esquemas de rendimiento, rendimiento de consultas
+ y métricas personalizadas, and more.
+further_reading:
+- link: https://www.datadoghq.com/blog/monitoring-mysql-performance-metrics
+ tag: blog
+ text: Monitorización de las métricas de rendimiento de MySQL
+integration_version: 15.7.1
+media: []
supported_os:
-- "linux"
-- "macos"
-- "windows"
-tile:
- changelog: "CHANGELOG.md"
- classifier_tags:
- - "Supported OS::Linux"
- - "Supported OS::macOS"
- - "Supported OS::Windows"
- - "Category::Data Stores"
- - "Category::Log Collection"
- - "Offering::Integration"
- configuration: "README.md#Setup"
- description: "Recopila métricas de esquema de rendimiento, rendimiento de consultas, métricas personalizadas y mucho más."
- media: []
- overview: "README.md#Overview"
- resources:
- resource_type: "blog"
- url: "https://www.datadoghq.com/blog/monitoring-mysql-performance-metrics"
- support: "README.md#Support"
- title: "MySQL"
+- linux
+- macos
+- windows
+title: MySQL
---
-
-
-
-
-![Dashboard de MySQL][1]
+
## Información general
La integración de MySQL controla el rendimiento de tus instancias de MySQL. Recopila métricas en relación con el rendimiento, las conexiones, los errores y métricas de InnoDB.
-Activa la [Monitorización de base de datos][2] (DBM) para obtener información mejorada sobre el rendimiento de las consultas y el estado de la base de datos. Además de la integración estándar, Datadog DBM proporciona métricas a nivel de consulta, snapshots de consultas en tiempo real e históricas, análisis de eventos en espera, carga de la base de datos y planes de explicación de consultas.
+Activa [Database Monitoring](https://docs.datadoghq.com/database_monitoring/) (DBM) para obtener información mejorada sobre el rendimiento de las consultas y el estado de la base de datos. Además de la integración estándar, DBM de Datadog proporciona métricas a nivel de consulta, instantáneas de consultas históricas y en tiempo real, análisis de eventos de espera, carga de base de datos y planes de explicación de consultas.
-Se admiten las versiones 5.6, 5.7 y 8.0 de MySQL, y las versiones 10.5, 10.6, 10.11 y 11.1 de MariaDB.
+Se admiten las versiones 5.6, 5.7 y 8.0 de MySQL y las versiones 10.5, 10.6, 10.11 y 11.1 de MariaDB.
## Configuración
-
+En esta page (página), se describe la integración estándar del Agent de MySQL. Si buscas el producto de Database Monitoring para MySQL, consulta
Database Monitoring de Datadog.
### Instalación
-El check de MySQL está incluido en el paquete del [Datadog Agent ][3]. No es necesaria ninguna instalación adicional en tu servidor de MySQL.
+El check de MySQL está incluido en el paquete del [Datadog Agent ](https://app.datadoghq.com/account/settings/agent/latest). No es necesaria ninguna instalación adicional en tu servidor de MySQL.
#### Preparar MySQL
-**Nota**: Para instalar la Monitorización de base de datos para MySQL, selecciona tu solución de alojamiento en la [documentación de Monitorización de base de datos][4] para obtener instrucciones.
+**Nota**: Para instalar Database Monitoring para MySQL, selecciona tu solución de alojamiento en la [documentación de Database Monitoring](https://docs.datadoghq.com/database_monitoring/#mysql) para obtener instrucciones.
-Procede con los siguientes pasos de esta guía solo si vas a instalar únicamente la integración estándar.
+Procede con los siguientes pasos de esta guía solo si vas a instalar la integración estándar únicamente.
En cada servidor MySQL, crea un usuario de base de datos para el Datadog Agent.
-Las siguientes instrucciones conceden al Agent permiso para iniciar sesión desde cualquier host mediante `datadog@'%'`. Puedes restringir al usuario `datadog` para que sólo pueda iniciar sesión desde el host local mediante `datadog@'localhost'`. Consulta [Añadir cuentas de MySQL, asignar privilegios y eliminar cuentas][5] para obtener más información.
+Las siguientes instrucciones conceden al Agent permiso para iniciar sesión desde cualquier host mediante `datadog@'%'`. Puedes restringir al usuario `datadog` para que solo pueda iniciar sesión desde un host local mediante `datadog@'localhost'`. Consulta [Añadir cuentas, asignar privilegios y eliminar cuentas de MySQL](https://dev.mysql.com/doc/refman/8.0/en/creating-accounts.html) para obtener más información.
Crea el usuario `datadog` con el siguiente comando:
@@ -169,22 +109,31 @@ mysql> GRANT SELECT ON performance_schema.* TO 'datadog'@'%';
Query OK, 0 rows affected (0.00 sec)
```
+Para recopilar métricas de índices, concede al usuario `datadog` un privilegio adicional:
+
+```shell
+
+mysql> GRANT SELECT ON mysql.innodb_index_stats TO 'datadog'@'%';
+Query OK, 0 rows affected (0.00 sec)
+```
+
### Configuración
-Sigue las instrucciones a continuación para configurar este check para un Agent que se ejecuta en un host. Para entornos en contenedores, consulta las secciones de [Docker](?tab=docker#docker), [Kubernetes](?tab=kubernetes#kubernetes), o [ECS](?tab=ecs#ecs).
+Sigue las instrucciones a continuación para configurar este check para un Agent que se ejecuta en un host. Para entornos en contenedores, consulta las secciones [Docker](?tab=docker#docker), [Kubernetes](?tab=kubernetes#kubernetes) o [ECS](?tab=ecs#ecs).
-**Nota**: Para obtener una lista completa de las opciones de configuración disponibles, consulta el [mysql.d/conf.yaml de ejemplo][6].
+**Nota**: Para obtener una lista completa de las opciones de configuración disponibles, consulta el [ejemplo mysql.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/mysql/datadog_checks/mysql/data/conf.yaml.example).
{{< tabs >}}
+
{{% tab "Host" %}}
#### Host
Para configurar este check para un Agent que se ejecuta en un host:
-Edita el archivo `mysql.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent][1] para iniciar la recopilación de tus [métricas](#métrica-collection) y [logs](#log-collection) de MySQL.
+Edita el archivo `MySQL.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory) para empezar a recopilar tus [métricas](#metric-collection) y [logs](#log-collection) de MySQL.
-Para obtener una lista completa de las opciones de configuración disponibles, consulta el [`mysql.d/conf.yaml` de ejemplo][2].
+Para obtener una lista completa de las opciones de configuración disponibles, consulta el [ejemplo `mysql.d/conf.yaml`](https://github.com/DataDog/integrations-core/blob/master/mysql/datadog_checks/mysql/data/conf.yaml.example).
##### Recopilación de métricas
@@ -209,19 +158,20 @@ Para obtener una lista completa de las opciones de configuración disponibles, c
**Nota**: Escribe tu contraseña entre comillas simples en caso de que haya un carácter especial.
-Para recopilar `extra_performance_metrics`, tu servidor de MySQL debe tener habilitado `performance_schema`; de lo contrario, configura `extra_performance_metrics` en `false`. Para obtener más información sobre `performance_schema`, consulta [inicio rápido del esquema de rendimiento de MySQL][3].
+Para recopilar `extra_performance_metrics`, tu servidor de MySQL debe tener `performance_schema` activado, de lo contrario, configura `extra_performance_metrics` en `false`. Para obtener más información sobre `performance_schema`, consulta [Inicio rápido del esquema de rendimiento de MySQL](https://dev.mysql.com/doc/refman/5.7/en/performance-schema-quick-start.html).
**Nota**: El usuario `datadog` debe establecerse en la configuración de la integración de MySQL como `host: 127.0.0.1` en lugar de `localhost`. Como alternativa, también puedes utilizar `sock`.
-[Reinicia el Agent][4] para empezar a enviar métricas de MySQL a Datadog.
+[Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent) para empezar a enviar métricas de MySQL a Datadog.
##### Recopilación de logs
-_Disponible para el Agent versión 6.0 o posterior_
+_Disponible para las versiones 6.0 o posteriores del Agent_
-1. Por defecto, MySQL loguea todo en `/var/log/syslog` que requiere acceso raíz para la lectura. Para que los logs sean más accesibles, sigue estos pasos:
+1. De manera predeterminada, MySQL registra todo en `/var/log/syslog` que requiere acceso raíz para la lectura. Para que los logs sean más accesibles, sigue estos pasos:
- Edita `/etc/mysql/conf.d/mysqld_safe_syslog.cnf` y elimina o comenta las líneas.
+
- Edita `/etc/mysql/my.cnf` y añade las siguientes líneas para activar los logs de consultas generales, de error y lentas:
```conf
@@ -239,7 +189,9 @@ _Disponible para el Agent versión 6.0 o posterior_
- Guarda el archivo y reinicia MySQL con los siguientes comandos:
`service mysql restart`
+
- Asegúrate de que el Agent tiene acceso de lectura al directorio `/var/log/mysql` y a todos los archivos que contiene. Vuelve a controlar tu configuración de logrotate para asegurarte de que esos archivos se tienen en cuenta y que los permisos se establecen correctamente allí también.
+
- En `/etc/logrotate.d/mysql-server` debería haber algo parecido a:
```text
@@ -252,13 +204,13 @@ _Disponible para el Agent versión 6.0 o posterior_
}
```
-2. La recopilación de logs está desactivada por defecto en el Datadog Agent, actívala en tu archivo `datadog.yaml`:
+1. La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent, actívala en tu archivo `datadog.yaml`:
```yaml
logs_enabled: true
```
-3. Añade este bloque de configuración en tu archivo `mysql.d/conf.yaml` para empezar a recopilar tus logs de MySQL:
+1. Añade este bloque de configuración a tu archivo `mysql.d/conf.yaml` para empezar a recopilar logs de MySQL:
```yaml
logs:
@@ -301,23 +253,21 @@ _Disponible para el Agent versión 6.0 o posterior_
# pattern: \t\t\s*\d+\s+|\d{6}\s+\d{,2}:\d{2}:\d{2}\t\s*\d+\s+
```
- Para conocer todas las opciones de configuración disponibles, incluidas las de métricas personalizadas, consulta el [mysql.yaml de ejemplo][2].
+ Consulta el [ejemplo mysql.yaml](https://github.com/DataDog/integrations-core/blob/master/mysql/datadog_checks/mysql/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles, incluidas las de métricas personalizadas.
-4. [Reinicia el Agent][4].
+1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
-[1]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory
-[2]: https://github.com/DataDog/integrations-core/blob/master/mysql/datadog_checks/mysql/data/conf.yaml.example
-[3]: https://dev.mysql.com/doc/refman/5.7/en/performance-schema-quick-start.html
-[4]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent
{{% /tab %}}
+
{{% tab "Docker" %}}
+
#### Docker
Para configurar este check para un Agent que se ejecuta en un contenedor:
##### Recopilación de métricas
-Establece [plantillas de integración de Autodiscovery][1] como etiquetas de Docker en tu contenedor de aplicación:
+Configura [Plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/docker/integrations/?tab=docker) como etiquetas de Docker en tu contenedor de aplicaciones:
```yaml
LABEL "com.datadoghq.ad.check_names"='["mysql"]'
@@ -325,35 +275,31 @@ LABEL "com.datadoghq.ad.init_configs"='[{}]'
LABEL "com.datadoghq.ad.instances"='[{"server": "%%host%%", "username": "datadog","password": ""}]'
```
-Consulta las [variables de plantilla de Autodiscovery][2] para obtener más detalles sobre cómo usar `` como una variable de entorno en lugar de una etiqueta (label).
+Consulta [variables de plantillas de Autodiscovery](https://docs.datadoghq.com/agent/faq/template_variables/) para obtener más detalles sobre el uso de `` como variable de entorno en lugar de una etiqueta.
#### Recopilación de logs
+La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent . Para activarla, consulta [Recopilación de logs de Docker](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#installation).
-La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [recopilación de logs de Docker][3].
-
-A continuación, establece [integraciones de log][4] como etiquetas de Docker:
+A continuación, configura [Integraciones de logs](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations) como etiquetas de Docker:
```yaml
LABEL "com.datadoghq.ad.logs"='[{"source":"mysql","service":"mysql"}]'
```
-[1]: https://docs.datadoghq.com/agent/docker/integrations/?tab=docker
-[2]: https://docs.datadoghq.com/agent/faq/template_variables/
-[3]: https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#installation
-[4]: https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations
{{% /tab %}}
+
{{% tab "Kubernetes" %}}
#### Kubernetes
-Para configurar este check para un Agent que se ejecuta en Kubernetes:
+Para Configurar este check para un Agent que se ejecuta en Kubernetes:
##### Recopilación de métricas
-Establece [plantillas de integraciones de Autodiscovery][1] como anotaciones de pod en tu contenedor de aplicación. Alternativamente, puedes configurar plantillas con un [archivo, configmap, o almacén de clave-valor][2].
+Configura [Plantillas de integraciones de Autodiscovery](https://docs.datadoghq.com/agent/kubernetes/integrations/?tab=kubernetes) como anotaciones de pod en tu contenedor de aplicaciones. Alternativamente, puedes configurar plantillas con un [archivo, mapa de configuración o almacenamiento de valores de claves](https://docs.datadoghq.com/agent/kubernetes/integrations/?tab=kubernetes#configuration).
-**Anotaciones v1** (para el Datadog Agent v7.36 o anterior)
+**Annotations v1** (para el Datadog Agent \< v7.36)
```yaml
apiVersion: v1
@@ -405,16 +351,15 @@ spec:
- name: mysql
```
-Consulta las [variables de plantilla de Autodiscovery][3] para obtener más detalles sobre cómo usar `` como una variable de entorno en lugar de una etiqueta.
+Consulta [variables de plantilla de Autodiscovery](https://docs.datadoghq.com/agent/faq/template_variables/) para más detalles sobre el uso de `` como variable de entorno en lugar de una etiqueta.
#### Recopilación de logs
+La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [Recopilación de logs de Kubernetes](https://docs.datadoghq.com/agent/kubernetes/log/?tab=containerinstallation#setup).
-La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [Recopilación de logs de Kubernetes][4].
+A continuación, configura [Integraciones de logs](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations) como anotaciones del pod. Alternativamente, puedes configurar esto con un [archivo, mapa de configuración o almacenamiento de valores de claves](https://docs.datadoghq.com/agent/kubernetes/log/?tab=daemonset#configuration).
-A continuación, establece [integraciones de log][5] como anotaciones del pod. Alternativamente, puedes configurar esto con un [archivo, configmap, o almacén de clave-valor][6].
-
-**Anotaciones v1/v2**
+**Annotations v1/v2**
```yaml
apiVersion: v1
@@ -427,13 +372,8 @@ metadata:
name: mysql
```
-[1]: https://docs.datadoghq.com/agent/kubernetes/integrations/?tab=kubernetes
-[2]: https://docs.datadoghq.com/agent/kubernetes/integrations/?tab=kubernetes#configuration
-[3]: https://docs.datadoghq.com/agent/faq/template_variables/
-[4]: https://docs.datadoghq.com/agent/kubernetes/log/?tab=containerinstallation#setup
-[5]: https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations
-[6]: https://docs.datadoghq.com/agent/kubernetes/log/?tab=daemonset#configuration
{{% /tab %}}
+
{{% tab "ECS" %}}
#### ECS
@@ -442,7 +382,7 @@ Para configurar este check para un Agent que se ejecuta en ECS:
##### Recopilación de métricas
-Establece las [plantillas de integraciones de Autodiscovery][1] como etiquetas de Docker en el contenedor de tu aplicación:
+Configura [Plantillas de integraciones de Autodiscovery](https://docs.datadoghq.com/agent/docker/integrations/?tab=docker) como etiquetas de Docker en el contenedor de tu aplicación:
```json
{
@@ -458,15 +398,15 @@ Establece las [plantillas de integraciones de Autodiscovery][1] como etiquetas d
}
```
-Consulta las [variables de plantilla de Autodiscovery][2] para obtener más detalles sobre cómo usar `` como una variable de entorno en lugar de una etiqueta.
+Consulta [variables de plantilla de Autodiscovery](https://docs.datadoghq.com/agent/faq/template_variables/) para obtener más detalles sobre el uso de `` como variable de entorno en lugar de una etiqueta.
##### Recopilación de logs
-_Disponible para el Agent versión 6.0 o posterior_
+_Disponible para las versiones 6.0 o posteriores del Agent_
-La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [recopilación de logs de ECS][3].
+La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent. Para activarla, consulta [Recopilación de logs de ECS](https://docs.datadoghq.com/agent/amazon_ecs/logs/?tab=linux).
-A continuación, establece [integraciones de log][4] como etiquetas de Docker:
+A continuación, configura [Integraciones de logs](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations) como etiquetas de Docker:
```yaml
{
@@ -479,22 +419,260 @@ A continuación, establece [integraciones de log][4] como etiquetas de Docker:
}]
}
```
-[1]: https://docs.datadoghq.com/agent/docker/integrations/?tab=docker
-[2]: https://docs.datadoghq.com/agent/faq/template_variables/
-[3]: https://docs.datadoghq.com/agent/amazon_ecs/logs/?tab=linux
-[4]: https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations
+
{{% /tab %}}
+
{{< /tabs >}}
### Validación
-[Ejecuta el subcomando de estado del Agent][7] y busca `mysql` en la sección Checks.
+[Ejecuta el subcomando de estado del Agent(https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `MySQL` en la sección Checks.
## Datos recopilados
### Métricas
-{{< get-metrics-from-git "mysql" >}}
+| | |
+| --- | --- |
+| **mysql.binlog.cache_disk_use**
(gauge) | El número de transacciones que utilizaron la caché temporal de logs binarios, pero que excedieron el valor de `binlog_cache_size` y utilizaron un archivo temporal para almacenar sentencias de la transacción.
_Mostrado como transacción_ |
+| **mysql.binlog.cache_use**
(gauge) | El número de transacciones que utilizaron la caché de logs binarios.
_Mostrado como transacción_ |
+| **mysql.binlog.disk_use**
(gauge) | Tamaño total del archivo de log binario.
_Mostrado como byte_ |
+| **mysql.galera.wsrep_cert_deps_distance**
(gauge) | Muestra la distancia media entre los valores más bajos y más altos del número de secuencia, o seqno, que el nodo puede aplicar en paralelo.|
+| **mysql.galera.wsrep_cluster_size**
(gauge) | El número actual de nodos en el clúster Galera.
_Mostrado como nodo_ |
+| **mysql.galera.wsrep_flow_control_paused**
(gauge) | Muestra la fracción de tiempo, desde la última vez que se llamó a FLUSH STATUS, que el nodo estuvo en pausa debido al control de flujo.
_Mostrado como fracción_ |
+| **mysql.galera.wsrep_flow_control_paused_ns**
(count) | Muestra el tiempo de pausa debido al control de flujo, en nanosegundos.
_Mostrado como nanosegundo_ |
+| **mysql.galera.wsrep_flow_control_recv**
(count) | Muestra el número de veces que el nodo galera ha recibido un mensaje de control de flujo en pausa de otros|
+| **mysql.galera.wsrep_flow_control_sent**
(count) | Muestra el número de veces que el nodo galera ha enviado un mensaje de control de flujo en pausa a otros|
+| **mysql.galera.wsrep_local_cert_failures**
(count) | Número total de transacciones locales que no han superado el test de certificación.|
+| **mysql.galera.wsrep_local_recv_queue**
(gauge) | Muestra el tamaño actual (instantáneo) de la cola de recepción local.|
+| **mysql.galera.wsrep_local_recv_queue_avg**
(gauge) | Muestra el tamaño medio de la cola de recepción local desde la última consulta de FLUSH STATUS.|
+| **mysql.galera.wsrep_local_send_queue**
(gauge) | Muestra el tamaño actual (instantáneo) de la longitud de la cola de envío desde la última consulta de FLUSH STATUS.|
+| **mysql.galera.wsrep_local_send_queue_avg**
(gauge) | Muestra un promedio de la longitud de la cola de envío desde la última consulta de FLUSH STATUS.|
+| **mysql.galera.wsrep_local_state**
(gauge) | Número de estado interno del clúster Galera|
+| **mysql.galera.wsrep_received**
(gauge) | Número total de conjuntos de escritura recibidos de otros nodos.|
+| **mysql.galera.wsrep_received_bytes**
(gauge) | Tamaño total (en bytes) de los conjuntos de escritura recibidos de otros nodos.|
+| **mysql.galera.wsrep_replicated_bytes**
(gauge) | Tamaño total (en bytes) de los conjuntos de escritura enviados a otros nodos.|
+| **mysql.index.deletes**
(gauge) | Número de operaciones de borrado que utilizan un índice. Se restablece a 0 al reiniciar la base de datos.
_Mostrado como operación_. |
+| **mysql.index.reads**
(gauge) | Número de operaciones de lectura que utilizan un índice. Se restablece a 0 al reiniciar la base de datos.
_Mostrado como operación_. |
+| **mysql.index.size**
(gauge) | Tamaño del índice en bytes
_Se muestra como byte_ |
+| **mysql.index.updates**
(gauge) | Número de operaciones de actualización que utilizan un índice. Se restablece a 0 al reiniciar la base de datos.
_Mostrado como operación_ |
+| **mysql.info.schema.size**
(gauge) | Tamaño de los esquemas en MiB
_Se muestra como mebibyte_ |
+| **mysql.info.table.data_size**
(gauge) | Tamaño de los datos de las tablas en MiB
_Se muestra como mebibyte_ |
+| **mysql.info.table.index_size**
(gauge) | Tamaño del índice de las tablas en MiB
_Se muestra como mebibyte_ |
+| **mysql.info.table.rows.changed**
(count) | Número total de filas modificadas por tabla (solo estado de usuario de Percona)
_Mostrado como fila_ |
+| **mysql.info.table.rows.read**
(count) | Número total de filas leídas por tabla (solo estado de usuario de Percona)
_Mostrado como fila_ |
+| **mysql.innodb.active_transactions**
(gauge) | El número de transacciones activas en tablas de InnoDB.
_Mostrado como operación_ |
+| **mysql.innodb.buffer_pool_data**
(gauge) | El número total de bytes en la reserva de búferes de InnoDB que contienen datos. El número incluye tanto las páginas sucias como las limpias.
_Mostrado como byte_ |
+| **mysql.innodb.buffer_pool_dirty**
(gauge) | El número total actual de bytes retenidos en páginas sucias en la reserva de búferes de InnoDB.
_Mostrado como byte_ |
+| **mysql.innodb.buffer_pool_free**
(gauge) | El número de bytes libres en la reserva de búferes de InnoDB.
_Mostrado como byte_ |
+| **mysql.innodb.buffer_pool_pages_data**
(gauge) | El número de páginas en la reserva de búferes de InnoDB que contienen datos. El número incluye tanto las páginas sucias como las limpias.
_Mostrado como page (página)_ |
+| **mysql.innodb.buffer_pool_pages_dirty**
(gauge) | El número actual de páginas sucias en la reserva de búferes de InnoDB.
_Mostrado como page (página)_ |
+| **mysql.innodb.buffer_pool_pages_flushed**
(gauge) | El número de solicitudes para vaciar páginas de la reserva de búferes de InnoDB.
_Mostrado como page (página)_ |
+| **mysql.innodb.buffer_pool_pages_free**
(gauge) | Número de páginas libres en la reserva de búferes de InnoDB.
_Mostrado como page (página)_ |
+| **mysql.innodb.buffer_pool_pages_total**
(gauge) | El tamaño total de la reserva de búferes de InnoDB, en páginas.
_Mostrado como page (página)_ |
+| **mysql.innodb.buffer_pool_read_ahead**
(gauge) | El número de páginas leídas en la reserva de búferes de InnoDB por el hilo de lectura en segundo plano.
_Mostrado como page (página)_ |
+| **mysql.innodb.buffer_pool_read_ahead_evicted**
(gauge) | El número de páginas leídas en la reserva de búferes de InnoDB por el hilo de lectura en segundo plano que fueron desalojadas posteriormente sin haber sido accedidas por las consultas.
_Mostrado como page (página)_ |
+| **mysql.innodb.buffer_pool_read_ahead_rnd**
(gauge) | El número de lecturas aleatorias iniciadas por InnoDB. Esto ocurre cuando una consulta explora una gran parte de una tabla, pero en orden aleatorio.
_Mostrado como operación_. |
+| **mysql.innodb.buffer_pool_read_requests**
(gauge) | El número de solicitudes de lecturas lógicas.
_Mostrado como lectura_ |
+| **mysql.innodb.buffer_pool_reads**
(gauge) | El número de lecturas lógicas que InnoDB no pudo satisfacer desde la reserva de búferes y tuvo que leer directamente del disco.
_Mostrado como lectura_ |
+| **mysql.innodb.buffer_pool_total**
(gauge) | El número total de bytes en la reserva de búferes de InnoDB.
_Mostrado como byte_ |
+| **mysql.innodb.buffer_pool_used**
(gauge) | El número de bytes utilizados en la reserva de búferes de InnoDB.
_Mostrado como byte_ |
+| **mysql.innodb.buffer_pool_utilization**
(gauge) | La utilización de la reserva de búferes de InnoDB.
_Mostrado como fracción_ |
+| **mysql.innodb.buffer_pool_wait_free**
(count) | Cuando InnoDB necesita leer o crear un page (página) y no hay páginas limpias disponibles, InnoDB vacía primero algunas páginas sucias y espera a que termine la operación. Este contador cuenta las instancias de estas esperas.
_Mostrado como espera_ |
+| **mysql.innodb.buffer_pool_write_requests**
(gauge) | Número de escrituras realizadas en la reserva de búferes de InnoDB.
_Mostrado como escritura_ |
+| **mysql.innodb.checkpoint_age**
(gauge) | Edad del punto de control como se muestra en la sección LOG de la salida SHOW ENGINE INNODB STATUS.|
+| **mysql.innodb.current_row_locks**
(gauge) | El número de bloqueos de filas actuales.
_Shown as bloqueo_ |
+| **mysql.innodb.current_transactions**
(gauge) | Transacciones actuales de InnoDB
_Mostrado como transacción_ |
+| **mysql.innodb.data_fsyncs**
(gauge) | El número de operaciones fsync() por segundo.
_Mostrado como operación_ |
+| **mysql.innodb.data_pending_fsyncs**
(gauge) | El número actual de operaciones fsync() pendientes.
_Mostrado como operación_ |
+| **mysql.innodb.data_pending_reads**
(gauge) | El número actual de lecturas pendientes.
_Shown as lectura_ |
+| **mysql.innodb.data_pending_writes**
(gauge) | El número actual de escrituras pendientes.
_Shown as escritura_ |
+| **mysql.innodb.data_read**
(gauge) | La cantidad de datos leídos por segundo.
_Se muestra como byte_ |
+| **mysql.innodb.data_reads**
(gauge) | La tasa de lecturas de datos.
_Shown as lectura_ |
+| **mysql.innodb.data_writes**
(gauge) | La tasa de escrituras de datos.
_Shown as escritura_ |
+| **mysql.innodb.data_written**
(gauge) | La cantidad de datos escritos por segundo.
_Se muestra como byte_ |
+| **mysql.innodb.dblwr_pages_written**
(gauge) | El número de páginas escritas por segundo en el búfer de doble escritura.
_Shown as page (página)_ |
+| **mysql.innodb.dblwr_writes**
(gauge) | El número de operaciones de doble escritura realizadas por segundo.
_Mostrado como byte_ |
+| **mysql.innodb.deadlocks**
(count) | El número de bloqueos.
_Shown as bloqueo_ |
+| **mysql.innodb.hash_index_cells_total**
(gauge) | Número total de celdas del índice hash adaptativo|
+| **mysql.innodb.hash_index_cells_used**
(gauge) | Número de celdas utilizadas del índice hash adaptativo|
+| **mysql.innodb.history_list_length**
(gauge) | Longitud de la lista de historial como se muestra en la sección TRANSACTIONS de la salida SHOW ENGINE INNODB STATUS.|
+| **mysql.innodb.ibuf_free_list**
(gauge) | Lista libre de búferes de inserción, como se muestra en la sección INSERT BUFFER AND ADAPTIVE HASH INDEX de la salida SHOW ENGINE INNODB STATUS.|
+| **mysql.innodb.ibuf_merged**
(gauge) | Búfer de inserción e índice hash adaptativo fusionados
_Mostrado como operación_ |
+| **mysql.innodb.ibuf_merged_delete_marks**
(gauge) | Marcas de borrado de búfer de inserción e índice hash adaptativo fusionados
_Mostrado como operación_ |
+| **mysql.innodb.ibuf_merged_deletes**
(gauge) | Búfer de inserción e índice hash adaptativo fusionados borrados
_Mostrado como operación_ |
+| **mysql.innodb.ibuf_merged_inserts**
(gauge) | Inserciones de búfer de inserción e índice hash adaptativo fusionados
_Mostrado como operación_ |
+| **mysql.innodb.ibuf_merges**
(gauge) | Fusiones de búfer de inserción e índice hash adaptativo
_Mostrado como operación_ |
+| **mysql.innodb.ibuf_segment_size**
(gauge) | Tamaño del segmento del búfer de inserción, como se muestra en la sección INSERT BUFFER AND ADAPTIVE HASH INDEX de la salida SHOW ENGINE INNODB STATUS.|
+| **mysql.innodb.ibuf_size**
(gauge) | Tamaño del búfer de inserción, como se muestra en la sección INSERT BUFFER AND ADAPTIVE HASH INDEX de la salida SHOW ENGINE INNODB STATUS.|
+| **mysql.innodb.lock_structs**
(gauge) | Estructuras de bloqueo
_Mostrado como operación_ |
+| **mysql.innodb.locked_tables**
(gauge) | Tablas bloqueadas
_Mostrado como operación_ |
+| **mysql.innodb.log_waits**
(gauge) | Número de veces que el búfer de log era demasiado pequeño y fue necesario esperar a que se vaciara antes de continuar.
_Mostrado como espera_ |
+| **mysql.innodb.log_write_requests**
(gauge) | El número de solicitudes de escritura para el log de rehacer de InnoDB.
_Mostrado como escritura_ |
+| **mysql.innodb.log_writes**
(gauge) | El número de escrituras físicas en el archivo de log de rehacer de InnoDB.
_Mostrado como escritura_ |
+| **mysql.innodb.lsn_current**
(gauge) | Número de secuencia de logs como se muestra en la sección LOGS de la salida SHOW ENGINE INNODB STATUS.|
+| **mysql.innodb.lsn_flushed**
(gauge) | Vaciado hasta el número de secuencia de logs como se muestra en la sección LOG de la salida SHOW ENGINE INNODB STATUS.|
+| **mysql.innodb.lsn_last_checkpoint**
(gauge) | Último punto de control del número de secuencia de logs como se muestra en la sección LOG de la salida SHOW ENGINE INNODB STATUS.|
+| **mysql.innodb.mem_adaptive_hash**
(gauge) | Como se muestra en la sección BUFFER POOL AND MEMORY de la salida SHOW ENGINE INNODB STATUS.
_Mostrado como byte_ |
+| **mysql.innodb.mem_additional_pool**
(gauge) | Como se muestra en la sección BUFFER POOL AND MEMORY de la salida SHOW ENGINE INNODB STATUS. Solo disponible en MySQL 5.6.
_Mostrado como byte_ |
+| **mysql.innodb.mem_dictionary**
(gauge) | Como se muestra en la sección BUFFER POOL AND MEMORY de la salida SHOW ENGINE INNODB STATUS.
_Mostrado como byte_ |
+| **mysql.innodb.mem_file_system**
(gauge) | Como se muestra en la sección BUFFER POOL AND MEMORY de la salida SHOW ENGINE INNODB STATUS.|
+| **mysql.innodb.mem_lock_system**
(gauge) | Como se muestra en la sección BUFFER POOL AND MEMORY de la salida SHOW ENGINE INNODB STATUS.|
+| **mysql.innodb.mem_page_hash**
(gauge) | Como se muestra en la sección BUFFER POOL AND MEMORY de la salida SHOW ENGINE INNODB STATUS.|
+| **mysql.innodb.mem_recovery_system**
(gauge) | Como se muestra en la sección BUFFER POOL AND MEMORY de la salida SHOW ENGINE INNODB STATUS.|
+| **mysql.innodb.mem_total**
(gauge) | Como se muestra en la sección BUFFER POOL AND MEMORY de la salida SHOW ENGINE INNODB STATUS.
_Mostrado como byte_ |
+| **mysql.innodb.mutex_os_waits**
(gauge) | La tasa de esperas del sistema operativo mutex. Solo disponible en MySQL 5.6 y 5.7.
_Mostrado como evento_. |
+| **mysql.innodb.mutex_spin_rounds**
(gauge) | La tasa de rondas de giro del mutex. Solo disponible en MySQL 5.6 y 5.7.
_Mostrado como evento_. |
+| **mysql.innodb.mutex_spin_waits**
(gauge) | La tasa de esperas de giro del mutex. Solo disponible en MySQL 5.6 y 5.7.
_Mostrado como evento_. |
+| **mysql.innodb.os_file_fsyncs**
(gauge) | (Delta) Número total de operaciones fsync() realizadas por InnoDB.
_Mostrado como operación_ |
+| **mysql.innodb.os_file_reads**
(gauge) | (Delta) El número total de lecturas de archivos realizadas por hilos de lectura en InnoDB.
_Mostrado como operación_ |
+| **mysql.innodb.os_file_writes**
(gauge) | (Delta) El número total de escrituras de archivos realizadas por hilos de escritura en InnoDB.
_Mostrado como operación_ |
+| **mysql.innodb.os_log_fsyncs**
(gauge) | La tasa de escrituras fsync en el archivo de log.
_Mostrado como escritura_ |
+| **mysql.innodb.os_log_pending_fsyncs**
(gauge) | Número de solicitudes fsync (sincronización con disco) de log de InnoDBpendientes.
_Mostrado como operación_ |
+| **mysql.innodb.os_log_pending_writes**
(gauge) | Número de escrituras de logs de InnoDB pendientes.
_Mostrado como escritura_ |
+| **mysql.innodb.os_log_written**
(gauge) | Número de bytes escritos en log de InnoDB.
_Mostrado como byte_ |
+| **mysql.innodb.pages_created**
(gauge) | Número de páginas de InnoDB creadas.
_Mostrado como page (página)_ |
+| **mysql.innodb.pages_read**
(gauge) | Número de páginas InnoDB leídas.
_Mostrado como page (página)_ |
+| **mysql.innodb.pages_written**
(gauge) | Número de páginas InnoDB escritas.
_Mostrado como page (página)_ |
+| **mysql.innodb.pending_aio_log_ios**
(gauge) | Como se muestra en la sección FILE I/O de la salida SHOW ENGINE INNODB STATUS.|
+| **mysql.innodb.pending_aio_sync_ios**
(gauge) | Como se muestra en la sección FILE I/O de la salida SHOW ENGINE INNODB STATUS.|
+| **mysql.innodb.pending_buffer_pool_flushes**
(gauge) | Como se muestra en la sección FILE I/O de la salida SHOW ENGINE INNODB STATUS.
_Mostrado como vaciado_ |
+| **mysql.innodb.pending_checkpoint_writes**
(gauge) | Como se muestra en la sección FILE I/O de la salida SHOW ENGINE INNODB STATUS.|
+| **mysql.innodb.pending_ibuf_aio_reads**
(gauge) | Como se muestra en la sección FILE I/O de la salida SHOW ENGINE INNODB STATUS.|
+| **mysql.innodb.pending_log_flushes**
(gauge) | Como se muestra en la sección FILE I/O de la salida SHOW ENGINE INNODB STATUS. Solo disponible en MySQL 5.6 y 5.7.
_Mostrado como vaciado_. |
+| **mysql.innodb.pending_log_writes**
(gauge) | Como se muestra en la sección FILE I/O de la salida SHOW ENGINE INNODB STATUS. Solo disponible en MySQL 5.6 y 5.7.
_Mostrado como escritura_. |
+| **mysql.innodb.pending_normal_aio_reads**
(gauge) | Como se muestra en la sección FILE I/O de la salida SHOW ENGINE INNODB STATUS.
_Mostrado como lectura_ |
+| **mysql.innodb.pending_normal_aio_writes**
(gauge) | Como se muestra en la sección FILE I/O de la salida SHOW ENGINE INNODB STATUS.
_Mostrado como escritura_ |
+| **mysql.innodb.queries_inside**
(gauge) | Como se muestra en la sección FILE I/O de la salida SHOW ENGINE INNODB STATUS.
_Mostrado como consulta_ |
+| **mysql.innodb.queries_queued**
(gauge) | Como se muestra en la sección FILE I/O de la salida SHOW ENGINE INNODB STATUS.
_Mostrado como consulta_ |
+| **mysql.innodb.read_views**
(gauge) | Como se muestra en la sección FILE I/O de la salida SHOW ENGINE INNODB STATUS.|
+| **mysql.innodb.row_lock_current_waits**
(gauge) | El número de bloqueos de fila actualmente en espera por operaciones en tablas de InnoDB.|
+| **mysql.innodb.row_lock_time**
(gauge) | El tiempo empleado en adquirir bloqueos de fila.
_Mostrado como milisegundo_ |
+| **mysql.innodb.row_lock_waits**
(gauge) | El número de veces por segundo que se ha tenido que esperar un bloqueo de fila.
_Mostrado como evento_ |
+| **mysql.innodb.rows_deleted**
(gauge) | Número de filas eliminadas de las tablas de InnoDB.
_Mostrado como fila_ |
+| **mysql.innodb.rows_inserted**
(gauge) | Número de filas insertadas en tablas de InnoDB.
_Mostrado como fila_ |
+| **mysql.innodb.rows_read**
(gauge) | Número de filas leídas de las tablas de InnoDB.
_Mostrado como fila_ |
+| **mysql.innodb.rows_updated**
(gauge) | Número de filas actualizadas en tablas de InnoDB.
_Mostrado como fila_ |
+| **mysql.innodb.s_lock_os_waits**
(gauge) | Como se muestra en la sección SEMÁFOROS de la salida SHOW ENGINE INNODB STATUS|
+| **mysql.innodb.s_lock_spin_rounds**
(gauge) | Como se muestra en la sección SEMÁFOROS de la salida SHOW ENGINE INNODB STATUS.|
+| **mysql.innodb.s_lock_spin_waits**
(gauge) | Como se muestra en la sección SEMAPHORES de la salida SHOW ENGINE INNODB STATUS.
_Mostrado como espera_ |
+| **mysql.innodb.semaphore_wait_time**
(gauge) | Tiempo de espera en semáforo|
+| **mysql.innodb.semaphore_waits**
(gauge) | El número de semáforos actualmente en espera por operaciones en tablas de InnoDB.|
+| **mysql.innodb.tables_in_use**
(gauge) | Tablas en uso
_Mostrado como operación_ |
+| **mysql.innodb.x_lock_os_waits**
(gauge) | Como se muestra en la sección SEMAPHORES de la salida SHOW ENGINE INNODB STATUS.
_Mostrado como espera_ |
+| **mysql.innodb.x_lock_spin_rounds**
(gauge) | Como se muestra en la sección SEMAPHORES de la salida SHOW ENGINE INNODB STATUS.|
+| **mysql.innodb.x_lock_spin_waits**
(gauge) | Como se muestra en la sección SEMAPHORES de la salida SHOW ENGINE INNODB STATUS.
_Mostrado como espera_ |
+| **mysql.myisam.key_buffer_bytes_unflushed**
(gauge) | Bytes del búfer de claves de MyISAM sin vaciar.
_Mostrado como byte_ |
+| **mysql.myisam.key_buffer_bytes_used**
(gauge) | Bytes del búfer de claves de MyISAM utilizados.
_Mostrado como byte_ |
+| **mysql.myisam.key_buffer_size**
(gauge) | Tamaño del búfer utilizado para los bloques de índice.
_Mostrado como byte_ |
+| **mysql.myisam.key_read_requests**
(gauge) | Número de solicitudes para leer un bloque de claves de la caché de claves de MyISAM.
_Mostrado como leído_ |
+| **mysql.myisam.key_reads**
(gauge) | El número de lecturas físicas de un bloque de claves desde el disco a la caché de claves de MyISAM. Si `key_reads` es grande, es probable que el valor de clave_bpufer_tamaño sea demasiado pequeño. La tasa de fallos de la caché puede calcularse como `key_reads`/`key_read_requests`.
_Mostrado como lectura_. |
+| **mysql.myisam.key_write_requests**
(gauge) | Número de solicitudes para escribir un bloque de claves en la caché de claves de MyISAM.
_Mostrado como escritura_ |
+| **mysql.myisam.key_writes**
(gauge) | Número de escrituras físicas de un bloque de claves desde la caché de claves de MyISAM al disco.
_Mostrado como escritura_ |
+| **mysql.net.aborted_clients**
(gauge) | El número de conexiones que se abortaron porque el cliente murió sin cerrar la connection (conexión) correctamente.
_Mostrado como connection (conexión)_ |
+| **mysql.net.aborted_connects**
(gauge) | Número de intentos fallidos de conexión con el servidor de MySQL.
_Mostrado como connection (conexión)_ |
+| **mysql.net.connections**
(gauge) | La tasa de conexiones al servidor.
_Mostrado como connection (conexión)_ |
+| **mysql.net.max_connections**
(gauge) | El número máximo de conexiones que han estado en uso simultáneamente desde que se inició el servidor.
_Mostrado como connection (conexión) |
+| **mysql.net.max_connections_available**
(gauge) | El número máximo permitido de conexiones simultáneas del cliente.
_Mostrado como connection (conexión)_ |
+| **mysql.performance.bytes_received**
(gauge) | El número de bytes recibidos de todos los clientes.
_Mostrado como byte_ |
+| **mysql.performance.bytes_sent**
(gauge) | El número de bytes enviados a todos los clientes.
_Mostrado como byte_ |
+| **mysql.performance.com_delete**
(gauge) | La tasa de sentencias de borrado.
_Shown as consulta_ |
+| **mysql.performance.com_delete_multi**
(gauge) | La tasa de sentencias de borrado múltiple.
_Mostrado como consulta_ |
+| **mysql.performance.com_insert**
(gauge) | La tasa de sentencias de inserción.
_Shown as consulta_ |
+| **mysql.performance.com_insert_select**
(gauge) | La tasa de sentencias inserción y selección.
_Mostrado como consulta_ |
+| **mysql.performance.com_load**
(gauge) | La tasa de sentencias de carga.
_Mostrado como consulta_ |
+| **mysql.performance.com_replace**
(gauge) | La tasa de sentencias de sustitución.
_Mostrado como consulta_ |
+| **mysql.performance.com_replace_select**
(gauge) | La tasa de sentencias de sustituir y seleccionar.
_Mostrado como consulta_ |
+| **mysql.performance.com_select**
(gauge) | La tasa de sentencias de selección.
_Shown as consulta_ |
+| **mysql.performance.com_update**
(gauge) | La tasa de sentencias de actualización.
_Mostrado como consulta_ |
+| **mysql.performance.com_update_multi**
(gauge) | La tasa de actualización múltiple.
_Mostrado como consulta_ |
+| **mysql.performance.cpu_time**
(gauge) | Porcentaje de tiempo de CPU empleado por MySQL.
_Mostrado como porcentaje_ |
+| **mysql.performance.created_tmp_disk_tables**
(gauge) | Tasa de tablas temporales internas en disco creadas por segundo por el servidor durante la ejecución de sentencias.
_Mostrado como tabla_ |
+| **mysql.performance.created_tmp_files**
(gauge) | La tasa de archivos temporales creados por segundo.
_Mostrado como archivo_ |
+| **mysql.performance.created_tmp_tables**
(gauge) | Tasa de tablas temporales internas creadas por segundo por el servidor durante la ejecución de sentencias.
_Mostrado como tabla_ |
+| **mysql.performance.digest_95th_percentile.avg_us**
(gauge) | Percentil 95 por esquema de tiempo de respuesta de consulta.
_Mostrado en microsegundos_ |
+| **mysql.performance.handler_commit**
(gauge) | El número de sentencias COMMIT internas.
_Mostrado como operación_ |
+| **mysql.performance.handler_delete**
(gauge) | El número de sentencias DELETE internas.
_Mostrado como operación_ |
+| **mysql.performance.handler_prepare**
(gauge) | El número de sentencias PREPARE internas.
_Mostrado como operación_ |
+| **mysql.performance.handler_read_first**
(gauge) | El número de sentencias internas READ_FIRST.
_Mostrado como operación_ |
+| **mysql.performance.handler_read_key**
(gauge) | El número de sentencias internas READ_KEY.
_Mostrado como operación_ |
+| **mysql.performance.handler_read_next**
(gauge) | El número de sentencias internas READ_NEXT.
_Mostrado como operación_ |
+| **mysql.performance.handler_read_prev**
(gauge) | El número de sentencias internas READ_PREV.
_Mostrado como operación_ |
+| **mysql.performance.handler_read_rnd**
(gauge) | El número de sentencias internas READ_RND.
_Mostrado como operación_ |
+| **mysql.performance.handler_read_rnd_next**
(gauge) | El número de sentencias internas READ_RND_NEXT.
_Mostrado como operación_ |
+| **mysql.performance.handler_rollback**
(gauge) | El número de sentencias ROLLBACK internas.
_Mostrado como operación_ |
+| **mysql.performance.handler_update**
(gauge) | El número de sentencias UPDATE internas.
_Mostrado como operación_ |
+| **mysql.performance.handler_write**
(gauge) | El número de sentencias WRITE internas.
_Mostrado como operación_ |
+| **mysql.performance.kernel_time**
(gauge) | Porcentaje de tiempo de CPU empleado en el espacio del núcleo por MySQL.
_Mostrado como porcentaje_. |
+| **mysql.performance.key_cache_utilization**
(gauge) | La relación de utilización de la caché de claves.
_Mostrado como fracción_ |
+| **mysql.performance.max_prepared_stmt_count**
(gauge) | El máximo permitido de sentencias preparadas en el servidor.|
+| **mysql.performance.open_files**
(gauge) | El número de archivos abiertos.
_Mostrado como archivo_ |
+| **mysql.performance.open_tables**
(gauge) | El número de tablas que están abiertas.
_Mostrado como tabla_ |
+| **mysql.performance.opened_tables**
(gauge) | El número de tablas que se han abierto. Si `opened_tables` es grande, su valor `table_open_cache` es probablemente demasiado pequeño.
_Mostrado como tabla_. |
+| **mysql.performance.performance_schema_digest_lost**
(gauge) | El número de instancias de compendio que no pudieron instrumentarse en la tabla eventos_sentencias_resumen_por_compendio. Puede ser distinto de cero si el valor de rendimiento_esquema_compendios_tamaño es demasiado pequeño.|
+| **mysql.performance.prepared_stmt_count**
(gauge) | El número actual de sentencias preparadas.
_Mostrado como consulta_ |
+| **mysql.performance.qcache.utilization**
(gauge) | Fracción de la memoria caché de consultas que se está utilizando actualmente.
_Mostrado como fracción_ |
+| **mysql.performance.qcache_free_blocks**
(gauge) | El número de bloques de memoria libres en la caché de consulta.
_Mostrado como bloque_ |
+| **mysql.performance.qcache_free_memory**
(gauge) | La cantidad de memoria libre para la caché de consultas.
_Mostrado como byte_ |
+| **mysql.performance.qcache_hits**
(gauge) | Tasa de aciertos en la caché de consultas.
_Mostrado como acierto_ |
+| **mysql.performance.qcache_inserts**
(gauge) | Número de consultas añadidas a la caché de consultas.
_Mostrado como consulta_ |
+| **mysql.performance.qcache_lowmem_prunes**
(gauge) | Número de consultas borradas de la caché de consultas por falta de memoria.
_Mostrado como consulta_ |
+| **mysql.performance.qcache_not_cached**
(gauge) | El número de consultas no almacenadas en caché (no almacenables en caché o no almacenadas en caché debido a la configuración de `query_cache_type`).
_Mostrado como consulta_ |
+| **mysql.performance.qcache_queries_in_cache**
(gauge) | Número de consultas registradas en la caché de consultas.
_Mostrado como consulta_ |
+| **mysql.performance.qcache_size**
(gauge) | La cantidad de memoria asignada para almacenar en caché los resultados de la consulta.
_Mostrado como byte_ |
+| **mysql.performance.qcache_total_blocks**
(gauge) | Número total de bloques en la caché de consultas.
_Mostrado como bloque_ |
+| **mysql.performance.queries**
(gauge) | La tasa de consultas.
_Mostrado como consulta_ |
+| **mysql.performance.query_run_time.avg**
(gauge) | Tiempo medio de respuesta de consulta por esquema.
_Mostrado en microsegundos_ |
+| **mysql.performance.questions**
(gauge) | La tasa de sentencias ejecutadas por el servidor.
_Mostrado como consulta_ |
+| **mysql.performance.select_full_join**
(gauge) | El número de uniones que realizan exploraciones de tablas porque no utilizan índices. Si este valor no es 0, debes comprobar cuidadosamente los índices de tus tablas.
_Mostrado como operación_. |
+| **mysql.performance.select_full_range_join**
(gauge) | El número de uniones que utilizaron una búsqueda de rango en una tabla de referencia.
_Mostrado como operación_ |
+| **mysql.performance.select_range**
(gauge) | El número de uniones que utilizaron rangos en la primera tabla. Normalmente, este no es un problema crítico, incluso si el valor es bastante grande.
_Mostrado como operación_. |
+| **mysql.performance.select_range_check**
(gauge) | El número de uniones sin claves que comprueban el uso de claves después de cada fila. Si no es 0, debes comprobar cuidadosamente los índices de tus tablas.
_Mostrado como operación_. |
+| **mysql.performance.select_scan**
(gauge) | El número de uniones que hicieron una exploración completa de la primera tabla.
_Mostrado como operación_ |
+| **mysql.performance.slow_queries**
(gauge) | La tasa de consultas lentas (consultas de logs que superan un tiempo de ejecución determinado).
_Mostrado como consulta_ |
+| **mysql.performance.sort_merge_passes**
(gauge) | El número de pasadas de fusión que ha tenido que hacer el algoritmo de clasificación. Si este valor es grande, debes considerar aumentar el valor de la variable del sistema `sort_buffer_size`.
_Mostrado como operación_. |
+| **mysql.performance.sort_range**
(gauge) | El número de clasificaciones que se han realizado utilizando rangos.
_Mostrado como operación_ |
+| **mysql.performance.sort_rows**
(gauge) | El número de filas ordenadas.
_Mostrado como operación_ |
+| **mysql.performance.sort_scan**
(gauge) | El número de clasificaciones que se han realizado explorando la tabla.
_Mostrado como operación_ |
+| **mysql.performance.table_cache_hits**
(gauge) | Número de aciertos en las búsquedas de la caché de tablas abiertas.
_Mostrado como acierto_ |
+| **mysql.performance.table_cache_misses**
(gauge) | Número de fallos en las búsquedas de la caché de tablas abiertas.
_Mostrado como fallo_ |
+| **mysql.performance.table_locks_immediate**
(gauge) | El número de veces que una solicitud de bloqueo de una tabla podría concederse inmediatamente.|
+| **mysql.performance.table_locks_immediate.rate**
(gauge) | Porcentaje de veces que una solicitud de bloqueo de una tabla puede concederse inmediatamente.|
+| **mysql.performance.table_locks_waited**
(gauge) | Número total de veces que una solicitud de bloqueo de tabla no pudo concederse inmediatamente y fue necesario esperar.|
+| **mysql.performance.table_locks_waited.rate**
(gauge) | Porcentaje de veces que una solicitud de bloqueo de una tabla no pudo concederse inmediatamente y fue necesario esperar.|
+| **mysql.performance.table_open_cache**
(gauge) | El número de tablas abiertas para todos los hilos. Incrementar este valor incrementa el número de descriptores de archivo que requiere mysqld.|
+| **mysql.performance.thread_cache_size**
(gauge) | Cuántos hilos debe almacenar en caché el servidor para su reutilización. Cuando un cliente se desconecta, los hilos del cliente se ponen en la caché si hay menos de `thread_cache_size` hilos allí.
_Mostrado como byte_. |
+| **mysql.performance.threads_cached**
(gauge) | El número de hilos en la caché de hilos.
_Mostrado como hilo_ |
+| **mysql.performance.threads_connected**
(gauge) | El número de conexiones abiertas actualmente.
_Mostrado como connection (conexión)_ |
+| **mysql.performance.threads_created**
(count) | El número de hilos creados para manejar las conexiones. Si `threads_created` es grande, es posible que desees aumentar el valor de `thread_cache_size`.
_Mostrado como hilo_. |
+| **mysql.performance.threads_running**
(gauge) | El número de hilos que no están inactivos.
_Mostrado como hilo_ |
+| **mysql.performance.user_connections**
(gauge) | El número de conexiones de usuario. Etiquetas: `processlist_db`, `processlist_host`, `processlist_state`, `processlist_user`
_Mostrado como connection (conexión)_ |
+| **mysql.performance.user_time**
(gauge) | Porcentaje de tiempo de CPU empleado en el espacio de usuario por MySQL.
_Mostrado como porcentaje_. |
+| **mysql.queries.count**
(count) | El count total de consultas ejecutadas por consulta normalizada y esquema. (Solo DBM)
_Mostrado como consulta_. |
+| **mysql.queries.errors**
(count) | El count total de consultas ejecutadas con un error por consulta y esquema normalizados. (Solo DBM)
_Mostrado como error_. |
+| **mysql.queries.lock_time**
(count) | Tiempo total de espera de bloqueos por consulta y esquema normalizados. (Solo DBM)
_Mostrado como nanosegundo_. |
+| **mysql.queries.no_good_index_used**
(count) | El count total de consultas que utilizaron un índice menor que el óptimo por consulta y esquema normalizados. (Solo DBM)
_Mostrado como consulta_. |
+| **mysql.queries.no_index_used**
(count) | El count total de consultas que no utilizan un índice por consulta y esquema normalizados. (Solo DBM)
_Mostrado como consulta_. |
+| **mysql.queries.rows_affected**
(count) | Número de filas mutadas por consulta y esquema normalizados. (Solo DBM)
_Mostrado como fila_. |
+| **mysql.queries.rows_examined**
(count) | Número de filas examinadas por consulta y esquema normalizados. (Solo DBM)
_Mostrado como fila_. |
+| **mysql.queries.rows_sent**
(count) | Número de filas enviadas por consulta y esquema normalizados. (Solo DBM)
_Mostrado como fila_. |
+| **mysql.queries.select_full_join**
(count) | El count total de exploraciones de tabla completa en una tabla unida por consulta y esquema normalizados. (Solo DBM)|
+| **mysql.queries.select_scan**
(count) | El count total de exploraciones de tabla completa en la primera tabla por consulta y esquema normalizados. (Solo DBM)|
+| **mysql.queries.time**
(count) | El tiempo total de ejecución de la consulta por consulta y esquema normalizados. (Solo DBM)
_Mostrado como nanosegundo_. |
+| **mysql.replication.group.conflicts_detected**
(gauge) | Número de transacciones que no han pasado el check de detección de conflictos.
_Mostrado como transacción_ |
+| **mysql.replication.group.member_status**
(gauge) | Información sobre el estado del nodo en un entorno de replicación de grupo, siempre igual a 1.|
+| **mysql.replication.group.transactions**
(gauge) | El número de transacciones en la cola pendientes de checks de detección de conflictos.
_Mostrado como transacción_ |
+| **mysql.replication.group.transactions_applied**
(gauge) | Número de transacciones que este miembro ha recibido del grupo y ha aplicado.
_Mostrado como transacción_ |
+| **mysql.replication.group.transactions_check**
(gauge) | El número de transacciones que se han comprobado en busca de conflictos.
_Mostrado como transacción_ |
+| **mysql.replication.group.transactions_in_applier_queue**
(gauge) | El número de transacciones que este miembro ha recibido del grupo de replicación y que están a la espera de ser aplicadas.
_Mostrado como transacción_ |
+| **mysql.replication.group.transactions_proposed**
(gauge) | Número de transacciones que se originaron en este miembro y se enviaron al grupo.
_Mostrado como transacción_ |
+| **mysql.replication.group.transactions_rollback**
(gauge) | Número de transacciones que se originaron en este miembro y fueron revertidas por el grupo.
_Mostrado como transacción_ |
+| **mysql.replication.group.transactions_validating**
(gauge) | Número de filas de transacciones que pueden utilizarse para la certificación, pero que no se han recolectado de la basura.
_Mostrado como transacción_ |
+| **mysql.replication.replicas_connected**
(gauge) | Número de réplicas conectadas a una source (fuente) de réplicas.|
+| **mysql.replication.seconds_behind_master**
(gauge) | El desfase en segundos entre el patrón y el esclavo.
_Mostrado como segundo_ |
+| **mysql.replication.seconds_behind_source**
(gauge) | El desfase en segundos entre la source (fuente) y la réplica.
_Mostrado como segundo_ |
+| **mysql.replication.slave_running**
(gauge) | Obsoleto. Utiliza un check de servicios mysql.replication.replica_running en su lugar. Un booleano que muestra si este servidor es un esclavo/patrón de réplica que se está ejecutando.|
+| **mysql.replication.slaves_connected**
(gauge) | Obsoleto. Utiliza `MySQL.replication.replicas_connected` en su lugar. Número de esclavos conectados a un patrón de réplica.|
El check no recopila todas las métricas por defecto. Establece las siguientes opciones de configuración booleanas en `true` para activar las respectivas métricas:
@@ -644,42 +822,45 @@ El check no recopila todas las métricas por defecto. Establece las siguientes o
El check de MySQL no incluye eventos.
### Checks de servicio
-{{< get-service-checks-from-git "mysql" >}}
+**mysql.can_connect**
+
+Devuelve `CRITICAL` si el Agent no puede conectarse a la instancia MySQL monitorizada. En caso contrario, devuelve `OK`.
+
+_Estados: ok, crítico_
+
+**mysql.replication.slave_running**
+
+Obsoleto. Devuelve CRÍTICO para una réplica que no esté ejecutando Esclavo_IO_En ejecución ni Esclavo_SQL_En ejecución, ADVERTENCIA si una de las dos no está ejecutándose. En caso contrario, devuelve `OK`.
+
+_Estados: ok, advertencia, crítico_
+
+**mysql.replication.replica_running**
+
+Devuelve CRÍTICO para una réplica que no esté ejecutando Réplica_IO_En ejecución ni Réplica_SQL_En ejeución, ADVERTENCIA si una de las dos no está ejecutándose. En caso contrario, devuelve `OK`.
+
+_Estados: ok, advertencia, crítico_
+
+**mysql.replication.group.status**
+
+Devuelve `OK` si el estado del host es EN LÍNEA, devuelve `CRITICAL` en caso contrario.
+
+_Estados: ok, crítico_
## Solucionar problemas
-- [Problemas de conexión con la integración de SQL Server][8]
-- [Error de host local de MySQL: host local VS 127.0.0.1][9]
-- [¿Puedo utilizar una instancia con nombre en la integración de SQL Server?][10]
-- [¿Puedo configurar el check de MySQL dd-agent en mi Google CloudSQL?][11]
-- [Consultas personalizadas de MySQL][12]
-- [Utilizar WMI para recopilar más métricas de rendimiento de SQL Server][13]
-- [¿Cómo puedo recopilar más métricas de mi integración de SQL Server?][14]
-- [El usuario de la base de datos carece de privilegios][15]
-- [¿Cómo se recopilan las métricas con un procedimiento almacenado de SQL?][16]
+- [Problemas de connection (conexión) con la integración del servidor de SQL](https://docs.datadoghq.com/integrations/guide/connection-issues-with-the-sql-server-integration/)
+- [Error del host local de MySQL - Host local VS 127.0.0.1](https://docs.datadoghq.com/integrations/faq/mysql-localhost-error-localhost-vs-127-0-0-1/)
+- [¿Puedo utilizar una instancia con nombre en la integración del servidor de SQL?](https://docs.datadoghq.com/integrations/faq/can-i-use-a-named-instance-in-the-sql-server-integration/)
+- [Puedo configurar el check de MySQL del dd-agent en mi Google CloudSQL?](https://docs.datadoghq.com/integrations/faq/can-i-set-up-the-dd-agent-mysql-check-on-my-google-cloudsql/)
+- [Consultas personalizadas de MySQL](https://docs.datadoghq.com/integrations/faq/how-to-collect-metrics-from-custom-mysql-queries/)
+- [Utiliza WMI para recopilar más métricas de rendimiento del servidor de SQL](https://docs.datadoghq.com/integrations/guide/use-wmi-to-collect-more-sql-server-performance-metrics/)
+- [¿Cómo puedo recopilar más métricas de mi integración del servidor de SQL?](https://docs.datadoghq.com/integrations/faq/how-can-i-collect-more-metrics-from-my-sql-server-integration/)
+- [Usuario de base de datos sin privilegios](https://docs.datadoghq.com/integrations/faq/database-user-lacks-privileges/)
+- [Cómo recopilar métricas con un procedimiento almacenado de SQL](https://docs.datadoghq.com/integrations/guide/collect-sql-server-custom-metrics/#collecting-metrics-from-a-custom-procedure)
## Referencias adicionales
-Más enlaces, artículos y documentación útiles:
-
-- [Monitorización de métricas de rendimiento de MySQL][17]
-
-
-[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/mysql/images/mysql-dash-dd-2.png
-[2]: https://docs.datadoghq.com/database_monitoring/
-[3]: https://app.datadoghq.com/account/settings/agent/latest
-[4]: https://docs.datadoghq.com/database_monitoring/#mysql
-[5]: https://dev.mysql.com/doc/refman/8.0/en/creating-accounts.html
-[6]: https://github.com/DataDog/integrations-core/blob/master/mysql/datadog_checks/mysql/data/conf.yaml.example
-[7]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information
-[8]: https://docs.datadoghq.com/integrations/guide/connection-issues-with-the-sql-server-integration/
-[9]: https://docs.datadoghq.com/integrations/faq/mysql-localhost-error-localhost-vs-127-0-0-1/
-[10]: https://docs.datadoghq.com/integrations/faq/can-i-use-a-named-instance-in-the-sql-server-integration/
-[11]: https://docs.datadoghq.com/integrations/faq/can-i-set-up-the-dd-agent-mysql-check-on-my-google-cloudsql/
-[12]: https://docs.datadoghq.com/integrations/faq/how-to-collect-metrics-from-custom-mysql-queries/
-[13]: https://docs.datadoghq.com/integrations/guide/use-wmi-to-collect-more-sql-server-performance-metrics/
-[14]: https://docs.datadoghq.com/integrations/faq/how-can-i-collect-more-metrics-from-my-sql-server-integration/
-[15]: https://docs.datadoghq.com/integrations/faq/database-user-lacks-privileges/
-[16]: https://docs.datadoghq.com/integrations/guide/collect-sql-server-custom-metrics/#collecting-metrics-from-a-custom-procedure
-[17]: https://www.datadoghq.com/blog/monitoring-mysql-performance-metrics
+Documentación útil adicional, enlaces y artículos:
+
+- [Monitorización de métricas de rendimiento de MySQL](https://www.datadoghq.com/blog/monitoring-mysql-performance-metrics)
\ No newline at end of file
diff --git a/content/es/integrations/n2ws.md b/content/es/integrations/n2ws.md
index 06781039057ab..bd55cda967547 100644
--- a/content/es/integrations/n2ws.md
+++ b/content/es/integrations/n2ws.md
@@ -1,75 +1,18 @@
---
app_id: n2ws
-app_uuid: 6c0176c4-b878-43e0-a5a8-d280b0fa123e
-assets:
- dashboards:
- N2WSBackup&Recovery-EntitiesSpecificDashboard: assets/dashboards/N2WSBackup&Recovery-EntityTypesDetails.json
- N2WSBackup&Recovery-EntitiesSpecificDashboardV4.0: assets/dashboards/N2WSBackup&Recoveryv4.1-EntityTypesDetails.json
- N2WSBackup&Recovery-GraphicalVersion: assets/dashboards/N2WSBackup&Recovery-BackupSuccessRates(ColumnGraphs).json
- N2WSBackup&Recovery-GraphicalVersion-Areas: assets/dashboards/N2WSBackup&Recovery-BackupSuccessRates(AreasGraphs).json
- N2WSBackup&Recovery-GraphicalVersionV4.0: assets/dashboards/N2WSBackup&Recoveryv4.1-BackupSuccessRates(ColumnGraphs).json
- integration:
- auto_install: true
- configuration: {}
- events:
- creates_events: false
- metrics:
- check: cpm_metric.dashboard_activity.backup_success_num
- metadata_path: metadata.csv
- prefix: cpm_metric.
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 10129
- source_type_name: N2WS Backup & Recovery
-author:
- homepage: https://github.com/DataDog/integrations-extras
- name: N2WS
- sales_email: eliad.eini@n2ws.com
- support_email: eliad.eini@n2ws.com
categories:
- nube
-custom_kind: integration
-dependencies:
-- https://github.com/DataDog/integrations-extras/blob/master/n2ws/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: n2ws
-integration_id: n2ws
-integration_title: N2WS
-integration_version: ''
-is_public: true
-manifest_version: 2.0.0
-name: n2ws
-public_title: N2WS
-short_description: Ver datos resumidos de todos los hosts conectados de N2WS Backup
- & Recovery
+custom_kind: integración
+description: Ver datos resumidos de todos los hosts conectados de N2WS Backup & Recovery
+media: []
supported_os:
- linux
- macos
- windows
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Supported OS::Linux
- - Supported OS::macOS
- - Supported OS::Windows
- - Category::Cloud
- - Offering::Integration
- configuration: README.md#Setup
- description: Ver datos resumidos de todos los hosts conectados de N2WS Backup &
- Recovery
- media: []
- overview: README.md#Overview
- support: README.md#Support
- title: N2WS
+title: N2WS
---
-
-
-
-
## Información general
-
N2WS Backup & Recovery (CPM), conocido como N2WS, es una solución empresarial de copia de seguridad, recuperación y recuperación de desastres para Amazon Web Services (AWS) y Microsoft Azure. N2WS utiliza tecnologías nativas en la nube (snapshots) para brindar capacidades de copia de seguridad y restauración en AWS y Azure.
Tu instancia de N2WS Backup and Recovery admite la monitorización de copias de seguridad, recuperación de desastres, copia a S3, alertas,
@@ -79,39 +22,42 @@ y mucho más con el servicio d emonitorización de Datadog. Esta integración pe
### Instalación
-1. Instala la [integración de Python][1].
+1. Instala la [integración de Python](https://app.datadoghq.com/account/settings#integrations/python).
+
+1. Habilita la compatibilidad con Datadog en tu instancia de N2WS:
-2. Habilita la compatibilidad con Datadog en tu instancia de N2WS:
- - Conéctate a tu instancia de N2WS Backup and Recovery con SSH.
- - Añade las líneas siguientes a `/cpmdata/conf/cpmserver.cfg`. Es posible que necesites privilegios `sudo` para realizar esta acción.
- ```
- [external_monitoring]
- enabled=True
- ```
- - Ejecuta `service apache2 restart`
+ - Conéctate a tu instancia de N2WS Backup and Recovery con SSH.
+ - Añade las líneas siguientes a `/cpmdata/conf/cpmserver.cfg`. Es posible que necesites privilegios `sudo` para realizar esta acción.
+ ```
+ [external_monitoring]
+ enabled=True
+ ```
+ - Ejecuta `service apache2 restart`
-3. Instala el Datadog Agent en tu instancia de N2WS.
- - Inicia sesión en Datadog y ve a Integrations -> Agent -> Ubuntu (Integraciones -> Agent -> Ubuntu)
- - Copia el comando de instalación en un solo paso del Agent.
- - Conéctate a tu instancia de N2WS Backup and Recovery con SSH y ejecuta el comando. Es posible que necesites privilegios `sudo` para realizar esta acción.
+1. Instala el Datadog Agent en tu instancia de N2WS.
-4. Configura las métricas de dashboard de Datadog:
- - Ve a [**Metrics** -> **Explorer**][2] (Métricas -> Explorador)
+ - Inicia sesión en Datadog y ve a Integrations -> Agent -> Ubuntu (Integraciones -> Agent -> Ubuntu)
+ - Copia el comando de instalación en un solo paso del Agent.
+ - Conéctate a tu instancia de N2WS Backup and Recovery con SSH y ejecuta el comando. Es posible que necesites privilegios `sudo` para realizar esta acción.
- **Gráfico**: selecciona tu métrica en la lista. Todas las métricas de N2WS comienzan con la cadena `cpm_metric`.
+1. Configura las métricas de dashboard de Datadog:
- **Sobre**: selecciona los datos de la lista. Todos los datos de los usuarios de N2WS comienzan con la cadena `cpm:user:`.
- Puedes seleccionar un usuario específico o toda la instancia de N2WS.
+ - Ve a [**Metrics** -> **Explorer** (Métricas -> Explorer)](https://app.datadoghq.com/metric/explorer)
+ **Gráfico**: selecciona tu métrica en la lista. Todas las métricas de N2WS comienzan con la cadena `cpm_metric`.
-5. Obtén dashboards de N2WS
- - En [Integraciones de Datadog][3], busca el cuadro `N2WS` e instálalo.
- - Cinco dashboards están instalados en tu cuenta:
- `N2WSBackup&Recovery-Graphicalversion`, `N2WSBackup&Recovery-Graphicalversion-areas` y `N2WSBackup&Recovery-EntitiesSpecificDashboard` para N2WS Backup & Recovery v3.2.1
- **Nota**: Estos dashboards solo están disponibles para los usuarios de AWS.
- `N2WSBackup&Recovery-EntitiesSpecificDashboardV4.1` y `N2WSBackup&Recovery-GraphicalVersionV4.1` para N2WS Backup & Recovery v4.1
+ **Sobre**: selecciona los datos de la lista. Todos los datos de los usuarios de N2WS comienzan con la cadena `cpm:user:`.
+ Puedes seleccionar un usuario específico o toda la instancia de N2WS.
- Alternativamente, puedes [importar plantillas JSON desde N2WS][4] para crear tus dashboards.
+1. Obtén dashboards de N2WS
+
+ - En [Integraciones de Datadog](https://app.datadoghq.com/account/settings#integrations/n2ws), busca el ícono `N2WS` e instálalo.
+ - Cinco dashboards están instalados en tu cuenta:
+ `N2WSBackup&Recovery-Graphicalversion`, `N2WSBackup&Recovery-Graphicalversion-areas` y `N2WSBackup&Recovery-EntitiesSpecificDashboard` para N2WS Backup & Recovery v3.2.1
+ **Nota**: Estos dashboards solo están disponibles para los usuarios de AWS.
+ `N2WSBackup&Recovery-EntitiesSpecificDashboardV4.1` y `N2WSBackup&Recovery-GraphicalVersionV4.1` para N2WS Backup & Recovery v4.1
+
+ Alternativamente, puedes [importar plantillas JSON desde N2WS](https://support.n2ws.com/portal/en/kb/articles/datadog-templates) para crear tus dashboards.
## Datos recopilados
@@ -125,8 +71,44 @@ Datadog recopila los siguientes datos sobre las copias de seguridad de N2WS Back
- Datos sobre la capacidad del volumen (solo AWS), alertas, etc.
### Métricas
-{{< get-metrics-from-git "n2ws" >}}
+| | |
+| --- | --- |
+| **cpm_metric.dashboard_activity.backup_success_num**
(gauge) | Número total de copias de seguridad realizadas con éxito (de todos los tipos)|
+| **cpm_metric.dashboard_activity.backup_fail_num**
(gauge) | Número total de copias de seguridad fallidas (de todos los tipos)|
+| **cpm_metric.dashboard_activity.backup_partial_num**
(gauge) | Número total de copias de seguridad parcialmente correctas (de todos los tipos)|
+| **cpm_metric.dashboard_activity.backup_dr_success_num**
(gauge) | Número total de copias de seguridad DR realizadas con éxito (de todos los tipos)|
+| **cpm_metric.dashboard_activity.backup_dr_fail_num**
(gauge) | Número total de copias de seguridad DR fallidas (de todos los tipos)|
+| **cpm_metric.dashboard_activity.backup_dr_partial_num**
(gauge) | Número total de copias de seguridad de RD parcialmente correctas (de todos los tipos)|
+| **cpm_metric.dashboard_activity.backup_s3_success_num**
(gauge) | Número total de copias de seguridad realizadas con éxito en S3|
+| **cpm_metric.dashboard_activity.backup_s3_fail_num**
(gauge) | Número total de copias de seguridad fallidas en S3|
+| **cpm_metric.dashboard_activity.backup_s3_partial_num**
(gauge) | Número total de copias de seguridad parcialmente correctas en S3|
+| **cpm_metric.dashboard_state.policies_num**
(gauge) | Número total de políticas en todos los hosts|
+| **cpm_metric.dashboard_state.accounts_num**
(gauge) | Número total de cuentas en todos los hosts|
+| **cpm_metric.dashboard_state.snapshots_volume_num**
(gauge) | Número total de instantáneas de volúmenes|
+| **cpm_metric.dashboard_state.snapshots_only_ami_num**
(gauge) | Número total de instantáneas de instancia solo AMI|
+| **cpm_metric.dashboard_state.snapshots_dr_volume_num**
(gauge) | Número total de instantáneas DR de volúmenes|
+| **cpm_metric.dashboard_state.snapshots_rds_num**
(gauge) | Número total de instantáneas de bases de datos RDS|
+| **cpm_metric.dashboard_state.snapshots_dr_rds_num**
(gauge) | Número total de instantáneas DR de bases de datos RDS|
+| **cpm_metric.dashboard_state.snapshots_redshift_num**
(gauge) | Número total de instantáneas de bases de datos de Redshift|
+| **cpm_metric.dashboard_state.snapshots_rds_clus_num**
(gauge) | Número total de instantáneas de los clústeres de Aurora|
+| **cpm_metric.dashboard_state.snapshots_dr_rds_clus_num**
(gauge) | Número total de instantáneas DR de los clústeres de Aurora|
+| **cpm_metric.dashboard_state.snapshots_ddb_num**
(gauge) | Número total de instantáneas de DynamoDB|
+| **cpm_metric.dashboard_state.snapshots_efs_num**
(gauge) | Número total de instantáneas DR de sistemas de archivos EFS|
+| **cpm_metric.dashboard_state.snapshots_dr_efs_num**
(gauge) | Número total de instantáneas de Azure Disks|
+| **cpm_metric.dashboard_state.snapshots_disk_num**
(gauge) | Número total de instantáneas de sistemas de archivos EFS|
+| **cpm_metric.dashboard_state.protected_instances_num**
(gauge) | Número total de recursos de instancias protegidas|
+| **cpm_metric.dashboard_state.protected_volumes_num**
(gauge) | Número total de recursos de volúmenes protegidos|
+| **cpm_metric.dashboard_state.protected_rds_db_num**
(gauge) | Número total de recursos RDS protegidos|
+| **cpm_metric.dashboard_state.protected_ddb_num**
(gauge) | Número total de recursos de DynamoDB protegidos|
+| **cpm_metric.dashboard_state.protected_efs_num**
(gauge) | Número total de recursos EFS protegidos|
+| **cpm_metric.dashboard_state.protected_rds_clus_num**
(gauge) | Número total de recursos de Aurora protegidos|
+| **cpm_metric.dashboard_state.protected_redshift_num**
(gauge) | Número total de recursos de máquinas virtuales de Azure protegidas|
+| **cpm_metric.dashboard_state.protected_virtual_machines_num**
(gauge) | Número total de recursos de Redshift protegidos|
+| **cpm_metric.dashboard_state.protected_disks_num**
(gauge) | Número total de recursos de Redshift protegidos|
+| **cpm_metric.dashboard_state.volumes_above_high_watermark_num**
(gauge) | Número de volúmenes con capacidad superior a la marca de agua|
+| **cpm_metric.dashboard_state.volumes_below_low_watermark_num**
(gauge) | Número de volúmenes con capacidad inferior a la marca de agua|
+| **cpm_metric.dashboard_state.volumes_usage_percentage_num**
(gauge) | Uso total de la capacidad para todos los volúmenes de todos los hosts
_Mostrado como porcentaje_ |
### Eventos
@@ -138,16 +120,6 @@ La integración de N2WS Backup & Recovery no incluye ningún check de servicio.
## Solucionar problemas
-- [Guía del usuario y documentación de N2WS][6]
-- [Soporte de N2WS][7]
-- [Soporte de Datadog][8]
-
-
-[1]: https://app.datadoghq.com/account/settings#integrations/python
-[2]: https://app.datadoghq.com/metric/explorer
-[3]: https://app.datadoghq.com/account/settings#integrations/n2ws
-[4]: https://support.n2ws.com/portal/en/kb/articles/datadog-templates
-[5]: https://github.com/DataDog/integrations-extras/blob/master/n2ws/metadata.csv
-[6]: https://n2ws.com/support/documentation
-[7]: https://n2ws.com/support
-[8]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
+- [Guía del usuario y documentación de N2WS](https://n2ws.com/support/documentation)
+- [Asistencia técnica de N2WS](https://n2ws.com/support)
+- [Asistencia técnica de Datadog](https://docs.datadoghq.com/help/)
\ No newline at end of file
diff --git a/content/es/integrations/neo4j.md b/content/es/integrations/neo4j.md
index 87f3d11bffa48..55f1eef6834ea 100644
--- a/content/es/integrations/neo4j.md
+++ b/content/es/integrations/neo4j.md
@@ -1,94 +1,42 @@
---
app_id: neo4j
-app_uuid: f2657bb8-ded4-48f3-8095-f703cc203149
-assets:
- dashboards:
- Neo4j V4 Dashboard: assets/dashboards/Neo4j4.xDefaultDashboard.json
- Neo4j V5 Cluster Dashboard: assets/dashboards/Neo4j5ClusterDashboard.json
- Neo4j V5 Dashboard: assets/dashboards/Neo4j5DefaultDashboard.json
- integration:
- auto_install: true
- configuration:
- spec: assets/configuration/spec.yaml
- events:
- creates_events: false
- metrics:
- check: neo4j.dbms.page_cache.hits
- metadata_path: metadata.csv
- prefix: neo4j.
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 10202
- source_type_name: Neo4j
-author:
- homepage: https://github.com/DataDog/integrations-extras
- name: Neo4j
- sales_email: support@neotechnology.com
- support_email: support@neotechnology.com
categories:
- almacenes de datos
-custom_kind: integration
-dependencies:
-- https://github.com/DataDog/integrations-extras/blob/master/neo4j/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: neo4j
-integration_id: neo4j
-integration_title: Neo4j
-integration_version: 3.0.3
-is_public: true
-manifest_version: 2.0.0
-name: neo4j
-public_title: Neo4j
-short_description: Recopila métricas de Neo4j
+custom_kind: integración
+description: Recopila métricas de Neo4j
+integration_version: 3.0.4
+media:
+- caption: Dashboard de Neo4j 5
+ image_url: images/Neo4j_5_Dashboard.png
+ media_type: imagen
+- caption: Base de datos de Neo4j 5
+ image_url: images/neo4j_graph.png
+ media_type: imagen
supported_os:
- linux
- macos
- windows
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Supported OS::Linux
- - Supported OS::macOS
- - Supported OS::Windows
- - Category::Data Stores
- - Offering::Integration
- configuration: README.md#Setup
- description: Recopila métricas de Neo4j
- media:
- - caption: Dashboard de Neo4j 5
- image_url: images/Neo4j_5_Dashboard.png
- media_type: imagen
- - caption: Base de datos de Neo4j 5
- image_url: images/neo4j_graph.png
- media_type: imagen
- overview: README.md#Overview
- support: README.md#Support
- title: Neo4j
+title: Neo4j
---
-
-
-
-
## Información general
-[Neo4j][1] es una base de datos gráfica empresarial que combina almacenamiento gráfico nativo, seguridad avanzada, arquitectura escalable de velocidad optimizada y conformidad con ACID para asegurar la previsibilidad y la integridad de las consultas basadas en relaciones. Neo4j almacena y gestiona los datos en su estado más natural y conectado, mediante relaciones de datos que ofrecen consultas ultrarrápidas, un contexto más detallado para el análisis y un modelo de datos modificable sin complicaciones.
+[Neo4j](https://neo4j.com/) es una base de datos gráfica empresarial que combina almacenamiento gráfico nativo, seguridad avanzada, arquitectura escalable de velocidad optimizada y conformidad con ACID para garantizar la previsibilidad y la integridad de las consultas basadas en relaciones. Neo4j almacena y gestiona los datos en su estado más natural y conectado y mantiene relaciones de datos que ofrecen consultas ultrarrápidas, un contexto más profundo para el análisis y un modelo de datos modificable sin complicaciones.
-Las métricas de Neo4j permite a los administradores de bases de datos monitorizar sus despliegues de Neo4j. Los administradores de bases de datos desean conocer el uso de la memoria (caché de heap y páginas), el número de transacciones, el estado del clúster, el tamaño de la base de datos (incluido el número de nodos, relaciones y propiedades) y el rendimiento de las consultas.
-
-Con esta integración, visualiza importantes métricas de Neo4j en nuestros dashboards predefinidos y permite a tus DBAs solucionar problemas y monitorizar el estado de tus bases de datos Neo4j.
+Las métricas de Neo4j permiten a los administradores de bases de datos monitorizar sus despliegues de Neo4j. Los administradores de bases de datos desean conocer el uso de la memoria (caché de montón y de page (página)), el número de transacciones, el estado del clúster, el tamaño de la base de datos (incluidos el número de nodos, relaciones y propiedades) y el rendimiento de las consultas.
+Con esta integración, visualiza importantes métricas de Neo4j en nuestros dashboards predefinidos y permite a tus bases de datos solucionar problemas y monitorizar el estado de tus bases de datos Neo4j.
## Configuración
-Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecuta en un host. Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][2] para obtener orientación sobre la aplicación de estas instrucciones.
+Sigue las siguientes instrucciones para instalar y configurar este check para un Agent que se ejecute en un host. Para entornos en contenedores, consulta las [Plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/autodiscovery/integrations) para obtener orientación sobre la aplicación de estas instrucciones.
### Instalación
Para instalar el check de neo4j en tu host:
-1. Descarga e instala el [Datadog Agent][3].
-2. Para instalar el check de neo4j en tu host:
+1. Descarga e instala el [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest).
+
+1. Para instalar el check de neo4j en tu host:
```shell
datadog-agent integration install -t datadog-neo4j==
@@ -96,21 +44,495 @@ Para instalar el check de neo4j en tu host:
### Configuración
-1. Edita el archivo `neo4j.d/conf.yaml`, en la carpeta `conf.d/` en la raíz del directorio de configuración del Agent para comenzar a recopilar tus datos de rendimiento de neo4j. Consulta el [neo4j.d/conf.yaml de ejemplo][4] para todas las opciones disponibles de configuración.
+1. Edita el archivo `neo4j.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu directorio de configuración del Agent para comenzar a recopilar tus datos de rendimiento de neo4j. Consulta el [ejemplo neo4j.d/conf.yaml](https://github.com/DataDog/integrations-extras/blob/master/neo4j/datadog_checks/neo4j/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles.
-2. Datadog escucha en el puerto 5000 para dogstatsd_stats_port y expvar_port. En tu archivo neo4j.conf, tendrás que cambiar server.discovery.listen_address y el server.discovery.advertised_address para utilizar un puerto distinto de 5000.
+1. Datadog escucha en el puerto 5000 para dogstatsd_stats_port y expvar_port. En tu archivo neo4j.conf, tendrás que cambiar server.discovery.listen_address y el server.discovery.advertised_address para utilizar un puerto distinto de 5000.
-3. [Reinicia el Agent][5].
+1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
### Validación
-[Ejecuta el subcomando de estado del Agent][6] y busca `neo4j` en la sección Checks.
+[Ejecuta el subcomando de estado del Agent(https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `neo4j` en la sección Checks.
## Datos recopilados
### Métricas
-{{< get-metrics-from-git "neo4j" >}}
+| | |
+| --- | --- |
+| **neo4j.causal_clustering.catchup_tx_pull_requests_received**
(gauge) | Número total de solicitudes de extracción de transacciones recibidas. (Neo4j 4)|
+| **neo4j.causal_clustering.core.append_index**
(gauge) | Índice de anexión del log de RAFT. (Neo4j 4)|
+| **neo4j.causal_clustering.core.commit_index**
(gauge) | Índice de confirmación del log de RAFT. (Neo4j 4)|
+| **neo4j.causal_clustering.core.discovery.cluster.converged**
(gauge) | Convergencia del clúster de descubrimiento. (Neo4j 4)|
+| **neo4j.causal_clustering.core.discovery.cluster.members**
(gauge) | Tamaño de los miembros del clúster de descubrimiento. (Neo4j 4)|
+| **neo4j.causal_clustering.core.discovery.cluster.unreachable**
(gauge) | Tamaño inalcanzable del clúster de descubrimiento. (Neo4j 4)|
+| **neo4j.causal_clustering.core.discovery.replicated_data.cluster_id.per_db_name.invisible**
(gauge) | Identificador oculto del clúster. (Neo4j 4)|
+| **neo4j.causal_clustering.core.discovery.replicated_data.cluster_id.per_db_name.visible**
(gauge) | Identificador compartido del clúster. (Neo4j 4)|
+| **neo4j.causal_clustering.core.discovery.replicated_data.member_data.invisible**
(gauge) | Estructura de datos invisible que contiene metadatos sobre los miembros del clúster. (Neo4j 4)|
+| **neo4j.causal_clustering.core.discovery.replicated_data.member_data.visible**
(gauge) | Estructura de datos visible que contiene metadatos sobre los miembros del clúster. (Neo4j 4)|
+| **neo4j.causal_clustering.core.discovery.replicated_data.member_db_state.invisible**
(gauge) | La parte oculta de la estructura de datos utilizada con fines internos. (Neo4j 4)|
+| **neo4j.causal_clustering.core.discovery.replicated_data.member_db_state.visible**
(gauge) | La parte visible de la estructura de datos utilizada con fines internos. (Neo4j 4)|
+| **neo4j.causal_clustering.core.discovery.replicated_data.per_db.leader_name.invisible**
(gauge) | El número total de cambios de liderazgo. (Neo4j 4)|
+| **neo4j.causal_clustering.core.discovery.replicated_data.per_db.leader_name.visible**
(gauge) | Número de líderes del clúster. (Neo4j 4)|
+| **neo4j.causal_clustering.core.discovery.replicated_data.raft_id.published_by_member.invisible**
(gauge) | Identificador de Raft visible publicado por el miembro. (Neo4j 4)|
+| **neo4j.causal_clustering.core.discovery.replicated_data.raft_id.published_by_member.visible**
(gauge) | Identificador de Raft oculto publicado por el miembro. (Neo4j 4)|
+| **neo4j.causal_clustering.core.in_flight_cache_element_count**
(gauge) | Recuento de elementos de la caché en vuelo. (Neo4j 4)|
+| **neo4j.causal_clustering.core.in_flight_cache.hits**
(gauge) | Aciertos de la caché en vuelo. (Neo4j 4)|
+| **neo4j.causal_clustering.core.in_flight_cache.max_bytes**
(gauge) | Bytes máximos de caché en vuelo. (Neo4j 4)|
+| **neo4j.causal_clustering.core.in_flight_cache.max_elements**
(gauge) | Elementos máximos de caché en vuelo. (Neo4j 4)|
+| **neo4j.causal_clustering.core.in_flight_cache.misses**
(gauge) | Fallos de caché en vuelo. (Neo4j 4)|
+| **neo4j.causal_clustering.core.in_flight_cache.total_bytes**
(gauge) | Total de bytes de la caché en vuelo. (Neo4j 4)|
+| **neo4j.causal_clustering.core.is_leader**
(gauge) | ¿Es este servidor el líder? (Neo4j 4)|
+| **neo4j.causal_clustering.core.message_processing_delay**
(gauge) | Retraso entre la recepción y el procesamiento de mensajes de RAFT. (Neo4j 4)|
+| **neo4j.causal_clustering.core.message_processing_timer**
(gauge) | Temporizador para el procesamiento de mensajes de RAFT. (Neo4j 4)|
+| **neo4j.causal_clustering.core.message_processing_timer.append_entries_request**
(gauge) | Solicitudes invocadas por el líder de RAFT para replicar entradas de logs. (Neo4j 4)|
+| **neo4j.causal_clustering.core.message_processing_timer.append_entries_response**
(gauge) | Respuestas de los seguidores a las solicitudes del líder de RAFT para replicar las entradas de logs. (Neo4j 4)|
+| **neo4j.causal_clustering.core.message_processing_timer.election_timeout**
(gauge) | Eventos de tiempo de espera para el procesamiento de mensajes de RAFT. (Neo4j 4)|
+| **neo4j.causal_clustering.core.message_processing_timer.heartbeat**
(gauge) | Solicitudes de Heartbeat recibidas por los seguidores en el clúster de RAFT. (Neo4j 4)|
+| **neo4j.causal_clustering.core.message_processing_timer.heartbeat_response**
(gauge) | Respuestas de Heartbeat recibidas por el líder en el clúster de RAFT. (Neo4j 4)|
+| **neo4j.causal_clustering.core.message_processing_timer.heartbeat_timeout**
(gauge) | Eventos de tiempo de espera para solicitudes de latido. (Neo4j 4)|
+| **neo4j.causal_clustering.core.message_processing_timer.log_compaction_info**
(gauge) | Compactación de logs (Neo4j 4)|
+| **neo4j.causal_clustering.core.message_processing_timer.new_batch_request**
(gauge) | Nuevas solicitudes por lotes (Neo4j 4)|
+| **neo4j.causal_clustering.core.message_processing_timer.new_entry_request**
(gauge) | Nuevas solicitudes de entrada (Neo4j 4)|
+| **neo4j.causal_clustering.core.message_processing_timer.pre_vote_request**
(gauge) | Solicitudes previas a la votación (Neo4j 4)|
+| **neo4j.causal_clustering.core.message_processing_timer.pre_vote_response**
(gauge) | Respuestas previas a la votación (Neo4j 4)|
+| **neo4j.causal_clustering.core.message_processing_timer.prune_request**
(gauge) | Solicitudes de poda (Neo4j 4)|
+| **neo4j.causal_clustering.core.message_processing_timer.vote_request**
(gauge) | Solicitudes de votación (Neo4j 4)|
+| **neo4j.causal_clustering.core.message_processing_timer.vote_response**
(gauge) | Respuestas a las votaciones (Neo4j 4)|
+| **neo4j.causal_clustering.core.replication_attempt**
(gauge) | Count de intentos de réplica de la Raft. (Neo4j 4)|
+| **neo4j.causal_clustering.core.replication_fail**
(gauge) | Count de fallos en la réplica de Raft. (Neo4j 4)|
+| **neo4j.causal_clustering.core.replication_new**
(gauge) | Nuevo count de solicitudes de réplica de Raft. (Neo4j 4)|
+| **neo4j.causal_clustering.core.replication_success**
(gauge) | Count de éxitos de réplica de Raft. (Neo4j 4)|
+| **neo4j.causal_clustering.core.term**
(gauge) | Término de RAFT de este servidor (Neo4j 4)|
+| **neo4j.causal_clustering.core.tx_retries**
(gauge) | Reintentos de transacción. (Neo4j 4)|
+| **neo4j.causal_clustering.read_replica.pull_update_highest_tx_id_received**
(gauge) | El identificador de transacción más alto que se ha extraído en la última actualización de extracción por esta instancia. (Neo4j 4)|
+| **neo4j.causal_clustering.read_replica.pull_update_highest_tx_id_requested**
(gauge) | El identificador de transacción más alto solicitado en una actualización de incorporación de cambios por esta instancia. (Neo4j 4)|
+| **neo4j.causal_clustering.read_replica.pull_updates**
(gauge) | El número total de solicitudes de incorporación de cambios realizadas por esta instancia. (Neo4j 4)|
+| **neo4j.database.dbname.check_point.duration**
(gauge) | La duración, en milisegundos, del último evento de punto de control. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.check_point.events**
(count) | El número total de eventos de punto de control ejecutados hasta el momento. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.check_point.io_limit**
(gauge) | El límite de entrada/salida utilizado durante el último evento de punto de control. (Neo4j 5)|
+| **neo4j.database.dbname.check_point.io_performed**
(gauge) | El número de entradas/salidas desde la perspectiva de Neo4j realizadas durante el último evento de punto de control. (Neo4j 5)|
+| **neo4j.database.dbname.check_point.limit_millis**
(gauge) | (Neo4j 5)|
+| **neo4j.database.dbname.check_point.limit_times**
(gauge) | (Neo4j 5)|
+| **neo4j.database.dbname.check_point.pages_flushed**
(gauge) | El número de páginas que se vaciaron durante el último evento de punto de control. (Neo4j 5)|
+| **neo4j.database.dbname.check_point.total_time**
(count) | El tiempo total, en milisegundos, empleado en el punto de control hasta ahora. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.cluster.catchup.tx_pull_requests_received**
(count) | Solicitudes de incorporación de cambios de TX recibidas de secundarios. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.append_index**
(count) | El índice de anexión del log de Raft (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.applied_index**
(count) | El índice aplicado del log de Raft (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.commit_index**
(count) | El índice de confirmación del log de Raft (Neo4j 4)|
+| **neo4j.database.dbname.cluster.core.in_flight_cache.element_count**
(gauge) | Count de elementos en caché en vuelo. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.in_flight_cache.hits**
(count) | Aciertos de caché en vuelo. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.in_flight_cache.max_bytes**
(gauge) | Bytes máximos de caché en vuelo. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.in_flight_cache.max_elements**
(gauge) | Elementos máximos de la caché en vuelo. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.in_flight_cache.misses**
(count) | Fallos de caché en vuelo. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.in_flight_cache.total_bytes**
(count) | Total de bytes de la caché en vuelo. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.is_leader**
(count) | ¿Es este servidor el líder? (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.last_leader_message**
(count) | El tiempo transcurrido desde el último mensaje de un líder en milisegundos.|
+| **neo4j.database.dbname.cluster.core.message_processing_delay**
(count) | Retraso entre la recepción y el procesamiento del mensaje de Raft.|
+| **neo4j.database.dbname.cluster.core.message_processing_timer**
(count) | Temporizador para el procesamiento de mensajes de Raft. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.message_processing_timer.append_entries_request**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.message_processing_timer.append_entries_response**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.message_processing_timer.election_timeout**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.message_processing_timer.heartbeat**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.message_processing_timer.heartbeat_response**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.message_processing_timer.heartbeat_timeout**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.message_processing_timer.leadership_transfer_proposal**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.message_processing_timer.leadership_transfer_rejection**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.message_processing_timer.leadership_transfer_request**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.message_processing_timer.log_compaction_info**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.message_processing_timer.new_batch_request**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.message_processing_timer.new_entry_request**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.message_processing_timer.pre_vote_request**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.message_processing_timer.pre_vote_response**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.message_processing_timer.prune_request**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.message_processing_timer.status_response**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.message_processing_timer.vote_request**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.message_processing_timer.vote_response**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.raft_log_entry_prefetch_buffer.async_put**
(count) | Puts asíncronas de búfer de acceso previo de entrada de logs de Raft (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.raft_log_entry_prefetch_buffer.bytes**
(count) | Bytes totales de acceso previo de entrada de logs de Raft. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.raft_log_entry_prefetch_buffer.lag**
(count) | Retraso de acceso previo de entrada de logs de Raft. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.raft_log_entry_prefetch_buffer.size**
(count) | Tamaño del búfer de acceso previo de entrada de logs de Raft (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.raft_log_entry_prefetch_buffer.sync_put**
(count) | Puts asíncronas de búfer de acceso previo de entrada de logs de Raft (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.replication_attempt**
(count) | El número total de intentos de solicitudes de réplicas de Raft. Es mayor o igual que las solicitudes de réplicas.|
+| **neo4j.database.dbname.cluster.core.replication_fail**
(count) | El número total de intentos de réplica de Raft que han fallado. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.replication_maybe**
(count) | La réplica de Raft tal vez cuente. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.replication_new**
(count) | La réplica de Raft tal vez cuente. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.replication_success**
(count) | El número total de solicitudes de réplicas de Raft que han tenido éxito. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.term**
(count) | El término de Raft de este servidor. Aumenta en forma monótona si no se desvincula el estado del clúster. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.core.tx_retries**
(count) | Reintentos de transacción. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.append_index**
(count) | El índice de anexión del log de Raft. Cada índice representa una transacción de escritura (posiblemente interna) propuesta para confirmación. Los valores aumentan en su mayoría, pero a veces pueden disminuir como consecuencia de cambios de líder. El índice de anexión siempre debe ser menor o igual al índice de confirmación. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.applied_index**
(count) | El índice aplicado del log de Raft. Representa la aplicación de las entradas de logs de Raft confirmadas a la base de datos y al estado interno. El índice aplicado siempre debe ser mayor o igual que el índice de confirmación. La diferencia entre este y el índice de confirmación se puede utilizar para monitorizar para saber cuán actualizada está la base de datos de seguimiento. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.commit_index**
(count) | El índice de confirmación de logs de Raft. Representa el compromiso de las entradas añadidas previamente. Su valor aumenta en forma monótona si no se desvincula el estado del clúster. El índice de confirmación siempre debe ser mayor o igual que el índice de anexión. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.in_flight_cache.element_count**
(count) | Count de elementos en caché en vuelo. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.in_flight_cache.hits**
(count) | Aciertos de la caché en vuelo. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.in_flight_cache.max_bytes**
(count) | Bytes máximos de caché en vuelo. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.in_flight_cache.max_elements**
(count) | Elementos máximos de la caché en vuelo. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.in_flight_cache.misses**
(count) | Fallos de caché en vuelo. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.in_flight_cache.total_bytes**
(count) | Total de bytes de la caché en vuelo. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.is_leader**
(count) | ¿Es este servidor el líder? (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.last_leader_message**
(count) | El tiempo transcurrido desde el último mensaje de un líder en milisegundos. Debe reiniciarse periódicamente. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.message_processing_delay**
(count) | Retraso entre la recepción y el procesamiento del mensaje de Raft. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.message_processing_timer**
(count) | Temporizador para el procesamiento de mensajes de Raft. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.message_processing_timer.append_entries_request**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.message_processing_timer.append_entries_response**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.message_processing_timer.election_timeout**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.message_processing_timer.heartbeat**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.message_processing_timer.heartbeat_response**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.message_processing_timer.heartbeat_timeout**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.message_processing_timer.leadership_transfer_proposal**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.message_processing_timer.leadership_transfer_rejection**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.message_processing_timer.leadership_transfer_request**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.message_processing_timer.log_compaction_info**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.message_processing_timer.new_batch_request**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.message_processing_timer.new_entry_request**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.message_processing_timer.pre_vote_request**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.message_processing_timer.pre_vote_response**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.message_processing_timer.prune_request**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.message_processing_timer.status_response**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.message_processing_timer.vote_request**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.message_processing_timer.vote_response**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.raft_log_entry_prefetch_buffer.async_put**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.raft_log_entry_prefetch_buffer.bytes**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.raft_log_entry_prefetch_buffer.lag**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.raft_log_entry_prefetch_buffer.size**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.raft_log_entry_prefetch_buffer.sync_put**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.replication_attempt**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.replication_fail**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.replication_maybe**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.replication_new**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.replication_success**
(count) | (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.term**
(count) | El término de Raft de este servidor. Aumenta en forma monótona si no se desvincula el estado del clúster. (Neo4j 5)|
+| **neo4j.database.dbname.cluster.raft.tx_retries**
(count) | Reintentos de transacción. (Neo4j 5)|
+| **neo4j.database.dbname.count.node**
(gauge) | El número total de nodos en las bases de datos. (Neo4j 4)|
+| **neo4j.database.dbname.cypher.cache.ast.entries**
(gauge) | Número de entradas de AST en la caché de cifrado (Neo4j 5)|
+| **neo4j.database.dbname.cypher.cache.executable_query.cache_flushes**
(gauge) | Número de descargas de la caché de consultas ejecutables de la caché de cifrado. (Neo4j 5)|
+| **neo4j.database.dbname.cypher.cache.executable_query.compiled**
(gauge) | El número de entradas compiladas de consultas ejecutables de la caché de cifrado. (Neo4j 5)|
+| **neo4j.database.dbname.cypher.cache.executable_query.discards**
(gauge) | El número de descartes de consultas ejecutables de la caché de cifrado. (Neo4j 5)|
+| **neo4j.database.dbname.cypher.cache.executable_query.entries**
(gauge) | Número de entradas de consultas ejecutables en la caché de cifrado. (Neo4j 5)|
+| **neo4j.database.dbname.cypher.cache.executable_query.hits**
(gauge) | Número de aciertos de consultas ejecutables en la caché de cifrado. (Neo4j 5)|
+| **neo4j.database.dbname.cypher.cache.executable_query.misses**
(gauge) | El número de consultas ejecutables fallidas de la caché de cifrado. (Neo4j 5)|
+| **neo4j.database.dbname.cypher.cache.executable_query.stale_entries**
(gauge) | Número de entradas de consultas obsoletas ejecutables en la caché de cifrado. (Neo4j 5)|
+| **neo4j.database.dbname.cypher.cache.execution_plan.cache_flushes**
(gauge) | El número de vaciados de caché del plan de ejecución de la caché de cifrado. (Neo4j 5)|
+| **neo4j.database.dbname.cypher.cache.execution_plan.compiled**
(gauge) | El número de entradas compiladas del plan de ejecución de la caché de cifrado. (Neo4j 5)|
+| **neo4j.database.dbname.cypher.cache.execution_plan.discards**
(gauge) | El número de descartes del plan de ejecución de la caché de cifrado. (Neo4j 5)|
+| **neo4j.database.dbname.cypher.cache.execution_plan.entries**
(gauge) | El número de entradas del plan de ejecución de la caché de cifrado. (Neo4j 5)|
+| **neo4j.database.dbname.cypher.cache.execution_plan.hits**
(gauge) | Número de aciertos en el plan de ejecución de la caché de cifrado. (Neo4j 5)|
+| **neo4j.database.dbname.cypher.cache.execution_plan.misses**
(gauge) | El número de fallos en el plan de ejecución de la caché de cifrado. (Neo4j 5)|
+| **neo4j.database.dbname.cypher.cache.execution_plan.stale_entries**
(gauge) | Número de entradas de consultas obsoletas ejecutables en la caché de cifrado. (Neo4j 5)|
+| **neo4j.database.dbname.cypher.cache.logical_plan.cache_flushes**
(gauge) | El número de vaciados de la caché de planes lógicos de la caché de cifrado. (Neo4j 5)|
+| **neo4j.database.dbname.cypher.cache.logical_plan.compiled**
(gauge) | El número de entradas compiladas del plan lógico de la caché de cifrado. (Neo4j 5)|
+| **neo4j.database.dbname.cypher.cache.logical_plan.discards**
(gauge) | El número de descartes del plan lógico de la caché de cifrado. (Neo4j 5)|
+| **neo4j.database.dbname.cypher.cache.logical_plan.entries**
(gauge) | El número de entradas del plan lógico de la caché de cifrado. (Neo4j 5)|
+| **neo4j.database.dbname.cypher.cache.logical_plan.hits**
(gauge) | Número de aciertos del plan lógico de la caché de cifrado. (Neo4j 5)|
+| **neo4j.database.dbname.cypher.cache.logical_plan.misses**
(gauge) | Número de faltas del plan lógico de la caché de cifrado. (Neo4j 5)|
+| **neo4j.database.dbname.cypher.cache.logical_plan.stale_entries**
(gauge) | Número de entradas de consultas obsoletas ejecutables en la caché de cifrado. (Neo4j 5)|
+| **neo4j.database.dbname.cypher.cache.pre_parser.entries**
(gauge) | El número de entradas del analizador previo de la caché de cifrado. (Neo4j 5)|
+| **neo4j.database.dbname.cypher.replan_events**
(count) | El número total de veces que Cypher ha decidido volver a planificar una consulta. Neo4j almacena 1000 planes en forma predeterminada. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.cypher.replan_wait_time**
(count) | El número total de segundos esperados entre nuevas planificaciones de consultas. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.db.query.execution.failure**
(count) | Count de consultas fallidas ejecutadas. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.db.query.execution.latency.millis**
(gauge) | Tiempo de ejecución en milisegundos de las consultas ejecutadas con éxito. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.db.query.execution.success**
(count) | Count de consultas ejecutadas con éxito. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.ids_in_use.node**
(gauge) | El número total de nodos almacenados en la base de datos. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.ids_in_use.property**
(gauge) | El número total de nombres de propiedades diferentes utilizados en la base de datos. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.ids_in_use.relationship**
(gauge) | El número total de relaciones almacenadas en la base de datos. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.ids_in_use.relationship_type**
(gauge) | El número total de diferentes tipos de relaciones almacenadas en la base de datos. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.log.append_batch_size**
(gauge) | El tamaño del último lote de anexiones de transacciones. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.log.appended_bytes**
(count) | El número total de bytes añadidos al log de transacción. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.log.flushes**
(count) | El número total de vaciados de logs de transacciones. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.log.rotation_duration**
(count) | La duración, en milisegundos, del último evento de rotación de logs. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.log.rotation_events**
(count) | El número total de rotaciones de logs de transacciones ejecutadas hasta el momento. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.log.rotation_total_time**
(count) | El tiempo total, en milisegundos, empleado en rotar logs de transacciones hasta el momento. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.neo4j.count.node**
(count) | El número total de nodos en la base de datos. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.neo4j.count.relationship**
(gauge) | El número total de relaciones en la base de datos. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.neo4j.count.relationship_types**
(gauge) | Número total de identificadores generados internamente para los diferentes tipos de relaciones almacenados en la base de datos. (Neo4j 5)|
+| **neo4j.database.dbname.pool.other.neo4j.free**
(count) | Cantidad estimada de memoria libre en bytes para este grupo. (Neo4j 4)|
+| **neo4j.database.dbname.pool.other.neo4j.total_size**
(count) | Cantidad estimada de memoria disponible en bytes para este grupo. (Neo4j 4)|
+| **neo4j.database.dbname.pool.other.neo4j.total_used**
(count) | Cantidad estimada de memoria total utilizada en bytes para este grupo. (Neo4j 4)|
+| **neo4j.database.dbname.pool.other.neo4j.used_heap**
(count) | Cantidad estimada de montón utilizado en bytes para este grupo. (Neo4j 4)|
+| **neo4j.database.dbname.pool.other.neo4j.used_native**
(count) | Cantidad estimada de memoria nativa utilizada para este grupo. (Neo4j 4)|
+| **neo4j.database.dbname.pool.transaction.neo4j.free**
(count) | Cantidad estimada de memoria libre en bytes para este grupo.|
+| **neo4j.database.dbname.pool.transaction.neo4j.total_size**
(count) | Cantidad estimada de memoria disponible en bytes para este grupo.|
+| **neo4j.database.dbname.pool.transaction.neo4j.total_used**
(count) | Cantidad estimada de memoria total utilizada en bytes para este pool.|
+| **neo4j.database.dbname.pool.transaction.neo4j.used_heap**
(count) | Cantidad estimada del montón utilizado en bytes para este grupo.|
+| **neo4j.database.dbname.pool.transaction.neo4j.used_native**
(count) | Cantidad estimada de memoria nativa utilizada para este grupo.|
+| **neo4j.database.dbname.store.size.database**
(gauge) | El tamaño de la base de datos, en bytes. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.store.size.total**
(gauge) | El tamaño total de la base de datos y de los logs de transacciones, en bytes. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.transaction.active**
(gauge) | El número de transacciones actualmente activas. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.transaction.active_read**
(gauge) | El número de transacciones de lectura actualmente activas. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.transaction.active_write**
(gauge) | El número de transacciones de escritura actualmente activas. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.transaction.committed**
(count) | El número total de transacciones confirmadas. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.transaction.committed_read**
(count) | El número total de transacciones de lectura confirmadas. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.transaction.committed_write**
(count) | El número total de transacciones de escritura confirmadas. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.transaction.last_closed_tx_id**
(gauge) | El identificador de la última transacción cerrada. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.transaction.last_committed_tx_id**
(gauge) | El identificador de la última transacción confirmada. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.transaction.peak_concurrent**
(count) | El pico más alto de transacciones concurrentes. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.transaction.rollbacks**
(count) | El número total de transacciones revertidas. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.transaction.rollbacks_read**
(count) | El número total de transacciones de lectura revertidas. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.transaction.rollbacks_write**
(count) | El número total de transacciones de escritura revertidas. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.transaction.started**
(count) | El número total de transacciones iniciadas.|
+| **neo4j.database.dbname.transaction.terminated**
(count) | El número total de transacciones finalizadas.|
+| **neo4j.database.dbname.transaction.terminated_read**
(count) | El número total de transacciones de lectura terminadas. (Neo4j 4 y Neo4j 5)|
+| **neo4j.database.dbname.transaction.terminated_write**
(count) | Número total de transacciones de escritura finalizadas.|
+| **neo4j.database.dbname.transaction.tx_size_heap**
(count) | El tamaño de las transacciones en el montón en bytes.|
+| **neo4j.database.dbname.transaction.tx_size_native**
(count) | El tamaño de las transacciones en la memoria nativa en bytes. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.bolt.accumulated_processing_time**
(count) | La cantidad total de tiempo en milisegundos que los subprocesos de worker han estado procesando mensajes. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.bolt.accumulated_queue_time**
(count) | Cuando internal.server.bolt.thread_pool_queue_size está activado, el tiempo total en milisegundos que un mensaje de Bolt espera en la cola de procesamiento antes de que un subproceso de worker de Bolt esté disponible para procesarlo. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.bolt.connections_closed**
(gauge) | El número total de conexiones de Bolt cerradas desde que se inició esta instancia. Esto incluye tanto las conexiones finalizadas correctamente como las anormalmente finalizadas. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.bolt.connections_idle**
(gauge) | El número total de conexiones de Bolt que no están ejecutando actualmente Cypher ni devolviendo resultados. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.bolt.connections_opened**
(count) | El número total de conexiones de Bolt abiertas desde el inicio. Esto incluye tanto las conexiones finalizadas con éxito como las fallidas. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.bolt.connections_running**
(gauge) | El número total de conexiones de Bolt que están ejecutando actualmente Cypher y devolviendo resultados. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.bolt.messages_done**
(count) | El número total de mensajes de Bolt que han terminado de procesarse, ya sea con éxito o sin éxito. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.bolt.messages_failed**
(count) | El número total de mensajes que han fallado durante el procesamiento. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.bolt.messages_received**
(count) | El número total de mensajes recibidos a través de Bolt desde el inicio. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.bolt.messages_started**
(count) | El número total de mensajes que han comenzado a procesarse desde que se recibieron. Un mensaje recibido puede haber comenzado a ser procesado hasta que un hilo de worker de Bolt esté disponible. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.bolt.response_failed**
(count) | El número total de respuestas de Bolt que han fallado durante el procesamiento. (Neo4j 5)|
+| **neo4j.dbms.bolt.response_ignored**
(count) | Número total de respuestas de Bolt que se han ignorado durante el procesamiento. (Neo4j 5)|
+| **neo4j.dbms.bolt.response_success**
(count) | Número total de respuestas de Bolt que se han procesado correctamente. (Neo4j 5)|
+| **neo4j.dbms.bolt_driver.api.managed_transaction_function_calls**
(count) | Número total de llamadas a funciones de transacciones gestionadas. (Neo4j 5)|
+| **neo4j.dbms.bolt_driver.api.unmanaged_transaction_calls**
(count) | El número total de llamadas a funciones de transacción no gestionadas. (Neo4j 5)|
+| **neo4j.dbms.bolt_driver.api.implicit_transaction_calls**
(count) | Número total de llamadas implícitas a funciones de transacción. (Neo4j 5)|
+| **neo4j.dbms.bolt_driver.api.execute_calls**
(count) | Número total de llamadas a funciones de ejecución a nivel de controlador. . (Neo4j 5)|
+| **neo4j.dbms.cluster.catchup.tx_pull_requests_received**
(count) | Solicitudes de incorporación de cambios de TX recibidas de réplicas de lectura. (Neo4j 4)|
+| **neo4j.dbms.cluster.core.append_index**
(gauge) | El índice de anexión del log de Raft (Neo4j 4)|
+| **neo4j.dbms.cluster.core.applied_index**
(gauge) | El índice aplicado del log de Raft (Neo4j 4)|
+| **neo4j.dbms.cluster.core.commit_index**
(gauge) | El índice de confirmación del log de Raft (Neo4j 4)|
+| **neo4j.dbms.cluster.core.in_flight_cache_element_count**
(gauge) | Recuento de elementos de la caché en vuelo. (Neo4j 4)|
+| **neo4j.dbms.cluster.core.in_flight_cache.hits**
(count) | Aciertos de la caché en vuelo. (Neo4j 4)|
+| **neo4j.dbms.cluster.core.in_flight_cache.max_bytes**
(gauge) | Número máximo de bytes de caché en vuelo. (Neo4j 4)|
+| **neo4j.dbms.cluster.core.in_flight_cache.max_elements**
(gauge) | Elementos máximos de caché en vuelo. (Neo4j 4)|
+| **neo4j.dbms.cluster.core.in_flight_cache.misses**
(count) | Fallos de caché en vuelo. (Neo4j 4)|
+| **neo4j.dbms.cluster.core.in_flight_cache.total_bytes**
(gauge) | Total de bytes de la caché en vuelo. (Neo4j 4)|
+| **neo4j.dbms.cluster.core.is_leader**
(gauge) | ¿Es este servidor el líder? (Neo4j 4)|
+| **neo4j.dbms.cluster.core.last_leader_message**
(gauge) | El tiempo transcurrido desde el último mensaje de un líder en milisegundos. (Neo4j 4)|
+| **neo4j.dbms.cluster.core.message_processing_delay**
(gauge) | Retraso entre la recepción y el procesamiento de mensajes de RAFT. (Neo4j 4)|
+| **neo4j.dbms.cluster.core.message_processsing_timer**
(count) | Temporizador para el procesamiento de mensajes de RAFT. (Neo4j 4)|
+| **neo4j.dbms.cluster.core.raft_log_entry_prefetch_buffer.async_put**
(gauge) | Puts asíncronas de búfer de acceso previo de entrada de logs de Raft (Neo4j 4)|
+| **neo4j.dbms.cluster.core.raft_log_entry_prefetch_buffer.bytes**
(gauge) | Bytes totales de acceso previo de entrada de logs de Raft. (Neo4j 4)|
+| **neo4j.dbms.cluster.core.raft_log_entry_prefetch_buffer.lag**
(gauge) | Retraso de acceso previo de entrada de logs de Raft. (Neo4j 4)|
+| **neo4j.dbms.cluster.core.raft_log_entry_prefetch_buffer.size**
(gauge) | Tamaño del búfer de acceso previo de entrada de logs de Raft. (Neo4j 4)|
+| **neo4j.dbms.cluster.core.raft_log_entry_prefetch_buffer.sync_put**
(gauge) | Puts asíncronas de búfer de acceso previo de entrada de logs de Raft (Neo4j 4)|
+| **neo4j.dbms.cluster.core.replication_attempt**
(count) | El número total de intentos de réplica de solicitudes de Raft. (Neo4j 4)|
+| **neo4j.dbms.cluster.core.replication_fail**
(count) | El número total de intentos de réplicas de Raft que han fallado. (Neo4j 4)|
+| **neo4j.dbms.cluster.core.replication_maybe**
(count) | Réplica de Raft tal vez cuenta. (Neo4j 4)|
+| **neo4j.dbms.cluster.core.replication_new**
(count) | El número total de solicitudes de réplicas de Raft. (Neo4j 4)|
+| **neo4j.dbms.cluster.core.replication_success**
(count) | Count de éxitos de réplicas de Raft. (Neo4j 4)|
+| **neo4j.dbms.cluster.core.term**
(gauge) | El término de RAFT de este servidor. (Neo4j 4)|
+| **neo4j.dbms.cluster.core.tx_retries**
(count) | Reintentos de transacción. (Neo4j 4)|
+| **neo4j.dbms.cluster.discovery.cluster.converged**
(gauge) | Convergencia del clúster de descubrimiento. (Neo4j 5)|
+| **neo4j.dbms.cluster.discovery.cluster.members**
(gauge) | Tamaño de los miembros del clúster de descubrimiento. (Neo4j 5)|
+| **neo4j.dbms.cluster.discovery.cluster.unreachable**
(gauge) | Tamaño inalcanzable del clúster de descubrimiento. (Neo4j 5)|
+| **neo4j.dbms.cluster.discovery.replicated_data**
(gauge) | Tamaño de las estructuras de datos replicadas. (Neo4j 5)|
+| **neo4j.dbms.cluster.discovery.replicated_data.bootstrap_data.invisible**
(count) | (Neo4j 5)|
+| **neo4j.dbms.cluster.discovery.replicated_data.bootstrap_data.visible**
(count) | (Neo4j 5)|
+| **neo4j.dbms.cluster.discovery.replicated_data.component_versions.invisible**
(count) | (Neo4j 5)|
+| **neo4j.dbms.cluster.discovery.replicated_data.component_versions.visible**
(count) | (Neo4j 5)|
+| **neo4j.dbms.cluster.discovery.replicated_data.database_data.invisible**
(count) | (Neo4j 5)|
+| **neo4j.dbms.cluster.discovery.replicated_data.database_data.visible**
(count) | (Neo4j 5)|
+| **neo4j.dbms.cluster.discovery.replicated_data.leader_data.invisible**
(count) | (Neo4j 5)|
+| **neo4j.dbms.cluster.discovery.replicated_data.leader_data.visible**
(count) | (Neo4j 5)|
+| **neo4j.dbms.cluster.discovery.replicated_data.server_data.invisible**
(count) | (Neo4j 5)|
+| **neo4j.dbms.cluster.discovery.replicated_data.server_data.visible**
(count) | (Neo4j 5)|
+| **neo4j.dbms.cluster.discovery.restart.failed_count**
(count) | (Neo4j 5)|
+| **neo4j.dbms.cluster.discovery.restart.success_count**
(count) | (Neo4j 5)|
+| **neo4j.dbms.cluster.read_replica.pull_update_highest_tx_id_received**
(count) | El identificador de transacción más alto que ha sido extraído en la última actualización de incorporación de cambios por esta instancia. (Neo4j 4)|
+| **neo4j.dbms.cluster.read_replica.pull_update_highest_tx_id_requested**
(count) | El identificador de transacción más alto solicitado en una actualización incorporación de cambios por esta instancia. (Neo4j 4)|
+| **neo4j.dbms.cluster.read_replica.pull_updates**
(count) | El número total de solicitudes de incorporación de cambios realizadas por esta instancia. (Neo4j 4)|
+| **neo4j.dbms.db.operation.count.create**
(count) | Count de operaciones de creación realizadas con éxito. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.db.operation.count.drop**
(count) | Count de operaciones de eliminación de bases de datos realizadas con éxito. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.db.operation.count.failed**
(count) | Count de operaciones fallidas en la base de datos. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.db.operation.count.recovered**
(count) | Count de operaciones de base de datos que fallaron anteriormente, pero se han recuperado. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.db.operation.count.start**
(count) | Count de operaciones de inicio de base de datos realizadas con éxito. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.db.operation.count.stop**
(count) | Count de operaciones de parada de la base de datos realizadas con éxito. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.page_cache.bytes_read**
(count) | El número total de bytes leídos por la caché de page (página). (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.page_cache.bytes_written**
(count) | El número total de bytes escritos por la caché de la page (página). (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.page_cache.eviction_exceptions**
(count) | El número total de excepciones vistas durante el proceso de desalojo en la caché de la page (página). (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.page_cache.evictions**
(count) | El número total de desalojos de la page (página) ejecutados por la caché Page ( página). (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.page_cache.evictions.cooperative**
(count) | El número total de desalojos cooperativos de la page (página) ejecutados por la caché de la page (página) debido a la escasez de páginas disponibles. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.page_cache.evictions.flushes**
(count) | El número total de páginas vaciadas por el desalojo de la page (página). (Neo4j 5)|
+| **neo4j.dbms.page_cache.evictions.cooperative.flushes**
(count) | El número total de páginas cooperativas vaciadas por el desalojo de la page (página). (Neo4j 5)|
+| **neo4j.dbms.page_cache.flushes**
(count) | El número total de descargas ejecutadas por la caché de la page (página). (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.page_cache.hit_ratio**
(gauge) | Relación de aciertos respecto al número total de búsquedas en la caché de la page (página). (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.page_cache.hits**
(count) | El número total de aciertos de page (página) que se han producido en la caché de page (página). (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.page_cache.iops**
(count) | El número total de operaciones entrada/salida realizadas por la caché de page (página). (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.page_cache.merges**
(count) | El número total de fusiones de page (página) ejecutadas por la caché de page (página). (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.page_cache.page_cancelled_faults**
(count) | El número total de fallos cancelados de page (página) ocurridos en la caché de page (página). (Neo4j 5)|
+| **neo4j.dbms.page_cache.page_fault_failures**
(count) | El número total de fallos de page (página) ocurridos en la caché de page (página). (Neo4j 5)|
+| **neo4j.dbms.page_cache.page_faults**
(count) | El número total de fallos de page (página) ocurridos en la caché de page (página). (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.page_cache.page_no_pin_page_faults**
(count) | (Neo4j 5)|
+| **neo4j.dbms.page_cache.page_vectored_faults**
(count) | (Neo4j 5)|
+| **neo4j.dbms.page_cache.page_vectored_faults_failures**
(count) | (Neo4j 5)|
+| **neo4j.dbms.page_cache.pages_copied**
(count) | El número total de copias de page (página) que se han producido en la caché de page (página). (Neo4j 5)|
+| **neo4j.dbms.page_cache.pins**
(count) | El número total de pasadores de page (página) ejecutados por la caché de page (página). (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.page_cache.throttled_millis**
(count) | El número total del limitador de entradas/salidas de vaciado de caché de page (página) de millones se alternó durante operaciones de entrada/salida en curso. (Neo4j 4)|
+| **neo4j.dbms.page_cache.throttled.times**
(count) | El número total de veces que el limitador de vaciado de caché de page (página) cache se alternó durante operaciones de entrada/salida en curso. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.page_cache.unpins**
(count) | El número total de desclavados de page (página) ejecutados por la caché de page (página). (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.page_cache.usage_ratio**
(gauge) | Relación entre el número de páginas utilizadas y el número total de páginas disponibles. (Neo4j 5)|
+| **neo4j.dbms.pool.backup.free**
(count) | Cantidad estimada de memoria libre en bytes para este grupo.|
+| **neo4j.dbms.pool.backup.total_size**
(count) | Cantidad estimada de memoria disponible en bytes para este grupo.|
+| **neo4j.dbms.pool.backup.total_used**
(count) | Cantidad estimada de memoria total utilizada en bytes para este grupo.|
+| **neo4j.dbms.pool.backup.used_heap**
(count) | Cantidad estimada de montón usado en bytes para este grupo.|
+| **neo4j.dbms.pool.backup.used_native**
(count) | Cantidad estimada de memoria nativa utilizada para este grupo.|
+| **neo4j.dbms.pool.bolt.free**
(count) | Cantidad estimada de memoria libre en bytes para este grupo. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.pool.bolt.total_size**
(count) | Cantidad estimada de memoria disponible en bytes para este grupo. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.pool.bolt.total_used**
(count) | Cantidad estimada de memoria total utilizada en bytes para este grupo (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.pool.bolt.used_heap**
(count) | Cantidad estimada de montón utilizado en bytes para este grupo. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.pool.bolt.used_native**
(count) | Cantidad estimada de memoria nativa utilizada para este grupo.|
+| **neo4j.dbms.pool.cluster.free**
(count) | Cantidad estimada de memoria libre en bytes para este grupo.|
+| **neo4j.dbms.pool.cluster.total_size**
(count) | Cantidad estimada de memoria disponible en bytes para este grupo.|
+| **neo4j.dbms.pool.cluster.total_used**
(count) | Cantidad estimada de memoria total utilizada en bytes para este grupo.|
+| **neo4j.dbms.pool.cluster.used_heap**
(count) | Cantidad estimada de montón utilizado en bytes para este grupo.|
+| **neo4j.dbms.pool.cluster.used_native**
(count) | Cantidad estimada de memoria nativa utilizada para este grupo.|
+| **neo4j.dbms.pool.http_transaction.free**
(count) | Cantidad estimada de memoria libre en bytes para este grupo.|
+| **neo4j.dbms.pool.http_transaction.total_size**
(count) | Cantidad estimada de memoria disponible en bytes para este grupo.|
+| **neo4j.dbms.pool.http_transaction.total_used**
(count) | Cantidad estimada de memoria total utilizada en bytes para este grupo.|
+| **neo4j.dbms.pool.http_transaction.used_heap**
(count) | Cantidad estimada de montón usado en bytes para este grupo.|
+| **neo4j.dbms.pool.http_transaction.used_native**
(count) | Cantidad estimada de memoria nativa utilizada para este grupo.|
+| **neo4j.dbms.pool.http.free**
(count) | Cantidad estimada de memoria libre en bytes para este grupo.|
+| **neo4j.dbms.pool.http.total_size**
(count) | Cantidad estimada de memoria disponible en bytes para este grupo.|
+| **neo4j.dbms.pool.http.total_used**
(count) | Cantidad estimada de memoria total utilizada en bytes para este grupo.|
+| **neo4j.dbms.pool.http.used_heap**
(count) | Cantidad estimada de montón utilizado en bytes para este grupo.|
+| **neo4j.dbms.pool.http.used_native**
(count) | Cantidad estimada de memoria nativa utilizada para este grupo.|
+| **neo4j.dbms.pool.other.free**
(count) | Cantidad estimada de memoria libre en bytes para este grupo.|
+| **neo4j.dbms.pool.other.total_size**
(count) | Cantidad estimada de memoria disponible en bytes para este grupo.|
+| **neo4j.dbms.pool.other.total_used**
(count) | Cantidad estimada de memoria total utilizada en bytes para este grupo (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.pool.other.used_heap**
(count) | Cantidad estimada de montón utilizado en bytes para este grupo. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.pool.other.used_native**
(count) | Cantidad estimada de memoria nativa utilizada para este grupo. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.pool.page_cache.free**
(count) | Cantidad estimada de memoria libre en bytes para este grupo. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.pool.page_cache.total_size**
(count) | Cantidad estimada de memoria disponible en bytes para este grupo. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.pool.page_cache.total_used**
(count) | Cantidad estimada de memoria total utilizada en bytes para este grupo (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.pool.page_cache.used_heap**
(count) | Cantidad estimada de montón utilizado en bytes para este grupo. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.pool.page_cache.used_native**
(count) | Cantidad estimada de memoria nativa utilizada para este grupo. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.pool.pool.database.free**
(gauge) | Memoria no utilizada disponible en el grupo, en bytes. (Neo4j 4)|
+| **neo4j.dbms.pool.pool.database.total_size**
(gauge) | Suma total de tamaño de la capacidad del montón y/o del grupo de memoria nativa. (Neo4j 4)|
+| **neo4j.dbms.pool.pool.database.total_used**
(gauge) | Suma total de memoria de montón y nativa utilizada en bytes. (Neo4j 4)|
+| **neo4j.dbms.pool.pool.database.used_heap**
(gauge) | Memoria de montón utilizada o reservada en bytes. (Neo4j 4)|
+| **neo4j.dbms.pool.pool.database.used_native**
(gauge) | Memoria nativa utilizada o reservada en bytes. (Neo4j 4)|
+| **neo4j.dbms.pool.pool.free**
(gauge) | Memoria no utilizada disponible en el grupo, en bytes. (Neo4j 4)|
+| **neo4j.dbms.pool.pool.total_size**
(gauge) | Suma total del tamaño de la capacidad del montón y/o del grupo de memoria nativa. (Neo4j 4)|
+| **neo4j.dbms.pool.pool.total_used**
(gauge) | Suma total de la memoria de montón y nativa utilizada en bytes. (Neo4j 4)|
+| **neo4j.dbms.pool.pool.used_heap**
(gauge) | Memoria de montón utilizada o reservada en bytes. (Neo4j 4)|
+| **neo4j.dbms.pool.pool.used_native**
(gauge) | Memoria nativa utilizada o reservada en bytes. (Neo4j 4)|
+| **neo4j.dbms.pool.recent_query_buffer.free**
(count) | Cantidad estimada de memoria libre en bytes para este grupo. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.pool.recent_query_buffer.total_size**
(count) | Cantidad estimada de memoria disponible en bytes para este grupo. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.pool.recent_query_buffer.total_used**
(count) | Cantidad estimada de memoria total utilizada en bytes para este grupo (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.pool.recent_query_buffer.used_heap**
(count) | Cantidad estimada de montón utilizado en bytes para este grupo. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.pool.recent_query_buffer.used_native**
(count) | Cantidad estimada de memoria nativa utilizada para este grupo. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.pool.transaction.free**
(count) | Cantidad estimada de memoria libre en bytes para este grupo. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.pool.transaction.total_size**
(count) | Cantidad estimada de memoria disponible en bytes para este grupo. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.pool.transaction.total_used**
(count) | Cantidad estimada de memoria total utilizada en bytes para este grupo (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.pool.transaction.used_heap**
(count) | Cantidad estimada de montón utilizado en bytes para este grupo. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.pool.transaction.used_native**
(count) | Cantidad estimada de memoria nativa utilizada para este grupo. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.routing.query.count.local**
(count) | Número de consultas redirigidas localmente. (Neo4j 5)|
+| **neo4j.dbms.routing.query.count.remote_internal**
(count) | Número de consultas redirigidas internamente. (Neo4j 5)|
+| **neo4j.dbms.routing.query.count.remote_external**
(count) | Número de consultas redirigidas externamente. (Neo4j 5)|
+| **neo4j.dbms.server.threads.jetty.all**
(gauge) | El número total de subprocesos (tanto inactivos como ocupados) en el grupo de jetty. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.server.threads.jetty.idle**
(gauge) | El número total de subprocesos inactivos en el grupo de jetty. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.vm.file.descriptors.count**
(gauge) | El número actual de descriptores de archivo abiertos (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.vm.file.descriptors.maximum**
(gauge) | (Configuración del sistema operativo) El número máximo de descriptores de archivo abiertos. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.vm.gc.count.g1_old_generation**
(count) | (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.vm.gc.count.g1_young_generation**
(count) | (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.vm.gc.count.gc**
(count) | Número total de recolecciones de basura.|
+| **neo4j.dbms.vm.gc.time.g1_old_generation**
(count) | (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.vm.gc.time.g1_young_generation**
(count) | (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.vm.gc.time.gc**
(count) | Tiempo acumulado de recolección de basura en milisegundos.|
+| **neo4j.dbms.vm.heap.committed**
(gauge) | Cantidad de memoria (en bytes) que se garantiza que está disponible para ser utilizada por la JVM. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.vm.heap.max**
(gauge) | Cantidad máxima de memoria de montón (en bytes) que se puede utilizar. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.vm.heap.used**
(gauge) | Cantidad de memoria (en bytes) utilizada actualmente. (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.vm.memory.buffer.bufferpool.capacity**
(gauge) | Capacidad total estimada de los búferes asignados en el grupo.|
+| **neo4j.dbms.vm.memory.buffer.bufferpool.count**
(gauge) | Número estimado de búferes asignados en el grupo.|
+| **neo4j.dbms.vm.memory.buffer.bufferpool.used**
(gauge) | Cantidad estimada de memoria asignada utilizada por el grupo.|
+| **neo4j.dbms.vm.memory.buffer.direct.capacity**
(count) | Capacidad total estimada de búferes en el grupo (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.vm.memory.buffer.direct.count**
(count) | Número estimado de búferes en el grupo (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.vm.memory.buffer.direct.used**
(count) | Cantidad estimada de memoria utilizada por el grupo (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.vm.memory.buffer.mapped_non_volatile_memory.capacity**
(count) | Capacidad total estimada de los búferes en el grupo.|
+| **neo4j.dbms.vm.memory.buffer.mapped_non_volatile_memory.count**
(count) | Número estimado de búferes en el grupo.|
+| **neo4j.dbms.vm.memory.buffer.mapped_non_volatile_memory.used**
(count) | Cantidad estimada de memoria utilizada por el grupo.|
+| **neo4j.dbms.vm.memory.buffer.mapped.capacity**
(count) | Capacidad total estimada de búferes en el grupo (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.vm.memory.buffer.mapped.count**
(count) | Número estimado de búferes en el grupo (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.vm.memory.buffer.mapped.used**
(count) | Cantidad estimada de memoria utilizada por el grupo (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.vm.memory.pool.codeheap_non_nmethods**
(count) | |
+| **neo4j.dbms.vm.memory.pool.codeheap_non_profiled_nmethods**
(count) | |
+| **neo4j.dbms.vm.memory.pool.codeheap_profiled_nmethods**
(count) | |
+| **neo4j.dbms.vm.memory.pool.compressed_class_space**
(count) | (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.vm.memory.pool.g1_eden_space**
(count) | (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.vm.memory.pool.g1_old_gen**
(count) | (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.vm.memory.pool.g1_survivor_space**
(count) | (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.vm.memory.pool.metaspace**
(count) | (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.vm.memory.pool.pool**
(gauge) | Cantidad estimada de memoria en bytes utilizada por el grupo.|
+| **neo4j.dbms.vm.pause_time**
(count) | Tiempo de pausa detectado acumulado de máquinas virtuales (Neo4j 4 y Neo4j 5)|
+| **neo4j.dbms.vm.threads**
(gauge) | El número total de subprocesos activos, incluidos los subprocesos daemon y no daemon. (Neo4j 5)|
+| **neo4j.transaction.terminated**
(count) | El número total de transacciones finalizadas. (Neo4j 4)|
+| **neo4j.transaction.terminated_read**
(count) | Número total de transacciones de lectura finalizadas.|
+| **neo4j.transaction.terminated_write**
(count) | Número total de transacciones de escritura finalizadas.|
+| **neo4j.transaction.tx_size_heap**
(gauge) | El tamaño de las transacciones en el montón en bytes.|
+| **neo4j.transaction.tx_size_native**
(gauge) | El tamaño de las transacciones en memoria nativa en bytes.|
+| **neo4j.vm.thread.count**
(gauge) | Número estimado de subprocesos activos en el grupo de subprocesos actual. (Neo4j 4)|
+| **neo4j.vm.thread.total**
(gauge) | El número total de subprocesos en tiempo real, incluidos subprocesos daemon y no daemon. (Neo4j 4)|
+| **neo4j.bolt.accumulated_processing_time**
(gauge) | El tiempo acumulado que los subprocesos de worker han pasado procesando mensajes. (neo4j 4)|
+| **neo4j.bolt.accumulated_queue_time**
(gauge) | El tiempo acumulado que han pasado los mensajes esperando un subproceso de worker. (neo4j 4)|
+| **neo4j.bolt.connections_closed**
(gauge) | El número total de conexiones de Bolt cerradas desde que se inició esta instancia. Esto incluye tanto las conexiones finalizadas correctamente como las anormalmente finalizadas (neo4j 4).|
+| **neo4j.bolt.connections_idle**
(gauge) | Número total de conexiones de Bolt inactivas (neo4j 4)|
+| **neo4j.bolt.connections_opened**
(gauge) | El número total de conexiones de Bolt abiertas desde que se inició esta instancia. Esto incluye tanto las conexiones exitosas como las fallidas (neo4j 4)|
+| **neo4j.bolt.connections_running**
(gauge) | Número total de conexiones de Bolt ejecutadas actualmente (neo4j 4)|
+| **neo4j.bolt.messages_done**
(gauge) | El número total de mensajes que se han procesado desde que se inició esta instancia. Esto incluye mensajes de Bolt exitosos y fallidos e ignorados (neo4j 4).|
+| **neo4j.bolt.messages_failed**
(gauge) | Número total de mensajes que no se han podido procesar desde que se inició esta instancia (neo4j 4)|
+| **neo4j.bolt.messages_received**
(gauge) | Número total de mensajes recibidos a través de Bolt desde que se inició esta instancia (neo4j 4)|
+| **neo4j.bolt.messages_started**
(gauge) | El número total de mensajes que comenzaron a procesarse desde que se inició esta instancia. Esto es diferente de los mensajes recibidos en que este contador rastrea cuántos de los mensajes recibidos han sido tomados por un subproceso de worker (neo4j 4)|
+| **neo4j.check_point.events**
(gauge) | El número total de eventos de punto de control ejecutados hasta el momento. (neo4j 4)|
+| **neo4j.check_point.total_time**
(gauge) | El tiempo total empleado hasta ahora en el punto de control. (neo4j 4)|
+| **neo4j.check_point.duration**
(gauge) | La duración del último evento de punto de control. (neo4j 4)|
+| **neo4j.cypher.replan_events**
(gauge) | Número total de veces que Cypher ha decidido planificar nuevamente una consulta. (neo4j 4)|
+| **neo4j.cypher.replan_wait_time**
(gauge) | El número total de segundos esperados entre nuevas planificaciones de consultas. (neo4j 4)|
+| **neo4j.node_count**
(gauge) | El número total de nodos. (neo4j 4)|
+| **neo4j.relationship_count**
(gauge) | El número total de relaciones. (neo4j 4)|
+| **neo4j.ids_in_use.node**
(gauge) | El número total de nodos almacenados en la base de datos. (neo4j 4)|
+| **neo4j.ids_in_use.property**
(gauge) | Número total de nombres de propiedades diferentes utilizados en la base de datos. (neo4j 4)|
+| **neo4j.ids_in_use.relationship**
(gauge) | Número total de relaciones almacenadas en la base de datos. (neo4j 4)|
+| **neo4j.ids_in_use.relationship_type**
(gauge) | Número total de tipos de relación diferentes almacenados en la base de datos. (neo4j 4)|
+| **neo4j.store.size.total**
(gauge) | El tamaño total de la base de datos y los logs de transacciones. (neo4j 4)|
+| **neo4j.store.size.database**
(gauge) | El tamaño en disco de la base de datos. (neo4j 4)|
+| **neo4j.log.appended_bytes**
(gauge) | El número total de bytes añadidos al log de la transacción. (neo4j 4)|
+| **neo4j.log.rotation_events**
(gauge) | El número total de rotaciones de transacciones de logs ejecutadas hasta el momento. (neo4j 4)|
+| **neo4j.log.rotation_total_time**
(gauge) | El tiempo total empleado en rotar los logs de transacción hasta ahora. (neo4j 4)|
+| **neo4j.log.rotation_duration**
(gauge) | La duración del último evento de rotación de logs. (neo4j 4)|
+| **neo4j.page_cache.eviction_exceptions**
(gauge) | El número total de excepciones vistas durante el proceso de desalojo en la caché de page (página). (neo4j 4)|
+| **neo4j.page_cache.evictions**
(gauge) | El número total de desalojos de page (página) ejecutados por la caché de page (página). (neo4j 4)|
+| **neo4j.page_cache.flushes**
(gauge) | El número total de descargas ejecutadas por la caché de page (página). (neo4j 4)|
+| **neo4j.page_cache.hits**
(gauge) | El número total de aciertos de la page (página) ocurridos en la caché de page (página). (neo4j 4)|
+| **neo4j.page_cache_hits_total**
(gauge) | El número total de aciertos de page (página) ocurridos en la caché de page (página). (neo4j 4)|
+| **neo4j.page_cache.page_faults**
(gauge) | El número total de fallos de page (página) ocurridos en la caché de page (página). (neo4j 4)|
+| **neo4j.page_cache.pins**
(gauge) | El número total de pines de page (página) ejecutados por la caché de page (página). (neo4j 4)|
+| **neo4j.page_cache.unpins**
(gauge) | El número total de desclavados de page (página) ejecutados por la caché de page (página). (neo4j 4)|
+| **neo4j.server.threads.jetty.all**
(gauge) | El número total de subprocesos (tanto inactivos como ocupados) en el grupo jetty. (neo4j 4)|
+| **neo4j.server.threads.jetty.idle**
(gauge) | El número total de subprocesos inactivos en el grupo jetty. (neo4j 4)|
+| **neo4j.transaction.active**
(gauge) | Número de transacciones activas actualmente. (neo4j 4)|
+| **neo4j.transaction.active_read**
(gauge) | Número de transacciones de lectura actualmente activas. (neo4j 4)|
+| **neo4j.transaction.active_write**
(gauge) | El número de transacciones de escritura actualmente activas. (neo4j 4)|
+| **neo4j.transaction.committed_read**
(gauge) | Número total de transacciones confirmadas. (neo4j 4)|
+| **neo4j.transaction.committed**
(gauge) | Número total de transacciones de lectura confirmadas. (neo4j 4)|
+| **neo4j.transaction.committed_write**
(gauge) | Número total de transacciones de escritura confirmadas. (neo4j 4)|
+| **neo4j.transaction.last_closed_tx_id**
(gauge) | El identificador de la última transacción cerrada. (neo4j 4)|
+| **neo4j.transaction.last_committed_tx_id**
(gauge) | Identificador de la última transacción confirmada. (neo4j 4)|
+| **neo4j.transaction.peak_concurrent**
(gauge) | El pico más alto de transacciones concurrentes. (neo4j 4)|
+| **neo4j.transaction.rollbacks_read**
(gauge) | Número total de transacciones de lectura revertidas. (neo4j 4)|
+| **neo4j.transaction.rollbacks**
(gauge) | Número total de transacciones revertidas. (neo4j 4)|
+| **neo4j.transaction.rollbacks_write**
(gauge) | Número total de transacciones de escritura revertidas. (neo4j 4)|
+| **neo4j.transaction.started**
(gauge) | Número total de transacciones iniciadas. (neo4j 4)|
+| **neo4j.vm.gc.count.g1_old_generation**
(gauge) | Número total de recolecciones de basura para la antigua generación. (neo4j 4)|
+| **neo4j.vm.gc.count.g1_young_generation**
(gauge) | Número total de recolecciones de basura para la generación joven. (neo4j 4)|
+| **neo4j.vm.gc.time.g1_old_generation**
(gauge) | Tiempo acumulado de recolección de basura en milisegundos para la generación antigua. (neo4j 4)|
+| **neo4j.vm.gc.time.g1_young_generation**
(gauge) | Tiempo acumulado de recolección de basura en milisegundos para la generación joven. (neo4j 4)|
+| **neo4j.vm.memory.buffer.direct_capacity**
(gauge) | Capacidad total estimada de los búferes directos del grupo (neo4j 4)|
+| **neo4j.vm.memory.buffer.direct_count**
(gauge) | Número estimado de búferes directos en el grupo. (neo4j 4)|
+| **neo4j.vm.memory.buffer.direct_used**
(gauge) | Cantidad estimada de memoria directa utilizada por el grupo. (neo4j 4)|
+| **neo4j.vm.memory.buffer.mapped_capacity**
(gauge) | Capacidad total estimada de los búferes asignados en el grupo. (neo4j 4)|
+| **neo4j.vm.memory.buffer.mapped_count**
(gauge) | Número estimado de búferes asignados en el grupo. (neo4j 4)|
+| **neo4j.vm.memory.buffer.mapped_used**
(gauge) | Cantidad estimada de memoria asignada utilizada por el grupo. (neo4j 4)|
+| **neo4j.vm.memory.pool.compressed_class_space**
(gauge) | Número estimado de búferes en el grupo de espacio de clase comprimido. (neo4j 4)|
+| **neo4j.vm.memory.pool.g1_eden_space**
(gauge) | Número estimado de búferes en el grupo de espacio de g1 eden. (neo4j 4)|
+| **neo4j.vm.memory.pool.g1_old_gen**
(gauge) | Número estimado de búferes en el grupo de la generación antigua g1. (neo4j 4)|
+| **neo4j.vm.memory.pool.g1_survivor_space**
(gauge) | Número estimado de búferes en el grupo de espacio de supervivencia g1. (neo4j 4)|
+| **neo4j.vm.memory.pool.metaspace**
(gauge) | Número estimado de búferes en el grupo de metaespacios (neo4j 4)|
### Checks de servicio
@@ -120,18 +542,6 @@ El check de servicio `neo4j.prometheus.health` se presenta en el check base
Neo4j no incluye ningún evento.
-
## Solucionar problemas
-¿Necesitas ayuda? Ponte en contacto con el [soporte de Neo4j][10].
-
-[1]: https://neo4j.com/
-[2]: https://docs.datadoghq.com/es/agent/autodiscovery/integrations
-[3]: https://app.datadoghq.com/account/settings/agent/latest
-[4]: https://github.com/DataDog/integrations-extras/blob/master/neo4j/datadog_checks/neo4j/data/conf.yaml.example
-[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
-[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
-[7]: https://neo4j.com/docs/operations-manual/4.4/monitoring/metrics/reference/
-[8]: https://neo4j.com/docs/operations-manual/5/monitoring/metrics/reference/
-[9]: https://github.com/DataDog/integrations-extras/blob/master/neo4j/metadata.csv
-[10]: mailto:support@neo4j.com
\ No newline at end of file
+¿Necesitas ayuda? Ponte en contacto con [asistencia técnica de Neo4j](mailto:support@neo4j.com).
\ No newline at end of file
diff --git a/content/es/integrations/node.md b/content/es/integrations/node.md
new file mode 100644
index 0000000000000..752425a5d1fd5
--- /dev/null
+++ b/content/es/integrations/node.md
@@ -0,0 +1,126 @@
+---
+app_id: nodo
+categories:
+- languages
+- log collection
+- tracing
+custom_kind: integración
+description: Recopila métricas, trazas y logs de tus aplicaciones Node.js.
+further_reading:
+- link: https://www.datadoghq.com/blog/node-logging-best-practices/
+ tag: blog
+ text: Cómo recopilar, personalizar y centralizar los logs de Node.js
+- link: https://www.datadoghq.com/blog/node-monitoring-apm/
+ tag: blog
+ text: Monitorización de Node.js con Datadog APM y rastreo distribuido
+media: []
+title: Node
+---
+## Información general
+
+La integración de Node.js te permite recopilar y monitorizar tus logs de aplicación, trazas (traces) y métricas personalizadas de Node.js.
+
+## Configuración
+
+### Recopilación de métricas
+
+La integración de Node.js te permite monitorizar una métrica personalizada al instrumentar unas pocas líneas de código. Por ejemplo, puedes tener una métrica que devuelva el número de páginas vistas o el tiempo de llamada a una función.
+
+Para obtener información adicional sobre la integración de Node.js, consulta la [guía sobre el envío de métricas](https://docs.datadoghq.com/metrics/custom_metrics/dogstatsd_metrics_submission/?code-lang=nodejs).
+
+```js
+// Require dd-trace
+const tracer = require('dd-trace').init();
+
+// Increment a counter
+tracer.dogstatsd.increment('page.views');
+```
+
+Ten en cuenta que, para que las métricas personalizadas funcionen, es necesario habilitar DogStatsD en Agent. La recopilación está habilitada por defecto, pero el Agent solo escucha métricas desde el host local. Para permitir métricas externas, necesitas establecer una variable de entorno o actualizar el archivo de configuración:
+
+```sh
+DD_USE_DOGSTATSD=true # default
+DD_DOGSTATSD_PORT=8125 # default
+DD_DOGSTATSD_NON_LOCAL_TRAFFIC=true # if expecting external metrics
+```
+
+```yaml
+use_dogstatsd: true # default
+dogstatsd_port: 8125 # default
+dogstatsd_non_local_traffic: true # if expecting external metrics
+```
+
+También necesitarás configurar para que tu aplicación utilice el recopilador de DogStatsD del Agent:
+
+```sh
+DD_DOGSTATSD_HOSTNAME=localhost DD_DOGSTATSD_PORT=8125 node app.js
+```
+
+### Recopilación de trazas
+
+Consulta la documentación dedicada para [instrumentar tu aplicación Node.js](https://docs.datadoghq.com/tracing/setup/nodejs/) para enviar traces (trazas) a Datadog.
+
+### Recopilación de logs
+
+_Disponible para la versión 6.0 o posterior del Agent_
+
+Consulta la documentación específica para configurar [recopilación de logs de Node.js](https://docs.datadoghq.com/logs/log_collection/nodejs/) para reenviar tus logs a Datadog.
+
+### Recopilación de perfiles
+
+Consulta la documentación dedicada para [activar el perfilador de Node.js](https://github.com/DataDog/dogweb/blob/prod/node/node_metadata.csv).
+
+## Datos recopilados
+
+### Métricas
+
+| | |
+| --- | --- |
+| **runtime.node.cpu.user**
(medidor) | Uso de la CPU en código de usuario
_Mostrado en porcentaje_. |
+| **runtime.node.cpu.system**
(medidor) | Uso de la CPU en el código del sistema
_Mostrado en porcentaje_. |
+| **runtime.node.cpu.total**
(medidor) | Uso total de la CPU
_Mostrado como porcentaje_. |
+| **runtime.node.mem.rss**
(medidor) | Tamaño del conjunto residente
_Mostrado como byte_ |
+| **runtime.node.mem.heap_total**
(medidor) | Memoria heap total
_Mostrado como byte_ |
+| **runtime.node.mem.heap_used**
(medidor) | Uso de memoria Heap
_Mostrado como byte_ |
+| **runtime.node.mem.external**
(medidor) | Memoria externa
_Mostrado como byte_ |
+| **runtime.node.heap.total_heap_size**
(medidor) | Tamaño total de heap
_Mostrado como byte_ |
+| **runtime.node.heap.total_heap_size_executable**
(medidor) | Tamaño total de heap ejecutable
_Mostrado como byte_ |
+| **runtime.node.heap.total_physical_size**
(mediidor) | Tamaño físico total de heap
_Mostrado como byte_ |
+| **runtime.node.heap.used_heap_size**
(medidor) | Tamaño de heap utilizado
_Mostrado como byte_ |
+| **runtime.node.heap.heap_size_limit**
(medidor) | Límite de tamaño de heap
_Mostrado como byte_ |
+| **runtime.node.heap.malloced_memory**
(medidor) | Memoria malgastada
_Mostrado como byte_ |
+| **runtime.node.heap.peak_malloced_memory**
(medidor) | Pico de memoria asignada
_Mostrado como byte_ |
+| **runtime.node.heap.size.by.space**
(medidor) | Tamaño del espacio de heap
_Mostrado como byte_ |
+| **runtime.node.heap.used_size.by.space**
(medidor) | Tamaño de espacio heap utilizado
_Mostrado como byte_ |
+| **runtime.node.heap.available_size.by.space**
(medidor) | Tamaño del espacio disponible en heap
_Mostrado como byte_ |
+| **runtime.node.heap.physical_size.by.space**
(medidor) | Tamaño físico del espacio heap
_Mostrado como byte_ |
+| **runtime.node.process.uptime**
(medidor) | Tiempo de actividad del proceso
_Mostrado en segundos_ |
+| **runtime.node.event_loop.delay.max**
(medidor) | Retardo máximo del bucle de eventos
_Mostrado en nanosegundos_ |
+| **runtime.node.event_loop.delay.min**
(medidor) | Retardo mínimo del bucle de eventos
_Mostrado en nanosegundos_ |
+| **runtime.node.event_loop.delay.avg**
(medidor) | Retardo medio del bucle de eventos
_Mostrado en nanosegundos_ |
+| **runtime.node.event_loop.delay.sum**
(tasa) | Retardo total del bucle de eventos
_Mostrado en nanosegundos_ |
+| **runtime.node.event_loop.delay.median**
(medidor) | Mediana del retardo del bucle de eventos
_Mostrado en nanosegundos_ |
+| **runtime.node.event_loop.delay.95percentile**
(medidor) | Percentil 95 del retardo del bucle de eventos
_Mostrado en nanosegundos_ |
+| **runtime.node.event_loop.delay.count**
(tasa) | Count de iteraciones del bucle de eventos donde se detecta un retardo
_Mostrado como ejecución_ |
+| **runtime.node.gc.pause.max**
(medidor) | Pausa máxima de recolección de basura
_Mostrado en nanosegundos_ |
+| **runtime.node.gc.pause.min**
(medidor) | Pausa mínima de recolección de basura
_Mostrado en nanosegundos_ |
+| **runtime.node.gc.pause.avg**
(medidor) | Pausa media de recolección de basura
_Mostrado en nanosegundos_ |
+| **runtime.node.gc.pause.sum**
(tasa) | Pausa total de recolección de basura
_Mostrado en nanosegundos_ |
+| **runtime.node.gc.pause.median**
(medidor) | Mediana de la pausa de recolección de basura
_Mostrado en nanosegundos_ |
+| **runtime.node.gc.pause.95percentile**
(medidor) | Pausa de recolección de basura del percentil 95
_Mostrado en nanosegundos_ |
+| **runtime.node.gc.pause.count**
(tasa) | Número de recolecciones de basura
_Mostrado como recolección de basura_ |
+| **runtime.node.gc.pause.by.type.max**
(medidor) | Pausa máxima de recolección de basura por tipo
_Mostrado como nanosegundo_ |
+| **runtime.node.gc.pause.by.type.min**
(medidor) | Pausa mínima de recolección de basura por tipo
_Mostrado en nanosegundos_ |
+| **runtime.node.gc.pause.by.type.avg**
(medidor) | Pausa media de recolección de basura por tipo
_Mostrado en nanosegundos_ |
+| **runtime.node.gc.pause.by.type.sum**
(tasa) | Pausa total de recolección de basura por tipo
_Mostrado en nanosegundos_ |
+| **runtime.node.gc.pause.by.type.median**
(medidor) | Mediana de la pausa de recolección de basura por tipo
_Mostrado en nanosegundos_ |
+| **runtime.node.gc.pause.by.type.95percentile**
(medidor) | Pausa de recopilación de basura del percentil 95 por tipo
_Mostrado en nanosegundos_ |
+| **runtime.node.gc.pause.by.type.count**
(tasa) | Número de recolecciones de basura por tipo
_Mostrado como recolección de basura_ |
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/).
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
\ No newline at end of file
diff --git a/content/es/integrations/nvml.md b/content/es/integrations/nvml.md
index 5149f66c7f3b0..08f6da31c8812 100644
--- a/content/es/integrations/nvml.md
+++ b/content/es/integrations/nvml.md
@@ -1,150 +1,101 @@
---
app_id: nvml
-app_uuid: 2c7a8b1e-9343-4b4a-bada-5091e37c4806
-assets:
- integration:
- auto_install: true
- configuration:
- spec: assets/configuration/spec.yaml
- events:
- creates_events: false
- metrics:
- check: nvml.device_count
- metadata_path: metadata.csv
- prefix: nvml.
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 10177
- source_type_name: nvml
-author:
- homepage: https://github.com/DataDog/integrations-extras
- name: Comunidad
- sales_email: help@datadoghq.com
- support_email: help@datadoghq.com
categories:
- ia/ml
- kubernetes
- sistema operativo y sistema
-custom_kind: integration
-dependencies:
-- https://github.com/DataDog/integrations-extras/blob/master/nvml/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: nvml
-integration_id: nvml
-integration_title: NVIDIA NVML
+custom_kind: integración
+description: Admite métricas de GPU Nvidia en k8s
integration_version: 1.0.9
-is_public: true
-manifest_version: 2.0.0
-name: nvml
-public_title: NVIDIA NVML
-short_description: Admite métricas de GPU NVIDIA en k8s
+media: []
supported_os:
- linux
- windows
- macos
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Category::AI/ML
- - Category::Kubernetes
- - Category::OS & System
- - Supported OS::Linux
- - Supported OS::Windows
- - Supported OS::macOS
- - Offering::Integration
- configuration: README.md#Setup
- description: Admite métricas de GPU NVIDIA en k8s
- media: []
- overview: README.md#Overview
- support: README.md#Support
- title: NVIDIA NVML
+title: Nvidia NVML
---
-
-
-
-
## Información general
-Este check monitoriza métricas de [NVIDIA Management Library (NVML)][1] expuestas a través del Datadog Agent y puede correlacionarlas con los [dispositivos expuestos de Kubernetes][2].
+Este check monitoriza las métricas expuestas de [NVIDIA Management Library (NVML)](https://pypi.org/project/pynvml/) a través del Datadog Agent y puede correlacionarlas con los [dispositivos expuestos de Kubernetes](https://kubernetes.io/docs/concepts/extend-kubernetes/compute-storage-net/device-plugins/#monitoring-device-plugin-resources).
## Configuración
-El check de NVML no está incluido en el paquete del [Datadog Agent][3], por lo que es necesario instalarlo.
+El check de NVML no está incluido en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest), por lo que es necesario instalarlo.
### Instalación
-Para el Agent v7.21+/v6.21+, sigue las instrucciones a continuación para instalar el check de NVML en tu host. Consulta [Usar integraciones de comunidad][4] para realizar la instalación con Agent de Docker o versiones anteriores del Agent.
+Para el Agent v7.21+ / v6.21+, sigue las instrucciones siguientes para instalar el check de NVML en tu host. Consulta [Usar integraciones de la comunidad](https://docs.datadoghq.com/agent/guide/use-community-integrations/) para realizar la instalación con el Docker Agent o versiones anteriores del Agent.
1. Ejecuta el siguiente comando para instalar la integración del Agent:
Para Linux:
+
```shell
datadog-agent integration install -t datadog-nvml==
# You may also need to install dependencies since those aren't packaged into the wheel
sudo -u dd-agent -H /opt/datadog-agent/embedded/bin/pip3 install grpcio pynvml
```
+
Para Windows (con Powershell ejecutado como administrador):
+
```shell
& "$env:ProgramFiles\Datadog\Datadog Agent\bin\agent.exe" integration install -t datadog-nvml==
# You may also need to install dependencies since those aren't packaged into the wheel
& "$env:ProgramFiles\Datadog\Datadog Agent\embedded3\python" -m pip install grpcio pynvml
```
-2. Configura tu integración como si fuese una [integración][5] de base.
+1. Configura tu integración de forma similar a las [integraciones](https://docs.datadoghq.com/getting_started/integrations/) centrales.
-Si utilizas Docker, existe un [archivo Docker de ejemplo][6] en el repositorio NVML.
+Si utilizas Docker, hay un [Dockerfile de ejemplo](https://github.com/DataDog/integrations-extras/blob/master/nvml/tests/Dockerfile) en el repositorio de NVML.
- ```shell
- docker build -t dd-agent-nvml .
- ```
+```shell
+docker build -t dd-agent-nvml .
+```
Si utilizas Docker y Kubernetes, deberás exponer las variables de entorno `NVIDIA_VISIBLE_DEVICES` y `NVIDIA_DRIVER_CAPABILITIES`. Consulta el archivo Docker incluido para ver un ejemplo.
-Para correlacionar los dispositivos reservados de NVIDIA Kubernetes con el pod de Kubernetes que utiliza el dispositivo, monta el socket de dominio de Unix `/var/lib/kubelet/pod-resources/kubelet.sock` en tu configuración del Agent. Más información sobre este socket en el [sitio web de Kubernetes][2]. **Nota**: Este dispositivo tiene compatibilidad en fase beta para la versión 1.15.
+Para correlacionar los dispositivos NVIDIA reservados de Kubernetes con el pod de Kubernetes que utiliza el dispositivo, monta el socket de dominio Unix `/var/lib/kubelet/pod-resources/kubelet.sock` en tu configuración del Agent. Encontrarás más información sobre este socket en el sitio web de [Kubernetes](https://kubernetes.io/docs/concepts/extend-kubernetes/compute-storage-net/device-plugins/#monitoring-device-plugin-resources). **Nota**: Este dispositivo está en soporte beta para la versión 1.15.
### Configuración
-1. Edita el archivo `nvml.d/conf.yaml`, en la carpeta `conf.d/` en la raíz del directorio de configuración del Agent para comenzar a recopilar tus datos de rendimiento de NVML. Consulta el [nvml.d/conf.yaml de ejemplo][7] para todas las opciones disponibles de configuración.
+1. Edita el archivo `nvml.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu directorio de configuración del Agent para comenzar a recopilar tus datos de rendimiento de NVML. Consulta [el nvml.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-extras/blob/master/nvml/datadog_checks/nvml/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles.
-2. [Reinicia el Agent][8].
+1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
### Validación
-[Ejecuta el subcomando de estado del Agent][9] y busca `nvml` en la sección Checks.
+[Ejecuta el subcomando de estado del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `nvml` en la sección Checks.
## Datos recopilados
### Métricas
-{{< get-metrics-from-git "nvml" >}}
- La documentación autorizada de métricas se encuentra en el [sitio web de NVIDIA][11].
-Se ha intentado, en la medida de lo posible, que los nombres de métrica coincidan con el exportador [Data Center GPU Manager (DCGM)][12] de NVIDIA.
+| | |
+| --- | --- |
+| **nvml.device_count**
(gauge) | Número de GPU en esta instancia.|
+| **nvml.gpu_utilization**
(gauge) | Porcentaje de tiempo durante el último periodo de muestreo en el que uno o más kernels se ejecutaron en la GPU.
_Se muestra como porcentaje_ |
+| **nvml.mem_copy_utilization**
(gauge) | Porcentaje de tiempo durante el último periodo de muestreo en el que la memoria global (dispositivo) se estaba leyendo o escribiendo.
_Se muestra como porcentaje_ |
+| **nvml.fb_free**
(gauge) | Memoria FB no asignada.
_Se muestra como byte_ |
+| **nvml.fb_used**
(gauge) | Memoria FB asignada.
_Se muestra como byte_ |
+| **nvml.fb_total**
(gauge) | Memoria FB total instalada.
_Se muestra como byte_ |
+| **nvml.power_usage**
(gauge) | Consumo de energía de esta GPU en milivatios y sus circuitos asociados (por ejemplo, la memoria).|
+| **nvml.total_energy_consumption**
(count) | Consumo total de energía de esta GPU en milijulios (mJ) desde la última recarga del controlador.|
+| **nvml.enc_utilization**
(gauge) | Utilización actual del codificador
_Se muestra en porcentaje_ |
+| **nvml.dec_utilization**
(gauge) | La utilización actual del decodificador
_Se muestra en porcentaje_. |
+| **nvml.pcie_tx_throughput**
(gauge) | Utilización de PCIe TX
_Se muestra como kibibyte_ |
+| **nvml.pcie_rx_throughput**
(gauge) | Utilización de PCIe RX
_Se muestra como kibibyte_ |
+| **nvml.temperature**
(gauge) | Temperatura actual de esta GPU en grados centígrados|
+| **nvml.fan_speed**
(gauge) | Utilización actual del ventilador
_Se muestra en porcentaje_ |
+| **nvml.compute_running_process**
(gauge) | El uso actual de la memoria gpu por el proceso
_Se muestra como byte_ |
### Eventos
NVML no incluye eventos.
### Checks de servicio
-{{< get-service-checks-from-git "nvml" >}}
+Consulta [service_checks.json](https://github.com/DataDog/integrations-extras/blob/master/nvml/assets/service_checks.json) para obtener una lista de los checks de servicio proporcionados por esta integración.
## Solucionar problemas
-¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][14].
-
-
-[1]: https://pypi.org/project/pynvml/
-[2]: https://kubernetes.io/docs/concepts/extend-kubernetes/compute-storage-net/device-plugins/#monitoring-device-plugin-resources
-[3]: https://app.datadoghq.com/account/settings/agent/latest
-[4]: https://docs.datadoghq.com/es/agent/guide/use-community-integrations/
-[5]: https://docs.datadoghq.com/es/getting_started/integrations/
-[6]: https://github.com/DataDog/integrations-extras/blob/master/nvml/tests/Dockerfile
-[7]: https://github.com/DataDog/integrations-extras/blob/master/nvml/datadog_checks/nvml/data/conf.yaml.example
-[8]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
-[9]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
-[10]: https://github.com/DataDog/integrations-extras/blob/master/nvml/metadata.csv
-[11]: https://docs.nvidia.com/deploy/nvml-api/group__nvmlDeviceQueries.html
-[12]: https://github.com/NVIDIA/dcgm-exporter
-[13]: https://github.com/DataDog/integrations-extras/blob/master/nvml/assets/service_checks.json
-[14]: https://docs.datadoghq.com/es/help
+¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help).
\ No newline at end of file
diff --git a/content/es/integrations/oke.md b/content/es/integrations/oke.md
index c1dc4931776c1..c39301d3ccafb 100644
--- a/content/es/integrations/oke.md
+++ b/content/es/integrations/oke.md
@@ -1,88 +1,52 @@
---
app_id: oke
-app_uuid: c3361861-32be-4ed4-a138-d68b85b8d88b
-assets:
- integration:
- auto_install: true
- configuration: {}
- events:
- creates_events: false
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 10255
- source_type_name: 'Oracle Container Engine para Kubernetes: OKE'
-author:
- homepage: https://www.datadoghq.com
- name: Datadog
- sales_email: info@datadoghq.com
- support_email: help@datadoghq.com
categories:
-- contenedores
-- kubernetes
+- configuración y despliegue
+- rastreo
+- Kubernetes
+- métricas
- oracle
- orquestación
-custom_kind: integration
-dependencies:
-- https://github.com/DataDog/integrations-core/blob/master/oke/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: oke
-integration_id: oke
-integration_title: Oracle Container Engine para Kubernetes
-integration_version: ''
-is_public: true
-manifest_version: 2.0.0
-name: oke
-public_title: Oracle Container Engine para Kubernetes
-short_description: OKE es un servicio de orquestación de contenedores gestionado por
- Oracle.
+custom_kind: integración
+description: OKE es un servicio de orquestación de contenedores gestionado por OCI.
+further_reading:
+- link: https://www.datadoghq.com/blog/monitor-oracle-kubernetes-engine/
+ tag: blog
+ text: Cómo monitorizar el motor de Kubernetes de Oracle con Datadog
+integration_version: 1.0.0
+media: []
supported_os:
- linux
- windows
- macos
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Category::Containers
- - Category::Kubernetes
- - Category::Oracle
- - Category::Orchestration
- - Supported OS::Linux
- - Supported OS::Windows
- - Supported OS::macOS
- - Offering::Integration
- configuration: README.md#Setup
- description: OKE es un servicio de orquestación de contenedores gestionado por Oracle.
- media: []
- overview: README.md#Overview
- resources:
- - resource_type: Blog
- url: https://www.datadoghq.com/blog/monitor-oracle-kubernetes-engine/
- support: README.md#Support
- title: Oracle Container Engine para Kubernetes
+title: Oracle Container Engine para Kubernetes
---
+## Información general
-
+Oracle Cloud Infrastructure Container Engine para Kubernetes (OKE) es un servicio gestionado de Kubernetes que simplifica las operaciones de Kubernetes a escala empresarial.
+Esta integración recopila métricas y etiquetas del espacio de nombres [`oci_oke`](https://docs.oracle.com/en-us/iaas/Content/ContEng/Reference/contengmetrics.htm) para ayudarte a monitorizar tu plano de control de Kubernetes, clústeres y estados de nodos.
-## Información general
+El despliegue del [Datadog Agent](https://docs.datadoghq.com/agent/kubernetes/#installation) en tu clúster de OKE también puede ayudarte a realizar un seguimiento de la carga en tus clústeres, pods y nodos individuales para obtener mejores conocimientos sobre cómo aprovisionar y desplegar tus recursos.
+
+Además de la monitorización de tus nodos, pods y contenedores, el Agent también puede recopilar e informar métricas de los servicios que se ejecutan en tu clúster, para que puedas:
-Oracle Cloud Infrastructure Container Engine para Kubernetes (OKE) es un servicio totalmente gestionado de Kubernetes para desplegar y ejecutar tus aplicaciones en contenedores en Oracle Cloud. Datadog te proporciona una visibilidad completa de tus clústeres de Kubernetes gestionados por OKE. Una vez que hayas habilitado tu integración de Datadog, puedes ver tu infraestructura de Kubernetes, monitorizar Live Processes y realizar un seguimiento de métricas clave de todos tus pods y contenedores en un solo lugar.
+- Explora tus clústeres de OKE con [dashboards preconfigurados de Kubernetes](https://app.datadoghq.com/dashboard/lists/preset/3?q=kubernetes)
+- Monitorizar contenedores y procesos en tiempo real
+- Hacer un seguimiento automático y monitorizar servicios en contenedores
## Configuración
-Dado que Datadog ya se integra con Kubernetes, está preparado para monitorizar OKE. Si estás ejecutando el Agent en un clúster de Kubernetes y planeas migrar a OKE, puedes continuar con la monitorización de tu clúster con Datadog.
+Una vez configurada la integración de [Oracle Cloud Infrastructure](https://docs.datadoghq.com/integrations/oracle_cloud_infrastructure/), asegúrate de que el espacio de nombres `oci_oke` está incluido en tu [Connector Hub](https://cloud.oracle.com/connector-hub/service-connectors).
-Además, se admiten grupos de nodos de OKE.
+Dado que Datadog ya se integra con Kubernetes, está preparado para monitorizar OKE. Si estás ejecutando el Agent en un clúster de Kubernetes y planeas migrar a OKE, puedes continuar con la monitorización de tu clúster con Datadog.
+Desplegar el Agent como un DaemonSet con el [Helm chart](https://docs.datadoghq.com/agent/kubernetes/?tab=helm) es el método más directo (y recomendado), ya que asegura que el Agent se ejecutará como un pod en cada nodo dentro de tu clúster y que cada nuevo nodo tendrá automáticamente el Agent instalado. También puedes configurar el Agent para recopilar datos de procesos, trazas y logs añadiendo unas pocas líneas adicionales a un archivo de valores Helm. Adicionalmente, los grupos de nodos de OKE son compatibles.
## Solucionar problemas
-¿Necesitas ayuda? Contacta con el [equipo de soporte de Datadog][1].
+¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/).
## Referencias adicionales
-- [Cómo monitorizar OKE con Datadog][2]
-
-[1]: https://docs.datadoghq.com/es/help/
-[2]: https://www.datadoghq.com/blog/monitor-oracle-kubernetes-engine/
\ No newline at end of file
+- [Cómo monitorizar OKE con Datadog](https://www.datadoghq.com/blog/monitor-oracle-kubernetes-engine/)
\ No newline at end of file
diff --git a/content/es/integrations/openmetrics.md b/content/es/integrations/openmetrics.md
index 962d52ee8266a..d3ecf5cb3fbad 100644
--- a/content/es/integrations/openmetrics.md
+++ b/content/es/integrations/openmetrics.md
@@ -1,87 +1,45 @@
---
app_id: openmetrics
-app_uuid: 302b841e-8270-4ecd-948e-f16317a316bc
-assets:
- integration:
- auto_install: true
- configuration:
- spec: assets/configuration/spec.yaml
- events:
- creates_events: false
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 10045
- source_type_name: OpenMetrics
-author:
- homepage: https://www.datadoghq.com
- name: Datadog
- sales_email: info@datadoghq.com
- support_email: help@datadoghq.com
categories:
- métricas
custom_kind: integración
-dependencies:
-- https://github.com/DataDog/integrations-core/blob/master/openmetrics/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: openmetrics
-integration_id: openmetrics
-integration_title: OpenMetrics
-integration_version: 6.1.0
-is_public: true
-manifest_version: 2.0.0
-name: openmetrics
-public_title: OpenMetrics
-short_description: OpenMetrics es un estándar abierto para exponer datos de métricas
+description: OpenMetrics es un estándar abierto para exponer datos de métricas
+further_reading:
+- link: https://docs.datadoghq.com/agent/openmetrics/
+ tag: documentación
+ text: Documentación sobre OpenMetrics
+- link: https://docs.datadoghq.com/developers/openmetrics/
+ tag: documentación
+ text: Documentación sobre OpenMetrics
+integration_version: 7.0.0
+media: []
supported_os:
- linux
- windows
- macos
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Supported OS::Linux
- - Supported OS::Windows
- - Category::Metrics
- - Supported OS::macOS
- - Offering::Integration
- configuration: README.md#Setup
- description: OpenMetrics es un estándar abierto para exponer datos de métricas
- media: []
- overview: README.md#Overview
- resources:
- - resource_type: documentación
- url: https://docs.datadoghq.com/agent/openmetrics/
- - resource_type: documentación
- url: https://docs.datadoghq.com/developers/openmetrics/
- support: README.md#Support
- title: OpenMetrics
+title: OpenMetrics
---
-
-
-
-
## Información general
Extrae métricas personalizadas de cualquier endpoint de OpenMetrics o Prometheus.
-
+
-La integración es compatible tanto con el [formato de exposición de Prometheus][1] como con la [especificación de OpenMetrics][2].
+La integración es compatible tanto con el [formato de exposición de Prometheus](https://prometheus.io/docs/instrumenting/exposition_formats/#text-based-format) como con la [especificación de OpenMetrics](https://github.com/OpenObservability/OpenMetrics/blob/main/specification/OpenMetrics.md#suffixes).
## Configuración
-Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecuta en un host. Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][3] para obtener orientación sobre la aplicación de estas instrucciones.
+Sigue las instrucciones siguientes para instalar y configurar este check para un Agent que se ejecute en un host. Para entornos en contenedores, consulta las [Plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/kubernetes/integrations/) para obtener orientación sobre la aplicación de estas instrucciones.
-Esta integración basada en OpenMetrics tiene un modo más reciente (que se habilita al configurar `openmetrics_endpoint` de modo que apunte hacia el endpoint de destino) y un modo heredado (que se habilita al configurar `prometheus_url` en su lugar). Para obtener todas las características más actualizadas, Datadog recomienda habilitar el modo más reciente. Para obtener más información, consulta [Control de versiones más reciente y heredado para las integraciones basadas en OpenMetrics][4].
+Esta integración tiene un modo más reciente (que se activa configurando `openmetrics_endpoint` para que apunte al endpoint de destino) y un modo heredado (que se activa configurando `prometheus_url` en su lugar). Para obtener todas las características más actualizadas, Datadog recomienda activar el modo más reciente. Para obtener más información, consulta [Última versión y versión heredada para integraciones basadas en OpenMetrics](https://docs.datadoghq.com/integrations/guide/versions-for-openmetrics-based-integrations).
### Instalación
-El check de OpenMetrics viene empaquetado con [Datadog Agent v6.6.0 o posterior][5].
+El check de OpenMetrics se incluye en el paquete del [Datadog Agent v6.6.0 o posterior](https://docs.datadoghq.com/getting_started/integrations/prometheus/?tab=docker#configuration).
### Configuración
-Edita el archivo `conf.d/openmetrics.d/conf.yaml` en la raíz de tu [directorio de configuración del Agent][6]. Consulta el [openmetrics.d/conf.yaml de ejemplo][7] para todas las opciones disponibles de configuración. Este es el ejemplo más reciente del check de OpenMetrics a partir de la versión 7.32.0 de Datadog Agent. Si previamente implementaste esta integración, consulta el [ejemplo de legacy][8].
+Edita el archivo `conf.d/openmetrics.d/conf.yaml` en la raíz de tu [directorio de configuración del Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory). Ve el [openmetrics.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/openmetrics/datadog_checks/openmetrics/data/conf.yaml.example) para todas las opciones de configuración disponibles. Este es el último ejemplo de check de OpenMetrics a partir del Datadog Agent versión 7.32.0. Si anteriormente implementaste esta integración, consulta el [ejemplo heredado](https://github.com/DataDog/integrations-core/blob/7.30.x/openmetrics/datadog_checks/openmetrics/data/conf.yaml.example).
Para cada instancia, se requieren los siguientes parámetros:
@@ -91,15 +49,15 @@ Para cada instancia, se requieren los siguientes parámetros:
| `namespace` | El espacio de nombres se añade a todas las métricas. |
| `metrics` | Una lista de métricas para recuperar como métricas personalizadas. Añade cada métrica a la lista como `metric_name` o `metric_name: renamed` para renombrarla. Las métricas se interpretan como expresiones regulares. Utiliza `".*"` como comodín (`metric.*`) para recuperar todas las métricas que coincidan. **Nota**: Las expresiones regulares pueden enviar muchas métricas personalizadas. |
-A partir del Datadog Agent v7.32.0, de acuerdo con el [estándar de especificación de OpenMetrics][2], los nombres de contador que terminan en `_total` deben especificarse sin el sufijo `_total`. Por ejemplo, para recopilar `promhttp_metric_handler_requests_total`, especifica el nombre de métrica `promhttp_metric_handler_requests`. Esto envía a Datadog el nombre de métrica con `.count`, `promhttp_metric_handler_requests.count`.
+A partir del Datadog Agent v7.32.0, de conformidad con el [estándar de especificación de OpenMetrics](https://github.com/OpenObservability/OpenMetrics/blob/main/specification/OpenMetrics.md#suffixes), los nombres de contador que terminan en `_total` deben especificarse sin el sufijo `_total`. Por ejemplo, para recopilar `promhttp_metric_handler_requests_total`, especifica el nombre de la métrica `promhttp_metric_handler_requests`. Esto envía a Datadog el nombre de la métrica con el sufijo `.count`, `promhttp_metric_handler_requests.count`.
-Este check tiene un límite de 2000 métricas por instancia. El número de métricas devueltas se indica al ejecutar el [comando de estado][9] del Datadog Agent. Puedes especificar las métricas que te interesan editando la configuración. Para saber cómo personalizar las métricas a recopilar, consulta [Recopilación de métricas de Prometheus y OpenMetrics][10].
+Este check tiene un límite de 2000 métricas por instancia. El número de métricas devueltas se indica al ejecutar el [comando de estado] del Datadog Agent(https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information). Puedes especificar las métricas que te interesan editando la configuración. Para saber cómo personalizar las métricas a recopilar, consulta [Recopilación de métricas de Prometheus y OpenMetrics](https://docs.datadoghq.com/getting_started/integrations/prometheus/).
-Si necesitas monitorizar más métricas, ponte en contacto con el [soporte de Datadog][11].
+Si necesitas monitorizar más métricas, ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/).
### Validación
-[Ejecuta el subcomando de estado del Agent][9] y busca `openmetrics` en la sección Checks.
+[Ejecuta el subcomando de estado del Agent(https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `openmetrics` en la sección Checks.
## Datos recopilados
@@ -143,7 +101,7 @@ Las versiones anteriores utilizaban por defecto `text/plain`, lo que normalmente
Aunque el comportamiento debería seguir siendo el mismo en la mayoría de las circunstancias, algunas aplicaciones devuelven métricas en un formato que no es totalmente compatible con OpenMetrics, a pesar de configurar `Content-Type` para indicar el uso del formato estándar de OpenMetrics. Esto puede hacer que nuestra integración informe de errores durante el parseo de la carga útil de métricas.
-Si observas errores en el parseo al seleccionar el endpoint de OpenMetrics con esta nueva versión, puedes forzar el uso del formato menos estricto de Prometheus, al configurar manualmente el encabezado `Accept` que la integración envía a `text/plain` mediante la opción `headers` en el [archivo de configuración][12]. Por ejemplo:
+Si observas errores de parseo al escanear el endpoint de OpenMetrics con esta nueva versión, puedes forzar el uso del formato menos estricto de Prometheus configurando manualmente el encabezado `Accept` que la integración envía a `text/plain` mediante la opción `headers` del [archivo de configuración](https://github.com/DataDog/integrations-core/blob/7.46.x/openmetrics/datadog_checks/openmetrics/data/conf.yaml.example#L537-L546). Por ejemplo:
```yaml
## All options defined here are available to all instances.
@@ -157,24 +115,9 @@ instances:
Accept: text/plain
```
-¿Necesitas ayuda? Contacta con el [equipo de asistencia de Datadog][11].
+¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/).
## Referencias adicionales
-- [Configuración del check de OpenMetrics][13]
-- [Escribir un check de OpenMetrics personalizado][14]
-
-[1]: https://prometheus.io/docs/instrumenting/exposition_formats/#text-based-format
-[2]: https://github.com/OpenObservability/OpenMetrics/blob/main/specification/OpenMetrics.md#suffixes
-[3]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/
-[4]: https://docs.datadoghq.com/es/integrations/guide/versions-for-openmetrics-based-integrations
-[5]: https://docs.datadoghq.com/es/getting_started/integrations/prometheus/?tab=docker#configuration
-[6]: https://docs.datadoghq.com/es/agent/guide/agent-configuration-files/#agent-configuration-directory
-[7]: https://github.com/DataDog/integrations-core/blob/master/openmetrics/datadog_checks/openmetrics/data/conf.yaml.example
-[8]: https://github.com/DataDog/integrations-core/blob/7.30.x/openmetrics/datadog_checks/openmetrics/data/conf.yaml.example
-[9]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
-[10]: https://docs.datadoghq.com/es/getting_started/integrations/prometheus/
-[11]: https://docs.datadoghq.com/es/help/
-[12]: https://github.com/DataDog/integrations-core/blob/7.46.x/openmetrics/datadog_checks/openmetrics/data/conf.yaml.example#L537-L546
-[13]: https://docs.datadoghq.com/es/agent/openmetrics/
-[14]: https://docs.datadoghq.com/es/developers/openmetrics/
\ No newline at end of file
+- [Configuración de un check de OpenMetrics](https://docs.datadoghq.com/agent/openmetrics/)
+- [Escribir un check personalizado de OpenMetrics](https://docs.datadoghq.com/developers/openmetrics/)
\ No newline at end of file
diff --git a/content/es/integrations/openshift.md b/content/es/integrations/openshift.md
index bcb2d5a395eae..3fc9d58ba7d91 100644
--- a/content/es/integrations/openshift.md
+++ b/content/es/integrations/openshift.md
@@ -1,27 +1,5 @@
---
app_id: openshift
-app_uuid: e92e309f-7bdc-4ff4-91d4-975497526325
-assets:
- integration:
- auto_install: true
- configuration: {}
- events:
- creates_events: false
- metrics:
- check:
- - openshift.clusterquota.cpu.requests.used
- - openshift.clusterquota.cpu.used
- metadata_path: metadata.csv
- prefix: openshift.
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 10024
- source_type_name: OpenShift
-author:
- homepage: https://www.datadoghq.com
- name: Datadog
- sales_email: info@datadoghq.com
- support_email: help@datadoghq.com
categories:
- contenedores
- kubernetes
@@ -29,47 +7,19 @@ categories:
- la red
- orquestación
- suministrar
-custom_kind: integration
-dependencies:
-- https://github.com/DataDog/integrations-core/blob/master/openshift/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: openshift
-integration_id: openshift
-integration_title: OpenShift
-integration_version: ''
-is_public: true
-manifest_version: 2.0.0
-name: openshift
-public_title: OpenShift
-short_description: La plataforma de Kubernetes para grandes ideas
+custom_kind: integración
+description: La plataforma de Kubernetes para grandes ideas
+integration_version: 1.0.0
+media: []
supported_os:
- linux
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Category::Containers
- - Category::Kubernetes
- - Category::Log Collection
- - Category::Network
- - Category::Orchestration
- - Category::Provisioning
- - Supported OS::Linux
- - Offering::Integration
- configuration: README.md#Setup
- description: La plataforma de Kubernetes para grandes ideas
- media: []
- overview: README.md#Overview
- support: README.md#Support
- title: OpenShift
+title: OpenShift
---
-
-
## Información general
Red Hat OpenShift es una plataforma de aplicaciones en contenedores de código abierto basada en el orquestador de contenedores de Kubernetes para el desarrollo y despliegue de aplicaciones empresariales.
-> Este README describe la configuración necesaria para permitir la recopilación de métricas específicas de OpenShift en el Agent. Los datos aquí descritos son recopilados por el check de [`kubernetes_apiserver`][1]. Debes configurar el check para recopilar las métricas `openshift.*`.
+> Este archivo README describe la configuración necesaria para permitir la recopilación de métricas específicas de OpenShift en el Agent. Los datos descritos aquí son recopilados por el [check de `kubernetes_apiserver`](https://github.com/DataDog/datadog-agent/blob/master/cmd/agent/dist/conf.d/kubernetes_apiserver.d/conf.yaml.example). Debes configurar el check para recopilar las métricas de `openshift.*`.
## Configuración
@@ -77,27 +27,26 @@ Red Hat OpenShift es una plataforma de aplicaciones en contenedores de código a
Esta configuración central es compatible con OpenShift 3.11 y OpenShift 4, pero funciona mejor con OpenShift 4.
-Para instalar el Agent, consulta las [instrucciones de instalación del Agent][2] para obtener instrucciones generales de Kubernetes y la [página de distribuciones de Kubernetes][3] para obtener ejemplos de la configuración de OpenShift.
+Para instalar el Agent, consulta las [instrucciones de instalación del Agent](https://docs.datadoghq.com/containers/kubernetes/installation) para obtener instrucciones generales de Kubernetes y la [página de distribución de Kubernetes](https://docs.datadoghq.com/containers/kubernetes/distributions/?tab=datadogoperator#Openshift) para obtener ejemplos de configuración de OpenShift.
-Como alternativa, puede utilizarse [Datadog Operator][4] para instalar y gestionar el Datadog Agent. El Datadog Operator puede instalarse mediante el [OperatorHub][5] de OpenShift.
+Como alternativa, puede utilizarse el [Datadog Operator](https://github.com/DataDog/datadog-operator/) para instalar y gestionar el Datadog Agent. El Datadog Operator puede instalarse utilizando [OperatorHub](https://docs.openshift.com/container-platform/4.10/operators/understanding/olm-understanding-operatorhub.html) de OpenShift.
### Configuración de las restricciones del contexto de seguridad
Si estás desplegando el Datadog Agent utilizando cualquiera de los métodos vinculados en las instrucciones de instalación anteriores, debes incluir restricciones de contexto de seguridad (SCC) para el Agent y el Cluster Agent para recopilar datos. Sigue las instrucciones que se indican a continuación en relación con tu despliegue.
{{< tabs >}}
+
{{% tab "Operator" %}}
-Para obtener instrucciones sobre cómo instalar el Datadog Operator y el recurso `DatadogAgent` en OpenShift, consulta la [Guía de instalación de OpenShift][1].
+Para obtener instrucciones sobre cómo instalar el Datadog Operator y el recurso `DatadogAgent` en OpenShift, consulta la [Guía de instalación de OpenShift](https://github.com/DataDog/datadog-operator/blob/main/docs/install-openshift.md).
Si despliegas el Operator con Operator Lifecycle Manager (OLM), los SCC predeterminados necesarios de OpenShift se asocian automáticamente a la cuenta de servicio `datadog-agent-scc`. A continuación, puedes desplegar los componentes de Datadog con la CustomResourceDefinition `DatadogAgent`, haciendo referencia a esta cuenta de servicio en los pods del Node Agent y Cluster Agent.
-Consulta la página [Distribuciones][2] y el [repositorio del Operator][3] para ver más ejemplos.
+Consulta la página [Distribuciones](https://docs.datadoghq.com/containers/kubernetes/distributions/?tab=datadogoperator#Openshift) y [el repositorio del Operator](https://github.com/DataDog/datadog-operator/blob/main/examples/datadogagent/datadog-agent-on-openshift.yaml) para ver más ejemplos.
-[1]: https://github.com/DataDog/datadog-operator/blob/main/docs/install-openshift.md
-[2]: https://docs.datadoghq.com/es/containers/kubernetes/distributions/?tab=datadogoperator#Openshift
-[3]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogagent/datadog-agent-on-openshift.yaml
{{% /tab %}}
+
{{% tab "Helm" %}}
Puedes crear el SCC directamente dentro de tu `values.yaml` del Datadog Agent. Añade los siguientes parámetros de bloque en la sección `agents` y `clusterAgent` para crear sus respectivos SCC.
@@ -117,16 +66,15 @@ clusterAgent:
create: true
```
-Puedes aplicar esto cuando despliegues inicialmente el Agent, o puedes ejecutar un `helm upgrade` después de hacer este cambio para aplicar el SCC.
+Puedes aplicar esto cuando despliegues inicialmente el Agent, o puedes ejecutar un `helm upgrade` después de hacer este cambio para aplicar el SCC.
-Consulta la página [Distribuciones][1] y el [repositorio de Helm][2] para más ejemplos.
+Consulta la página de [Distribuciones](https://docs.datadoghq.com/containers/kubernetes/distributions/?tab=datadogoperator#Openshift) y el [repositorio de Helm](https://github.com/DataDog/helm-charts/blob/main/examples/datadog/agent_on_openshift_values.yaml) para más ejemplos.
-[1]: https://docs.datadoghq.com/es/containers/kubernetes/distributions/?tab=datadogoperator#Openshift
-[2]: https://github.com/DataDog/helm-charts/blob/main/examples/datadog/agent_on_openshift_values.yaml
{{% /tab %}}
+
{{% tab "Daemonset" %}}
-Según tus necesidades y las [restricciones de seguridad][1] de tu clúster, se admiten tres escenarios de despliegue:
+En función de tus necesidades y de las [restricciones de seguridad](https://docs.openshift.com/enterprise/3.0/admin_guide/manage_scc.html) de tu clúster, se admiten tres escenarios de despliegue:
- [Operaciones SCC restringidas](#restricted-scc-operations)
- [Operaciones SCC de red de host](#host)
@@ -147,7 +95,7 @@ Según tus necesidades y las [restricciones de seguridad][1] de tu clúster, se
#### Operaciones restringidas de SCC
-Este modo no requiere conceder permisos especiales al [DaemonSet del `datadog-agent`][2], aparte de los permisos [RBAC][3] necesarios para acceder al kubelet y al APIserver. Puedes empezar con esta [plantilla kubelet-only][4].
+Este modo no requiere conceder permisos especiales al [DaemonSet del `datadog-agent`](https://docs.datadoghq.com/agent/kubernetes/daemonset_setup/), aparte de los permisos [RBAC](https://docs.datadoghq.com/agent/kubernetes/daemonset_setup/?tab=k8sfile#configure-rbac-permissions) necesarios para acceder al kubelet y al servidor de la API. Puedes empezar con esta [plantilla solo de kubelet](https://github.com/DataDog/datadog-agent/blob/master/Dockerfiles/manifests/agent-kubelet-only.yaml).
El método de ingesta recomendado para DogStatsD, APM y logs consiste en vincular el Datadog Agent a un puerto de host. De esta forma, la IP de destino es constante y fácilmente detectable por tus aplicaciones. La SCC por defecto de OpenShift no permite la vinculación al puerto de host. Puedes configurar el Agent para que escuche en su propia IP, pero tendrás que gestionar la detección de esa IP desde tu aplicación.
@@ -167,11 +115,8 @@ ports:
protocol: TCP
```
-[1]: https://docs.openshift.com/enterprise/3.0/admin_guide/manage_scc.html
-[2]: https://docs.datadoghq.com/es/agent/kubernetes/daemonset_setup/
-[3]: https://docs.datadoghq.com/es/agent/kubernetes/daemonset_setup/?tab=k8sfile#configure-rbac-permissions
-[4]: https://github.com/DataDog/datadog-agent/blob/master/Dockerfiles/manifests/agent-kubelet-only.yaml
{{% /tab %}}
+
{{< /tabs >}}
#### SCC personalizado de Datadog para todas las funciones
@@ -179,18 +124,18 @@ ports:
El Helm Chart y Datadog Operator gestionan el SCC por ti de forma predeterminada. Para gestionarlo tú mismo en su lugar, asegúrate de incluir las configuraciones correctas en función de las características que hayas habilitado.
Si SELinux está en modo permisivo o deshabilitado, habilita el SCC `hostaccess` para beneficiarte de todas las características.
-Si SELinux está en modo obligatorio, es recomendado conceder [el tipo `spc_t`][6] al pod datadog-agent. Para desplegar el Agent, puedes utilizar el siguiente [SCC datadog-agent][7] que se puede aplicar después de [crear la cuenta de servicio datadog-agent][8]. Concede los siguientes permisos:
+Si SELinux está en modo enforcing, se recomienda conceder [el tipo `spc_t`](https://developers.redhat.com/blog/2014/11/06/introducing-a-super-privileged-container-concept) al pod del datadog-agent. Para desplegar el Agent puedes utilizar el siguiente [SCC de datadog-agent](https://github.com/DataDog/datadog-agent/blob/master/Dockerfiles/manifests/openshift/scc.yaml) que puede aplicarse después de [crear la cuenta de servicio del datadog-agent](https://docs.datadoghq.com/agent/kubernetes/daemonset_setup/?tab=k8sfile#configure-rbac-permissions). Concede los siguientes permisos:
- `allowHostPorts: true`: vincula las entradas de DogStatsD/APM/logs a la IP del nodo.
- `allowHostPID: true`: activa la Detección de origen para las métricas de DogStatsD enviadas por Unix Socket.
- `volumes: hostPath`: accede al socker de Docker y a las carpetas `proc` y `cgroup` de host, para la recopilación de métricas.
-- `SELinux type: spc_t`: accede al socket de Docker y a las carpetas `proc` y `cgroup` de todos los procesos, para la recopilación de métricas. Consulta [Introducción al concepto de Contenedor con súper privilegios][6] para más detalles.
+- `SELinux type: spc_t`: accede al socket de Docker y a las carpetas `proc` y `cgroup` de todos los procesos, para la recopilación de métricas. Ver [Introducing a Super Privileged Container Concept](https://developers.redhat.com/blog/2014/11/06/introducing-a-super-privileged-container-concept) para más detalles.
-
+
OpenShift 4.0+: Si has utilizado el instalador de OpenShift en un proveedor de nube compatible, debes desplegar el SCC con allowHostNetwork: true en el manifiesto scc.yaml, así como hostNetwork: true en la configuración del Agent para obtener etiquetas (tags) de host y alias. Por lo demás, el acceso a los servidores de metadatos desde la red de pod está restringido.
@@ -205,7 +150,7 @@ runAsUser:
La recopilación de logs del Datadog Agent se configura en OpenShift en gran medida igual que otros clústeres de Kubernetes. El Datadog Operator y Helm Chart se montan en el directorio `/var/log/pods`, que el pod de Datadog Agent utiliza para monitorizar los logs de los pods y contenedores en sus respectivos hosts. Sin embargo, con el Datadog Operator, es necesario aplicar opciones de SELinux adicionales para dar al Agent permisos para leer estos archivos de log.
-Consulta [Recopilación de logs de Kubernetes][9] para obtener más información general y la página [Distribuciones][3] para ver ejemplos de configuración.
+Consulta la [recopilación de logs de Kubernetes](https://docs.datadoghq.com/agent/kubernetes/log/?tab=daemonset) para obtener más información general y la página [Distribuciones](https://docs.datadoghq.com/containers/kubernetes/distributions/?tab=datadogoperator#Openshift) para ver ejemplos de configuración.
### APM
@@ -213,17 +158,61 @@ En Kubernetes, hay tres opciones principales para enrutar los datos desde el pod
Datadog recomienda deshabilitar la opción de UDS explícitamente para evitar esto y para evitar que el Admission Controller (Controlador de admisión) inyecte esta configuración.
-Consulta [Recopilación de trazas, APM de Kubernetes][10] para más información general y la página [Distribuciones][3] para ver ejemplos de configuración.
+Consulta [recopilación de APM y trazas de Kubernetes](https://docs.datadoghq.com/containers/kubernetes/apm) para más información general y la página [Distribuciones](https://docs.datadoghq.com/containers/kubernetes/distributions/?tab=datadogoperator#Openshift) para ejemplos de configuración.
### Validación
-Ver [kubernetes_apiserver][1]
+Consulta [kubernetes_apiserver](https://github.com/DataDog/datadog-agent/blob/master/cmd/agent/dist/conf.d/kubernetes_apiserver.d/conf.yaml.example)
## Datos recopilados
### Métricas
-{{< get-metrics-from-git "openshift" >}}
+| | |
+| --- | --- |
+| **openshift.appliedclusterquota.cpu.limit**
(gauge) | Límite fijo para cpu por cuota de recursos de clúster y espacio de nombres
_Se muestra como cpu_ |
+| **openshift.appliedclusterquota.cpu.remaining**
(gauge) | Cpu disponible restante por cuota de recursos de clúster y espacio de nombres
_Se muestra como cpu_ |
+| **openshift.appliedclusterquota.cpu.used**
(gauge) | Uso de cpu observado por cuota de recursos de clúster y espacio de nombres
_Se muestra como cpu_ |
+| **openshift.appliedclusterquota.memory.limit**
(gauge) | Límite fijo de memoria por cuota de recursos de clúster y espacio de nombres
_Se muestra como byte_ |
+| **openshift.appliedclusterquota.memory.remaining**
(gauge) | Memoria disponible restante por cuota de recursos de clúster y espacio de nombres
_Se muestra como byte_ |
+| **openshift.appliedclusterquota.memory.used**
(gauge) | Uso de memoria observado por cuota de recursos de clúster y espacio de nombres
_Se muestra como byte_ |
+| **openshift.appliedclusterquota.persistentvolumeclaims.limit**
(gauge) | Límite fijo para reclamaciones de volúmenes persistentes por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.persistentvolumeclaims.remaining**
(gauge) | Reclamaciones de volúmenes persistentes disponibles por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.persistentvolumeclaims.used**
(gauge) | Uso observado de reclamaciones de volumen persistente por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.pods.limit**
(gauge) | Límite fijo para pods por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.pods.remaining**
(gauge) | Pods disponibles por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.pods.used**
(gauge) | Uso de pods observado por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.services.limit**
(gauge) | Límite fijo para servicios por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.services.loadbalancers.limit**
(gauge) | Límite fijo para equilibradores de carga de servicios por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.services.loadbalancers.remaining**
(gauge) | Equilibradores de carga de servicios disponibles por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.services.loadbalancers.used**
(gauge) | Uso observado de los equilibradores de carga de servicios por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.services.nodeports.limit**
(gauge) | Límite fijo para puertos de nodo de servicio por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.services.nodeports.remaining**
(gauge) | Puertos de nodo de servicio disponibles por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.services.nodeports.used**
(gauge) | Uso observado de puertos de nodos de servicio por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.services.remaining**
(gauge) | Servicios disponibles restantes por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.services.used**
(gauge) | Utilización de servicios observada por cuota de recursos de clúster y espacio de nombres|
+| **openshift.clusterquota.cpu.limit**
(gauge) | Límite fijo de cpu por cuota de recursos de clúster para todos los espacios de nombres
_Se muestra como cpu_ |
+| **openshift.clusterquota.cpu.remaining**
(gauge) | Cpu disponible restante por cuota de recursos de clúster para todos los espacios de nombres
_Se muestra como cpu_ |
+| **openshift.clusterquota.cpu.requests.used**
(gauge) | Uso de cpu observado por recurso de clúster para solicitud|
+| **openshift.clusterquota.cpu.used**
(gauge) | Uso de cpu observado por cuota de recursos de clúster para todos los espacios de nombres
_Se muestra como cpu_ |
+| **openshift.clusterquota.memory.limit**
(gauge) | Límite fijo de memoria por cuota de recursos de clúster para todos los espacios de nombres
_Se muestra como byte_ |
+| **openshift.clusterquota.memory.remaining**
(gauge) | Memoria disponible restante por cuota de recursos de clúster para todos los espacios de nombres
_Se muestra como byte_ |
+| **openshift.clusterquota.memory.used**
(gauge) | Uso de memoria observado por cuota de recursos de clúster para todos los espacios de nombres
_Se muestra como byte_ |
+| **openshift.clusterquota.persistentvolumeclaims.limit**
(gauge) | Límite fija para las reclamaciones de volúmenes persistentes por cuota de recursos de clúster para todos los espacios de nombres.|
+| **openshift.clusterquota.persistentvolumeclaims.remaining**
(gauge) | Reclamaciones de volumen persistente disponibles restantes por cuota de recursos de clúster para todos los espacios de nombres.|
+| **openshift.clusterquota.persistentvolumeclaims.used**
(gauge) | Uso de reclamaciones de volumen persistente observado por cuota de recursos de clúster para todos los espacios de nombres|
+| **openshift.clusterquota.pods.limit**
(gauge) | Límite duro para pods por cuota de recursos de clúster para todos los espacios de nombres|
+| **openshift.clusterquota.pods.remaining**
(gauge) | Pods disponibles restantes por cuota de recursos de clúster para todos los espacios de nombres|
+| **openshift.clusterquota.pods.used**
(gauge) | Uso de pods observado por cuota de recursos de clúster para todos los espacios de nombres|
+| **openshift.clusterquota.services.limit**
(gauge) | Límite fijo para servicios por cuota de recursos de clúster para todos los espacios de nombres|
+| **openshift.clusterquota.services.loadbalancers.limit**
(gauge) | Límite fijo para los equilibradores de carga de servicios por cuota de recursos de clúster para todos los espacios de nombres.|
+| **openshift.clusterquota.services.loadbalancers.remaining**
(gauge) | Equilibradores de carga de servicio disponibles restantes por cuota de recursos de clúster para todos los espacios de nombres.|
+| **openshift.clusterquota.services.loadbalancers.used**
(gauge) | Uso observado de los equilibradores de carga de servicios por cuota de recursos de clúster para todos los espacios de nombres|
+| **openshift.clusterquota.services.nodeports.limit**
(gauge) | Límite fijo para puertos de nodo de servicio por cuota de recursos de clúster para todos los espacios de nombres.|
+| **openshift.clusterquota.services.nodeports.remaining**
(gauge) | Puertos de nodo de servicio disponibles restantes por cuota de recursos de clúster para todos los espacios de nombres|
+| **openshift.clusterquota.services.nodeports.used**
(gauge) | Uso observado de puertos de nodo de servicio por cuota de recursos de clúster para todos los espacios de nombres|
+| **openshift.clusterquota.services.remaining**
(gauge) | Servicios disponibles restantes por cuota de recursos de clúster para todos los espacios de nombres|
+| **openshift.clusterquota.services.used**
(gauge) | Utilización de servicios observada por cuota de recursos de clúster para todos los espacios de nombres|
### Eventos
@@ -235,17 +224,4 @@ El check de OpenShift no incluye ningún check de servicio.
## Solucionar problemas
-¿Necesitas ayuda? Contacta con el [equipo de asistencia de Datadog][11].
-
-
-[1]: https://github.com/DataDog/datadog-agent/blob/master/cmd/agent/dist/conf.d/kubernetes_apiserver.d/conf.yaml.example
-[2]: https://docs.datadoghq.com/es/containers/kubernetes/installation
-[3]: https://docs.datadoghq.com/es/containers/kubernetes/distributions/?tab=datadogoperator#Openshift
-[4]: https://github.com/DataDog/datadog-operator/
-[5]: https://docs.openshift.com/container-platform/4.10/operators/understanding/olm-understanding-operatorhub.html
-[6]: https://developers.redhat.com/blog/2014/11/06/introducing-a-super-privileged-container-concept
-[7]: https://github.com/DataDog/datadog-agent/blob/master/Dockerfiles/manifests/openshift/scc.yaml
-[8]: https://docs.datadoghq.com/es/agent/kubernetes/daemonset_setup/?tab=k8sfile#configure-rbac-permissions
-[9]: https://docs.datadoghq.com/es/agent/kubernetes/log/?tab=daemonset
-[10]: https://docs.datadoghq.com/es/containers/kubernetes/apm
-[11]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
+¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/).
\ No newline at end of file
diff --git a/content/es/integrations/openstack.md b/content/es/integrations/openstack.md
new file mode 100644
index 0000000000000..63e6fb9bda43d
--- /dev/null
+++ b/content/es/integrations/openstack.md
@@ -0,0 +1,263 @@
+---
+app_id: openstack
+categories:
+- cloud
+- log collection
+- network
+- provisioning
+- configuration & deployment
+custom_kind: integración
+description: Seguimiento del uso de recursos a nivel de hipervisor y VM, además de
+ métricas de Neutron.
+further_reading:
+- link: https://www.datadoghq.com/blog/openstack-monitoring-nova
+ tag: blog
+ text: Monitorización de OpenStack Nova
+- link: https://www.datadoghq.com/blog/install-openstack-in-two-commands
+ tag: blog
+ text: Instalar OpenStack en dos comandos para dev y test
+- link: https://www.datadoghq.com/blog/openstack-host-aggregates-flavors-availability-zones
+ tag: blog
+ text: 'OpenStack: agregados de hosts, opciones y zonas de disponibilidad'
+integration_version: 4.0.1
+media: []
+supported_os:
+- linux
+- windows
+- macos
+title: OpenStack (heredado)
+---
+
+
+## Información general
+
+**Nota**: Esta integración solo se aplica a OpenStack v12 e inferiores. Si deseas recopilar métricas de OpenStack v13+, utiliza la [integración de OpenStack Controller](https://docs.datadoghq.com/integrations/openstack_controller).
+
+Obtén métricas del servicio OpenStack en tiempo real para:
+
+- Visualizar y monitorizar estados de OpenStack.
+- Recibir notificaciones sobre fallos y eventos de OpenStack.
+
+## Configuración
+
+### Instalación
+
+Para capturar tus métricas de OpenStack, [instala el Agent](https://app.datadoghq.com/account/settings/agent/latest) en tus hosts que ejecutan hipervisores.
+
+### Configuración
+
+#### Preparar OpenStack
+
+Configura un rol y un usuario de Datadog con tu servidor de identidad:
+
+```console
+openstack role create datadog_monitoring
+openstack user create datadog \
+ --password my_password \
+ --project my_project_name
+openstack role add datadog_monitoring \
+ --project my_project_name \
+ --user datadog
+```
+
+A continuación, actualiza tus archivos `policy.json` para conceder los permisos necesarios. `role:datadog_monitoring` requiere acceso a las siguientes operaciones:
+
+**Nova**
+
+```json
+{
+ "compute_extension": "aggregates",
+ "compute_extension": "hypervisors",
+ "compute_extension": "server_diagnostics",
+ "compute_extension": "v3:os-hypervisors",
+ "compute_extension": "v3:os-server-diagnostics",
+ "compute_extension": "availability_zone:detail",
+ "compute_extension": "v3:availability_zone:detail",
+ "compute_extension": "used_limits_for_admin",
+ "os_compute_api:os-aggregates:index": "rule:admin_api or role:datadog_monitoring",
+ "os_compute_api:os-aggregates:show": "rule:admin_api or role:datadog_monitoring",
+ "os_compute_api:os-hypervisors": "rule:admin_api or role:datadog_monitoring",
+ "os_compute_api:os-server-diagnostics": "rule:admin_api or role:datadog_monitoring",
+ "os_compute_api:os-used-limits": "rule:admin_api or role:datadog_monitoring"
+}
+```
+
+**Neutron**
+
+```json
+{
+ "get_network": "rule:admin_or_owner or rule:shared or rule:external or rule:context_is_advsvc or role:datadog_monitoring"
+}
+```
+
+**Keystone**
+
+```json
+{
+ "identity:get_project": "rule:admin_required or project_id:%(target.project.id)s or role:datadog_monitoring",
+ "identity:list_projects": "rule:admin_required or role:datadog_monitoring"
+}
+```
+
+Es posible que tengas que reiniciar tus servicios de API de Keystone, Neutron y Nova para asegurarte de que los cambios de política se llevan a cabo.
+
+**Nota**: La instalación de la integración de OpenStack podría aumentar el número de máquinas virtuales que Datadog monitoriza. Para obtener más información sobre cómo esto puede afectar a tu facturación, consulta las FAQ de facturación.
+
+#### Configuración del Agent
+
+1. Configura el Datadog Agent para conectarte a tu servidor Keystone, y especifica proyectos individuales para monitorizar. Edita el archivo `openstack.d/conf.yaml` en la carpeta `conf.d/` en la raíz del [directorio de configuración del Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory) con la configuración de abajo. Consulta el [openstack.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/openstack/datadog_checks/openstack/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles:
+
+ ```yaml
+ init_config:
+ ## @param keystone_server_url - string - required
+ ## Where your identity server lives.
+ ## Note that the server must support Identity API v3
+ #
+ keystone_server_url: "https://
:/"
+
+ instances:
+ ## @param name - string - required
+ ## Unique identifier for this instance.
+ #
+ - name: ""
+
+ ## @param user - object - required
+ ## User credentials
+ ## Password authentication is the only auth method supported.
+ ## `user` object expects the parameter `username`, `password`,
+ ## and `user.domain.id`.
+ ##
+ ## `user` should resolve to a structure like:
+ ##
+ ## {'password': '', 'name': '', 'domain': {'id': ''}}
+ #
+ user:
+ password: ""
+ name: datadog
+ domain:
+ id: ""
+ ```
+
+1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
+
+##### Recopilación de logs
+
+1. La recopilación de logs está desactivada por defecto en el Datadog Agent, puedes activarla en `datadog.yaml`:
+
+ ```yaml
+ logs_enabled: true
+ ```
+
+1. Añade este bloque de configuración a tu archivo `openstack.d/conf.yaml` para empezar a recopilar tus logs de Openstack:
+
+ ```yaml
+ logs:
+ - type: file
+ path: ""
+ source: openstack
+ ```
+
+ Cambia el valor de los parámetros de `path` y configúralos para tu entorno. Consulta el [openstack.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/openstack/datadog_checks/openstack/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles.
+
+### Validación
+
+Ejecuta el subcomando [de estado del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `openstack` en la sección Checks.
+
+## Datos recopilados
+
+### Métricas
+
+| | |
+| --- | --- |
+| **openstack.nova.current_workload**
(gauge) | Carga de trabajo actual en el hipervisor de Nova|
+| **openstack.nova.disk_available_least**
(gauge) | Disco disponible para el hipervisor de Nova
_Se muestra como gibibyte_ |
+| **openstack.nova.free_disk_gb**
(gauge) | Disco libre en el hipervisor de Nova
_Se muestra como gibibyte_ |
+| **openstack.nova.free_ram_mb**
(gauge) | RAM libre en el hipervisor de Nova
_Se muestra como mebibyte_ |
+| **openstack.nova.hypervisor_load.1**
(gauge) | La carga media del hipervisor durante un minuto.|
+| **openstack.nova.hypervisor_load.15**
(gauge) | La carga media del hipervisor en quince minutos.|
+| **openstack.nova.hypervisor_load.5**
(gauge) | La carga media del hipervisor en cinco minutos.|
+| **openstack.nova.limits.max_image_meta**
(gauge) | El máximo permitido de definiciones de metadatos de imagen para este inquilino|
+| **openstack.nova.limits.max_personality**
(gauge) | Las personalidades máximas permitidas para este inquilino|
+| **openstack.nova.limits.max_personality_size**
(gauge) | El tamaño máximo de una sola personalidad permitido para este inquilino.|
+| **openstack.nova.limits.max_security_group_rules**
(gauge) | El número máximo de reglas de grupo de seguridad permitidas para este inquilino.|
+| **openstack.nova.limits.max_security_groups**
(gauge) | Número máximo de grupos de seguridad permitidos para este inquilino|
+| **openstack.nova.limits.max_server_meta**
(gauge) | El máximo permitido de definiciones de metadatos de servicio para este inquilino|
+| **openstack.nova.limits.max_total_cores**
(gauge) | El máximo de núcleos permitidos para este inquilino|
+| **openstack.nova.limits.max_total_floating_ips**
(gauge) | El máximo permitido de IPs flotantes para este inquilino|
+| **openstack.nova.limits.max_total_instances**
(gauge) | Número máximo de instancias permitidas para este inquilino|
+| **openstack.nova.limits.max_total_keypairs**
(gauge) | Los pares de claves máximos permitidos para este inquilino|
+| **openstack.nova.limits.max_total_ram_size**
(gauge) | El tamaño máximo de RAM permitido para este inquilino en megabytes (MB)
_Se muestra como mebibyte_ |
+| **openstack.nova.limits.total_cores_used**
(gauge) | El total de núcleos utilizados por este inquilino|
+| **openstack.nova.limits.total_floating_ips_used**
(gauge) | El total de IPs flotantes utilizadas por este inquilino|
+| **openstack.nova.limits.total_instances_used**
(gauge) | El total de instancias utilizadas por este inquilino|
+| **openstack.nova.limits.total_ram_used**
(gauge) | La RAM actual utilizada por este inquilino en megabytes (MB)
_Se muestra como mebibyte_ |
+| **openstack.nova.limits.total_security_groups_used**
(gauge) | Número total de grupos de seguridad utilizados por este inquilino|
+| **openstack.nova.local_gb**
(gauge) | El tamaño en GB del disco efímero presente en este host hipervisor
_Se muestra como gibibyte_ |
+| **openstack.nova.local_gb_used**
(gauge) | El tamaño en GB del disco utilizado en este host hipervisor
_Se muestra como gibibyte_ |
+| **openstack.nova.memory_mb**
(gauge) | El tamaño en MB de la RAM presente en este host hipervisor
_Se muestra como mebibyte_ |
+| **openstack.nova.memory_mb_used**
(gauge) | El tamaño en MB de la RAM utilizada en este host hipervisor
_Se muestra como mebibyte_ |
+| **openstack.nova.running_vms**
(gauge) | Número de máquinas virtuales en ejecución en este host de hipervisor|
+| **openstack.nova.server.cpu0_time**
(gauge) | Tiempo de CPU en nanosegundos de esta CPU virtual
_Se muestra como nanosegundo_ |
+| **openstack.nova.server.hdd_errors**
(gauge) | Número de errores observados por el servidor al acceder a un dispositivo HDD|
+| **openstack.nova.server.hdd_read**
(gauge) | Número de bytes leídos desde un dispositivo HDD por este servidor
_Se muestra como byte_ |
+| **openstack.nova.server.hdd_read_req**
(gauge) | Número de solicitudes de lectura realizadas a un dispositivo HDD por este servidor|
+| **openstack.nova.server.hdd_write**
(gauge) | Número de bytes escritos en un dispositivo HDD por este servidor
_Se muestra como byte_ |
+| **openstack.nova.server.hdd_write_req**
(gauge) | El número de solicitudes de escritura realizadas a un dispositivo HDD por este servidor|
+| **openstack.nova.server.memory**
(gauge) | La cantidad de memoria en MB aprovisionada para este servidor
_Se muestra como mebibyte_ |
+| **openstack.nova.server.memory_actual**
(gauge) | La cantidad de memoria en MB aprovisionada para este servidor
_Se muestra como mebibyte_ |
+| **openstack.nova.server.memory_rss**
(gauge) | La cantidad de memoria utilizada por los procesos de este servidor que no está asociada a páginas de disco, como el stack tecnológico y la memoria heap
_Se muestra como mebibyte_ |
+| **openstack.nova.server.vda_errors**
(gauge) | Número de errores observados por el servidor al acceder a un dispositivo VDA.|
+| **openstack.nova.server.vda_read**
(gauge) | Número de bytes leídos desde un dispositivo VDA por este servidor
_Se muestra como byte_ |
+| **openstack.nova.server.vda_read_req**
(gauge) | Número de solicitudes de lectura realizadas a un dispositivo VDA por este servidor.|
+| **openstack.nova.server.vda_write**
(gauge) | Número de bytes escritos en un dispositivo VDA por este servidor
_Se muestra como byte_ |
+| **openstack.nova.server.vda_write_req**
(gauge) | Número de solicitudes de escritura realizadas a un dispositivo VDA por este servidor|
+| **openstack.nova.vcpus**
(gauge) | Número de vCPUs disponibles en este host hipervisor|
+| **openstack.nova.vcpus_used**
(gauge) | Número de vCPUS utilizados en este host hipervisor|
+
+### Eventos
+
+El check de OpenStack no incluye ningún evento.
+
+### Checks de servicio
+
+**openstack.neutron.api.up**
+
+Devuelve `CRITICAL` si el Agent no puede consultar la API de Neutron, `UNKNOWN` si hay un problema con la API de Keystone. En caso contrario, devuelve `OK`.
+
+_Estados: ok, critical, unknown_
+
+**openstack.nova.api.up**
+
+Devuelve `CRITICAL` si el Agent no puede consultar la API de Nova, `UNKNOWN` si hay un problema con la API de Keystone. En caso contrario, devuelve `OK`.
+
+_Estados: ok, critical, unknown_
+
+**openstack.keystone.api.up**
+
+Devuelve `CRITICAL` si el Agent no puede consultar la API de Keystone. En caso contrario, devuelve `OK`.
+
+_Estados: ok, critical_
+
+**openstack.nova.hypervisor.up**
+
+Devuelve `UNKNOWN` si el Agent no puede obtener el estado del hipervisor, `CRITICAL` si el hipervisor está caído. Devuelve `OK` en caso contrario.
+
+_Estados: ok, critical, unknown_
+
+**openstack.neutron.network.up**
+
+Devuelve `UNKNOWN` si el Agent no puede obtener el estado de la red, `CRITICAL` si la red está caída. En caso contrario, devuelve `OK`.
+
+_Estados: ok, critical, unknown_
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/).
+
+## Referencias adicionales
+
+Documentación útil adicional, enlaces y artículos:
+
+- [Monitorización de OpenStack Nova](https://www.datadoghq.com/blog/openstack-monitoring-nova)
+- [Instalar OpenStack en dos comandos para dev y test](https://www.datadoghq.com/blog/install-openstack-in-two-commands)
+- [OpenStack: agregados de hosts, opciones y zonas de disponibilidad](https://www.datadoghq.com/blog/openstack-host-aggregates-flavors-availability-zones)
\ No newline at end of file
diff --git a/content/es/integrations/opsgenie.md b/content/es/integrations/opsgenie.md
new file mode 100644
index 0000000000000..46a94cdf71ea4
--- /dev/null
+++ b/content/es/integrations/opsgenie.md
@@ -0,0 +1,105 @@
+---
+app_id: opsgenie
+categories:
+- collaboration
+- notifications
+custom_kind: integración
+description: Reenvía alertas desde Datadog y notifica a los usuarios por teléfono.
+further_reading:
+- link: https://docs.datadoghq.com/tracing/service_catalog/integrations/#opsgenie-integration
+ tag: blog
+ text: Blog de Opsgenie
+- link: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/integration_opsgenie_service_object
+ tag: otros
+ text: Opsgenie
+media: []
+title: Opsgenie
+---
+## Información general
+
+Crea alertas en Opsgenie utilizando `@opsgenie-{service-name}`:
+
+- Al tomar una snapshot
+- Cuando se activa una alerta de métrica
+
+## Configuración
+
+### Configuración
+
+#### Crear una integración de Datadog en Opsgenie
+
+1. Inicia sesión en tu cuenta de Opsgenie y ve a la page (página) [Integraciones de Opsgenie](https://app.opsgenie.com/settings/integration/integration-list).
+1. Busca Datadog y haz clic en cuadro.
+1. Completa el Nombre de la integración y, si lo deseas, configura el Equipo asignado.
+1. Después de hacer clic en **Enviar**, permanece en la page (página) y guarda la clave de API de la integración recién creada. La necesitarás para finalizar la configuración.
+1. Añade más integraciones de Datadog en Opsgenie yendo a la page (página) [Integraciones de Opsgenie](https://app.opsgenie.com/settings/integration/integration-list) y repitiendo los pasos anteriores.
+
+#### Registra las integraciones que has realizado en Opsgenie en Datadog
+
+1. En Datadog, ve a la [page (página) Integraciones](https://app.datadoghq.com/integrations), luego busca y selecciona el ícono Opsgenie.
+1. Check que estés en la pestaña Configuración del cuadro de diálogo que aparece.
+1. Haz clic en **Nuevo servicio de integración**.
+1. Pega la clave de API guardada anteriormente de la integración de Datadog (creada en Opsgenie) en el campo **Clave de API de Opsgenie** e introduce un **Nombre de servicio**.
+ 1. El nombre del servicio debe ser descriptivo y único. Sólo se permiten valores alfanuméricos, guiones, guiones bajos y puntos. No se admiten espacios.
+ {{< img src="integrations/opsgenie/datadog-add-opsgenie-api-key.png" alt="Ícono de integración de Opsgenie que muestra la configuración para un nuevo servicio de integración" popup="true">}}
+1. En el menú desplegable **Región**, selecciona Estados Unidos o Europa, según dónde opere tu cuenta de Opsgenie.
+1. Haz clic en **Save** (Guardar).
+
+## Ejemplo de uso
+
+### El monitor de ruta alerta a Opsgenie
+
+1. Crea cualquier monitor (noun) en la [Page (página) Monitores](https://app.datadoghq.com/monitors/manage).
+1. En el cuerpo de monitor (noun), pega `@opsgenie-{service-name}` (sustituye `{service-name}` por el nombre del servicio definido en el ícono de integración de Opsgenie).
+1. Guarda el monitor.
+1. Ve a la Page (página) Editar del monitor (noun) y haz clic en "Test notificaciones" para emitir una alerta de ejemplo utilizando tu integración. Debería crearse una alerta correspondiente en Opsgenie.
+1. Para notificar a varios servicios, pega `@opsgenie-{service-name} @opsgenie-{service-name-2}` en el cuerpo del monitor (noun) y test con los mismos pasos.
+
+#### Permisos
+
+En forma predeterminada, todos los usuarios tienen acceso completo a los servicios de Opsgenie.
+
+Utiliza [Control de acceso granular](https://docs.datadoghq.com/account_management/rbac/granular_access/) para limitar los roles que pueden editar un servicio específico:
+
+1. Mientras visualizas un servicio, haz clic en el icono de engranaje de la esquina superior derecha para abrir el menú de configuración.
+1. Selecciona **Configurar permisos**.
+1. Haz clic en **Restrict Access** (Acceso restringido). El cuadro de diálogo se actualiza para mostrar que los miembros de tu organización tienen acceso de **Visor** por defecto.
+1. Utiliza el menú desplegable para seleccionar uno o más roles, equipos o usuarios que pueden editar el servicio Opsgenie.
+1. Haz clic en **Add** (Añadir). El cuadro de diálogo se actualiza para mostrar que el rol seleccionado tiene el permiso de **Editor**.
+1. Haz clic en **Save** (Guardar).
+
+**Nota:** Para mantener tu acceso de edición al servicio, incluye al menos un rol al que pertenezcas antes de guardar.
+
+Si tienes acceso de edición, puedes restaurar el acceso general a un servicio restringido siguiendo los siguientes pasos:
+
+1. Mientras visualizas el servicio, haz clic en el icono de engranaje de la esquina superior derecha para abrir el menú de configuración.
+1. Selecciona **Configurar permisos**.
+1. Haz clic en **Restore Full Access** (Restablecer acceso completo).
+1. Haz clic en **Save** (Guardar).
+
+Para editar los permisos de servicio a través de la API:
+
+1. Obtén los ID de servicio de Opsgenie utilizando la [API de integración de Opsgenie](https://docs.datadoghq.com/api/latest/opsgenie-integration/).
+1. Utiliza la [API de políticas de restricción](https://docs.datadoghq.com/api/latest/restriction-policies/), donde el tipo es `integration-service` y el ID es `opsgenie:`.
+
+## Datos recopilados
+
+### Métricas
+
+La integración de Opsgenie no incluye ninguna métrica.
+
+### Eventos
+
+La integración Opsgenie no incluye ningún evento.
+
+### Checks de servicio
+
+La integración de Opsgenie no incluye ningún check de servicio.
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/).
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
\ No newline at end of file
diff --git a/content/es/integrations/opsmatic.md b/content/es/integrations/opsmatic.md
new file mode 100644
index 0000000000000..4ca11cfe2949b
--- /dev/null
+++ b/content/es/integrations/opsmatic.md
@@ -0,0 +1,48 @@
+---
+app_id: opsmatic
+categories:
+- notifications
+custom_kind: integración
+description: Visualiza alertas de Opsmatic y confirma su recepción desde tu flujo
+ (stream) de eventos Datadog.
+title: Opsmatic
+---
+## Información general
+
+Conecta Opsmatic a Datadog para obtener:
+
+- Conocimiento instantáneo de cualquier cambio crítico
+- Visibilidad completa del estado en directo y del historial de todos tus hosts
+
+## Configuración
+
+### Instalación
+
+Para ver eventos de Opsmatic en tu flujo (stream) de Datadog:
+
+1. Añade tu clave de API de Datadog a tu página de integraciones de Opsmatic .
+1. Configura tus notificaciones de Opsmatic para Datadog.
+
+Consulta los [documentos del sitio web de Opsmatic para obtener más información](https://opsmatic.com/app/docs/datadog-integration).
+
+### Configuración
+
+Haz clic en el botón **Install Integration** (Instalar integración) del cuadro de integración de Opsmatic. Para ello es necesario seguir los pasos de configuración de esta integración.
+
+## Datos recopilados
+
+### Métricas
+
+La integración de Opsmatic no incluye ninguna métrica.
+
+### Eventos
+
+La integración de Opsmatic no incluye ningún evento.
+
+### Checks de servicio
+
+La integración de Opsmatic no incluye ningún check de servicio.
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/).
\ No newline at end of file
diff --git a/content/es/integrations/oracle.md b/content/es/integrations/oracle.md
index 6882011947396..7a0f250352d52 100644
--- a/content/es/integrations/oracle.md
+++ b/content/es/integrations/oracle.md
@@ -1,82 +1,27 @@
---
app_id: oracle
-app_uuid: 34835d2b-a812-4aac-8cc2-d298db851b80
-assets:
- dashboards:
- DBM Oracle Database Overview: assets/dashboards/dbm_oracle_database_overview.json
- oracle: assets/dashboards/oracle_overview.json
- integration:
- auto_install: true
- configuration:
- spec: assets/configuration/spec.yaml
- events:
- creates_events: false
- metrics:
- check: oracle.session_count
- metadata_path: metadata.csv
- prefix: oracle.
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 10000
- source_type_name: Oracle Database
-author:
- homepage: https://www.datadoghq.com
- name: Datadog
- sales_email: info@datadoghq.com
- support_email: help@datadoghq.com
categories:
- data stores
- network
- oracle
-custom_kind: integration
-dependencies:
-- https://github.com/DataDog/integrations-core/blob/master/oracle/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: oracle
-integration_id: oracle
-integration_title: Oracle Database
+custom_kind: integración
+description: Sistema de base de datos relacional Oracle diseñado para la computación
+ en red de la empresa
integration_version: 6.0.0
-is_public: true
-manifest_version: 2.0.0
-name: oracle
-public_title: Oracle Database
-short_description: Sistema de base de datos relacional Oracle diseñado para la computación
- enterprise grid
+media: []
supported_os:
- linux
- windows
- macos
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Category::Data Stores
- - Category::Network
- - Category::Oracle
- - Supported OS::Linux
- - Supported OS::Windows
- - Supported OS::macOS
- - Offering::Integration
- configuration: README.md#Setup
- description: Sistema de base de datos relacional Oracle diseñado para la computación
- enterprise grid
- media: []
- overview: README.md#Overview
- support: README.md#Support
- title: Oracle Database
+title: Oracle Database
---
-
-
-
-
-![Dashboard de Oracle][1]
+
## Información general
La integración de Oracle proporciona métricas del estado y el rendimiento de tu base de datos de Oracle casi en tiempo real. Visualiza estas métricas con el dashboard proporcionado y crea monitores para alertar a tu equipo sobre los estados de base de datos de Oracle.
-Activa la [Monitorización de base de datos][2] (DBM) para obtener información mejorada sobre el rendimiento de las consultas y el estado de la base de datos. Además de las funciones estándar de integración, Datadog DBM proporciona métricas a nivel de consulta, snapshots de consultas en tiempo real e históricas, análisis de evento de espera, carga de la base de datos, planes de explicación de consultas e información de consultas de bloqueo.
-
+Activa [Database Monitoring](https://docs.datadoghq.com/database_monitoring/) (DBM) para obtener información mejorada sobre el rendimiento de las consultas y el estado de las bases de datos. Además de las funciones de la integración estándar, Datadog DBM proporciona métricas a nivel de consulta, snapshots de consultas históricas y actuales, análisis de eventos de espera, carga de bases de datos, explain plans de consultas e información sobre bloqueos de consultas.
## Configuración
@@ -84,7 +29,7 @@ Activa la [Monitorización de base de datos][2] (DBM) para obtener información
#### Requisito previo
-Para utilizar la integración de Oracle, puedes utilizar el cliente nativo (no requiere pasos adicionales de instalación) o Oracle Instant Client.
+Para utilizar la integración de Oracle puedes utilizar el cliente nativo (no se requieren pasos adicionales de instalación) o el Oracle Instant Client.
##### Oracle Instant Client
@@ -93,53 +38,53 @@ Omite este paso si no utilizas Instant Client.
{{< tabs >}}
{{% tab "Linux" %}}
+
###### Linux
-1. Sigue las instrucciones de [Instalación de Oracle Instant Client para Linux][1].
+1. Sigue las instrucciones de [Instalación de Oracle Instant Client para Linux](https://docs.oracle.com/en/database/oracle/oracle-database/19/mxcli/installing-and-removing-oracle-database-client.html).
-2. Comprueba que el paquete *Instant Client Basic* está instalado. Encuéntralo en la [página de descargas][2] de Oracle.
+1. Comprueba que el paquete *Instant Client Basic* está instalado. Búscalo en la [página de descargas](https://www.oracle.com/ch-de/database/technologies/instant-client/downloads.html). de Oracle.
- Una vez instaladas las bibliotecas de Instant Client, asegúrate de que el enlazador de tiempo de ejecución pueda encontrar las bibliotecas, por ejemplo:
+ Una vez instaladas las bibliotecas de Instant Client, asegúrate de que el enlazador de tiempo de ejecución puede encontrar las bibliotecas, por ejemplo:
- ```shell
- # Put the library location in the /etc/datadog-agent/environment file.
+ ```shell
+ # Put the library location in the /etc/datadog-agent/environment file.
- echo "LD_LIBRARY_PATH=/u01/app/oracle/product/instantclient_19" \
- >> /etc/datadog-agent/environment
- ```
+ echo "LD_LIBRARY_PATH=/u01/app/oracle/product/instantclient_19" \
+ >> /etc/datadog-agent/environment
+ ```
-[1]: https://docs.oracle.com/en/database/oracle/oracle-database/19/mxcli/installing-and-removing-oracle-database-client.html
-[2]: https://www.oracle.com/ch-de/database/technologies/instant-client/downloads.html
{{% /tab %}}
{{% tab "Windows" %}}
+
###### Windows
-1. Sigue la [Guía de instalación de Oracle Windows][1] para configurar tu Oracle Instant Client.
+1. Sigue la [guía de instalación de Oracle Windows](https://www.oracle.com/database/technologies/instant-client/winx64-64-downloads.html#ic_winx64_inst) para configurar tu Oracle Instant Client.
-2. Verifica lo siguiente:
- - Se ha instalado [Microsoft Visual Studio 2017 Redistributable][2] o la versión adecuada para Oracle Instant Client.
+1. Comprueba lo siguiente:
- - El paquete *Instant Client Basic* de la [página de descargas][3] de Oracle está instalado y disponible para todos los usuarios de la máquina en cuestión (por ejemplo, `C:\oracle\instantclient_19`).
+ - Se ha instalado [Microsoft Visual Studio 2017 Redistributable](https://support.microsoft.com/en-us/topic/the-latest-supported-visual-c-downloads-2647da03-1eea-4433-9aff-95f26a218cc0) o la versión adecuada para el Oracle Instant Client.
- - La variable de entorno `PATH` contiene el directorio con el Instant Client (por ejemplo, `C:\oracle\instantclient_19`).
+ - Se ha instalado el paquete *Instant Client Basic* de la [página de descargas](https://www.oracle.com/ch-de/database/technologies/instant-client/downloads.html) de Oracle y está disponible para todos los usuarios de la máquina en cuestión (por ejemplo, `C:\oracle\instantclient_19`).
+ - La variable de entorno `PATH` contiene el directorio con el Instant Client (por ejemplo, `C:\oracle\instantclient_19`).
-[1]: https://www.oracle.com/database/technologies/instant-client/winx64-64-downloads.html#ic_winx64_inst
-[2]: https://support.microsoft.com/en-us/topic/the-latest-supported-visual-c-downloads-2647da03-1eea-4433-9aff-95f26a218cc0
-[3]: https://www.oracle.com/ch-de/database/technologies/instant-client/downloads.html
{{% /tab %}}
+
{{< /tabs >}}
#### Creación de usuarios de Datadog
{{< tabs >}}
-{{% tab "Multiinquilino" %}}
+
+{{% tab "Multi-tenant" %}}
+
##### Multiinquilino
###### Crear usuario
-Crea un inicio de sesión de solo lectura para conectarte a tu servidor y concede los permisos necesarios:
+Crea un inicio de sesión de solo lectura para conectarte a tu servidor y conceder los permisos necesarios:
```SQL
CREATE USER c##datadog IDENTIFIED BY &password CONTAINER = ALL ;
@@ -200,11 +145,12 @@ grant set container to c##datadog ;
{{% /tab %}}
{{% tab "Sin CDB" %}}
+
##### Sin CDB
###### Crear usuario
-Crea un inicio de sesión de solo lectura para conectarte a tu servidor y concede los permisos necesarios:
+Crea un inicio de sesión de solo lectura para conectarte a tu servidor y conceder los permisos necesarios:
```SQL
CREATE USER datadog IDENTIFIED BY &password ;
@@ -255,17 +201,18 @@ grant select on dba_data_files to datadog;
{{% /tab %}}
{{% tab "RDS" %}}
+
##### RDS
###### Crear usuario
-Crea un inicio de sesión de solo lectura para conectarte a tu servidor y concede los permisos necesarios:
+Crea un inicio de sesión de solo lectura para conectarte a tu servidor y conceder los permisos necesarios:
```SQL
CREATE USER datadog IDENTIFIED BY your_password ;
```
-###### Conceder permisos
+###### Conceder permisos
```SQL
grant create session to datadog ;
@@ -309,17 +256,18 @@ exec rdsadmin.rdsadmin_util.grant_sys_object('DBA_DATA_FILES','DATADOG','SELECT'
{{% /tab %}}
{{% tab "Oracle Autonomous Database" %}}
+
##### Oracle Autonomous Database
###### Crear usuario
-Crea un inicio de sesión de solo lectura para conectarte a tu servidor y concede los permisos necesarios:
+Crea un inicio de sesión de solo lectura para conectarte a tu servidor y conceder los permisos necesarios:
```SQL
CREATE USER datadog IDENTIFIED BY your_password ;
```
-###### Conceder permisos
+###### Conceder permisos
```SQL
grant create session to datadog ;
@@ -367,7 +315,7 @@ grant select on dba_data_files to datadog;
Para configurar este check para un Agent que se ejecuta en un host:
-1. Edita el archivo `oracle.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent][3]. Actualiza `server` y `port` para establecer el nodo maestro a monitorizar. Consulta el [oracle.d/conf.yaml de ejemplo][4] para conocer todas las opciones disponibles de configuración.
+1. Edita el archivo `oracle.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory). Actualiza `server` y `port` para configurar los masters que se van a monitorizar. Consulta el [ejemplo oracle.d/conf.yaml](https://github.com/DataDog/datadog-agent/blob/main/cmd/agent/dist/conf.d/oracle.d/conf.yaml.example) para conocer todas las opciones de configuración disponibles.
```yaml
init_config:
@@ -397,60 +345,62 @@ Para configurar este check para un Agent que se ejecuta en un host:
**Nota:** Para las versiones del Agent comprendidas entre `7.50.1` (incluido) y `7.53.0` (excluido), el subdirectorio de configuración es `oracle-dbm.d`. Para todas las demás versiones del Agent, el directorio de configuración es `oracle.d`.
-**Nota**: Los clientes de Oracle Real Application Cluster (RAC) deben configurar el Agent para cada nodo RAC, porque el Agent recopila información de cada nodo por separado consultando las vistas `V$`. El Agent no consulta ninguna vista `GV$` para evitar generar tráfico de interconexión.
+**Nota**: Los clientes de Oracle Real Application Cluster (RAC) deben configurar el Agent para cada nodo RAC, ya que el Agent recopila información de cada nodo por separado, consultando vistas `V$`. El Agent no consulta ninguna vista `GV$` para evitar generar tráfico de interconexión.
-2. [Reinicia el Agent][5].
+2. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
#### Conexión a Oracle a través de TCPS
-Para conectarte a Oracle a través de TCPS (TCP con SSL), elimina los comentarios de la opción de configuración `protocol` y selecciona `TCPS`. Actualiza la opción `server` para establecer el servidor TCPS a monitorizar.
-
- ```yaml
- init_config:
-
- instances:
- ## @param server - string - required
- ## L dirección IP o el nombre de host del Oracle Database Server.
- #
- - server: localhost:1522
-
- ## @param service_name - string - required
- ## El nombre de servicio de Oracle Database. Para ver los servicios disponibles en tu servidor,
- ## ejecuta la siguiente consulta:
- #
- service_name: ""
-
- ## @param username - string - required
- ## El nombre de usuario de la cuenta de usuario.
- #
- username:
-
- ## @param password - string - required
- ## La contraseña para la cuenta de usuario.
- #
- password: ""
+Para conectarte a Oracle a través de TCPS (TCP con SSL), quita la marca de comentario de la opción de configuración `protocol` y selecciona `TCPS`. Actualiza la opción `server` para configurar el servidor TCPS en el monitor.
- ## @param protocol - string - optional - default: TCP
- ## El protocolo para conectarte al Oracle Database Server. Los protocolos válids son TCP y TCPS.
- ##
- #
- protocol: TCPS
- ```
+````
+```yaml
+init_config:
+
+instances:
+ ## @param server - string - required
+ ## The IP address or hostname of the Oracle Database Server.
+ #
+ - server: localhost:1522
+
+ ## @param service_name - string - required
+ ## The Oracle Database service name. To view the services available on your server,
+ ## run the following query:
+ #
+ service_name: ""
+
+ ## @param username - string - required
+ ## The username for the user account.
+ #
+ username:
+
+ ## @param password - string - required
+ ## The password for the user account.
+ #
+ password: ""
+
+ ## @param protocol - string - optional - default: TCP
+ ## The protocol to connect to the Oracle Database Server. Valid protocols include TCP and TCPS.
+ ##
+ #
+ protocol: TCPS
+```
+````
### Validación
-[Ejecuta el subcomando de estado del Agent][6] y busca `oracle` en la sección Checks.
+[Ejecuta el subcomando de estado del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `oracle` en la sección Checks.
### Consulta personalizada
También es posible realizar consultas personalizadas. Cada consulta debe tener dos parámetros:
-| Parámetro | Descripción |
-| --------------- | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
-| `query` | Este es el SQL a ejecutar. Puede ser una sentencia simple o un script de varias líneas. Se evalúan todas las filas del resultado. |
-| `columns` | Se trata de una lista que representa cada columna, ordenada secuencialmente de izquierda a derecha. Hay dos datos obligatorios:
a. `type`: es el método de envío (`gauge`, `count`, etc.).
b. name (nombre): es el sufijo utilizado para formar el nombre completo de la métrica. Si `type` es `tag`, esta columna se considera una etiqueta que se aplica a cada métrica recopilada por esta consulta en particular. |
+| Parámetro | Descripción |
+| --------------- | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |\
+| `query` | Este es el SQL a ejecutar. Puede ser una sentencia simple o un script de varias líneas. Se evalúan todas las filas del resultado. |
+| `columns` | Esta es una lista que representa cada columna, ordenada secuencialmente de izquierda a derecha. Hay dos datos obligatorios:
a. `type` - Es el método de envío (`gauge`, `count`, etc.).
b. name - Es el sufijo utilizado para formar el nombre completo de la métrica. Si `type` es `tag`, esta columna se considera en cambio como una etiqueta que se aplica a cada métrica recopilada por esta consulta en particular. |
-Opcionalmente, utiliza el parámetro `tags` para aplicar una lista de etiquetas a cada métrica recopilada.
+Opcionalmente, utiliza el parámetro `tags` para aplicar una lista de etiquetas (tags) a cada métrica recopilada.
Lo siguiente:
@@ -462,12 +412,12 @@ self.count('oracle.custom_query.metric2', value, tags=['tester:oracle', 'tag1:va
es en lo que se convertiría el siguiente ejemplo de configuración:
```yaml
-- query: | # Usa el pipe si necesitas un script de múltiples líneas.
+- query: | # Use the pipe if you require a multi-line script.
SELECT columns
FROM tester.test_table
WHERE conditions
columns:
- # Coloca esto en cualquier columna que deseas omitir:
+ # Put this for any column you wish to skip:
- {}
- name: metric1
type: gauge
@@ -479,31 +429,67 @@ es en lo que se convertiría el siguiente ejemplo de configuración:
- tester:oracle
```
-Consulta el [oracle.d/conf.yaml de ejemplo][4] para ver todas las opciones disponibles de configuración.
+Consulta el [ejemplo oracle.d/conf.yaml](https://github.com/DataDog/datadog-agent/blob/main/cmd/agent/dist/conf.d/oracle.d/conf.yaml.example) para conocer todas las opciones de configuración disponibles.
## Datos recopilados
### Métricas
-{{< get-metrics-from-git "oracle" >}}
+| | |
+| --- | --- |
+| **oracle.active_sessions**
(gauge) | Número de sesiones activas|
+| **oracle.asm_diskgroup.free_mb**
(gauge) | Capacidad no utilizada de un grupo de discos en megabytes, etiquetada por `state` (solo DBM)|
+| **oracle.asm_diskgroup.offline_disks**
(gauge) | Número de discos de un grupo de discos ASM que están fuera de línea, etiquetados por `state` (solo DBM)|
+| **oracle.asm_diskgroup.total_mb**
(gauge) | Capacidad total utilizable del grupo de discos, etiquetada por `state` (solo DBM)|
+| **oracle.buffer_cachehit_ratio**
(gauge) | Ratio de accesos a la caché del buffer
_Se muestra como porcentaje_ |
+| **oracle.cache_blocks_corrupt**
(gauge) | Bloques de caché corruptos
_Se muestra como bloque_ |
+| **oracle.cache_blocks_lost**
(gauge) | Bloques de caché perdidos
_Se muestra como bloque_ |
+| **oracle.cursor_cachehit_ratio**
(gauge) | Ratio de accesos a la caché del cursor
_Se muestra como porcentaje_. |
+| **oracle.database_wait_time_ratio**
(gauge) | Ordenaciones de memoria por segundo
_Se muestra como porcentaje_. |
+| **oracle.disk_sorts**
(gauge) | Ordenaciones de disco por segundo
_Se muestra como operación_ |
+| **oracle.enqueue_timeouts**
(gauge) | Tiempos de espera en cola excedidos por segundo
_Se muestra como tiempo de espera excedido_ |
+| **oracle.gc_cr_block_received**
(gauge) | Bloque CR de recolección de basura recibido
_Se muestra como bloque_ |
+| **oracle.library_cachehit_ratio**
(gauge) | Ratio de accesos a la caché de la biblioteca
_Se muestra como porcentaje_ |
+| **oracle.logons**
(gauge) | Número de intentos de inicio de sesión|
+| **oracle.long_table_scans**
(gauge) | Número de análisis extensos de tablas por segundo
_Se muestra como análisis_ |
+| **oracle.memory_sorts_ratio**
(gauge) | Ratio de ordenaciones de la memoria
_Se muestra como porcentaje_ |
+| **oracle.physical_reads**
(gauge) | Lecturas físicas por segundo
_Se muestra como lectura_ |
+| **oracle.physical_writes**
(gauge) | Escrituras físicas por segundo
_Se muestra como escritura_ |
+| **oracle.process.pga_allocated_memory**
(gauge) | Memoria PGA asignada por el proceso
_Se muestra como bytes_ |
+| **oracle.process.pga_freeable_memory**
(gauge) | Memoria PGA liberable por proceso
_Se muestra como bytes_ |
+| **oracle.process.pga_maximum_memory**
(gauge) | Memoria PGA máxima asignada por el proceso
_Se muestra como bytes_ |
+| **oracle.process.pga_used_memory**
(gauge) | Memoria PGA utilizada por el proceso
_Se muestra como bytes_ |
+| **oracle.rows_per_sort**
(gauge) | Filas por clasificación
_Se muestra como fila_ |
+| **oracle.service_response_time**
(gauge) | Tiempo de respuesta del servicio
_Se muestra como segundos_ |
+| **oracle.session_count**
(gauge) | Recuento de sesiones|
+| **oracle.session_limit_usage**
(gauge) | Uso del límite de sesión
_Se muestra como porcentaje_. |
+| **oracle.shared_pool_free**
(gauge) | % de memoria libre del grupo compartido
_Se muestra como porcentaje_ |
+| **oracle.sorts_per_user_call**
(gauge) | Clasificación por llamadas de usuario|
+| **oracle.tablespace.in_use**
(gauge) | Espacio de tabla en uso
_Se muestra como porcentaje_. |
+| **oracle.tablespace.offline**
(gauge) | Espacio de tabla fuera de línea|
+| **oracle.tablespace.size**
(gauge) | Tamaño del espacio de tabla
_Se muestra como bytes_ |
+| **oracle.tablespace.used**
(gauge) | Espacio de tabla utilizado
_Se muestra como bytes_ |
+| **oracle.temp_space_used**
(gauge) | Espacio temporal utilizado
_Se muestra como bytes_ |
+| **oracle.user_rollbacks**
(gauge) | Número de reversiones de usuarios
_Se muestra como operación_ |
### Eventos
El check de Oracle Database no incluye ningún evento.
### Checks de servicio
-{{< get-service-checks-from-git "oracle" >}}
+**oracle.can_connect**
-## Solucionar problemas
+Devuelve OK si la integración puede conectarse a Oracle Database, CRITICAL en caso contrario
-¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][7].
+_Estados: ok, crítico_
+**oracle.can_query**
+
+Devuelve OK si la integración puede ejecutar todas las consultas, CRITICAL en caso contrario
+
+_Estados: ok, crítico_
+
+## Solucionar problemas
-[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/oracle/images/oracle_dashboard.png
-[2]: https://docs.datadoghq.com/es/database_monitoring/
-[3]: https://docs.datadoghq.com/es/agent/guide/agent-configuration-files/#agent-configuration-directory
-[4]: https://github.com/DataDog/datadog-agent/blob/main/cmd/agent/dist/conf.d/oracle.d/conf.yaml.example
-[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
-[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
-[7]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/).
\ No newline at end of file
diff --git a/content/es/integrations/oracle_cloud_infrastructure.md b/content/es/integrations/oracle_cloud_infrastructure.md
index 3222e81e8cfa8..d83faaaca997a 100644
--- a/content/es/integrations/oracle_cloud_infrastructure.md
+++ b/content/es/integrations/oracle_cloud_infrastructure.md
@@ -8,11 +8,6 @@ assets:
auto_install: false
events:
creates_events: false
- metrics:
- check:
- - oci.mediastreams.egress_bytes
- metadata_path: metadata.csv
- prefix: oci.
service_checks:
metadata_path: assets/service_checks.json
source_type_id: 310
@@ -55,33 +50,123 @@ tile:
a una serie de aplicaciones en un entorno alojado.
media: []
overview: README.md#Overview
+ resources:
+ - resource_type: blog
+ url: https://www.datadoghq.com/blog/monitor-oci-with-datadog/
+ - resource_type: blog
+ url: https://www.datadoghq.com/blog/datadog-oci-quickstart/
support: README.md#Support
title: Oracle Cloud Infrastructure
---
-
-## Información general
+
+{{% site-region region="gov" %}}
+La integración de Oracle Cloud Infrastructure no es compatible con el
Datadog site seleccionado ({{< region-param key="dd_site_name" >}}).
+{{% /site-region %}}
-Oracle Cloud Infrastructure (OCI) es una infraestructura como servicio (IaaS) y plataforma como servicio (PaaS) utilizada por empresas. Con un completo conjunto de servicios gestionados para alojamiento, almacenamiento, redes, bases de datos y mucho más.
+{{< jqmath-vanilla >}}
-Utiliza la integración de OCI de Datadog para reenviar tus logs y métricas a Datadog, donde pueden servir para dashboards, pueden ayudar a solucionar problemas y ser monitorizados para la seguridad y la postura de cumplimiento.
+## Visión general
+
+Oracle Cloud Infrastructure (OCI) es una infraestructura como servicio (IaaS) y plataforma como servicio (PaaS) utilizada por empresas de gran escala. Incluye un conjunto completo de más de 30 servicios gestionados de alojamiento, almacenamiento, redes, bases de datos, etc.
+
+Utilice la integración OCI de Datadog para obtener una visibilidad completa de su entorno OCI a través de métricas, logy datos de recursos. Estos datos le permiten crear cuadros de mando, le ayudan a solucionar problemas y pueden supervisarse para garantizar la seguridad y el cumplimiento de las normativas.
## Configuración
### Recopilación de métricas
-Para enviar tus métricas de OCI a Datadog:
+{{< tabs >}}
+
+{{% tab "OCI QuickStart (Preview; recommended)" %}}
+
+
+OCI QuickStart está en Vista previa. Utilice
este formulario para enviar su solicitud hoy mismo.
+
+
+OCI QuickStart de Datadog es una experiencia de configuración totalmente gestionada y de flujo único que te ayuda a monitorizar tu infraestructura y aplicaciones OCI en tan sólo unos clics. OCI QuickStart crea la infraestructura necesaria para reenviar métricas, logs y datos de recursos a Datadog y descubre automáticamente nuevos recursos o compartimentos OCI para la recopilación de datos.
+
+**Nota**: En forma predeterminada sólo se envían métricas. Habilita la recopilación de logs y de datos de recursos desde el [ícono de integración de OCI de Datadog][1] después de completar esta configuración.
+
+Para configurar la infraestructura de reenvío de métricas y logs a Datadog:
+ - [Configura el ícono de integración OCI de Datadog](#datadog-oci-integration-tile)
+ - [Despliega el stack tecnológico QuickStart](#orm-stack)
+ - [Completa la configuración en Datadog](#complete-the-setup-in-datadog)
+ - [Valida las métricas que fluyen](#validation)
+ - [Configura la recopilación de métricas (opcional)](#configuration)
+ - [Configura la recopilación de logs (opcional)](#log-collection)
+
+La integración requiere el uso de Oracle Service Connector Hubs para reenviar datos a Datadog. Se recomienda [solicitar un aumento del límite del servicio][2] antes de completar la configuración. El número aproximado de Service Connector Hubs que necesitas es:
+
+$$\\text"Service Connector Hubs" = \text"Número de compartimentos en tenencia" / \text"5"\$$
+
+{{% collapse-content title="Requisitos previos para esta configuración" level="h4" %}}
+- Tu cuenta de usuario OCI necesita el rol de **Administrador de la nube** para completar estos pasos
+- Debes iniciar sesión en OCI en la tenencia con la que deseas integrarte
+- Debes iniciar sesión en OCI con la Región de origen seleccionada en la parte superior derecha de la pantalla
+- Tu cuenta de usuario OCI debe estar en el Dominio de identidad predeterminado
+- Tu cuenta de usuario de OCI debe poder crear un usuario, un grupo de usuarios y un grupo dinámico en el dominio de identidad predeterminado.
+- Tu cuenta de usuario OCI debe poder crear políticas en el compartimento raíz
+{{% /collapse-content %}}
+
+{{% collapse-content title="Regiones admitidas" level="h4" %}}
+- us-ashburn-1
+- ap-tokyo-1
+- sa-saopaulo-1
+- us-phoenix-1
+- eu-frankfurt-1
+- eu-stockholm-1
+- ap-singapur-1
+- us-sanjose-1
+- ca-toronto-1
+- sa-santiago-1
+- uk-london-1
+- eu-madrid-1
+- me-jeddah-1
+- us-chicago-1
+
+Ponte en contacto a través de este formulario para solicitar regiones adicionales.
+
+{{% /collapse-content %}}
+
+#### Ícono de integración de OCI de Datadog
+
+1. Ve al [ícono de integración de OCI de Datadog][1] y haz clic en **Añadir nueva tenencia**.
+2. Selecciona o crea una clave de la API Datadog para utilizarla para la integración.
+3. Crea una clave de la aplicación Datadog.
+4. Haz clic en **Crear stack tecnológico de OCI**. Esto te llevará a un stack tecnológico de Oracle Resource Manager (ORM) para finalizar el despliegue.
+ **Nota**: Despliega este stack tecnológico sólo una vez por tenencia.
+
+#### Stack tecnológico de ORM
+
+1. Acepta las Condiciones de uso de Oracle.
+2. Deja sin marcar la opción de utilizar proveedores personalizados de Terraform.
+3. Utiliza el directorio de trabajo predeterminado para desplegar el stack tecnológico u opcionalmente elige uno diferente.
+4. Haz clic en **Siguiente** y **Siguiente** de nuevo.
+5. Haz clic en **Crear** y espera hasta 15 minutos a que se complete el despliegue.
+
+[1]: https://app.datadoghq.com/integrations/oracle-cloud-infrastructure
+[2]: https://docs.oracle.com/iaas/Content/General/Concepts/servicelimits.htm#Requesti
+{{% /tab %}}
+
+{{% tab "Manual setup" %}}
+
+Para reenviar tus métricas de OCI a Datadog:
- [Ingresa la información de la tenencia](#enter-tenancy-info).
- - [Crea un stack tecnológico de políticas de OCI](#create-oci-policy-stack) en la región de origen de tu tenencia para crear un usuario de autenticación, un grupo y políticas de Datadog.
- - [Ingresa la información del DatadogAuthUser](#enter-datadogauthuser-info) en Datadog.
- - [Crea un stack tecnológico de reenvío de métricas de OCI](#create-oci-metric-forwarding-stack) para cada región de la tenencia desde la que quieras reenviar métricas.
+ - [Despliega el stack tecnológico de políticas OCI (#create-oci-policy-stack) en la región de origen de tu tenencia para crear un usuario, grupo y políticas de sólo lectura en Datadog.
+ - [Introduce DatadogROAuthUser info](#enter-datadogroauthuser-info) en Datadog
+ - [Despliega un stack tecnológico de reenvío de métricas OCI (#create-oci-metric-forwarding-stack) para cada región de tenencia desde la que desees reenviar métricas.
+ - [Completa la configuración en Datadog](#complete-the-setup-in-datadog)
+ - [Valida las métricas que fluyen](#validation)
+ - [Configura la recopilación de métricas (opcional)](#configuration)
+ - [Configura la recopilación de logs (opcional)](#log-collection)
Para ver una representación visual de esta arquitectura, consulta la sección [Arquitectura](#architecture).
#### Ingresar la información de la tenencia
{{% collapse-content title="Requisitos para esta sección" level="h5" %}}
-- Tu cuenta de usuario de OCI necesita el rol **Cloud Administrator** (Administrador de la nube) para completar estos pasos.
+- Tu cuenta de usuario OCI necesita el rol de **Administrador de la nube** para completar estos pasos
- OCID de la tenencia
- Región de origen
{{% /collapse-content %}}
@@ -93,61 +178,61 @@ Ingresa el OCID y la región de origen de la tenencia que deseas monitorizar en
#### Crear un stack tecnológico de políticas de OCI
{{% collapse-content title="Requisitos para esta sección" level="h5" %}}
-- Tu cuenta de usuario debe poder [crear políticas y grupos dinámicos][4] en el dominio predeterminado.
-- Debes estar en la región de origen de la tenencia.
+- Tu cuenta de usuario OCI debe poder [crear grupos y políticas dinámicas][4] en el dominio predeterminado
+- Debes estar en la región de origen de la tenencia
{{% /collapse-content %}}
-Asegúrate de que la región de origen de la tenencia esté seleccionada en la parte superior derecha de la pantalla.
+Asegúrate de que la región de origen de la tenencia esté seleccionada en la parte superior derecha de la pantalla.
-Este stack tecnológico de políticas solo debe desplegarse una vez por tenencia.
+Este stack tecnológico de políticas de Oracle Resource Manager (ORM) sólo debe desplegarse una vez por tenencia.
1. Haz clic en el botón **Create Policy Stack** (Crear un stack tecnológico de políticas) en el cuadro de integración de Datadog y OCI.
2. Acepta las Condiciones de uso de Oracle.
-3. Deja la opción de utilizar proveedores de Terraform personalizados **desmarcada**.
+3. Deja la opción de utilizar proveedores de Terraform personalizados **sin marcar**.
4. Utiliza el nombre y el compartimento predeterminados para el stack tecnológico. De manera opcional, indica tu propio nombre descriptivo o compartimento.
-5. Haz clic en **Next** (Siguiente).
-6. Asigna un nombre al grupo dinámico, el grupo de usuarios y a la política que se van a crear, o usa los nombres predeterminados proporcionados.
-7. Haz clic en **Next** (Siguiente).
+5. Haz clic en **Siguiente**.
+6. Deja el campo de tenencia y el campo de usuario actual como están.
+7. Haz clic en **Siguiente**.
8. Haz clic en **Create** (Crear).
-#### Ingresar la información del DatadogAuthUser
+#### Introduce DatadogROAuthUser info
{{% collapse-content title="Requisitos para esta sección" level="h5" %}}
-- OCID del `DatadogAuthUser`
+- OCID del `DatadogROAuthUser`
- Clave de la API de OCI y valor de la huella digital
{{% /collapse-content %}}
-1. En la barra de búsqueda de la consola de OCI, busca `DatadogAuthUser` y haz clic en el recurso de usuario que aparece.
+1. En la barra de búsqueda de la consola OCI, busca `DatadogROAuthUser` y haz clic en el recurso de Usuario que aparece.
2. Copia el valor del OCID del usuario.
3. Pega el valor en el campo **User OCID** (OCID del usuario) del [cuadro de integración de Datadog y OCI][1].
-4. Vuelve a la consola de OCI y genera una clave de API con estos pasos:
- a. En la esquina inferior izquierda de la pantalla, en **Resources** (Recursos), haz clic en **API keys** (Claves de API).
- b. Haz clic en **Add API key** (Añadir clave de API).
- c. Haz clic en **Download private key** (Descargar clave privada).
- d. Haz clic en **Add** (Añadir).
+4. Al volver a la consola OCI, genera una clave de API con estos pasos:
+ a. En la esquina inferior izquierda de la pantalla, en **Recursos**, haz clic en **Claves de API**.
+ b. Haz clic en **Añadir clave de API**.
+ c. Haz clic en **Descargar clave privada**.
+ d. Haz clic en **Añadir**.
e. Aparece una ventana emergente **Configuration file preview** (Vista previa del archivo de configuración), pero no es necesario realizar ninguna acción; cierra la ventana emergente.
-![La página Add API Key (Añadir clave de API) en la consola de OCI][5]
+![La página Añadir clave de API en la consola de OCI][5]
-5. Copia el valor de la huella digital y pégalo en el campo **Fingerprint** (Huella digital) del [cuadro de integración de Datadog y OCI][1].
+5. Copia el valor de la huella digital y pégalo en el campo **Huella digital** del [cuadro de integración de Datadog y OCI][1].
6. Copia el valor de la clave privada con estos pasos:
a. Abre el archivo de clave privada `.pem` descargado en un editor de texto, o utiliza un comando de terminal como `cat` para mostrar el contenido del archivo.
b. Copia todo el contenido, incluidos `-----BEGIN PRIVATE KEY-----` y `-----END PRIVATE KEY-----`.
7. Pega el valor de la clave privada en el campo **Private Key** (Clave privada) del cuadro de integración de Datadog y OCI.
-#### Crear un stack tecnológico de reenvío de métricas de OCI
+#### Crea un stack tecnológico de reenvío de métricas de OCI
{{% collapse-content title="Requisitos para esta sección" level="h5" %}}
-- Tu cuenta de usuario debe poder crear recursos en el compartimento.
+- Tu cuenta de usuario OCI debe poder crear recursos en el compartimento
- Valor de la [clave de API de Datadog][6].
-- Nombre de usuario y token de autenticación para un usuario con los permisos `REPOSITORY_READ` y `REPOSITORY_UPDATE`, de modo que se puedan extraer y enviar imágenes a un repositorio de Docker.
+- Nombre de usuario y token de autenticación para un usuario con los permisos `REPOSITORY_READ` y `REPOSITORY_UPDATE` para extraer e insertar imágenes en un repositorio Docker
- Consulta [Cómo obtener un token de autenticación][7] para saber cómo crear un token de autenticación.
- - Consulta [Políticas para controlar el acceso a repositorios][8] para obtener más información sobre las políticas requeridas.
+ - Consulta [Políticas para controlar el acceso a repositorios][8] para obtener más información sobre las políticas necesarias
-**Nota**: Para comprobar que el inicio de sesión en el registro de Docker es el correcto, consulta [Inicio de sesión en el registro de Oracle Cloud Infrastructure][9].
+**Nota**: Para comprobar que el inicio de sesión en el registro de Docker sea el correcto, consulta [Inicio de sesión en el registro de Oracle Cloud Infrastructure][9].
{{% /collapse-content %}}
-El stack tecnológico de reenvío métricas debe desplegarse para **cada combinación de tenencia y región** que se va a monitorizar. Para la configuración más sencilla, Datadog recomienda crear todos los recursos de OCI necesarios con el stack tecnológico de ORM que se facilita a continuación. Como alternativa, puedes usar tu infraestructura de redes de OCI existente.
+El stack tecnológico de reenvío de métricas debe desplegarse para **cada combinación de tenencia y región** que se debe monitorizar. Para la configuración más sencilla, Datadog recomienda crear todos los recursos OCI necesarios con el stack tecnológico de Oracle Resource Manager (ORM) que se proporciona a continuación. Como alternativa, puedes utilizar tu infraestructura de red OCI existente.
Todos los recursos creados a partir del stack tecnológico de ORM de Datadog se despliegan en el compartimento especificado y para la región seleccionada actualmente en la parte superior derecha de la pantalla.
@@ -155,119 +240,132 @@ Todos los recursos creados a partir del stack tecnológico de ORM de Datadog se
2. Acepta las Condiciones de uso de Oracle.
3. Deja sin marcar la opción **Custom providers** (Proveedores personalizados).
4. Asigna un nombre al stack tecnológico y selecciona el compartimento en el que se desplegará.
-5. Haz clic en **Next** (Siguiente).
+5. Haz clic en **Siguiente**.
6. En el campo **Datadog API Key** (Clave de API de Datadog), ingresa el valor de tu [clave de API de Datadog][6].
+7. En la sección **Network options** (Opciones de red), deja marcada la opción `Create VCN`.
+{{% collapse-content title="(Opcional) Utilizar el VCN existente en su lugar" level="h4" %}}
+Si utilizas una Red de Nube Virtual (VCN) existente, debes proporcionar el OCID de la subred al stack tecnológico. Asegúrate de que la VCN:
+ - Tenga permiso para realizar llamadas de salida HTTP a través de la puerta de NAT
+ - Sea capaz de extraer imágenes del registro de contenedores OCI mediante la puerta de servicios.
+ - Tenga las reglas de tabla de rutas para permitir la puerta de NAT y la puerta de servicio
+ - Tenga las reglas de seguridad para enviar solicitudes HTTP
+
+7. En la sección **Opciones de red**, deja sin marcar la opción `Create VCN` e introduce la información de tu VCN:
+ a. En el campo **Compartimento de VCN**, selecciona tu compartimento.
+ b. En la sección **VCN existente**, selecciona tu VCN existente.
+ c. En la sección **Function Subnet OCID** (OCID de subred de función), introduce el OCID de la subred que se va a utilizar.
+{{% /collapse-content %}}
-{{< tabs >}}
-{{% tab "Creaf VCN con ORM (recomendado)" %}}
-8. En la sección **Network options** (Opciones de red), deja marcada la opción `Create VCN`.
-{{% /tab %}}
-{{% tab "Usar una VCN existente" %}}
-Si utilizas una VCN existente, debes indicar el OCID de la subred en el stack tecnológico. Asegúrate de que la VCN cumpla los siguientes requisitos:
- - Se le permite hacer llamadas de salida HTTP a través de la gateway NAT.
- - Puede extraer imágenes del registro de contenedores de OCI mediante la gateway de servicio.
- - Tiene las reglas de la tabla de enrutamiento para permitir la gateway NAT y la gateway de servicio.
- - Tiene las reglas de seguridad para enviar solicitudes HTTP.
-
-8. En la sección **Network options** (Opciones de red), desmarca la opción `Create VCN` e ingresa la información de tu VCN:
- a. En el campo **vcnCompartment**, selecciona tu compartimento.
- b. En la sección **existingVcn**, selecciona tu VCN existente.
- c. En la sección **Function Subnet OCID** (OCID de subred de función), ingresa el OCID de la subred que se va a utilizar.
+8. De manera opcional, en la sección **Metrics settings** (Parámetros de las métricas), elimina cualquier espacio de nombres de métrica de la recopilación.
+9. En la sección **Metrics compartments** (Compartimentos de las métricas), ingresa una lista separada por comas de los OCID de compartimentos que se van a monitorizar. Los filtros de espacio de nombres de métrica seleccionados en el paso anterior se aplican a cada compartimento.
+10. En la sección **Configuración de funciones**, selecciona `GENERIC_ARM`. Selecciona `GENERIC_X86` si realizas el despliegue en una región de Japón.
+11. Haz clic en **Siguiente**.
+12. Haz clic en **Create** (Crear).
+13. Vuelve a la página del [cuadro de integración de Datadog y OCI][1] y haz clic en **Create configuration** (Crear configuración).
+
+**Notas**:
+- En forma predeterminada, sólo se selecciona el compartimento raíz y se activan todos los espacios de nombres de métricas del Paso 8 presentes en el compartimento (se admiten hasta 50 espacios de nombres por concentrador de conectores). Si eliges monitorizar compartimentos adicionales, los espacios de nombres añadidos a ellos son una intersección de los espacios de nombres seleccionados y los espacios de nombres presentes en el compartimento.
+- Debes gestionar quién tiene acceso a los archivos de estado de Terraform de los stacks tecnológicos del gestor de recursos. Consulta la [sección Archivos de estado de Terraform][10] de la página Obtener el gestor de recursos para obtener más información.
+
+[1]: https://app.datadoghq.com/integrations/oracle-cloud-infrastructure
+[2]: https://cloud.oracle.com/tenancy
+[3]: https://docs.oracle.com/iaas/Content/General/Concepts/regions.htm
+[4]: https://docs.oracle.com/en/cloud/paas/weblogic-container/user/create-dynamic-groups-and-policies.html
+[5]: images/add_api_key.png
+[6]: https://app.datadoghq.com/organization-settings/api-keys
+[7]: https://docs.oracle.com/iaas/Content/Registry/Tasks/registrygettingauthtoken.htm
+[8]: https://docs.oracle.com/iaas/Content/Registry/Concepts/registrypolicyrepoaccess.htm#Policies_to_Control_Repository_Access
+[9]: https://docs.oracle.com/iaas/Content/Functions/Tasks/functionslogintoocir.htm
+[10]: https://docs.oracle.com/iaas/Content/Security/Reference/resourcemanager_security.htm#confidentiality__terraform-state
{{% /tab %}}
+
{{< /tabs >}}
-9. De manera opcional, en la sección **Metrics settings** (Parámetros de las métricas), elimina cualquier espacio de nombres de métrica de la colección.
-10. En la sección **Metrics compartments** (Compartimentos de las métricas), ingresa una lista separada por comas de los OCID de compartimentos que se van a monitorizar. Los filtros de espacio de nombres de métrica seleccionados en el paso anterior se aplican a cada compartimento.
-11. En la sección **Function settings** (Parámetros de la función), indica un nombre de usuario de registro de OCI Docker y un token de autenticación en sus campos respectivos. Consulta [Cómo obtener un token de autenticación][7] para obtener más información.
-12. Haz clic en **Next** (Siguiente).
-13. Haz clic en **Create** (Crear).
-14. Vuelve a la página del [cuadro de integración de Datadog y OCI][1] y haz clic en **Create configuration** (Crear configuración).
+#### Completar la configuración en Datadog
-**Notas**:
-- De forma predeterminada, solo se selecciona el compartimento raíz y se activan todos los espacios de nombres de métrica compatibles con la integración de Datadog y OCI (se admiten hasta 50 espacios de nombres por hub de conectores). Si eliges monitorizar compartimentos adicionales, se aplica cualquier filtro de exclusión de espacio de nombres de métrica a cada compartimento.
-- Debes gestionar quién tiene acceso a los archivos de estado de Terraform de los stacks tecnológicos del gestor de recursos. Consulta la sección [Archivos de estado de Terraform][10] de la página Seguridad del gestor de recursos para obtener más información.
+Vuelve al [ícono de integración de OCI de Datadog][1] y haz clic en **¡Listo!**.
#### Validación
-Consulta las métricas de `oci.*` en el [dashboard de información general de la integración de OCI][11] o en la [página del explorador de métricas][12] en Datadog.
+Consulta las métricas de `oci.*` en el [dashboard de información general de integración de OCI][2] o la [página Metrics Explorer][3] en Datadog.
-Las métricas de la función de OCI (espacio de nombres oci.faas) y las métricas de la instancia del contenedor (espacio de nombres oci_computecontainerinstance) se encuentran en versión preliminar.
+Las métricas de la función de OCI (espacio de nombres oci.faas) y las métricas de la instancia del contenedor (espacio de nombres oci_computecontainerinstance) se encuentran en versión preliminar.
#### Configuración
-##### Añadir regiones
+![La pestaña de configuración de una tenencia de OCI en Datadog][4]!
-Para monitorizar una región adicional en una tenencia, navega hasta esa tenencia en el cuadro de integración de OCI.
- 1. En la sección **Configure an Additional Region** (Configurar una región adicional), haz clic en **Create Metric Stack** (Crear un stack tecnológico de métricas).
- 2. Cambia a la región que deseas monitorizar en la parte superior derecha de la pantalla.
- 3. Completa los pasos de [Crear un stack tecnológico de reenvío de métricas de OCI](#create-oci-metric-forwarding-stack) en la región nueva.
+Una vez completada la configuración, aparecerá una pestaña de configuración para la tenencia en la parte izquierda del [ícono de integración de OCI de Datadog][1]. Aplica las configuraciones de recopilación de datos de toda la tenencia como se indica en las secciones siguientes.
-##### Añadir compartimentos o espacios de nombres de métrica
+##### Añadir regiones
-Para añadir compartimentos o editar la lista de los espacios de nombres de métrica activados, haz clic en **Edit** (Editar) en el [hub de conectores][13] recién creado.
- - Haz clic en **+ Another compartment** (+ otro compartimento) para añadir compartimentos.
- - En la sección **Configure source** (Configurar origen), añade o elimina espacios de nombres del menú desplegable **Namespaces** (Espacios de nombres).
+En la pestaña **General**, selecciona las regiones para la recopilación de datos en la lista de casillas de verificación **Regiones**. Las selecciones de regiones se aplican a toda la tenencia, tanto para las métricas como para logs.
-#### Arquitectura
+**Nota**: Si has utilizado el método de configuración QuickStart y después te has suscrito a una nueva región OCI, vuelve a aplicar el stack tecnológico de configuración inicial en ORM. La nueva región estará entonces disponible en el ícono de OCI de Datadog.
-##### Recursos de reenvío de métricas
+##### Recopilación de métricas y logs
-![Un diagrama de los recursos de OCI mencionados en esta página, en el que se muestra el flujo de datos][14]
+Utiliza las pestañas **Recopilación de métricas** y **Recopilación de logs** para configurar qué métricas y logs se envían a Datadog:
-Esta integración crea un [hub de conectores][15] de OCI, una [aplicación de función][16] y una infraestructura de redes segura para reenviar métricas de OCI a Datadog. El stack tecnológico de ORM de estos recursos crea un repositorio de contenedores de la función para la región en la tenencia, y la imagen de Docker se envía a él para que la función la utilice.
+- **Activar** o **desactivar** la recopilación de métricas o logs para toda la tenencia.
+- **Incluir** o **excluir** compartimentos específicos basándose en las etiquetas (tags) de compartimentos del formato `key:value`. Por ejemplo:
+ - `datadog:monitored,env:prod*` incluye compartimentos si **alguna** de estas etiquetas (tags) está presente
+ - `!env:staging,!testing` excluye los compartimentos sólo si **ambas** etiquetas (tags) están presentes
+ - `datadog:monitored,!region:us-phoenix-1` incluye los compartimentos que tienen la etiqueta (tag) `datadog:monitored` y los que no tienen la etiqueta (tag) `region:us-phoenix-1`
+- **Activar** o **desactivar** la recopilación para servicios OCI específicos.
-##### Recursos de IAM
+**Notas**:
+- Tras modificar las etiquetas (tags) en OCI, los cambios pueden tardar hasta 15 minutos en aparecer en Datadog
+- En OCI, las etiquetas (tags) no son heredadas por los compartimentos secundarios; cada compartimento se debe etiquetar individualmente.
-![Un diagrama de los recursos y el flujo de trabajo de OCI utilizados para la autenticación de la integración][17]
+{{% collapse-content title="Consulta la lista completa de espacios de nombres de métricas" level="h4" %}}
+### Espacios de nombre de métricas
-Esta integración crea lo siguiente:
+| Integración | Espacio de nombres de métricas |
+|-------------------------------------| ---------------------------------------------------------------------------------------------------------------------------------------- |
+| [Puerta de API][5] | [oci_apigateway][6] |
+| [Base de datos autónoma][7] | [base de datos_autónoma_oci][8] |
+| [Almacenamiento en bloque][9] | [oci_blockstore][10] |
+| [Cómputo][11] | [oci_computeagent][12], [rdma_infraestructura_estado][13], [gpu_infraestructura_estado][14], [oci_cómputo_infraestructura_estado][15] |
+| [Instancias de contenedor (vista previa)][16] | [oci_computecontainerinstance][17] |
+| [Base de datos][18] | [oci_base de datos][19], [oci_base de datos_clúster][20] |
+| Puerta de enrutamiento dinámico | [oci_puerta_enrutamiento_dinámico][21] |
+| [E-Business Suite (EBS)][22] | [oracle_appmgmt][23] |
+| [FastConnect][24] | [oci_fastconnect][25] |
+| [Almacenamiento de archivos][26] | [oci_filestorage][27] |
+| [Funciones (Vista previa)][28] | [oci_faas][29] |
+| [GPU][30] | [gpu_infraestructura_estado][14] |
+| [HeatWave MySQL][31] | [oci_mysql_base de datos][32] |
+| [Motor de Kubernetes][33] | [oci_oke][34] |
+| [Equilibrador de carga][35] | [oci_lbaas][36], [oci_nlb][37] |
+| [Flujos de comunicación][38] | [oci_mediastreams][39] |
+| [Puerta NAT][40] | [oci_nat_gateway][41] |
+| [Cortafuegos de red][42] | [oci_red_cortafuegos][43] |
+| [Almacenamiento de objetos][44] | [oci_objectstorage][45] |
+| [PostgreSQL][46] | [oci_postgresql][47] |
+| [Cola] [48] | [oci_cola][49] |
+| [Service Connector Hub][50] | [oci_service_connector_hub][51] |
+| [Puerta de servicios][52] | [oci_puerta_servicios][53] |
+| [VCN][54] | [oci_vcn][55] |
+| [VPN][56] | [oci_vpn][57] |
+| [Web Application Firewall][58] | [oci_waf][59]
+{{% /collapse-content %}}
- * Un grupo dinámico con `resource.type = 'serviceconnectors'`, para permitir el acceso al hub de conectores.
- * Un usuario llamado **DatadogAuthUser**, que Datadog usa para leer recursos de tenencia.
- * Un grupo al que se añade el usuario creado para acceder a la política.
- * Una política en el compartimento raíz para permitir que los hubs de conectores lean métricas e invoquen funciones. Además, otorga al grupo de usuarios creado acceso de lectura a los recursos de la tenencia. Se añaden las siguientes instrucciones a la política:
+### Recopilación de logs
-```text
-Allow dynamic-group to read metrics in tenancy
-Allow dynamic-group to use fn-function in tenancy
-Allow dynamic-group to use fn-invocation in tenancy
-Allow dynamic-group Default/ to read metrics in tenancy
-Allow dynamic-group Default/ to use fn-function in tenancy
-Allow dynamic-group Default/ to use fn-invocation in tenancy
-Allow group Default/ to read all-resources in tenancy
-```
+Utiliza uno de los siguientes métodos para enviar tus logs de OCI a Datadog:
-### Espacios de nombre de métrica
+{{< tabs >}}
-| Integración | Espacio de nombre de métrica |
-|-------------------------------------| ---------------------------------------------------------------------------------------------------------------------------------------- |
-| [Base de datos autónoma][18] | [oci_autonomous_database][19] |
-| Block Storage | [oci_blockstore][20] |
-| [Computación][21] | [oci_computeagent][22], [rdma_infrastructure_health][23], [gpu_infrastructure_health][24], [oci_compute_infrastructure_health][25] |
-| [Instancias de contenedor (versión preliminar)][26] | [oci_computecontainerinstance][27] |
-| [Base de datos][28] | [oci_database][29], [oci_database_cluster][30] |
-| Gateway de enrutamiento dinámico | [oci_dynamic_routing_gateway][31] |
-| FastConnect | [oci_fastconnect][32] |
-| File Storage | [oci_filestorage][33] |
-| [Funciones (versión preliminar)][34] | [oci_faas][35] |
-| [HeatWave MySQL][36] | [oci_mysql_database][37] |
-| Motor de Kubernetes | [oci_oke][38] |
-| [Equilibrador de carga][39] | [oci_lbaas][40], [oci_nlb][41] |
-| [Gateway NAT][42] | [oci_nat_gateway][43] |
-| Object Storage | [oci_objectstorage][44] |
-| Cola | [oci_queue][45] |
-| Hub de conectores de servicio | [oci_service_connector_hub][46] |
-| Gateway de servicio | [oci_service_gateway][47] |
-| [VCN][48] | [oci_vcn][49] |
-| [VPN][50] | [oci_vpn][51] |
-| Firewall de aplicaciones web | [oci_waf][52] |
+{{% tab "OCI QuickStart (Preview; recommended)" %}}
-### Recopilación de logs
+1. Sigue los pasos de la [sección de configuración](#setup) para crear la infraestructura necesaria para reenviar las métricas y los logs a Datadog.
+2. Haz clic en el conmutador **Habilitar Recopilación de logs** en la pestaña **Recopilación de logs** del [ícono de integración de OCI de Datadog][1].
-Envía logs desde tu infraestructura en la nube de Oracle a Datadog siguiendo alguno de estos procesos:
+[1]: https://app.datadoghq.com/integrations/oracle-cloud-infrastructure
+{{% /tab %}}
-{{< tabs >}}
-{{% tab "Hub de conectores de servicio" %}}
+{{% tab "Service Connector Hub" %}}
1. Configura un log de OCI.
2. Crea una función de OCI.
@@ -277,34 +375,34 @@ Las siguientes instrucciones utilizan el portal de OCI para configurar la integr
#### Registro de OCI
-1. En el portal de OCI, navega hasta *Logging -> Log Groups* (Registro > Grupos de logs).
-2. Selecciona tu compartimento y haz clic en **Create Log Group**. Se abre un panel lateral.
+1. En el portal de OCI, ve a *Logging -> Log Groups* (Registro > Grupos de logs).
+2. Selecciona tu compartimento y haz clic en **Crear un grupo de logs**. Se abre un panel lateral.
3. Introduce `data_log_group` para el nombre y, opcionalmente, proporciona una descripción y etiquetas (tags).
4. Haz clic en **Create** (Crear) para configurar tu nuevo grupo de logs.
5. En **Resources** (Recursos), haz clic en **Logs**.
6. Haz clic en **Create custom log** (Crear log personalizado) o **Enable service log** (Habilitar log de servicio) según lo desees.
7. Haz clic en **Enable Log** (Habilitar log), para crear tu nuevo log de OCI.
-Para más información sobre logs de OCI, consulta [Activación del registro para un recurso][1].
+Para obtener más información sobre logs de OCI, consulta [Activación del registro para un recurso][1].
#### Función de OCI
1. En el portal de OCI, ve a *Functions** (Funciones).
2. Selecciona una aplicación existente o haz clic en **Create Application** (Crear aplicación).
3. Crea una nueva función de OCI dentro de tu aplicación. Consulta [Información general de funciones de Oracle][2] para obtener más detalles.
-4. Es recomendado para crear una función boilerplate de Python primero y reemplazar los archivos autogenerados con el código fuente de Datadog:
- - Sustituye `func.py` por código del [repositorio de Datadog OCI][3].
- - Sustituye `func.yaml` por el código del [repositorio de Datadog OCI][4]. `DATADOG_TOKEN` y `DATADOG_HOST` deben sustituirse por tu clave de API de Datadog y el enlace de entrada de logs de la región.
- - Sustituye `requirements.txt` por código del [repositorio de Datadog OCI][5].
+4. Se recomienda crear primero una función boilerplate en Python y sustituir los archivos generados automáticamente por el código fuente de Datadog:
+ - Sustituye `func.py` por el código del [repositorio de OCI de Datadog][3]
+ - Sustituye `func.yaml` por el código del [repositorio de OCI de Datadog][4]. `DATADOG_TOKEN` y `DATADOG_HOST` deben sustituirse por tu clave API Datadog y el enlace de admisión de logs de la región
+ - Sustituye `requirements.txt` por el código del [repositorio de OCI de Datadog][5]
#### Hub de conectores de servicio de OCI
-1. En el portal de OCI, navega hasta *Logging -> Service Connectors* (Registro > Conectores de servicio).
+1. En el portal de OCI, ve a *Logging -> Service Connectors* (Registro > Conectores de servicio).
2. Haz clic en **Create Service Connector** (Crear conector de servicio) para ser redireccionado a la página **Create Service Connector** (Crear conector de servicio).
3. Selecciona **Source** (Origen) como Logging (Registro) y **Target** (Destino) como Functions (Funciones).
4. En **Configure Source Connection** (Configurar conexión de origen) selecciona **Compartment name** (Nombre de compartimento), **Log Group** (Grupo de logs) y **Log**. (El **Log Group** (Grupo de logs) y **Log** creados en el primer paso).
-5. Si también deseas enviar **Audit Logs** (Logs de auditoría), haz clic en **+Another Log** (+ otro log) y selecciona el mismo **Compartment** (Compartimento) y reemplaza "_Audit" (_Auditoría) como tu **Log Group** (Grupo de logs).
-6. En **Configure target** (Configurar destino) selecciona **Compartment** (Compartimento), **Function application** (Aplicación de función) y **Function** (Función). (La **Function Application** (Aplicación de función) y **Function** (Función) creadas en el paso anterior.
+5. Si también deseas enviar **Audit Logs** (Logs de auditoría), haz clic en **+Another Log** (+ otro log) y selecciona el mismo **Compartment** (Compartimento) y sustituye "_Auditoría" como tu **Log Group** (Grupo de logs).
+6. En **Configure target** (Configurar destino) selecciona **Compartment** (Compartimento), **Function application** (Aplicación de función) y **Function** (Función). (La **Function Application** (Aplicación de función) y la **Function** (Función) creadas en el paso anterior.)
7. Si se te pide que crees una política, haz clic en **Create** (Crear) en la pantalla.
8. Haz clic en **Create** (Crear) en la parte inferior para terminar de crear tu conector de servicio.
@@ -317,7 +415,8 @@ Para obtener más información sobre OCI Object Storage, consulta [la entrada de
[5]: https://github.com/DataDog/Oracle_Logs_Integration/blob/master/Service%20Connector%20%20Hub/requirements.txt
[6]: https://blogs.oracle.com/cloud-infrastructure/oracle-cloud-infrastructure-service-connector-hub-now-generally-available
{{% /tab %}}
-{{% tab "Almacén de objectos" %}}
+
+{{% tab "Object store" %}}
1. Configura un log de OCI.
2. Crea un almacén de objetos de OCI y habilita el acceso de lectura/escritura para logs de OCI.
@@ -339,41 +438,41 @@ Las siguientes instrucciones utilizan el portal de OCI para configurar la integr
9. Establece el tipo de entrada en **Log Path** (Ruta de log), introduce el nombre de entrada que prefieras y utiliza "/" para las rutas de los archivos.
10. Haz clic en **Create Custom Log** (Crear log personalizado), entonces tu log de OCI se creará y estará disponible en la página de logs.
-Para más información sobre logs de OCI, consulta [Activación del registro para un recurso][1].
+Para obtener más información sobre logs de OCI, consulta [Activación del registro para un recurso][1].
-#### OCI object storage
+#### Almacén de objetos de OCI
-1. En el portal de OCI, ve a *Core Infrastructure -> Object Storage -> Object Storage* (Infraestructura central > Object Storage > Object Storage).
+1. En el portal de OCI, ve a *Core Infrastructure -> Object Storage -> Object Storage* (Infraestructura central > Almacén de objetos > Almacén de objetos).
2. Haz clic en **Create Bucket** (Crear bucket) para acceder al formulario **Create bucket** (Crear bucket).
3. Selecciona **Standard** (Estándar) para tu nivel de almacenamiento y marca **Emit Object Events** (Emitir eventos de objeto).
-4. Rellena el resto del formulario según tus preferencias.
+4. Completa el resto del formulario según tus preferencias.
5. Haz clic en **Create Bucket** (Crear bucket), tu bucket se creará y estará disponible en la lista de buckets.
6. Selecciona tu nuevo bucket en la lista de buckets activos y haz clic en **Logs** en recursos.
-7. Activa **read** (leer), lo que te lleva al menú lateral **Enable Log** (Habilitar log).
+7. Activa **leer**, lo que te dirige a un menú lateral **Habilitar log**.
8. Selecciona un **Compartment** (Compartimento) y un **Log Group** (Grupo de logs) (utiliza las mismas selecciones que en tu log de OCI).
9. Introduce un nombre para el **Log Name** (Nombre de log) y selecciona tu retención de log preferida.
-Para más información sobre OCI Object Storage, consulta [Poner datos en Object Storage][2].
+Para obtener más información sobre OCI Object Storage, consulta [Poner datos en Object Storage][2].
#### Función de OCI
1. En el portal de OCI, ve a *Solutions and Platform -> Developer Services -> Functions* (Soluciones y plataforma > Servicios de desarrollador > Funciones).
2. Selecciona una aplicación existente o haz clic en **Create Application** (Crear aplicación).
3. Crea una nueva función de OCI dentro de tu aplicación. Para más detalles, consulta [Información general de funciones de Oracle][3].
-4. Es recomendado para crear una función boilerplate de Python primero y reemplazar los archivos autogenerados con el código fuente de Datadog:
- - Sustituye `func.py` por código del [repositorio de Datadog OCI][4].
- - Sustituye `func.yaml` por el código del [repositorio de Datadog OCI][5]. `DATADOG_TOKEN` y `DATADOG_HOST` deben sustituirse por tu clave de API de Datadog y el enlace de entrada de logs de la región.
- - Sustituye `requirements.txt` por código del [repositorio de Datadog OCI][6].
+4. Se recomienda crear primero una función boilerplate en Python y sustituir los archivos generados automáticamente por el código fuente de Datadog:
+ - Sustituye `func.py` por el código del [repositorio de OCI de Datadog][4]
+ - Sustituye `func.yaml` por el código del [repositorio de OCI de Datadog][5]. `DATADOG_TOKEN` y `DATADOG_HOST` deben sustituirse por tu clave de API Datadog y el enlace de admisión de logs de la región
+ - Sustituye `requirements.txt` por el código del [repositorio de OCI de Datadog][6]
#### Evento de OCI
1. En el portal de OCI, ve a *Solutions and Platform -> Application Integration -> Event Service* (Soluciones y plataforma > Integración de aplicaciones > Servicio de eventos).
2. Haz clic en **Create Rule** (Crear regla) para acceder a la página **Create Rule** (Crear regla).
3. Asigna un nombre y una descripción a tu regla de evento.
-4. Establece tu condición como **Event Type** (Tipo de evento), el nombre de servicio como **Object Storage** y el tipo de evento como **Object - Create** (Objeto: crear).
+4. Establece tu condición como **Tipo de evento**, el nombre de servicio como **Almacén de objetos** y el tipo de evento como **Objeto - Crear**.
5. Establece tu tipo de acción como **Functions** (Funciones).
6. Asegúrate de que tu compartimento de función sea la misma selección que hiciste para Log de OCI, Bucket de OCI y Función de OCI.
-7. Selecciona tu aplicación de función y función (según el paso de instalación anterior).
+7. Selecciona tu aplicación y función (según el paso de instalación anterior).
8. Haz clic en **Create Rule** (Crear regla), tu regla se creará y estará disponible en la lista de reglas.
Para más información sobre OCI Object Storage, consulta [Empezando con eventos][7].
@@ -386,13 +485,123 @@ Para más información sobre OCI Object Storage, consulta [Empezando con eventos
[6]: https://github.com/DataDog/Oracle_Logs_Integration/blob/master/Object%20Store/requirements.txt
[7]: https://docs.cloud.oracle.com/iaas/Content/Events/Concepts/eventsgetstarted.htm
{{% /tab %}}
+
+{{< /tabs >}}
+
+### Recopilación de recursos
+
+En la pestaña **Recopilación de recursos** del [ícono de integración de OCI de Datadog][1], haz clic en el conmutador **Habilitar recopilación de recursos**. Los recursos son visibles en el [Catálogo de recursos de Datadog][60].
+
+## Arquitectura
+
+{{< tabs >}}
+
+{{% tab "OCI QuickStart (Preview; recommended)" %}}
+
+### Recursos de reenvío de métricas y logs
+
+![Un diagrama de los recursos de reenvío de métricas y logs de OCI mencionados para esta opción de configuración y que muestra el flujo de datos][1].
+
+Para cada región monitorizada, esta opción de configuración crea la siguiente infraestructura dentro de esa región para reenviar métricas y logs a Datadog:
+
+- Aplicación de funciones (`dd-function-app`)
+- Dos funciones:
+ - Reenvío de métricas (`dd-metrics-forwarder`)
+ - Reenvío de logs (`dd-logs-forwarder`)
+- VCN (`dd-vcn`) con infraestructura de red segura:
+ - Subred privada (`dd-vcn-private-subnet`)
+ - Puerta NAT (`dd-vcn-natgateway`) para acceso externo a Internet
+ - Puerta de servicios (`dd-vcn-servicegateway`) para el acceso interno a los servicios OCI
+- Vault del Servicio de Gestión de Claves (KMS) (`datadog-vault`) para almacenar la clave de la API Datadog
+- Compartimento dedicado **Datadog** (`Datadog`)
+
+Todos los recursos están etiquetados con `ownedby = "datadog"`.
+
+### Recursos de IAM
+
+![Un diagrama de los recursos OCI IAM mencionados para esta opción de configuración y que muestra el flujo de datos][2].
+
+Esta opción de configuración crea los siguientes recursos IAM para habilitar el reenvío de datos a Datadog:
+
+- Usuario del servicio (`dd-svc`)
+- Grupo (`dd-svc-admin`) al que pertenece el usuario del servicio
+- Par de claves RSA para la autenticación de la API
+- Clave de la API OCI para el usuario del servicio
+- Grupo dinámico (`dd-dynamic-group-connectorhubs`) que incluye todos los conectores de servicio del compartimento Datadog
+- Grupo dinámico (`dd-dynamic-group-function`) que incluye todas las funciones del compartimento de Datadog
+- Política (`dd-svc-policy`) para dar al usuario del servicio acceso de lectura a los recursos de la tenencia y acceso para gestionar OCI Service Connector Hubs y OCI Functions en el compartimento creado y gestionado por Datadog
+{{% collapse-content title="Consultar la política" level="h6" %}}
+```text
+- Permitir que dd-svc-admin lea todos los recursos en tenencia
+- Permitir que dd-svc-admin gestione conectores de servicios en el compartimento Datadog
+- Permitir que dd-svc-admin gestione una familia de funciones en el compartimento Datadog con permisos específicos:
+ * FN_FUNCIÓN_ACTUALIZACIÓN
+ * FN_FUNCIÓN_LISTA
+ * FN_APLICACIONES_LISTA
+- Autorizar a dd-svc-admin a leer objetos en el informe de uso de la tenencia
+```
+{{% /collapse-content %}}
+
+- Política `dd-dynamic-group-policy` para permitir que los conectores de servicio lean datos (logs y métricas) e interactúen con las funciones. Esta política también permite que las funciones lean secretos en el compartimento Datadog (la API Datadog y las claves de aplicaciones almacenadas en el vault de KMS).
+
+{{% collapse-content title="Consultar la política" level="h6" %}}
+```text
+ - Allow dd-dynamic-group-connectorhubs to read log-content in tenancy
+ - Allow dd-dynamic-group-connectorhubs to read metrics in tenancy
+ - Allow dd-dynamic-group-connectorhubs to use fn-function in Datadog compartment
+ - Allow dd-dynamic-group-connectorhubs to use fn-invocation in Datadog compartment
+ - Allow dd-dynamic-group-functions to read secret-bundles in Datadog compartment
+```
+{{% /collapse-content %}}
+
+[1]: images/oci_quickstart_infrastructure_diagram.png
+[2]: images/oci_quickstart_iam_diagram.png
+{{% /tab %}}
+
+{{% tab "Manual setup" %}}
+
+### Recursos de reenvío de métricas
+
+![Diagrama de los recursos OCI mencionados para esta opción de configuración y visualización del flujo de datos][1].
+
+Esta opción de configuración crea un [hub de conectores][2] OCI, una [aplicación de función][3] y una infraestructura de red segura para reenviar métricas OCI a Datadog. El stack tecnológico de ORM para estos recursos crea un repositorio de contenedor de función para la región en la tenencia y la imagen Docker se envía a este para ser utilizada por la función.
+
+### Recursos de IAM
+
+![Diagrama de los recursos OCI y flujo de trabajo utilizados para la autenticación de la integración][4]
+
+Esta opción de configuración crea:
+
+- Grupo dinámico con `resource.type = 'serviceconnectors'`, para permitir el acceso al hub de conectores
+- Usuario denominado **DatadogROAuthUser**, que Datadog utiliza para leer los recursos de la tenencia.
+- Grupo al que se añade el usuario creado para el acceso a la política
+- Usuario llamado **DatadogAuthWriteUser**, que se utiliza para insertar imágenes Docker para la función
+- Grupo de acceso de escritura al que se añade `DatadogAuthWriteUser`, para insertar imágenes a través de la política de acceso
+- Política en el compartimento raíz para permitir que los hubs de conectores lean métricas e invoquen funciones. Esta política también otorga al grupo de usuarios creado acceso de lectura tanto a los recursos de tenencia como al grupo de acceso de escritura, para insertar imágenes
+
+{{% collapse-content title="Consultar la política" level="h6" %}}
+```text
+Allow dynamic-group Default/ to read metrics in tenancy
+Allow dynamic-group Default/ to use fn-function in tenancy
+Allow dynamic-group Default/ to use fn-invocation in tenancy
+Allow group Default/ to read all-resources in tenancy
+Allow group Default/ to manage repos in tenancy where ANY {request.permission = 'REPOSITORY_READ', request.permission = 'REPOSITORY_UPDATE', request.permission = 'REPOSITORY_CREATE'}
+```
+{{% /collapse-content %}}
+
+[1]: images/OCI_metrics_integration_diagram.png
+[2]: https://docs.oracle.com/iaas/Content/connector-hub/home.htm
+[3]: https://docs.oracle.com/iaas/Content/Functions/Concepts/functionsconcepts.htm#applications
+[4]: images/OCI_auth_workflow_diagram.png
+{{% /tab %}}
+
{{< /tabs >}}
## Datos recopilados
### Métricas
-{{< get-metrics-from-git "oracle-cloud-infrastructure" >}}
+Consulta [metadata.csv][61] para obtener una lista de las métricas proporcionadas por esta integración.
### Checks de servicio
@@ -402,68 +611,79 @@ La integración de OCI no incluye ningún check de servicio.
La integración de OCI no incluye ningún evento.
-## Resolución de problemas
+## Solucionar problemas
-¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][53].
+¿Necesitas ayuda? Ponte en contacto con [Asistencia técnica de Datadog][62].
-## Para leer más
+## Referencias adicionales
-Más enlaces, artículos y documentación útiles:
+Documentación útil adicional, enlaces y artículos:
-- [Monitorizar Oracle Cloud Infrastructure con Datadog][54]
+- [Monitoriza Oracle Cloud Infrastructure con Datadog][63]
+- [Acelerar la monitorización de Oracle Cloud Infrastructure con Datadog OCI QuickStart][64]
[1]: https://app.datadoghq.com/integrations/oracle-cloud-infrastructure
-[2]: https://cloud.oracle.com/tenancy
-[3]: https://docs.oracle.com/iaas/Content/General/Concepts/regions.htm
-[4]: https://docs.oracle.com/en/cloud/paas/weblogic-container/user/create-dynamic-groups-and-policies.html
-[5]: images/add_api_key.png
-[6]: https://app.datadoghq.com/organization-settings/api-keys
-[7]: https://docs.oracle.com/iaas/Content/Registry/Tasks/registrygettingauthtoken.htm
-[8]: https://docs.oracle.com/en-us/iaas/Content/Registry/Concepts/registrypolicyrepoaccess.htm#Policies_to_Control_Repository_Access
-[9]: https://docs.oracle.com/iaas/Content/Functions/Tasks/functionslogintoocir.htm
-[10]: https://docs.oracle.com/iaas/Content/Security/Reference/resourcemanager_security.htm#confidentiality__terraform-state
-[11]: https://app.datadoghq.com/dash/integration/31417/oracle-cloud-infrastructure-oci-overview
-[12]: https://app.datadoghq.com/metric/explorer
-[13]: https://cloud.oracle.com/connector-hub/service-connectors
-[14]: images/OCI_metrics_integration_diagram.png
-[15]: https://docs.oracle.com/iaas/Content/connector-hub/home.htm
-[16]: https://docs.oracle.com/iaas/Content/Functions/Concepts/functionsconcepts.htm#applications
-[17]: images/OCI_auth_workflow_diagram.png
-[18]: https://app.datadoghq.com/integrations/oci-autonomous-database
-[19]: https://docs.oracle.com/iaas/autonomous-database-serverless/doc/autonomous-monitor-metrics-list.html
-[20]: https://docs.oracle.com/iaas/Content/Block/References/volumemetrics.htm
-[21]: https://app.datadoghq.com/integrations/oci-compute
-[22]: https://docs.oracle.com/iaas/Content/Compute/References/computemetrics.htm#Availabl
-[23]: https://docs.oracle.com/iaas/Content/Compute/References/computemetrics.htm#computemetrics_topic-Available_Metrics_oci_compute_rdma_network
-[24]: https://docs.oracle.com/iaas/Content/Compute/References/computemetrics.htm#computemetrics_topic-Available_Metrics_oci_high_performance_compute
-[25]: https://docs.oracle.com/iaas/Content/Compute/References/infrastructurehealthmetrics.htm
-[26]: https://app.datadoghq.com/integrations/oci-container-instances
-[27]: https://docs.oracle.com/iaas/Content/container-instances/container-instance-metrics.htm
-[28]: https://app.datadoghq.com/integrations/oci-database
-[29]: https://docs.oracle.com/iaas/base-database/doc/available-metrics-base-database-service-resources.html#DBSCB-GUID-57B7B9B1-288B-4DCB-82AE-D53B2BD9C78F
-[30]: https://docs.oracle.com/iaas/base-database/doc/available-metrics-base-database-service-resources.html#DBSCB-GUID-A42CF0E3-EE65-4A66-B8A3-C89B62AFE489
-[31]: https://docs.oracle.com/iaas/Content/Network/Reference/drgmetrics.htm
-[32]: https://docs.oracle.com/iaas/Content/Network/Reference/fastconnectmetrics.htm
-[33]: https://docs.oracle.com/iaas/Content/File/Reference/filemetrics.htm
-[34]: https://app.datadoghq.com/integrations/oci-functions
-[35]: https://docs.oracle.com/iaas/Content/Functions/Reference/functionsmetrics.htm
-[36]: https://app.datadoghq.com/integrations/oci-mysql-database
-[37]: https://docs.oracle.com/iaas/mysql-database/doc/metrics.html
-[38]: https://docs.oracle.com/iaas/Content/ContEng/Reference/contengmetrics.htm
-[39]: https://app.datadoghq.com/integrations/oci-load-balancer
-[40]: https://docs.oracle.com/iaas/Content/Balance/Reference/loadbalancermetrics.htm
-[41]: https://docs.oracle.com/iaas/Content/NetworkLoadBalancer/Metrics/metrics.htm
-[42]: https://app.datadoghq.com/integrations/oci-nat-gateway
-[43]: https://docs.oracle.com/iaas/Content/Network/Reference/nat-gateway-metrics.htm
-[44]: https://docs.oracle.com/iaas/Content/Object/Reference/objectstoragemetrics.htm
-[45]: https://docs.oracle.com/iaas/Content/queue/metrics.htm
-[46]: https://docs.oracle.com/iaas/Content/connector-hub/metrics-reference.htm
-[47]: https://docs.oracle.com/iaas/Content/Network/Reference/SGWmetrics.htm
-[48]: https://app.datadoghq.com/integrations/oci-vcn
-[49]: https://docs.oracle.com/iaas/Content/Network/Reference/vnicmetrics.htm
-[50]: https://app.datadoghq.com/integrations/oci-vpn
-[51]: https://docs.oracle.com/iaas/Content/Network/Reference/ipsecmetrics.htm
-[52]: https://docs.oracle.com/iaas/Content/WAF/Reference/metricsalarms.htm
-[53]: https://docs.datadoghq.com/es/help/
-[54]: https://www.datadoghq.com/blog/monitor-oci-with-datadog/
\ No newline at end of file
+[2]: https://app.datadoghq.com/dash/integration/31417/oracle-cloud-infrastructure-oci-overview
+[3]: https://app.datadoghq.com/metric/explorer
+[4]: images/oci_configuration_tab.png
+[5]: https://docs.datadoghq.com/es/integrations/oci_api_gateway/
+[6]: https://docs.oracle.com/iaas/Content/APIGateway/Reference/apigatewaymetrics.htm
+[7]: https://docs.datadoghq.com/es/integrations/oci_autonomous_database/
+[8]: https://docs.oracle.com/iaas/autonomous-database-serverless/doc/autonomous-monitor-metrics-list.html
+[9]: https://docs.datadoghq.com/es/integrations/oci_block_storage/
+[10]: https://docs.oracle.com/iaas/Content/Block/References/volumemetrics.htm
+[11]: https://docs.datadoghq.com/es/integrations/oci_compute/
+[12]: https://docs.oracle.com/iaas/Content/Compute/References/computemetrics.htm#Availabl
+[13]: https://docs.oracle.com/iaas/Content/Compute/References/computemetrics.htm#computemetrics_topic-Available_Metrics_oci_compute_rdma_network
+[14]: https://docs.oracle.com/iaas/Content/Compute/References/computemetrics.htm#computemetrics_topic-Available_Metrics_oci_high_performance_compute
+[15]: https://docs.oracle.com/iaas/Content/Compute/References/infrastructurehealthmetrics.htm
+[16]: https://docs.datadoghq.com/es/integrations/oci_container_instances/
+[17]: https://docs.oracle.com/iaas/Content/container-instances/container-instance-metrics.htm
+[18]: https://docs.datadoghq.com/es/integrations/oci_database/
+[19]: https://docs.oracle.com/iaas/base-database/doc/available-metrics-base-database-service-resources.html#DBSCB-GUID-57B7B9B1-288B-4DCB-82AE-D53B2BD9C78F
+[20]: https://docs.oracle.com/iaas/base-database/doc/available-metrics-base-database-service-resources.html#DBSCB-GUID-A42CF0E3-EE65-4A66-B8A3-C89B62AFE489
+[21]: https://docs.oracle.com/iaas/Content/Network/Reference/drgmetrics.htm
+[22]: https://docs.datadoghq.com/es/integrations/oci_ebs/
+[23]: https://docs.oracle.com/iaas/stack-monitoring/doc/metric-reference.html#STMON-GUID-4E859CA3-1CAB-43FB-8DC7-0AA17E6B52EC
+[24]: https://docs.datadoghq.com/es/integrations/oci_fastconnect/
+[25]: https://docs.oracle.com/iaas/Content/Network/Reference/fastconnectmetrics.htm
+[26]: https://docs.datadoghq.com/es/integrations/oci_file_storage/
+[27]: https://docs.oracle.com/iaas/Content/File/Reference/filemetrics.htm
+[28]: https://docs.datadoghq.com/es/integrations/oci_functions/
+[29]: https://docs.oracle.com/iaas/Content/Functions/Reference/functionsmetrics.htm
+[30]: https://docs.datadoghq.com/es/integrations/oci_gpu/
+[31]: https://docs.datadoghq.com/es/integrations/oci_mysql_database/
+[32]: https://docs.oracle.com/iaas/mysql-database/doc/metrics.html
+[33]: https://docs.datadoghq.com/es/integrations/oke/
+[34]: https://docs.oracle.com/iaas/Content/ContEng/Reference/contengmetrics.htm
+[35]: https://docs.datadoghq.com/es/integrations/oci_load_balancer/
+[36]: https://docs.oracle.com/iaas/Content/Balance/Reference/loadbalancermetrics.htm
+[37]: https://docs.oracle.com/iaas/Content/NetworkLoadBalancer/Metrics/metrics.htm
+[38]: https://docs.datadoghq.com/es/integrations/oci_media_streams/
+[39]: https://docs.oracle.com/iaas/Content/dms-mediastream/mediastreams_metrics.htm?
+[40]: https://docs.datadoghq.com/es/integrations/oci_nat_gateway/
+[41]: https://docs.oracle.com/iaas/Content/Network/Reference/nat-gateway-metrics.htm
+[42]: https://docs.datadoghq.com/es/integrations/oci_network_firewall/
+[43]: https://docs.oracle.com/iaas/Content/network-firewall/metrics.htm
+[44]: https://docs.datadoghq.com/es/integrations/oci_object_storage/
+[45]: https://docs.oracle.com/iaas/Content/Object/Reference/objectstoragemetrics.htm
+[46]: https://docs.datadoghq.com/es/integrations/oci_postgresql/
+[47]: https://docs.oracle.com/iaas/Content/postgresql/metrics.htm
+[48]: https://docs.datadoghq.com/es/integrations/oci_queue/
+[49]: https://docs.oracle.com/iaas/Content/queue/metrics.htm
+[50]: https://docs.datadoghq.com/es/integrations/oci_service_connector_hub/
+[51]: https://docs.oracle.com/iaas/Content/connector-hub/metrics-reference.htm
+[52]: https://docs.datadoghq.com/es/integrations/oci_service_gateway/
+[53]: https://docs.oracle.com/iaas/Content/Network/Reference/SGWmetrics.htm
+[54]: https://docs.datadoghq.com/es/integrations/oci_vcn/
+[55]: https://docs.oracle.com/iaas/Content/Network/Reference/vnicmetrics.htm
+[56]: https://docs.datadoghq.com/es/integrations/oci_vpn/
+[57]: https://docs.oracle.com/iaas/Content/Network/Reference/ipsecmetrics.htm
+[58]: https://docs.datadoghq.com/es/integrations/oci_waf/
+[59]: https://docs.oracle.com/iaas/Content/WAF/Reference/metricsalarms.htm
+[60]: https://docs.datadoghq.com/es/infrastructure/resource_catalog/
+[61]: https://github.com/DataDog/integrations-internal-core/blob/main/oracle_cloud_infrastructure/metadata.csv
+[62]: https://docs.datadoghq.com/es/help/
+[63]: https://www.datadoghq.com/blog/monitor-oci-with-datadog/
+[64]: https://www.datadoghq.com/blog/datadog-oci-quickstart/
\ No newline at end of file
diff --git a/content/es/integrations/pagerduty.md b/content/es/integrations/pagerduty.md
index 31e7fb7732b91..66f24413b7d92 100644
--- a/content/es/integrations/pagerduty.md
+++ b/content/es/integrations/pagerduty.md
@@ -1,55 +1,44 @@
---
+app_id: pagerduty
categories:
- collaboration
- incidents
- notifications
-custom_kind: integration
-dependencies: []
-description: Generar alertas PagerDuty a partir de métricas y eventos de Datadog
-doc_link: https://docs.datadoghq.com/integrations/pagerduty/
-draft: false
+custom_kind: integración
+description: PagerDuty añade alertas por teléfono y SMS a tus herramientas de monitorización
+ existentes.
further_reading:
- link: https://www.datadoghq.com/blog/mobile-incident-management-datadog/
- tag: Blog
- text: Gestionar los incidentes sobre la marcha con la aplicación móvil de Datadog
+ tag: blog
+ text: Gestionar incidentes sobre la marcha con la aplicación móvil Datadog
- link: https://www.datadoghq.com/blog/how-pagerduty-deploys-safely-with-datadog/
- tag: Blog
- text: Para desplegar PagerDuty de forma segura con Datadog
+ tag: blog
+ text: Cómo se despliega PagerDuty de forma segura con Datadog
- link: https://docs.datadoghq.com/tracing/service_catalog/integrations/#pagerduty-integration
- tag: Blog
- text: Uso de integraciones con el catálogo de servicios
+ tag: blog
+ text: Blog de PagerDuty
- link: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/integration_pagerduty
- tag: Terraform
- text: Crear y gestionar la integración Pagerduty en Datadog con Terraform
-git_integration_title: pagerduty
-has_logo: true
-integration_id: ''
-integration_title: PagerDuty
-integration_version: ''
-is_public: true
-manifest_version: '1.0'
-name: pagerduty
-public_title: Integración de PagerDuty en Datadog
-short_description: Generar alertas PagerDuty a partir de métricas y eventos de Datadog
-version: '1.0'
+ tag: otros
+ text: PagerDuty
+media: []
+title: PagerDuty
---
-
-
{{< site-region region="gov" >}}
-La integración de PagerDuty en Datadog tiene soporte limitado en el sitio de Datadog para el gobierno. La integración del catálogo de servicios y la resolución automática de la Gestión de Incidentes y la Automatización de flujos (flows) de trabajo no son compatibles.
+
+La integración de PagerDuty en Datadog tiene soporte limitado en el sitio de Datadog para el gobierno. La integración del catálogo de servicios y la resolución automática de la Gestión de Incidentes y la Automatización de flujos de trabajo no son compatibles.
{{< /site-region >}}
## Información general
Conecta PagerDuty a Datadog para:
-- Activar y resolver incidentes de tu flujo mencionando `@pagerduty` en tu mensaje
+- Activar y resolver incidentes de tu flujo (stream) mencionando `@pagerduty` en tu mensaje
- Visualizar los incidentes y las escaladas en tu flujo a medida que se producen
- Recibir un recordatorio diario de quién está de guardia
## Configuración
-Consulta la [guía de la integración en Datadog][1] de Pagerduty.
+Consulta la [guía de integración de Datadog](http://www.pagerduty.com/docs/guides/datadog-integration-guide) de PagerDuty.
{{< site-region region="us" >}}
Una vez que tengas Pagerduty integrado, puedes verificar tendencias personalizadas de incidentes de PagerDuty.
@@ -63,13 +52,13 @@ La integración de PagerDuty no incluye métricas.
### Eventos
-Tus eventos PagerDuty activados/resueltos aparecen en el [Explorador de eventos][2].
+Tus eventos de PagerDuty activados/resueltos aparecen en el [Explorador de eventos](https://docs.datadoghq.com/events/explorer/).
### Checks de servicio
La integración de PagerDuty no incluye checks de servicio.
-## Resolución de problemas
+## Solucionar problemas
### Enviar una notificación a un servicio de PagerDuty específico
@@ -98,9 +87,6 @@ Por ejemplo, si el monitor pasa de `OK` a `WARNING` y notifica un `@pagerduty-[s
Datadog tiene un límite superior para la longitud de los notificaciones del monitor enviadas a PagerDuty. El límite es de **1024 caracteres**.
-## Leer más
-
-{{< partial name="whats-next/whats-next.html" >}}
+## Referencias adicionales
-[1]: http://www.pagerduty.com/docs/guides/datadog-integration-guide
-[2]: https://docs.datadoghq.com/es/events/explorer/
\ No newline at end of file
+{{< partial name="whats-next/whats-next.html" >}}
\ No newline at end of file
diff --git a/content/es/integrations/papertrail.md b/content/es/integrations/papertrail.md
index 54f2096682e24..4935a8f8b2b77 100644
--- a/content/es/integrations/papertrail.md
+++ b/content/es/integrations/papertrail.md
@@ -1,55 +1,16 @@
---
app_id: papertrail
-app_uuid: 630c6ff6-e853-4ef7-8be4-371a55269208
-assets:
- integration:
- auto_install: true
- events:
- creates_events: true
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 147
- source_type_name: PaperTrail
-author:
- homepage: https://www.datadoghq.com
- name: Datadog
- sales_email: info@datadoghq.com
- support_email: help@datadoghq.com
categories:
- event management
- notifications
custom_kind: integración
-dependencies: []
-display_on_public_website: true
-draft: false
-git_integration_title: papertrail
-integration_id: papertrail
-integration_title: Papertrail
-integration_version: ''
-is_public: true
-manifest_version: 2.0.0
-name: papertrail
-public_title: Papertrail
-short_description: Visualiza, realiza búsquedas y discute sobre logs de Papertrail
- en tu flujo (stream) de eventos de Datadog.
-supported_os: []
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Category::Gestión de eventos
- - Category::Notificaciones
- - Offering::Integración
- configuration: README.md#Configuración
- description: Visualiza, realiza búsquedas y discute sobre logs de Papertrail en
- tu flujo de eventos de Datadog.
- media: []
- overview: README.md#Información general
- support: README.md#Soporte
- title: Papertrail
+description: Visualiza, realiza búsquedas y discute sobre logs de Papertrail en tu
+ flujo (stream) de eventos de Datadog.
+integration_version: 1.0.0
+media: []
+title: Papertrail
---
-
-
-![Ejemplo de Papertrail][1]
+
## Información general
@@ -64,16 +25,19 @@ Utiliza Papertrail y Datadog para:
Para capturar métricas de Papertrail:
-1. En el [visor de eventos][2] de Papertrail, guarda una búsqueda de los eventos de logs que deben ser graficados.
-2. Ingresa el nombre de la búsqueda y haz clic en el botón **Save & Setup an Alert** (Guardar y configurar una alerta).
-3. En Gráficas y métricas, elige Datadog.
- ![Notificaciones de Papertrail][3]
+1. En el [visor de eventos](https://papertrailapp.com/events) de Papertrail, guarda una búsqueda de los evento de log que deben ser graficados.
+
+1. Ingresa el nombre de la búsqueda y haz clic en el botón **Save & Setup an Alert** (Guardar y configurar una alerta).
+
+1. En Gráficas y métricas, elige Datadog.
+ 
-4. Elige la frecuencia de tus alertas y otros detalles.
-5. Proporciona tu clave de API Datadog, introduce el nombre elegido para tu métrica y, opcionalmente, introduce algunas etiquetas (tags) para asociar a la métrica.
- ![Notificaciones de Papertrail][4]
+1. Elige la frecuencia de tus alertas y otros detalles.
-6. Haz clic en el botón **Create Alert** (Crear alerta).
+1. Proporciona tu clave de API Datadog, introduce el nombre elegido para tu métrica y, opcionalmente, introduce algunas etiquetas (tags) para asociar a la métrica.
+ 
+
+1. Haz clic en el botón **Create Alert** (Crear alerta).
Papertrail actualiza Datadog según el intervalo elegido.
@@ -97,10 +61,4 @@ La integración de Papertrail no incluye checks de servicio.
## Solucionar problemas
-¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][5].
-
-[1]: images/papertrailexample.png
-[2]: https://papertrailapp.com/events
-[3]: images/papertrailnotify.png
-[4]: images/papertraildetails.png
-[5]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/).
\ No newline at end of file
diff --git a/content/es/integrations/php.md b/content/es/integrations/php.md
index c940dca5a54e0..4f2d0e6cd07a5 100644
--- a/content/es/integrations/php.md
+++ b/content/es/integrations/php.md
@@ -1,69 +1,49 @@
---
+app_id: php
categories:
- languages
- log collection
- tracing
-custom_kind: integration
-dependencies: []
-description: Recopila métricas, trazas, logs y datos de perfil de tus aplicaciones PHP.
-doc_link: https://docs.datadoghq.com/integrations/php/
-draft: false
+custom_kind: integración
+description: Recopila métricas, trazas (traces) y logs de tus aplicaciones PHP.
further_reading:
- link: https://www.datadoghq.com/blog/monitor-php-performance/
- tag: Blog
- text: Monitorización de PHP con Datadog APM y rastreo distribuido.
+ tag: blog
+ text: Monitorización PHP con Datadog APM y rastreo distribuido
- link: https://www.datadoghq.com/blog/php-logging-guide/
- tag: Blog
- text: Cómo recopilar, personalizar y analizar logs de PHP.
-git_integration_title: php
-has_logo: true
-integration_id: php
-integration_title: PHP
-integration_version:
-is_public: true
-manifest_version: 1.0
-name: php
-public_title: Integración de Datadog y PHP
-short_description: Recopila métricas, trazas, logs y datos de perfil de tus aplicaciones PHP.
-version: 1.0
+ tag: blog
+ text: 'Generación de logs PHP: cómo recopilar, personalizar y analizar logs PHP'
+media: []
+title: PHP
---
-
-
## Información general
-La integración de Datadog y PHP te permite recopilar y monitorizar logs, trazas (traces) y métricas personalizadas de tu aplicación de PHP.
+La integración de Datadog y PHP te permite recopilar y monitorizar logs, trazas y métricas personalizadas de tu aplicación PHP.
## Configuración
### Recopilación de métricas
-Consulta la documentación dedicada a [recopilar métricas personalizadas de PHP con DogStatsD][1].
+Consulta la documentación exclusiva para [recopilar métricas personalizadas de PHP con DogStatsD](https://docs.datadoghq.com/developers/dogstatsd/?tab=php).
### Recopilación de trazas
-Consulta la documentación dedicada a [instrumentar tu aplicación PHP][2] para enviar sus trazas (traces) a Datadog.
+Consulta la documentación exclusiva para [instrumentar tu aplicación PHP](https://docs.datadoghq.com/tracing/setup/php/) para enviar tus trazas a Datadog.
-### APM
+### Recopilación de logs
*Disponible para Agent v6.0+*
-Consulta la documentación específica sobre cómo [configurar la recopilación de logs de PHP][3] para reenviar tus logs a Datadog.
+Consulta la documentación exclusiva sobre cómo [configurar la recopilación de logs PHP](https://docs.datadoghq.com/logs/log_collection/php/) para reenviar tus logs a Datadog.
### Recopilación de perfiles
-Consulta la documentación específica para [activar el perfilador PHP][4].
-
-## Resolución de problemas
-
-¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][5].
+Consulta la documentación exclusiva para [habilitar el generador de perfiles PHP](https://docs.datadoghq.com/profiler/enabling/php/).
-## Leer más
+## Solucionar problemas
-{{< partial name="whats-next/whats-next.html" >}}
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/).
-[1]: https://docs.datadoghq.com/developers/dogstatsd/?tab=php
-[2]: https://docs.datadoghq.com/tracing/setup/php/
-[3]: https://docs.datadoghq.com/logs/log_collection/php/
-[4]: https://docs.datadoghq.com/profiler/enabling/php/
-[5]: https://docs.datadoghq.com/help/
+## Referencias adicionales
+{{< partial name="whats-next/whats-next.html" >}}
\ No newline at end of file
diff --git a/content/es/integrations/ping.md b/content/es/integrations/ping.md
index 002186ee24be4..83ac4f8744299 100644
--- a/content/es/integrations/ping.md
+++ b/content/es/integrations/ping.md
@@ -1,72 +1,24 @@
---
app_id: ping
-app_uuid: 841c9313-628f-4861-ad0b-2d12c37ee571
-assets:
- integration:
- auto_install: true
- configuration: {}
- events:
- creates_events: false
- metrics:
- check: network.ping.response_time
- metadata_path: metadata.csv
- prefix: red.
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 10200
- source_type_name: Ping
-author:
- homepage: https://github.com/DataDog/integrations-extras
- name: Comunidad
- sales_email: jim.stanton@datadoghq.com
- support_email: jim.stanton@datadoghq.com
categories:
- herramientas de desarrollo
- la red
-custom_kind: integration
-dependencies:
-- https://github.com/DataDog/integrations-extras/blob/master/ping/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: ping
-integration_id: ping
-integration_title: Ping
+custom_kind: integración
+description: Monitoriza la conectividad a hosts remotos.
integration_version: 1.0.2
-is_public: true
-manifest_version: 2.0.0
-name: ping
-public_title: Ping
-short_description: Monitoriza la conectividad a hosts remotos.
+media: []
supported_os:
- Linux
- Windows
- macOS
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Categoría::Herramientas de desarrollo
- - Categoría::Red
- - Sistema operativo compatible::Linux
- - Sistema operativo compatible::Windows
- - Sistema operativo compatible::macOS
- - Oferta::Integración
- configuration: README.md#Configuración
- description: Monitoriza la conectividad a hosts remotos.
- media: []
- overview: README.md#Información general
- support: README.md#Soporte
- title: Ping
+title: Ping
---
-
-
-
-
## Información general
-Este check utiliza el comando [ping][1] del sistema para comprobar la accesibilidad de un host.
+Este check utiliza el comando [ping](https://en.wikipedia.org/wiki/Ping_%28networking_utility%29) del sistema para comprobar la accesibilidad de un host.
También mide opcionalmente el tiempo de ida y vuelta de los mensajes enviados desde el check al host de destino.
-El ping funciona enviando paquetes de solicitud de eco del Protocolo de mensajes de control de Internet (ICMP) al host de destino y esperando una respuesta de eco ICMP.
+Ping funciona enviando paquetes de solicitud de eco del Protocolo de mensajes de control de Internet (ICMP) al host de destino y esperando una respuesta de eco ICMP.
Este check utiliza el comando ping del sistema, en lugar de generar la solicitud de eco del ICMP, ya que la creación de un paquete ICMP requiere un socket sin procesar. La creación de sockets sin procesar requiere privilegios raíz que el Agent no tiene. El comando ping utiliza el marcador de acceso `setuid` para ejecutarse con privilegios elevados y evitar este inconveniente.
@@ -74,11 +26,11 @@ Este check utiliza el comando ping del sistema, en lugar de generar la solicitud
## Configuración
-El check ping no está incluido en el paquete del [Datadog Agent][2], por lo que es necesario instalarlo.
+El check de Ping no está incluido en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest), por lo que es necesario instalarlo.
### Instalación
-Para versiones 7.21/6.21 o posteriores del Agent, sigue las siguientes instrucciones para instalar el check ping en tu host. Para instalarlo con el Agent Docker o versiones anteriores del Agent, consulta [Uso de integraciones de la comunidad][3].
+Para el Agent v7.21/v6.21 o posteriores, sigue las instrucciones a continuación para instalar el check de Ping en tu host. Consulta [Uso de integraciones comunitarias](https://docs.datadoghq.com/agent/guide/use-community-integrations/) para instalar con el Docker Agent o versiones anteriores del Agent.
1. Ejecuta el siguiente comando para instalar la integración del Agent:
@@ -89,41 +41,51 @@ Para versiones 7.21/6.21 o posteriores del Agent, sigue las siguientes instrucci
# Windows
agent.exe integration install -t datadog-ping==
```
-2. Instala el binario `ping` en función de tu sistema operativo. Por ejemplo, ejecuta el siguiente comando para Ubuntu:
+
+1. Instala el binario `ping` en función de tu sistema operativo. Por ejemplo, ejecuta el siguiente comando para Ubuntu:
+
```shell
apt-get install iputils-ping
```
-3. Configura tu integración como si fuese una [integración][4] de base.
+1. Configura tu integración de forma similar a las [integraciones] centrales (https://docs.datadoghq.com/getting_started/integrations/).
### Configuración
-1. Edita el archivo `ping.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del directorio de configuración del Agent, para empezar a recopilar los datos de rendimiento de tu ping. Para conocer todas las opciones de configuración disponibles, consulta el [ignite.d/conf.yaml de ejemplo][5].
+1. Edita el archivo `ping.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu directorio de configuración del Agent para empezar a recopilar tus datos de rendimiento de Ping. Consulta el [ejemplo ping.d/conf.yaml](https://github.com/DataDog/integrations-extras/blob/master/ping/datadog_checks/ping/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles.
-2. [Reinicia el Agent][6].
+1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
### Validación
-Ejecuta el [subcomando de estado del Agent][7] y busca `ping` en la sección Checks.
+Ejecuta el [subcomando de estado del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#service-status) y busca `ping` en la sección Checks.
## Datos recopilados
### Métricas
-{{< get-metrics-from-git "ping" >}}
+| | |
+| --- | --- |
+| **network.ping.response_time**
(gauge) | Tiempo de respuesta de un host y un puerto de ping determinados, etiquetado con url, por ejemplo, 'host:192.168.1.100'.
_Se muestra como milisegundos_ |
+| **network.ping.can_connect**
(gauge) | Valor de 1 si el Agent puede comunicarse con éxito con el host de destino, 0 en caso contrario|
### Eventos
-El check ping no incluye eventos.
+El check de Ping no incluye eventos.
### Checks de servicio
-{{< get-service-checks-from-git "ping" >}}
+**network.ping.can_connect**
+
+Devuelve CRITICAL si el Agent no puede comunicarse con el host de destino. Devuelve OK si el ping tiene éxito.
+
+_Estados: ok, crítico_
## Solucionar problemas
### Error `SubprocessOutputEmptyError: get_subprocess_output expected output but had none`
-Mientras ejecutas la integración del ping, puedes ver un error como el siguiente:
+
+Mientras ejecutas la integración Ping, puedes ver un error como el siguiente:
```
Traceback (most recent call last):
@@ -138,19 +100,6 @@ Mientras ejecutas la integración del ping, puedes ver un error como el siguient
_util.SubprocessOutputEmptyError: get_subprocess_output expected output but had none.
```
-Debido a que la integración del ping no está incluida por defecto en el Agent, el binario `ping` tampoco está incluido en el Agent. Para poder ejecutar la integración con éxito, debes instalar el binario `ping`.
-
-
-¿Necesitas ayuda? Ponte en contacto con el [equipo de asistencia de Datadog][10].
-
+Debido a que la integración Ping no está incluida por defecto en el Agent, el binario `ping` tampoco está incluido con el Agent. Debes instalar el binario `ping` para poder ejecutar la integración con éxito.
-[1]: https://en.wikipedia.org/wiki/Ping_%28networking_utility%29
-[2]: https://app.datadoghq.com/account/settings/agent/latest
-[3]: https://docs.datadoghq.com/es/agent/guide/use-community-integrations/
-[4]: https://docs.datadoghq.com/es/getting_started/integrations/
-[5]: https://github.com/DataDog/integrations-extras/blob/master/ping/datadog_checks/ping/data/conf.yaml.example
-[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
-[7]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#service-status
-[8]: https://github.com/DataDog/integrations-extras/blob/master/ping/metadata.csv
-[9]: https://github.com/DataDog/integrations-extras/blob/master/ping/assets/service_checks.json
-[10]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/).
\ No newline at end of file
diff --git a/content/es/integrations/pingdom_v3.md b/content/es/integrations/pingdom_v3.md
index 4b5918ca243c1..890faf8e88a0f 100644
--- a/content/es/integrations/pingdom_v3.md
+++ b/content/es/integrations/pingdom_v3.md
@@ -23,7 +23,7 @@ author:
categories:
- métricas
- notificaciones
-custom_kind: integration
+custom_kind: integración
dependencies: []
display_on_public_website: true
draft: false
@@ -66,26 +66,26 @@ Realiza un seguimiento de las métricas de rendimiento de Pingdom basadas en usu
La integración Pingdom V3 actúa de forma similar a la [integración Pingdom en Datadog (obsoleta)][1], pero utiliza la versión 3.1 de la [API Pingdom][2].
-{{< img src="integrations/pingdom/pingdom_dashboard.png" alt="Gráficos de Pingdom en un dashboard de Datadog" popup="true">}}
+![Gráficos Pingdom en un dashboard de Datadog][3]
## Configuración
### Generar token de API
-1. Inicia sesión en tu [cuenta de Pingdom][3].
+1. Inicia sesión en tu [cuenta de Pingdom][4].
2. Ve a Settings > Pingdom API (Configuración > API Pingdom).
3. Haz clic en Add API token (Añadir token de API). Dale un nombre y permisos de lectura-escritura al token. Guarda el token en algún sitio, ya que no podrás volver a acceder a él.
### Instalación y configuración
-1. Abre el [cuadro de la integración Pingdom V3][4].
+1. Abre el [cuadro de integración de Pingdom V3][5].
2. Introduce el nombre y el token de API en los campos correspondientes. Las métricas y los checks configurados en Pingdom se recopilan en Datadog.
3. Administra etiquetas (tags) de checks en Pingdom. Las etiquetas añadidas a un check en Pingdom se añaden automáticamente a un check en Datadog. Excluya checks añadiendo la etiqueta `datadog-exclude`.
## Datos recopilados
### Métricas
-{{< get-metrics-from-git "pingdom-v3" >}}
+{{< get-metrics-from-git "pingdom_v3" >}}
### Eventos
@@ -107,11 +107,12 @@ En el caso del check `pingdom.status`, los resultados de los checks de transacci
## Solucionar problemas
-¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][6].
+¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][7].
[1]: https://docs.datadoghq.com/es/integrations/pingdom/
[2]: https://docs.pingdom.com/api/
-[3]: https://my.pingdom.com/
-[4]: https://app.datadoghq.com/account/settings#integrations/pingdom-v3
-[5]: https://github.com/DataDog/integrations-internal-core/blob/main/pingdom/metadata.csv
-[6]: https://docs.datadoghq.com/es/help
\ No newline at end of file
+[3]: images/pingdom_dashboard.png
+[4]: https://my.pingdom.com/
+[5]: https://app.datadoghq.com/account/settings#integrations/pingdom-v3
+[6]: https://github.com/DataDog/integrations-internal-core/blob/main/pingdom/metadata.csv
+[7]: https://docs.datadoghq.com/es/help
\ No newline at end of file
diff --git a/content/es/integrations/pivotal.md b/content/es/integrations/pivotal.md
index 4743d7ba99063..411075dcfd0b4 100644
--- a/content/es/integrations/pivotal.md
+++ b/content/es/integrations/pivotal.md
@@ -1,62 +1,22 @@
---
-"app_id": "pivotal"
-"app_uuid": "c28e887f-43e0-4b99-aa2b-3f02d4f10763"
-"assets":
- "integration":
- "auto_install": false
- "events":
- "creates_events": true
- "service_checks":
- "metadata_path": "assets/service_checks.json"
- "source_type_id": !!int "9"
- "source_type_name": "Pivotal"
-"author":
- "homepage": "https://www.datadoghq.com"
- "name": "Datadog"
- "sales_email": "info@datadoghq.com"
- "support_email": "help@datadoghq.com"
-"categories":
-- "collaboration"
-- "issue tracking"
-"custom_kind": "integration"
-"dependencies": []
-"display_on_public_website": true
-"draft": false
-"git_integration_title": "pivotal"
-"integration_id": "pivotal"
-"integration_title": "Pivotal"
-"integration_version": ""
-"is_public": true
-"manifest_version": "2.0.0"
-"name": "pivotal"
-"public_title": "Pivotal"
-"short_description": "Pivotal Tracker es un software como servicio (SaaS) de colaboración y gestión de proyectos ágiles"
-"supported_os":
-- "linux"
-- "windows"
-- "macos"
-"tile":
- "changelog": "CHANGELOG.md"
- "classifier_tags":
- - "Category::Collaboration"
- - "Category::Issue Tracking"
- - "Offering::Integration"
- - "Submitted Data Type::Events"
- - "Supported OS::Linux"
- - "Supported OS::Windows"
- - "Supported OS::macOS"
- "configuration": "README.md#Setup"
- "description": "Pivotal Tracker es un software como servicio (SaaS) de colaboración y gestión de proyectos ágiles"
- "media": []
- "overview": "README.md#Overview"
- "support": "README.md#Support"
- "title": "Pivotal"
+app_id: pivotal
+categories:
+- collaboration
+- issue tracking
+custom_kind: integración
+description: Pivotal Tracker es un software como servicio (SaaS) para la gestión ágil
+ de proyectos and collaboration.
+integration_version: 1.0.0
+media: []
+supported_os:
+- linux
+- windows
+- macos
+title: Pivotal
---
-
-
## Información general
-[Pivotal Tracker][1] utiliza historias para ayudar a los equipos a realizar un seguimiento de los proyectos y colaborar a lo largo de las diferentes etapas del ciclo de desarrollo, como la creación de nuevas funciones, la resolución de errores o el tratamiento de la deuda técnica. Conecta Pivotal Tracker a Datadog para:
+[Pivotal Tracker](https://www.pivotaltracker.com/features) utiliza historias para ayudar a los equipos a realizar un seguimiento de los proyectos y colaborar a lo largo de las distintas partes del ciclo de desarrollo, como la creación de nuevas funciones, la resolución de errores o el tratamiento de la deuda técnica. Conecta Pivotal Tracker a Datadog para:
- Ver y discutir el progreso de tus historias en el Explorador de eventos de Datadog.
- Correlacionar y graficar la finalización de historias con otros eventos y otras métricas en tu sistema.
@@ -66,9 +26,9 @@
### Instalación
-Para obtener eventos Pivotal en en el Explorador de eventos de Datadog, introduce el token de API generado desde la [página de tu perfil] de Pivotal[2].
+Para obtener eventos de Pivotal en el Explorador de eventos de Datadog, introduce el token de API generado de tu [página de perfil](https://www.pivotaltracker.com/signin) de Pivotal.
-![token de pivotal][3]
+
## Datos recopilados
@@ -84,12 +44,6 @@ La integración Pivotal Tracker no incluye eventos.
La integración Pivotal Tracker no incluye checks de servicio.
-## Resolución de problemas
-
-¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][4].
-
-[1]: https://www.pivotaltracker.com/features
-[2]: https://www.pivotaltracker.com/signin
-[3]: images/pivotal_token.png
-[4]: https://docs.datadoghq.com/help/
+## Solucionar problemas
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/).
\ No newline at end of file
diff --git a/content/es/integrations/postgres.md b/content/es/integrations/postgres.md
index 9051993d03e98..4671ed581b6ea 100644
--- a/content/es/integrations/postgres.md
+++ b/content/es/integrations/postgres.md
@@ -1,107 +1,44 @@
---
app_id: postgres
-app_uuid: e6b3c5ec-b293-4a22-9145-277a12a9abd4
-assets:
- dashboards:
- postgresql: assets/dashboards/postgresql_dashboard.json
- postgresql_screenboard: assets/dashboards/postgresql_screenboard_dashboard.json
- integration:
- auto_install: true
- configuration:
- spec: assets/configuration/spec.yaml
- events:
- creates_events: false
- metrics:
- check:
- - postgresql.connections
- - postgresql.max_connections
- metadata_path: metadata.csv
- prefix: postgresql.
- process_signatures:
- - postgres -D
- - pg_ctl start -l logfile
- - postgres -c 'pg_ctl start -D -l
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: !!int 28
- source_type_name: Postgres
- monitors:
- Connection pool is reaching saturation point: assets/monitors/percent_usage_connections.json
- Replication delay is high: assets/monitors/replication_delay.json
- saved_views:
- operations: assets/saved_views/operations.json
- postgres_pattern: assets/saved_views/postgres_pattern.json
- postgres_processes: assets/saved_views/postgres_processes.json
- sessions_by_host: assets/saved_views/sessions_by_host.json
- slow_operations: assets/saved_views/slow_operations.json
-author:
- homepage: https://www.datadoghq.com
- name: Datadog
- sales_email: info@datadoghq.com
- support_email: help@datadoghq.com
categories:
- data stores
- log collection
- notifications
- tracing
custom_kind: integración
-dependencies:
-- https://github.com/DataDog/integrations-core/blob/master/postgres/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: postgres
-integration_id: postgres
-integration_title: Postgres
-integration_version: 22.0.1
-is_public: true
-manifest_version: 2.0.0
-name: postgres
-public_title: Postgres
-short_description: Recopila una importante cantidad de métricas del rendimiento y el estado de las bases de datos.
+description: Recopila una importante cantidad de métricas del rendimiento y el estado
+ de las bases de datos.
+further_reading:
+- link: https://docs.datadoghq.com/integrations/faq/postgres-custom-metric-collection-explained/
+ tag: documentación
+ text: Recopilación de métricas personalizadas de Postgres
+- link: https://www.datadoghq.com/blog/100x-faster-postgres-performance-by-changing-1-line
+ tag: blog
+ text: Rendimiento de Postgres 100 veces más rápido cambiando 1 línea
+- link: https://www.datadoghq.com/blog/postgresql-monitoring
+ tag: blog
+ text: Métricas clave para la monitorización de PostgreSQL
+- link: https://www.datadoghq.com/blog/postgresql-monitoring-tools
+ tag: blog
+ text: Recopilación de métricas con herramientas de monitorización PostgreSQL
+- link: https://www.datadoghq.com/blog/collect-postgresql-data-with-datadog
+ tag: blog
+ text: Recopilación y monitorización de datos PostgreSQL con Datadog
+integration_version: 22.15.0
+media: []
supported_os:
- linux
- windows
- macos
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Category::Almacenes de datos
- - Category::Recopilación de logs
- - Category::Notificaciones
- - Category::Rastreo
- - Supported OS::Linux
- - Supported OS::Windows
- - Supported OS::macOS
- - Offering::Integración
- configuration: README.md#Configuración
- description: Recopila una importante cantidad de métricas del rendimiento y el estado de las bases de datos.
- media: []
- overview: README.md#Información general
- resources:
- - resource_type: documentación
- url: https://docs.datadoghq.com/integrations/faq/postgres-custom-metric-collection-explained/
- - resource_type: blog
- url: https://www.datadoghq.com/blog/100x-faster-postgres-performance-by-changing-1-line
- - resource_type: blog
- url: https://www.datadoghq.com/blog/postgresql-monitoring
- - resource_type: blog
- url: https://www.datadoghq.com/blog/postgresql-monitoring-tools
- - resource_type: blog
- url: https://www.datadoghq.com/blog/collect-postgresql-data-with-datadog
- support: README.md#Soporte
- title: Postgres
+title: Postgres
---
-
-
-
-
-[Gráfico de PostgreSQL][1]
+
## Información general
La integración Postgres proporciona métricas del estado y el rendimiento de tu base de datos Postgres casi en tiempo real. Visualiza estos métricas con el dashboard proporcionado y crea monitores para alertar a tu equipo sobre los estados de PostgreSQL.
-Habilita [Database Monitoring][2] (DBM) para obtener información mejorada sobre el rendimiento de las consultas y el estado de las bases de datos. Además de la integración estándar, Datadog DBM proporciona métricas a nivel de consulta, snapshots de consultas históricas y actuales, análisis de eventos de espera, carga de bases de datos, planes de explicación de consultas e información sobre bloqueos de consultas.
+Activa [Database Monitoring](https://docs.datadoghq.com/database_monitoring/) (DBM) para obtener información mejorada sobre el rendimiento de las consultas y el estado de las bases de datos. Además de la integración estándar, Datadog DBM proporciona métricas a nivel de consulta, snapshots de consultas históricas y actuales, análisis de eventos de espera, carga de bases de datos, explain plans de consultas e información sobre bloqueos de consultas.
Se admiten las versiones 9.6-16 de Postgres.
@@ -111,13 +48,13 @@ Se admiten las versiones 9.6-16 de Postgres.
### Instalación
-El check de PostgreSQL viene en el mismo paquete que el Agent. Para empezar a reunir tus métricas y logs de PostgreSQL, [instala el Agent][3].
+El check de PostgreSQL viene en el mismo paquete que el Agent. Para empezar a recopilar tus métricas y logs de PostgreSQL, [instala el Agent](https://app.datadoghq.com/account/settings/agent/latest).
### Configuración
-**Nota**: Para instalar Database Monitoring para PostgreSQL, selecciona tu solución de alojamiento en la [documentación de Database Monitoring][4] para obtener instrucciones.
+**Nota**: Para instalar Database Monitoring para PostgreSQL, selecciona tu solución de alojamiento en la [documentación de Database Monitoring](https://docs.datadoghq.com/database_monitoring/#postgres) para obtener instrucciones.
-Procede con los siguientes pasos de esta guía, sólo si vas a instalar la integración estándar únicamente.
+Procede con los siguientes pasos de esta guía solo si vas a instalar la integración estándar únicamente.
#### Preparación de Postgres
@@ -161,9 +98,10 @@ grant SELECT ON pg_stat_activity_dd to datadog;
```
{{< tabs >}}
+
{{% tab "Host" %}}
-**Nota**: Al generar métricas personalizadas que requieren que se consulten tablas adicionales, puede que sea necesario conceder el permiso `SELECT` al usuario `datadog` para acceder a esas tablas. Ejemplo: `grant SELECT on to datadog;`. Para obtener más información, consulta la [sección FAQ][1].
+**Nota**: Al generar métricas personalizadas que requieren que se consulten tablas adicionales, puede que sea necesario conceder el permiso `SELECT` al usuario `datadog` para acceder a esas tablas. Ejemplo: `grant SELECT on to datadog;`. Para obtener más información, consulta la [sección FAQ](https://docs.datadoghq.com/integrations/postgres/?tab=host#faq).
#### Host
@@ -171,105 +109,104 @@ Para configurar este check para un Agent que se ejecuta en un host:
##### Recopilación de métricas
-1. Edita el archivo `postgres.d/conf.yaml` para que apunte a tu `host` / `port` y define los maestros que se van a monitorizar. Para ver todas las opciones de configuración disponibles, consulta el [postgres.d/conf.yaml de ejemplo][2].
-
- ```yaml
- init_config:
-
- instances:
- ## @param host - string - required
- ## The hostname to connect to.
- ## NOTE: Even if the server name is "localhost", the agent connects to
- ## PostgreSQL using TCP/IP, unless you also provide a value for the sock key.
- #
- - host: localhost
-
- ## @param port - integer - optional - default: 5432
- ## The port to use when connecting to PostgreSQL.
- #
- # port: 5432
-
- ## @param username - string - required
- ## The Datadog username created to connect to PostgreSQL.
- #
- username: datadog
-
- ## @param password - string - optional
- ## The password associated with the Datadog user.
- #
- # password:
-
- ## @param dbname - string - optional - default: postgres
- ## The name of the PostgresSQL database to monitor.
- ## Note: If omitted, the default system Postgres database is queried.
- #
- # dbname:
-
- # @param disable_generic_tags - boolean - optional - default: false
- # The integration will stop sending server tag as is redundant with host tag
- disable_generic_tags: true
- ```
-
-2. Para recopilar métricas de relación, conecta el Agent a cada base de datos lógica. Estas bases de datos se pueden detectar automáticamente o cada una de ellas puede estar explícitamente listada en la configuración.
-
- - Para detectar bases de datos lógicas automáticamente en una instancia determinada, habilita la detección automática en esa instancia:
-
- ```yaml
- instances:
- - host: localhost
- # port: 5432
- database_autodiscovery:
- enabled: true
- # Optionally, set the include field to specify
- # a set of databases you are interested in discovering
- include:
- - mydb.*
- - example.*
- relations:
- - relation_regex: .*
- ```
-
- - También puedes listar cada base de datos lógica como una instancia en la configuración:
-
- ```yaml
- instances:
- - host: example-service-primary.example-host.com
- # port: 5432
- username: datadog
- password: ''
- relations:
- - relation_name: products
- - relation_name: external_seller_products
- - host: example-service-replica-1.example-host.com
- # port: 5432
- username: datadog
- password: ''
- relations:
- - relation_regex: inventory_.*
- relkind:
- - r
- - i
- - host: example-service-replica-2.example-host.com
- # port: 5432
- username: datadog
- password: ''
- relations:
- - relation_regex: .*
- ```
-3. [Reinicia el Agent][3].
-
-##### Recopilación de trazas (traces)
-
-Datadog APM se integra con Postgres para visualizar trazas a través de tu sistema distribuido. La recopilación de trazas está habilitada por defecto en el Datadog Agent v6 o posteriores. Para empezar a recopilar trazas:
-
-1. [Habilita la recopilación de trazas en Datadog][4].
-2. [Instrumenta la aplicación que realiza solicitudes a Postgres][5].
+1. Edita el archivo `postgres.d/conf.yaml` para que apunte a tu `host`/`port` y define los principales para monitorizar. Consulta el [ejemplo de postgres.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/postgres/datadog_checks/postgres/data/conf.yaml.example) para ver todas las opciones de configuración disponibles.
-##### Recopilación de logs
+ ```yaml
+ init_config:
+
+ instances:
+ ## @param host - string - required
+ ## The hostname to connect to.
+ ## NOTE: Even if the server name is "localhost", the agent connects to
+ ## PostgreSQL using TCP/IP, unless you also provide a value for the sock key.
+ #
+ - host: localhost
+
+ ## @param port - integer - optional - default: 5432
+ ## The port to use when connecting to PostgreSQL.
+ #
+ # port: 5432
+
+ ## @param username - string - required
+ ## The Datadog username created to connect to PostgreSQL.
+ #
+ username: datadog
+
+ ## @param password - string - optional
+ ## The password associated with the Datadog user.
+ #
+ # password:
+
+ ## @param dbname - string - optional - default: postgres
+ ## The name of the PostgresSQL database to monitor.
+ ## Note: If omitted, the default system Postgres database is queried.
+ #
+ # dbname:
+
+ # @param disable_generic_tags - boolean - optional - default: false
+ # The integration will stop sending server tag as is redundant with host tag
+ disable_generic_tags: true
+ ```
+
+1. Para recopilar métricas de relación, conecta el Agent a cada base de datos lógica. Estas bases de datos pueden ser detectadas automáticamente o cada una puede estar enumerada explícitamente en la configuración.
+
+ - Para detectar bases de datos lógicas automáticamente en una instancia determinada, activa la detección automática en esa instancia:
-Disponible para la versión 6.0 o posteriores del Agent
+ ```yaml
+ instances:
+ - host: localhost
+ # port: 5432
+ database_autodiscovery:
+ enabled: true
+ # Optionally, set the include field to specify
+ # a set of databases you are interested in discovering
+ include:
+ - mydb.*
+ - example.*
+ relations:
+ - relation_regex: .*
+ ```
-La generación de logs por defecto de PostgreSQL es para `stderr` y los logs no incluyen información detallada. Se recomienda generar logs en un archivo con detalles adicionales especificados en el prefijo de línea de los logs. Para obtener más información, consulta la documentación de PostgreSQL sobre [informes de error y generación de logs][6].
+ - También puedes listar cada base de datos lógica como una instancia en la configuración:
+
+ ```yaml
+ instances:
+ - host: example-service-primary.example-host.com
+ # port: 5432
+ username: datadog
+ password: ''
+ relations:
+ - relation_name: products
+ - relation_name: external_seller_products
+ - host: example-service-replica-1.example-host.com
+ # port: 5432
+ username: datadog
+ password: ''
+ relations:
+ - relation_regex: inventory_.*
+ relkind:
+ - r
+ - i
+ - host: example-service-replica-2.example-host.com
+ # port: 5432
+ username: datadog
+ password: ''
+ relations:
+ - relation_regex: .*
+ ```
+
+1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
+
+##### Recopilación de trazas
+
+Datadog APM se integra con Postgres para visualizar trazas (traces) a través de tu sistema distribuido. La recopilación de trazas está activada por defecto en el Datadog Agent v6 o posteriores. Para empezar a recopilar trazas:
+
+1. [Activa la recopilación de trazas en Datadog](https://docs.datadoghq.com/tracing/send_traces/).
+1. [Instrumenta tu aplicación que realiza solicitudes a Postgres](https://docs.datadoghq.com/tracing/setup/).
+
+##### Recopilación de logs
+
+La generación de logs por defecto de PostgreSQL es para `stderr` y los logs no incluyen información detallada. Se recomienda generar logs en un archivo con detalles adicionales especificados en el prefijo de línea de los logs. Para obtener más información, consulta la documentación de PostgreSQL sobre [informes de error y generación de logs](https://www.postgresql.org/docs/11/runtime-config-logging.html).
1. La generación de logs se configura en el archivo `/etc/postgresql//main/postgresql.conf`. Para obtener resultados regulares en logs, incluidos los resultados de sentencias, descomenta los siguientes parámetros en la sección de logs:
@@ -286,7 +223,7 @@ La generación de logs por defecto de PostgreSQL es para `stderr` y los logs no
#log_destination = 'eventlog'
```
-2. Para recopilar métricas de duración detallada y permitir su búsqueda en la interfaz de Datadog, deben configurarse en línea con la propia sentencia. Consulta a continuación las diferencias de configuración recomendadas con respecto a las anteriores. **Nota**: Las opciones `log_statement` y `log_duration` están comentadas. Para ver una discusión sobre este tema, consulta [Sentencia/duración de la generación de logs en la misma línea][7].
+1. Para recopilar métricas de duración detallada y permitir su búsqueda en la interfaz de Datadog, deben configurarse en línea con la propia sentencia. Consulta a continuación las diferencias de configuración recomendadas con respecto a las anteriores. **Nota**: Las opciones `log_statement` y `log_duration` están comentadas. Para ver una discusión sobre este tema, consulta [Sentencia/duración de la generación de logs en la misma línea](https://www.postgresql.org/message-id/20100210180532.GA20138@depesz.com).
Esta configuración registra todas las sentencias. Para reducir los resultados en función de la duración, ajusta el valor `log_min_duration_statement` a la duración mínima deseada (en milisegundos):
@@ -299,13 +236,13 @@ La generación de logs por defecto de PostgreSQL es para `stderr` y los logs no
#log_duration = on
```
-3. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Habilítala en tu archivo `datadog.yaml`:
+1. La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent, actívala en tu archivo `datadog.yaml`:
```yaml
logs_enabled: true
```
-4. Añade y edita este bloque de configuración a tu archivo `postgres.d/conf.yaml` para empezar a recopilar tus logs de PostgreSQL:
+1. Añade y edita este bloque de configuración a tu archivo `postgres.d/conf.yaml` para empezar a recopilar tus logs de PostgreSQL:
```yaml
logs:
@@ -320,18 +257,12 @@ La generación de logs por defecto de PostgreSQL es para `stderr` y los logs no
# name: new_log_start_with_date
```
- Cambia los valores de los parámetros `service` y `path` a fin de configurarlos para tu entorno. Para ver todas las opciones de configuración disponibles, consulta el [postgres.d/conf.yaml de ejemplo][2].
+ Cambia los valores de los parámetros `service` y `path` y configúralos para tu entorno. Consulta el [ejemplo de postgres.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/postgres/datadog_checks/postgres/data/conf.yaml.example) para ver todas las opciones de configuración disponibles.
-5. [Reinicia el Agent][3].
+1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
-[1]: https://docs.datadoghq.com/integrations/postgres/?tab=host#faq
-[2]: https://github.com/DataDog/integrations-core/blob/master/postgres/datadog_checks/postgres/data/conf.yaml.example
-[3]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent
-[4]: https://docs.datadoghq.com/tracing/send_traces/
-[5]: https://docs.datadoghq.com/tracing/setup/
-[6]: https://www.postgresql.org/docs/11/runtime-config-logging.html
-[7]: https://www.postgresql.org/message-id/20100210180532.GA20138@depesz.com
{{% /tab %}}
+
{{% tab "Docker" %}}
#### Docker
@@ -340,7 +271,7 @@ Para configurar este check para un Agent que se ejecuta en un contenedor:
##### Recopilación de métricas
-Configura [plantillas de integraciones Autodiscovery][1] como etiquetas (labels) Docker en el contenedor de tu aplicación:
+Configura [plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/docker/integrations/?tab=docker) como etiquetas (labels) de Docker en el contenedor de tu aplicación:
```yaml
LABEL "com.datadoghq.ad.check_names"='["postgres"]'
@@ -350,10 +281,9 @@ LABEL "com.datadoghq.ad.instances"='[{"host":"%%host%%", "port":5432,"username":
##### Recopilación de logs
+La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [Recopilación de logs de Docker](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#installation).
-La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta la [recopilación de logs de Docker][2].
-
-Luego, configura [integraciones de logs][3] como etiquetas Docker:
+A continuación, configura [integraciones de logs](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations) como etiquetas de Docker:
```yaml
LABEL "com.datadoghq.ad.logs"='[{"source":"postgresql","service":"postgresql"}]'
@@ -361,9 +291,9 @@ LABEL "com.datadoghq.ad.logs"='[{"source":"postgresql","service":"postgresql"}]'
##### Recopilación de trazas
-APM para aplicaciones en contenedores es compatible con la versión 6 o posteriores del Agent, pero requiere una configuración adicional a fin de empezar a recopilar trazas.
+APM para aplicaciones en contenedores es compatible con el Agent v6 o posterior, pero requiere configuración adicional para empezar a recopilar trazas.
-Variables de entorno necesarias en el contenedor del Agent:
+Variables de entorno requeridas en el contenedor del Agent:
| Parámetro | Valor |
| -------------------- | -------------------------------------------------------------------------- |
@@ -371,27 +301,23 @@ Variables de entorno necesarias en el contenedor del Agent:
| `` | verdadero |
| `` | verdadero |
-Para ver una lista completa de las variables de entorno y la configuración disponibles, consulta [Rastreo de aplicaciones Docker][4].
-
-Luego, [instrumenta el contenedor de tu aplicación que realiza solicitudes a Postgres][3] y configura `DD_AGENT_HOST` con el nombre del contenedor de tu Agent.
+Para ver una lista completa de las variables de entorno y la configuración disponibles, consulta [Rastreo de aplicaciones Docker](https://docs.datadoghq.com/agent/amazon_ecs/logs/?tab=linux).
+A continuación, [instrumenta el contenedor de tu aplicación que realiza solicitudes a Postgres](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations) y configura `DD_AGENT_HOST` con el nombre del contenedor de tu Agent.
-[1]: https://docs.datadoghq.com/agent/docker/integrations/?tab=docker
-[2]: https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#installation
-[3]: https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations
-[4]: https://docs.datadoghq.com/agent/amazon_ecs/logs/?tab=linux
{{% /tab %}}
+
{{% tab "Kubernetes" %}}
#### Kubernetes
-Para configurar este check para un Agent que se ejecuta en Kubernetes:
+Para Configurar este check para un Agent que se ejecuta en Kubernetes:
##### Recopilación de métricas
-Configura [plantillas de integraciones de Autodiscovery][1] como anotaciones de pod en el contenedor de tu aplicación. Además de esto, las plantillas también se pueden configurar con [un archivo, un mapa de configuración o un almacén de clave-valor][2].
+Configura [plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/kubernetes/integrations/?tab=kubernetes) como anotaciones de pod en el contenedor de tu aplicación. Aparte de esto, las plantillas también se pueden configurar con [un archivo, un mapa de configuración o un almacén clave-valor](https://docs.datadoghq.com/agent/kubernetes/integrations/?tab=kubernetes#configuration).
-**Anotaciones v1** (para la versión 7.36 o anterior del Datadog Agent)
+**Anotaciones v1** (para el Datadog Agent \< v7.36)
```yaml
apiVersion: v1
@@ -415,7 +341,7 @@ spec:
- name: postgres
```
-**Anotaciones v2** (para la versión 7.36 o posterior del Datadog Agent)
+**Anotaciones v2** (para el Datadog Agent v7.36 o posterior)
```yaml
apiVersion: v1
@@ -444,10 +370,9 @@ spec:
##### Recopilación de logs
+La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [Recopilación de logs de Kubernetes](https://docs.datadoghq.com/agent/kubernetes/log/?tab=containerinstallation#setup).
-La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta la [recopilación de logs de Kubernetes][3].
-
-Luego, configura las [integraciones de logs][4] como anotaciones de pod. Esto también se puede configurar con [un archivo, un mapa de configuración o un almacén de clave-valor][5].
+A continuación, configura [integraciones de logs](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations) como anotaciones de pod. Esto también se puede configurar con [un archivo, un mapa de configuración o un almacén clave-valor](https://docs.datadoghq.com/agent/kubernetes/log/?tab=daemonset#configuration).
**Anotaciones v1/v2**
@@ -465,9 +390,9 @@ spec:
##### Recopilación de trazas
-APM para aplicaciones en contenedores es compatible con hosts que se ejecutan en la versión 6 o posteriores del Agent, pero requiere una configuración adicional a fin de empezar a recopilar trazas.
+APM para aplicaciones en contenedores es compatible con hosts que se ejecutan en la versión 6 o posteriores del Agent, pero requiere configuración adicional para empezar a recopilar trazas.
-Variables de entorno necesarias en el contenedor del Agent:
+Variables de entorno requeridas en el contenedor del Agent:
| Parámetro | Valor |
| -------------------- | -------------------------------------------------------------------------- |
@@ -475,18 +400,12 @@ Variables de entorno necesarias en el contenedor del Agent:
| `` | verdadero |
| `` | verdadero |
-Para ver una lista completa de las variables de entorno y la configuración disponibles, consulta [Rastreo de aplicaciones Kubernetes][6] y la [configuración del DaemonSet de Kubernetes][7].
+Consulta [Rastreo de aplicaciones Kubernetes](https://docs.datadoghq.com/agent/amazon_ecs/apm/?tab=ec2metadataendpoint#setup) y [Configuración de Kubernetes DaemonSet](https://github.com/DataDog/integrations-core/blob/master/postgres/assets/service_checks.json) para obtener una lista completa de las variables de entorno y la configuración disponibles.
-A continuación, [instrumenta el contenedor de tu aplicación que realiza solicitudes a Postgres][4].
+A continuación, [instrumenta el contenedor de tu aplicación que realiza solicitudes a Postgres](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations).
-[1]: https://docs.datadoghq.com/agent/kubernetes/integrations/?tab=kubernetes
-[2]: https://docs.datadoghq.com/agent/kubernetes/integrations/?tab=kubernetes#configuration
-[3]: https://docs.datadoghq.com/agent/kubernetes/log/?tab=containerinstallation#setup
-[4]: https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations
-[5]: https://docs.datadoghq.com/agent/kubernetes/log/?tab=daemonset#configuration
-[6]: https://docs.datadoghq.com/agent/amazon_ecs/apm/?tab=ec2metadataendpoint#setup
-[7]: https://github.com/DataDog/integrations-core/blob/master/postgres/assets/service_checks.json
{{% /tab %}}
+
{{% tab "ECS" %}}
#### ECS
@@ -495,7 +414,9 @@ Para configurar este check para un Agent que se ejecuta en ECS:
##### Recopilación de métricas
-Configura [plantillas de integraciones Autodiscovery][1] como etiquetas Docker en el contenedor de tu aplicación:
+Configura [plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/docker/integrations/?tab=docker) como etiquetas de Docker en el contenedor de tu aplicación:
+
+**Anotaciones v1** (para el Datadog Agent \< v7.36)
```json
{
@@ -511,12 +432,25 @@ Configura [plantillas de integraciones Autodiscovery][1] como etiquetas Docker e
}
```
-##### Recopilación de logs
+**Anotaciones v2** (para el Datadog Agent v7.36 o posterior)
+```json
+{
+ "containerDefinitions": [{
+ "name": "postgres",
+ "image": "postgres:latest",
+ "dockerLabels": {
+ "com.datadoghq.ad.checks": "{\"postgres\": {\"instances\": [{\"host\":\"%%host%%\", \"port\":5432, \"username\":\"postgres\", \"password\":\"\"}]}}"
+ }
+ }]
+}
+```
-La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta la [recopilación de logs de ECS][2].
+##### Recopilación de logs
-Luego, configura [integraciones de logs][3] como etiquetas Docker:
+La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [Recopilación de logs de ECS](https://docs.datadoghq.com/agent/amazon_ecs/logs/?tab=linux).
+
+A continuación, configura [integraciones de logs](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations) como etiquetas de Docker:
```json
{
@@ -532,9 +466,9 @@ Luego, configura [integraciones de logs][3] como etiquetas Docker:
##### Recopilación de trazas
-APM para aplicaciones en contenedores es compatible con la versión 6 o posteriores del Agent, pero requiere una configuración adicional a fin de empezar a recopilar trazas.
+APM para aplicaciones en contenedores es compatible con el Agent v6 o posterior, pero requiere configuración adicional para empezar a recopilar trazas.
-Variables de entorno necesarias en el contenedor del Agent:
+Variables de entorno requeridas en el contenedor del Agent:
| Parámetro | Valor |
| -------------------- | -------------------------------------------------------------------------- |
@@ -542,69 +476,293 @@ Variables de entorno necesarias en el contenedor del Agent:
| `` | verdadero |
| `` | verdadero |
-Para ver una lista completa de las variables de entorno y la configuración disponibles, consulta [Rastreo de aplicaciones Docker][4].
+Para ver una lista completa de las variables de entorno y la configuración disponibles, consulta [Rastreo de aplicaciones Docker](https://docs.datadoghq.com/agent/docker/apm/).
-Luego, [instrumenta el contenedor de tu aplicación que realiza solicitudes a Postgres][3] y configura `DD_AGENT_HOST` en la [dirección IP privada de EC2][5].
+A continuación, [instrumenta el contenedor de tu aplicación que realiza solicitudes a Postgres](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations) y configura `DD_AGENT_HOST` con la [dirección IP privada de EC2](https://docs.datadoghq.com/agent/amazon_ecs/apm/?tab=ec2metadataendpoint#setup).
-[1]: https://docs.datadoghq.com/agent/docker/integrations/?tab=docker
-[2]: https://docs.datadoghq.com/agent/amazon_ecs/logs/?tab=linux
-[3]: https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations
-[4]: https://docs.datadoghq.com/agent/docker/apm/
-[5]: https://docs.datadoghq.com/agent/amazon_ecs/apm/?tab=ec2metadataendpoint#setup
{{% /tab %}}
+
{{< /tabs >}}
### Validación
-[Ejecuta el subcomando de estado del Agent][5] y busca `postgres` en la sección Checks.
+[Ejecuta el subcomando de estado del Agent(https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `postgres` en la sección Checks.
## Datos recopilados
-Algunas de las métricas enumeradas a continuación requieren una configuración adicional. Para ver todas las opciones configurables, consulta el [postgres.d/conf.yaml de ejemplo][6].
+Algunas de las métricas enumeradas a continuación requieren configuración adicional. Consulta el [ejemplo de postgres.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/postgres/datadog_checks/postgres/data/conf.yaml.example) para ver todas las opciones de configuración disponibles.
### Métricas
-{{< get-metrics-from-git "postgres" >}}
-
-Para la versión `7.32.0` y posteriores del Agent, si tienes Database Database Monitoring habilitado, la métrica `postgresql.connections` se etiqueta (tag) con `state`, `app`, `db` y `user`.
+| | |
+| --- | --- |
+| **postgresql.active_queries**
(gauge) | Activado con `collect_activity_metrics`. Número de consultas activas en esta base de datos. Esta métrica (por defecto) está etiquetada con db, app, user.|
+| **postgresql.active_waiting_queries**
(gauge) | Activado con `collect_activity_metrics`. Número de consultas en espera en esta base de datos en estado activo. Esta métrica (por defecto) está etiquetada con db, app, user.|
+| **postgresql.activity.backend_xid_age**
(gauge) | Antigüedad del xid del backend más antiguo en relación con el último xid estable. Esta métrica (por defecto) está etiquetada con db, app, user.
_Se muestra como transacción_ |
+| **postgresql.activity.backend_xmin_age**
(gauge) | Antigüedad del horizonte xmin del backend más antiguo en relación con el último xid estable. Esta métrica (por defecto) está etiquetada con db, app, user.
_Se muestra como transacción_ |
+| **postgresql.activity.wait_event**
(gauge) | Número de eventos de espera en el momento de la comprobación. Esta métrica está etiquetada por usuario. Esta métrica está etiquetada por user, db, app y backend_type.|
+| **postgresql.activity.xact_start_age**
(gauge) | Antigüedad de las transacciones activas más antiguas. Esta métrica (por defecto) está etiquetada con db, app, user.
_Se muestra como segundos_. |
+| **postgresql.analyze.child_tables_done**
(gauge) | Número de tablas secundarias analizadas. Este contador solo avanza cuando la fase está adquiriendo filas de ejemplo heredadas. Esta métrica está etiquetada con db, table, child_relation, phase.|
+| **postgresql.analyze.child_tables_total**
(gauge) | Número de tablas secundarias. Esta métrica está etiquetada con db, table, child_relation, phase.|
+| **postgresql.analyze.ext_stats_computed**
(gauge) | Número de estadísticas ampliadas calculadas. Este contador solo avanza cuando la fase está calculando estadísticas ampliadas. Esta métrica está etiquetada con db, table, child_relation, phase.|
+| **postgresql.analyze.ext_stats_total**
(gauge) | Número de estadísticas ampliadas. Esta métrica está etiquetada con db, table, child_relation, phase.|
+| **postgresql.analyze.sample_blks_scanned**
(gauge) | Número de bloques heap analizados. Esta métrica está etiquetada con db, table, child_relation, phase.
_Se muestra como bloque_. |
+| **postgresql.analyze.sample_blks_total**
(gauge) | Número total de bloques heap que se muestrearán. Esta métrica está etiquetada con db, table, child_relation, phase.
_Se muestra como bloque_. |
+| **postgresql.analyzed**
(count) | Activado con `relations`. Número de veces que se ha analizado manualmente esta tabla. Esta métrica está etiquetada con db, schema, table.|
+| **postgresql.archiver.archived_count**
(count) | Número de archivos WAL que se han archivado correctamente.|
+| **postgresql.archiver.failed_count**
(count) | Número de intentos fallidos para archivar archivos WAL.|
+| **postgresql.autoanalyzed**
(count) | Activado con `relations`. Número de veces que esta tabla ha sido analizada por el daemon de autovaciado. Esta métrica está etiquetada con db, schema, table.|
+| **postgresql.autovacuumed**
(count) | Activado con `relations`. Número de veces que esta tabla ha sido vaciada por el daemon de autovaciado. Esta métrica está etiquetada con db, schema, table.|
+| **postgresql.before_xid_wraparound**
(gauge) | Número de transacciones que pueden ocurrir hasta que se agote el ID de una transacción. Esta métrica está etiquetada con db.
_Se muestra como transacción_ |
+| **postgresql.bgwriter.buffers_alloc**
(count) | Número de buffers asignados|
+| **postgresql.bgwriter.buffers_backend**
(count) | Número de buffers escritos directamente por un backend.
_Se muestra como buffer_ |
+| **postgresql.bgwriter.buffers_backend_fsync**
(count) | Cantidad de veces que un backend ha tenido que ejecutar su propia llamada fsync en lugar del escritor en segundo plano.|
+| **postgresql.bgwriter.buffers_checkpoint**
(count) | Número de buffers escritos durante los puntos de control.|
+| **postgresql.bgwriter.buffers_clean**
(count) | Número de buffers escritos por el escritor en segundo plano.|
+| **postgresql.bgwriter.checkpoints_requested**
(count) | Número de puntos de control solicitados que se han realizado.|
+| **postgresql.bgwriter.checkpoints_timed**
(count) | Número de puntos de control programados que se han realizado.|
+| **postgresql.bgwriter.maxwritten_clean**
(count) | Número de veces que el escritor en segundo plano ha detenido una exploración de limpieza debido a la escritura de demasiados buffers.|
+| **postgresql.bgwriter.sync_time**
(count) | Cantidad total de tiempo de procesamiento del punto de control dedicado a sincronizar los archivos con el disco.
_Se muestra como milisegundos_ |
+| **postgresql.bgwriter.write_time**
(count) | Cantidad total de tiempo de procesamiento del punto de control dedicado a escribir archivos en el disco.
_Se muestra como milisegundos_ |
+| **postgresql.blk_read_time**
(count) | Tiempo dedicado a leer bloques de archivos de datos por los backends en esta base de datos si track_io_timing está activado. Esta métrica está etiquetada con db.
_Se muestra como milisegundos_. |
+| **postgresql.blk_write_time**
(count) | Tiempo dedicado a escribir bloques de archivos de datos por los backends en esta base de datos si track_io_timing está activado. Esta métrica está etiquetada con db.
_Se muestra como milisegundos_. |
+| **postgresql.buffer_hit**
(rate) | Número de veces que se han encontrado bloques del disco en la caché del buffer, evitando la necesidad de leer desde la base de datos. Esta métrica está etiquetada con db.
_Se muestra como solicitud_. |
+| **postgresql.buffercache.dirty_buffers**
(gauge) | Número de buffers sucios compartidos. Es necesario instalar la extensión pg_buffercache. Esta métrica está etiquetada por db, esquema y relación.
_Se muestra como buffer_ |
+| **postgresql.buffercache.pinning_backends**
(gauge) | Número de backends que utilizan buffers compartidos. Es necesario instalar la extensión pg_buffercache. Esta métrica está etiquetada por db, schema y relation.|
+| **postgresql.buffercache.unused_buffers**
(gauge) | Número de buffers compartidos no utilizados. Es necesario instalar la extensión pg_buffercache.
_Se muestra como buffer_ |
+| **postgresql.buffercache.usage_count**
(gauge) | Suma de usage_count de buffers compartidos. Es necesario instalar la extensión pg_buffercache. Esta métrica está etiquetada por por db, schema y relation.|
+| **postgresql.buffercache.used_buffers**
(gauge) | Número de buffers compartidos. Es necesario instalar la extensión pg_buffercache. Esta métrica está etiquetada por db, schema y relation.
_Se muestra como buffer_ |
+| **postgresql.checksums.checksum_failures**
(count) | Número de fallos de suma de comprobación en esta base de datos. Esta métrica está etiquetada con db.|
+| **postgresql.checksums.enabled**
(count) | Si están activadas las sumas de comprobación de bases de datos. El valor es siempre 1 y está etiquetado con enabled:true o enabled:false. Esta métrica está etiquetada con db.|
+| **postgresql.cluster_vacuum.heap_blks_scanned**
(gauge) | Número de bloques heap analizados. Este contador solo avanza cuando la fase es heap de análisis secuencial. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, command, phase, index.
_Se muestra como bloque_ |
+| **postgresql.cluster_vacuum.heap_blks_total**
(gauge) | Número total de bloques heap en la tabla. Este número se informa desde el inicio del heap de análisis secuencial. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, command, phase, index.
_Se muestra como bloque_ |
+| **postgresql.cluster_vacuum.heap_tuples_scanned**
(gauge) | Número de tuplas heap analizadas. Este contador solo avanza cuando la fase es heap de análisis secuencial, heap de análisis de índices o nuevo heap de escritura. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, command, phase, index.|
+| **postgresql.cluster_vacuum.heap_tuples_written**
(gauge) | Número de tuplas heap escritas. Este contador solo avanza cuando la fase es heap de análisis secuencial, heap de análisis de índices o nuevo heap de escritura. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, command, phase, index.|
+| **postgresql.cluster_vacuum.index_rebuild_count**
(gauge) | Número de índices reconstruidos. Este contador solo avanza cuando la fase es de reconstrucción de índices. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, command, phase, index.|
+| **postgresql.commits**
(rate) | Número de transacciones que se han confirmado en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como transacción_ |
+| **postgresql.conflicts.bufferpin**
(count) | Número de consultas en esta base de datos que han sido canceladas debido a buffers anclados. Los conflictos de pin de buffer ocurrirán cuando el proceso walreceiver intente aplicar una limpieza de buffer como el pruning de cadena HOT. Esto requiere un bloqueo completo del buffer y cualquier consulta que lo tenga anclado entrará en conflicto con la limpieza. Esta métrica está etiquetada con db.
_Se muestra como consulta_ |
+| **postgresql.conflicts.deadlock**
(count) | Número de consultas en esta base de datos que han sido canceladas debido a bloqueos. Los conflictos de bloqueo ocurrirán cuando el proceso walreceiver intente aplicar un buffer como pruning de cadena HOT. Si el conflicto dura más de deadlock_timeout segundos, se activará una comprobación de bloqueo y las consultas en conflicto se cancelarán hasta que se desancle el buffer. Esta métrica está etiquetada con db.
_Se muestra como consulta_ |
+| **postgresql.conflicts.lock**
(count) | Número de consultas en esta base de datos que se han cancelado debido a tiempos de espera de bloqueo. Esto ocurrirá cuando el proceso walreceiver intente aplicar un cambio que requiera un bloqueo ACCESS EXCLUSIVE mientras una consulta en la réplica está leyendo la tabla. La consulta en conflicto será eliminada después de esperar hasta max_standby_streaming_delay segundos. Esta métrica está etiquetada con db.
_Se muestra como consulta_ |
+| **postgresql.conflicts.snapshot**
(count) | Número de consultas en esta base de datos que se han cancelado debido a snapshots demasiado antiguos. Se producirá un conflicto de snapshots cuando se reproduzca un VACUUM, eliminando las tuplas leídas actualmente en una espera. Esta métrica está etiquetada con db.
_Se muestra como consulta_ |
+| **postgresql.conflicts.tablespace**
(count) | Número de consultas en esta base de datos que se han cancelado debido a espacios en tablas eliminados. Esto ocurrirá cuando se elimine un temp_tablespace temporal mientras se utiliza en una espera. Esta métrica está etiquetada con db.
_Se muestra como consulta_ |
+| **postgresql.connections**
(gauge) | Número de conexiones activas a esta base de datos.
_Se muestra como conexión_ |
+| **postgresql.connections_by_process**
(gauge) | Número de conexiones activas a esta base de datos, desglosado por atributos a nivel de proceso. Esta métrica está etiquetada con state, application, user y db. (Solo DBM)
_Se muestra como conexión_. |
+| **postgresql.control.checkpoint_delay**
(gauge) | Tiempo transcurrido desde el último punto de control.
_Se muestra como segundos_ |
+| **postgresql.control.checkpoint_delay_bytes**
(gauge) | Cantidad de bytes WAL escritos desde el último punto de control.
_Se muestra como bytes_ |
+| **postgresql.control.redo_delay_bytes**
(gauge) | Cantidad de bytes WAL escritos desde el último punto de rehacer.
_Se muestra como bytes_ |
+| **postgresql.control.timeline_id**
(gauge) | ID actual de la línea de tiempo.|
+| **postgresql.create_index.blocks_done**
(gauge) | Número de bloques procesados en la fase actual. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, index, command, phase.|
+| **postgresql.create_index.blocks_total**
(gauge) | Número total de bloques a procesar en la fase actual. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, index, command, phase.|
+| **postgresql.create_index.lockers_done**
(gauge) | Número de casilleros esperados. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, index, command, phase.|
+| **postgresql.create_index.lockers_total**
(gauge) | Número total de casilleros a esperar, cuando corresponda. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, index, command, phase.|
+| **postgresql.create_index.partitions_done**
(gauge) | Cuando se crea un índice en una tabla particionada, esta columna se configura según el número de particiones en que se ha creado el índice. Este campo es 0 durante un REINDEX. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, index, command, phase.|
+| **postgresql.create_index.partitions_total**
(gauge) | Cuando se crea un índice en una tabla particionada, esta columna se configura según el número de particiones en que se ha creado el índice. Este campo es 0 durante un REINDEX. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, index, command, phase.|
+| **postgresql.create_index.tuples_done**
(gauge) | Número de tuplas procesadas en la fase actual. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, index, command, phase.|
+| **postgresql.create_index.tuples_total**
(gauge) | Número total de tuplas a procesar en la fase actual. Solo disponible con PostgreSQL v12 y posteriores. Esta métrica está etiquetada con db, table, index, command, phase.|
+| **postgresql.database_size**
(gauge) | Espacio en disco utilizado por esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como bytes_ |
+| **postgresql.db.count**
(gauge) | Número de bases de datos disponibles.
_Se muestra como elemento_ |
+| **postgresql.dead_rows**
(gauge) | Activado con `relations`. Número estimado de filas inactivas. Esta métrica está etiquetada con db, schema, table.
_Se muestra como fila_ |
+| **postgresql.deadlocks**
(rate) | Tasa de bloqueos detectados en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como bloqueo_ |
+| **postgresql.deadlocks.count**
(count) | Número de bloqueos detectados en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como bloqueo_ |
+| **postgresql.disk_read**
(rate) | Número de bloques de disco leídos en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como bloque_ |
+| **postgresql.function.calls**
(rate) | Activado con `collect_function_metrics`. Número de llamadas realizadas a una función. Esta métrica está etiquetada con db, schema, function.|
+| **postgresql.function.self_time**
(rate) | Activado con `collect_function_metrics`. Tiempo total dedicado a esta función, sin incluir otras funciones llamadas por ella. Esta métrica está etiquetada con db, schema, function.|
+| **postgresql.function.total_time**
(rate) | Activado con `collect_function_metrics`. Tiempo total dedicado a esta función y en todas las demás funciones llamadas por ella. Esta métrica está etiquetada con db, schema, function.|
+| **postgresql.heap_blocks_hit**
(gauge) | Activado con `relations`. Número de hits de buffer de esta tabla. Esta métrica está etiquetada con db, schema, table.
_Se muestra como hit_ |
+| **postgresql.heap_blocks_read**
(gauge) | Activado con `relations`. Número de bloques de disco leídos de esta tabla. Esta métrica está etiquetada con db, schema, table.
_Se muestra como bloque_. |
+| **postgresql.index.index_blocks_hit**
(gauge) | Activado con `relations`. Número de hits de buffer para un índice específico. Esta métrica está etiquetada con db, schema, table, index.
_Se muestra como hit_ |
+| **postgresql.index.index_blocks_read**
(gauge) | Activado con `relations`. El número de bloques de disco para un índice específico. Esta métrica está etiquetada con db, schema, table, index.
_Se muestra como bloque_ |
+| **postgresql.index_bloat**
(gauge) | Activado con `collect_bloat_metrics`. Porcentaje estimado de sobrecarga del índice. Esta métrica está etiquetada con db, schema, table, index.
_Se muestra como porcentaje_. |
+| **postgresql.index_blocks_hit**
(gauge) | Activado con `relations`. Número de hits de buffer en todos los índices de esta tabla. Esta métrica está etiquetada con db, schema, table.
_Se muestra como hit_ |
+| **postgresql.index_blocks_read**
(gauge) | Activado con `relations`. Número de bloques de disco leídos de todos los índices de esta tabla. Esta métrica está etiquetada con db, schema, table.
_Se muestra como bloque_ |
+| **postgresql.index_rel_rows_fetched**
(gauge) | Activado con `relations`. Número de filas activas obtenidas por análisis de índices. Esta métrica está etiquetada con db, schema, table.
_Se muestra como fila_ |
+| **postgresql.index_rel_scans**
(gauge) | Activado con `relations`. Número total de análisis de índices iniciados de esta tabla. Esta métrica está etiquetada con db, schema, table.
_Se muestra como análisis_ |
+| **postgresql.index_rows_fetched**
(gauge) | Activado con `relations`. Número de filas activas obtenidas por análisis de índices. Esta métrica está etiquetada con db, schema, table, index.
_Se muestra como fila_ |
+| **postgresql.index_rows_read**
(gauge) | Activado con `relations`. Número de entradas de índice devueltas por análisis de este índice. Esta métrica está etiquetada con db, schema, table, index.
_Se muestra como fila_ |
+| **postgresql.index_scans**
(gauge) | Activado con `relations`. Número de análisis de índices iniciadas de esta tabla. Esta métrica está etiquetada con db, schema, table, index
_Se muestra como análisis_ |
+| **postgresql.index_size**
(gauge) | Activado con `relations`. Espacio total en disco utilizado por los índices adjuntos a la tabla especificada. Esta métrica está etiquetada con db, schema, table.
_Se muestra como bytes_ |
+| **postgresql.individual_index_size**
(gauge) | Espacio en disco utilizado por un índice especificado. Esta métrica está etiquetada con db, schema, table, index.
_Se muestra como bytes_ |
+| **postgresql.io.evictions**
(count) | Número de veces que un bloque se ha escrito desde un buffer compartido o local para que esté disponible para otro uso. Esta métrica está etiquetada con backend_type, context, object. Solo disponible con PostgreSQL v16 y posteriores. (Solo DBM)
_Se muestra como milisegundos_ |
+| **postgresql.io.extend_time**
(count) | Tiempo dedicado a operaciones extend (si track_io_timing está activado, de lo contrario cero). Esta métrica está etiquetada con backend_type, context, object. Solo disponible con PostgreSQL v16 y posteriores. (Solo DBM)
_Se muestra como milisegundos_ |
+| **postgresql.io.extends**
(count) | Número de operaciones extend de relaciones. Esta métrica está etiquetada con backend_type, context, object. Solo disponible con PostgreSQL v16 y posteriores. (Solo DBM)|
+| **postgresql.io.fsync_time**
(count) | Tiempo dedicado a operaciones fsync (si track_io_timing está activado, de lo contrario cero). Esta métrica está etiquetada con backend_type, context, object. Solo disponible con PostgreSQL v16 y posteriores. (Solo DBM)
_Se muestra como milisegundos_ |
+| **postgresql.io.fsyncs**
(count) | Número de llamadas fsync. Esta métrica está etiquetada con backend_type, context, object. Solo disponible con PostgreSQL v16 y posteriores. (Solo DBM)|
+| **postgresql.io.hits**
(count) | Número de veces que se ha encontrado un bloque deseado en un buffer compartido. Esta métrica está etiquetada con backend_type, context, object. Solo disponible con PostgreSQL v16 y posteriores. (Solo DBM)
_Se muestra como milisegundos_ |
+| **postgresql.io.read_time**
(count) | Tiempo dedicado a operaciones de lectura (si track_io_timing está activado, de lo contrario cero). Esta métrica está etiquetada con backend_type, context, object. Solo disponible con PostgreSQL v16 y posteriores. (Solo DBM)
_Se muestra como milisegundos_ |
+| **postgresql.io.reads**
(count) | Número de operaciones de lectura. Esta métrica está etiquetada con backend_type, context, object. Solo disponible con PostgreSQL v16 y posteriores. (Solo DBM)|
+| **postgresql.io.write_time**
(count) | Tiempo dedicado a operaciones de escritura (si track_io_timing está activado, de lo contrario cero). Esta métrica está etiquetada con backend_type, context, object. Solo disponible con PostgreSQL v16 y posteriores. (Solo DBM)
_Se muestra como milisegundos_ |
+| **postgresql.io.writes**
(count) | Número de operaciones de escritura. Esta métrica está etiquetada con backend_type, context, object. Solo disponible con PostgreSQL v16 y posteriores. (Solo DBM)|
+| **postgresql.last_analyze_age**
(gauge) | Última vez que esta tabla fue analizada manualmente. Esta métrica está etiquetada con db, schema, table.
_Se muestra como segundos_ |
+| **postgresql.last_autoanalyze_age**
(gauge) | Última vez que esta tabla fue analizada por el daemon de autovaciado. Esta métrica está etiquetada con db, schema, table.
_Se muestra como segundos_ |
+| **postgresql.last_autovacuum_age**
(gauge) | Última vez que esta tabla ha sido vaciada por el daemon de autovaciado. Esta métrica está etiquetada con db, schema, table.
_Se muestra como segundos_ |
+| **postgresql.last_vacuum_age**
(gauge) | Última vez que esta tabla ha sido vaciada manualmente (sin contar VACUUM FULL). Esta métrica está etiquetada con db, schema, table.
_Se muestra como segundos_ |
+| **postgresql.live_rows**
(gauge) | Activado con `relations`. Número estimado de filas activas. Esta métrica está etiquetada con db, schema, table.
_Se muestra como fila_ |
+| **postgresql.locks**
(gauge) | Activado con `relations`. Número de bloqueos activos para esta base de datos. Esta métrica está etiquetada con db, lock_mode, lock_type, schema, table, granted.
_Se muestra como bloqueo_ |
+| **postgresql.max_connections**
(gauge) | Número máximo de conexiones de cliente permitidas a esta base de datos.
_Se muestra como conexión_ |
+| **postgresql.percent_usage_connections**
(gauge) | Número de conexiones a esta base de datos como fracción del número máximo de conexiones permitidas.
_Se muestra como fracción_ |
+| **postgresql.pg_stat_statements.dealloc**
(count) | Número de veces que pg_stat_statements tuvo que desalojar las consultas menos ejecutadas porque se alcanzó pg_stat_statements.max.|
+| **postgresql.queries.blk_read_time**
(count) | Tiempo total dedicado a leer bloques por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como nanosegundos_ |
+| **postgresql.queries.blk_write_time**
(count) | Tiempo total dedicado a escribir bloques por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como nanosegundos_ |
+| **postgresql.queries.count**
(count) | Recuento total de ejecución de consultas por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como consulta_ |
+| **postgresql.queries.duration.max**
(gauge) | Antigüedad de la consulta en ejecución más larga por usuario, base de datos y aplicación. (Solo DBM)
_Se muestra como nanosegundos_ |
+| **postgresql.queries.duration.sum**
(gauge) | Suma de la antigüedad de todas las consultas en ejecución por usuario, base de datos y aplicación. (Solo DBM)
_Se muestra como nanosegundos_ |
+| **postgresql.queries.local_blks_dirtied**
(count) | Número total de bloques locales ensuciados por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como bloque_ |
+| **postgresql.queries.local_blks_hit**
(count) | Número total de hits en la caché de bloques locales por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como bloque_ |
+| **postgresql.queries.local_blks_read**
(count) | Número total de bloques locales leídos por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como bloque_ |
+| **postgresql.queries.local_blks_written**
(count) | Número total de bloques locales escritos por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como bloque_ |
+| **postgresql.queries.rows**
(count) | Número total de filas recuperadas o afectadas por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como fila_ |
+| **postgresql.queries.shared_blks_dirtied**
(count) | Número total de bloques compartidos ensuciados por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como bloque_ |
+| **postgresql.queries.shared_blks_hit**
(count) | Número total de hits en la caché de bloques compartidos por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como bloque_ |
+| **postgresql.queries.shared_blks_read**
(count) | Número total de bloques compartidos leídos por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como bloque_ |
+| **postgresql.queries.shared_blks_written**
(count) | Número total de bloques compartidos escritos por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como bloque_ |
+| **postgresql.queries.temp_blks_read**
(count) | Número total de bloques temporales leídos por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como bloque_ |
+| **postgresql.queries.temp_blks_written**
(count) | Número total de bloques temporales escritos por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como bloque_ |
+| **postgresql.queries.time**
(count) | Tiempo total de ejecución de la consulta por query_signature, base de datos y usuario. (Solo DBM)
_Se muestra como nanosegundos_ |
+| **postgresql.recovery_prefetch.block_distance**
(gauge) | Cuántos bloques por delante está buscando el prefetcher.
_Se muestra como bloque_ |
+| **postgresql.recovery_prefetch.hit**
(count) | Número de bloques no precargados porque ya estaban en el grupo de buffers.
_Se muestra como bloque_ |
+| **postgresql.recovery_prefetch.io_depth**
(gauge) | Cuántas precargas se han iniciado pero aún no se sabe si han finalizado.|
+| **postgresql.recovery_prefetch.prefetch**
(count) | Número de bloques precargados porque no estaban en el grupo de buffers.
_Se muestra como bloque_ |
+| **postgresql.recovery_prefetch.skip_fpw**
(count) | Número de bloques no precargados porque se ha incluido una imagen de página completa en el WAL.
_Se muestra como bloque_ |
+| **postgresql.recovery_prefetch.skip_init**
(count) | Número de bloques no precargados porque se inicializarían a cero.
_Se muestra como bloque_ |
+| **postgresql.recovery_prefetch.skip_new**
(count) | Número de bloques no precargados porque aún no existían.
_Se muestra como bloque_ |
+| **postgresql.recovery_prefetch.skip_rep**
(count) | Número de bloques no precargados porque ya se habían precargado recientemente.
_Se muestra como bloque_ |
+| **postgresql.recovery_prefetch.wal_distance**
(gauge) | Cuántos bytes por delante está buscando el prefetcher.
_Se muestra como bytes_ |
+| **postgresql.relation.all_visible**
(gauge) | Número de páginas que están marcadas como todas visibles en el mapa de visibilidad de la tabla. Se trata únicamente de una estimación utilizada por el planificador y se actualiza mediante VACUUM o ANALYZE. Esta métrica está etiquetada con db, schema, table, partition_of.|
+| **postgresql.relation.pages**
(gauge) | Tamaño de una tabla en páginas (1 página = 8KB por defecto). Se trata únicamente de una estimación utilizada por el planificador y se actualiza mediante VACUUM o ANALYZE. Esta métrica está etiquetada con db, schema, table, partition_of.|
+| **postgresql.relation.tuples**
(gauge) | Número de filas activas en la tabla. Se trata únicamente de una estimación utilizada por el planificador y se actualiza mediante VACUUM o ANALYZE. Si la tabla nunca ha sido vaciada o analizada, se informará -1. Esta métrica está etiquetada con db, schema, table, partition_of.|
+| **postgresql.relation.xmin**
(gauge) | ID de transacción de la última modificación de la relación en pg_class. Esta métrica está etiquetada con db, schema, table.|
+| **postgresql.relation_size**
(gauge) | Espacio en disco utilizado por la tabla especificada. No se incluyen datos TOAST, índices, mapa de espacio libre o mapa de visibilidad. Esta métrica está etiquetada con db, schema, table.
_Se muestra como bytes_ |
+| **postgresql.replication.backend_xmin_age**
(gauge) | Antigüedad del horizonte xmin del servidor en espera (en relación con el último xid estable) informada por hot_standby_feedback.|
+| **postgresql.replication.wal_flush_lag**
(gauge) | Tiempo transcurrido entre el vaciado local de WAL reciente y la recepción de la notificación de que este servidor en espera la ha escrito y vaciado (pero aún no la ha aplicado). Esto puede utilizarse para medir el retraso en el que incurre el nivel synchronous_commit al confirmar si este servidor está configurado como servidor en espera síncrono. Solo disponible con PostgreSQL v10 y posteriores.
_Se muestra como segundos_ |
+| **postgresql.replication.wal_replay_lag**
(gauge) | Tiempo transcurrido entre el vaciado local de WAL reciente y la recepción de la notificación de que este servidor en espera la ha escrito, vaciado y aplicado. Esto puede utilizarse para medir el retraso en el que incurre el nivel synchronous_commit al confirmar si este servidor está configurado como servidor en espera síncrono. Solo disponible con PostgreSQL v10 y posteriores.
_Se muestra como segundos_ |
+| **postgresql.replication.wal_write_lag**
(gauge) | Tiempo transcurrido entre el vaciado local de WAL reciente y la recepción de la notificación de que este servidor en espera la ha escrito (pero no la ha vaciado ni aplicado). Esto puede utilizarse para medir el retraso en el que incurre el nivel synchronous_commit al confirmar si este servidor está configurado como servidor en espera síncrono. Solo disponible con PostgreSQL v10 y posteriores.
_Se muestra como segundos_ |
+| **postgresql.replication_delay**
(gauge) | Retraso de replicación actual en segundos. Solo disponible con PostgreSQL v9.1 y posteriores
_Se muestra como segundos_ |
+| **postgresql.replication_delay_bytes**
(gauge) | Retraso de replicación actual en bytes. Solo disponible con PostgreSQL v9.2 y posteriores
_Se muestra como bytes_ |
+| **postgresql.replication_slot.catalog_xmin_age**
(gauge) | Antigüedad de la transacción más antigua que afecta a los catálogos del sistema que este slot necesita que la base de datos conserve. VACUUM no puede eliminar tuplas de catálogo eliminadas por una transacción posterior. Esta métrica está etiquetada con slot_name, slot_type, slot_persistence, slot_state.
_Se muestra como transacción_ |
+| **postgresql.replication_slot.confirmed_flush_delay_bytes**
(gauge) | Retraso en bytes entre la posición actual de WAL y la última posición confirmada por el consumidor de este slot. Solo está disponible para slots de replicación lógica. Esta métrica está etiquetada con slot_name, slot_type, slot_persistence, slot_state.
_Se muestra como bytes_ |
+| **postgresql.replication_slot.restart_delay_bytes**
(gauge) | Cantidad de bytes WAL que el consumidor de este slot puede requerir y no se eliminará automáticamente durante los puntos de control a menos que exceda el parámetro max_slot_wal_keep_size. No se informa de nada si no hay reserva de WAL para este slot. Esta métrica está etiquetada con slot_name, slot_type, slot_persistence, slot_state.
_Se muestra como bytes_ |
+| **postgresql.replication_slot.spill_bytes**
(count) | Cantidad de datos de transacción decodificados vertidos al disco mientras se realiza la decodificación de cambios de WAL para este slot. Este y otros contadores de vertido pueden ser utilizados para medir las E/S ocurridas durante la decodificación lógica y permitir el ajuste de logical_decoding_work_mem. Extraído de pg_stat_replication_slots. Solo disponible con PostgreSQL v14 y posteriores. Esta métrica está etiquetada con slot_name, slot_type, slot_state.
_Se muestra como bytes_ |
+| **postgresql.replication_slot.spill_count**
(count) | Número de veces que las transacciones fueron vertidas al disco mientras se decodificaban los cambios de WAL para este slot. Este contador se incrementa cada vez que una transacción es vertida, y la misma transacción puede ser vertida múltiples veces. Extraído de pg_stat_replication_slots. Solo disponible con PostgreSQL v14 y posteriores. Esta métrica está etiquetada con slot_name, slot_type, slot_state.|
+| **postgresql.replication_slot.spill_txns**
(count) | Número de transacciones vertidas al disco una vez que la memoria utilizada por la decodificación lógica para decodificar los cambios de WAL excede logical_decoding_work_mem. El contador se incrementa tanto para las transacciones de nivel superior como para las subtransacciones. Extraído de pg_stat_replication_slots. Solo disponible con PostgreSQL v14 y posteriores. Esta métrica está etiquetada con slot_name, slot_type, slot_state.
_Se muestra como transacción_ |
+| **postgresql.replication_slot.stream_bytes**
(count) | Cantidad de datos de transacciones decodificados para transmitir transacciones en curso al complemento de salida de decodificación mientras se decodifican los cambios de WAL para este slot. Extraído de pg_stat_replication_slots. Solo disponible con PostgreSQL v14 y posteriores. Esta métrica está etiquetada con slot_name, slot_type, slot_state.
_Se muestra como bytes_ |
+| **postgresql.replication_slot.stream_count**
(count) | Número de veces que las transacciones en curso fueron transmitidas al complemento de salida de decodificación mientras se decodificaban los cambios de WAL para este slot. Extraído de pg_stat_replication_slots. Solo disponible con PostgreSQL v14 y posteriores. Esta métrica está etiquetada con slot_name, slot_type, slot_state.|
+| **postgresql.replication_slot.stream_txns**
(count) | Número de transacciones en curso transmitidas al complemento de salida de decodificación después de que la memoria utilizada por la decodificación lógica para decodificar cambios de WAL para este slot exceda logical_decoding_work_mem. Extraído de pg_stat_replication_slots. Solo disponible con PostgreSQL v14 y posteriores. Esta métrica está etiquetada con slot_name, slot_type, slot_state.
_Se muestra como transacción_ |
+| **postgresql.replication_slot.total_bytes**
(count) | Cantidad de datos de transacciones decodificados para enviar transacciones al complemento de salida de decodificación mientras se decodifican cambios de WAL para este slot. Extraído de pg_stat_replication_slots. Solo disponible con PostgreSQL v14 y posteriores. Esta métrica está etiquetada con slot_name, slot_type, slot_state.
_Se muestra como bytes_ |
+| **postgresql.replication_slot.total_txns**
(count) | Número de transacciones decodificadas enviadas al complemento de salida de decodificación para este slot. Extraído de pg_stat_replication_slots. Solo disponible con PostgreSQL v14 y posteriores. Esta métrica está etiquetada con slot_name, slot_type, slot_state.
_Se muestra como transacción_ |
+| **postgresql.replication_slot.xmin_age**
(gauge) | Antigüedad de la transacción más antigua que este slot necesita que la base de datos retenga. Solo el slot de replicación física tendrá un xmin. El slot de replicación huérfano (no hay consumidor o el consumidor no está conectado) impedirá que avance el horizonte xmin. Esta métrica está etiquetada con slot_name, slot_type, slot_persistence, slot_state.
_Se muestra como transacción_ |
+| **postgresql.rollbacks**
(rate) | Número de transacciones que se han revertido en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como transacción_ |
+| **postgresql.rows_deleted**
(rate) | Activado con `relations`. Número de filas eliminadas por consultas en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como fila_ |
+| **postgresql.rows_fetched**
(tasa) | Número de filas obtenidas por consultas en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como fila_ |
+| **postgresql.rows_hot_updated**
(rate) | Activado con `relations`. Número de filas HOT actualizadas, lo que significa que no fue necesaria una actualización de índice separada. Esta métrica está etiquetada con db, schema, table.
_Se muestra como fila_ |
+| **postgresql.rows_inserted**
(rate) | Activado con `relations`. Número de filas insertadas por consultas en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como fila_ |
+| **postgresql.rows_returned**
(rate) | Número de filas devueltas por consultas en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como fila_ |
+| **postgresql.rows_updated**
(rate) | Activado con `relations`. Número de filas actualizadas por consultas en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como fila_ |
+| **postgresql.running**
(gauge) | Número de instancias en ejecución.|
+| **postgresql.seq_rows_read**
(gauge) | Activado con `relations`. Número de filas activas obtenidas por análisis secuenciales. Esta métrica está etiquetada con db, schema, table.
_Se muestra como fila_ |
+| **postgresql.seq_scans**
(gauge) | Activado con `relations`. Número de análisis secuenciales iniciados de esta tabla. Esta métrica está etiquetada con db, schema, table.
_Se muestra como análisis_ |
+| **postgresql.sessions.abandoned**
(count) | Número de sesiones de base de datos en esta base de datos que fueron finalizados porque se perdió la conexión con el cliente. Esta métrica está etiquetada con db.
_Se muestra como sesión_ |
+| **postgresql.sessions.active_time**
(count) | Tiempo dedicado a ejecutar sentencias SQL en esta base de datos, en milisegundos (corresponde a los estados active y fastpath de la llamada a la función en pg_stat_activity). Esta métrica está etiquetada con db.
_Se muestra como milisegundos_ |
+| **postgresql.sessions.count**
(count) | Número total de sesiones establecidas en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como sesión_ |
+| **postgresql.sessions.fatal**
(count) | Número de sesiones de esta base de datos que fueron finalizados por errores fatales. Esta métrica está etiquetada con db.
_Se muestra como sesión_ |
+| **postgresql.sessions.idle_in_transaction_time**
(count) | Tiempo de inactividad durante una transacción en esta base de datos, en milisegundos (corresponde a los estados inactivo en transacción e inactivo en transacción (abortada) en pg_stat_activity). Esta métrica está etiquetada con db.
_Se muestra como milisegundos_ |
+| **postgresql.sessions.killed**
(count) | Número de sesiones de esta base de datos que fueron finalizados por intervención del operador. Esta métrica está etiquetada con db.
_Se muestra como sesión_ |
+| **postgresql.sessions.session_time**
(count) | Tiempo empleado por las sesiones de base de datos en esta base de datos, en milisegundos (ten en cuenta que las estadísticas solo se actualizan cuando cambia el estado de una sesión, por lo que si las sesiones han estado inactivas durante mucho tiempo, este tiempo de inactividad no será incluido). Esta métrica está etiquetada con db.
_Se muestra como milisegundos_ |
+| **postgresql.slru.blks_exists**
(count) | Número de bloques en que se comprueba la existencia de la caché SLRU (simple menos utilizada recientemente). Solo las cachés CommitTs y MultiXactOffset comprueban si los bloques ya están presentes en el disco. Esta métrica está etiquetada con slru_name.
_Se muestra como bloque_ |
+| **postgresql.slru.blks_hit**
(count) | Número de veces que se han encontrado bloques de disco ya en la caché SLRU (simple menos utilizada recientemente), por lo que no fue necesaria una lectura (esto solo incluye hits en la SLRU, no en la caché del sistema de archivos del sistema operativo). Esta métrica está etiquetada con slru_name.
_Se muestra como bloque_ |
+| **postgresql.slru.blks_read**
(count) | Número de bloques de disco leídos para la caché SLRU (simple menos utilizada recientemente). Las cachés SLRU se crean con un número fijo de páginas. Cuando se utilizan todas las páginas, el bloque utilizado menos recientemente se desaloja del disco para crear espacio. El acceso al bloque desalojado requerirá que los datos se lean del disco y se vuelvan a cargar en una página de caché SLRU, aumentando el recuento de lectura de bloques. Esta métrica está etiquetada con slru_name.
_Se muestra como bloque_ |
+| **postgresql.slru.blks_written**
(count) | Número de bloques de disco escritos para la caché SLRU (simple menos utilizada recientemente). Las cachés SLRU se crean con un número fijo de páginas. Cuando se utilizan todas las páginas, el bloque utilizado menos recientemente se desaloja del disco para crear espacio. Un desalojo de bloque no genera necesariamente una escritura en disco, ya que el bloque podría haberse escrito en un desalojo anterior. Esta métrica está etiquetada con slru_name.
_Se muestra como bloque_ |
+| **postgresql.slru.blks_zeroed**
(count) | Número de bloques puestos a cero durante las inicializaciones de la caché SLRU (simple menos utilizada recientemente). Las cachés SLRU se crean con un número fijo de páginas. Para las cachés Subtrans, Xact y CommitTs, se utiliza el transactionId global para obtener el número de página. Por lo tanto, aumentará con el rendimiento de la transacción. Esta métrica está etiquetada con slru_name.
_Se muestra como bloque_ |
+| **postgresql.slru.flushes**
(count) | Número de vaciados de datos sucios de la caché SLRU (simple menos utilizada recientemente). El vaciado de las cachés CommitTs, MultiXact, Subtrans y Xact tendrá lugar durante el punto de control. El vaciado de la caché MultiXact puede ocurrir durante el vaciado. Esta métrica está etiquetada con slru_name.|
+| **postgresql.slru.truncates**
(count) | Número de truncamientos de la caché SLRU (simple menos utilizada recientemente). Para las cachés CommitTs, Xact y MultiXact, los truncamientos se producirán cuando progrese el frozenID. Para la caché Subtrans, un truncamiento puede ocurrir durante un punto de reinicio y un punto de control. Esta métrica está etiquetada con slru_name.|
+| **postgresql.snapshot.xip_count**
(gauge) | Informa del número de transacciones activas basadas en pg_snapshot_xip(pg_current_snapshot()).|
+| **postgresql.snapshot.xmax**
(gauge) | Informa del siguiente ID de transacción que será asignado basado en pg_snapshot_xmax(pg_current_snapshot()).|
+| **postgresql.snapshot.xmin**
(gauge) | Informa del ID de transacción más bajo aún activo basado en pg_snapshot_xmin(pg_current_snapshot()). Todos los ID de transacciones menores que xmin son confirmados y visibles, o revertidos y eliminados.|
+| **postgresql.subscription.apply_error**
(count) | Número de errores que se han producido al aplicar los cambios. Extraído de pg_stat_subscription_stats. Solo disponible en PostgreSQL v15 o posteriores. Esta métrica está etiquetada con subscription_name.|
+| **postgresql.subscription.last_msg_receipt_age**
(gauge) | Antigüedad de recepción del último mensaje recibido del remitente WAL de origen. Extraído de pg_stat_subscription. Solo disponible en PostgreSQL v12 o posteriores. Esta métrica está etiquetada con subscription_name.
_Se muestra como segundos_ |
+| **postgresql.subscription.last_msg_send_age**
(gauge) | Antigüedad de recepción del último mensaje recibido del remitente WAL de origen. Extraído de pg_stat_subscription. Solo disponible en PostgreSQL v12 o posteriores. Esta métrica está etiquetada con subscription_name.
_Se muestra como segundos_ |
+| **postgresql.subscription.latest_end_age**
(gauge) | Antigüedad de la última ubicación de escritura de log anticipada informada al remitente WAL de origen. Extraído de pg_stat_subscription. Solo disponible en PostgreSQL v12 o posteriores. Esta métrica está etiquetada con subscription_name.
_Se muestra como segundos_ |
+| **postgresql.subscription.state**
(gauge) | Estado de una suscripción por relación y suscripción. Extraído de pg_subscription_rel. Solo disponible en PostgreSQL v14 o posteriores. Esta métrica está etiquetada con subscription_name, relation, state.|
+| **postgresql.subscription.sync_error**
(count) | Número de errores producidos durante la sincronización inicial de la tabla. Extraído de pg_stat_subscription_stats. Solo disponible en PostgreSQL v15 o posteriores. Esta métrica está etiquetada con subscription_name.|
+| **postgresql.table.count**
(gauge) | Número de tablas de usuario en esta base de datos. Esta métrica está etiquetada con db, schema.
_Se muestra como tabla_ |
+| **postgresql.table_bloat**
(gauge) | Activado con `collect_bloat_metrics`. Porcentaje estimado de sobrecarga de las tablas. Esta métrica está etiquetada con db, schema, table.
_Se muestra como porcentaje_ |
+| **postgresql.table_size**
(gauge) | Activado con `relations`. Espacio en disco utilizado por la tabla especificada con datos TOAST. No se incluyen el mapa de espacio libre ni el mapa de visibilidad. Esta métrica está etiquetada con db, schema, table.
_Se muestra como bytes_ |
+| **postgresql.temp_bytes**
(rate) | Cantidad de datos escritos en archivos temporales por las consultas en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como bytes_ |
+| **postgresql.temp_files**
(rate) | Número de archivos temporales creados por consultas en esta base de datos. Esta métrica está etiquetada con db.
_Se muestra como archivo_ |
+| **postgresql.toast.autovacuumed**
(count) | Activado con `relations`. Número de veces que la tabla TOAST de una relación ha sido autovaciada. Esta métrica está etiquetada con db, schema, table.|
+| **postgresql.toast.dead_rows**
(gauge) | Activado con `relations`. Número de filas inactivas en la tabla TOAST de una relación. Esta métrica está etiquetada con db, schema, table.|
+| **postgresql.toast.index_scans**
(count) | Activado con `relations`. Número de análisis de índices realizados en la tabla TOAST de una relación. Esta métrica está etiquetada con db, schema, table.|
+| **postgresql.toast.last_autovacuum_age**
(gauge) | Última vez que el daemon de autovaciado ha vaciado la tabla TOAST de esta tabla. Esta métrica está etiquetada con db, schema, table.
_Se muestra como segundos_ |
+| **postgresql.toast.last_vacuum_age**
(gauge) | Última vez que se ha vaciado manualmente la tabla TOAST de esta tabla (sin contar VACUUM FULL). Esta métrica está etiquetada con db, schema, table.
_Se muestra como segundos_ |
+| **postgresql.toast.live_rows**
(gauge) | Activado con `relations`. Número de filas activas en la tabla TOAST de una relación. Esta métrica está etiquetada con db, schema, table.|
+| **postgresql.toast.rows_deleted**
(count) | Activado con `relations`. Número de filas eliminadas en la tabla TOAST de una relación. Esta métrica está etiquetada con db, schema, table.|
+| **postgresql.toast.rows_fetched**
(count) | Activado con `relations`. Número de filas obtenidas en la tabla TOAST de una relación. Esta métrica está etiquetada con db, schema, table.|
+| **postgresql.toast.rows_inserted**
(count) | Activado con `relations`. Número de filas insertadas en la tabla TOAST de una relación. Esta métrica está etiquetada con db, schema, table.|
+| **postgresql.toast.vacuumed**
(count) | Activado con `relations`. Número de veces que se ha vaciado la tabla TOAST de una relación. Esta métrica está etiquetada con db, schema, table.|
+| **postgresql.toast_blocks_hit**
(gauge) | Activado con `relations`. Número de accesos al buffer en la tabla TOAST de esta tabla. Esta métrica está etiquetada con db, schema, table.
_Se muestra como hit_ |
+| **postgresql.toast_blocks_read**
(gauge) | Activado con `relations`. Número de bloques de disco leídos de la tabla TOAST de esta tabla. Esta métrica está etiquetada con db, schema, table.
_Se muestra como bloque_ |
+| **postgresql.toast_index_blocks_hit**
(gauge) | Activado con `relations`. Número de accesos al buffer en el índice de la tabla TOAST de esta tabla. Esta métrica está etiquetada con db, schema, table.
_Se muestra como bloque_ |
+| **postgresql.toast_index_blocks_read**
(gauge) | Activado con `relations`. Número de bloques de disco leídos desde el índice de la tabla TOAST de esta tabla. Esta métrica está etiquetada con db, schema, table.
_Se muestra como bloque_ |
+| **postgresql.toast_size**
(gauge) | Espacio total en disco utilizado por la tabla TOAST adjunta a la tabla especificada. Esta métrica está etiquetada con db, schema, table.
_Se muestra como bytes_ |
+| **postgresql.total_size**
(gauge) | Activado con `relations`. Espacio total en disco utilizado por la tabla, incluidos los índices y los datos TOAST. Esta métrica está etiquetada con db, schema, table.
_Se muestra como bytes_ |
+| **postgresql.transactions.duration.max**
(gauge) | Antigüedad de la transacción en ejecución más larga por usuario, base de datos y aplicación. (Solo DBM)
_Se muestra como nanosegundos_ |
+| **postgresql.transactions.duration.sum**
(gauge) | Suma de la antigüedad de todas las transacciones en ejecución por usuario, base de datos y aplicación. (Solo DBM)
_Se muestra como nanosegundos_ |
+| **postgresql.transactions.idle_in_transaction**
(gauge) | Activado con `collect_activity_metrics`. Número de transacciones 'inactivas en transacción' en esta base de datos. Esta métrica (por defecto) está etiquetada con db, app, user.
_Se muestra como transacción_ |
+| **postgresql.transactions.open**
(gauge) | Activado con `collect_activity_metrics`. Número de transacciones abiertas en esta base de datos. Esta métrica (por defecto) está etiquetada con db, app, user.
_Se muestra como transacción_ |
+| **postgresql.uptime**
(gauge) | Tiempo de actividad del servidor en segundos.
_Se muestra como segundos_ |
+| **postgresql.vacuum.heap_blks_scanned**
(gauge) | Número de bloques heap analizados. Debido a que el mapa de visibilidad se utiliza para optimizar los análisis, algunos bloques serán omitidos sin inspección. Los bloques omitidos se incluyen en este total, de modo que este número eventualmente se volverá igual a heap_blks_total cuando el vaciado finalice. Este contador solo avanza cuando la fase está analizando heap. Esta métrica está etiquetada con db, table, phase.
_Se muestra como bloque_ |
+| **postgresql.vacuum.heap_blks_total**
(gauge) | Número total de bloques heap en la tabla. Este número se informa al inicio del análisis. Los bloques añadidos posteriormente no serán (y no necesitan ser) visitados por este VACUUM. Esta métrica está etiquetada con db, table, phase.
_Se muestra como bloque_ |
+| **postgresql.vacuum.heap_blks_vacuumed**
(gauge) | Número de bloques heap vaciados. A menos que la tabla no tenga índices, este contador solo avanza cuando la fase está aspirando heap. Los bloques que no contienen tuplas inactivas se omiten, por lo que el contador a veces puede saltar hacia adelante en grandes incrementos. Esta métrica está etiquetada con db, table, phase.
_Se muestra como bloques_ |
+| **postgresql.vacuum.index_vacuum_count**
(gauge) | Número de ciclos de vacío de índices completados. Esta métrica está etiquetada con db, table, phase.
_Se muestra como bloque_ |
+| **postgresql.vacuum.max_dead_tuples**
(gauge) | Número de tuplas inactivas que podemos almacenar antes de necesitar realizar un ciclo de vaciado de índices, basado en maintenance_work_mem. Esta métrica está etiquetada con db, table, phase.|
+| **postgresql.vacuum.num_dead_tuples**
(gauge) | Número de tuplas inactivas recopiladas desde el último ciclo de vaciado de índices. Esta métrica está etiquetada con db, table, phase.|
+| **postgresql.vacuumed**
(count) | Activado con `relations`. Número de veces que esta tabla ha sido vaciada manualmente. Esta métrica está etiquetada con db, schema, table.|
+| **postgresql.waiting_queries**
(gauge) | Activado con `collect_activity_metrics`. Número de consultas en espera en esta base de datos. Esta métrica (por defecto) está etiquetada con db, app, user.|
+| **postgresql.wal.buffers_full**
(count) | Número de veces que los datos de WAL fueron escritos en el disco porque los buffers de WAL se llenaron. Los cambios de WAL se almacenan primero en los buffers de WAL. Si el buffer está lleno, las inserciones de WAL se bloquean hasta que se vacía el buffer. El tamaño de este buffer se define mediante la configuración de wal_buffers. Por defecto, utilizará el 3% del valor de shared_buffers.|
+| **postgresql.wal.bytes**
(count) | Cantidad total de WAL generada en bytes.
_Se muestra como bytes_ |
+| **postgresql.wal.full_page_images**
(count) | Número total de imágenes de páginas completas de WAL generadas. La escritura de páginas completas se producirá cuando un bloque se modifique por primera vez después de un punto de control.
_Se muestra como página_ |
+| **postgresql.wal.records**
(count) | Número total de registros WAL generados.
_Se muestra como registro_ |
+| **postgresql.wal.sync**
(count) | Número de veces que los archivos WAL fueron sincronizados con el disco.|
+| **postgresql.wal.sync_time**
(count) | Cantidad total de tiempo dedicado a sincronizar los archivos WAL con el disco, en milisegundos (si track_wal_io_timing está activado, fsync está activado y wal_sync_method es fdatasync, fsync o fsync_writethrough, de lo contrario cero).
_Se muestra como milisegundos_ |
+| **postgresql.wal.write**
(count) | Número de veces que los buffers de WAL se han escrito en disco.
_Se muestra como escritura_ |
+| **postgresql.wal.write_time**
(count) | Cantidad total de tiempo dedicado a escribir buffers de WAL en el disco, en milisegundos (si track_wal_io_timing está activado, de lo contrario cero).
_Se muestra como milisegundos_ |
+| **postgresql.wal_age**
(gauge) | Activado con `collect_wal_metrics`. Antigüedad en segundos del archivo WAL más antiguo.
_Se muestra como segundos_ |
+| **postgresql.wal_count**
(gauge) | Número de archivos WAL en disco.|
+| **postgresql.wal_receiver.connected**
(gauge) | Estado del receptor WAL. Esta métrica se configurará en 1 con una etiqueta (tag) 'status:disconnected' si la instancia no tiene un receptor WAL en ejecución. En caso contrario, utilizará el valor de estado de pg_stat_wal_receiver. Esta métrica está etiquetada con status.|
+| **postgresql.wal_receiver.last_msg_receipt_age**
(gauge) | Tiempo transcurrido desde la recepción del último mensaje del remitente WAL. Esta métrica está etiquetada con el status.
_Se muestra como segundos_ |
+| **postgresql.wal_receiver.last_msg_send_age**
(gauge) | Antigüedad del envío del último mensaje recibido del remitente WAL. Esta métrica está etiquetada con status.
_Se muestra como segundos_ |
+| **postgresql.wal_receiver.latest_end_age**
(gauge) | Tiempo transcurrido desde la recepción del último mensaje del remitente WAL con una actualización de la ubicación de WAL. Esta métrica está etiquetada con status.
_Se muestra como segundos_ |
+| **postgresql.wal_receiver.received_timeline**
(gauge) | Número de línea de tiempo de la última ubicación de escritura anticipada de logs recibida y vaciada al disco. El valor inicial de este campo es el número de línea de tiempo de la ubicación del primer log utilizada cuando se inicia el receptor WAL. Esta métrica está etiquetada con status.|
+| **postgresql.wal_size**
(gauge) | Suma de todos los archivos WAL en disco.
_Se muestra como bytes_ |
+
+Para la versión `7.32.0` y posteriores del Agent, si tienes Database Database Monitoring activado, la métrica `postgresql.connections` se etiqueta (tag) con `state`, `app`, `db` y `user`.
### Eventos
El check de PostgreSQL no incluye eventos.
### Checks de servicio
-{{< get-service-checks-from-git "postgres" >}}
+**postgres.can_connect**
+
+Devuelve `CRITICAL` si el Agent no puede conectarse a la instancia PostgreSQL monitorizada. Devuelve `OK` en caso contrario.
+
+_Estados: ok, crítico_
## Solucionar problemas
-¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][7].
+¿Necesita ayuda? Póngase en contacto con [Datadog support](https://docs.datadoghq.com/help).
## Referencias adicionales
-Más enlaces, artículos y documentación útiles:
+Documentación útil adicional, enlaces y artículos:
### FAQ
-- [Explicación de la recopilación de métricas personalizadas de PostgreSQL][8]
+- [Explicación de la recopilación de métricas personalizadas de PostgreSQL](https://docs.datadoghq.com/integrations/faq/postgres-custom-metric-collection-explained/)
### Entradas de blog
-- [Postgres 100 veces más rápido cambiando 1 línea][9]
-- [Monitorización de métricas clave para PostgreSQL][10]
-- [Recopilación de métricas con herramientas de monitorización PostgreSQL][11]
-- [Para recopilar y monitorizar datos de PostgreSQL con Datadog][12]
-
-
-[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/postgres/images/postgresql_dashboard.png
-[2]: https://docs.datadoghq.com/database_monitoring/
-[3]: https://app.datadoghq.com/account/settings/agent/latest
-[4]: https://docs.datadoghq.com/database_monitoring/#postgres
-[5]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information
-[6]: https://github.com/DataDog/integrations-core/blob/master/postgres/datadog_checks/postgres/data/conf.yaml.example
-[7]: https://docs.datadoghq.com/help
-[8]: https://docs.datadoghq.com/integrations/faq/postgres-custom-metric-collection-explained/
-[9]: https://www.datadoghq.com/blog/100x-faster-postgres-performance-by-changing-1-line
-[10]: https://www.datadoghq.com/blog/postgresql-monitoring
-[11]: https://www.datadoghq.com/blog/postgresql-monitoring-tools
-[12]: https://www.datadoghq.com/blog/collect-postgresql-data-with-datadog
+- [Rendimiento de Postgres 100 veces más rápido cambiando 1 línea](https://www.datadoghq.com/blog/100x-faster-postgres-performance-by-changing-1-line)
+- [Métricas clave para la monitorización de PostgreSQL](https://www.datadoghq.com/blog/postgresql-monitoring)
+- [Recopilación de métricas con herramientas de monitorización de PostgreSQL](https://www.datadoghq.com/blog/postgresql-monitoring-tools)
+- [Recopilación y monitorización de datos PostgreSQL con Datadog](https://www.datadoghq.com/blog/collect-postgresql-data-with-datadog)
\ No newline at end of file
diff --git a/content/es/integrations/process.md b/content/es/integrations/process.md
index f762697d2b8f4..152b13c0352ca 100644
--- a/content/es/integrations/process.md
+++ b/content/es/integrations/process.md
@@ -1,83 +1,39 @@
---
app_id: sistema
-app_uuid: 43bff15c-c943-4153-a0dc-25bb557ac763
-assets:
- integration:
- configuration:
- spec: assets/configuration/spec.yaml
- events:
- creates_events: false
- metrics:
- check: system.processes.cpu.pct
- metadata_path: metadata.csv
- prefix: sistema
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_name: Proceso
-author:
- homepage: https://www.datadoghq.com
- name: Datadog
- sales_email: info@datadoghq.com
- support_email: help@datadoghq.com
categories:
- os & system
-custom_kind: integration
-dependencies:
-- https://github.com/DataDog/integrations-core/blob/master/process/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: proceso
-integration_id: sistema
-integration_title: Procesos
-integration_version: 5.0.0
-is_public: true
-manifest_version: 2.0.0
-name: proceso
-public_title: Procesos
-short_description: Captura métricas y monitoriza el estado de procesos en ejecución.
+custom_kind: integración
+description: Captura métricas y monitoriza el estado de los procesos en ejecución.
+further_reading:
+- link: https://www.datadoghq.com/blog/process-check-monitoring
+ tag: blog
+ text: Monitorizar el consumo de recursos por parte de los procesos de un vistazo
+integration_version: 5.1.0
+media: []
supported_os:
- linux
- macos
- windows
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Supported OS::Linux
- - Supported OS::macOS
- - Supported OS::Windows
- - Category::Sistema operativo y sistema
- - Offering::Integración
- configuration: README.md#Configuración
- description: Captura métricas y monitoriza el estado de procesos en ejecución.
- media: []
- overview: README.md#Información general
- resources:
- - resource_type: blog
- url: https://www.datadoghq.com/blog/process-check-monitoring
- support: README.md#Soporte
- title: Procesos
+title: Procesos
---
-
-
-
-
## Información general
-El check de proceso te permite:
+El check de procesos te permite:
+
- Recopila métricas del uso de recursos para procesos en ejecución específicos en cualquier host. Por ejemplo, CPU, memoria, E/S y número de subprocesos.
-- Utiliza [monitores de procesos][1] para configurar umbrales de cuántas instancias de un proceso específico deben ejecutarse y recibe alertas cuando no se cumplen los umbrales (consulta **Checks de servicio* a continuación).
+- Utiliza [monitores de procesos](https://docs.datadoghq.com/monitors/create/types/process_check/?tab=checkalert) para configurar umbrales sobre cuántas instancias de un proceso específico deben ejecutarse y recibir alertas cuando los umbrales no se cumplen (consulta **Checks de servicio** más abajo).
## Configuración
### Instalación
-El check de procesos está incluido en el paquete del [Datadog Agent][2], por lo que no necesitas instalar nada más en tu servidor.
+El check de procesos está incluido en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest), por lo que no necesitas instalar nada más en tu servidor.
### Configuración
A diferencia de muchos checks, el check de procesos no monitoriza nada útil por defecto. Debes configurar los procesos que quieres monitorizar.
-Aunque no hay una configuración de check por defecto, aquí hay un ejemplo de `process.d/conf.yaml` que monitoriza procesos SSH/SSHD. Para ver todas las opciones de configuración disponibles, consulta el [process.d/conf.yaml de ejemplo][3]:
+Si bien no existe una configuración de check estándar por defecto, aquí hay un ejemplo de `process.d/conf.yaml` que monitoriza los procesos SSH/SSHD. Consulta el [ejemplo process.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/process/datadog_checks/process/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles:
```yaml
init_config:
@@ -88,9 +44,9 @@ instances:
- sshd
```
-**Nota**: Asegúrate de [reiniciar el Agent][4] después de realizar cambios de configuración.
+**Nota**: Después de realizar cambios en la configuración, asegúrate de [reiniciar el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
-La recuperación de algunas métricas de procesos requiere que el recopilador de Datadog se ejecute como el usuario del proceso monitorizado o con acceso privilegiado. Para la métrica`open_file_descriptors` en plataformas Unix, existe una opción de configuración adicional. Configurar `try_sudo` como `true` en el archivo `conf.yaml` permite que el El check de procesos intente utilizar `sudo` para recopilar la métrica `open_file_descriptors`. El uso de esta opción de configuración requiere definir reglas para sudoers apropiadas en `/etc/sudoers`:
+La recuperación de algunas métricas de procesos requiere que el recopilador de Datadog se ejecute como el usuario del proceso monitorizado o con acceso privilegiado. Para la métrica`open_file_descriptors` en plataformas Unix, existe una opción de configuración adicional. Configurar `try_sudo` como `true` en el archivo `conf.yaml` permite que el check de procesos intente utilizar `sudo` para recopilar la métrica `open_file_descriptors`. El uso de esta opción de configuración requiere definir reglas para sudoers apropiadas en `/etc/sudoers`:
```shell
dd-agent ALL=NOPASSWD: /bin/ls /proc/*/fd/
@@ -98,14 +54,16 @@ dd-agent ALL=NOPASSWD: /bin/ls /proc/*/fd/
### Validación
-Ejecuta el [subcomando de estado del Agent][5] y busca `process` en la sección Checks.
+Ejecuta el [subcomando de estado del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `process` en la sección Checks.
### Notas de métricas
Las siguientes métricas no están disponibles en Linux o macOS:
-- Las métricas de I/O de procesos **no** están disponibles en Linux o macOS, ya que los archivos que lee el Agent (`/proc//io`) sólo pueden ser leídos por el propietario del proceso. Para obtener más información, [lee las FAQ del Agent][6].
+
+- Las métricas de E/S del proceso **no** están disponibles en Linux o macOS, ya que los archivos que lee el Agent (`/proc//io`) solo son legibles por el propietario del proceso. Para obtener más información, [lee las FAQ del Agent](https://docs.datadoghq.com/agent/faq/why-don-t-i-see-the-system-processes-open-file-descriptors-metric/).
Las siguientes métricas no están disponibles en Windows:
+
- `system.cpu.iowait`
- `system.processes.mem.page_faults.minor_faults`
- `system.processes.mem.page_faults.children_minor_faults`
@@ -113,50 +71,68 @@ Las siguientes métricas no están disponibles en Windows:
- `system.processes.mem.page_faults.children_major_faults`
- `system.processes.mem.real`
-**Nota**: Utiliza un [check de WMI][7] para reunir métricas de fallos de páginas en Windows.
+**Nota**: Utiliza un [check de WMI](https://docs.datadoghq.com/integrations/wmi_check/) para recopilar métricas de fallos de páginas en Windows.
+
+**Nota**: En la versión 6.11 o posteriores en Windows, el Agent se ejecuta como `ddagentuser` en lugar de `Local System`. Debido a [esto](https://docs.datadoghq.com/agent/guide/windows-agent-ddagent-user/#process-check), no tiene acceso a la línea de comandos completa de los procesos que se ejecutan bajo otros usuarios y al usuario de los procesos de otros usuarios. Esto provoca que las siguientes opciones del check no funcionen:
-**Nota**: En la versión 6.11 o posteriores en Windows, el Agent se ejecuta como `ddagentuser` en lugar de `Local System`. Debido a [esto][8], no tiene acceso a la línea de comandos completa de los procesos que se ejecutan bajo otros usuarios y al usuario de otros procesos de usuarios. Esto provoca que las siguientes opciones de check no funcionen:
- `exact_match`, cuando se configura como `false`
- `user`, que permite seleccionar los procesos que pertenecen a un usuario específico
Todas las métricas se configuran por `instance` en process.yaml y están etiquetados como `process_name:`.
-La métrica `system.processes.cpu.pct` enviada por este check sólo es exacta en procesos que duran más
-de 30 segundos. No esperes que tu valor sea exacto en procesos con duraciones más cortas.
+La métrica `system.processes.cpu.pct` enviada por este check solo es precisa para los procesos que viven más de
+de 30 segundos. No esperes que su valor sea exacto para procesos de vida más corta.
Para ver la lista completa de métricas, consulta la sección [Métricas](#metrics).
## Datos recopilados
### Métricas
-{{< get-metrics-from-git "process" >}}
+| | |
+| --- | --- |
+| **system.processes.cpu.pct**
(gauge) | Uso de CPU de un proceso.
_Se muestra como porcentaje_ |
+| **system.processes.cpu.normalized_pct**
(gauge) | Uso normalizado de CPU de un proceso.
_Se muestra como porcentaje_ |
+| **system.processes.involuntary_ctx_switches**
(gauge) | Número de cambios de contexto involuntarios realizados por este proceso.
_Se muestra como evento_ |
+| **system.processes.ioread_bytes**
(gauge) | Número de bytes leídos del disco por este proceso. En Windows: el número de bytes leídos.
_Se muestra como bytes_ |
+| **system.processes.ioread_bytes_count**
(count) | Número de bytes leídos del disco por este proceso. En Windows: el número de bytes leídos.
_Se muestra como bytes_ |
+| **system.processes.ioread_count**
(gauge) | Número de lecturas del disco realizadas por este proceso. En Windows: el número de lecturas realizadas por este proceso.
_Se muestra como lectura_ |
+| **system.processes.iowrite_bytes**
(gauge) | Número de bytes escritos en el disco por este proceso. En Windows: el número de bytes escritos por este proceso.
_Se muestra como bytes_ |
+| **system.processes.iowrite_bytes_count**
(count) | Número de bytes escritos en el disco por este proceso. En Windows: el número de bytes escritos por este proceso.
_Se muestra como bytes_ |
+| **system.processes.iowrite_count**
(gauge) | Número de escrituras en el disco realizadas por este proceso. En Windows: el número de escrituras de este proceso.
_Se muestra como escritura_ |
+| **system.processes.mem.page_faults.minor_faults**
(gauge) | En Unix/Linux y macOS: el número de fallos menores de página por segundo para este proceso.
_Se muestra como caso_ |
+| **system.processes.mem.page_faults.children_minor_faults**
(gauge) | En Unix/Linux y macOS: el número de fallos menores de página por segundo por cada elemento secundario para este proceso.
_Se muestra como caso_ |
+| **system.processes.mem.page_faults.major_faults**
(gauge) | En Unix/Linux y macOS: el número de fallos mayores de página por segundo para este proceso.
_Se muestra como caso_ |
+| **system.processes.mem.page_faults.children_major_faults**
(gauge) | En Unix/Linux y macOS: el número de fallos mayores de página por segundo por cada elemento secundario para este proceso.
_Se muestra como caso_ |
+| **system.processes.mem.pct**
(gauge) | Consumo de memoria del proceso.
_Se muestra como porcentaje_ |
+| **system.processes.mem.real**
(gauge) | Memoria física no intercambiada que un proceso ha utilizado y no puede ser compartida con otro proceso (solo Linux).
_Se muestra como bytes_ |
+| **system.processes.mem.rss**
(gauge) | Memoria física no intercambiada que un proceso ha utilizado. también conocido como "Tamaño del conjunto residente".
_Se muestra como bytes_ |
+| **system.processes.mem.vms**
(gauge) | Cantidad total de memoria virtual utilizada por el proceso. también conocido como "Tamaño de memoria virtual".
_Se muestra como bytes_ |
+| **system.processes.number**
(gauge) | Número de procesos.
_Se muestra como proceso_ |
+| **system.processes.open_file_descriptors**
(gauge) | Número de descriptores de archivos utilizados por este proceso (solo disponible para procesos ejecutados como usuario dd-agent)|
+| **system.processes.open_handles**
(gauge) | Número de manejadores utilizados por este proceso.|
+| **system.processes.threads**
(gauge) | Número de subprocesos utilizados por este proceso.
_Se muestra como subproceso_ |
+| **system.processes.voluntary_ctx_switches**
(gauge) | Número de cambios de contexto voluntarios realizados por este proceso.
_Se muestra como evento_ |
+| **system.processes.run_time.avg**
(gauge) | Tiempo medio de ejecución de todas las instancias de este proceso
_Se muestra como segundos_ |
+| **system.processes.run_time.max**
(gauge) | Tiempo más largo de ejecución de todas las instancias de este proceso
_Se muestra como segundos_ |
+| **system.processes.run_time.min**
(gauge) | Tiempo más corto de ejecución de todas las instancias de este proceso
_Se muestra como segundos_ |
### Eventos
El check de procesos no incluye eventos.
### Checks de servicio
-{{< get-service-checks-from-git "process" >}}
+**process.up**
+
+Devuelve OK si el check está dentro de los umbrales de advertencia, CRITICAL si está fuera de los umbrales críticos y WARNING si está fuera de los umbrales de advertencia.
+
+_Estados: ok, advertencia, crítico_
## Solucionar problemas
-¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][11].
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/).
## Referencias adicionales
-Para hacerse una mejor idea de cómo (o por qué) monitorizar el consumo de recursos de los proceso con Datadog, consulta esta [serie de entradas de blog][12].
-
-[1]: https://docs.datadoghq.com/es/monitors/create/types/process_check/?tab=checkalert
-[2]: https://app.datadoghq.com/account/settings/agent/latest
-[3]: https://github.com/DataDog/integrations-core/blob/master/process/datadog_checks/process/data/conf.yaml.example
-[4]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
-[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
-[6]: https://docs.datadoghq.com/es/agent/faq/why-don-t-i-see-the-system-processes-open-file-descriptors-metric/
-[7]: https://docs.datadoghq.com/es/integrations/wmi_check/
-[8]: https://docs.datadoghq.com/es/agent/guide/windows-agent-ddagent-user/#process-check
-[9]: https://github.com/DataDog/integrations-core/blob/master/process/metadata.csv
-[10]: https://github.com/DataDog/integrations-core/blob/master/process/assets/service_checks.json
-[11]: https://docs.datadoghq.com/es/help/
-[12]: https://www.datadoghq.com/blog/process-check-monitoring
\ No newline at end of file
+Para hacerte una mejor idea de cómo (o por qué) monitorizar el consumo de recursos por parte de los proceso con Datadog, consulta esta [serie de entradas de blog](https://www.datadoghq.com/blog/process-check-monitoring).
\ No newline at end of file
diff --git a/content/es/integrations/pulsar.md b/content/es/integrations/pulsar.md
index 69d7cab3c8dc1..843c79459d1cf 100644
--- a/content/es/integrations/pulsar.md
+++ b/content/es/integrations/pulsar.md
@@ -1,138 +1,277 @@
---
app_id: pulsar
-app_uuid: 2a3a1555-3c19-42a9-b954-ce16c4aa6308
-assets:
- integration:
- auto_install: true
- configuration:
- spec: assets/configuration/spec.yaml
- events:
- creates_events: false
- metrics:
- check: pulsar.active_connections
- metadata_path: metadata.csv
- prefix: pulsar.
- process_signatures:
- - java org.apache.pulsar.PulsarStandaloneStarter
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 10143
- source_type_name: pulsar
-author:
- homepage: https://www.datadoghq.com
- name: Datadog
- sales_email: info@datadoghq.com
- support_email: help@datadoghq.com
categories:
- recopilación de logs
- colas de mensajes
custom_kind: integración
-dependencies:
-- https://github.com/DataDog/integrations-core/blob/master/pulsar/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: pulsar
-integration_id: pulsar
-integration_title: Pulsar
+description: Monitoriza tus clústeres Pulsar.
integration_version: 3.2.0
-is_public: true
-manifest_version: 2.0.0
-name: pulsar
-public_title: Pulsar
-short_description: Monitoriza tus clústeres Pulsar.
+media: []
supported_os:
- Linux
- Windows
- macOS
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Categoría::Recopilación de logs
- - Categoría::Colas de mensajes
- - Sistema operativo compatible::Linux
- - Sistema operativo compatible::Windows
- - Sistema operativo compatible::macOS
- - Oferta::Integración
- configuration: README.md#Configuración
- description: Monitoriza tus clústeres Pulsar.
- media: []
- overview: README.md#Información general
- support: README.md#Soporte
- title: Pulsar
+title: Pulsar
---
-
-
-
-
## Información general
-Este check monitoriza [Pulsar][1] a través del Datadog Agent.
+Este check monitoriza [Pulsar](https://pulsar.apache.org) a través del Datadog Agent.
## Configuración
-Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecuta en un host. Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][2] para obtener orientación sobre la aplicación de estas instrucciones.
+Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecute en un host. Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/kubernetes/integrations/) para obtener orientación sobre la aplicación de estas instrucciones.
### Instalación
-El check de Pulsar está incluido en el paquete del [Datadog Agent ][3].
+El check de Pulsar está incluido en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest).
No es necesaria ninguna instalación adicional en tu servidor.
### Configuración
-1. Edita el archivo `pulsar.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del directorio de configuración del Agent, para empezar a recopilar los datos de rendimiento de tu Pulsar. Para conocer todas las opciones de configuración disponibles, consulta el [pulsar.d/conf.yaml de ejemplo][4].
+1. Edita el archivo `pulsar.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu directorio de configuración del Agent para empezar a recopilar tus datos de rendimiento de Pulsar. Consulta el [ejemplo pulsar.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/pulsar/datadog_checks/pulsar/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles.
-2. [Reinicia el Agent][5].
+1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
### Validación
-[Ejecuta el subcomando de estado del Agent][6] y busca `pulsar` en la sección Checks.
+[Ejecuta el subcomando de estado del Agent] (https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `pulsar` en la sección Checks.
## Datos recopilados
### Métricas
-{{< get-metrics-from-git "pulsar" >}}
-
+| | |
+| --- | --- |
+| **pulsar.active_connections**
(gauge) | Número de conexiones activas.
_Se muestra como conexión_ |
+| **pulsar.authentication_failures_count.count**
(count) | Número de operaciones de autenticación fallidas.|
+| **pulsar.authentication_success_count.count**
(count) | Número de operaciones de autenticación realizadas con éxito.|
+| **pulsar.bookie_DELETED_LEDGER_COUNT.count**
(count) | Número total de ledgers eliminados desde que fue iniciado el bookie.|
+| **pulsar.bookie_READ_BYTES.count**
(count) | Número total de bytes leídos del bookie.
_Se muestra como bytes_ |
+| **pulsar.bookie_SERVER_STATUS**
(gauge) | Estado del servidor del bookie server. 1: el bookie se ejecuta en modo de escritura.0: el bookie se ejecuta en modo de solo lectura.|
+| **pulsar.bookie_WRITE_BYTES.count**
(count) | Número total de bytes escritos en el bookie.
_Se muestra como bytes_ |
+| **pulsar.bookie_entries_count**
(gauge) | Número total de entradas almacenadas en el bookie.|
+| **pulsar.bookie_flush**
(gauge) | Latencia de descarga de la tabla de la memoria del bookie.|
+| **pulsar.bookie_journal_JOURNAL_CB_QUEUE_SIZE**
(gauge) | Número total de devoluciones de llamada pendientes en la cola de devoluciones de llamada.|
+| **pulsar.bookie_journal_JOURNAL_FORCE_WRITE_QUEUE_SIZE**
(gauge) | Número total de solicitudes de escritura forzada (fsync) pendientes en la cola de escritura forzada.
_Se muestra como solicitud_ |
+| **pulsar.bookie_journal_JOURNAL_QUEUE_SIZE**
(gauge) | Número total de solicitudes pendientes en la cola de registros.
_Se muestra como solicitud_ |
+| **pulsar.bookie_journal_JOURNAL_SYNC_count.count**
(count) | Número total de operaciones fsync de diario que se producen en el bookie. La etiqueta de éxito se utiliza para distinguir éxitos y fracasos.|
+| **pulsar.bookie_ledger_writable_dirs**
(gauge) | Número de directorios con permisos de escritura en el bookie.|
+| **pulsar.bookie_ledgers_count**
(gauge) | Número total de ledgers almacenados en el bookie.|
+| **pulsar.bookie_read_cache_size**
(gauge) | Tamaño de la caché de lectura del bookie (en bytes).
_Se muestra como bytes_ |
+| **pulsar.bookie_throttled_write_requests.count**
(count) | Número de solicitudes de escritura que se deben limitar.
_Se muestra como solicitud_ |
+| **pulsar.bookie_write_cache_size**
(gauge) | Tamaño de la caché de escritura del bookie (en bytes).
_Se muestra como bytes_ |
+| **pulsar.bookkeeper_server_ADD_ENTRY_count.count**
(count) | Número total de solicitudes ADD_ENTRY recibidas en el bookie. La etiqueta de éxito se utiliza para distinguir éxitos y fracasos.
_Se muestra como solicitud_. |
+| **pulsar.bookkeeper_server_BOOKIE_QUARANTINE_count.count**
(count) | Número de clientes de bookie que deben colocarse en cuarentena.|
+| **pulsar.bookkeeper_server_READ_ENTRY_count.count**
(count) | Número total de solicitudes READ_ENTRY recibidas en el bookie. La etiqueta de éxito se utiliza para distinguir éxitos y fracasos.
_Se muestra como solicitud_ |
+| **pulsar.brk_ml_cursor_nonContiguousDeletedMessagesRange**
(gauge) | Número de rangos de mensajes no contiguos eliminados.|
+| **pulsar.brk_ml_cursor_persistLedgerErrors**
(gauge) | Número de errores de ledger ocurridos cuando los estados de reconocimiento no logran ser persistentes en el ledger.
_Se muestra como error_ |
+| **pulsar.brk_ml_cursor_persistLedgerSucceed**
(gauge) | Número de estados de reconocimiento persistentes en un ledger.|
+| **pulsar.brk_ml_cursor_persistZookeeperErrors**
(gauge) | Número de errores del ledger cuando los estados de reconocimiento no logran ser persistentes en ZooKeeper.
_Se muestra como error_ |
+| **pulsar.brk_ml_cursor_persistZookeeperSucceed**
(gauge) | Número de estados de reconocimiento persistentes en ZooKeeper.|
+| **pulsar.brk_ml_cursor_readLedgerSize**
(gauge) | Tamaño de la lectura del ledger.|
+| **pulsar.brk_ml_cursor_writeLedgerLogicalSize**
(gauge) | Tamaño de la escritura en el ledger (teniendo en cuenta sin réplicas).|
+| **pulsar.brk_ml_cursor_writeLedgerSize**
(gauge) | Tamaño de la escritura en el ledger.|
+| **pulsar.broker_load_manager_bundle_assignment**
(gauge) | Resumen de la latencia de las operaciones de propiedad de paquetes.|
+| **pulsar.broker_lookup.count**
(count) | Número de muestras de la latencia de todas las operaciones de búsqueda.|
+| **pulsar.broker_lookup.quantle**
(count) | Latencia de todas las operaciones de búsqueda.|
+| **pulsar.broker_lookup.sum**
(count) | Latencia total de todas las operaciones de búsqueda.|
+| **pulsar.broker_lookup_answers.count**
(count) | Número de respuestas de búsqueda (es decir, solicitudes no redirigidas).
_Se muestra como respuesta_ |
+| **pulsar.broker_lookup_failures.count**
(count) | Número de errores de búsqueda.|
+| **pulsar.broker_lookup_pending_requests**
(gauge) | Número de búsquedas pendientes en el broker. Cuando alcanza el umbral, se rechazan las nuevas solicitudes.
_Se muestra como solicitud_ |
+| **pulsar.broker_lookup_redirects.count**
(count) | Número de solicitudes de búsqueda redirigidas.
_Se muestra como solicitud_ |
+| **pulsar.broker_throttled_connections**
(gauge) | Número de conexiones limitadas.
_Se muestra como conexión_ |
+| **pulsar.broker_throttled_connections_global_limit**
(gauge) | Número de conexiones limitadas debido al límite por conexión.
_Se muestra como conexión_ |
+| **pulsar.broker_topic_load_pending_requests**
(gauge) | Carga de operaciones de temas pendientes.|
+| **pulsar.bundle_consumer_count**
(gauge) | Recuento de consumidores de temas de este paquete.|
+| **pulsar.bundle_msg_rate_in**
(gauge) | Tasa total de mensajes que llegan a los temas de este paquete (mensajes/segundo).|
+| **pulsar.bundle_msg_rate_out**
(gauge) | Tasa total de mensajes que salen de los temas de este paquete (mensajes/segundo).|
+| **pulsar.bundle_msg_throughput_in**
(gauge) | Rendimiento total que entra en los temas de este paquete (bytes/segundo).|
+| **pulsar.bundle_msg_throughput_out**
(gauge) | Rendimiento total que sale de los temas de este paquete (bytes/segundo).|
+| **pulsar.bundle_producer_count**
(gauge) | Recuento de productores de los temas de este paquete.|
+| **pulsar.bundle_topics_count**
(gauge) | Recuento de temas de este paquete.|
+| **pulsar.compaction_compacted_entries_count**
(gauge) | Número total de entradas compactadas.|
+| **pulsar.compaction_compacted_entries_size**
(gauge) | Tamaño total de las entradas compactadas.|
+| **pulsar.compaction_duration_time_in_mills**
(gauge) | Duración de la compactación.|
+| **pulsar.compaction_failed_count**
(gauge) | Número total de fallos de la compactación.|
+| **pulsar.compaction_read_throughput**
(gauge) | Rendimiento de lectura de la compactación.|
+| **pulsar.compaction_removed_event_count**
(gauge) | Número total de eventos eliminados de la compactación.|
+| **pulsar.compaction_succeed_count**
(gauge) | Número total de éxitos de la compactación.|
+| **pulsar.compaction_write_throughput**
(gauge) | Rendimiento de escritura de la compactación.|
+| **pulsar.connection_closed_total_count**
(gauge) | Número total de conexiones cerradas.
_Se muestra como conexión_ |
+| **pulsar.connection_create_fail_count**
(gauge) | Número de conexiones fallidas.
_Se muestra como conexión_ |
+| **pulsar.connection_create_success_count**
(gauge) | Número de conexiones creadas con éxito.
_Se muestra como conexión_ |
+| **pulsar.connection_created_total_count**
(gauge) | Número total de conexiones.
_Se muestra como conexión_ |
+| **pulsar.consumer_available_permits**
(gauge) | Permisos disponibles para un consumidor.|
+| **pulsar.consumer_blocked_on_unacked_messages**
(gauge) | Indica si un consumidor está bloqueado en mensajes no reconocidos o no. 1 significa que el consumidor está bloqueado a la espera de que los mensajes no reconocidos sean reconocidos, acked.0 significa que el consumidor no está bloqueado a la espera de que los mensajes no reconocidos sean reconocidos.|
+| **pulsar.consumer_msg_rate_out**
(gauge) | Tasa total de envío de mensajes de un consumidor (mensajes/segundo).|
+| **pulsar.consumer_msg_rate_redeliver**
(gauge) | Tasa total de mensajes que se vuelven a entregar (mensajes/segundo).|
+| **pulsar.consumer_msg_throughput_out**
(gauge) | Rendimiento total de envío de mensajes a un consumidor (bytes/segundo).|
+| **pulsar.consumer_unacked_messages**
(gauge) | Número total de mensajes no reconocidos de un consumidor (mensajes).
_Se muestra como mensaje_ |
+| **pulsar.consumers_count**
(gauge) | Número de consumidores activos del espacio de nombres conectados a este broker.|
+| **pulsar.expired_token_count.count**
(count) | Número de tokens caducados en Pulsar.|
+| **pulsar.function_last_invocation**
(gauge) | Marca de tiempo de la última invocación de la función.|
+| **pulsar.function_processed_successfully_total.count**
(count) | Número total de mensajes procesados con éxito.
_Se muestra como mensaje_ |
+| **pulsar.function_processed_successfully_total_1min.count**
(count) | Número total de mensajes procesados con éxito en el último minuto.
_Se muestra como mensaje_ |
+| **pulsar.function_received_total.count**
(count) | Número total de mensajes recibidos de la fuente.
_Se muestra como mensaje_ |
+| **pulsar.function_received_total_1min.count**
(count) | Número total de mensajes recibidos de la fuente en el último minuto.
_Se muestra como mensaje_ |
+| **pulsar.function_system_exceptions_total.count**
(count) | Número total de excepciones del sistema.|
+| **pulsar.function_system_exceptions_total_1min.count**
(count) | Número total de excepciones del sistema en el último minuto.|
+| **pulsar.function_user_exceptions_total.count**
(count) | Número total de excepciones de usuarios.|
+| **pulsar.function_user_exceptions_total_1min.count**
(count) | Número total de excepciones de usuarios en el último minuto.|
+| **pulsar.in_bytes_total**
(gauge) | Número de mensajes en bytes recibidos de este tema.
_Se muestra como byte_ |
+| **pulsar.in_messages_total**
(gauge) | Número total de mensajes recibidos de este tema.
_Se muestra como mensaje_ |
+| **pulsar.jetty_async_dispatches_total.count**
(count) | Número de solicitudes que se han enviado de forma asíncrona.|
+| **pulsar.jetty_async_requests_total.count**
(count) | Número total de solicitudes asíncronas.
_Se muestra como solicitud_ |
+| **pulsar.jetty_async_requests_waiting**
(gauge) | Actualmente esperando solicitudes asíncronas.
_Se muestra como solicitud_ |
+| **pulsar.jetty_async_requests_waiting_max**
(gauge) | Número máximo de peticiones solicitudes en espera.
_Se muestra como solicitud_ |
+| **pulsar.jetty_dispatched_active**
(gauge) | Número de envíos activos actualmente.|
+| **pulsar.jetty_dispatched_active_max**
(gauge) | Número máximo de envíos activos que se están gestionando.|
+| **pulsar.jetty_dispatched_time_max**
(gauge) | Tiempo máximo dedicado a la gestión de envíos.|
+| **pulsar.jetty_dispatched_time_seconds_total.count**
(count) | Tiempo total dedicado a la gestión del envío.
_Se muestra como segundos_ |
+| **pulsar.jetty_dispatched_total.count**
(count) | Número de envíos.|
+| **pulsar.jetty_expires_total.count**
(count) | Número de solicitudes asíncronas que han caducado.
_Se muestra como solicitud_ |
+| **pulsar.jetty_request_time_max_seconds**
(gauge) | Tiempo máximo dedicado a la gestión de solicitudes.
_Se muestra como segundos_ |
+| **pulsar.jetty_request_time_seconds_total.count**
(count) | Tiempo total dedicado a la gestión de todas las solicitudes.
_Se muestra como segundos_ |
+| **pulsar.jetty_requests_active**
(gauge) | Número de solicitudes activas actualmente.
_Se muestra como solicitud_ |
+| **pulsar.jetty_requests_active_max**
(gauge) | Número máximo de solicitudes que han estado activas a la vez.
_Se muestra como solicitud_ |
+| **pulsar.jetty_requests_total.count**
(count) | Número de solicitudes.
_Se muestra como solicitud_ |
+| **pulsar.jetty_responses_bytes_total.count**
(count) | Número total de bytes en todas las respuestas.
_Se muestra como bytes_ |
+| **pulsar.jetty_responses_total.count**
(count) | Número de respuestas, etiquetadas por código de estado. La etiqueta del código puede ser "1xx", "2xx", "3xx", "4xx" o "5xx".
_Se muestra como respuesta_ |
+| **pulsar.jetty_stats_seconds**
(gauge) | Tiempo en segundos durante el que se han recopilado estadísticas.
_Se muestra como segundos_ |
+| **pulsar.lb_bandwidth_in_usage**
(gauge) | Uso de ancho de banda entrante del broker (en porcentaje).|
+| **pulsar.lb_bandwidth_out_usage**
(gauge) | Uso de ancho de banda saliente del broker (en porcentaje).|
+| **pulsar.lb_bundles_split_count.count**
(count) | Recuento de división de paquetes en este intervalo de comprobación de división de paquetes|
+| **pulsar.lb_cpu_usage**
(gauge) | Uso de cpu del broker (en porcentaje).|
+| **pulsar.lb_directMemory_usage**
(gauge) | Uso de memoria directa del proceso de broker (en porcentaje).|
+| **pulsar.lb_memory_usage**
(gauge) | Uso de memoria del proceso del broker (en porcentaje).|
+| **pulsar.lb_unload_broker_count.count**
(count) | Recuento de brokers de descarga en esta descarga de paquetes|
+| **pulsar.lb_unload_bundle_count.count**
(count) | Recuento de descarga de paquetes en esta descarga de paquetes|
+| **pulsar.ml_AddEntryBytesRate**
(gauge) | Tasa de bytes/s de mensajes añadidos|
+| **pulsar.ml_AddEntryErrors**
(gauge) | Número de solicitudes addEntry fallidas
_Se muestra como solicitud_ |
+| **pulsar.ml_AddEntryMessagesRate**
(gauge) | Tasa de msg/s de mensajes añadidos|
+| **pulsar.ml_AddEntrySucceed**
(gauge) | Número de solicitudes de addEntry exitosas
_Se muestra como solicitud_ |
+| **pulsar.ml_AddEntryWithReplicasBytesRate**
(gauge) | Tasa de bytes/s de mensajes añadidos con réplicas|
+| **pulsar.ml_MarkDeleteRate**
(gauge) | Tasa de operaciones/s de marcado-eliminación|
+| **pulsar.ml_NumberOfMessagesInBacklog**
(gauge) | Número de mensajes pendientes para todos los consumidores
_Se muestra como mensaje_ |
+| **pulsar.ml_ReadEntriesBytesRate**
(gauge) | Tasa de bytes/s de mensajes leídos|
+| **pulsar.ml_ReadEntriesErrors**
(gauge) | Número de solicitudes readEntries fallidas
_Se muestra como solicitud_ |
+| **pulsar.ml_ReadEntriesRate**
(gauge) | Tasa de msg/s de mensajes leídos|
+| **pulsar.ml_ReadEntriesSucceeded**
(gauge) | Número de solicitudes readEntries exitosas
_Se muestra como solicitud_ |
+| **pulsar.ml_StoredMessagesSize**
(gauge) | Tamaño total de los mensajes en ledgers activos (teniendo en cuenta las múltiples copias almacenadas).|
+| **pulsar.ml_cache_evictions**
(gauge) | Número de desalojos de la caché durante el último minuto.
_Se muestra como desalojo_ |
+| **pulsar.ml_cache_hits_rate**
(gauge) | Número de accesos a la caché por segundo en el lado del broker.
_Se muestra como hit_ |
+| **pulsar.ml_cache_hits_throughput**
(gauge) | Cantidad de datos que se recuperan de la caché en el lado del broker (en bytes/s).|
+| **pulsar.ml_cache_misses_rate**
(gauge) | Número de fallos de caché por segundo en el lado del broker.
_Se muestra como fallo_ |
+| **pulsar.ml_cache_misses_throughput**
(gauge) | Cantidad de datos que no se recuperan de la caché en el lado del broker (en byte/s).|
+| **pulsar.ml_cache_pool_active_allocations**
(gauge) | Número de asignaciones actualmente activas en el ámbito directo|
+| **pulsar.ml_cache_pool_active_allocations_huge**
(gauge) | Número de grandes asignaciones actualmente activas en el ámbito directo|
+| **pulsar.ml_cache_pool_active_allocations_normal**
(gauge) | Número de asignaciones normales actualmente activas en el ámbito directo|
+| **pulsar.ml_cache_pool_active_allocations_small**
(gauge) | Número de pequeñas asignaciones actualmente activas en el ámbito directo|
+| **pulsar.ml_cache_pool_allocated**
(gauge) | Memoria total asignada a las listas de fragmentos en el ámbito directo|
+| **pulsar.ml_cache_pool_used**
(gauge) | Memoria total utilizada de las listas de fragmentos en el ámbito directo|
+| **pulsar.ml_cache_used_size**
(gauge) | Tamaño en bytes utilizado para almacenar las cargas útiles de las entradas
_Se muestra como bytes_ |
+| **pulsar.ml_count**
(gauge) | Número de ledgers gestionados actualmente abiertos|
+| **pulsar.out_bytes_total**
(gauge) | Número total de mensajes en bytes leídos de este tema.
_Se muestra como bytes_ |
+| **pulsar.out_messages_total**
(gauge) | Número total de mensajes leídos de este tema.
_Se muestra como mensaje_ |
+| **pulsar.producers_count**
(gauge) | Número de productores activos del espacio de nombres conectados a este broker.|
+| **pulsar.proxy_active_connections**
(gauge) | Número de conexiones activas actualmente en el proxy.
_Se muestra como conexión_ |
+| **pulsar.proxy_binary_bytes.count**
(count) | Contador de bytes proxy.
_Se muestra como bytes_ |
+| **pulsar.proxy_binary_ops.count**
(count) | Contador de operaciones proxy.|
+| **pulsar.proxy_new_connections.count**
(count) | Contador de conexiones que se están abriendo en el proxy.
_Se muestra como conexión_ |
+| **pulsar.proxy_rejected_connections.count**
(count) | Contador de conexiones rechazadas por limitación.
_Se muestra como conexión_ |
+| **pulsar.rate_in**
(gauge) | Tasa total de mensajes del espacio de nombres que llegan a este broker (mensajes/segundo).|
+| **pulsar.rate_out**
(gauge) | Tasa total de mensajes del espacio de nombres que salen de este broker (mensajes/segundo).|
+| **pulsar.replication_backlog**
(gauge) | Backlog total del espacio de nombres que replica al clúster remoto (mensajes).
_Se muestra como mensaje_ |
+| **pulsar.replication_connected_count**
(gauge) | Recuento de suscriptores de replicación en funcionamiento para replicar al clúster remoto.|
+| **pulsar.replication_delay_in_seconds**
(gauge) | Tiempo en segundos desde el momento en que se produjo un mensaje hasta el momento en que está a punto de ser replicado.
_Se muestra como segundos_ |
+| **pulsar.replication_rate_expired**
(gauge) | Tasa total de mensajes caducados (mensajes/segundo).|
+| **pulsar.replication_rate_in**
(gauge) | Tasa total de mensajes del espacio de nombres que replica desde el clúster remoto (mensajes/segundo).|
+| **pulsar.replication_rate_out**
(gauge) | Tasa total de mensajes del espacio de nombres que replica al clúster remoto (mensajes/segundo).|
+| **pulsar.replication_throughput_in**
(gauge) | Rendimiento total del espacio de nombres que replica desde el clúster remoto (bytes/segundo).|
+| **pulsar.replication_throughput_out**
(gauge) | Rendimiento total del espacio de nombres que replica al clúster remoto (bytes/segundo).|
+| **pulsar.sink_last_invocation**
(gauge) | Marca de tiempo de la última invocación del sumidero.|
+| **pulsar.sink_received_total.count**
(count) | Número total de registros que un sumidero ha recibido de temas Pulsar.|
+| **pulsar.sink_received_total_1min.count**
(count) | Número total de mensajes que un sumidero ha recibido de temas Pulsar en el último minuto.
_Se muestra como mensaje_ |
+| **pulsar.sink_sink_exception**
(gauge) | Excepción de un sumidero.|
+| **pulsar.sink_sink_exceptions_total.count**
(count) | Número total de excepciones de sumidero.|
+| **pulsar.sink_sink_exceptions_total_1min.count**
(count) | Número total de excepciones de sumidero en el último minuto.|
+| **pulsar.sink_system_exception**
(gauge) | Excepción del código del sistema.|
+| **pulsar.sink_system_exceptions_total.count**
(count) | Número total de excepciones del sistema.|
+| **pulsar.sink_system_exceptions_total_1min.count**
(count) | Número total de excepciones del sistema en el último minuto.|
+| **pulsar.sink_written_total.count**
(count) | Número total de registros procesados por un sumidero.|
+| **pulsar.sink_written_total_1min.count**
(count) | Número total de registros procesados por un sumidero en el último minuto.|
+| **pulsar.source_last_invocation**
(gauge) | Marca de tiempo de la última invocación de la fuente.|
+| **pulsar.source_received_total.count**
(count) | Número total de registros recibidos de la fuente.|
+| **pulsar.source_received_total_1min.count**
(count) | Número total de registros recibidos de la fuente en el último minuto.|
+| **pulsar.source_source_exception**
(gauge) | Excepción de una fuente.|
+| **pulsar.source_source_exceptions_total.count**
(count) | Número total de excepciones de una fuente.|
+| **pulsar.source_source_exceptions_total_1min.count**
(count) | Número total de excepciones de una fuente en el último minuto.|
+| **pulsar.source_system_exception**
(gauge) | Excepción del código del sistema.|
+| **pulsar.source_system_exceptions_total.count**
(count) | Número total de excepciones del sistema.|
+| **pulsar.source_system_exceptions_total_1min.count**
(count) | Número total de excepciones del sistema en el último minuto.|
+| **pulsar.source_written_total.count**
(count) | Número total de registros escritos en un tema Pulsar.|
+| **pulsar.source_written_total_1min.count**
(count) | Número total de registros escritos en un tema Pulsar en el último minuto.|
+| **pulsar.split_bytes_read.count**
(count) | Número de bytes leídos desde BookKeeper.
_Se muestra como bytes_ |
+| **pulsar.split_num_messages_deserialized.count**
(count) | Número de mensajes deserializados.
_Se muestra como mensaje_ |
+| **pulsar.split_num_record_deserialized.count**
(count) | Número de registros deserializados.|
+| **pulsar.storage_backlog_quota_limit**
(gauge) | Cantidad total de datos en este tema que limitan la cuota de backlog (bytes).
_Se muestra como bytes_ |
+| **pulsar.storage_backlog_size**
(gauge) | Tamaño total del backlog de temas de este espacio de nombres propiedad de este broker (mensajes).|
+| **pulsar.storage_logical_size**
(gauge) | Tamaño de almacenamiento delos temas en el espacio de nombres propiedad del broker sin réplicas (en bytes).|
+| **pulsar.storage_offloaded_size**
(gauge) | Cantidad total de datos de este espacio de nombres descargados al almacenamiento por niveles (bytes).|
+| **pulsar.storage_read_rate**
(gauge) | Total de lotes de mensajes (entradas) leídos del almacenamiento para este espacio de nombres (lotes de mensajes/segundo).|
+| **pulsar.storage_size**
(gauge) | Tamaño total de almacenamiento de los temas en este espacio de nombres propiedad de este broker (bytes).|
+| **pulsar.storage_write_rate**
(gauge) | Total de lotes de mensajes (entradas) escritos en el almacenamiento para este espacio de nombres (lotes de mensajes/segundo).|
+| **pulsar.subscription_back_log**
(gauge) | Backlog total de una suscripción (mensajes).
_Se muestra como mensaje_ |
+| **pulsar.subscription_blocked_on_unacked_messages**
(gauge) | Indica si una suscripción está bloqueada en los mensajes no reconocidos o no. 1 significa que la suscripción está bloqueada a la espera de que los mensajes no reconocidos sean reconocidos, 0 significa que la suscripción no está bloqueada a la espera de que los mensajes no reconocidos sean reconocidos.|
+| **pulsar.subscription_delayed**
(gauge) | Total de lotes de mensajes (entradas) cuyo envío se retrasa.|
+| **pulsar.subscription_msg_rate_out**
(gauge) | Tasa total de envío de mensajes de una suscripción (mensajes/segundo).|
+| **pulsar.subscription_msg_rate_redeliver**
(gauge) | Tasa total de mensajes que se vuelven a entregar (mensajes/segundo).|
+| **pulsar.subscription_msg_throughput_out**
(gauge) | Rendimiento total de envío de mensajes de una suscripción (bytes/segundo).|
+| **pulsar.subscription_unacked_messages**
(gauge) | Número total de mensajes no reconocidos para una suscripción (mensajes).
_Se muestra como mensaje_ |
+| **pulsar.subscriptions_count**
(gauge) | Número de suscripciones Pulsar del espacio de nombres servidas por este broker.|
+| **pulsar.throughput_in**
(gauge) | Rendimiento total del espacio de nombres que entra en este broker (bytes/segundo).|
+| **pulsar.throughput_out**
(gauge) | Rendimiento total del espacio de nombres que sale de este broker (bytes/segundo).|
+| **pulsar.topics_count**
(gauge) | Número de temas Pulsar del espacio de nombres propiedad de este broker.|
+| **pulsar.txn_aborted_count.count**
(count) | Número de transacciones abortadas de este coordinador.
_Se muestra como transacción_ |
+| **pulsar.txn_active_count**
(gauge) | Número de transacciones activas.
_Se muestra como transacción_ |
+| **pulsar.txn_append_log_count.count**
(count) | Número de logs de transacciones anexas.|
+| **pulsar.txn_committed_count.count**
(count) | Número de transacciones confirmadas.
_Se muestra como transacción_ |
+| **pulsar.txn_created_count.count**
(count) | Número de transacciones creadas.
_Se muestra como transacción_ |
+| **pulsar.txn_timeout_count.count**
(count) | Número de transacciones con tiempo de espera agotado.
_Se muestra como transacción_ |
### Recopilación de logs
-1. La integración de logs de Pulsar admite el [formato de logs por defecto][8] de Pulsar. Clona y edita el [pipeline de la integración][9] si tienes un formato diferente.
+1. La integración de logs de Pulsar admite el [formato de log por defecto](https://pulsar.apache.org/docs/en/reference-configuration/#log4j) de Pulsar. Clona y edita el [pipeline de la integración](https://docs.datadoghq.com/logs/processing/#integration-pipelines) si tienes un formato diferente.
+
+1. La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en tu archivo `datadog.yaml`:
-2. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Habilítala en tu archivo `datadog.yaml`:
```yaml
logs_enabled: true
```
-3. Deselecciona y edita el bloque de configuración de logs en tu archivo `pulsar.d/conf.yaml`. Cambia el valor de los parámetros de ruta según tu entorno. Consulta el [pulsar.d/conf.yaml de ejemplol][4] para ver todas las opciones de configuración disponibles.
+1. Descomenta y edita el bloque de configuración de logs en tu archivo `pulsar.d/conf.yaml`. Cambia el valor del parámetro de ruta en función de tu entorno. Consulta el [ejemplo pulsar.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/pulsar/datadog_checks/pulsar/data/conf.yaml.example) para ver todas las opciones de configuración disponibles.
+
```yaml
logs:
- type: file
path: /pulsar/logs/pulsar.log
source: pulsar
```
-4. [Reiniciar el Agent][5]
+
+1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent)
### Eventos
La integración Pulsar no incluye eventos.
### Checks de servicio
-{{< get-service-checks-from-git "pulsar" >}}
+**pulsar.openmetrics.health**
-## Solucionar problemas
+Devuelve `CRITICAL` si el Agent no puede conectarse al endpoint de OpenMetrics o `OK` en caso contrario.
-¿Necesitas ayuda? Contacta con el [equipo de asistencia de Datadog][11].
+_Estados: ok, crítico_
+## Solucionar problemas
-[1]: https://pulsar.apache.org
-[2]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/
-[3]: https://app.datadoghq.com/account/settings/agent/latest
-[4]: https://github.com/DataDog/integrations-core/blob/master/pulsar/datadog_checks/pulsar/data/conf.yaml.example
-[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
-[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
-[7]: https://github.com/DataDog/integrations-core/blob/master/pulsar/metadata.csv
-[8]: https://pulsar.apache.org/docs/en/reference-configuration/#log4j
-[9]: https://docs.datadoghq.com/es/logs/processing/#integration-pipelines
-[10]: https://github.com/DataDog/integrations-core/blob/master/pulsar/assets/service_checks.json
-[11]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/).
\ No newline at end of file
diff --git a/content/es/integrations/purefa.md b/content/es/integrations/purefa.md
index fa67e7d691a97..af298eb5785c0 100644
--- a/content/es/integrations/purefa.md
+++ b/content/es/integrations/purefa.md
@@ -1,82 +1,30 @@
---
app_id: purefa
-app_uuid: a2d8f393-62cd-4ece-bfab-e30797698b12
-assets:
- dashboards:
- purefa_overview: assets/dashboards/purefa_overview.json
- purefa_overview_legacy: assets/dashboards/purefa_overview_legacy.json
- integration:
- auto_install: true
- configuration:
- spec: assets/configuration/spec.yaml
- events:
- creates_events: false
- metrics:
- check: purefa.info
- metadata_path: metadata.csv
- prefix: purefa.
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 10256
- source_type_name: PureFA
-author:
- homepage: https://purestorage.com
- name: Pure Storage
- sales_email: sales@purestorage.com
- support_email: pure-observability@purestorage.com
categories:
- almacenes de datos
- sistema operativo y sistema
-custom_kind: integration
-dependencies:
-- https://github.com/DataDog/integrations-extras/blob/master/purefa/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: purefa
-integration_id: purefa
-integration_title: FlashArray Pure Storage
-integration_version: 1.2.0
-is_public: true
-manifest_version: 2.0.0
-name: purefa
-public_title: FlashArray Pure Storage
-short_description: Monitorización del rendimiento y el uso de FlashArrays Pure Storage
+custom_kind: integración
+description: Monitorización del rendimiento y el uso de FlashArrays Pure Storage
+integration_version: 1.3.0
+media:
+- caption: Dashboard de FlashArray Pure Storage - Información general (arriba)
+ image_url: images/FA-overview-1.png
+ media_type: imagen
+- caption: Dashboard de FlashArray Pure Storage - Información general (arriba)
+ image_url: images/FA-overview-2.png
+ media_type: imagen
+- caption: Dashboard de FlashArray Pure Storage - Información general (abajo)
+ image_url: images/FA-overview-3.png
+ media_type: imagen
supported_os:
- Linux
- Windows
- macOS
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Categoría::Almacenes de datos
- - Categoría::Sistema operativo y sistema
- - Oferta::Integración
- - Sistema operativo compatible::Linux
- - Sistema operativo compatible::Windows
- - Sistema operativo compatible::macOS
- configuration: README.md#Configuración
- description: Monitorización del rendimiento y el uso de FlashArrays Pure Storage
- media:
- - caption: Dashboard de FlashArray Pure Storage - Información general (arriba)
- image_url: images/FA-overview-1.png
- media_type: imagen
- - caption: Dashboard de FlashArray Pure Storage - Información general (arriba)
- image_url: images/FA-overview-2.png
- media_type: imagen
- - caption: Dashboard de FlashArray Pure Storage - Información general (abajo)
- image_url: images/FA-overview-3.png
- media_type: imagen
- overview: README.md#Información general
- support: README.md#Soporte
- title: FlashArray Pure Storage
+title: FlashArray Pure Storage
---
-
-
-
-
## Información general
-Este check monitoriza el [FlashArray Pure Storage][1] a través del [Datadog Agent][2] y el [exportador OpenMetrics Pure Storage][3].
+Este check monitoriza [Pure Storage FlashArray](https://www.purestorage.com/products.html) a través del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest) y el [exportador OpenMetrics de Pure Storage](https://github.com/PureStorage-OpenConnect/pure-fa-openmetrics-exporter).
La integración puede proporcionar datos de rendimiento a nivel de matriz, host, volumen y pod, así como información muy clara sobre capacidad y configuración.
@@ -84,9 +32,10 @@ Puedes monitorizar múltiples FlashArrays y agregarlos en un único dashboard o
**Esta integración requiere lo siguiente**:
- - Agent v7.26.x o posterior para utilizar OpenMetrics BaseCheckV2
- - Python 3
- - El exportador OpenMetrics Pure Storage se instala y ejecuta en un entorno contenedorizado. Para obtener instrucciones de instalación, consulta el [repositorio de GitHub][3].
+- Agent v7.26.x o posterior para utilizar OpenMetrics BaseCheckV2
+- Python 3
+- El exportador OpenMetrics de Pure Storage se instala y ejecuta en un entorno contenedorizado. Consulta el [repositorio de GitHub](https://github.com/PureStorage-OpenConnect/pure-fa-openmetrics-exporter) para obtener instrucciones de instalación.
+ - En FlashArrays que ejecutan Purity//FA versión 6.7.0 y posteriores, el exportador OpenMetrics se ejecuta de forma nativa en la matriz. Consulta Configuración para obtener más información.
## Configuración
@@ -94,24 +43,93 @@ Sigue las instrucciones a continuación para instalar y configurar este check pa
### Instalación
-1. [Descarga e inicia el Datadog Agent][2].
-2. Instala manualmente la integración Pure FlashArray. Para obtener más detalles en función de tu entorno, consulta [Uso de integraciones de la comunidad][4].
-
+1. [Descarga e inicia el Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest).
+1. Instala manualmente la integración Pure FlashArray. Consulta [Uso de integraciones comunitarias](https://docs.datadoghq.com/agent/guide/community-integrations-installation-with-docker-agent) para obtener más información en función de tu entorno.
#### Host
Para configurar este check para un Agent que se ejecuta en un host, ejecuta `sudo -u dd-agent -- datadog-agent integration install -t datadog-purefa==`.
-Nota: `` se puede encontrar dentro del [CHANGELOG.md][5] de integraciones adicionales de Datadog.
- * Por ejemplo `sudo -u dd-agent -- datadog-agent integration install -t datadog-purefa==1.2.0`
+Nota: `` se puede encontrar dentro del [CHANGELOG.md](https://github.com/DataDog/integrations-extras/blob/master/purefa/CHANGELOG.md) para Datadog Integration Extras.
+
+- Por ejemplo `sudo -u dd-agent -- datadog-agent integration install -t datadog-purefa==1.3.0`
### Configuración
1. Crea un usuario local en tu FlashArray con el rol de sólo lectura y genera un token de API para este usuario.
- ![Generación de una clave de API][6]
-2. Añade el siguiente bloque de configuración al archivo `purefa.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del directorio de configuración del Agent para comenzar a recopilar tus datos de rendimiento de PureFA. Para conocer todas las opciones de configuración disponibles, consulta el [purefa.d/conf.yaml de ejemplo][7].
+ 
+1. Añade el siguiente bloque de configuración al archivo `purefa.d/conf.yaml`, en la carpeta `conf.d/` en la raíz del directorio de configuración de tu Agent para empezar a recopilar tus datos de rendimiento de PureFA. Consulta el ejemplo [purefa.d/conf.yaml](https://github.com/datadog/integrations-extras/blob/master/purefa/datadog_checks/purefa/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles.
+
+> **Nota**: La creación de tu archivo de configuración requiere el endpoint `/array` como mínimo absoluto.
+
+#### (Preferido) Para uso con el exportador nativo OpenMetrics de Pure Storage (Purity//FA v6.7.0 o posteriores)
+
+```yaml
+init_config:
+ timeout: 60
+
+instances:
+
+ - openmetrics_endpoint: https:///metrics/array?namespace=purefa
+ tags:
+ - env:
+ - fa_array_name:
+ - host:
+ headers:
+ Authorization: Bearer
+ min_collection_interval: 120
+ # If you have not configured your Purity management TLS certifcate, you may skip TLS verification. For other TLS options, please see conf.yaml.example.
+ # tls_verify: false
+ # tls_ignore_warning: true
+
+ - openmetrics_endpoint: https:///metrics/volumes?namespace=purefa
+ tags:
+ - env:
+ - fa_array_name:
+ headers:
+ Authorization: Bearer
+ min_collection_interval: 120
+ # If you have not configured your Purity management TLS certifcate, you may skip TLS verification. For other TLS options, please see conf.yaml.example.
+ # tls_verify: false
+ # tls_ignore_warning: true
+
+ - openmetrics_endpoint: https:///metrics/hosts?namespace=purefa
+ tags:
+ - env:
+ - fa_array_name:
+ headers:
+ Authorization: Bearer
+ min_collection_interval: 120
+ # If you have not configured your Purity management TLS certifcate, you may skip TLS verification. For other TLS options, please see conf.yaml.example.
+ # tls_verify: false
+ # tls_ignore_warning: true
-**Nota**: La creación de tu archivo de configuración requiere el endpoint `/array` como mínimo absoluto.
+ - openmetrics_endpoint: https:///metrics/pods?namespace=purefa
+ tags:
+ - env:
+ - fa_array_name:
+ - host:
+ headers:
+ Authorization: Bearer
+ min_collection_interval: 120
+ # If you have not configured your Purity management TLS certifcate, you may skip TLS verification. For other TLS options, please see conf.yaml.example.
+ # tls_verify: false
+ # tls_ignore_warning: true
+
+ - openmetrics_endpoint: https:///metrics/directories?namespace=purefa
+ tags:
+ - env:
+ - fa_array_name:
+ - host:
+ headers:
+ Authorization: Bearer
+ min_collection_interval: 120
+ # If you have not configured your Purity management TLS certifcate, you may skip TLS verification. For other TLS options, please see conf.yaml.example.
+ # tls_verify: false
+ # tls_ignore_warning: true
+```
+
+#### Para su uso con el exportador externo [OpenMetrics de Pure Storage(https://github.com/PureStorage-OpenConnect/pure-fa-openmetrics-exporter) (Purity //FA v\<6.7.0)
```yaml
init_config:
@@ -163,29 +181,27 @@ instances:
min_collection_interval: 120
```
-2. [Reinicia el Agent][8].
+2. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
### Validación
-[Ejecuta el subcomando de estado del Agent][9] y busca `purefa` en la sección Checks.
-
-
+[Ejecuta el subcomando de estado del Agent] (https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `purefa` en la sección Checks.
### Actualización a nuevas versiones de esta integración
#### A partir del check del Agent PureFA v1.0.x a v1.1.x
-La versión 1.1.x admite tanto el [exportador OpenMetrics Pure Storage][3] y el [exportador Prometheus Pure Storage][10] obsoleto.
+1.1.x admite tanto el [exportador OpenMetrics de Pure Storage](https://github.com/PureStorage-OpenConnect/pure-fa-openmetrics-exporter) como el obsoleto [exportador Prometheus de Pure Storage](https://github.com/PureStorage-OpenConnect/pure-exporter).
-El dashboard para el [exportador Prometheus Pure Storage][10] obsoleto ha sido renombrado `Pure FlashArray - Overview (Legacy Exporter)`.
+El dashboard del obsoleto [exportador Prometheus de Pure Storage](https://github.com/PureStorage-OpenConnect/pure-exporter) ha sido renombrado como `Pure FlashArray - Overview (Legacy Exporter)`.
-En [metrics.py][11] se muestra un listado de métricas, tanto compartidas como exclusivas, de los distintos exportadores. Al migrar del [exportador Prometheus Pure Storage][10] al [exportador OpenMetrics Pure Storage][3], es posible que tengas que actualizar tus dashboards o tus alertas para que coincidan con los nuevos nombres de métricas. Si tienes alguna pregunta, ponte en contacto con Pure Storage con la información de la pestaña de asistencia.
+En [metrics.py](https://github.com/datadog/integrations-extras/blob/master/purefa/datadog_checks/purefa/metrics.py) encontrarás una lista de métricas compartidas y exclusivas de los distintos exportadores. Es posible que tengas que actualizar tus dashboards o tus alertas para que coincidan con los nuevos nombres de métricas al migrar del [exportador Prometheus de Pure Storage](https://github.com/PureStorage-OpenConnect/pure-exporter) al [exportador OpenMetrics de Pure Storage](https://github.com/PureStorage-OpenConnect/pure-fa-openmetrics-exporter). Si tienes alguna pregunta, ponte en contacto con Pure Storage con la información de la pestaña Asistencia.
-Al migrar del [exportador Prometheus Pure Storage][10] al [exportador OpenMetrics Pure Storage][3], los endpoints ya no tendrán `/flasharray` en el URI del endpoint.
+Al migrar del [exportador Prometheus de Pure Storage](https://github.com/PureStorage-OpenConnect/pure-exporter) al [exportador OpenMetrics de Pure Storage](https://github.com/PureStorage-OpenConnect/pure-fa-openmetrics-exporter), los endpoints ya no tendrán `/flasharray` en el URI del endpoint.
En futuras versiones del check del Agent PureFA, se eliminarán los nombres de métricas del exportador Prometheus Pure Storage.
-### Resolución de problemas
+### Solucionar problemas
#### Las matrices no se muestran en el dashboard
@@ -206,12 +222,90 @@ El check de FlashArray Pure Storage configura `min_collection_interval` como `12
min_collection_interval: 120
```
-
## Datos recopilados
### Métricas
-{{< get-metrics-from-git "purefa" >}}
+| | |
+| --- | --- |
+| **purefa.alerts.open**
(gauge) | Eventos de alerta de FlashArray abiertos.|
+| **purefa.alerts.total**
(gauge) | (Legacy) Número de eventos de alerta.|
+| **purefa.array.performance_average_bytes**
(gauge) | Tamaño medio de las operaciones de la matriz FlashArray en bytes.
_Se muestra como bytes_ |
+| **purefa.array.performance_avg_block_bytes**
(gauge) | (Legacy) Tamaño medio de bloque de FlashArray.
_Se muestra como bytes_ |
+| **purefa.array.performance_bandwidth_bytes**
(gauge) | Rendimiento de la matriz FlashArray en bytes por segundo.
_Se muestra como bytes_ |
+| **purefa.array.performance_iops**
(gauge) | (Legacy) IOPS FlashArray.
_Se muestra como operación_ |
+| **purefa.array.performance_latency_usec**
(gauge) | Latencia de la matriz FlashArray en microsegundos.
_Se muestra como microsegundos_ |
+| **purefa.array.performance_qdepth**
(gauge) | (Legacy) Profundidad de la cola de FlashArray.|
+| **purefa.array.performance_queue_depth_ops**
(gauge) | Tamaño de la profundidad de la cola de la matriz FlashArray.
_Se muestra como operación_ |
+| **purefa.array.performance_throughput_iops**
(gauge) | Rendimiento de la matriz FlashArray en IOPS.
_Se muestra como operación_ |
+| **purefa.array.space_bytes**
(gauge) | Espacio de la matriz FlashArray en bytes.
_Se muestra como bytes_ |
+| **purefa.array.space_capacity_bytes**
(gauge) | (Legacy) Capacidad de espacio total de FlashArray.
_Se muestra como bytes_ |
+| **purefa.array.space_data_reduction_ratio**
(gauge) | Reducción de datos del espacio de la matriz FlashArray.|
+| **purefa.array.space_datareduction_ratio**
(gauge) | (Legacy) Reducción global de datos de FlashArray.|
+| **purefa.array.space_provisioned_bytes**
(gauge) | (Legacy) Espacio total aprovisionado de FlashArray.
_Se muestra como bytes_ |
+| **purefa.array.space_used_bytes**
(gauge) | (Legacy) Espacio total utilizado de FlashArray.
_Se muestra como bytes_ |
+| **purefa.array.space_utilization**
(gauge) | Uso del espacio de la matriz FlashArray en porcentaje.
_Se muestra como porcentaje_ |
+| **purefa.directory.performance_average_bytes**
(gauge) | Tamaño medio de las operaciones del directorio FlashArray en bytes.
_Se muestra como bytes_ |
+| **purefa.directory.performance_bandwidth_bytes**
(gauge) | Rendimiento del directorio FlashArray en bytes por segundo.
_Se muestra como bytes_ |
+| **purefa.directory.performance_latency_usec**
(gauge) | Latencia del directorio FlashArray en microsegundos.
_Se muestra como microsegundos_ |
+| **purefa.directory.performance_throughput_iops**
(gauge) | Rendimiento del directorio FlashArray en IOPS.
_Se muestra como operación_ |
+| **purefa.directory.space_bytes**
(gauge) | Espacio del directorio FlashArray en bytes.
_Se muestra como bytes_ |
+| **purefa.directory.space_data_reduction_ratio**
(gauge) | Reducción de datos del espacio del directorio FlashArray.|
+| **purefa.drive.capacity_bytes**
(gauge) | Capacidad de la unidad FlashArray en bytes.
_Se muestra como bytes_ |
+| **purefa.hardware.chassis_health**
(gauge) | (Legacy) Estado de salud del chasis de hardware de FlashArray.|
+| **purefa.hardware.component_health**
(gauge) | (Legacy) Estado de salud del componente de hardware de FlashArray.|
+| **purefa.hardware.controller_health**
(gauge) | (Legacy) Estado de salud del controlador de hardware de FlashArray.|
+| **purefa.hardware.power_volts**
(gauge) | (Legacy) Tensión de alimentación del hardware de FlashArray.
_Se muestra como voltios_ |
+| **purefa.hardware.temperature_celsius**
(gauge) | (Legacy) Sensores de temperatura del hardware de FlashArray.
_Se muestra como grados celsius_ |
+| **purefa.host.connections_info**
(gauge) | Conexiones de volúmenes del host FlashArray.|
+| **purefa.host.connectivity_info**
(gauge) | Información de conectividad del host FlashArray.|
+| **purefa.host.performance_average_bytes**
(gauge) | Tamaño medio de las operaciones del host FlashArray en bytes.
_Se muestra como bytes_ |
+| **purefa.host.performance_bandwidth_bytes**
(gauge) | Ancho de banda del host FlashArray en bytes por segundo.
_Se muestra como bytes_ |
+| **purefa.host.performance_iops**
(gauge) | (Legacy) IOPS de host FlashArray.
_Se muestra como operación_ |
+| **purefa.host.performance_latency_usec**
(gauge) | Latencia del host FlashArray en microsegundos.
_Se muestra como microsegundos_ |
+| **purefa.host.performance_throughput_iops**
(gauge) | Rendimiento del host FlashArray en IOPS.
_Se muestra como operación_ |
+| **purefa.host.space_bytes**
(gauge) | Espacio del host FlashArray en bytes.
_Se muestra como bytes_ |
+| **purefa.host.space_data_reduction_ratio**
(gauge) | Reducción de datos del espacio del host FlashArray.|
+| **purefa.host.space_datareduction_ratio**
(gauge) | (Legacy) Ratio de reducción de datos de los volúmenes del host FlashArray.|
+| **purefa.host.space_size_bytes**
(gauge) | Tamaño de los volúmenes del host FlashArray.
_Se muestra como bytes_ |
+| **purefa.hw.component_status**
(gauge) | Estado del componente de hardware de FlashArray.|
+| **purefa.hw.component_temperature_celsius**
(gauge) | Temperatura del componente de hardware de FlashArray en °C.
_Se muestra como grados celsius_ |
+| **purefa.hw.component_voltage_volt**
(gauge) | Tensión del componente de hardware de FlashArray.
_Se muestra como voltios_ |
+| **purefa.hw.controller_info**
(gauge) | Información del controlador FlashArray|
+| **purefa.hw.controller_mode_since_timestamp_seconds**
(gauge) | Tiempo de actividad del controlador de hardware de FlashArray en segundos
_Se muestra como segundos_ |
+| **purefa.info**
(gauge) | Información del sistema FlashArray.|
+| **purefa.network.interface_performance_bandwidth_bytes**
(gauge) | Ancho de banda de la interfaz de red de FlashArray en bytes por segundo
_Se muestra como bytes_ |
+| **purefa.network.interface_performance_errors**
(gauge) | Errores de la interfaz de red de FlashArray en errores por segundo
_Se muestra como error_ |
+| **purefa.network.interface_performance_throughput_pkts**
(gauge) | Rendimiento de la interfaz de red de FlashArray en paquetes por segundo.
_Se muestra como paquete_ |
+| **purefa.network.interface_speed_bandwidth_bytes**
(gauge) | Velocidad de la interfaz de red de FlashArray en bytes por segundo
_Se muestra como bytes_ |
+| **purefa.network.port_info**
(gauge) | Información del puerto de red de FlashArray|
+| **purefa.pod.mediator_status**
(gauge) | (Legacy) Estado del mediador de pods de FlashArray.|
+| **purefa.pod.performance_average_bytes**
(gauge) | Tamaño medio de las operaciones de pods de FlashArray.
_Se muestra como bytes_ |
+| **purefa.pod.performance_bandwidth_bytes**
(gauge) | Rendimiento de pods de FlashArray en bytes por segundo.
_Se muestra como bytes_ |
+| **purefa.pod.performance_iops**
(gauge) | (Legacy) IOPS de pods de FlashArray.
_Se muestra como operación_ |
+| **purefa.pod.performance_latency_usec**
(gauge) | Latencia de pods de FlashArray en microsegundos.
_Se muestra como microsegundos_ |
+| **purefa.pod.performance_replication_bandwidth_bytes**
(gauge) | Ancho de banda de replicación de pods de FlashArray.
_Se muestra como bytes_ |
+| **purefa.pod.performance_throughput_iops**
(gauge) | Rendimiento de pods de FlashArray en IOPS.
_Se muestra como operación_ |
+| **purefa.pod.replica_links_lag_average_msec**
(gauge) | Retraso medio de enlaces de pods de FlashArray en milisegundos.
_Se muestra como segundos_ |
+| **purefa.pod.replica_links_lag_average_sec**
(gauge) | Retraso medio de enlaces de pods de FlashArray en milisegundos.
_Se muestra como segundos_ |
+| **purefa.pod.replica_links_lag_max_msec**
(gauge) | Retraso máximo de enlaces de pods de FlashArray en milisegundos.
_Se muestra como segundos_ |
+| **purefa.pod.replica_links_lag_max_sec**
(gauge) | Retraso máximo de enlaces de pods de FlashArray en milisegundos.
_Se muestra como segundos_ |
+| **purefa.pod.replica_links_performance_bandwidth_bytes**
(gauge) | Ancho de banda de enlaces de pods de FlashArray.
_Se muestra como bytes_ |
+| **purefa.pod.space_bytes**
(gauge) | Espacio de pods de FlashArray en bytes.
_Se muestra como bytes_ |
+| **purefa.pod.space_data_reduction_ratio**
(gauge) | Reducción de datos en el espacio de pods de FlashArray.|
+| **purefa.pod.space_datareduction_ratio**
(gauge) | (Legacy) Ratio de reducción de datos de pods de FlashArray.|
+| **purefa.pod.space_size_bytes**
(gauge) | (Legacy) Tamaño de pods de FlashArray.
_Se muestra como bytes_ |
+| **purefa.pod.status**
(gauge) | (Legacy) Estado de pods de FlashArray.|
+| **purefa.volume.performance_average_bytes**
(gauge) | Tamaño medio de las operaciones de volúmenes de FlashArray en bytes.
_Se muestra como bytes_ |
+| **purefa.volume.performance_bandwidth_bytes**
(gauge) | Rendimiento de volúmenes de FlashArray en bytes por segundo.
_Se muestra como bytes_ |
+| **purefa.volume.performance_iops**
(gauge) | (Legacy) IOPS de volúmenes de FlashArray.
_Se muestra como operación_ |
+| **purefa.volume.performance_latency_usec**
(gauge) | Latencia de volúmenes de FlashArray en microsegundos.
_Se muestra como microsegundos_ |
+| **purefa.volume.performance_throughput_bytes**
(gauge) | (Legacy) Rendimiento de volúmenes de FlashArray.
_Se muestra como bytes_ |
+| **purefa.volume.performance_throughput_iops**
(gauge) | Rendimiento de volúmenes de FlashArray en IOPS.
_Se muestra como operación_ |
+| **purefa.volume.space_bytes**
(gauge) | Espacio de volúmenes de FlashArray en bytes.
_Se muestra como bytes_ |
+| **purefa.volume.space_data_reduction_ratio**
(gauge) | Reducción del espacio de datos de volúmenes de FlashArray.|
+| **purefa.volume.space_datareduction_ratio**
(gauge) | (Legacy) Ratio de reducción de datos de volúmenes de FlashArray.|
+| **purefa.volume.space_size_bytes**
(gauge) | (Legacy) Tamaño de volúmenes de FlashArray.
_Se muestra como bytes_ |
### Eventos
@@ -219,25 +313,15 @@ La integración PureFA no incluye eventos.
### Checks de servicio
-Para ver una lista de los checks de servicio proporcionados por esta integración, consulta [service_checks.json][13].
+**purefa.openmetrics.health**
-## Agent
+Devuelve `CRITICAL` si el Agent no puede conectarse al endpoint de OpenMetrics o `OK` en caso contrario.
+
+_Estados: ok, crítico_
+
+## Soporte
Para obtener asistencia o realizar solicitudes de funciones, ponte en contacto con Pure Storage utilizando los siguientes métodos:
-* Correo electrónico: pure-observability@purestorage.com
-* Slack: [Código Storage Code//Canal de observabilidad][14].
-
-[1]: https://www.purestorage.com/products.html
-[2]: https://app.datadoghq.com/account/settings/agent/latest
-[3]: https://github.com/PureStorage-OpenConnect/pure-fa-openmetrics-exporter
-[4]: https://docs.datadoghq.com/es/agent/guide/community-integrations-installation-with-docker-agent
-[5]: https://github.com/DataDog/integrations-extras/blob/master/purefa/CHANGELOG.md
-[6]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/purefa/images/API.png
-[7]: https://github.com/datadog/integrations-extras/blob/master/purefa/datadog_checks/purefa/data/conf.yaml.example
-[8]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
-[9]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
-[10]: https://github.com/PureStorage-OpenConnect/pure-exporter
-[11]: https://github.com/datadog/integrations-extras/blob/master/purefa/datadog_checks/purefa/metrics.py
-[12]: https://github.com/DataDog/integrations-extras/blob/master/purefa/metadata.csv
-[13]: https://github.com/DataDog/integrations-extras/blob/master/purefa/assets/service_checks.json
-[14]: https://code-purestorage.slack.com/messages/C0357KLR1EU
\ No newline at end of file
+
+- Correo electrónico: pure-observability@purestorage.com
+- Slack: [Código Pure Storage//Canal de observabilidad](https://code-purestorage.slack.com/messages/C0357KLR1EU).
\ No newline at end of file
diff --git a/content/es/integrations/python.md b/content/es/integrations/python.md
new file mode 100644
index 0000000000000..94c952dc0ed3a
--- /dev/null
+++ b/content/es/integrations/python.md
@@ -0,0 +1,67 @@
+---
+app_id: python
+categories:
+- languages
+- log collection
+- tracing
+custom_kind: integración
+description: Recopila métricas, trazas (traces) y logs de tus aplicaciones Python.
+further_reading:
+- link: https://www.datadoghq.com/blog/tracing-async-python-code/
+ tag: blog
+ text: Rastreo de código Python asíncrono con Datadog APM
+- link: https://www.datadoghq.com/blog/python-logging-best-practices/
+ tag: blog
+ text: 'Formatos de generación de logs de Python: Cómo recopilar y centralizar logs
+ de Python'
+media: []
+title: Python
+---
+## Información general
+
+La integración Python te permite recopilar y monitorizar tus logs de aplicaciones, trazas y métricas personalizadas de Python.
+
+## Configuración
+
+### Recopilación de métricas
+
+Consulta la documentación exclusiva para [recopilar métricas personalizadas de Python con DogStatsD](https://docs.datadoghq.com/developers/dogstatsd/?tab=python).
+
+### Recopilación de trazas
+
+Consulta la documentación exclusiva para [instrumentar tu aplicación Python](https://docs.datadoghq.com/tracing/setup/python/) para enviar tus trazas a Datadog.
+
+### Recopilación de logs
+
+_Disponible para la versión 6.0 o posterior del Agent_
+
+Consulta la documentación exclusiva sobre cómo [configurar la recopilación de logs Python](https://docs.datadoghq.com/logs/log_collection/python/) para reenviar tus logs a Datadog.
+
+### Recopilación de perfiles
+
+Consulta la documentación exclusiva para [habilitar el generador de perfiles Python](https://docs.datadoghq.com/profiler/enabling/python/).
+
+## Datos recopilados
+
+### Métricas
+
+| | |
+| --- | --- |
+| **runtime.python.cpu.time.sys**
(gauge) | Número de segundos de ejecución en el kernel
_Se muestra como segundos_ |
+| **runtime.python.cpu.time.user**
(gauge) | Número de segundos de ejecución fuera del núcleo
_Se muestra como segundos_ |
+| **runtime.python.cpu.percent**
(gauge) | Porcentaje de uso de CPU
_Se muestra como porcentaje_ |
+| **runtime.python.cpu.ctx_switch.voluntary**
(gauge) | Número de cambios de contexto voluntarios
_Se muestra como invocación_ |
+| **runtime.python.cpu.ctx_switch.involuntary**
(gauge) | Número de cambios de contexto involuntarios
_Se muestra como invocación_ |
+| **runtime.python.gc.count.gen0**
(gauge) | Número de objetos de generación 0
_Se muestra como recurso_ |
+| **runtime.python.gc.count.gen1**
(gauge) | Número de objetos de generación 1
_Se muestra como recurso_ |
+| **runtime.python.gc.count.gen2**
(gauge) | Número de objetos de generación 2
_Se muestra como recurso_ |
+| **runtime.python.mem.rss**
(gauge) | Memoria de conjunto residente
_Se muestra como bytes_ |
+| **runtime.python.thread_count**
(gauge) | Número de subprocesos
_Se muestra como subproceso_ |
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/).
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
\ No newline at end of file
diff --git a/content/es/integrations/rabbitmq.md b/content/es/integrations/rabbitmq.md
new file mode 100644
index 0000000000000..6f6e86236cabb
--- /dev/null
+++ b/content/es/integrations/rabbitmq.md
@@ -0,0 +1,538 @@
+---
+app_id: rabbitmq
+categories:
+- log collection
+- message queues
+custom_kind: integración
+description: Seguimiento del tamaño de las colas, del recuento de consumidores, de
+ mensajes no reconocidos, etc.
+further_reading:
+- link: https://www.datadoghq.com/blog/rabbitmq-monitoring
+ tag: blog
+ text: Métricas clave para la monitorización de RabbitMQ
+- link: https://www.datadoghq.com/blog/rabbitmq-monitoring-tools
+ tag: blog
+ text: Recopilación de métricas utilizando las herramientas de monitorización de
+ RabbitMQ
+- link: https://www.datadoghq.com/blog/monitoring-rabbitmq-performance-with-datadog
+ tag: blog
+ text: Monitorización de RabbitMQ con Datadog
+integration_version: 8.0.0
+media: []
+supported_os:
+- linux
+- windows
+- macos
+title: RabbitMQ
+---
+
+
+## Información general
+
+Este check monitoriza [RabbitMQ](https://www.rabbitmq.com) a través del Datadog Agent. Te permite:
+
+- Realizar un seguimiento de estadísticas basadas en colas: tamaño de la cola, recuento de consumidores, mensajes no reconocidos, mensajes reenviados, etc.
+- Realizar un de estadísticas basadas en nodos: procesos en espera, sockets utilizados, descriptores de archivos utilizados, etc.
+- Monitoriza vhosts para comprobar la disponibilidad y el número de conexiones.
+
+Considerar [Data Streams Monitoring](https://docs.datadoghq.com/data_streams/) para mejorar tu integración con RabbitMQ. Esta solución permite la visualización de pipelines y el seguimiento de retrasos, ayudándote a identificar y resolver cuellos de botella.
+
+## Configuración
+
+### Instalación
+
+El check de RabbitMQ se incluye en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest). No es necesaria ninguna instalación adicional en tu servidor.
+
+### Configuración
+
+RabbitMQ expone métricas de dos formas: el [complemento de gestión de RabbitMQ](https://www.rabbitmq.com/management.html) y el [complemento RabbitMQ Prometheus](https://www.rabbitmq.com/prometheus.html). La integración de Datadog admite ambas versiones. Sigue las instrucciones de configuración de este archivo correspondientes a la versión que quieres utilizar. La integración Datadog también viene con un dashboard y monitores predefinidos para cada versión, como se indica en los títulos Dashboard y Monitor.
+
+#### Preparación de RabbitMQ
+
+##### [Complemento RabbitMQ Prometheus](https://www.rabbitmq.com/prometheus.html).
+
+*A partir de la versión 3.8 de RabbitMQ, el [complemento RabbitMQ Prometheus](https://www.rabbitmq.com/prometheus.html) está activado por defecto.*
+
+*La versión del complemento Prometheus de RabbitMQ requiere el soporte de Python 3 del Datadog Agent, por lo que sólo es compatible con el Agent v6 o posterior. Asegúrate de que tu Agent está actualizado, antes de configurar la versión del complemento Prometheus de la integración.*
+
+Configura la sección `prometheus_plugin` en la configuración de tu instancia. Cuando se utiliza la opción `prometheus_plugin`, se ignoran los parámetros relacionados con el complemento de gestión.
+
+```yaml
+instances:
+ - prometheus_plugin:
+ url: http://:15692
+```
+
+Esto permite el scraping del [endpoint `/metrics`](https://www.rabbitmq.com/prometheus.html#default-endpoint) en un nodo RabbitMQ. Datadog también puede recopilar datos del [endpoint `/metrics/detailed`](https://www.rabbitmq.com/prometheus.html#detailed-endpoint). Las métricas recopiladas dependen de las familias que se incluyen.
+
+```yaml
+ instances:
+ - prometheus_plugin:
+ url: http://:15692
+ unaggregated_endpoint: detailed?family=queue_coarse_metrics&family=queue_consumer_count&family=channel_exchange_metrics&family=channel_queue_exchange_metrics&family=node_coarse_metrics
+```
+
+Esta configuración recopila métricas de cada cola, intercambio y nodo. Para obtener más información sobre las métricas proporcionadas por cada familia, consulta la [documentación de la API `/metrics/detailed`](https://www.rabbitmq.com/prometheus.html#detailed-endpoint).
+
+##### [Complemento de gestión de RabbitMQ](https://www.rabbitmq.com/management.html).
+
+Habilita el complemento. El usuario del Agent necesita al menos la etiqueta (tag) `monitoring` y los siguientes permisos obligatorios:
+
+| Permiso | Comando |
+| ---------- | ------------------ |
+| **conf** | `^aliveness-test$` |
+| **write** | `^amq\.default$` |
+| **read** | `.*` |
+
+Crea un usuario del Agent para tu vhost predeterminado con los siguientes comandos:
+
+```text
+rabbitmqctl add_user datadog
+rabbitmqctl set_permissions -p / datadog "^aliveness-test$" "^amq\.default$" ".*"
+rabbitmqctl set_user_tags datadog monitoring
+```
+
+Aquí, `/` se refiere al host por defecto. Defínelo para tu nombre de host virtual especificado. Consulta la [documentación de RabbitMQ](https://www.rabbitmq.com/rabbitmqctl.8.html#set_permissions) para obtener más información.
+
+{{< tabs >}}
+
+{{% tab "Host" %}}
+
+#### host
+
+Para configurar este check para un Agent que se ejecuta en un host:
+
+##### Recopilación de métricas
+
+1. Edita el archivo `rabbitmq.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory) para comenzar a recopilar tus métricas de RabbitMQ. Consulta el [ejemplo de rabbitmq.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/rabbitmq/datadog_checks/rabbitmq/data/conf.yaml.example) para ver todas las opciones de configuración disponibles.
+
+ **Nota**: El Agent comprueba todas las colas, vhosts y nodos por defecto, pero puedes proporcionar listas o expresiones regulares para limitar esto. Para ver ejemplos, consulta [rabbitmq.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/rabbitmq/datadog_checks/rabbitmq/data/conf.yaml.example).
+
+1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
+
+##### Recopilación de logs
+
+_Disponible para las versiones 6.0 o posteriores del Agent_
+
+1. Para modificar la ubicación predeterminada del archivo de log, define la variable de entorno `RABBITMQ_LOGS` o añade lo siguiente a tu archivo de configuración de RabbitMQ (`/etc/rabbitmq/rabbitmq.conf`):
+
+ ```conf
+ log.dir = /var/log/rabbit
+ log.file = rabbit.log
+ ```
+
+1. La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent, actívala en tu archivo `datadog.yaml`:
+
+ ```yaml
+ logs_enabled: true
+ ```
+
+1. Edita la sección `logs` de tu archivo `rabbitmq.d/conf.yaml` para empezar a recopilar tus logs de RabbitMQ:
+
+ ```yaml
+ logs:
+ - type: file
+ path: /var/log/rabbit/*.log
+ source: rabbitmq
+ service: myservice
+ log_processing_rules:
+ - type: multi_line
+ name: logs_starts_with_equal_sign
+ pattern: "="
+ ```
+
+1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
+
+{{% /tab %}}
+
+{{% tab "Containerized" %}}
+
+#### En contenedores
+
+Puedes aprovechar la [detección automática de contenedores de Docker](https://docs.datadoghq.com/containers/docker/integrations/?tab=dockeradv2), de Datadog. Para ver parámetros específicos de RabbitMQ, consulta el ejemplo de configuración `auto_conf.yaml`.
+
+Para entornos en contenedores, como Kubernetes, consulta las [plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/kubernetes/integrations/) para obtener orientación sobre la aplicación de los parámetros que se indican a continuación.
+
+##### Recopilación de métricas
+
+| Parámetro | Valor |
+| -------------------- | -------------------------------------------- |
+| `` | `rabbitmq` |
+| `` | en blanco o `{}` |
+| `` | `{"prometheus_plugin": {"url": "http://%%host%%:15692"}}` |
+
+##### Recopilación de logs
+
+Disponible para la versión 6.0 o posteriores del Agent
+
+La recopilación de logs está desactivada de forma predeterminada en el Datadog Agent. Para activarla, consulta [Recopilación de logs de Kubernetes](https://docs.datadoghq.com/agent/kubernetes/log/).
+
+| Parámetro | Valor |
+| -------------- | --------------------------------------------------------------------------------------------------------------------------------------------------- |
+| `` | `{"source": "rabbitmq", "service": "rabbitmq", "log_processing_rules": [{"type":"multi_line","name":"logs_starts_with_equal_sign", "pattern": "="}]}` |
+
+{{% /tab %}}
+
+{{< /tabs >}}
+
+### Validación
+
+[Ejecuta el subcomando de estado del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `rabbitmq` en la sección Checks.
+
+## Datos recopilados
+
+### Métricas
+
+| | |
+| --- | --- |
+| **rabbitmq.alarms.file_descriptor_limit**
(gauge) | \[OpenMetrics\] es 1 si la alarma de límite del descriptor de archivo está activa|
+| **rabbitmq.alarms.free_disk_space.watermark**
(gauge) | \[OpenMetrics\] es 1 si la alarma de marca de agua del espacio libre en disco está activa|
+| **rabbitmq.alarms.memory_used_watermark**
(gauge) | \[OpenMetrics\] es 1 si la alarma de marca de agua de memoria de la máquina virtual está vigente|
+| **rabbitmq.auth_attempts.count**
(count) | \[OpenMetrics\] Número total de intentos de autenticación|
+| **rabbitmq.auth_attempts.failed.count**
(count) | \[OpenMetrics\] Número total de intentos de autenticación fallidos|
+| **rabbitmq.auth_attempts.succeeded.count**
(count) | \[OpenMetrics\] Número total de intentos de autenticación exitosos|
+| **rabbitmq.build_info**
(gauge) | \[OpenMetrics\] Información de la versión RabbitMQ & Erlang/OTP|
+| **rabbitmq.channel.acks_uncommitted**
(gauge) | \[OpenMetrics\] Reconocimientos de mensajes en una transacción aún no confirmada|
+| **rabbitmq.channel.consumers**
(gauge) | \[OpenMetrics\] Consumidores en un canal|
+| **rabbitmq.channel.get.ack.count**
(count) | \[OpenMetrics\] Número total de mensajes obtenidos con basic.get en modo de reconocimiento manual|
+| **rabbitmq.channel.get.count**
(count) | \[OpenMetrics\] Número total de mensajes obtenidos con basic.get en modo de reconocimiento automático
_Se muestra como mensaje_ |
+| **rabbitmq.channel.get.empty.count**
(count) | \[OpenMetrics\] Número total de veces que las operaciones basic.get no obtuvieron ningún mensaje.|
+| **rabbitmq.channel.messages.acked.count**
(count) | \[OpenMetrics\] Número total de mensajes reconocidos por los consumidores
_Se muestra como mensaje_ |
+| **rabbitmq.channel.messages.confirmed.count**
(count) | \[OpenMetrics\] Número total de mensajes publicados en un intercambio y confirmados en el canal
_Se muestra como mensaje_ |
+| **rabbitmq.channel.messages.delivered.ack.count**
(count) | \[OpenMetrics\] Número total de mensajes entregados a los consumidores en modo de reconocimiento manual
_Se muestra como mensaje_ |
+| **rabbitmq.channel.messages.delivered.count**
(count) | \[OpenMetrics\] Número total de mensajes entregados a los consumidores en modo de reconocimiento automático
_Se muestra como mensaje_ |
+| **rabbitmq.channel.messages.published.count**
(count) | \[OpenMetrics\] Número total de mensajes publicados en un intercambio en un canal
_Se muestra como mensaje_ |
+| **rabbitmq.channel.messages.redelivered.count**
(count) | \[OpenMetrics\] Número total de mensajes reenviados a los consumidores
_Se muestra como mensaje_ |
+| **rabbitmq.channel.messages.unacked**
(gauge) | \[OpenMetrics\] Mensajes entregados pero aún no reconocidos
_Se muestra como mensaje_ |
+| **rabbitmq.channel.messages.uncommitted**
(gauge) | \[OpenMetrics\] Mensajes recibidos en una transacción pero aún no confirmados
_Se muestra como mensaje_ |
+| **rabbitmq.channel.messages.unconfirmed**
(gauge) | \[OpenMetrics\] Mensajes publicados pero aún no confirmados
_Se muestra como mensaje_ |
+| **rabbitmq.channel.messages.unroutable.dropped.count**
(count) | \[OpenMetrics\] Número total de mensajes publicados como no obligatorios en un intercambio y descartados como no enrutables
_Se muestra como mensaje_ |
+| **rabbitmq.channel.messages.unroutable.returned.count**
(count) | \[OpenMetrics\] Número total de mensajes publicados como obligatorios en un intercambio y devueltos al publicador como no enrutables
_Se muestra como mensaje_ |
+| **rabbitmq.channel.prefetch**
(gauge) | \[OpenMetrics\] Límite total de mensajes no reconocidos para todos los consumidores en un canal
_Se muestra como mensaje_ |
+| **rabbitmq.channel.process_reductions.count**
(count) | \[OpenMetrics\] Número total de reducciones de procesos de canal|
+| **rabbitmq.channels**
(gauge) | \[OpenMetrics\] Canales actualmente abiertos|
+| **rabbitmq.channels.closed.count**
(count) | \[OpenMetrics\] Número total de canales cerrados|
+| **rabbitmq.channels.opened.count**
(count) | \[OpenMetrics\] Número total de canales abiertos|
+| **rabbitmq.cluster.exchange_bindings**
(gauge) | \[OpenMetrics\] Número de enlaces de un intercambio. Este valor es válido para todo el clúster.|
+| **rabbitmq.cluster.exchange_name**
(gauge) | \[OpenMetrics\] Enumera los intercambios sin información adicional. Este valor es válido para todo el clúster. Una alternativa más económica a `exchange_bindings`|
+| **rabbitmq.cluster.vhost_status**
(gauge) | \[OpenMetrics\] Si se está ejecutando un vhost determinado|
+| **rabbitmq.connection.channels**
(gauge) | \[OpenMetrics\] Canales en un conexión|
+| **rabbitmq.connection.incoming_bytes.count**
(count) | \[OpenMetrics\] Número total de bytes recibidos en un conexión
_Se muestra como byte_ |
+| **rabbitmq.connection.incoming_packets.count**
(count) | \[OpenMetrics\] Número total de paquetes recibidos en un conexión
_Se muestra como paquete_ |
+| **rabbitmq.connection.outgoing_bytes.count**
(count) | \[OpenMetrics\] Número total de bytes enviados en una conexión
_Se muestra como bytes_ |
+| **rabbitmq.connection.outgoing_packets.count**
(count) | \[OpenMetrics\] Número total de paquetes enviados en una conexión
_Se muestra como paquete_ |
+| **rabbitmq.connection.pending_packets**
(gauge) | \[OpenMetrics\] Número de paquetes a la espera de ser enviados en una conexión
_Se muestra como paquete_ |
+| **rabbitmq.connection.process_reductions.count**
(count) | \[OpenMetrics\] Número total de reducciones de procesos de conexión|
+| **rabbitmq.connections**
(gauge) | \[OpenMetrics, CLI de gestión\] Número de conexiones actuales a un vhost rabbitmq dado, etiquetado 'rabbitmq_vhost:\' Conexiones actualmente abiertas
_Se muestra como conexión_ |
+| **rabbitmq.connections.closed.count**
(count) | \[OpenMetrics\] Número total de conexiones cerradas o terminadas|
+| **rabbitmq.connections.opened.count**
(count) | \[OpenMetrics\] Número total de conexiones abiertas|
+| **rabbitmq.connections.state**
(gauge) | Número de conexiones en el estado de conexión especificado
_Se muestra como conexión_ |
+| **rabbitmq.consumer_prefetch**
(gauge) | \[OpenMetrics\] Límite de mensajes no reconocidos para cada consumidor.|
+| **rabbitmq.consumers**
(gauge) | \[OpenMetrics\] Consumidores actualmente conectados|
+| **rabbitmq.disk_space.available_bytes**
(gauge) | \[OpenMetrics\] Espacio en disco disponible en bytes
_Se muestra como bytes_ |
+| **rabbitmq.disk_space.available_limit_bytes**
(gauge) | \[OpenMetrics\] Marca de agua baja del espacio libre en disco en bytes
_Se muestra como bytes_ |
+| **rabbitmq.erlang.gc.reclaimed_bytes.count**
(count) | \[OpenMetrics\] Número total de bytes de memoria recuperados por el recolector de basura Erlang
_Se muestra como bytes_ |
+| **rabbitmq.erlang.gc.runs.count**
(count) | \[OpenMetrics\] Número total de ejecuciones del recolector de basura Erlang|
+| **rabbitmq.erlang.mnesia.committed_transactions.count**
(count) | \[OpenMetrics\] Número de transacciones confirmadas.
_Se muestra como transacción_ |
+| **rabbitmq.erlang.mnesia.failed_transactions.count**
(count) | \[OpenMetrics\] Número de transacciones fallidas (es decir, abortadas).
_Se muestra como transacción_ |
+| **rabbitmq.erlang.mnesia.held_locks**
(gauge) | \[OpenMetrics\] Número de bloqueos mantenidos.|
+| **rabbitmq.erlang.mnesia.lock_queue**
(gauge) | \[OpenMetrics\] Número de transacciones a la espera de un bloqueo.
_Se muestra como transacción_ |
+| **rabbitmq.erlang.mnesia.logged_transactions.count**
(count) | \[OpenMetrics\] Número de transacciones registradas.
_Se muestra como transacción_ |
+| **rabbitmq.erlang.mnesia.memory_usage_bytes**
(gauge) | \[OpenMetrics\] Número total de bytes asignados por todas las tablas de mnesia
_Se muestra como bytes_ |
+| **rabbitmq.erlang.mnesia.restarted_transactions.count**
(count) | \[OpenMetrics\] Número total de reinicios de transacciones.
_Se muestra como transacción_ |
+| **rabbitmq.erlang.mnesia.tablewise_memory_usage_bytes**
(gauge) | \[OpenMetrics\] Número de bytes asignados por la tabla de mnesia
_Se muestra como byte_ |
+| **rabbitmq.erlang.mnesia.tablewise_size**
(gauge) | \[OpenMetrics\] Número de filas presentes por tabla|
+| **rabbitmq.erlang.mnesia.transaction_coordinators**
(gauge) | \[OpenMetrics\] Número de transacciones de coordinadores.
_Se muestra como transacción_ |
+| **rabbitmq.erlang.mnesia.transaction_participants**
(gauge) | \[OpenMetrics\] Número de transacciones de participantes.
_Se muestra como transacción_ |
+| **rabbitmq.erlang.net.ticktime_seconds**
(gauge) | \[OpenMetrics\] Intervalo de latidos entre nodos
_Se muestra como segundos_ |
+| **rabbitmq.erlang.processes_limit**
(gauge) | \[OpenMetrics\] Límite de procesos Erlang
_Se muestra como proceso_ |
+| **rabbitmq.erlang.processes_used**
(gauge) | \[OpenMetrics\] Procesos Erlang utilizados
_Se muestra como proceso_ |
+| **rabbitmq.erlang.scheduler.context_switches.count**
(count) | \[OpenMetrics\] Número total de cambios de contexto del programador Erlang|
+| **rabbitmq.erlang.scheduler.run_queue**
(gauge) | \[OpenMetrics\] Cola de ejecución del programador Erlang|
+| **rabbitmq.erlang.uptime_seconds**
(gauge) | \[OpenMetrics\] Tiempo de actividad del nodo
_Se muestra como segundos_ |
+| **rabbitmq.erlang.vm.allocators**
(gauge) | \[OpenMetrics\] Memoria asignada (carriers_size) y utilizada (blocks_size) para los diferentes asignadores en la máquina virtual. Consulta erts_alloc(3).|
+| **rabbitmq.erlang.vm.atom_count**
(gauge) | \[OpenMetrics\] Número de átomos existentes actualmente en el nodo local.|
+| **rabbitmq.erlang.vm.atom_limit**
(gauge) | \[OpenMetrics\] Número máximo de átomos existentes simultáneamente en el nodo local.|
+| **rabbitmq.erlang.vm.dirty_cpu_schedulers**
(gauge) | \[OpenMetrics\] Número de subprocesos sucios del programador de CPU utilizados por el emulador.
_Se muestra como subproceso_ |
+| **rabbitmq.erlang.vm.dirty_cpu_schedulers_online**
(gauge) | \[OpenMetrics\] Número de subprocesos sucios del programador de CPU en línea.
_Se muestra como subproceso_ |
+| **rabbitmq.erlang.vm.dirty_io_schedulers**
(gauge) | \[OpenMetrics\] Número de subprocesos sucios del programador de E/S utilizados por el emulador.
_Se muestra como subproceso_ |
+| **rabbitmq.erlang.vm.dist.node_queue_size_bytes**
(gauge) | \[OpenMetrics\] Número de bytes en la cola de distribución de salida. Esta cola se sitúa entre el código Erlang y el controlador del puerto.
_Se muestra como bytes_ |
+| **rabbitmq.erlang.vm.dist.node_state**
(gauge) | \[OpenMetrics\] Estado actual del enlace de distribución. El estado se representa como un valor numérico donde `pending=1', `up_pending=2' y `up=3'.| | **rabbitmq.erlang.vm.dist.port_input_bytes**
(gauge) | [OpenMetrics] Número total de bytes leídos desde el puerto.
_Se muestra como bytes_ | | **rabbitmq.erlang.vm.dist.port_memory_bytes**
(gauge) | [OpenMetrics] Número total de bytes asignados a este puerto por el sistema en tiempo de ejecución. El propio puerto puede tener memoria asignada que no está incluida.
_Se muestra como byte_ | | **rabbitmq.erlang.vm.dist.port_output_bytes**
(gauge) | [OpenMetrics] Número total de bytes escritos en el puerto.
_Se muestra como bytes_ | | **rabbitmq.erlang.vm.dist.port_queue.size_bytes**
(gauge) | [OpenMetrics] Número total de bytes puestos en cola por el puerto utilizando la implementación de colas del controlador ERTS.
_Se muestra como bytes_ | | **rabbitmq.erlang.vm.dist.proc.heap_size_words**
(gauge) | [OpenMetrics] Tamaño en palabras de la generación heap más joven del proceso. Esta generación incluye el stack tecnplógico del proceso. Esta información es altamente dependiente de la implementación y puede cambiar si la implementación cambia.| | **rabbitmq.erlang.vm.dist.proc.memory_bytes**
(gauge) | [OpenMetrics] Tamaño en bytes del proceso. Esto incluye el stack tecnológico de llamadas, heap y las estructuras internas.
_Se muestra como bytes_ | | **rabbitmq.erlang.vm.dist.proc.message_queue_len**
(gauge) | [OpenMetrics] Número de mensajes actualmente en la cola de mensajes del proceso.
_Se muestra como mensaje_ | | **rabbitmq.erlang.vm.dist.proc.min_bin_vheap_size_words**
(gauge) | [OpenMetrics] Tamaño mínimo de heap virtual binario para el proceso.| | **rabbitmq.erlang.vm.dist.proc.min_heap_size_words**
(gauge) | [OpenMetrics] Tamaño mínimo de heap para el proceso.| | **rabbitmq.erlang.vm.dist.proc.reductions**
(gauge) | [OpenMetrics] Número de reducciones ejecutadas por el proceso.| | **rabbitmq.erlang.vm.dist.proc.stack_size_words**
(gauge) | [OpenMetrics] Tamaño del stack tecnológico del proceso, en palabras.| | **rabbitmq.erlang.vm.dist.proc.status**
(gauge) | [OpenMetrics] Estado actual del proceso de distribución. El estado se representa como un valor numérico donde `exiting=1', `suspended=2', `runnable=3', `garbage_collecting=4', `running=5' and \`waiting=6'.|
+| **rabbitmq.erlang.vm.dist.proc.total_heap_size_words**
(gauge) | \[OpenMetrics\] Tamaño total, en palabras, de todos los fragmentos de heap del proceso. Esto incluye el stack tecnológico del proceso y cualquier mensaje no recibido que se considere parte del heap.|
+| **rabbitmq.erlang.vm.dist.recv.avg_bytes**
(gauge) | \[OpenMetrics\] Tamaño medio de los paquetes, en bytes, recibidos por el socket.
_Se muestra como bytes_ |
+| **rabbitmq.erlang.vm.dist.recv.cnt**
(gauge) | \[OpenMetrics\] Número de paquetes recibidos por el socket.|
+| **rabbitmq.erlang.vm.dist.recv.dvi_bytes**
(gauge) | \[OpenMetrics\] Desviación media del tamaño del paquete, en bytes, recibido por el socket.
_Se muestra como bytes_ |
+| **rabbitmq.erlang.vm.dist.recv.max_bytes**
(gauge) | \[OpenMetrics\] Tamaño del paquete más grande, en bytes, recibido por el socket.
_Se muestra como bytes_ |
+| **rabbitmq.erlang.vm.dist.recv_bytes**
(gauge) | \[OpenMetrics\] Número de bytes recibidos por el socket.
_Se muestra como bytes_ |
+| **rabbitmq.erlang.vm.dist.send.avg_bytes**
(gauge) | \[OpenMetrics\] Tamaño medio de los paquetes, en bytes, enviados desde el socket.
_Se muestra como bytes_ |
+| **rabbitmq.erlang.vm.dist.send.cnt**
(gauge) | \[OpenMetrics\] Número de paquetes enviados desde el socket.|
+| **rabbitmq.erlang.vm.dist.send.max_bytes**
(gauge) | \[OpenMetrics\] Tamaño del paquete más grande, en bytes, enviado desde el socket.
_Se muestra como bytes_ |
+| **rabbitmq.erlang.vm.dist.send.pend_bytes**
(gauge) | \[OpenMetrics\] Número de bytes a la espera de ser enviados por el socket.
_Se muestra como bytes_ |
+| **rabbitmq.erlang.vm.dist.send_bytes**
(gauge) | \[OpenMetrics\] Número de bytes enviados desde el socket.
_Se muestra como bytes_ |
+| **rabbitmq.erlang.vm.ets_limit**
(gauge) | \[OpenMetrics\] Número máximo de tablas ETS permitidas.|
+| **rabbitmq.erlang.vm.logical_processors**
(gauge) | \[OpenMetrics\] Número detectado de procesadores lógicos configurados en el sistema.|
+| **rabbitmq.erlang.vm.logical_processors.available**
(gauge) | \[OpenMetrics\] Número detectado de procesadores lógicos disponibles para el sistema de tiempo de ejecución Erlang.|
+| **rabbitmq.erlang.vm.logical_processors.online**
(gauge) | \[OpenMetrics\] Número detectado de procesadores lógicos en línea en el sistema.|
+| **rabbitmq.erlang.vm.memory.atom_bytes_total**
(gauge) | \[OpenMetrics\] Cantidad total de memoria actualmente asignada para los átomos. Esta memoria es parte de la memoria presentada como memoria del sistema.
_Se muestra como bytes_ |
+| **rabbitmq.erlang.vm.memory.bytes_total**
(gauge) | \[OpenMetrics\] Cantidad total de memoria asignada actualmente. Es igual a la suma del tamaño de memoria de los procesos y del sistema.
_Se muestra como bytes_ |
+| **rabbitmq.erlang.vm.memory.dets_tables**
(gauge) | \[OpenMetrics\] Recuento de tablas DETS de máquinas virtuales Erlang.|
+| **rabbitmq.erlang.vm.memory.ets_tables**
(gauge) | \[OpenMetrics\] Recuento de tablas ETS de máquinas virtuales Erlang.|
+| **rabbitmq.erlang.vm.memory.processes_bytes_total**
(gauge) | \[OpenMetrics\] Cantidad total de memoria actualmente asignada para los procesos Erlang.
_Se muestra como bytes_ |
+| **rabbitmq.erlang.vm.memory.system_bytes_total**
(gauge) | \[OpenMetrics\] Cantidad total de memoria actualmente asignada para el emulador que no está directamente relacionada con un proceso Erlang. La memoria presentada como procesos no está incluida en esta memoria.
_Se muestra como bytes_ |
+| **rabbitmq.erlang.vm.msacc.alloc_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a gestionar la memoria. Sin estados adicionales, este tiempo se reparte entre todos los demás estados.
_Se muestra como segundos_ |
+| **rabbitmq.erlang.vm.msacc.aux_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a gestionar trabajos auxiliares.
_Se muestra como segundos_ |
+| **rabbitmq.erlang.vm.msacc.bif_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a BIF. Sin estados adicionales, este tiempo forma parte del estado 'emulador'.
_Se muestra como segundos_ |
+| **rabbitmq.erlang.vm.msacc.busy_wait_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos de espera ocupada. Sin estados adicionales, este tiempo forma parte del estado 'otros'.
_Se muestra como segundos_ |
+| **rabbitmq.erlang.vm.msacc.check_io_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a comprobar si hay nuevos eventos de E/S.
_Se muestra como segundos_ |
+| **rabbitmq.erlang.vm.msacc.emulator_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a ejecutar procesos Erlang.
_Se muestra como segundos_ |
+| **rabbitmq.erlang.vm.msacc.ets_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a ejecutar BIF ETS. Sin estados adicionales, este tiempo forma parte del estado 'emulador'.
_Se muestra como segundos_ |
+| **rabbitmq.erlang.vm.msacc.gc_full_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a la recolección de basura fullsweep. Sin estados adicionales, este tiempo es parte del estado 'recolección de basura'.
_Se muestra como segundos_ |
+| **rabbitmq.erlang.vm.msacc.gc_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a la recolección de basura. Cuando los estados adicionales están activados, este es el tiempo dedicado a recolectar basura non-fullsweep.
_Se muestra como segundos_ |
+| **rabbitmq.erlang.vm.msacc.nif_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a NIF. Sin estados adicionales, este tiempo forma parte del estado 'emulador'.
_Se muestra como segundos_ |
+| **rabbitmq.erlang.vm.msacc.other_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a hacer cosas no explicadas.
_Se muestra como segundos_ |
+| **rabbitmq.erlang.vm.msacc.port_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a ejecutar puertos.
_Se muestra como segundos_ |
+| **rabbitmq.erlang.vm.msacc.send_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a enviar mensajes (solo procesos). Sin estados adicionales, este tiempo forma parte del estado 'emulador'.
_Se muestra como segundos_ |
+| **rabbitmq.erlang.vm.msacc.sleep_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos que pasó durmiendo.
_Se muestra como segundos_ |
+| **rabbitmq.erlang.vm.msacc.timers_seconds.count**
(count) | \[OpenMetrics\] Tiempo total en segundos dedicado a gestionar temporizadores. Sin estados adicionales, este tiempo forma parte del estado 'otros'.
_Se muestra como segundos_ |
+| **rabbitmq.erlang.vm.port_count**
(gauge) | \[OpenMetrics\] Número de puertos existentes actualmente en el nodo local.|
+| **rabbitmq.erlang.vm.port_limit**
(gauge) | \[OpenMetrics\] Número máximo de puertos existentes simultáneamente en el nodo local.|
+| **rabbitmq.erlang.vm.process_count**
(gauge) | \[OpenMetrics\] Número de procesos existentes actualmente en el nodo local.
_Se muestra como proceso_ |
+| **rabbitmq.erlang.vm.process_limit**
(gauge) | \[OpenMetrics\] Número máximo de procesos existentes simultáneamente en el nodo local.
_Se muestra como proceso_ |
+| **rabbitmq.erlang.vm.schedulers**
(gauge) | \[OpenMetrics\] Número de procesos del programador utilizados por el emulador.|
+| **rabbitmq.erlang.vm.schedulers_online**
(gauge) | \[OpenMetrics\] Número de programadores en línea.|
+| **rabbitmq.erlang.vm.smp_support**
(gauge) | \[OpenMetrics\] 1 si el emulador ha sido compilado con soporte SMP, en caso contrario 0.|
+| **rabbitmq.erlang.vm.statistics.bytes_output.count**
(count) | \[OpenMetrics\] Número total de bytes emitidos a los puertos.
_Se muestra como bytes_ |
+| **rabbitmq.erlang.vm.statistics.bytes_received.count**
(count) | \[OpenMetrics\] Número total de bytes recibidos a través de los puertos.
_Se muestra como bytes_ |
+| **rabbitmq.erlang.vm.statistics.context_switches.count**
(count) | \[OpenMetrics\] Número total de cambios de contexto desde que se inició el sistema.|
+| **rabbitmq.erlang.vm.statistics.dirty_cpu_run_queue_length**
(gauge) | \[OpenMetrics\] Longitud de la cola de ejecución de CPU sucia.|
+| **rabbitmq.erlang.vm.statistics.dirty_io_run_queue_length**
(gauge) | \[OpenMetrics\] Longitud de la cola de ejecución de E/S sucia.|
+| **rabbitmq.erlang.vm.statistics.garbage_collection.bytes_reclaimed.count**
(count) | \[OpenMetrics\] Recolección de basura: bytes recuperados.
_Se muestra como bytes_ |
+| **rabbitmq.erlang.vm.statistics.garbage_collection.number_of_gcs.count**
(count) | \[OpenMetrics\] Recolección de basura: número de recolecciones de basura.|
+| **rabbitmq.erlang.vm.statistics.garbage_collection.words_reclaimed.count**
(count) | \[OpenMetrics\] Recolección de basura: palabras recuperadas.|
+| **rabbitmq.erlang.vm.statistics.reductions.count**
(count) | \[OpenMetrics\] Reducciones totales.|
+| **rabbitmq.erlang.vm.statistics.run_queues_length**
(gauge) | \[OpenMetrics\] Longitud de las colas de ejecución normales.|
+| **rabbitmq.erlang.vm.statistics.runtime_milliseconds.count**
(count) | \[OpenMetrics\] Suma del tiempo de ejecución de todos los subprocesos en el sistema de tiempo de ejecución Erlang. Puede ser mayor que el tiempo del reloj de pared.
_Se muestra como milisegundos_ |
+| **rabbitmq.erlang.vm.statistics.wallclock_time_milliseconds.count**
(count) | \[OpenMetrics\] Información sobre el reloj de pared. Igual que erlang_vm_statistics_runtime_milliseconds excepto que se mide el tiempo real.
_Se muestra como milisegundos_ |
+| **rabbitmq.erlang.vm.thread_pool_size**
(gauge) | \[OpenMetrics\] Número de subprocesos asíncronos en el grupo de subprocesos asíncronos utilizados en llamadas asíncronas al controlador.|
+| **rabbitmq.erlang.vm.threads**
(gauge) | \[OpenMetrics\] 1 si el emulador ha sido compilado con soporte para subprocesos, 0 en caso contrario.|
+| **rabbitmq.erlang.vm.time_correction**
(gauge) | \[OpenMetrics\] 1 si la corrección de tiempo está activada, 0 en caso contrario.|
+| **rabbitmq.erlang.vm.wordsize_bytes**
(gauge) | \[OpenMetrics\] Tamaño de las palabras de términos Erlang en bytes.
_Se muestra como bytes_ |
+| **rabbitmq.exchange.messages.ack.count**
(gauge) | Número de mensajes en intercambios entregados a clientes y reconocidos
_Se muestra como mensaje_ |
+| **rabbitmq.exchange.messages.ack.rate**
(gauge) | Tasa de mensajes en intercambios entregados a clientes y reconocidos por segundo
_Se muestra como mensaje_ |
+| **rabbitmq.exchange.messages.confirm.count**
(gauge) | Recuento de mensajes en intercambios confirmados
_Se muestra como mensaje_ |
+| **rabbitmq.exchange.messages.confirm.rate**
(gauge) | Tasa de mensajes en intercambios confirmados por segundo
_Se muestra como mensaje_ |
+| **rabbitmq.exchange.messages.deliver_get.count**
(gauge) | Suma de mensajes en intercambios entregados en modo de reconocimiento a los consumidores, en modo sin reconocimiento a los consumidores, en modo de reconocimiento en respuesta a basic.get y en modo sin reconocimiento en respuesta a basic.get
_Se muestra como mensaje_ |
+| **rabbitmq.exchange.messages.deliver_get.rate**
(gauge) | Tasa por segundo de la suma de mensajes en intercambios entregados en modo de reconocimiento a los consumidores, en modo sin reconocimiento a los consumidores, en modo de reconocimiento en respuesta a basic.get y en modo sin reconocimiento en respuesta a basic.get
_Se muestra como mensaje_ |
+| **rabbitmq.exchange.messages.publish.count**
(gauge) | Recuento de mensajes en intercambios publicados
_Se muestra como mensaje_ |
+| **rabbitmq.exchange.messages.publish.rate**
(gauge) | Tasa de mensajes en intercambios publicados por segundo
_Se muestra como mensaje_ |
+| **rabbitmq.exchange.messages.publish_in.count**
(gauge) | Recuento de mensajes publicados desde canales en este intercambio
_Se muestra como mensaje_ |
+| **rabbitmq.exchange.messages.publish_in.rate**
(gauge) | Tasa de mensajes publicados desde los canales a esta central por segundo
_Se muestra como mensaje_ |
+| **rabbitmq.exchange.messages.publish_out.count**
(gauge) | Recuento de mensajes publicados desde este intercambio en colas
_Se muestra como mensaje_ |
+| **rabbitmq.exchange.messages.publish_out.rate**
(gauge) | Tasa de mensajes publicados desde este intercambio a las colas por segundo
_Se muestra como mensaje_ |
+| **rabbitmq.exchange.messages.redeliver.count**
(gauge) | Recuento del subconjunto de mensajes en intercambios en deliver_get que tenían el indicador de reenviado activado
_Se muestra como mensaje_ |
+| **rabbitmq.exchange.messages.redeliver.rate**
(gauge) | Tasa del subconjunto de mensajes en intercambios en deliver_get que tenían el indicador de reenviado activado por segundo
_Se muestra como mensaje_ |
+| **rabbitmq.exchange.messages.return_unroutable.count**
(gauge) | Recuento de mensajes en intercambios devueltos al publicador como no enrutables
_Se muestra como mensaje_ |
+| **rabbitmq.exchange.messages.return_unroutable.rate**
(gauge) | Tasa de mensajes en intercambios devueltos al publicador como no enrutables por segundo
_Se muestra como mensaje_ |
+| **rabbitmq.global.consumers**
(gauge) | \[OpenMetrics\] Número actual de consumidores|
+| **rabbitmq.global.messages.acknowledged.count**
(count) | \[OpenMetrics\] Número total de mensajes reconocidos por los consumidores
_Se muestra como mensaje_ |
+| **rabbitmq.global.messages.confirmed.count**
(count) | \[OpenMetrics\] Número total de mensajes confirmados a los publicadores
_Se muestra como mensaje_ |
+| **rabbitmq.global.messages.dead_lettered.confirmed.count**
(count) | \[OpenMetrics\] Número total de mensajes fallidos y confirmados por colas de destino
_Se muestra como mensaje_ |
+| **rabbitmq.global.messages.dead_lettered.delivery_limit.count**
(count) | \[OpenMetrics\] Número total de mensajes fallidos por exceder el límite de entrega
_Se muestra como mensaje_ |
+| **rabbitmq.global.messages.dead_lettered.expired.count**
(count) | \[OpenMetrics\] Número total de mensajes fallidos por exceder el ciclo de vida del mensaje
_Se muestra como mensaje_ |
+| **rabbitmq.global.messages.dead_lettered.maxlen.count**
(count) | \[OpenMetrics\] Número total de mensajes fallidos por desbordamiento drop-head o reject-publish-dlx
_Se muestra como mensaje_ |
+| **rabbitmq.global.messages.dead_lettered.rejected.count**
(count) | \[OpenMetrics\] Número total de mensajes fallidos debido a basic.reject o basic.nack
_Se muestra como mensaje_ |
+| **rabbitmq.global.messages.delivered.consume_auto_ack.count**
(count) | \[OpenMetrics\] Número total de mensajes entregados a los consumidores utilizando basic.consume con reconocimiento automático
_Se muestra como mensaje_ |
+| **rabbitmq.global.messages.delivered.consume_manual_ack.count**
(count) | \[OpenMetrics\] Número total de mensajes entregados a los consumidores utilizando basic.consume con reconocimiento manual
_Se muestra como mensaje_ |
+| **rabbitmq.global.messages.delivered.count**
(count) | \[OpenMetrics\] Número total de mensajes entregados a los consumidores
_Se muestra como mensaje_ |
+| **rabbitmq.global.messages.delivered.get_auto_ack.count**
(count) | \[OpenMetrics\] Número total de mensajes entregados a los consumidores utilizando basic.get con reconocimiento automático
_Se muestra como mensaje_ |
+| **rabbitmq.global.messages.delivered.get_manual_ack.count**
(count) | \[OpenMetrics\] Número total de mensajes entregados a los consumidores utilizando basic.get con reconocimiento manual
_Se muestra como mensaje_ |
+| **rabbitmq.global.messages.get_empty.count**
(count) | \[OpenMetrics\] Número total de veces que las operaciones basic.get no han obtenido ningún mensaje.|
+| **rabbitmq.global.messages.received.count**
(count) | \[OpenMetrics\] Número total de mensajes recibidos de los publicadores
_Se muestra como mensaje_ |
+| **rabbitmq.global.messages.received_confirm.count**
(count) | \[OpenMetrics\] Número total de mensajes recibidos de publicadores que esperan confirmaciones
_Se muestra como mensaje_ |
+| **rabbitmq.global.messages.redelivered.count**
(count) | \[OpenMetrics\] Número total de mensajes reenviados a los consumidores
_Se muestra como mensaje_ |
+| **rabbitmq.global.messages.routed.count**
(count) | \[OpenMetrics\] Número total de mensajes enrutados a colas o flujos
_Se muestra como mensaje_ |
+| **rabbitmq.global.messages.unroutable.dropped.count**
(count) | \[OpenMetrics\] Número total de mensajes publicados como no obligatorios en un intercambio y descartados como no enrutables
_Se muestra como mensaje_ |
+| **rabbitmq.global.messages.unroutable.returned.count**
(count) | \[OpenMetrics\] Número total de mensajes publicados como obligatorios en un intercambio y devueltos al publicador como no enrutables
_Se muestra como mensaje_ |
+| **rabbitmq.global.publishers**
(gauge) | \[OpenMetrics\] Número actual de publicadores|
+| **rabbitmq.identity_info**
(gauge) | \[OpenMetrics\] Información de la identidad de nodos y clústeres RabbitMQ|
+| **rabbitmq.io.read_bytes.count**
(count) | \[OpenMetrics\] Número total de bytes de E/S leídos
_Se muestra como bytes_ |
+| **rabbitmq.io.read_ops.count**
(count) | \[OpenMetrics\] Número total de operaciones de lectura de E/S
_Se muestra como operación_ |
+| **rabbitmq.io.read_time_seconds.count**
(count) | \[OpenMetrics\] Tiempo total de lectura de E/S
_Se muestra en segundos_ |
+| **rabbitmq.io.reopen_ops.count**
(count) | \[OpenMetrics\] Número total de veces que se han reabierto archivos|
+| **rabbitmq.io.seek_ops.count**
(count) | \[OpenMetrics\] Número total de operaciones de búsqueda de E/S
_Se muestra como operación_ |
+| **rabbitmq.io.seek_time_seconds.count**
(count) | \[OpenMetrics\] Tiempo total de búsqueda de E/S
_Se muestra como segundos_ |
+| **rabbitmq.io.sync_ops.count**
(count) | \[OpenMetrics\] Número total de operaciones de sincronización de E/S
_Se muestra como operación_ |
+| **rabbitmq.io.sync_time_seconds.count**
(count) | \[OpenMetrics\] Tiempo total de sincronización de E/S
_Se muestra como segundos_ |
+| **rabbitmq.io.write_bytes.count**
(count) | \[OpenMetrics\] Número total de bytes de E/S escritos
_Se muestra como bytes_ |
+| **rabbitmq.io.write_ops.count**
(count) | \[OpenMetrics\] Número total de operaciones de escritura de E/S
_Se muestra como operación_ |
+| **rabbitmq.io.write_time_seconds.count**
(count) | \[OpenMetrics\] Tiempo total de escritura de E/S
_Se muestra en segundos_ |
+| **rabbitmq.msg_store.read.count**
(count) | \[OpenMetrics\] Número total de operaciones de lectura del almacén de mensajes
_Se muestra como operación_ |
+| **rabbitmq.msg_store.write.count**
(count) | \[OpenMetrics\] Número total de operaciones de escritura del almacén de mensajes
_Se muestra como operación_ |
+| **rabbitmq.node.disk_alarm**
(gauge) | ¿Tiene el nodo alarma de disco?|
+| **rabbitmq.node.disk_free**
(gauge) | Espacio libre actual en disco
_Se muestra como bytes_ |
+| **rabbitmq.node.fd_used**
(gauge) | Descriptores de archivo utilizados|
+| **rabbitmq.node.mem_alarm**
(gauge) | ¿Tiene el host alarma de memoria?|
+| **rabbitmq.node.mem_limit**
(gauge) | Marca de agua alta del uso de memoria en bytes
_Se muestra como bytes_ |
+| **rabbitmq.node.mem_used**
(gauge) | Memoria utilizada en bytes
_Se muestra como bytes_ |
+| **rabbitmq.node.partitions**
(gauge) | Número de particiones de red que ve este nodo|
+| **rabbitmq.node.run_queue**
(gauge) | Número medio de procesos Erlang a la espera de ejecución
_Se muestra como proceso_ |
+| **rabbitmq.node.running**
(gauge) | ¿Se está ejecutando el nodo o no?|
+| **rabbitmq.node.sockets_used**
(gauge) | Número de descriptores de archivo utilizados como sockets|
+| **rabbitmq.overview.messages.ack.count**
(gauge) | Número de mensajes entregados a los clientes y reconocidos
_Se muestra como mensaje_ |
+| **rabbitmq.overview.messages.ack.rate**
(gauge) | Tasa de mensajes entregados a clientes y reconocidos por segundo
_Se muestra como mensaje_ |
+| **rabbitmq.overview.messages.confirm.count**
(gauge) | Recuento de mensajes confirmados
_Se muestra como mensaje_ |
+| **rabbitmq.overview.messages.confirm.rate**
(gauge) | Tasa de mensajes confirmados por segundo
_Se muestra como mensaje_ |
+| **rabbitmq.overview.messages.deliver_get.count**
(gauge) | Suma de mensajes entregados en modo de reconocimiento a los consumidores, en modo sin reconocimiento a los consumidores, en modo de reconocimiento en respuesta a basic.get y en modo sin reconocimiento en respuesta a basic.get
_Se muestra como mensaje_ |
+| **rabbitmq.overview.messages.deliver_get.rate**
(gauge) | Tasa por segundo de la suma de mensajes entregados en modo de reconocimiento a los consumidores, en modo sin reconocimiento a los consumidores, en modo de reconocimiento en respuesta a basic.get y en modo sin reconocimiento en respuesta a basic.get
_Se muestra como mensaje_ |
+| **rabbitmq.overview.messages.drop_unroutable.count**
(gauge) | Recuento de mensajes descartados como no enrutables
_Se muestra como mensaje_ |
+| **rabbitmq.overview.messages.drop_unroutable.rate**
(gauge) | Tasa de mensajes descartados como no enrutables por segundo
_Se muestra como mensaje_ |
+| **rabbitmq.overview.messages.publish.count**
(gauge) | Recuento de mensajes publicados
_Se muestra como mensaje_ |
+| **rabbitmq.overview.messages.publish.rate**
(gauge) | Tasa de mensajes publicados por segundo
_Se muestra como mensaje_ |
+| **rabbitmq.overview.messages.publish_in.count**
(gauge) | Recuento de mensajes publicados desde canales en este resumen
_Se muestra como mensaje_ |
+| **rabbitmq.overview.messages.publish_in.rate**
(gauge) | Tasa de mensajes publicados desde canales en este resumen por segundo
_Se muestra como mensaje_ |
+| **rabbitmq.overview.messages.publish_out.count**
(gauge) | Recuento de mensajes publicados desde este resumen en colas
_Se muestra como mensaje_ |
+| **rabbitmq.overview.messages.publish_out.rate**
(gauge) | Tasa de mensajes publicados desde este resumen en colas por segundo
_Se muestra como mensaje_ |
+| **rabbitmq.overview.messages.redeliver.count**
(gauge) | Recuento del subconjunto de mensajes en deliver_get que tenían el indicador de reenviado activado
_Se muestra como mensaje_ |
+| **rabbitmq.overview.messages.redeliver.rate**
(gauge) | Tasa del subconjunto de mensajes en deliver_get que tenían el indicador de reenviado activado por segundo
__Se muestra como mensaje_ |
+| **rabbitmq.overview.messages.return_unroutable.count**
(gauge) | Recuento de mensajes devueltos al publicador como no enrutables
_Se muestra como mensaje_ |
+| **rabbitmq.overview.messages.return_unroutable.rate**
(gauge) | Tasa de mensajes devueltos al publicador como no enrutables por segundo
_Se muestra como mensaje_ |
+| **rabbitmq.overview.object_totals.channels**
(gauge) | Número total de canales
_Se muestra como elemento_ |
+| **rabbitmq.overview.object_totals.connections**
(gauge) | Número total de conexiones
_Se muestra como conexión_ |
+| **rabbitmq.overview.object_totals.consumers**
(gauge) | Número total de consumidores
_Se muestra como elemento_ |
+| **rabbitmq.overview.object_totals.queues**
(gauge) | Número total de colas
_Se muestra como elemento_ |
+| **rabbitmq.overview.queue_totals.messages.count**
(gauge) | Número total de mensajes (listos más no reconocidos)
_Se muestra como mensaje_ |
+| **rabbitmq.overview.queue_totals.messages.rate**
(gauge) | Tasa del número de mensajes (listos más no reconocidos)
_Se muestra como mensaje_ |
+| **rabbitmq.overview.queue_totals.messages_ready.count**
(gauge) | Número de mensajes listos para su entrega
_Se muestra como mensaje_ |
+| **rabbitmq.overview.queue_totals.messages_ready.rate**
(gauge) | Tasa del número de mensajes listos para su entrega
_Se muestra como mensaje_ |
+| **rabbitmq.overview.queue_totals.messages_unacknowledged.count**
(gauge) | Número de mensajes no reconocidos
_Se muestra como mensaje_ |
+| **rabbitmq.overview.queue_totals.messages_unacknowledged.rate**
(gauge) | Tasa del número de mensajes no reconocidos
_Se muestra como mensaje_ |
+| **rabbitmq.process.max_fds**
(gauge) | \[OpenMetrics\] Límite de descriptores de archivo abiertos|
+| **rabbitmq.process.max_tcp_sockets**
(gauge) | \[OpenMetrics\] Límite de sockets TCP abiertos|
+| **rabbitmq.process.open_fds**
(gauge) | \[OpenMetrics\] Descriptores de archivo abiertos|
+| **rabbitmq.process.open_tcp_sockets**
(gauge) | \[OpenMetrics\] Sockets TCP abiertos|
+| **rabbitmq.process.resident_memory_bytes**
(gauge) | \[OpenMetrics\] Memoria utilizada en bytes
_Se muestra como bytes_ |
+| **rabbitmq.process_start_time_seconds**
(gauge) | \[OpenMetrics\] Tiempo de inicio del proceso desde unix epoch en segundos.
_Se muestra como segundos_ |
+| **rabbitmq.queue.active_consumers**
(gauge) | Número de consumidores activos, consumidores que pueden recibir inmediatamente cualquier mensaje enviado a la cola.|
+| **rabbitmq.queue.bindings.count**
(gauge) | Número de enlaces para una cola específica|
+| **rabbitmq.queue.consumer_capacity**
(gauge) | \[OpenMetrics\] Capacidad de consumo|
+| **rabbitmq.queue.consumer_utilisation**
(gauge) | Proporción de tiempo durante el que los consumidores de una cola pueden tomar nuevos mensajes
_Se muestra como fracción_ |
+| **rabbitmq.queue.consumers**
(gauge) | Número de consumidores|
+| **rabbitmq.queue.disk_reads.count**
(count) | \[OpenMetrics\] Número total de veces que la cola ha leído mensajes del disco|
+| **rabbitmq.queue.disk_writes.count**
(count) | \[OpenMetrics\] Número total de veces que la cola ha escrito mensajes en el disco|
+| **rabbitmq.queue.get.ack.count**
(count) | \[OpenMetrics\] Número total de mensajes obtenidos de una cola con basic.get en modo de reconocimiento manual.|
+| **rabbitmq.queue.get.count**
(count) | \[OpenMetrics\] Número total de mensajes obtenidos de una cola con basic.get en modo de reconocimiento automático.|
+| **rabbitmq.queue.get.empty.count**
(count) | \[OpenMetrics\] Número total de veces que las operaciones basic.get no han obtenido ningún mensaje en una cola.|
+| **rabbitmq.queue.head_message_timestamp**
(gauge) | \[OpenMetrics, CLI de gestión\] Marca de tiempo del mensaje de cabecera de la marca de tiempo de la cola del primer mensaje de la cola, si lo hay
_Se muestra como milisegundos_ |
+| **rabbitmq.queue.index.read_ops.count**
(count) | \[OpenMetrics\] Número total de operaciones de lectura de índices de cola
_Se muestra como operación_ |
+| **rabbitmq.queue.index.write_ops.count**
(count) | \[OpenMetrics\] Número total de operaciones de escritura de índices de cola
_Se muestra como operación_ |
+| **rabbitmq.queue.memory**
(gauge) | Bytes de memoria consumidos por el proceso Erlang asociado a la cola, incluyendo stack tecnológico, heap y estructuras internas
_Se muestra como bytes_ |
+| **rabbitmq.queue.message_bytes**
(gauge) | Número de bytes de mensajes listos para ser entregados a los clientes
_Se muestra como mensaje_ |
+| **rabbitmq.queue.messages**
(gauge) | \[OpenMetrics, CLI de gestión\] Recuento del total de mensajes en la cola, que es la suma de mensajes listos y no reconocidos (profundidad total de la cola)
_Se muestra como mensaje_ |
+| **rabbitmq.queue.messages.ack.count**
(gauge) | Número de mensajes en cola entregados a clientes y reconocidos
_Se muestra como mensaje_ |
+| **rabbitmq.queue.messages.ack.rate**
(gauge) | Número por segundo de mensajes entregados a clientes y reconocidos
_Se muestra como mensaje_ |
+| **rabbitmq.queue.messages.acked.count**
(count) | \[OpenMetrics\] Número total de mensajes reconocidos por los consumidores en una cola|
+| **rabbitmq.queue.messages.bytes**
(gauge) | \[OpenMetrics\] Tamaño en bytes de los mensajes listos y no reconocidos
_Se muestra como bytes_ |
+| **rabbitmq.queue.messages.deliver.count**
(gauge) | Recuento de mensajes entregados en modo de reconocimiento a los consumidores
_Se muestra como mensaje_ |
+| **rabbitmq.queue.messages.deliver.rate**
(gauge) | Tasa de mensajes entregados en modo de reconocimiento a los consumidores
_Se muestra como mensaje_ |
+| **rabbitmq.queue.messages.deliver_get.count**
(gauge) | Suma de mensajes en colas entregados en modo de reconocimiento a los consumidores, en modo sin reconocimiento a los consumidores, en modo de reconocimiento en respuesta a basic.get y en modo sin reconocimiento en respuesta a basic.get.
_Se muestra como mensaje_ |
+| **rabbitmq.queue.messages.deliver_get.rate**
(gauge) | Tasa por segundo de la suma de mensajes en colas entregados en modo de reconocimiento a los consumidores, en modo sin reconocimiento a los consumidores, en modo de reconocimiento en respuesta a basic.get y en modo sin reconocimiento en respuesta a basic.get.
_Se muestra como mensaje_ |
+| **rabbitmq.queue.messages.delivered.ack.count**
(count) | \[OpenMetrics\] Número total de mensajes entregados desde una cola a los consumidores en modo de reconocimiento automático.|
+| **rabbitmq.queue.messages.delivered.count**
(count) | \[OpenMetrics\] Número total de mensajes entregados desde una cola a los consumidores en modo de reconocimiento automático.|
+| **rabbitmq.queue.messages.paged_out**
(gauge) | \[OpenMetrics\] Mensajes paginados al disco|
+| **rabbitmq.queue.messages.paged_out_bytes**
(gauge) | \[OpenMetrics\] Tamaño en bytes de los mensajes paginados al disco
_Se muestra como bytes_ |
+| **rabbitmq.queue.messages.persistent**
(gauge) | \[OpenMetrics\] Mensajes persistentes
_Se muestra como mensaje_ |
+| **rabbitmq.queue.messages.persistent_bytes**
(gauge) | \[OpenMetrics\] Tamaño en bytes de los mensajes persistentes
_Se muestra como bytes_ |
+| **rabbitmq.queue.messages.publish.count**
(gauge) | Recuento de mensajes en colas publicados
_Se muestra como mensaje_ |
+| **rabbitmq.queue.messages.publish.rate**
(gauge) | Tasa por segundo de mensajes publicados
_Se muestra como mensaje_ |
+| **rabbitmq.queue.messages.published.count**
(count) | \[OpenMetrics\] Número total de mensajes publicados en colas
_Se muestra como mensaje_ |
+| **rabbitmq.queue.messages.ram**
(gauge) | \[OpenMetrics\] Mensajes listos y no reconocidos almacenados en memoria
_Se muestra como mensaje_ |
+| **rabbitmq.queue.messages.ram_bytes**
(gauge) | \[OpenMetrics\] Tamaño de los mensajes listos y no reconocidos almacenados en memoria
_Se muestra como byte_ |
+| **rabbitmq.queue.messages.rate**
(gauge) | Recuento por segundo del total de mensajes en la cola
_Se muestra como mensaje_ |
+| **rabbitmq.queue.messages.ready**
(gauge) | \[OpenMetrics\] Mensajes listos para ser entregados a los consumidores
_Se muestra como mensaje_ |
+| **rabbitmq.queue.messages.ready_bytes**
(gauge) | \[OpenMetrics\] Tamaño en bytes de los mensajes listos
_Se muestra como bytes_ |
+| **rabbitmq.queue.messages.ready_ram**
(gauge) | \[OpenMetrics\] Mensajes listos almacenados en memoria
_Se muestra como mensaje_ |
+| **rabbitmq.queue.messages.redeliver.count**
(gauge) | Recuento del subconjunto de mensajes en colas en deliver_get que tenían el indicador de reenviado activado
_Se muestra como mensaje_ |
+| **rabbitmq.queue.messages.redeliver.rate**
(gauge) | Tasa por segundo del subconjunto de mensajes en deliver_get que tenían el indicador de reenviado activado
_Se muestra como mensaje_ |
+| **rabbitmq.queue.messages.redelivered.count**
(count) | \[OpenMetrics\] Número total de mensajes redistribuidos desde una cola a los consumidores|
+| **rabbitmq.queue.messages.unacked**
(gauge) | \[OpenMetrics\] Mensajes entregados a los consumidores pero aún no reconocidos
_Se muestra como mensaje_ |
+| **rabbitmq.queue.messages.unacked_bytes**
(gauge) | \[OpenMetrics\] Tamaño en bytes de todos los mensajes no reconocidos
_Se muestra como bytes_ |
+| **rabbitmq.queue.messages.unacked_ram**
(gauge) | \[OpenMetrics\] Mensajes no reconocidos almacenados en memoria
_Se muestra como mensaje_ |
+| **rabbitmq.queue.messages_ready**
(gauge) | Número de mensajes listos para ser entregados a los clientes
_Se muestra como mensaje_ |
+| **rabbitmq.queue.messages_ready.rate**
(gauge) | Número por segundo de mensajes listos para ser entregados a los clientes
_Se muestra como mensaje_ |
+| **rabbitmq.queue.messages_unacknowledged**
(gauge) | Número de mensajes entregados a clientes pero aún no reconocidos
_Se muestra como mensaje_ |
+| **rabbitmq.queue.messages_unacknowledged.rate**
(gauge) | Número por segundo de mensajes entregados a clientes pero aún no reconocidos
_Se muestra como mensaje_ |
+| **rabbitmq.queue.process_memory_bytes**
(gauge) | \[OpenMetrics\] Memoria en bytes utilizada por el proceso de cola Erlang
_Se muestra como bytes_ |
+| **rabbitmq.queue.process_reductions.count**
(count) | \[OpenMetrics\] Número total de reducciones de procesos de cola|
+| **rabbitmq.queues**
(gauge) | \[OpenMetrics\] Colas disponibles|
+| **rabbitmq.queues.created.count**
(count) | \[OpenMetrics\] Número total de colas creadas|
+| **rabbitmq.queues.declared.count**
(count) | \[OpenMetrics\] Número total de colas declaradas|
+| **rabbitmq.queues.deleted.count**
(count) | \[OpenMetrics\] Número total de colas eliminadas|
+| **rabbitmq.raft.entry_commit_latency_seconds**
(gauge) | \[OpenMetrics\] Tiempo que tarda en confirmarse una entrada de log
_Se muestra como segundos_ |
+| **rabbitmq.raft.log.commit_index**
(gauge) | \[OpenMetrics] Índice de confirmación de logs Raft|
+| **rabbitmq.raft.log.last_applied_index**
(gauge) | \[OpenMetrics\] Último índice de logs Raft aplicado|
+| **rabbitmq.raft.log.last_written_index**
(gauge) | \[OpenMetrics\] Último índice de logs Raft escrito|
+| **rabbitmq.raft.log.snapshot_index**
(gauge) | \[OpenMetrics\] Índice de snapshots de logs Raft|
+| **rabbitmq.raft.term.count**
(count) | \[OpenMetrics\] Número de término Raft actual|
+| **rabbitmq.resident_memory_limit_bytes**
(gauge) | \[OpenMetrics\] Marca de agua alta de memoria en bytes
_Se muestra como bytes_ |
+| **rabbitmq.schema.db.disk_tx.count**
(count) | \[OpenMetrics\] Número total de transacciones de disco Schema DB
_Se muestra como transacción_ |
+| **rabbitmq.schema.db.ram_tx.count**
(count) | \[OpenMetrics\] Número total de transacciones de memoria Schema DB
_Se muestra como transacción_ |
+| **rabbitmq.telemetry.scrape.duration_seconds.count**
(count) | \[OpenMetrics\] Duración del raspado
_Se muestra como segundos_ |
+| **rabbitmq.telemetry.scrape.duration_seconds.sum**
(count) | \[OpenMetrics\] Duración del raspado
_Se muestra como segundos_ |
+| **rabbitmq.telemetry.scrape.encoded_size_bytes.count**
(count) | \[OpenMetrics\] Tamaño de raspado, codificado
_Se muestra como bytes_ |
+| **rabbitmq.telemetry.scrape.encoded_size_bytes.sum**
(count) | \[OpenMetrics\] Tamaño de raspado, codificado
_Se muestra como bytes_ |
+| **rabbitmq.telemetry.scrape.size_bytes.count**
(count) | \[OpenMetrics\] Tamaño de raspado, no codificado
_Se muestra como bytes_ |
+| **rabbitmq.telemetry.scrape.size_bytes.sum**
(count) | \[OpenMetrics\] Tamaño de raspado, no codificado
_Se muestra como bytes_ |
+
+### Eventos
+
+### Checks de servicio
+
+**rabbitmq.aliveness**
+
+Solo disponible con el complemento de gestión de RabbitMQ. Devuelve el estado de un vhost basado en la [API Aliveness](https://github.com/rabbitmq/rabbitmq-management/blob/rabbitmq_v3_6_8/priv/www/api/index.html) de RabbitMQ. La API Aliveness crea una cola de test, luego publica y consume un mensaje de esa cola. Devuelve `OK` si el código de estado de la API es 200 y `CRITICAL` en caso contrario.
+
+_Estados: ok, crítico_
+
+**rabbitmq.status**
+
+Solo disponible con el complemento de gestión de RabbitMQ. Devuelve el estado del servidor RabbitMQ. Devuelve `OK` si el Agent ha podido contactar con la API y `CRITICAL` en caso contrario.
+
+_Estados: ok, crítico_
+
+**rabbitmq.openmetrics.health**
+
+Solo disponible con el complemento RabbitMQ Prometheus. Devuelve `CRITICAL` si el Agent no puede conectarse al endpoint de OpenMetrics y `OK` en caso contrario.
+
+_Estados: ok, crítico_
+
+## Solucionar problemas
+
+### Migración al complemento Prometheus
+
+El complemento Prometheus expone un conjunto diferente de métricas del complemento de gestión.
+Esto es lo que debes tener en cuenta al migrar del complemento de gestión a Prometheus.
+
+- Busca tus métricas en [esta tabla](https://docs.datadoghq.com/integrations/rabbitmq/?tab=host#metrics).. Si la descripción de una métrica contiene una etiqueta `[OpenMetrics]`, significa que está disponible en el complemento Prometheus. Las métricas que solo están disponibles en el complemento de gestión no tienen etiquetas en sus descripciones.
+- Todos los dashboards y monitores que utilizan métricas del complemento de gestión no funcionarán. Cambia a los dashboards y a los monitores marcados como *OpenMetrics Version*.
+- La configuración por defecto recopila métricas agregadas. Esto significa, por ejemplo, que no hay métricas etiquetadas por cola. Configura la opción `prometheus_plugin.unaggregated_endpoint` para obtener métricas sin agregación.
+- El check de servicio `rabbitmq.status` se sustituye por `rabbitmq.openmetrics.health`. El check de servicio `rabbitmq.aliveness` no tiene equivalente en el complemento Prometheus.
+
+El complemento Prometheus modifica algunas etiquetas. En la siguiente tabla se describen los cambios de las etiquetas más comunes.
+
+| Gestión | Prometheus |
+|:--------------------|:-----------------------------------------|
+| `queue_name` | `queue` |
+| `rabbitmq_vhost` | `vhost`, `exchange_vhost`, `queue_vhost` |
+| `rabbitmq_exchange` | `exchange` |
+
+Para obtener más información, consulta [Etiquetado de colas RabbitMQ por familia de etiquetas](https://docs.datadoghq.com/integrations/faq/tagging-rabbitmq-queues-by-tag-family/).
+
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/).
+
+## Referencias adicionales
+
+Documentación útil adicional, enlaces y artículos:
+
+- [Métricas clave para la monitorización de RabbitMQ](https://www.datadoghq.com/blog/rabbitmq-monitoring)
+- [Recopilación de métricas con las herramientas de monitorización de RabbitMQ](https://www.datadoghq.com/blog/rabbitmq-monitoring-tools)
+- [Monitorización del rendimiento de RabbitMQ con Datadog](https://www.datadoghq.com/blog/monitoring-rabbitmq-performance-with-datadog)
\ No newline at end of file
diff --git a/content/es/integrations/solr.md b/content/es/integrations/solr.md
new file mode 100644
index 0000000000000..f2c8e86a2d02c
--- /dev/null
+++ b/content/es/integrations/solr.md
@@ -0,0 +1,324 @@
+---
+"app_id": "solr"
+"app_uuid": "3733c24e-8466-4f3b-8411-59ef85c28302"
+"assets":
+ "dashboards":
+ "solr": "assets/dashboards/solr_overview.json"
+ "integration":
+ "auto_install": true
+ "configuration":
+ "spec": "assets/configuration/spec.yaml"
+ "events":
+ "creates_events": false
+ "metrics":
+ "check": "solr.searcher.numdocs"
+ "metadata_path": "metadata.csv"
+ "prefix": "solr."
+ "process_signatures":
+ - "solr start"
+ "service_checks":
+ "metadata_path": "assets/service_checks.json"
+ "source_type_id": !!int "42"
+ "source_type_name": "Solr"
+ "saved_views":
+ "solr_processes": "assets/saved_views/solr_processes.json"
+"author":
+ "homepage": "https://www.datadoghq.com"
+ "name": "Datadog"
+ "sales_email": "info@datadoghq.com"
+ "support_email": "help@datadoghq.com"
+"categories":
+- "caching"
+- "data stores"
+- "log collection"
+"custom_kind": "integración"
+"dependencies":
+- "https://github.com/DataDog/integrations-core/blob/master/solr/README.md"
+"display_on_public_website": true
+"draft": false
+"git_integration_title": "solr"
+"integration_id": "solr"
+"integration_title": "Solr"
+"integration_version": "2.1.0"
+"is_public": true
+"manifest_version": "2.0.0"
+"name": "solr"
+"public_title": "Solr"
+"short_description": "Monitoriza tasa de solicitudes, errores de gestor, fallos de caché y desalojos y más."
+"supported_os":
+- "linux"
+- "windows"
+- "macos"
+"tile":
+ "changelog": "CHANGELOG.md"
+ "classifier_tags":
+ - "Category::Caching"
+ - "Category::Data Stores"
+ - "Category::Log Collection"
+ - "Supported OS::Linux"
+ - "Supported OS::Windows"
+ - "Supported OS::macOS"
+ - "Offering::Integration"
+ "configuration": "README.md#Setup"
+ "description": "Monitoriza tasa de solicitudes, errores de gestor, fallos de caché y desalojos y más."
+ "media": []
+ "overview": "README.md#Overview"
+ "support": "README.md#Support"
+ "title": "Solr"
+---
+
+
+
+
+![Gráfico de Solr][1]
+
+## Información general
+
+El check de Solr realiza un seguimiento del estado y el rendimiento de un clúster de Solr. Recopila métricas del número de documentos indexados, los aciertos y desalojos de la caché, los tiempos medios de solicitud, las solicitudes medias por segundo, etc.
+
+## Configuración
+
+### Instalación
+
+El check de Solr está incluido en el paquete del [Datadog Agent][2], por lo que no necesitas instalar nada más en tus nodos de Solr.
+
+Este check está basado en JMX, por lo que necesitas habilitar JMX Remote en tus servidores de Solr. Consulta la [documentación del check de JMX][3] para obtener más información.
+
+### Configuración
+
+{{< tabs >}}
+{{% tab "Host" %}}
+
+#### Host
+
+Para configurar este check para un Agent que se ejecuta en un host:
+
+1. Edita el archivo `solr.d/conf.yaml` en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][1]. Para conocer todas las opciones de configuración disponibles, consulta el [solr.d/conf.yaml de ejemplo][2].
+
+ ```yaml
+ init_config:
+
+ ## @param is_jmx - boolean - required
+ ## Whether or not this file is a configuration for a JMX integration.
+ #
+ is_jmx: true
+
+ ## @param collect_default_metrics - boolean - required
+ ## Whether or not the check should collect all default metrics.
+ #
+ collect_default_metrics: true
+
+ instances:
+ ## @param host - string - required
+ ## Solr host to connect to.
+ - host: localhost
+
+ ## @param port - integer - required
+ ## Solr port to connect to.
+ port: 9999
+ ```
+
+2. [Reinicia el Agent][3].
+
+#### Lista de métricas
+
+El parámetro `conf` es una lista de métricas que recopilará la integración. Solo se admiten 2 claves:
+
+- `include` (**obligatorio**): un diccionario de filtros, cualquier atributo que coincida con estos filtros se recopila a menos que también coincida con los filtros `exclude` (ver más abajo).
+- `exclude` (**opcional**): un diccionario de filtros, los atributos que coinciden con estos filtros no se recopilan.
+
+Para un bean dado, las métricas se etiquetan de la siguiente manera:
+
+```text
+mydomain:attr0=val0,attr1=val1
+```
+
+En este ejemplo, tu métrica es `mydomain` (o alguna variación según el atributo dentro del bean) y tiene las etiquetas `attr0:val0`, `attr1:val1` y `domain:mydomain`.
+
+Si especificas un alias en una clave `include` con formato _camel case_, se convierte a _snake case_. Por ejemplo, `MyMetricName` aparece en Datadog como `my_metric_name`.
+
+##### El filtro de atributos
+
+El filtro `attribute` puede aceptar dos tipos de valores:
+
+- Un diccionario cuyas claves son nombres de atributos (ver más adelante). Para este caso, puedes especificar un alias para la métrica que se convierte en el nombre de métrica en Datadog. También puedes especificar el tipo de métrica como gauge o count. Si eliges count, se calcula una tasa por segundo para la métrica.
+
+ ```yaml
+ conf:
+ - include:
+ attribute:
+ maxThreads:
+ alias: tomcat.threads.max
+ metric_type: gauge
+ currentThreadCount:
+ alias: tomcat.threads.count
+ metric_type: gauge
+ bytesReceived:
+ alias: tomcat.bytes_rcvd
+ metric_type: counter
+ ```
+
+- Una lista de nombres de atributos (ver más abajo). Para este caso, el tipo de métrica es un gauge y el nombre de métrica es `jmx.\[DOMAIN_NAME].\[ATTRIBUTE_NAME]`.
+
+ ```yaml
+ conf:
+ - include:
+ domain: org.apache.cassandra.db
+ attribute:
+ - BloomFilterDiskSpaceUsed
+ - BloomFilterFalsePositives
+ - BloomFilterFalseRatio
+ - Capacity
+ - CompressionRatio
+ - CompletedTasks
+ - ExceptionCount
+ - Hits
+ - RecentHitRate
+ ```
+
+#### Versiones anteriores
+
+La lista de filtros solo se admite en el Datadog Agent > 5.3.0. Si utilizas una versión anterior, utiliza singletons y varias sentencias `include` en su lugar.
+
+```yaml
+# Datadog Agent > 5.3.0
+ conf:
+ - include:
+ domain: domain_name
+ bean:
+ - first_bean_name
+ - second_bean_name
+# Older Datadog Agent versions
+ conf:
+ - include:
+ domain: domain_name
+ bean: first_bean_name
+ - include:
+ domain: domain_name
+ bean: second_bean_name
+```
+
+[1]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory
+[2]: https://github.com/DataDog/integrations-core/blob/master/solr/datadog_checks/solr/data/conf.yaml.example
+[3]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+{{% /tab %}}
+{{% tab "Contenedorizado" %}}
+
+#### Contenedores
+
+Para obtener información sobre entornos en contenedores, consulta la guía [Autodiscovery con JMX][1].
+
+##### Recopilación de logs
+
+1. La recopilación de logs está desactivada por defecto en el Datadog Agent, actívala en tu archivo `datadog.yaml`:
+
+ ```yaml
+ logs_enabled: true
+ ```
+
+2. Solr utiliza el registrador `log4j` por defecto. Para personalizar el formato de registro, edita el archivo [`server/resources/log4j2.xml`][2]. Por defecto, el pipeline de la integración de Datadog admite el siguiente [patrón][3] de conversión:
+
+ ```text
+ %maxLen{%d{yyyy-MM-dd HH:mm:ss.SSS} %-5p (%t) [%X{collection} %X{shard} %X{replica} %X{core}] %c{1.} %m%notEmpty{ =>%ex{short}}}{10240}%n
+ ```
+
+ Clona y edita el [pipeline de integración][4] si tienes un formato diferente.
+
+
+3. Anula los comentarios y edita el bloque de configuración de logs en tu archivo `solr.d/conf.yaml`. Cambia los valores de los parámetros `type`, `path` y `service` en función de tu entorno. Consulta [solr.d/solr.yaml de ejemplo][5] para conocer todas las opciones disponibles de configuración.
+
+ ```yaml
+ logs:
+ - type: file
+ path: /var/solr/logs/solr.log
+ source: solr
+ # To handle multi line that starts with yyyy-mm-dd use the following pattern
+ # log_processing_rules:
+ # - type: multi_line
+ # pattern: \d{4}\-(0?[1-9]|1[012])\-(0?[1-9]|[12][0-9]|3[01])
+ # name: new_log_start_with_date
+ ```
+
+4. [Reinicia el Agent][6].
+
+Para habilitar logs para entornos de Kubernetes, consulta [Recopilación de log de Kubernetes][7].
+
+[1]: https://docs.datadoghq.com/agent/guide/autodiscovery-with-jmx/?tab=containerizedagent
+[2]: https://lucene.apache.org/solr/guide/configuring-logging.html#permanent-logging-settings
+[3]: https://logging.apache.org/log4j/2.x/manual/layouts.html#Patterns
+[4]: https://docs.datadoghq.com/logs/processing/#integration-pipelines
+[5]: https://github.com/DataDog/integrations-core/blob/master/solr/datadog_checks/solr/data/conf.yaml.example
+[6]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[7]: https://docs.datadoghq.com/agent/docker/log/
+{{% /tab %}}
+{{< /tabs >}}
+
+### Validación
+
+[Ejecuta el subcomando de estado del Agent][4] y busca `solr` en la sección Checks.
+
+## Datos recopilados
+
+### Métricas
+{{< get-metrics-from-git "solr" >}}
+
+
+### Eventos
+
+El check de Solr no incluye ningún evento.
+
+### Checks de servicio
+{{< get-service-checks-from-git "solr" >}}
+
+
+## Solucionar problemas
+
+### Comandos para ver las métricas disponibles
+
+El comando `datadog-agent jmx` se añadió en la versión 4.1.0.
+
+- Mostrar una lista de atributos que coincidan con, al menos, una de tus configuraciones de instancias:
+ `sudo datadog-agent jmx list matching`
+- Mostrar una lista de atributos que coinciden con una de tus configuraciones de instancias, pero no se recopilan porque se superaría el número de métricas que es posible recopilar.
+ `sudo datadog-agent jmx list limited`
+- Mostrar una lista de atributos que se espera que recopile tu configuración de instancias actual:
+ `sudo datadog-agent jmx list collected`
+- Mostrar una lista de atributos que no coincidan con ninguna de tus configuraciones de instancias:
+ `sudo datadog-agent jmx list not-matching`
+- Mostrar cada atributo disponible que tenga un tipo compatible con JMXFetch:
+ `sudo datadog-agent jmx list everything`
+- Iniciar la recopilación de métricas según tu configuración actual y mostrarlas en la consola:
+ `sudo datadog-agent jmx collect`
+
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][5].
+
+## Referencias adicionales
+
+### Parseo de un valor de cadena en un número
+
+Si tu jmxfetch devuelve solo valores de cadena como **false** y **true** y quieres transformarlo en una métrica gauge de Datadog para usos avanzados. Por ejemplo, si deseas la siguiente equivalencia para tu jmxfetch:
+
+```text
+"myJmxfetch:false" = myJmxfetch:0
+"myJmxfetch:true" = myJmxfetch:1
+```
+
+Puedes utilizar el filtro `attribute` como se indica a continuación:
+
+```yaml
+# ...
+attribute:
+ myJmxfetch:
+ alias: your_metric_name
+ metric_type: gauge
+ values:
+ "false": 0
+ "true": 1
+```
+
+
+[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/solr/images/solrgraph.png
+[2]: https://app.datadoghq.com/account/settings/agent/latest
+[3]: https://docs.datadoghq.com/integrations/java/
+[4]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information
+[5]: https://docs.datadoghq.com/help/
diff --git a/content/es/integrations/spark.md b/content/es/integrations/spark.md
new file mode 100644
index 0000000000000..df281b7de5933
--- /dev/null
+++ b/content/es/integrations/spark.md
@@ -0,0 +1,232 @@
+---
+"app_id": "spark"
+"app_uuid": "5cb22455-9ae2-44ee-ae05-ec21c27b3292"
+"assets":
+ "dashboards":
+ "Databricks Spark Overview": "assets/dashboards/databricks_overview.json"
+ "spark": "assets/dashboards/spark_dashboard.json"
+ "integration":
+ "auto_install": true
+ "configuration":
+ "spec": "assets/configuration/spec.yaml"
+ "events":
+ "creates_events": false
+ "metrics":
+ "check": "spark.job.count"
+ "metadata_path": "metadata.csv"
+ "prefix": "spark."
+ "process_signatures":
+ - "java org.apache.spark.deploy.SparkSubmit"
+ - "java org.apache.spark.deploy.worker.Worker"
+ - "java org.apache.spark.deploy.master.Master"
+ "service_checks":
+ "metadata_path": "assets/service_checks.json"
+ "source_type_id": !!int "142"
+ "source_type_name": "Spark"
+"author":
+ "homepage": "https://www.datadoghq.com"
+ "name": "Datadog"
+ "sales_email": "info@datadoghq.com"
+ "support_email": "help@datadoghq.com"
+"categories":
+- "log collection"
+"custom_kind": "integración"
+"dependencies":
+- "https://github.com/DataDog/integrations-core/blob/master/spark/README.md"
+"display_on_public_website": true
+"draft": false
+"git_integration_title": "spark"
+"integration_id": "spark"
+"integration_title": "Spark"
+"integration_version": "6.4.0"
+"is_public": true
+"manifest_version": "2.0.0"
+"name": "spark"
+"public_title": "Spark"
+"short_description": "Rastrea los índices de tareas fallidas, bytes aleatorios y mucho más."
+"supported_os":
+- "linux"
+- "windows"
+- "macos"
+"tile":
+ "changelog": "CHANGELOG.md"
+ "classifier_tags":
+ - "Category::Log Collection"
+ - "Supported OS::Linux"
+ - "Supported OS::Windows"
+ - "Supported OS::macOS"
+ - "Offering::Integration"
+ "configuration": "README.md#Setup"
+ "description": "Rastrea los índices de tareas fallidas, bytes aleatorios y mucho más."
+ "media": []
+ "overview": "README.md#Overview"
+ "resources":
+ - "resource_type": "blog"
+ "url": "https://www.datadoghq.com/blog/data-jobs-monitoring/"
+ - "resource_type": "blog"
+ "url": "https://www.datadoghq.com/blog/data-observability-monitoring/"
+ - "resource_type": "blog"
+ "url": "https://www.datadoghq.com/blog/monitoring-spark"
+ - "resource_type": "blog"
+ "url": "https://www.datadoghq.com/blog/spark-emr-monitoring/"
+ "support": "README.md#Support"
+ "title": "Spark"
+---
+
+
+
+
+
+
Data Jobs Monitoring te ayuda a observar, solucionar problemas y optimizar los costes de tus trabajos de Spark y Databricks y clústeres.
+Esta página solo documenta cómo ingerir métricas y logs de Spark.
+
+
+![Gráfico de Spark][1]
+
+## Información general
+
+Este check monitoriza [Spark][2] a través del Datadog Agent. Recopila métricas de Spark para:
+
+- Controladores y ejecutores: bloques RDD, memoria utilizada, disco utilizado, duración, etc.
+- RDDs: recuento de particiones, memoria utilizada y disco utilizado.
+- Tareas: número de tareas activas, omitidas, fallidas y totales.
+- Estado del trabajo: número de trabajos activos, completados, omitidos y fallidos.
+
+## Configuración
+
+### Instalación
+
+El check de Spark está incluido en el paquete del [Datadog Agent][3]. No es necesaria ninguna instalación adicional en tu nodo maestro de Mesos (para Spark on Mesos), YARN ResourceManager (para Spark on YARN), o nodo maestro de Spark (para Spark Standalone).
+
+### Configuración
+
+{{< tabs >}}
+{{% tab "Host" %}}
+
+#### Host
+
+Para configurar este check para un Agent que se ejecuta en un host:
+
+1. Edita el archivo `spark.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la [raíz del directorio de configuración del Agent][1]. Puede que sea necesario actualizar los siguientes parámetros. Para conocer todas las opciones de configuración disponibles, consulta el [spark.d/conf.yaml de ejemplo][2].
+
+ ```yaml
+ init_config:
+
+ instances:
+ - spark_url: http://localhost:8080 # Spark master web UI
+ # spark_url: http://:5050 # Mesos master web UI
+ # spark_url: http://:8088 # YARN ResourceManager address
+
+ spark_cluster_mode: spark_yarn_mode # default
+ # spark_cluster_mode: spark_mesos_mode
+ # spark_cluster_mode: spark_yarn_mode
+ # spark_cluster_mode: spark_driver_mode
+
+ # required; adds a tag 'cluster_name:' to all metrics
+ cluster_name: ""
+ # spark_pre_20_mode: true # if you use Standalone Spark < v2.0
+ # spark_proxy_enabled: true # if you have enabled the spark UI proxy
+ ```
+
+2. [Reinicia el Agent][3].
+
+[1]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory
+[2]: https://github.com/DataDog/integrations-core/blob/master/spark/datadog_checks/spark/data/conf.yaml.example
+[3]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+{{% /tab %}}
+{{% tab "Contenedorizado" %}}
+
+#### Contenedores
+
+Para entornos en contenedores, consulta las plantillas de integración de Autodiscovery, ya sea para [Docker][1] o [Kubernetes][2], para obtener orientación sobre la aplicación de los parámetros que se indican a continuación.
+
+| Parámetro | Valor |
+| -------------------- | ----------------------------------------------------------------- |
+| `` | `spark` |
+| `` | en blanco o `{}` |
+| `` | `{"spark_url": "%%host%%:8080", "cluster_name":""}` |
+
+[1]: https://docs.datadoghq.com/containers/docker/integrations/
+[2]: https://docs.datadoghq.com/agent/kubernetes/integrations/
+{{% /tab %}}
+{{< /tabs >}}
+
+### Recopilación de logs
+
+1. La recopilación de logs está desactivada por defecto en el Datadog Agent, actívala en tu archivo `datadog.yaml`:
+
+ ```yaml
+ logs_enabled: true
+ ```
+
+2. Anula los comentarios y edita el bloque de configuración de logs en tu archivo `spark.d/conf.yaml`. Cambia los valores de los parámetros `type`, `path` y `service` en función de tu entorno. Consulta [spark.d/.yaml de ejemplo][4] para conocer todas las opciones disponibles de configuración.
+
+ ```yaml
+ logs:
+ - type: file
+ path:
+ source: spark
+ service:
+ # To handle multi line that starts with yyyy-mm-dd use the following pattern
+ # log_processing_rules:
+ # - type: multi_line
+ # pattern: \d{4}\-(0?[1-9]|1[012])\-(0?[1-9]|[12][0-9]|3[01])
+ # name: new_log_start_with_date
+ ```
+
+3. [Reinicia el Agent][5].
+
+Para habilitar los logs para entornos de Docker, consulta [recopilación de logs de Docker][6].
+
+### Validación
+
+[Ejecuta el subcomando de estado del Agent][7] y busca `spark` en la sección Checks.
+
+## Datos recopilados
+
+### Métricas
+{{< get-metrics-from-git "spark" >}}
+
+
+### Eventos
+
+El check de Spark no incluye ningún evento.
+
+### Checks de servicio
+{{< get-service-checks-from-git "spark" >}}
+
+
+## Solucionar problemas
+
+### Spark en Amazon EMR
+
+Para recibir métricas para Spark en Amazon EMR, [utiliza acciones de arranque][8] para instalar el [Agent][9]:
+
+Para Agent v5, crea el archivo de configuración `/etc/dd-agent/conf.d/spark.yaml` con los [valores adecuados en cada nodo de EMR][10].
+
+Para Agent v6/7, crea el archivo de configuración `/etc/datadog-agent/conf.d/spark.d/conf.yaml` con los [valores adecuados en cada nodo de EMR][10].
+
+### Check finalizado con éxito, pero no se recopilaron métricas
+
+La integración de Spark solo recopila métricas sobre las aplicaciones en ejecución. Si no tienes ninguna aplicación en ejecución, el check se limitará a enviar un check de estado.
+
+## Referencias adicionales
+
+Más enlaces, artículos y documentación útiles:
+
+- [Monitorización de Hadoop y Spark con Datadog][11]
+- [Monitorización de aplicaciones de Apache Spark ejecutadas en Amazon EMR][12]
+
+
+[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/spark/images/sparkgraph.png
+[2]: https://spark.apache.org/
+[3]: https://app.datadoghq.com/account/settings/agent/latest
+[4]: https://github.com/DataDog/integrations-core/blob/master/spark/datadog_checks/spark/data/conf.yaml.example
+[5]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[6]: https://docs.datadoghq.com/agent/docker/log/
+[7]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information
+[8]: https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-bootstrap.html
+[9]: https://docs.datadoghq.com/agent/
+[10]: https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-connect-master-node-ssh.html
+[11]: https://www.datadoghq.com/blog/monitoring-spark
+[12]: https://www.datadoghq.com/blog/spark-emr-monitoring/
diff --git a/content/es/integrations/sqlserver.md b/content/es/integrations/sqlserver.md
new file mode 100644
index 0000000000000..475e04d2e0e4e
--- /dev/null
+++ b/content/es/integrations/sqlserver.md
@@ -0,0 +1,314 @@
+---
+"app_id": "sql-server"
+"app_uuid": "bfa2f276-da05-4153-b8d4-48d4e41f5e40"
+"assets":
+ "dashboards":
+ "SQLServer-AlwaysOn": "assets/dashboards/SQLServer-AlwaysOn_dashboard.json"
+ "SQLServer-Overview": "assets/dashboards/SQLServer-Overview_dashboard.json"
+ "sqlserver": "assets/dashboards/sqlserver_dashboard.json"
+ "integration":
+ "auto_install": true
+ "configuration":
+ "spec": "assets/configuration/spec.yaml"
+ "events":
+ "creates_events": false
+ "metrics":
+ "check": "sqlserver.stats.connections"
+ "metadata_path": "metadata.csv"
+ "prefix": "sqlserver."
+ "service_checks":
+ "metadata_path": "assets/service_checks.json"
+ "source_type_id": !!int "45"
+ "source_type_name": "SQL Server"
+ "monitors":
+ "Auto-parameterization attempts are failing": "assets/monitors/sqlserver_high_number_failed_auto_param.json"
+ "Availability Group is not healthy": "assets/monitors/sqlserver_ao_not_healthy.json"
+ "Availability group failover detected": "assets/monitors/sqlserver_ao_failover.json"
+ "Database is not online": "assets/monitors/sqlserver_db_not_online.json"
+ "Database not in sync": "assets/monitors/sqlserver_db_not_sync.json"
+ "Processes are blocked": "assets/monitors/sqlserver_high_processes_blocked.json"
+"author":
+ "homepage": "https://www.datadoghq.com"
+ "name": "Datadog"
+ "sales_email": "info@datadoghq.com"
+ "support_email": "help@datadoghq.com"
+"categories":
+- "data stores"
+- "log collection"
+"custom_kind": "integración"
+"dependencies":
+- "https://github.com/DataDog/integrations-core/blob/master/sqlserver/README.md"
+"display_on_public_website": verdadero
+"draft": falso
+"git_integration_title": "sqlserver"
+"integration_id": "sql-server"
+"integration_title": "SQL Server"
+"integration_version": "22.7.0"
+"is_public": verdadero
+"manifest_version": "2.0.0"
+"name": "sqlserver"
+"public_title": "SQL Server"
+"short_description": "Recopila métricas de rendimiento y estado importantes de SQL Server."
+"supported_os":
+- "linux"
+- "macos"
+- "windows"
+"tile":
+ "changelog": "CHANGELOG.md"
+ "classifier_tags":
+ - "Supported OS::Linux"
+ - "Supported OS::macOS"
+ - "Supported OS::Windows"
+ - "Category::Almacenes de datos"
+ - "Category::Recopilación de logs"
+ - "Offering::Integration"
+ "configuration": "README.md#Setup"
+ "description": "Recopila métricas de rendimiento y estado importantes de SQL Server."
+ "media": []
+ "overview": "README.md#Overview"
+ "resources":
+ - "resource_type": "blog"
+ "url": "https://www.datadoghq.com/blog/monitor-azure-sql-databases-datadog"
+ - "resource_type": "blog"
+ "url": "https://www.datadoghq.com/blog/sql-server-monitoring"
+ - "resource_type": "blog"
+ "url": "https://www.datadoghq.com/blog/sql-server-monitoring-tools"
+ - "resource_type": "blog"
+ "url": "https://www.datadoghq.com/blog/sql-server-performance"
+ - "resource_type": "blog"
+ "url": "https://www.datadoghq.com/blog/sql-server-metrics"
+ - "resource_type": "blog"
+ "url": "https://www.datadoghq.com/blog/migrate-sql-workloads-to-azure-with-datadog/"
+ "support": "README.md#Support"
+ "title": "SQL Server"
+---
+
+
+
+
+![Gráfico de SQL Server][1]
+
+## Información general
+
+La integración de SQL Server realiza un seguimiento del rendimiento de las instancias de SQL Server. Recopila métricas para el número de conexiones de usuario, la tasa de compilaciones de SQL y mucho más.
+
+Activa la [Monitorización de base de datos][2] (DBM) para obtener una visión mejorada del rendimiento de las consultas y del estado de la base de datos. Además de la integración estándar, Datadog DBM proporciona métricas a nivel de consulta, snapshots de consultas en tiempo real e históricas, análisis de eventos de espera, carga de la base de datos, planes de explicación de consultas e información sobre consultas de bloqueo.
+
+SQL Server 2012, 2014, 2016, 2017, 2019 y 2022 son compatibles.
+
+## Configuración
+
+
+
+### Instalación
+
+El check de SQL Server se incluye en el paquete del [Datadog Agent][3]. No es necesaria ninguna instalación adicional en tus instancias de SQL Server.
+
+Asegúrate de que tu instancia de SQL Server admite la autenticación de SQL Server activando el "Modo de autenticación de SQL Server y Windows" en las propiedades del servidor:
+
+_Propiedades del servidor_ -> _Seguridad_ -> _Modo de autenticación de SQL Server y Windows_
+
+### Requisito previo
+
+**Nota**: Para instalar la Monitorización de base de datos para SQL Server, selecciona tu solución de alojamiento en el [sitio de documentación][4] para obtener instrucciones.
+
+Las versiones de SQL Server admitidas para el check de SQL Server son las mismas que para la Monitorización de base de datos. Visita la página [Configuración de SQL Server][5] para ver las versiones soportadas actualmente bajo el título **Autoalojado**.
+
+Procede con los siguientes pasos de esta guía solo si vas a instalar la integración estándar únicamente.
+
+1. Crea un inicio de sesión de sólo lectura para conectarse a tu servidor:
+
+ ```SQL
+ CREATE LOGIN datadog WITH PASSWORD = '';
+ USE master;
+ CREATE USER datadog FOR LOGIN datadog;
+ GRANT SELECT on sys.dm_os_performance_counters to datadog;
+ GRANT VIEW SERVER STATE to datadog;
+ ```
+
+ Para recopilar métricas del tamaño del archivo por base de datos, asegúrate de que el usuario que has creado (`datadog`) tiene [acceso con permiso de conexión][6] a tus bases de datos ejecutando:
+
+ ```SQL
+ GRANT CONNECT ANY DATABASE to datadog;
+ ```
+
+2. (Necesario para AlwaysOn y métricas `sys.master_files`) Para reunir AlwaysOn y métricas `sys.master_files`, concede el siguiente permiso adicional:
+
+ ```SQL
+ GRANT VIEW ANY DEFINITION to datadog;
+ ```
+
+### Configuración
+
+{{< tabs >}}
+{{% tab "Host" %}}
+
+#### host
+
+Para configurar este check para un Agent que se ejecuta en un host:
+
+1. Edita el archivo `sqlserver.d/conf.yaml` en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][1]. Para conocer todas las opciones de configuración disponibles, consulta el [sqlserver.d/conf.yaml de ejemplo][2].
+
+ ```yaml
+ init_config:
+
+ instances:
+ - host: ","
+ username: datadog
+ password: ""
+ connector: adodbapi
+ adoprovider: MSOLEDBSQL19 # Replace with MSOLEDBSQL for versions 18 and previous
+ ```
+
+ Si utilizas el Autodiscovery de puerto, utiliza `0` para `SQL_PORT`. Consulta la [configuración de check de ejemplo][2] para obtener una descripción completa de todas las opciones, incluido cómo utilizar consultas personalizadas para crear tus propias métricas.
+
+ Utiliza [controladores compatibles][3] en función de tu configuración de SQL Server.
+
+ **Nota**: También es posible utilizar la autenticación de Windows y no especificar el nombre de usuario/contraseña con:
+
+ ```yaml
+ connection_string: "Trusted_Connection=yes"
+ ```
+
+
+2. [Reinicia el Agent][4].
+
+##### Linux
+
+Se requieren pasos adicionales en la configuración para que la integración de SQL Server funcione en el host de Linux:
+
+1. Instala un controlador ODBC SQL Server, por ejemplo el [controlador ODBC de Microsoft][5] o el [controlador FreeTDS][6].
+2. Copia los archivos `odbc.ini` y `odbcinst.ini` en la carpeta `/opt/datadog-agent/embedded/etc`.
+3. Configura el archivo `conf.yaml` para utilizar el conector `odbc` y especifica el controlador adecuado como se indica en el archivo `odbcinst.ini`.
+
+##### Recopilación de logs
+
+_Disponible para las versiones 6.0 o posteriores del Agent_
+
+1. La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent, actívala en tu archivo `datadog.yaml`:
+
+ ```yaml
+ logs_enabled: true
+ ```
+
+2. Añade este bloque de configuración a tu archivo `sqlserver.d/conf.yaml` para empezar a recopilar tus logs de SQL Server:
+
+ ```yaml
+ logs:
+ - type: file
+ encoding: utf-16-le
+ path: ""
+ source: sqlserver
+ service: ""
+ ```
+
+ Cambia los valores de los parámetros `path` y `service` en función de tu entorno. Consulta el [sqlserver.d/conf.yaml de ejemplo][2] para ver todas las opciones disponibles de configuración.
+
+3. [Reinicia el Agent][4].
+
+[1]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory
+[2]: https://github.com/DataDog/integrations-core/blob/master/sqlserver/datadog_checks/sqlserver/data/conf.yaml.example
+[3]: https://docs.datadoghq.com/database_monitoring/setup_sql_server/selfhosted/#supported-drivers
+[4]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[5]: https://docs.microsoft.com/en-us/sql/connect/odbc/linux-mac/installing-the-microsoft-odbc-driver-for-sql-server?view=sql-server-2017
+[6]: http://www.freetds.org/
+{{% /tab %}}
+{{% tab "Contenedores" %}}
+
+#### En contenedores
+
+Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][1] para obtener orientación sobre la aplicación de los parámetros que se indican a continuación.
+
+##### Recopilación de métricas
+
+| Parámetro | Valor |
+| -------------------- | -------------------------------------------------------------------------------------------------------------------------------- |
+| `` | `sqlserver` |
+| `` | en blanco o `{}` |
+| `` | `{"host": "%%host%%,%%port%%", "username": "datadog", "password": "", "connector": "odbc", "driver": "FreeTDS"}` |
+
+Consulta [Variables de plantilla de Autodiscovery][2] para obtener más detalles sobre cómo pasar `` como una variable de entorno en lugar de una etiqueta (label).
+
+##### Recopilación de logs
+
+_Disponible para las versiones 6.0 o posteriores del Agent_
+
+La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta la [recopilación de logs de Kubernetes][3].
+
+| Parámetro | Valor |
+| -------------- | ------------------------------------------------- |
+| `` | `{"source": "sqlserver", "service": "sqlserver"}` |
+
+[1]: https://docs.datadoghq.com/agent/kubernetes/integrations/
+[2]: https://docs.datadoghq.com/agent/faq/template_variables/
+[3]: https://docs.datadoghq.com/agent/kubernetes/log/
+{{% /tab %}}
+{{< /tabs >}}
+
+### Validación
+
+[Ejecuta el subcomando de estado del Agent][9] y busca `sqlserver` en la sección Checks.
+
+## Datos recopilados
+
+### Métricas
+{{< get-metrics-from-git "sqlserver" >}}
+
+
+La mayoría de estas métricas proceden de la tabla `sys.dm_os_performance_counters` de tu SQL Server.
+
+### Eventos
+
+El check de SQL Server no incluye ningún evento.
+
+### Checks de servicio
+{{< get-service-checks-from-git "sqlserver" >}}
+
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8].
+
+Si estás ejecutando el Agent en un procesador ARM aarch64, existe un problema conocido que comienza en la versión 14.0.0 de este check, que se incluye con el Agent versión 7.48.0. Una dependencia de Python falla al cargarse y verás el siguiente mensaje al ejecutar [el subcomando de estado del Agent][7]:
+
+```
+Loading Errors
+ ==============
+ sqlserver
+ ---------
+ Core Check Loader:
+ Check sqlserver not found in Catalog
+ JMX Check Loader:
+ check is not a jmx check, or unable to determine if it's so
+ Python Check Loader:
+ unable to import module 'sqlserver': No module named 'sqlserver'
+```
+
+Esto se ha solucionado en la versión 15.2.0 del check y en las versiones 7.49.1 y posteriores del Agent.
+
+## Referencias adicionales
+
+- [Monitoriza tus bases de datos de Azure SQL con Datadog][9]
+- [Métricas clave para la monitorización de SQL Server][10]
+- [Herramientas de monitorización de SQL Server][11]
+- [Monitorizar el rendimiento de SQL Server con Datadog][12]
+- [Métricas personalizadas de SQL Server para una monitorización detallada][13]
+- [Hacer una estrategia para tu migración de Azure para cargas de trabajo de SQL con Datadog][14]
+- [Optimizar el rendimiento de SQL Server con la monitorización de base de datos de Datadog][15]
+
+
+[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/sqlserver/images/sqlserver_dashboard_02_2024.png
+[2]: https://docs.datadoghq.com/database_monitoring/
+[3]: https://app.datadoghq.com/account/settings/agent/latest
+[4]: https://docs.datadoghq.com/database_monitoring/#sqlserver
+[5]: https://docs.datadoghq.com/database_monitoring/setup_sql_server/
+[6]: https://docs.microsoft.com/en-us/sql/t-sql/statements/grant-server-permissions-transact-sql?view=sql-server-ver15
+[7]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information
+[8]: https://docs.datadoghq.com/help/
+[9]: https://www.datadoghq.com/blog/monitor-azure-sql-databases-datadog
+[10]: https://www.datadoghq.com/blog/sql-server-monitoring
+[11]: https://www.datadoghq.com/blog/sql-server-monitoring-tools
+[12]: https://www.datadoghq.com/blog/sql-server-performance
+[13]: https://www.datadoghq.com/blog/sql-server-metrics
+[14]: https://www.datadoghq.com/blog/migrate-sql-workloads-to-azure-with-datadog/
+[15]: https://www.datadoghq.com/blog/optimize-sql-server-performance-with-datadog/
diff --git a/content/es/integrations/teamcity.md b/content/es/integrations/teamcity.md
new file mode 100644
index 0000000000000..f55a731d52de0
--- /dev/null
+++ b/content/es/integrations/teamcity.md
@@ -0,0 +1,316 @@
+---
+"app_id": "teamcity"
+"app_uuid": "8dd65d36-9cb4-4295-bb0c-68d67c0cdd4b"
+"assets":
+ "dashboards":
+ "TeamCity Overview": "assets/dashboards/overview.json"
+ "integration":
+ "auto_install": true
+ "configuration":
+ "spec": "assets/configuration/spec.yaml"
+ "events":
+ "creates_events": true
+ "metrics":
+ "check":
+ - "teamcity.builds"
+ - "teamcity.build_duration"
+ "metadata_path": "metadata.csv"
+ "prefix": "teamcity."
+ "process_signatures":
+ - "teamcity-server.sh"
+ - "teamcity-server"
+ "service_checks":
+ "metadata_path": "assets/service_checks.json"
+ "source_type_id": !!int "109"
+ "source_type_name": "Teamcity"
+ "monitors":
+ "Builds are failing": "assets/monitors/build_status.json"
+ "saved_views":
+ "teamcity_processes": "assets/saved_views/teamcity_processes.json"
+"author":
+ "homepage": "https://www.datadoghq.com"
+ "name": "Datadog"
+ "sales_email": "info@datadoghq.com"
+ "support_email": "help@datadoghq.com"
+"categories":
+- "configuration & deployment"
+- "log collection"
+- "notifications"
+"custom_kind": "integración"
+"dependencies":
+- "https://github.com/DataDog/integrations-core/blob/master/teamcity/README.md"
+"display_on_public_website": true
+"draft": false
+"git_integration_title": "teamcity"
+"integration_id": "teamcity"
+"integration_title": "TeamCity"
+"integration_version": "6.1.0"
+"is_public": true
+"manifest_version": "2.0.0"
+"name": "teamcity"
+"public_title": "TeamCity"
+"short_description": "Realiza un seguimiento de las compilaciones y comprende el impacto en el rendimiento de cada despliegue."
+"supported_os":
+- "linux"
+- "windows"
+- "macos"
+"tile":
+ "changelog": "CHANGELOG.md"
+ "classifier_tags":
+ - "Category::Configuration & Deployment"
+ - "Category::Log Collection"
+ - "Category::Notifications"
+ - "Supported OS::Linux"
+ - "Supported OS::Windows"
+ - "Supported OS::macOS"
+ - "Offering::Integration"
+ "configuration": "README.md#Setup"
+ "description": "Realiza un seguimiento de las compilaciones y comprende el impacto en el rendimiento de cada despliegue."
+ "media": []
+ "overview": "README.md#Overview"
+ "resources":
+ - "resource_type": "blog"
+ "url": "https://www.datadoghq.com/blog/track-performance-impact-of-code-changes-with-teamcity-and-datadog"
+ "support": "README.md#Support"
+ "title": "TeamCity"
+---
+
+
+
+
+## Información general
+
+Esta integración se conecta a tu servidor de TeamCity para enviar métricas, checks de servicio y eventos, lo que te permite monitorizar el estado de las configuraciones de compilación de tus proyectos de TeamCity, las ejecuciones de compilación, los recursos del servidor y mucho más.
+
+## Configuración
+
+### Instalación
+
+El check de TeamCity está incluido en el paquete del [Datadog Agent][1], por lo que no necesitas instalar nada más en tus servidores de TeamCity.
+
+### Configuración
+
+#### Preparar TeamCity
+
+Puedes activar el [inicio de sesión de invitado](#guest-login), o identificar [credenciales de usuario](#user-credentials) para la autenticación HTTP básica.
+
+##### Inicio de sesión de invitado
+
+1. [Activar el inicio de sesión de invitado][2].
+
+2. Habilita `Per-project permissions` para permitir la asignación de permisos basados en proyectos al usuario invitado. Consulta [Cambiar el modo de autorización][3].
+![Activar inicio de sesión de invitado][4]
+3. Utiliza un rol existente o crea uno nuevo de solo lectura y añade el permiso `View Usage Statistics` al rol. Consulta [Gestión de roles y permisos][5].
+![Crear rol de solo lectura][6]
+
+3. _[Opcional]_ Para permitir que el check detecte automáticamente el tipo de configuración de la compilación durante la recopilación de eventos, añade el permiso `View Build Configuration Settings` al rol de solo lectura.
+![Asignar permiso de configuración de vista de compilación][7]
+
+4. Asigna el rol de solo lectura al usuario invitado. Consulta [Asignación de roles a los usuarios][8].
+![Configuración del usuario invitado][9]
+![Asignar rol][10]
+
+##### Credenciales de usuario
+
+Para la autenticación HTTP básica
+- Especifica un `username` identificado y `password` en el archivo `teamcity.d/conf.yaml` en la carpeta `conf.d/` de tu [directorio de configuración del Agent][11].
+- Si encuentras un error `Access denied. Enable guest authentication or check user permissions.`, asegúrate de que el usuario tiene los permisos correctos:
+ - Permisos Por proyecto y Ver estadísticas de uso activados.
+ - Si estás recopilando estadísticas de carga útil del Agent, asigna también los permisos Ver detalles del Agent y Ver estadísticas de uso del Agent.
+
+{{< tabs >}}
+{{% tab "Host" %}}
+
+#### Host
+
+Para configurar este check para un Agent que se ejecuta en un host:
+
+Edita el archivo `teamcity.d/conf.yaml` en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][1]. Para conocer todas las opciones de configuración disponibles, consulta el [teamcity.d/conf.yaml de ejemplo][2]:
+
+El check de TeamCity ofrece dos métodos de recopilación de datos. Para optimizar la monitorización de tu entorno de TeamCity, configura dos instancias separadas para recopilar métricas de cada método.
+
+1. Método de OpenMetrics (requiere Python versión 3):
+
+ Habilita `use_openmetrics: true` para recopilar métricas desde el endpoint de Prometheus`/metrics` de TeamCity.
+
+ ```yaml
+ init_config:
+
+ instances:
+ - use_openmetrics: true
+
+ ## @param server - string - required
+ ## Specify the server name of your TeamCity instance.
+ ## Enable Guest Authentication on your instance or specify `username` and `password` to
+ ## enable basic HTTP authentication.
+ #
+ server: http://teamcity..com
+ ```
+
+ Para recopilar métricas de histograma y resumen [conformes con OpenMetrics][3] (disponible a partir de TeamCity Server 2022.10+), añade la propiedad interna, `teamcity.metrics.followOpenMetricsSpec=true`. Consulta [Propiedades internas de TeamCity][4].
+
+2. Método API REST de TeamCity Server (requiere Python versión 3):
+
+ Configura una instancia separada en el archivo `teamcity.d/conf.yaml` para recopilar métricas específicas de la compilación, checks de servicio y eventos de estado de la compilación de la API REST del servidor TeamCity. Especifica tus proyectos y configuraciones de compilación utilizando la opción `projects`.
+
+ ```yaml
+ init_config:
+
+ instances:
+ - server: http://teamcity..com
+
+ ## @param projects - mapping - optional
+ ## Mapping of TeamCity projects and build configurations to
+ ## collect events and metrics from the TeamCity REST API.
+ #
+ projects:
+ :
+ include:
+ -
+ -
+ exclude:
+ -
+ :
+ include:
+ -
+ : {}
+ ```
+
+Personaliza la monitorización de la configuración de compilación de cada proyecto utilizando los filtros opcionales `include` y `exclude` para especificar IDs de configuración de la compilación para incluir o excluir de la monitorización, respectivamente. Se admiten patrones de expresión regular en las claves `include` y `exclude` para especificar patrones de coincidencia de ID de la configuración de la compilación. Si se omiten los filtros `include` y `exclude`, todas las configuraciones de compilación se monitorean para el proyecto especificado.
+
+Para Python versión 2, configura un ID de configuración de compilación por instancia utilizando la opción `build_configuration`:
+
+```yaml
+init_config:
+
+instances:
+ - server: http://teamcity..com
+
+ ## @param projects - mapping - optional
+ ## Mapping of TeamCity projects and build configurations to
+ ## collect events and metrics from the TeamCity REST API.
+ #
+ build_configuration:
+```
+
+[Reinicia el Agent][5] para empezar a recopilar y enviar eventos de TeamCity a Datadog.
+
+##### Recopilación de logs
+
+1. Establecer la [configuración de registro][6] de TeamCity.
+
+2. Por defecto, el pipeline de la integración de Datadog admite el siguiente tipo de formato de log:
+
+ ```text
+ [2020-09-10 21:21:37,486] INFO - jetbrains.buildServer.STARTUP - Current stage: System is ready
+ ```
+
+ Clona y edita el [pipeline de integración][7] si has definido diferentes [patrones] de conversión[8].
+
+3. La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en tu archivo `datadog.yaml`:
+
+ ```yaml
+ logs_enabled: true
+ ```
+
+4. Anula los comentarios del bloque de configuración siguiente en tu archivo `teamcity.d/conf.yaml`. Cambia el valor de los parámetros `path` según tu entorno. Consulta el [teamcity.d/conf.yaml de ejemplol][2] para ver todas las opciones de configuración disponibles.
+
+ ```yaml
+ logs:
+ - type: file
+ path: /opt/teamcity/logs/teamcity-server.log
+ source: teamcity
+ - type: file
+ path: /opt/teamcity/logs/teamcity-activities.log
+ source: teamcity
+ - type: file
+ path: /opt/teamcity/logs/teamcity-vcs.log
+ source: teamcity
+ - type: file
+ path: /opt/teamcity/logs/teamcity-cleanup.log
+ source: teamcity
+ - type: file
+ path: /opt/teamcity/logs/teamcity-notifications.log
+ source: teamcity
+ - type: file
+ path: /opt/teamcity/logs/teamcity-ws.log
+ source: teamcity
+ ```
+
+5. [Reinicia el Agent][5].
+
+[1]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory
+[2]: https://github.com/DataDog/integrations-core/blob/master/teamcity/datadog_checks/teamcity/data/conf.yaml.example
+[3]: https://github.com/OpenObservability/OpenMetrics/blob/main/specification/OpenMetrics.md
+[4]: https://www.jetbrains.com/help/teamcity/server-startup-properties.html#TeamCity+Internal+Properties
+[5]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[6]: https://www.jetbrains.com/help/teamcity/teamcity-server-logs.html
+[7]: https://docs.datadoghq.com/logs/log_configuration/pipelines/#integration-pipelines
+[8]: https://logging.apache.org/log4j/2.x/manual/layouts.html#Patterns
+{{% /tab %}}
+{{% tab "Contenedorizado" %}}
+
+#### Contenedores
+
+Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][1] para obtener orientación sobre la aplicación de los parámetros que se indican a continuación.
+
+| Parámetro | Valor |
+| -------------------- | ------------------------------------------------------------------------------------------------- |
+| `` | `teamcity` |
+| `` | en blanco o `{}` |
+| `` | `{"server": "%%host%%", "use_openmetrics": "true"}` |
+
+##### Recopilación de logs
+
+La recopilación de logs está deshabilitada por defecto en el Datadog Agent. Para activarla, consulta [Recopilación de logs de Kubernetes][2].
+
+| Parámetro | Valor |
+| -------------- | ---------------------------------------------------- |
+| `` | `{"source": "teamcity"}` |
+
+[1]: https://docs.datadoghq.com/agent/kubernetes/integrations/
+[2]: https://docs.datadoghq.com/agent/kubernetes/log/
+{{% /tab %}}
+{{< /tabs >}}
+
+### Validación
+
+[Ejecuta el subcomando `status` del Agent][12] y busca `teamcity` en la sección Checks.
+
+## Datos recopilados
+
+### Métricas
+{{< get-metrics-from-git "teamcity" >}}
+
+
+### Eventos
+
+Los eventos de TeamCity que representan las compilaciones exitosas y fallidas se envían a Datadog.
+
+### Checks de servicio
+{{< get-service-checks-from-git "teamcity" >}}
+
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][13].
+
+## Referencias adicionales
+
+- [Seguimiento del impacto en el rendimiento de los cambios de código con TeamCity y Datadog][14]
+
+
+[1]: https://app.datadoghq.com/account/settings/agent/latest
+[2]: https://www.jetbrains.com/help/teamcity/enabling-guest-login.html
+[3]: https://www.jetbrains.com/help/teamcity/managing-roles-and-permissions.html#Changing+Authorization+Mode
+[4]: https://raw.githubusercontent.com/DataDog/integrations-core/master/teamcity/images/authentication.jpg
+[5]: https://www.jetbrains.com/help/teamcity/managing-roles-and-permissions.html
+[6]: https://raw.githubusercontent.com/DataDog/integrations-core/master/teamcity/images/create_role.jpg
+[7]: https://raw.githubusercontent.com/DataDog/integrations-core/master/teamcity/images/build_config_permissions.jpg
+[8]: https://www.jetbrains.com/help/teamcity/creating-and-managing-users.html#Assigning+Roles+to+Users
+[9]: https://raw.githubusercontent.com/DataDog/integrations-core/master/teamcity/images/guest_user_settings.jpg
+[10]: https://raw.githubusercontent.com/DataDog/integrations-core/master/teamcity/images/assign_role.jpg
+[11]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory
+[12]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information
+[13]: https://docs.datadoghq.com/help/
+[14]: https://www.datadoghq.com/blog/track-performance-impact-of-code-changes-with-teamcity-and-datadog
diff --git a/content/es/integrations/tyk.md b/content/es/integrations/tyk.md
index 6046b49e6992f..417c9421f54c5 100644
--- a/content/es/integrations/tyk.md
+++ b/content/es/integrations/tyk.md
@@ -29,7 +29,7 @@ author:
support_email: yaara@tyk.io
categories:
- métricas
-custom_kind: integration
+custom_kind: integración
dependencies:
- https://github.com/DataDog/integrations-extras/blob/master/tyk/README.md
display_on_public_website: true
@@ -118,7 +118,7 @@ pump.conf:
"dogstatsd": {
"type": "dogstatsd",
"meta": {
- "address": "dd-agent:8126",
+ "address": "dd-agent:8125",
"namespace": "tyk",
"async_uds": true,
"async_uds_write_timeout_seconds": 2,
diff --git a/content/es/integrations/win32_event_log.md b/content/es/integrations/win32_event_log.md
index 925da26f13745..e86a092ddd369 100644
--- a/content/es/integrations/win32_event_log.md
+++ b/content/es/integrations/win32_event_log.md
@@ -33,7 +33,7 @@ draft: false
git_integration_title: win32_event_log
integration_id: event-viewer
integration_title: Log de eventos de Windows
-integration_version: 5.0.0
+integration_version: 5.2.1
is_public: true
manifest_version: 2.0.0
name: win32_event_log
@@ -188,7 +188,7 @@ Para recopilar logs de eventos de Windows como eventos de Datadog, configura can
```yaml
init_config:
instances:
- - # API de logs de eventos
+ - # Event Log API
path: Security
legacy_mode: false
filters: {}
@@ -204,7 +204,7 @@ Las versiones 7.49 y posteriores del Agent permiten configurar `legacy_mode` en
init_config:
legacy_mode: false
instances:
- - # API de logs de eventos
+ - # Event Log API
path: Security
filters: {}
@@ -225,7 +225,7 @@ Para recopilar logs de eventos de Windows como eventos de Datadog, configura can
```yaml
init_config:
instances:
- - # WMI (por defecto)
+ - # WMI (default)
legacy_mode: true
log_file:
- Security
diff --git a/content/es/llm_observability/instrumentation/_index.md b/content/es/llm_observability/instrumentation/_index.md
new file mode 100644
index 0000000000000..8605190d6558a
--- /dev/null
+++ b/content/es/llm_observability/instrumentation/_index.md
@@ -0,0 +1,76 @@
+---
+further_reading:
+- link: /llm_observability/auto_instrumentation
+ tag: Instrumentación automática
+ text: Empezar rápidamente con la instrumentación automática
+title: Instrumentación de LLM Observability
+---
+
+
+Para empezar con Datadog LLM Observability, instrumenta tus aplicaciones o agente(s) LLM eligiendo entre varias estrategias basadas en tu lenguaje de programación y configuración. Datadog proporciona opciones de instrumentación completas diseñadas para capturar trazas (traces), métricas y evaluaciones detalladas de tus aplicaciones y agentes LLM con cambios mínimos en el código.
+
+## Opciones de instrumentación
+Puedes instrumentar tu aplicación con los SDK de Python, Node.js o Java, o utilizando la API de LLM Observability.
+
+### Instrumentación basada en SDK (recomendado)
+Datadog proporciona SDK nativos que ofrecen las funciones de LLM Observability más completas:
+| Lenguaje | SDK disponible | Instrumentación automática | Instrumentación personalizada | .
+| -------- | ------------- | -------------------- | ---------------------- |
+| Python | Python v3.7 o posterior {{< X >}} | {{< X >}} |
+| Node.js | Node.js v16 o posterior {{< X >}} | {{< X >}} |
+| Java | Java 8 o posterior {{< X >}} |
+
+
+Para instrumentar una aplicación LLM con el SDK:
+1. Instala el SDK de LLM Observability.
+2. Configura el SDK proporcionando [las variables de entorno necesarias][6] en el comando de inicio de tu aplicación o [en el código][7] mediante programación. Asegúrate de haber configurado tu clave de API Datadog, el sitio Datadog y el nombre de la aplicación de machine learning (ML).
+
+#### Instrumentación automática
+La instrumentación automática captura llamadas LLM de aplicaciones Python y Node.js sin requerir cambios en el código. Te permite obtener trazas predefinidas y una observabilidad de marcos y proveedores populares. Para obtener más información y una lista completa de marcos y proveedores compatibles, consulta la documentación [Instrumentación automática][1].
+
+La instrumentación automática captura automáticamente:
+- Solicitudes de entradas y finalizaciones de salidas
+- Uso y costes de los tokens
+- Información sobre latencia y errores
+- Parámetros del modelo (temperatura, max_tokens, etc.)
+- Metadatos específicos del marco
+
+Cuando se utilizan marcos compatibles, no es necesario crear manualmente tramos (spans) para las llamadas LLM. El SDK crea automáticamente los tramos adecuados con metadatos enriquecidos.
+
+#### Instrumentación personalizada
+Todos los SDK compatibles proporcionan capacidades avanzadas para la instrumentación personalizada de tus aplicaciones LLM, además de la instrumentación automática, incluyendo:
+- Creación manual de tramos mediante decoradores de funciones o gestores de contextos
+- Rastreo de flujos de trabajo complejos para aplicaciones LLM de varios pasos
+- Monitorización de agentes para agentes LLM autónomos
+- Evaluaciones personalizadas y mediciones de calidad
+- Seguimiento de la sesión para ver interacciones de usuarios
+
+Para obtener más información, consulta la [documentación de referencia del SDK][2].
+
+### Instrumentación de la API HTTP
+Si tu lenguaje no es compatible con los SDK o si utilizas integraciones personalizadas, puedes instrumentar tu aplicación utilizando la API HTTP de Datadog.
+
+La API te permite:
+- Enviar tramos directamente a través de endpoints HTTP
+- Enviar evaluaciones personalizadas asociadas a tramos
+- Incluir jerarquías completas de trazas de aplicaciones complejas
+- Anotar tramos con entradas, salidas, metadatos y métricas
+
+Endpoints de API:
+- [API de tramos][4]: `POST` `https://api.{{< region-param key="dd_site" code="true" >}}/api/intake/llm-obs/v1/trace/spans`
+- [API de evaluaciones][5]: `POST` `https://api.{{< region-param key="dd_site" code="true" >}}/api/intake/llm-obs/v2/eval-metric`
+
+Para obtener más información, consulta la [documentación de la API HTTP][3].
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+
+[1]: /es/llm_observability/auto_instrumentation
+[2]: /es/llm_observability/instrumentation/sdk
+[3]: /es/llm_observability/setup/api
+[4]: /es/llm_observability/instrumentation/api/?tab=model#spans-api
+[5]: /es/llm_observability/instrumentation/api/?tab=model#evaluations-api
+[6]: /es/llm_observability/instrumentation/sdk#command-line-setup
+[7]: /es/llm_observability/instrumentation/sdk#in-code-setup
\ No newline at end of file
diff --git a/content/es/llm_observability/monitoring/_index.md b/content/es/llm_observability/monitoring/_index.md
index e172c52b080f9..a992656a90dec 100644
--- a/content/es/llm_observability/monitoring/_index.md
+++ b/content/es/llm_observability/monitoring/_index.md
@@ -1,9 +1,77 @@
---
+description: Explorar aún más tu aplicación en LLM Observability.
title: Monitorización
---
-{{< whatsnext desc="Esta sección incluye los siguientes temas:">}}
- {{< nextlink href="/llm_observability/monitoring/llm_observability_and_apm">}}Conecta LLM Observability con APM: vincular tramos de LLM Observability con tramos de Datadog APM{{< /nextlink >}}
- {{< nextlink href="/llm_observability/monitoring/cluster_map">}}Mapa de clúster: uso de la visualización del Mapa de clúster de LLM Observability{{< /nextlink >}}
- {{< nextlink href="/llm_observability/monitoring/agent_monitoring">}}Monitorización del Agent: monitorización de aplicaciones de Agentic LLM{{< /nextlink >}}
-{{< /whatsnext >}}
\ No newline at end of file
+## Información general
+
+Explora y analiza tus aplicaciones LLM en producción con herramientas para consultar, visualizar, correlacionar e investigar datos en trazas (traces), clústeres y otros recursos.
+
+Monitoriza el rendimiento, corrige los problemas, evalúa la calidad y protege tus sistemas basados en LLM con una visibilidad unificada de trazas, métricas y evaluaciones en línea.
+
+### Monitorización del rendimiento en tiempo real
+
+Monitoriza el estado operativo de tu aplicación LLM con métricas y dashboards integrados:
+
+{{< img src="llm_observability/index/llm_dashboard_light.png" alt="Dashboard de información operativa de LLM Observability, que muestra diversas métricas y visualizaciones. Incluye una sección de información general con el número total de trazas y tramos (spans), índices de acierto y error, etc., y una sección de llamadas LLM con un gráfico circular del uso de modelos, la media de tokens de entrada y salida por llamada, etc." style="width:100%">}}
+
+- **Volumen y latencia de solicitudes**: Realiza un seguimiento de las solicitudes por segundo, los tiempos de respuesta y los cuellos de botella de rendimiento en diferentes modelos, operaciones y endpoints.
+- **Seguimiento de errores**: Monitoriza errores HTTP, tiempos de espera del modelo y solicitudes fallidas con el contexto de error detallado.
+- **Consumo de tokens**: Realiza un seguimiento de los tokens de solicitudes, los tokens almacenados en caché, los tokens de finalización y el uso total para optimizar los costes.
+- **Análisis del uso de modelos**: Monitoriza qué modelos están siendo llamandos, sus frecuencias y sus características de rendimiento.
+
+El [dashboard de información operativa de LLM Observability][6] proporciona vistas consolidadas de métricas a nivel de traza y de tramo, índices de error, desgloses de latencia, tendencias de consumo de tokens y monitores activados.
+
+### Corrección y resolución de problemas de producción
+
+Depura flujos de trabajo LLM complejos con una visibilidad detallada de la ejecución:
+
+{{< img src="llm_observability/index/llm_trace_light.png" alt="Vista detallada de una traza en LLM Observability, que muestra un gráfico de llama que representa visualmente cada llamada a un servicio. 'OpenAI.createResponse' está seleccionado y se muestra una vista detallada del tramo, que incluye los mensajes de entrada y los mensajes de salida." style="width:100%">}}
+
+- **Análisis de trazas de extremo a extremo**: Visualiza los flujos completos de solicitudes, desde la entrada del usuario hasta las llamadas al modelo, las llamadas a las herramientas y la generación de respuestas.
+- **Depuración a nivel de tramo**: Examina las operaciones individuales dentro de las cadenas, incluyendo los pasos de preprocesamiento, las llamadas al modelo y la lógica de postprocesamiento.
+- **Identificación de las causas de error**: Identifica los puntos de fallo en las cadenas de varios pasos, los flujos de trabajo o las operaciones agénticas con información detallada del contexto y el momento del error.
+- **Identificación de los cuellos de botella**: Busca las operaciones lentas y optimízalas en función de los desgloses de latencia de los componentes de flujos de trabajo.
+
+### Evaluaciones de calidad y seguridad
+
+{{< img src="llm_observability/index/llm_example_eval_light.png" alt="Vista detallada de un tramo en la pestaña Evaluations (Evaluaciones) de LLM Observability, que muestra una evaluación de alucinaciones con 'Contradicción confirmada', la salida marcada, la cuota de contexto y una explicación de pr qué se ha marcado." style="width:100%">}}
+
+Asegúrate de que tus agentes o aplicaciones LLM cumplen las normas de calidad con evaluaciones en línea. Para obtener información completa sobre las evaluaciones alojadas y gestionadas en Datadog, la ingesta de evaluaciones personalizadas y las funciones de monitorización de la seguridad, consults la [documentación sobre evaluaciones][5].
+
+### Consultar trazas y tramos de tu aplicación LLM
+
+{{< img src="llm_observability/index/llm_query_example_light.png" alt="Vista LLM Observability > Trazas, donde el usuario ha ingresado la consulta`ml_app:shopist-chat-v2 'purchase' -'discount' @trace.total_tokens:>=20` y se muestran varias trazas." style="width:100%">}}
+
+Aprende a utilizar la interfaz de consulta de LLM Observability de Datadog para buscar, filtrar y analizar las trazas y los tramos generados por tus aplicaciones LLM. La [documentación sobre consultas][1] explica cómo hacerlo:
+
+- Utiliza la barra de búsqueda para filtrar las trazas y los tramos por atributos como modelo, usuario o estado de error.
+- Aplica filtros avanzados para centrarte en operaciones o plazos específicos de LLM.
+- Visualiza e inspecciona detalles de trazas para solucionar problemas y optimizar tus flujos de trabajo LLM.
+
+Esto te permite identificar rápidamente los problemas, monitorizar el rendimiento y obtener información sobre el comportamiento de tu aplicación LLM en producción.
+
+
+### Correlacionar APM y LLM Observability
+
+{{< img src="llm_observability/index/llm_apm_example_light.png" alt="Una traza en Datadog APM. La pestaña Overview (Información general) muestra una sección llamada LLM Observability, con un enlace para visualizar el tramo en LLM Observability, así como el texto de entrada y salida." style="width:100%">}}
+
+Para aplicaciones instrumentadas con Datadog APM, puedes [correlacionar APM y LLM Observability][2] a través del SDK. Correlacionar APM con LLM Observability proporciona visibilidad completa de extremo a extremo y análisis exhaustivos, desde problemas de aplicaciones hasta causas raíz específicas de LLM.
+
+### Mapa de clústeres
+
+{{< img src="llm_observability/index/llm_cluster_example.png" alt="Un mapa de clústeres de ejemplo qie muestra más de 1000 entradas de trazas, coloreadas por la métrica 'no hubo respuesta'. En el mapa se ve un estado de punto suspendido, que muestra una clasificación de la traza como 'Opciones económicas', así como texto de entrada y salida y un enlace para ver más detalles." style="width:100%">}}
+
+El [mapa de clústeres][3] proporciona información general de cómo se agrupan y relacionan las solicitudes de tu aplicación LLM. Te ayuda a identificar patrones, grupos de actividad similar y outliers en trazas LLM, lo que facilita la investigación de problemas y optimiza el rendimiento.
+
+### Monitorizar tus sistemas agénticos
+
+Aprende cómo monitorizar aplicaciones LLM agénticas que utilizan múltiples herramientas o cadenas de razonamiento con [Agent Monitoring][4] de Datadog. Esta característica te ayuda a realizar un seguimiento de las acciones de los agentes, el uso de herramientas y los pasos de razonamiento, proporcionándote una visibilidad de complejos flujos de trabajo LLM y permitiéndote solucionar problemas y optimizar los sistemas agénticos de manera efectiva. Consulta la [documentación de Agent Monitoring][4] para ver más detalles.
+
+
+[1]: /es/llm_observability/monitoring/querying
+[2]: /es/llm_observability/monitoring/llm_observability_and_apm
+[3]: /es/llm_observability/monitoring/cluster_map/
+[4]: /es/llm_observability/monitoring/agent_monitoring
+[5]: /es/llm_observability/evaluations/
+[6]: https://app.datadoghq.com/dash/integration/llm_operational_insights?fromUser=false&refresh_mode=sliding&from_ts=1758905575629&to_ts=1758909175629&live=true
\ No newline at end of file
diff --git a/content/es/logs/explorer/search_syntax.md b/content/es/logs/explorer/search_syntax.md
index ae5ac07dfb20b..a91250504b295 100644
--- a/content/es/logs/explorer/search_syntax.md
+++ b/content/es/logs/explorer/search_syntax.md
@@ -4,18 +4,24 @@ aliases:
- /es/logs/search_syntax/
description: Busca a través de todos tus logs.
further_reading:
+- link: /getting_started/search/
+ tag: Documentación
+ text: Introducción a la búsqueda en Datadog
- link: /logs/explorer/#visualize
tag: Documentación
text: Aprende a visualizar logs
- link: /logs/explorer/#patterns
tag: Documentación
- text: Detecta patrones dentro de tus logs
+ text: Detecta patrones en tus logs
- link: /logs/log_configuration/processors
tag: Documentación
- text: Aprende a procesar tus logs
+ text: Aprender a procesar tus logs
- link: /logs/explorer/saved_views/
tag: Documentación
- text: Información sobre las vistas guardadas
+ text: Más información sobre las vistas guardadas
+- link: /logs/explorer/calculated_fields/expression_language
+ tag: Documentación
+ text: Más información sobre el lenguaje de expresión de campos calculados
title: Sintaxis de búsqueda de logs
---
@@ -25,62 +31,55 @@ Un filtro de consulta se compone de términos y operadores.
Existen dos tipos de términos:
-* Un **término único** es una sola palabra, como `test` o `hello`.
+* Un **término único** es una sola palabra como `test` o `hello`.
-* Una **secuencia** es un grupo de palabras delimitadas por comillas dobles, como `"hello dolly"`.
+* Una **secuencia** es un grupo de palabras rodeadas de comillas dobles, como `"hello dolly"`.
Para combinar varios términos en una consulta compleja, puedes utilizar cualquiera de los siguientes operadores booleanos que distinguen entre mayúsculas y minúsculas:
| | | |
|--------------|--------------------------------------------------------------------------------------------------------|------------------------------|
| **Operador** | **Descripción** | **Ejemplo** |
-| `AND` | **Intersección**: ambos términos están en los eventos seleccionados (si no se añade nada, se toma AND por defecto). | autenticación AND error |
-| `OR` | **Unión**: cualquiera de los dos términos está en los eventos seleccionados. | autenticación OR contraseña |
-| `-` | **Exclusión**: el término siguiente NO figura en el evento (se aplica a cada búsqueda individual de texto sin formato). | autenticación AND -contraseña |
+| `AND` | **Intersección**: ambos términos están en los eventos seleccionados (si no se añade nada, se toma AND por defecto). | autenticación Y fallo |
+| `OR` | **Unión**: cualquiera de los dos términos está en los eventos seleccionados. | autenticación O contraseña |
+| `-` | **Exclusión**: el siguiente término NO figura en el evento (se aplica a cada búsqueda de texto sin formato individual). | autenticación Y contraseña |
## Búsqueda de texto completo
-La función de búsqueda de texto completo solo está disponible en Log Management y funciona en las consultas de monitor, dashboard y notebook. La sintaxis de búsqueda de texto completo no puede utilizarse para definir filtros de índice, filtros de archivo, filtros de pipeline de log ni en Live Tail.
+La función de búsqueda de texto completo solo está disponible en Log Management y funciona en las consultas de monitor, dashboard y notebook. La sintaxis de búsqueda de texto completo no puede utilizarse para definir filtros de índice, filtros de archivo, filtros de pipeline de log, filtros de rehidratación ni en Live tail.
Utiliza la sintaxis `*:search_term` para realizar una búsqueda de texto completo en todos los atributos de log, incluido el mensaje de log.
### Ejemplo de término único
-| Sintaxis de búsqueda | Tipo de búsqueda | Descripción |
-| ------------- | ----------- | ----------------------------------------------------- |
-| `*:hello` | Texto completo | Busca todos los atributos de log para el término `hello`. |
-| `hello` | Texto libre | Busca solo en el mensaje de log el término `hello`. |
+| Sintaxis de búsqueda | Tipo de búsqueda | Descripción |
+| ------------- | ----------- | --------------------------------------------------------- |
+| `*:hello` | Texto completo | Busca en todos los atributos de log la cadena exacta `hello`. |
+| `hello` | Texto libre | Busca la cadena exacta `hello` solo en los atributos `message`, `@title`, `@error.message` y `@error.stack`. |
### Ejemplo de término de búsqueda con comodín
-| Sintaxis de búsqueda | Tipo de búsqueda | Descripción |
-| ------------- | ----------- | -------------------------------------------------------------------------------------------- |
-| `*:hello` | Texto completo | Busca en todos los atributos de log la cadena exacta `hello`. |
-| `*:hello*`| Texto completo | Busca en todos los atributos de log cadenas que empiecen por `hello`. Por ejemplo, `hello_world`.|
+| Sintaxis de búsqueda | Tipo de búsqueda | Descripción |
+| ------------- | ----------- | ------------------------------------------------------------------------------------------- |
+| `*:hello` | Texto completo | Busca en todos los atributos de log la cadena exacta `hello`. |
+| `*:hello*` | Texto completo | Busca en todos los atributos de log las cadenas que empiecen por `hello`. Por ejemplo, `hello_world`. |
### Ejemplo de términos múltiples con coincidencia exacta
-| Sintaxis de búsqueda | Tipo de búsqueda | Descripción |
-| ------------------- | ----------- |------------------------------------------------------- |
-| `*:"hello world"` | Texto completo | Busca todos los atributos de log para el término `hello world`. |
-| `hello world` | Texto libre | Busca solo en el mensaje de log el término `hello`. |
-
-### Ejemplo de términos múltiples sin coincidencia exacta
-
-La sintaxis de búsqueda de texto completo `*:hello world` es equivalente a `*:hello *:world`. Busca en todos los atributos de log los términos `hello` y `world`.
-
-### Ejemplo de términos múltiples con un espacio en blanco
-
-La sintaxis de búsqueda de texto completo `*:"hello world" "i am here"` es equivalente a `*:"hello world" *:"i am here"`. Busca en todos los atributos de log los términos `hello world` y `i am here`.
+| Sintaxis de búsqueda | Tipo de búsqueda | Descripción |
+| ------------------- | ----------- |--------------------------------------------------------------------------------------------------- |
+| `*:"hello world"` | Texto completo | Busca en todos los atributos de log la cadena exacta `hello world`. |
+| `hello world` | Texto libre | Busca sólo en el mensaje de log las palabras `hello` y `world`. Por ejemplo `hello beautiful world`. |
## Caracteres especiales de escape y espacios
-Los siguientes caracteres, que se consideran especiales: `+` `-` `=` `&&` `||` `>` `<` `!` `(` `)` `{` `}` `[` `]` `^` `"` `“` `”` `~` `*` `?` `:` `\` `#` y los espacios que requieren ser de escape con el carácter `\`.
-`/` no se considera un carácter especial y no necesita ser de escape.
+Los siguientes caracteres se consideran especiales y deben escaparse con el carácter `\`: `-` `!` `&&` `||` `>` `>=` `<` `<=` `(` `)` `{` `}` `[` `]` `"` `*` `?` `:` `\` `#` y espacios.
+- `/` no se considera un carácter especial y no necesita escape.
+- `@` no puede utilizarse en las consultas de búsqueda dentro del Log Explorer porque está reservado para la [búsqueda de atributos](#attributes-search).
No se pueden buscar caracteres especiales en un mensaje de log. Puedes buscar caracteres especiales cuando están dentro de un atributo.
-Para buscar caracteres especiales, analízalos en un atributo con el [Analizador Grok][1], y busca los logs que contengan ese atributo.
+Para buscar caracteres especiales, analízalos en un atributo con el [Analizador Grok][1] y busca los logs que contengan ese atributo.
## Búsqueda de atributos
@@ -102,7 +101,7 @@ Por ejemplo, si el nombre de tu atributo es **url** y quieres filtrar por el val
3. La búsqueda de un valor de atributo que contenga caracteres especiales requiere un carácter de escape o comillas dobles.
- Por ejemplo, para un atributo `my_attribute` con el valor `hello:world`, busca utilizando: `@my_attribute:hello\:world` o `@my_attribute:"hello:world"`.
- - Para que coincida con un único carácter especial o espacio, utiliza el comodín `?`. Por ejemplo, para un atributo `my_attribute` con el valor `hello world`, busca utilizando: `@my_attribute:hello?world`.
+ - Para buscar una coincidencia con un único carácter especial o espacio, utiliza el comodín `?`. Por ejemplo, para un atributo `my_attribute` con los valores `hello world`, realiza la búsqueda utilizando: `@my_attribute:hello?world`.
Ejemplos:
@@ -134,11 +133,11 @@ Puedes utilizar comodines con la búsqueda de texto libre. Sin embargo, solo bus
Para realizar una búsqueda de comodín de varios caracteres en el mensaje de log (la columna `content` en Log Explorer), utiliza el símbolo `*` como se indica a continuación:
-* `service:web*` coincide con cada mensaje de log que tenga un servicio que empiece por `web`.
+* `service:web*` coincide con cada mensaje de log que tenga un servicio que empiece con `web`.
* `web*` coincide con todos los mensajes de log que empiecen con `web`.
* `*web` coincide con todos los mensajes de log que terminan con `web`.
-**Nota**: Los comodines solo funcionan fuera de las comillas dobles. Por ejemplo, `"*test*"` coincide con un log que tenga la cadena `*test*` en su mensaje. `*test*` coincide con un log que tenga la test de cadena en cualquier parte de su mensaje.
+**Nota**: Los comodines solo funcionan fuera de las comillas dobles. Por ejemplo, `"*test*"` coincide con un log que tenga la cadena `*test*` en su mensaje. `*test*` coincide con un log que tenga el test de cadena en cualquier parte de su mensaje.
Las búsquedas con comodines funcionan dentro de etiquetas y atributos (con o sin facetas) con esta sintaxis. Esta consulta devuelve todos los servicios que terminan con la cadena `mongo`:
@@ -163,7 +162,7 @@ Cuando busques un valor de atributo o etiqueta que contenga caracteres especiale
## Valores numéricos
-Para buscar en un atributo numérico, primero [añádelo como faceta][2]. A continuación, puedes utilizar operadores numéricos (`<`,`>`, `<=`, o `>=`) para realizar una búsqueda sobre facetas numéricas.
+Para buscar en un atributo numérico, primero [añádelo como faceta][2]. A continuación, puedes utilizar operadores numéricos (`<`,`>`, `<=` o `>=`) para realizar una búsqueda sobre facetas numéricas.
Por ejemplo, recupera todos los logs que tengan un tiempo de respuesta superior a 100ms con:
@@ -204,11 +203,17 @@ En el siguiente ejemplo, los logs de CloudWatch para Windows contienen una matri
{{< img src="logs/explorer/search/facetless_query_json_arrray2.png" alt="Consulta sin facetas en una matriz de objetos JSON" style="width:80%;">}}
+## Campos calculados
+
+Los campos calculados función como atributos de log y pueden utilizarse para la búsqueda, agregación, visualización y definición de otros campos calculados. Utiliza el prefijo `#` cuando hagas referencia a nombres de campos calculados.
+
+{{< img src="logs/explorer/calculated_fields/calculated_field.png" alt="Un campo calculado llamado request_duration que se utiliza para filtrar resultados en el Log Explorer" style="width:100%;" >}}
+
## Búsquedas guardadas
Las [Vistas guardadas][6] contienen tu consulta de búsqueda, columnas, horizonte temporal y faceta.
-## Leer más
+## Referencias adicionales
{{< partial name="whats-next/whats-next.html" >}}
diff --git a/content/es/logs/guide/forwarder.md b/content/es/logs/guide/forwarder.md
index 1b9978fcfb271..a002be874e060 100644
--- a/content/es/logs/guide/forwarder.md
+++ b/content/es/logs/guide/forwarder.md
@@ -24,6 +24,8 @@ Para obtener más información sobre el envío de logs de servicios AWS con el D
Datadog recomienda utilizar [CloudFormation](#cloudformation) para instalar automáticamente el Forwarder. También puedes completar el proceso de configuración utilizando [Terraform](#terraform) o [manualmente](#manually). Una vez instalado, puedes asignar fuentes de logs al Forwarder, como buckets S3 o grupos de logs CloudWatch [setting up triggers][4].
+**Nota**: Forwarder v4.1.0+ no es compatible con la arquitectura x86_64. Si utilizas x86_64, debes migrar a ARM64 para poder utilizar Datadog Forwarder.
+
{{< tabs >}}
{{% tab "CloudFormation" %}}
@@ -50,60 +52,30 @@ Si ya habías habilitado tu integración AWS utilizando la [siguiente plantilla
### Terraform
-Instala el Forwarder utilizando el recurso Terraform [`aws_cloudformation_stack`][101] como encapsulador, además de la plantilla de CloudFormation proporcionada.
-
-Datadog recomienda crear configuraciones de Terraform separadas:
-
-- Utiliza la primera para almacenar la [clave de API de Datadog][102] en el AWS Secrets Manager y anota el ARN de secretos de la salida de aplicación
-- A continuación, crea una configuración para el Forwarder y proporciona el ARN de secretos a través del parámetro `DdApiKeySecretArn`.
-- Por último, crea una configuración para [configurar los activadores en el Forwarder][103].
-
-Al separar las configuraciones de la clave de API y del Forwarder, no es necesario proporcionar la clave de API de Datadog al actualizar el Forwarder. Para actualizar o mejorar el Forwarder en el futuro, vuelve a aplicar la configuración del Forwarder.
+Instala el Forwarder utilizando el módulo de Datadog Terraform público disponible en [https://registry.terraform.io/modules/DataDog/log-lambda-forwarder-datadog/aws/latest][201]. Una vez desplegada la función Lambda, [configura activadores en el Forwarder][202].
#### Ejemplo de configuración
```tf
+module "datadog_forwarder" {
+ source = "DataDog/log-lambda-forwarder-datadog/aws"
+ version = "~> 1.0"
-variable "dd_api_key" {
- type = string
- description = "Datadog API key"
-}
-
-resource "aws_secretsmanager_secret" "dd_api_key" {
- name = "datadog_api_key"
- description = "Encrypted Datadog API Key"
-}
-
-resource "aws_secretsmanager_secret_version" "dd_api_key" {
- secret_id = aws_secretsmanager_secret.dd_api_key.id
- secret_string = var.dd_api_key
-}
-
-output "dd_api_key" {
- value = aws_secretsmanager_secret.dd_api_key.arn
+ dd_api_key = var.dd_api_key
+ dd_site = var.dd_site
}
```
-```tf
-# Use the Datadog Forwarder to ship logs from S3 and CloudWatch, as well as observability data from Lambda functions to Datadog. For more information, see https://github.com/DataDog/datadog-serverless-functions/tree/master/aws/logs_monitoring
-resource "aws_cloudformation_stack" "datadog_forwarder" {
- name = "datadog-forwarder"
- capabilities = ["CAPABILITY_IAM", "CAPABILITY_NAMED_IAM", "CAPABILITY_AUTO_EXPAND"]
- parameters = {
- DdApiKeySecretArn = "REPLACE WITH DATADOG SECRETS ARN",
- DdSite = "REPLACE WITH DATADOG SITE",
- FunctionName = "datadog-forwarder"
- }
- template_url = "https://datadog-cloudformation-template.s3.amazonaws.com/aws/forwarder/latest.yaml"
-}
-```
+**Nota**: Asegúrate de que el parámetro `dd_site` coincide con tu [sitio de Datadog][203]. Selecciona tu sitio en la parte derecha de este página. Tu sitio de Datadog es {{< region-param key="dd_site" code="true" >}}.
+Encontrarás tu [clave de API de Datadog][204] para `dd_api_key` en **Organization Settings** > **API Keys** (Configuración de la organización > Claves de API).
-**Nota**: Asegúrate de que el parámetro `DdSite` coincide con tu [sitio Datadog][104]. Selecciona tu sitio en la parte derecha de esta página. Sustituye `` en el ejemplo de configuración anterior por {{< region-param key="dd_site" code="true" >}}.
+Para todas las opciones de configuración y detalles, incluyendo [Despliegue multiregión][205], consulta la [documentación del módulo][201].
-[101]: https://www.terraform.io/docs/providers/aws/r/cloudformation_stack
-[102]: https://app.datadoghq.com/organization-settings/api-keys
-[103]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#set-up-triggers
-[104]: https://docs.datadoghq.com/es/getting_started/site/#access-the-datadog-site
+[201]: https://registry.terraform.io/modules/DataDog/log-lambda-forwarder-datadog/aws/latest
+[202]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#set-up-triggers
+[203]: https://docs.datadoghq.com/es/getting_started/site/#access-the-datadog-site
+[204]: https://app.datadoghq.com/organization-settings/api-keys
+[205]: https://registry.terraform.io/modules/DataDog/log-lambda-forwarder-datadog/aws/latest#multi-region-deployments
{{% /tab %}}
{{% tab "Manual" %}}
@@ -112,7 +84,7 @@ resource "aws_cloudformation_stack" "datadog_forwarder" {
Si no puedes instalar el Forwarder utilizando la plantilla de CloudFormation proporcionada, puedes instalarlo manualmente siguiendo los pasos que se indican a continuación. No dudes en abrir una incidencia o en crear una solicitud de extracción para hacernos saber si hay algo que podríamos mejorar para que la plantilla funcione.
-1. Crea una función Lambda de Python 3.12 utilizando `aws-dd-forwarder-.zip` de las últimas [versiones][101].
+1. Crea una función Lambda de Python 3.13 utilizando `aws-dd-forwarder-.zip` de las últimas [versiones][101].
2. Guarda tu [clave de API de Datadog][102] en AWS Secrets Manager, configura la variable de entorno `DD_API_KEY_SECRET_ARN` con el ARN de secretos en la función Lambda y añade el permiso `secretsmanager:GetSecretValue` al rol de ejecución Lambda.
3. Si necesitas reenviar logs desde buckets S3, añade el permiso `s3:GetObject` al rol de ejecución Lambda.
4. Configura la variable de entorno `DD_ENHANCED_METRICS` como `false` en el Forwarder. Esto evita que el Forwarder genere métricas mejoradas por sí mismo, aunque seguirá reenviando métricas personalizadas desde otras lambdas.DdFetchLambdaTags.
@@ -125,8 +97,8 @@ Si no puedes instalar el Forwarder utilizando la plantilla de CloudFormation pro
aws lambda invoke --function-name --payload '{"retry":"true"}' out
```
-