diff --git a/content/es/account_management/scim/_index.md b/content/es/account_management/scim/_index.md index 7dd922fecf46c..b09c8adf81ce6 100644 --- a/content/es/account_management/scim/_index.md +++ b/content/es/account_management/scim/_index.md @@ -22,7 +22,7 @@ SCIM está disponible con los planes Infrastructure Pro e Infrastructure Enterpr ## Información general -El Sistema de administración de identidades entre dominios, o SCIM, es un estándar abierto que permite automatizar el suministro de usuarios. Con el SCIM, puedes suministrar y quitar automáticamente usuarios en tu organización Datadog, de manera sincronizada con el proveedor de identidad (IdP) de tu organización. +El Sistema para la Gestión de Identidades entre Dominios, o [SCIM][9], es un estándar abierto que permite la automatización del aprovisionamiento de usuarios. Con SCIM, puedes aprovisionar y desaprovisionar usuarios automáticamente en tu organización de Datadog de forma sincronizada con el proveedor de identidades (IdP) de tu organización. ### Funciones compatibles @@ -32,7 +32,9 @@ El Sistema de administración de identidades entre dominios, o SCIM, es un está - Inicio de sesión único en Datadog (recomendado) - Teams gestionados: crea Teams de Datadog a partir de grupos del proveedor de identidades y mantén sincronizada la pertenencia a los Teams de Datadog con la pertenencia a grupos en el proveedor de identidades. -Datadog admite el uso de SCIM con los proveedores de identidad Microsoft Entra ID y Okta. Para configurar SCIM, consulta la documentación de tu IdP: +Datadog implementa el protocolo de servidor de SCIM. Datadog admite el uso de SCIM con los proveedores de identidad de Microsoft Entra ID y Okta. Otros proveedores de identidad pueden funcionar, pero no son explícitamente compatibles. + +Para configurar SCIM para los proveedores de identidad compatibles, consulta la documentación de tu IdP: - [Microsoft Entra ID][2] - [Okta][3] @@ -69,4 +71,5 @@ Al crear un nuevo usuario con SCIM, se le envía un correo electrónico. Para ac [5]: /es/account_management/api-app-keys [6]: /es/account_management/org_settings/service_accounts [7]: https://app.datadoghq.com/organization-settings/users -[8]: /es/help/ \ No newline at end of file +[8]: /es/help/ +[9]: https://scim.cloud/ \ No newline at end of file diff --git a/content/es/actions/app_builder/access_and_auth.md b/content/es/actions/app_builder/access_and_auth.md index 367772ce7609a..285f36cb814a0 100644 --- a/content/es/actions/app_builder/access_and_auth.md +++ b/content/es/actions/app_builder/access_and_auth.md @@ -37,7 +37,7 @@ Cuando ejecutas una aplicación, el usuario de la cuenta de servicio resuelve la 1. Haz clic en el icono de engranaje (**Settings** [ajustes]). 1. Selecciona en **Manage app identity** (Gestionar identidad de la aplicación). -1. Haz clic en tu cuenta de servicio junto a **Run As** (Ejecutar como). +1. Haz clic en tu cuenta de servicio junto a *Run As** (Ejecutar como). #### Eliminar una cuenta de servicio asociada a una aplicación @@ -119,8 +119,11 @@ App Builder proporciona los siguientes permisos para cada aplicación: Viewer (Visor) : Ejecuta y visualiza la aplicación +Colaborador +: Editar, ejecutar y ver la aplicación + Editor -: Edita, ejecuta y visualiza la aplicación +: Editar, ejecutar, visualizar, publicar y eliminar la aplicación Para restringir el acceso a la aplicación, realiza los siguientes pasos en el lienzo de la aplicación: 1. Ve a la vista de edición detallada de la aplicación a la cual quieres restringir el acceso. diff --git a/content/es/agent/guide/environment-variables.md b/content/es/agent/guide/environment-variables.md index 9aeec95dc4386..e24eaa0306d40 100644 --- a/content/es/agent/guide/environment-variables.md +++ b/content/es/agent/guide/environment-variables.md @@ -1,4 +1,7 @@ --- +description: Configura los ajustes de Datadog Agent utilizando variables de entorno + como alternativa a datadog.yaml, incluidas las convenciones de nomenclatura y el + uso de systemd. further_reading: - link: /agent/docker/#environment-variables tag: Documentación @@ -16,7 +19,7 @@ title: Variables de entorno del Agent ---
-En el Agent v5, consulta el repositorio GitHub del Docker Agent. +Para Agent v5, consulta el repositorio de GitHub del Docker Agent.
## Información general @@ -105,7 +108,7 @@ A partir del Agent v7.45, el servicio del Agent de Datadog (unidad`datadog-agent ``` GODEBUG=x509ignoreCN=0,x509sha1=1 DD_HOSTNAME=myhost.local - DD_TAGS=env:dev,service:foo + DD_TAGS=env:dev service:foo ``` 3. Reinicia el servicio para que se apliquen los cambios diff --git a/content/es/agent/troubleshooting/send_a_flare.md b/content/es/agent/troubleshooting/send_a_flare.md index f0db06ca74e05..a55a4aa455e51 100644 --- a/content/es/agent/troubleshooting/send_a_flare.md +++ b/content/es/agent/troubleshooting/send_a_flare.md @@ -30,7 +30,7 @@ Cuando te pongas en contacto con el servicio de asistencia de Datadog con la con ## Enviar un flare desde el sitio de Datadog {{< site-region region="gov" >}} -
El envío de un flare del Agent desde Fleet Automation no es compatible con este sitio.
+
El envío de un Flare del Agent desde Fleet Automation no es compatible con este sitio.
{{< /site-region >}} Para enviar un flare desde el sitio de Datadog, asegúrate de haber habilitado la [automatización de flotas][2] y la [configuración remota][3] en el Agent. @@ -157,5 +157,5 @@ kubectl cp datadog-:tmp/datadog-agent-.zip flare.zi [1]: https://github.com/DataDog/datadog-agent/tree/main/pkg/flare [2]: /es/agent/fleet_automation/ -[3]: /es/agent/remote_config#enabling-remote-configuration +[3]: /es/agent/guide/setup_remote_config [4]: /es/tracing/troubleshooting/tracer_debug_logs/?code-lang=dotnet#data-collected \ No newline at end of file diff --git a/content/es/containers/csi_driver/_index.md b/content/es/containers/csi_driver/_index.md deleted file mode 100644 index 26d262f16f29c..0000000000000 --- a/content/es/containers/csi_driver/_index.md +++ /dev/null @@ -1,297 +0,0 @@ ---- -description: Observabilidad de alto rendimiento para entornos Kubernetes seguros mediante - el controlador CSI de Datadog -further_reading: -- link: https://www.datadoghq.com/blog/datadog-csi-driver/ - tag: Blog - text: Llevar la observabilidad de alto rendimiento a entornos Kubernetes seguros - con el controlador CSI de Datadog -title: Controlador CSI de Datadog ---- - -## Información general - -Esta página proporciona información general sobre el controlador CSI de Datadog e instrucciones de instalación en un clúster Kubernetes - -Para obtener más información sobre Kubernetes Container Storage Interface (CSI), consulta la [documentación sobre Kubernetes CSI][4]. - -El controlador CSI de Datadog es [open source][1]. - -
- El controlador CSI de Datadog no es compatible con Windows. -
- -## Cómo funciona - -El controlador CSI de Datadog es un DaemonSet que ejecuta un servidor gRPC implementando las especificaciones CSI en cada nodo de tu clúster Kubernetes. - -La instalación del controlador CSI de Datadog en un clúster Kubernetes permite utilizar volúmenes CSI especificando el nombre del controlador CSI de Datadog. - -El servidor del nodo CSI de Datadog es responsable de gestionar el ciclo de vida de los volúmenes CSI de Datadog. - -## ¿Por qué utilizar el controlador CSI de Datadog? - -El controlador CSI de Datadog permite al Datadog Agent compartir sockets de dominio Unix de Trace Agent y DogStatsD con pods de usuario independientemente de las [normas de seguridad para pods][4] de los espacios de nombres. - -Si no se utilizan volúmenes CSI, los sockets UDS deben compartirse con el pod de usuario a través de volúmenes hostpath. Si el pod de usuario se está ejecutando en un espacio de nombres que tiene normas de seguridad para pods sin privilegios, el pod falla al iniciarse porque los volúmenes hostpath no están permitidos en ese contexto. - -El controlador CSI de Datadog desplaza el volumen hostpath de la aplicación de usuario al servidor del nodo CSI: el DaemonSet CSI se ejecuta en un espacio de nombres privilegiado independiente y permite inyectar sockets UDS en pods de usuario con un volumen CSI de Datadog, lo que permite que los pods de usuario se ejecuten en espacios de nombres con normas de seguridad para pods `baseline` o `restricted`. - -## Instalación y activación - -
-Notas: -
    -
  • Requiere Helm. -
  • El controlador CSI de Datadog debe ejecutarse con un contexto de seguridad privilegiado. Esto es necesario para que el controlador CSI de Datadog pueda montar volúmenes desde el sistema de archivos host a los pods de usuario. -
-
- -{{< tabs >}} - -{{% tab "Helm" %}} - -Para instalar y activar el controlador CSI de Datadog, configura `datadog.csi.enabled` como `true` en el Helm chart del Datadog Agent. - - ```shell - helm repo add datadog https://helm.datadoghq.com - helm repo update - - helm install datadog-agent datadog/datadog --set datadog.csi.enabled=true - ``` - -{{% /tab %}} - -{{% tab "Datadog Operator" %}} - -Si el Datadog Agent se despliega utilizando el Datadog Operator, debes instalar el Helm chart del controlador CSI de Datadog antes de activar Datadog CSI en el Datadog Agent. - -1. **Añade el repositorio Helm de Datadog CSI.** - - Ejecuta: - ```shell - helm repo add datadog-csi-driver https://helm.datadoghq.com - helm repo update - - ``` - -2. **Instala el Helm chart del controlador CSI de Datadog.** - - Ejecuta: - - ```shell - helm install datadog-csi-driver datadog/datadog-csi-driver - ``` - -3. **Activa Datadog CSI en tu recurso `DatadogAgent`.** - - ``` - apiVersion: datadoghq.com/v2alpha1 - kind: DatadogAgent - metadata: - name: datadog - spec: - global: - credentials: - apiSecret: - secretName: datadog-secret - keyName: api-key - csi: - enabled: true - ``` - -{{% /tab %}} - -{{% tab "DaemonSet" %}} - -Si el Datadog Agent se despliega utilizando el DaemonSet, debes instalar el Helm chart del controlador CSI de Datadog antes de activar el controlador CSI de Datadog en el Datadog Agent. - -1. **Añade el repositorio Helm del controlador CSI de Datadog.** - - Ejecuta: - ```shell - helm repo add datadog-csi-driver https://helm.datadoghq.com - helm repo update - - ``` - -2. **Instala el Helm chart del controlador CSI de Datadog.** - - Ejecuta: - - ```shell - helm install datadog-csi-driver datadog/datadog-csi-driver - ``` - -3. **Activa Datadog CSI**. - - Para activar el controlador CSI de Datadog, configura la siguiente variable de entorno en el contenedor del Datadog Cluster Agent: - - ``` - DD_CSI_DRIVER_ENABLED=true - ``` -{{% /tab %}} - -{{< /tabs >}} - -### Compatibilidad con GKE Autopilot - -A partir del Helm chart versión 3.138.0 del Datadog Agent y del Helm chart versión 0.4.2 del controlador CSI de Datadog, el controlador CSI de Datadog puede instalarse en los clústeres de Google Kubernetes Engine (GKE) Autopilot. - -> **Nota:** -> Si el controlador CSI no se instala utilizando el Helm chart, crea el siguiente recurso `AllowlistSynchronizer` para activar la compatibilidad con GKE Autopilot: - -```yaml -apiVersion: auto.gke.io/v1 -kind: AllowlistSynchronizer -metadata: - name: datadog-csi-synchronizer -spec: - allowlistPaths: - - Datadog/datadog-csi-driver/datadog-datadog-csi-driver-daemonset-exemption-v1.0.1.yaml -``` - -## Volúmenes Datadog CSI - -Los volúmenes CSI procesados por el controlador CSI de Datadog deben tener el siguiente formato: - -```yaml -csi: - driver: k8s.csi.datadoghq.com - volumeAttributes: - type: -name: -``` - -Por ejemplo: - -```yaml -apiVersion: v1 -kind: Pod -metadata: - name: pod-name -spec: - containers: - - name: ubuntu - image: ubuntu - command: ["/bin/bash", "-c", "--"] - args: ["while true; do sleep 30; echo hello-ubuntu; done;"] - volumeMounts: - - mountPath: /var/sockets/apm/ - name: dd-csi-volume-apm-dir - - mountPath: /var/sockets/dsd/dsd.sock - name: dd-csi-volume-dsd - volumes: - - name: dd-csi-volume-dsd - csi: - driver: k8s.csi.datadoghq.com - volumeAttributes: - type: DSDSocket - - name: dd-csi-volume-apm-dir - csi: - driver: k8s.csi.datadoghq.com - volumeAttributes: - type: APMSocketDirectory -``` - -Se admiten cuatro tipos de volumen CSI: -* [APMSocket](#apmsocket) -* [APMSocketDirectory](#apmsocketdirectory) -* [DSDSocket](#dsdsocket) -* [DSDSocketDirectory](#dsdsocketdirectory) - -### APMSocket - -Este tipo es útil para montar un archivo de socket UDS en el Trace Agent. - -Por ejemplo: - -```yaml -csi: - driver: k8s.csi.datadoghq.com - volumeAttributes: - type: APMSocket -name: datadog-apm -``` - -Si el socket indicado no existe, la operación de montaje falla y el pod se bloquea en la fase `ContainerCreating`. - -### APMSocketDirectory - -Este tipo es útil para montar el directorio que contiene el socket APM. - -Por ejemplo: - -```yaml -csi: - driver: k8s.csi.datadoghq.com - readOnly: false - volumeAttributes: - type: APMSocketDirectory -name: datadog -``` - -### DSDSocket - -Este tipo es útil para montar un archivo de socket UDS DogStatsD. - -Por ejemplo: - -```yaml -csi: - driver: k8s.csi.datadoghq.com - volumeAttributes: - type: DSDSocket -name: datadog-dsd -``` - -Si el socket indicado no existe, la operación de montaje falla y el pod se bloquea en la fase `ContainerCreating`. - -### DSDSocketDirectory - -Este tipo es útil para montar el directorio que contiene el socket DogStatsD. - -Por ejemplo: - -```yaml -csi: - driver: k8s.csi.datadoghq.com - readOnly: false - volumeAttributes: - type: DSDSocketDirectory -name: datadog -``` - -
-Con el Datadog Agent v7.67 o posterior, el Admission Controller puede montar automáticamente sockets UDS Datadog en pods mutados configurando el modo de configuración de inyección en csi. Para obtener más información, consulta Admission Controller: Configurar el modo de comunicación de APM y DogStatsD . - -Con la configuración predeterminada del Datadog Agent, el Admission Controller inyecta APMSocketDirectory o DSDSocketDirectory. Si los sockets del Trace Agent y DogStatsD están ambos en el mismo directorio en el host, solo se inyecta un volumen, ya que esto proporciona posteriormente acceso a ambos sockets que comparten el mismo directorio en el host. -
- -## Cuestiones de seguridad - -El controlador CSI de Datadog requiere privilegios elevados y acceso específico al host. - -### Contexto de seguridad privilegiado -El controlador CSI de Datadog debe ejecutarse como contenedor privilegiado para realizar operaciones de montaje y acceder al sistema de archivos del host. - -### Acceso a /var/lib/kubelet/pods -El controlador CSI de Datadog necesita acceso de lectura-escritura al directorio `/var/lib/kubelet/pods`, ya que Kubernetes administra volúmenes de pods utilizando este directorio. El controlador CSI de Datadog debe acceder a `/var/lib/kubelet/pods` para inyectar sockets de dominio Unix Datadog en pods de usuario. - -### Propagación bidireccional de montajes -La propagación bidireccional de montajes es necesaria para garantizar que los montajes de volúmenes del servidor del nodo CSI de Datadog sean visibles tanto para el host como para los pods de usuario. Sin la propagación bidireccional de montajes, los sockets compartidos no pueden propagarse correctamente a los pods. - -Al aislar el controlador CSI de Datadog en un espacio de nombres privilegiado, los clústeres Kubernetes pueden compartir de forma segura sockets Datadog con pods de usuario que se ejecutan bajo estrictas normas de seguridad para pods como baseline o restricted, a la vez que se minimizan los riesgos de seguridad. - -
- Limita el acceso al espacio de nombres y la configuración del controlador CSI de Datadog a operadores de confianza. Si los privilegios elevados del controlador CSI de Datadog están mal configurados, estos privilegios pueden ser mal utilizados. -
- -## Referencias adicionales - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: https://github.com/DataDog/datadog-csi-driver -[2]: https://hub.docker.com/r/datadog/csi-driver -[3]: https://kubernetes-csi.github.io/docs/introduction.html -[4]: https://kubernetes.io/docs/concepts/security/pod-security-standards/ \ No newline at end of file diff --git a/content/es/containers/kubernetes/tag.md b/content/es/containers/kubernetes/tag.md index bbf22a5d29939..550f396f3165d 100644 --- a/content/es/containers/kubernetes/tag.md +++ b/content/es/containers/kubernetes/tag.md @@ -2,6 +2,8 @@ aliases: - /es/agent/autodiscovery/tag/ - /es/agent/kubernetes/tag +description: Configurar la extracción automática de etiquetas a partir de las etiquetas + (labels) y anotaciones de pod de Kubernetes para mejorar la monitorización further_reading: - link: /getting_started/tagging/ tag: Documentación @@ -17,53 +19,54 @@ title: Extracción de etiquetas de Kubernetes El Datadog Agent puede asignar automáticamente etiquetas a métricas, trazas y logs emitidos por un pod (o un contenedor individual dentro de un pod) basándose en etiquetas o anotaciones. -## Etiquetas predefinidas +## Etiquetas (tags) predefinidas La lista de etiquetas asignadas automáticamente depende de la [configuración de cardinalidad][1] del Agent. La [cardinalidad de las etiquetas][4] se añade antes de la ingesta y puede afectar a la facturación, ya que las distintas configuraciones de cardinalidad influyen en el número de métricas emitidas.
- | Etiqueta | Cardinalidad | Fuente | Requisito | - |-------------------------------|--------------|------------------------------------------------------------------------------------------------------------------------------|-----------------------------------------------------| - | `container_id` | Alta | Estado del pod | N/A | - | `display_container_name` | Alta | Estado del pod | N/A | - | `pod_name` | Orquestador | Metadatos del pod | N/A | - | `oshift_deployment` | Orquestador | Anotación del pod `openshift.io/deployment.name` | El entorno de OpenShift y la anotación del pod debe existir | - | `kube_ownerref_name` | Orquestador | Referencia del propietario del pod | El pod debe tener un propietario | - | `kube_job` | Orquestador | Referencia del propietario del pod | El pod debe estar adjunto a un cronjob | - | `kube_job` | Baja | Referencia del propietario del pod | El pod debe estar adjunto a un trabajo | - | `kube_replica_set` | Baja | Referencia del propietario del pod | El pod debe estar adjunto a un conjunto de réplica | - | `kube_service` | Baja | Detección de servicios de Kubernetes | El pod está detrás de un servicio de Kubernetes | - | `kube_daemon_set` | Baja | Referencia del propietario del pod | El pod debe estar adjunto a un DaemonSet | - | `kube_container_name` | Baja | Estado del pod | N/A | - | `kube_namespace` | Baja | Metadatos del pod | N/A | - | `kube_app_name` | Baja | Etiqueta del pod `app.kubernetes.io/name` | La etiqueta del pod debe existir | - | `kube_app_instance` | Baja | Etiqueta del pod `app.kubernetes.io/instance` | La etiqueta del pod debe existir | - | `kube_app_version` | Baja | Etiqueta del pod `app.kubernetes.io/version` | La etiqueta del pod debe existir | - | `kube_app_component` | Baja | Etiqueta del pod `app.kubernetes.io/component` | La etiqueta del pod debe existir | - | `kube_app_part_of` | Baja | Etiqueta del pod `app.kubernetes.io/part-of` | La etiqueta del pod debe existir | - | `kube_app_managed_by` | Baja | Etiqueta del pod `app.kubernetes.io/managed-by` | La etiqueta del pod debe existir | - | `env` | Baja | Etiqueta del pod `tags.datadoghq.com/env` o variable de entorno del contenedor (`DD_ENV` o `OTEL_RESOURCE_ATTRIBUTES`) | [Etiquetado unificado de servicios][2] activado | - | `version` | Baja | Etiqueta del pod `tags.datadoghq.com/version` o variable de entorno del contenedor (`DD_VERSION` o `OTEL_RESOURCE_ATTRIBUTES`) | [Etiquetado unificado de servicios][2] activado | - | `service` | Baja | Etiqueta del pod `tags.datadoghq.com/service` o variable de entorno del contenedor (`DD_SERVICE`, `OTEL_RESOURCE_ATTRIBUTES` o `OTEL_SERVICE_NAME`) | [Etiquetado unificado de servicios][2] activado | - | `pod_phase` | Baja | Estado del pod | N/A | - | `oshift_deployment_config` | Baja | Anotación del pod `openshift.io/deployment-config.name` | El entorno de OpenShift y la anotación del pod debe existir | - | `kube_ownerref_kind` | Baja | Referencia del propietario del pod | El pod debe tener un propietario | - | `kube_deployment` | Baja | Referencia del propietario del pod | El pod debe estar adjunto a un despliegue | - | `kube_replication_controller` | Baja | Referencia del propietario del pod | El pod debe estar adjunto a un controlador de replicación | - | `kube_stateful_set` | Baja | Referencia del propietario del pod | El pod debe estar adjunto a un statefulset | - | `persistentvolumeclaim` | Baja | Especificación del pod | Un PVC debe estar adjunto al pod | - | `kube_cronjob` | Baja | Referencia del propietario del pod | El pod debe estar adjunto a un cronjob | - | `image_name` | Baja | Especificación del pod | N/A | - | `short_image` | Baja | Especificación del pod | N/A | - | `image_tag` | Baja | Especificación del pod | N/A | - | `eks_fargate_node` | Baja | Especificación del pod | Entorno de EKS Fargate | - | `kube_runtime_class` | Baja | Especificación del pod | El pod debe estar adjunto a una clase de tiempo de ejecución | - | `gpu_vendor` | Baja | Especificación del pod | El contenedor debe estar adjunto a un recurso de GPU | - | `image_id` | Baja | ID de imagen del contenedor | N/A | - | `kube_autoscaler_kind` | Baja | Tipo de escalador automático de Kubernetes | Se debe utilizar un escalador automático de Kubernetes | - | `kube_priority_class` | Baja | Clase de prioridad del pod | El pod debe tener un conjunto de clase de prioridad | - | `kube_qos` | Baja | Clase de calidad de servicio del pod | N/A | + | Tag (Etiqueta) | Cardinalidad | Source (Fuente) | Requisito | + |-------------------------------|--------------|-------------------------------------------------------------------------------------------------------------------------------|-----------------------------------------------------| + | `container_id` | Alto | Estado del pod | N/A | + | `display_container_name` | Alto | Estado del pod | N/A | + | `pod_name` | Orquestador | Metadatos del pod | N/A | + | `oshift_deployment` | Orquestador | Anotación del pod `openshift.io/deployment.name` | El entorno de OpenShift y la anotación del pod deben existir | + | `kube_ownerref_name` | Orquestador | Referencia del propietario del pod | El pod debe tener un propietario | + | `kube_job` | Orquestador | Referencia del propietario del pod | El pod debe estar asociado a un job (generic) programado | + | `kube_job` | Bajo | Referencia del propietario del pod | El pod debe estar asociado a un job (generic) | + | `kube_replica_set` | Bajo | Referencia del propietario del pod | El pod debe estar asociado a un conjunto de réplicas | + | `kube_service` | Bajo | Descubrimiento de servicios de Kubernetes | El pod está detrás de un servicio de Kubernetes | + | `kube_daemon_set` | Bajo | Referencia del propietario del pod | El pod debe estar asociado a un DaemonSet | + | `kube_container_name` | Bajo | Estado del pod | N/A | + | `kube_namespace` | Bajo | Metadatos del pod | N/A | + | `kube_app_name` | Bajo | Etiqueta del pod `app.kubernetes.io/name` | La etiqueta del pod debe existir | + | `kube_app_instance` | Bajo | Etiqueta del pod `app.kubernetes.io/instance` | La etiqueta del pod debe existir | + | `kube_app_version` | Bajo | Etiqueta del pod `app.kubernetes.io/version` | La etiqueta del pod debe existir | + | `kube_app_component` | Bajo | Etiqueta del pod `app.kubernetes.io/component` | La etiqueta del pod debe existir | + | `kube_app_part_of` | Bajo | Etiqueta del pod `app.kubernetes.io/part-of` | La etiqueta del pod debe existir | + | `kube_app_managed_by` | Bajo | Etiqueta del pod `app.kubernetes.io/managed-by` | La etiqueta del pod debe existir | + | `env` | Bajo | Etiqueta del pod `tags.datadoghq.com/env` o variable de entorno del contenedor (`DD_ENV` o `OTEL_RESOURCE_ATTRIBUTES`) | [Etiquetado de servicio unificado][2] activado | + | `version` | Bajo | Etiqueta del pod `tags.datadoghq.com/version` o variable de entorno del contenedor (`DD_VERSION` o `OTEL_RESOURCE_ATTRIBUTES`) | [Etiquetado de servicio unificado][2] activado | + | `service` | Bajo | Etiqueta del pod `tags.datadoghq.com/service` o variable de entorno del contenedor (`DD_SERVICE`, `OTEL_RESOURCE_ATTRIBUTES` o `OTEL_SERVICE_NAME`) | [Etiquetado de servicio unificado][2] activado | + | `pod_phase` | Bajo | Estado del pod | N/A | + | `oshift_deployment_config` | Bajo | Anotación del pod `openshift.io/deployment-config.name` | El entorno de OpenShift y la anotación del pod deben existir | + | `kube_ownerref_kind` | Bajo | Referencia del propietario del pod | El pod debe tener un propietario | + | `kube_deployment` | Bajo | Referencia del propietario del pod | El pod debe estar asociado a un despliegue | + | `kube_argo_rollout` | Bajo | Referencia del propietario del pod | El pod debe estar asociado a un lanzamiento de argo | + | `kube_replication_controller` | Bajo | Referencia del propietario del pod | El pod debe estar asociado a un controlador de replicación | + | `kube_stateful_set` | Bajo | Referencia del propietario del pod | El pod debe estar a un conjunto completo de estados | + | `persistentvolumeclaim` | Bajo | Especificación del pod | Un PVC debe estar asociado al pod | + | `kube_cronjob` | Bajo | Referencia del propietario del pod | El pod debe estar a un job (generic) programado | + | `image_name` | Bajo | Especificación del pod | N/A | + | `short_image` | Bajo | Especificación del pod | N/A | + | `image_tag` | Bajo | Especificación del pod | N/A | + | `eks_fargate_node` | Bajo | Especificación del pod | Entorno de EKS Fargate | + | `kube_runtime_class` | Bajo | Especificación del pod | El pod debe estar asociado a una clase de tiempo de ejecución | + | `gpu_vendor` | Bajo | Especificación del pod | El contenedor de estar asociado a un recurso de GPU | + | `image_id` | Bajo | Identificador de imagen del contenedor | N/A | + | `kube_autoscaler_kind` | Bajo | Tipo de autoescalador de Kubernetes | Se debe utilizar el autoescalador de Kubernetes | + | `kube_priority_class` | Bajo | Clase de prioridad del pod | El pod debe tener un conjunto de clases de prioridad | + | `kube_qos` | Bajo | Clase de calidad del servicio del pod | N/A |
@@ -109,11 +112,13 @@ A partir de Agent v7.17+, Agent puede hacer Autodiscovery de etiquetas a partir com.datadoghq.ad.tags: '[":TAG_VALUE", ":"]' ``` -## Extracción de etiquetas (tags) +## Extracción de etiquetas ### Etiquetas de recursos de Kubernetes como etiquetas -A partir del Agent v7.58+, el Agent puede configurarse para recopilar etiquetas (labels) de cualquier recurso de Kubernetes y utilizarlas como etiquetas (tags) para adjuntarlas a todas las métricas, trazas y logs asociadas a ese recurso. +A partir de Agent v7.58+, el Agent puede configurarse para recopilar etiquetas (labels) de los recursos de Kubernetes y utilizarlas como etiquetas (tags). + +**Nota:** Las etiquetas no se aplican en cascada entre recursos primarios y secundarios. Por ejemplo, las etiquetas (labels) de un despliegue no se aplican automáticamente a los logs de sus pods secundarios. Para etiquetar los logs de pod, configura las etiquetas (labels) directamente en los pods. Esta opción de configuración es más genérica y debería preferirse a las siguientes opciones: - podLabelsAsTags @@ -122,7 +127,7 @@ Esta opción de configuración es más genérica y debería preferirse a las sig {{< tabs >}} -{{% tab "Datadog Operador" %}} +{{% tab "Datadog Operator" %}} Cada tipo de recurso debe especificarse en el formato `resourceType.apiGroup`, donde `resourceType` es el nombre en plural del recurso. @@ -159,7 +164,7 @@ spec: baz: qux ``` -Para Agent v7.24.0+, utiliza la siguiente configuración de variable de entorno para añadir todas las etiquetas (labels) de recurso como etiquetas a tus métricas. En este ejemplo, los nombres de etiquetas llevan el prefijo `_`: +Para el Agent v7.24.0+, utiliza la siguiente configuración de variables de entorno para añadir todas las etiquetas (labels) de recursos como etiquetas a tus métricas, excepto las de KSM (`kubernetes_state.*`). En este ejemplo, los nombres de las etiquetas de pod llevan el prefijo `_`: ```yaml apiVersion: datadoghq.com/v2alpha1 @@ -172,6 +177,7 @@ spec: pods: "*": _%%label%% ``` + {{% /tab %}} {{% tab "Helm" %}} @@ -201,7 +207,7 @@ datadog: baz: qux ``` -Para Agent v7.24.0+, utiliza la siguiente configuración de variable de entorno para añadir todas las etiquetas (labels) de recurso como etiquetas a tus métricas. En este ejemplo, los nombres de etiquetas llevan el prefijo `_`: +Para el Agent v7.24.0+, utiliza la siguiente configuración de variables de entorno para añadir todas las etiquetas (labels) de recursos como etiquetas a tus métricas, excepto las de KSM (`kubernetes_state.*`). En este ejemplo, los nombres de las etiquetas de pod llevan el prefijo `_`: ```yaml datadog: @@ -209,13 +215,14 @@ datadog: pods: "*": _%%label%% ``` + {{% /tab %}} {{% tab "Manual (DaemonSet)" %}} Cada tipo de recurso debe especificarse en el formato `resourceType.apiGroup`, donde `resourceType` es el nombre en plural del recurso. -Si un recurso específico se encuentra en el grupo de API vacío (por ejemplo, `pods` y `nodes`), puede especificarse utilizando `resourceType`. +Si un recurso específico se encuentra en el grupo de API vacío (por ejemplo `pods` y `nodes`), puede especificarse utilizando `resourceType`. Para extraer una determinada etiqueta (label) de nodo `` y transformarla como clave de etiqueta (tag) `` dentro de Datadog, añade la siguiente variable de entorno al Datadog Agent: @@ -229,13 +236,14 @@ Po ejemplo, podrías configurar: DD_KUBERNETES_RESOURCES_LABELS_AS_TAGS='{"nodes":{"kubernetes.io/arch": "arch"},"pods":{"baz":"qux"}}' ``` -Para Agent v7.24.0+, utiliza la siguiente configuración de variable de entorno para añadir todas las etiquetas (labels) de recurso como etiquetas a tus métricas. En este ejemplo, los nombres de etiquetas llevan el prefijo `_`: +Para el Agent v7.24.0+, utiliza la siguiente configuración de variables de entorno para añadir todas las etiquetas (labels) de recursos como etiquetas a tus métricas, excepto las de KSM (`kubernetes_state.*`). En este ejemplo, los nombres de las etiquetas de pod llevan el prefijo `_`: ```bash DD_KUBERNETES_RESOURCES_LABELS_AS_TAGS='{"pods":{"*": "_%%label%%"}}' ``` -{{% /tab%}} -{{< /tabs>}} + +{{% /tab %}} +{{< /tabs >}} **Notas**: Las métricas personalizadas pueden afectar a la facturación. Consulta la página [Facturación de métricas personalizadas][3] para más información. @@ -271,7 +279,9 @@ bar: quuz ### Anotaciones de recursos de Kubernetes como etiquetas -A partir del Agent v7.58+, el Agent puede configurarse para recopilar anotaciones de cualquier recurso de Kubernetes y utilizarlas como etiquetas (tags) para adjuntarlas a todas las métricas, trazas y logs asociadas a ese recurso. +A partir del Agent v7.58+, el Agent puede configurarse para recopilar anotaciones de los recursos de Kubernetes y utilizarlas como etiquetas. + +**Nota:** Las etiquetas no se aplican en cascada entre los recursos primarios y secundarios. Por ejemplo, las anotaciones en un despliegue no se aplican automáticamente a los logs de sus pods secundarios. Para etiquetar los logs de pod, configura las anotaciones directamente en los pods. Esta opción de configuración es más genérica y debería preferirse a las siguientes opciones: - podAnnotationsAsTags @@ -280,7 +290,7 @@ Esta opción de configuración es más genérica y debería preferirse a las sig {{< tabs >}} -{{% tab "Datadog Operador" %}} +{{% tab "Datadog Operator" %}} Cada tipo de recurso debe especificarse en el formato `resourceType.apiGroup`, donde `resourceType` es el nombre en plural del recurso. @@ -317,7 +327,7 @@ spec: baz: qux ``` -Para Agent v7.24.0+, utiliza la siguiente configuración de variable de entorno para añadir todas las anotaciones de recurso como etiquetas a tus métricas. En este ejemplo, los nombres de etiquetas para pods llevan el prefijo `_`: +Para el Agent v7.24.0+, utiliza la siguiente configuración de variables de entorno para añadir todas las anotaciones de recursos como etiquetas a tus métricas, excepto las de KSM (`kubernetes_state.*`). En este ejemplo, los nombres de las etiquetas de pod llevan el prefijo `_`: ```yaml apiVersion: datadoghq.com/v2alpha1 @@ -330,6 +340,7 @@ spec: pods: "*": _%%annotation%% ``` + {{% /tab %}} {{% tab "Helm" %}} @@ -359,7 +370,7 @@ datadog: baz: qux ``` -Para Agent v7.24.0+, utiliza la siguiente configuración de variable de entorno para añadir todas las anotaciones de recurso como etiquetas a tus métricas. En este ejemplo, los nombres de etiquetas para pods llevan el prefijo `_`: +Para el Agent v7.24.0+, utiliza la siguiente configuración de variables de entorno para añadir todas las anotaciones de recursos como etiquetas a tus métricas, excepto las de KSM (`kubernetes_state.*`). En este ejemplo, los nombres de las etiquetas de pod llevan el prefijo `_`: ```yaml datadog: @@ -367,6 +378,7 @@ datadog: pods: "*": _%%annotation%% ``` + {{% /tab %}} {{% tab "Manual (DaemonSet)" %}} @@ -387,13 +399,14 @@ Po ejemplo, podrías configurar: DD_KUBERNETES_RESOURCES_ANNOTATIONS_AS_TAGS='{"nodes":{"kubernetes.io/arch": "arch"},"pods":{"baz":"qux"}}' ``` -Para Agent v7.24.0+, utiliza la siguiente configuración de variable de entorno para añadir todas las anotaciones de recurso como etiquetas a tus métricas. En este ejemplo, los nombres de etiquetas para pods llevan el prefijo `_`: +Para el Agent v7.24.0+, utiliza la siguiente configuración de variables de entorno para añadir todas las anotaciones de recursos como etiquetas a tus métricas, excepto las de KSM (`kubernetes_state.*`). En este ejemplo, los nombres de las etiquetas de pod llevan el prefijo `_`: ```bash DD_KUBERNETES_RESOURCES_ANNOTATIONS_AS_TAGS='{"pods":{"*": "_%%annotation%%"}}' ``` -{{% /tab%}} -{{< /tabs>}} + +{{% /tab %}} +{{< /tabs >}} **Notas**: Las métricas personalizadas pueden afectar a la facturación. Consulta la página [Facturación de métricas personalizadas][3] para más información. @@ -464,7 +477,7 @@ spec: kubernetes.io/arch: arch ``` -Para Agent v7.24.0+, utiliza la siguiente configuración de variable de entorno para añadir todas las labels de nodo como etiquetas a tus métricas. En este ejemplo, los nombres de etiquetas llevan el prefijo `_`: +Para el Agent v7.24.0+, utiliza la siguiente configuración de variables de entorno para añadir todas las etiquetas (labels) de nodo como etiquetas a tus métricas, excepto las de KSM (`kubernetes_state.*`). En este ejemplo, los nombres de las etiquetas de pod llevan el prefijo `_`: ```yaml apiVersion: datadoghq.com/v2alpha1 @@ -474,7 +487,7 @@ metadata: spec: global: nodeLabelsAsTags: - "*": _%%label%% + "*": _%%label%% # Note: wildcards do not work for KSM metrics ``` {{% /tab %}} @@ -494,12 +507,13 @@ datadog: kubernetes.io/arch: arch ``` -Para Agent v7.24.0+, utiliza la siguiente configuración de variable de entorno para añadir todas las labels de nodo como etiquetas a tus métricas. En este ejemplo, los nombres de etiquetas llevan el prefijo `_`: +Para el Agent v7.24.0+, utiliza la siguiente configuración de variables de entorno para añadir todas las etiquetas (labels) de nodo como etiquetas a tus métricas, excepto las de KSM (`kubernetes_state.*`). En este ejemplo, los nombres de las etiquetas llevan el prefijo `_`: + ```yaml datadog: nodeLabelsAsTags: - "*": _%%label%% + "*": _%%label%% # Note: wildcards do not work for KSM metrics ``` {{% /tab %}} @@ -516,13 +530,13 @@ Po ejemplo, podrías configurar: DD_KUBERNETES_NODE_LABELS_AS_TAGS='{"kubernetes.io/arch":"arch"}' ``` -Para Agent v7.24.0+, utiliza la siguiente configuración de variable de entorno para añadir todas las labels de nodo como etiquetas a tus métricas. En este ejemplo, los nombres de etiquetas llevan el prefijo `_`: +Para el Agent v7.24.0+, utiliza la siguiente configuración de variables de entorno para añadir todas las etiquetas (labels) de nodo como etiquetas a tus métricas, excepto las de KSM (`kubernetes_state.*`). En este ejemplo, los nombres de las etiquetas llevan el prefijo `_`: ```bash DD_KUBERNETES_NODE_LABELS_AS_TAGS='{"*":"_%%label%%"}' ``` -{{% /tab%}} -{{< /tabs>}} +{{% /tab %}} +{{< /tabs >}} **Nota**: Las métricas personalizadas pueden modificar la facturación. Consulta la [página de facturación de métricas personalizadas][3] para obtener más información. @@ -563,7 +577,7 @@ spec: app: kube_app ``` -Para Agent v7.24.0+, utiliza la siguiente configuración de variable de entorno para añadir todas las labels de pod como etiquetas a tus métricas. En este ejemplo, los nombres de etiquetas llevan el prefijo `_`: +Para el Agent v7.24.0+, utiliza la siguiente configuración de variables de entorno para añadir todas las etiquetas (labels) de pod como etiquetas a tus métricas, excepto las de KSM (`kubernetes_state.*`). En este ejemplo, los nombres de las etiquetas llevan el prefijo `_`: ```yaml apiVersion: datadoghq.com/v2alpha1 @@ -573,7 +587,7 @@ metadata: spec: global: podLabelsAsTags: - "*": _%%label%% + "*": _%%label%% # Note: wildcards do not work for KSM metrics ``` {{% /tab %}} @@ -593,12 +607,12 @@ datadog: app: kube_app ``` -Para Agent v7.24.0+, utiliza la siguiente configuración de variable de entorno para añadir todas las labels de pod como etiquetas a tus métricas. En este ejemplo, los nombres de etiquetas llevan el prefijo `_`: +Para el Agent v7.24.0+, utiliza la siguiente configuración de variables de entorno para añadir todas las etiquetas (labels) de pod como etiquetas a tus métricas, excepto las de KSM (`kubernetes_state.*`). En este ejemplo, los nombres de las etiquetas llevan el prefijo `_`: ```yaml datadog: podLabelsAsTags: - "*": _%%label%% + "*": _%%label%% # Note: wildcards do not work for KSM metrics ``` {{% /tab %}} @@ -615,13 +629,13 @@ Po ejemplo, podrías configurar: DD_KUBERNETES_POD_LABELS_AS_TAGS='{"app":"kube_app"}' ``` -Para Agent v6.8.0+, utiliza la siguiente configuración de variable de entorno para añadir todas las labels de pod como etiquetas a tus métricas. En este ejemplo, los nombres de etiquetas llevan el prefijo `_`: +Para el Agent v7.24.0+, utiliza la siguiente configuración de variables de entorno para añadir todas las etiquetas (labels) de pod como etiquetas a tus métricas, excepto las de KSM (`kubernetes_state.*`). En este ejemplo, los nombres de las etiquetas llevan el prefijo `_`: ```bash DD_KUBERNETES_POD_LABELS_AS_TAGS='{"*":"_%%label%%"}' ``` -{{% /tab%}} -{{< /tabs>}} +{{% /tab %}} +{{< /tabs >}} **Nota**: Las métricas personalizadas pueden modificar la facturación. Consulta la [página de facturación de métricas personalizadas][3] para obtener más información. @@ -662,7 +676,7 @@ spec: app: kube_app ``` -Para Agent v7.24.0+, utiliza la siguiente configuración de variable de entorno para añadir todas las anotaciones de pod como etiquetas a tus métricas. En este ejemplo, los nombres de etiquetas llevan el prefijo `_`: +Para el Agent v7.24.0+, utiliza la siguiente configuración de variables de entorno para añadir todas las anotaciones de pod como etiquetas a tus métricas, excepto las de KSM (`kubernetes_state.*`). En este ejemplo, los nombres de las etiquetas llevan el prefijo `_`: ```yaml apiVersion: datadoghq.com/v2alpha1 @@ -672,7 +686,7 @@ metadata: spec: global: podAnnotationsAsTags: - "*": _%%label%% + "*": _%%annotation%% # Note: wildcards do not work for KSM metrics ``` {{% /tab %}} @@ -692,12 +706,12 @@ datadog: app: kube_app ``` -Para Agent v7.24.0+, utiliza la siguiente configuración de variable de entorno para añadir todas las anotaciones de pod como etiquetas a tus métricas. En este ejemplo, los nombres de etiquetas llevan el prefijo `_`: +Para el Agent v7.24.0+, utiliza la siguiente configuración de variables de entorno para añadir toda anotación de pod como etiquetas a tus métricas, excepto las de KSM (`kubernetes_state.*`). En este ejemplo, los nombres de las etiquetas llevan el prefijo `_`: ```yaml datadog: podAnnotationsAsTags: - "*": _%%label%% + "*": _%%annotation%% # Note: wildcards do not work for KSM metrics ``` {{% /tab %}} @@ -714,13 +728,13 @@ Po ejemplo, podrías configurar: DD_KUBERNETES_POD_ANNOTATIONS_AS_TAGS='{"app":"kube_app"}' ``` -Para Agent v7.24.0+, utiliza la siguiente configuración de variable de entorno para añadir todas las anotaciones de pod como etiquetas a tus métricas. En este ejemplo, los nombres de etiquetas llevan el prefijo `_`: +Para el Agent v7.24.0+, utiliza la siguiente configuración de variables de entorno para añadir todas las anotaciones de pod como etiquetas a tus métricas, excepto las de KSM (`kubernetes_state.*`). En este ejemplo, los nombres de las etiquetas llevan el prefijo `_`: ```bash DD_KUBERNETES_POD_ANNOTATIONS_AS_TAGS='{"*":"_%%annotation%%"}' ``` -{{% /tab%}} -{{< /tabs>}} +{{% /tab %}} +{{< /tabs >}} **Nota**: Las métricas personalizadas pueden modificar la facturación. Consulta la [página de facturación de métricas personalizadas][3] para obtener más información. @@ -761,7 +775,7 @@ spec: app: kube_app ``` -Para Agent v7.24.0+, utiliza la siguiente configuración de variable de entorno para añadir todas las labels de espacio de nombres como etiquetas a tus métricas. En este ejemplo, los nombres de etiquetas llevan el prefijo `_`: +Para el Agent v7.24.0+, utiliza la siguiente configuración de variables de entorno para añadir todas las etiquetas (labels) de espacio de nombres como etiquetas a tus métricas, excepto las de KSM (`kubernetes_state.*`). En este ejemplo, los nombres de las etiquetas llevan el prefijo `_`: ```yaml apiVersion: datadoghq.com/v2alpha1 @@ -771,7 +785,7 @@ metadata: spec: global: namespaceLabelsAsTags: - "*": _%%label%% + "*": _%%label%% # Note: wildcards do not work for KSM metrics ``` {{% /tab %}} @@ -791,12 +805,12 @@ datadog: app: kube_app ``` -Para Agent v7.24.0+, utiliza la siguiente configuración de variable de entorno para añadir todas las labels de espacio de nombres como etiquetas a tus métricas. En este ejemplo, los nombres de etiquetas llevan el prefijo `_`: +Para el Agent v7.24.0+, utiliza la siguiente configuración de variables de entorno para añadir todas las etiquetas (labels) de espacio de nombres como etiquetas a tus métricas, excepto las de KSM (`kubernetes_state.*`). En este ejemplo, los nombres de las etiquetas llevan el prefijo `_`: ```yaml datadog: namespaceLabelsAsTags: - "*": _%%label%% + "*": _%%label%% # Note: wildcards do not work for KSM metrics ``` {{% /tab %}} @@ -813,13 +827,13 @@ Po ejemplo, podrías configurar: DD_KUBERNETES_NAMESPACE_LABELS_AS_TAGS='{"app":"kube_app"}' ``` -Utiliza la siguiente configuración de variable de entorno para añadir todas las labels de espacio de nombres como etiquetas a tus métricas. En este ejemplo, los nombres de etiqueta llevan el prefijo `_`: +Para el Agent v7.24.0+, utiliza la siguiente configuración de variables de entorno para añadir todas las etiquetas (labels) de espacio de nombres como etiquetas a tus métricas, excepto las de KSM (`kubernetes_state.*`). En este ejemplo, los nombres de las etiquetas llevan el prefijo `_`: ```bash DD_KUBERNETES_NAMESPACE_LABELS_AS_TAGS='{"*":"_%%label%%"}' ``` -{{% /tab%}} -{{< /tabs>}} +{{% /tab %}} +{{< /tabs >}} **Nota**: Las métricas personalizadas pueden modificar la facturación. Consulta la [página de facturación de métricas personalizadas][3] para obtener más información. @@ -894,8 +908,8 @@ Por ejemplo: DD_CONTAINER_ENV_AS_TAGS='{"app":"kube_app"}' ``` -{{% /tab%}} -{{< /tabs>}} +{{% /tab %}} +{{< /tabs >}} **Nota**: Las métricas personalizadas pueden modificar la facturación. Consulta [Facturación de métricas personalizadas][3] para obtener más información. @@ -971,8 +985,8 @@ Por ejemplo: ```bash DD_CONTAINER_LABELS_AS_TAGS='{"app":"kube_app"}' ``` -{{% /tab%}} -{{< /tabs>}} +{{% /tab %}} +{{< /tabs >}} **Nota**: Las métricas personalizadas pueden modificar la facturación. Consulta [Facturación de métricas personalizadas][3] para obtener más información. @@ -980,7 +994,6 @@ DD_CONTAINER_LABELS_AS_TAGS='{"app":"kube_app"}' {{< partial name="whats-next/whats-next.html" >}} - [1]: /es/getting_started/tagging/assigning_tags/?tab=containerizedenvironments#environment-variables [2]: /es/getting_started/tagging/unified_service_tagging [3]: /es/account_management/billing/custom_metrics diff --git a/content/es/containers/monitoring/autoscaling.md b/content/es/containers/monitoring/autoscaling.md deleted file mode 100644 index dbd7f6996b5f1..0000000000000 --- a/content/es/containers/monitoring/autoscaling.md +++ /dev/null @@ -1,248 +0,0 @@ ---- -further_reading: -- link: https://www.datadoghq.com/blog/datadog-kubernetes-autoscaling/ - tag: Blog - text: Redimensionar cargas de trabajo y reducir costes con Datadog Kubernetes Autoscaling -- link: /infrastructure/containers/kubernetes_resource_utilization - tag: Documentación - text: Uso de recursos de Kubernetes -- link: /account_management/rbac/permissions - tag: Documentación - text: Permisos de roles en Datadog -- link: /agent/remote_config/ - tag: Documentación - text: Configuración remota -title: Kubernetes Autoscaling ---- - -Datadog Kubernetes Autoscaling monitoriza de forma continua tus recursos de Kubernetes para proporcionar recomendaciones inmediatas de escalado y escalado automático multidimensional de tus cargas de trabajo de Kubernetes. Puedes desplegar el escalado automático a través de la interfaz web de Datadog o con un recurso `DatadogPodAutoscaler` personalizado. - -## Cómo funciona -Datadog utiliza métricas de uso en tiempo real e históricas y señales de eventos de tus Datadog Agents existentes para hacer recomendaciones. De esta forma, puedes examinar estas recomendaciones y optar por desplegarlas. - -Por defecto, Datadog Kubernetes Autoscaling utiliza valores estimados de coste de CPU y memoria para mostrar oportunidades de ahorro y cálculos del impacto. También puedes utilizar Kubernetes Autoscaling junto con [Cloud Cost Management](#idle-cost-and-savings-estimates) para obtener informes basados en los costes exactos de tu tipo de instancia. - -El escalado automático de cargas de trabajo se realiza mediante un recurso `DatadogPodAutoscaler` personalizado que define el comportamiento del escalado a nivel de carga de trabajo individual. El Datadog Cluster Agent actúa como controlador de este recurso personalizado. - -Cada clúster puede tener un máximo de 1000 cargas de trabajo optimizadas con Datadog Kubernetes Autoscaler. - -### Compatibilidad - -- **Distribuciones**: Esta función es compatible con todas las [distribuciones Kubernetes compatibles][5] de Datadog. -- **Escalado automático de cargas de trabajo**: Esta función es una alternativa a Horizontal Pod Autoscaler (HPA) y a Vertical Pod Autoscaler (VPA). Datadog recomienda que elimines cualquier HPA o VPA de una carga de trabajo antes de utilizar Datadog Kubernetes Autoscaling para optimizarla. Estas cargas de trabajo se identifican en la aplicación en tu nombre. - -### Requisitos - -- La [configuración remota][1] debe estar activada para tu organización. Consulta [Activación de la configuración remota][2]. -- [Helm][3], para actualizar tu Datadog Agent. -- (Para usuarios del Datadog Operator) [CLI `kubectl`][4], para actualizar el Datadog Agent. -- Los siguientes permisos de usuario: - - Gestión de organización (necesario para la configuración remota) - - Escritura de claves de API (necesario para la configuración remota) - - Lectura del escalado de la carga de trabajo - - Escritura del escalado de la carga de trabajo - - Gestión del escalado automático - -## Configuración - -{{< tabs >}} -{{% tab "Datadog Operator" %}} - -1. Asegúrate de que estás utilizando la v1.8.0 o posterior del Datadog Operator. Para actualizar tu Datadog Operator: - -```shell -helm upgrade datadog-operator datadog/datadog-operator -``` - -2. Añade lo siguiente a tu archivo de configuración `datadog-agent.yaml`: - -```yaml -spec: - features: - orchestratorExplorer: - customResources: - - datadoghq.com/v1alpha2/datadogpodautoscalers - autoscaling: - workload: - enabled: true - eventCollection: - unbundleEvents: true - override: - clusterAgent: - image: - tag: 7.66.1 - env: - - name: DD_AUTOSCALING_FAILOVER_ENABLED - value: "true" - nodeAgent: - image: - tag: 7.66.1 # or 7.66.1-jmx - env: - - name: DD_AUTOSCALING_FAILOVER_ENABLED - value: "true" - - name: DD_AUTOSCALING_FAILOVER_METRICS - value: container.memory.usage container.cpu.usage - clusterChecksRunner: - image: - tag: 7.66.1 # or 7.66.1-jmx -``` - -3. El [controlador de admisión][1] está activado por defecto con el Datadog Operator. Si lo desactivaste, vuelve a activarlo añadiendo las siguientes líneas resaltadas a `datadog-agent.yaml`: - -{{< highlight yaml "hl_lines=4-5" >}} -... -spec: - features: - admissionController: - enabled: true -... -{{< /highlight >}} - -4. Aplica la configuración actualizada de `datadog-agent.yaml`: - -```shell -kubectl apply -n $DD_NAMESPACE -f datadog-agent.yaml -``` - -[1]: /es/containers/cluster_agent/admission_controller/ - -{{% /tab %}} -{{% tab "Helm" %}} - -1. Asegúrate de que estás utilizando el Agent y la v7.66.1 o posterior del Cluster Agent. Añade lo siguiente a tu archivo de configuración `datadog-values.yaml`: - -```yaml -datadog: - autoscaling: - workload: - enabled: true - kubernetesEvents: - unbundleEvents: true -``` - -2. El [controlador de admisión][1] está activado por defecto en el Datadog Helm chart. Si lo desactivaste, vuelve a activarlo añadiendo las siguientes líneas resaltadas a `datadog-values.yaml`: -{{< highlight yaml "hl_lines=5-6" >}} -... -clusterAgent: - image: - tag: 7.66.1 - admissionController: - enabled: true -... -{{< /highlight >}} - -3. Update your Helm version: - -```shell -helm repo update -``` - -4. Vuelve a desplegar el Datadog Agent con tu `datadog-values.yaml` actualizado: - -```shell -helm upgrade -f datadog-values.yaml datadog/datadog -``` - -[1]: /es/containers/cluster_agent/admission_controller/ - -{{% /tab %}} -{{< /tabs >}} - -### Estimaciones de costes y ahorros por inactividad - -{{< tabs >}} -{{% tab "With Cloud Cost Management" %}} -Si [Cloud Cost Management][1] está habilitado dentro de una organización, Datadog Kubernetes Autoscaling muestra estimaciones de costes y ahorros por inactividad, basadas en el coste exacto de tu facturación de las instancias subyacentes monitorizadas. - -Consulta las instrucciones de configuración de Cloud Cost para [AWS][2], [Azure][3] o [Google Cloud][4]. - -Los datos de Cloud Cost Management mejoran Kubernetes Autoscaling, pero no son necesarios. Todas las recomendaciones de cargas de trabajo y decisiones de escalado automático de Datadog son válidas y funcionales sin Cloud Cost Management. - -[1]: /es/cloud_cost_management -[2]: /es/cloud_cost_management/aws -[3]: /es/cloud_cost_management/azure -[4]: /es/cloud_cost_management/google_cloud -{{% /tab %}} - -{{% tab "Default" %}} -Si Cloud Cost Management **no** está activado, Datadog Kubernetes Autoscaling muestra estimaciones de costes y ahorros por inactividad utilizando las siguientes fórmulas y valores fijos: - -**Clúster inactivo**: `(max(cpu_usage, cpu_requests, cpu_capacity) - max(cpu_usage, cpu_requests)) *0.0295 + (max(memory_usage, memory_requests, memory_capacity) - max(memory_usage, memory_requests)) * 0.0053` - -**Carga de trabajo inactiva**: `(max(cpu_usage, cpu_requests) - cpu_usage) *0.0295 + (max(memory_usage, memory_requests) - memory_usage) * 0.0053` - -**Valores fijos**: -- 0,0295 $ por hora de núcleo de CPU -- 0,0053 $ por hora de GB de memoria - - -_Los valores de los costes fijos están sujetos a ajustes a lo largo del tiempo._ -{{% /tab %}} -{{< /tabs >}} - -## Utilización - -### Identificar recursos para redimensionar - -La [página de Resumen de Autoscaling][6] proporciona un punto de partida para que los equipos de plataforma comprendan todas las oportunidades de ahorro de recursos Kubernetes en toda una organización y filtren por clústeres y espacios de nombres clave. La [vista de Escalado de clústeres][7] proporciona información de cada clúster sobre la totalidad de CPU inactiva, el total de memoria inactiva y los costes. Haz clic en un clúster para obtener información detallada y una tabla de las cargas de trabajo del clúster. Si eres propietario de una aplicación o servicio individual, también puedes filtrar por el nombre de tu equipo o servicio directamente desde la [vista de la lista de Escalado de cargas de trabajo][8]. - -Haz clic en **Optimize** (Optimizar) en cualquier carga de trabajo para ver su recomendación de escalado. - -### Activar Autoscaling para una carga de trabajo - -Después de identificar una carga de trabajo para optimizar, Datadog recomienda inspeccionar su **recomendación de escalado**. También puedes hacer clic en **Configure Recommendation** (Configurar recomendación) para añadir restricciones o ajustar los niveles de uso objetivo. - -Cuando estés listo para activar Autoscaling para una carga de trabajo, tienes dos opciones de despliegue: - -- Haz clic en **Enable Autoscaling** (Activar Autoscaling). (Requiere permiso de escritura del escalado de cargas de trabajo). - - Datadog instala y configura automáticamente el escalado automático de esta carga de trabajo. - -- Despliega un recurso personalizado `DatadogPodAutoscaler`. - - Utiliza tu proceso de despliegue existente para orientar y configurar Autoscaling para tu carga de trabajo. - - {{% collapse-content title="Example DatadogPodAutoscaler CRD" level="h4" expanded=false id="id-for-anchoring" %}} - ```yaml - apiVersion: datadoghq.com/v1alpha2 - kind: DatadogPodAutoscaler - metadata: - name: - spec: - targetRef: - apiVersion: apps/v1 - kind: Deployment - name: - constraints: - # Adjust constraints as safeguards - maxReplicas: 50 - minReplicas: 1 - owner: Local - applyPolicy: - mode: Apply - objectives: - - type: PodResource - podResource: - name: cpu - value: - type: Utilization - utilization: 75 - ``` - {{% /collapse-content %}} - -### Desplegar recomendaciones manualmente - -Como alternativa al Autoscaling, también puedes desplegar manualmente las recomendaciones de escalado de Datadog. Cuando configures recursos para tus despliegues de Kubernetes, utiliza los valores sugeridos en las recomendaciones de escalado. También puedes hacer clic en **Export Recommendation** (Exportar recomendación) para ver un comando `kubectl patch` generado. - -## Referencias adicionales - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: /es/agent/remote_config -[2]: /es/agent/remote_config/?tab=configurationyamlfile#enabling-remote-configuration -[3]: https://helm.sh/ -[4]: https://kubernetes.io/docs/tasks/tools/install-kubectl/ -[5]: /es/containers/kubernetes/distributions -[6]: https://app.datadoghq.com/orchestration/scaling/summary -[7]: https://app.datadoghq.com/orchestration/scaling/cluster -[8]: https://app.datadoghq.com/orchestration/scaling/workload \ No newline at end of file diff --git a/content/es/dashboards/guide/custom_time_frames.md b/content/es/dashboards/guide/custom_time_frames.md index 8c60ca746f5f3..fbab53e5efe8e 100644 --- a/content/es/dashboards/guide/custom_time_frames.md +++ b/content/es/dashboards/guide/custom_time_frames.md @@ -13,7 +13,7 @@ Muchas de las vistas de Datadog pueden ajustarse a un marco temporal específico Para incrementar por mes, día, año, hora o minuto, resalta una parte del marco temporal y utiliza las teclas `[↑]` y `[↓]`: -{{< img src="dashboards/guide/custom_time_frames/increment_with_arrow_keys.mp4" video="true" alt="Incrementar el tiempo con teclas de flechas" width="500" >}} +{{< img src="dashboards/guide/custom_time_frames/increment_with_arrow_keys.mp4" video="true" alt="Incrementar el tiempo con teclas de flechas"="true" width="500" >}} ## Sintaxis admitidas @@ -41,7 +41,7 @@ Cualquier fecha fija puede introducirse como parte de un intervalo. Por ejemplo: ### Fechas relativas -Las fechas relativas **no** se actualizan con el tiempo; se calculan cuando se introducen. +Las fechas relativas se actualizan con el tiempo; se calculan a partir de la hora actual. {{< img src="dashboards/guide/custom_time_frames/custom_relative_time_frame.mp4" alt="Tipo de marco de tiempo relativo personalizado" video="true" width="500" >}} diff --git a/content/es/dashboards/template_variables.md b/content/es/dashboards/template_variables.md index 40fa85d1729f2..89bb38fb21ec4 100644 --- a/content/es/dashboards/template_variables.md +++ b/content/es/dashboards/template_variables.md @@ -43,7 +43,20 @@ Una variable de plantilla se determina por: * **Default Value** (Valor predeterminado): El valor de la etiqueta o el atributo que aparece automáticamente cuando se carga el dashboard. El valor por defecto es `*`. * **Available Values** (Valores disponibles): Los valores de la etiqueta o el atributo disponibles en el menú desplegable. Por defecto, `(all)`. La lista de valores disponibles siempre incluye `*`, que consulta todos los valores de la etiqueta o el atributo. -**Nota**: Si no ves la etiqueta o el atributo que buscas, puede deberse a que esos datos no se han informado a Datadog recientemente. Para obtener más información, consulta [Datos históricos][4]. +### Valores de las variables de plantilla +Los valores de las variables de plantilla (valores disponibles mediante los menús desplegables de variables de plantilla) se rellenan en función de las sources (fuentes) que utilizan los widgets del dashboard. Por ejemplo, si tu dashboard tiene widgets que consultan registros, solo se muestran los valores de los logs. Si tu dashboard tiene widgets que consultan logs, métricas y RUM, se mostrarán los valores de los logs, las métricas y el RUM. + +Para la mayoría de las sources (fuentes), los valores de las variables de plantilla son relevantes para el marco temporal global de tu dashboard. Por ejemplo: +- Si el intervalo de tiempo de tu dashboard se configura en los últimos 15 minutos, solo se mostrarán los valores de las variables de plantilla de los últimos 15 minutos. +- Si el marco temporal de tu dashboard está configurado para durar el 15 de agosto de 12:00 a 23:59, solo se mostrarán los valores de ese marco temporal. + +| Fuente de datos | Periodo de consulta de datos | +|-------------------------------------- |---------------------| +| Métricas | Ahora - 48 horas | +| Coste de la nube | Ahora - 48 horas | +| Todas las demás sources (fuentes) | Marco temporal del dashboard | + +**Nota**: Si no ves la etiqueta o el atributo que buscas, puede deberse a que esos datos no se hayan comunicado a Datadog recientemente. Además, todos los datos consultados para las variables de plantilla están sujetos a la política de conservación de datos. Para más información, consulta [Datos históricos][4]. ## Añadir una variable de plantilla Si las variables de plantilla ya están definidas, consulta [Editar una variable de plantilla](#edit-a-template-variable). Si tu dashboard no tiene ninguna variable de plantilla, puedes hacer clic en el icono del signo de interrogación para abrir un modal de ayuda sobre cómo utilizar las variables del dashboard. diff --git a/content/es/database_monitoring/connect_dbm_and_apm.md b/content/es/database_monitoring/connect_dbm_and_apm.md index d9ac037b24bf4..4f4913deca615 100644 --- a/content/es/database_monitoring/connect_dbm_and_apm.md +++ b/content/es/database_monitoring/connect_dbm_and_apm.md @@ -26,16 +26,19 @@ Privacidad de los datos Las integraciones del rastreador de APM admiten un *Modo de propagación*, que controla la cantidad de información que pasa de las aplicaciones a la base de datos. - El modo `full` envía información completa sobre la traza a la base de datos, lo que te permite investigar trazas individuales en DBM. Esta es la solución recomendada para la mayoría de las integraciones. -- El modo `service` envía el nombre del servicio, lo que te permite conocer qué servicios contribuyen a la carga de la base de datos. Este es el único modo compatible con las aplicaciones de Oracle. +- `service` envía el nombre del servicio, lo que permite saber qué servicios contribuyen a la carga de la base de datos. - El modo `disabled` deshabilita la propagación y no envía información desde las aplicaciones. -| DD_DBM_PROPAGATION_MODE | Postgres | MySQL | SQL Server | Oracle | MongoDB | -|:------------------------|:---------:|:-----------:|:----------:|:---------:|:----------:| -| `full` | {{< X >}} | {{< X >}} * | {{< X >}} | {{< X >}} | {{< X >}} | -| `service` | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | +| DD_DBM_PROPAGATION_MODE | Postgres | MySQL | SQL Server | Oracle | MongoDB | +|:------------------------|:---------:|:-----------:|:----------:|:------------:|:----------:| +| `full` | {{< X >}} | {{< X >}} * | {{< X >}} | {{< X >}} ** | {{< X >}} | +| `service` | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | \* El modo de propagación completa en Aurora MySQL requiere la versión 3. +\*\* El modo de propagación completa en Oracle solo es compatible con Java. + + **Rastreadores y controladores de aplicaciones compatibles** | Lenguaje | Biblioteca o marco | Postgres | MySQL | SQL Server | Oracle | MongoDB | @@ -112,7 +115,7 @@ Datadog recomienda establecer el modo de enmascaramiento en `obfuscate_and_norma sql_obfuscation_mode: "obfuscate_and_normalize" ``` -
Cambiar el modo de ofuscación puede alterar el texto SQL normalizado. Si tienes monitores basados en texto SQL en trazas de APM, es posible que tengas que actualizarlos.
+
Cambiar el modo de enmascaramiento puede alterar el texto SQL normalizado. Si tienes monitores basados en texto SQL en trazas de APM, puede que necesites actualizarlos.
{{< tabs >}} {{% tab "Go" %}} @@ -225,10 +228,10 @@ Habilita el rastreo de sentencias preparadas para Postgres mediante **uno** de l **Nota**: La instrumentación de sentencias preparadas sobrescribe la propiedad `Application` con el texto `_DD_overwritten_by_tracer`, y provocan un viaje de ida y vuelta adicional a la base de datos. Este viaje de ida y vuelta adicional normalmente tiene un impacto insignificante en el tiempo de ejecución de la sentencia SQL. -
La activación del rastreo de sentencias preparadas puede generar un aumento del pinning de conexión cuando se utiliza Amazon RDS Proxy, lo que reduce la eficacia de la agrupación de conexiones. Para obtener más información, consulta Pinning de conexión en RDS Proxy.
+
La activación del rastreo de sentencias preparadas puede provocar un aumento de la asignación de pines de conexión al utilizar Amazon RDS Proxy, lo que reduce la eficacia de la agrupación de conexión. Para obtener más información, consulta asignación de pines de conexión en RDS Proxy.
**Versiones del rastreador inferiores a 1.44**: -Las sentencias preparadas no son compatibles con el modo `full` para Postgres y MySQL, y todas las llamadas a la API de JDBC que utilizan sentencias preparadas se degradan automáticamente al modo `service`. Dado que la mayoría de las bibliotecas SQL de Java utilizan sentencias preparadas por defecto, esto significa que **la mayoría** de las aplicaciones Java sólo pueden utilizar el modo `service`. +Las sentencias preparadas no son compatibles con el modo `full` para Postgres y MySQL, y todas las llamadas a la API de JDBC que utilizan sentencias preparadas se degradan automáticamente al modo `service`. Dado que la mayoría de las bibliotecas SQL de Java utilizan sentencias preparadas por defecto, esto significa que **la mayoría** de las aplicaciones Java solo pueden utilizar el modo `service`. [1]: /es/tracing/trace_collection/dd_libraries/java/ [2]: /es/tracing/trace_collection/compatibility/java/#data-store-compatibility @@ -349,7 +352,7 @@ for doc in results: {{% tab ".NET" %}}
-Esta función requiere que la instrumentación automática se encuentre habilitada para tu servicio de .NET. +Esta función requiere que la instrumentación automática esté activada para tu servicio .NET.
Sigue las [instrucciones de rastreo de .NET Framework][1] o las [instrucciones de rastreo de .NET Core][2] a fin de instalar el paquete de instrumentación automática y habilitar el rastreo para tu servicio. @@ -369,7 +372,7 @@ Habilita la función de propagación de la monitorización de base de datos al e {{% tab "PHP" %}}
-Esta función requiere que la extensión del rastreador se encuentre habilitada para tu servicio de PHP. +Esta función requiere que la extensión de rastreo esté habilitada para tu servicio PHP.
Sigue las [instrucciones de rastreo de PHP][1] a fin de instalar el paquete de instrumentación automática y habilitar el rastreo para tu servicio. diff --git a/content/es/integrations/_index.md b/content/es/integrations/_index.md index 0d9e11be9fee3..81ed355d201af 100644 --- a/content/es/integrations/_index.md +++ b/content/es/integrations/_index.md @@ -15,12 +15,9 @@ aliases: - /es/integrations/shoreline_software_license/ - /es/integrations/pingdom_v3/ - /es/integrations/perimeterx/ +- /es/integrations/open-policy-agent/ +- /es/integrations/open_policy_agent/ cascade: -- _target: - lang: en - path: /integrations/akamai-datastream-2 - aliases: - - /integrations/akamai_datastream - _target: lang: en path: /integrations/azure @@ -78,99 +75,6 @@ cascade: subcategory: Integraciones tags: - visor de eventos - aliases: - - /integrations/eventviewer/ -- _target: - lang: en - path: /integrations/lambdatest-software-license - aliases: - - /integrations/lambdatest_software_license/ -- _target: - lang: en - path: /integrations/rapdev-validator - aliases: - - /integrations/rapdev_dashboard_widget_pack/ -- _target: - lang: en - path: /integrations/wmi_check - aliases: - - /integrations/wmi/ -- _target: - lang: en - path: /integrations/jfrog-platform - aliases: - - /integrations/jfrog_platform/ -- _target: - lang: en - path: /integrations/komodor_license - aliases: - - /integrations/komodor_komodor/ -- _target: - lang: en - path: /integrations/stormforge_license - aliases: - - /integrations/stormforge_stormforge_license/ -- _target: - lang: en - path: /integrations/feed - aliases: - - /integrations/rss/ -- _target: - lang: en - path: /integrations/java - aliases: - - /agent/faq/jmx_integrations/ - - /agent/faq/docker-jmx/ -- _target: - lang: en - path: /integrations/amazon-elb - aliases: - - /integrations/awselb -- _target: - lang: en - path: /integrations/amazon-es - aliases: - - /integrations/awses -- _target: - lang: en - path: /integrations/amazon-s3 - aliases: - - /integrations/awss3 -- _target: - lang: en - path: /integrations/snowflake-web - aliases: - - /integrations/snowflake/ -- _target: - lang: en - path: /integrations/redpeaks-sap-netweaver - aliases: - - /integrations/agentil_software_sap_netweaver/ -- _target: - lang: en - path: /integrations/redpeaks-sap-businessobjects - aliases: - - /integrations/agentil_software_sap_businessobjects/ -- _target: - lang: en - path: /integrations/redpeaks-services-5-days - aliases: - - /integrations/agentil_software_services_5_days/ -- _target: - lang: en - path: /integrations/redpeaks-sap-hana - aliases: - - /integrations/agentil_software_sap_hana/ -- _target: - lang: en - path: /integrations/azure-virtual-network - aliases: - - /integrations/azure_virtual_networks -- _target: - lang: en - path: /integrations/amazon-event-bridge - aliases: - - /integrations/amazon_event_bridge description: Reúne datos de todos tus sistemas, aplicaciones y servicios disable_sidebar: true title: Integraciones diff --git a/content/es/integrations/guide/aws-manual-setup.md b/content/es/integrations/guide/aws-manual-setup.md index a15ac82d1dd56..9ec1e35b9b1ff 100644 --- a/content/es/integrations/guide/aws-manual-setup.md +++ b/content/es/integrations/guide/aws-manual-setup.md @@ -51,7 +51,7 @@ Para configurar manualmente la integración de AWS, crea una política y un rol {{< site-region region="gov" >}}
- La configuración de archivos de logs de S3 mediante la Delegación de roles tiene una disponibilidad limitada. Ponte en contacto con el servicio de asistencia de Datadog para solicitar esta función en tu cuenta Datadog for Government. + La configuración de S3 Log Archives mediante la delegación de roles tiene disponibilidad limitada. Ponte en contacto con el soporte de Datadog para solicitar esta función en tu cuenta de Datadog para el Gobierno.
{{< /site-region >}} @@ -59,71 +59,71 @@ Para configurar manualmente la integración de AWS, crea una política y un rol ### Generar un ID externo -1. En la [página de configuración de la integración AWS)][1], haz clic en **Add AWS Account(s)** (Añadir cuenta(s) de AWS) y, a continuación, selecciona **Manualmente**. -2. Elige la partición de AWS a la que está delimitada tu cuenta de AWS. La partición puede ser `aws` para regiones comerciales, `aws-cn` para China* o `aws-us-gov` para GovCloud. Para obtener más información, consulta [Particiones][2] en la documentación de AWS. +1. En la [página de configuración de la integración de AWS][1], haz clic en **Add AWS Account(s)** (Añadir cuentas de AWS) y, luego, selecciona **Manually** (Manualmente). +2. Elige a qué partición de AWS limitar tu cuenta de AWS. La partición es `aws` para regiones comerciales, `aws-cn` para China*, o `aws-us-gov` para GovCloud. Consulta [Parciones][2] en la documentación de AWS para obtener más información. {{< site-region region="us,us3,us5,eu,ap1,ap2" >}} -3. Selecciona `Role Delegation` para el tipo de acceso. La delegación de roles sólo es compatible con cuentas AWS delimitadas a regiones comerciales de AWS. +3. Selecciona `Role Delegation` para el tipo de acceso. La delegación de roles solo es compatible con las cuentas de AWS limitadas a regiones compatibles de AWS. {{< /site-region >}} {{< site-region region="gov" >}} -3. Selecciona `Role Delegation` para el tipo de acceso. La delegación de roles sólo es compatible con cuentas de AWS delimitadas a las regiones comerciales de AWS o AWS GovCloud. +3. Selecciona `Role Delegation` para el tipo de acceso. La delegación de roles solo es compatible con las cuentas de AWS limitadas a regiones comerciales de AWS o regiones AWS GovCloud. {{< /site-region >}} -4. Copia el `AWS External ID` Para obtener más información sobre el ID externo, consulta la [guía del usuario de IAM][3]. - **Nota**: El ID externo permanece disponible y no se regenera durante 48 horas, a menos que un usuario lo cambie explícitamente o que se añada otra cuenta de AWS a Datadog durante este periodo. Puedes volver a la página **Añadir cuenta(s) de AWS** dentro de ese periodo de tiempo sin que cambie el ID externo. +4. Copia el `AWS External ID`. Para obtener más información sobre el ID externo, lee la [guía del usuario de IAM][3]. + **Nota**: El ID externo sigue disponible y no se vuelve a generar por 48 horas, a menos que haya sido modificado explícitamente por un usuario u otra cuenta de AWS ha sido agregada a Datadog durante este periodo. Puedes volver a la página **Add AWS Account(s)** (Añadir cuentas de AWS) dentro de este periodo sin que cambie el ID externo. -### Crear un rol IAM para la integración Datadog +### Crear un rol de IAM en la integración de Datadog Datadog asume este rol para recopilar datos en tu nombre. -1. Ve a la [consola de IAM][4] de AWS y haz clic en `Create role` (Crear rol). -2. Selecciona **Cuenta de AWS** para el tipo de entidad de confianza, y **Otra cuenta de AWS**. +1. Ve a la [consola de IAM][4] de AWS y haz clic en `Create role`. +2. Selecciona **AWS account** (Cuenta de AWS) para el tipo de entidad de confianza y **Another AWS account** (Otra cuenta de AWS). {{< site-region region="us,us3,us5,eu" >}} -3. Introduce `464622532012` como `Account ID`. Este es el ID de la cuenta de Datadog y concede a Datadog acceso a tus datos de AWS. +3. Ingresa `464622532012` como el `Account ID`. Este es el ID de cuenta de Datadog y concede acceso a Datadog a tus datos de AWS. {{< /site-region >}} {{< site-region region="ap1" >}} -3. Introduce `417141415827` como `Account ID`. Este es el ID de la cuenta de Datadog y concede a Datadog acceso a tus datos de AWS. +3. Ingresa `417141415827` como el `Account ID`. Este es el ID de cuenta de Datadog y concede acceso a Datadog a tus datos de AWS. {{< /site-region >}} {{< site-region region="ap2" >}} -3. Introduce `412381753143` como `Account ID`. Este es el ID de la cuenta de Datadog y concede a Datadog acceso a tus datos de AWS. +3. Ingresa `412381753143` como el `Account ID`. Este es el ID de cuenta de Datadog y concede acceso a Datadog a tus datos de AWS. {{< /site-region >}} {{< site-region region="gov" >}} -3. Si la cuenta de AWS que quieres integrar es una cuenta GovCloud, introduce `065115117704` como `Account ID`. De lo contrario, introduce `392588925713`. Este es el ID de la cuenta de Datadog y concede a Datadog acceso a tus datos de AWS. +3. Si la cuenta de AWS que deseas integrar es una cuenta de GovCloud, ingresa `065115117704` como el `Account ID`, o sino ingresa `392588925713`. Este es el ID de cuenta de Datadog y concede acceso a Datadog a tus datos de AWS. {{< /site-region >}} -**Nota**: Asegúrate de que el selector de **SITIO DATADOG** de la derecha de esta página de documentación está configurado en tu sitio Datadog, antes de copiar el ID de cuenta anterior. +**Nota**: Asegúrate de que el selector de **DATADOG SITE** en la parte derecha de esta página de documentación esté configurado en tu sitio de Datadog antes de copiar el ID de cuenta anterior. -4. Selecciona **Solicitar ID externo** e introduce el ID externo copiado en la sección anterior. -Deja `Require MFA` desactivado. Para obtener más detalles, consulta la página [Acceder a cuentas de AWS que son propiedad de terceros][3] en la documentación de AWS. +4. Selecciona **Require external ID** (Solicitar ID externo) e ingresa el ID externo copiado en la sección anterior. +Deja `Require MFA` desactivado. Para obtener más detalles, consulta la página [Acceso a cuentas de AWS propiedad de terceros][3] en la documentación de AWS. 5. Haz clic en **Next** (Siguiente). -6. Para habilitar la [recopilación de recursos][5], adjunta la política AWS SecurityAudit al rol. +6. Para activar la [recopilación de recursos][5], adjunta la política de AWS SecurityAudit a el rol. 7. Haz clic en **Next** (Siguiente). -8. Asigna un nombre al rol, por ejemplo `DatadogIntegrationRole`. Opcionalmente, proporciona una descripción y añade etiquetas (tags) al rol. +8. Da un nombre al rol como `DatadogIntegrationRole`. Opcionalmente, brinda una descripción y añade las etiquetas al rol. 9. Haz clic en **Create Role** (Crear rol). -### Crear una política IAM en línea para el rol de la integración Datadog +### Crear un política de IAM en línea para el rol de integración de Datadog -Esta política define los permisos necesarios para que el rol de la integración Datadog recopile datos de cada integración AWS ofrecida por Datadog. Estos permisos pueden cambiar a medida que se añaden nuevos servicios AWS a esta integración. +Esta política define los permisos necesarios para el rol de integración de Datadog para recopilar datos para cada integración de AWS que ofrece Datadog. Estos permisos pueden cambiar a medida que se añaden nuevos servicios de AWS a esta integración. -1. Selecciona el rol de la integración Datadog en la [página de roles IAM)][4]. -2. Haz clic en **Add permissions** (Añadir permisos) y selecciona **Crear política en línea**. +1. Selecciona el rol de integración de Datadog en la [página de roles de IAM][4]. +2. Haz clic en **Add permissions** (Añadir permisos) y selecciona **Create inline policy** (Crear política en línea). 3. Selecciona la pestaña **JSON**. -4. Pega la [política de permisos](#aws-integration-iam-policy) en el cuadro de texto.
- **Nota**: Opcionalmente, puedes añadir elementos de [condición][6] a la política IAM. Por ejemplo, las condiciones se pueden utilizar para [restringir la monitorización a determinadas regiones][7]. +4. Pega las [políticas de permiso](#aws-integration-iam-policy) en el cuadro de texto.
+ **Nota**: Opcionalmente, puedes añadir los elementos de [Condición][6] a la política de IAM. Por ejemplo, las condiciones pueden utilizarse para [restringir la monitorización a ciertas regiones][7]. 5. Haz clic en **Next** (Siguiente). -6. Asigna a la política un nombre como `DatadogIntegrationPolicy`. +6. Nombra la política como `DatadogIntegrationPolicy`. 7. Haz clic en **Create policy** (Crear política). -### Finalizar la configuración en Datadog +### Completa la configuración en Datadog -1. Vuelve a la sección de configuración manual de la [página de configuración de la integración AWS][1]. -2. Haz clic en la casilla de verificación `I confirm that the Datadog IAM Role has been added to the AWS Account`. -3. En la sección **ID de cuenta**, introduce tu ID de cuenta **sin guiones**; por ejemplo, `123456789012`. Puedes encontrar el ID de cuenta en el ARN del rol de la integración Datadog, que sigue el formato `arn:aws:iam:::role/`. -4. En la sección **Nombre del rol AWS**, introduce el nombre del rol de la integración Datadog creado anteriormente. - **Nota**: El nombre del rol distingue entre mayúsculas y minúsculas, y debe coincidir exactamente con el nombre del rol en AWS. +1. Vuelve a la sección de configuración manual de la [página de configuración de la integración de AWS][1]. +2. Haz clic en la casilla `I confirm that the Datadog IAM Role has been added to the AWS Account`. +3. En la sección **Account ID** (ID de cuenta), ingresa tu ID de cuenta **sin guiones**; por ejemplo, `123456789012`. Puedes encontrar el ID de cuenta en el ARN del rol de integración de Datadog, que tiene el siguiente formato: `arn:aws:iam:::role/`. +4. En la sección **AWS Role Name** (Nombre de rol de AWS), ingresa el nombre del rol de integración de Datadog creado anteriormente. + **Nota**: El nombre de rol distingue mayúsculas y minúsculas y debe coincidir exactamente con el nombre de rol en AWS. 5. Haz clic en **Save** (Guardar). -6. Espera hasta 10 minutos para que se empiecen a recopilar datos y, a continuación, consulta el dashboard de información general de AWS para ver las métricas enviadas por tus servicios y tu infraestructura AWS. +6. Espera hasta 10 minutos para que los datos se empiecen a recopilar y, luego, consulta el Dashboard de información general de AWS predefinido para ver las métricas enviadas por tus servicios e infraestructura de AWS. -
Si se produce un error Datadog no tiene autorización para llevar a cabo sts:AssumeRole. Sigue los pasos de resolución de problemas recomendados en la interfaz de usuario o lee la guía de resolución de problemas.
+
Si hay un error Datadog is not authorized to perform sts:AssumeRole, sigue los pasos de solución de problemas recomendados en la interfaz de usuarios o lee la guía de solución de problemas.
-*\* Cualquier uso de los servicios Datadog en China continental (o relacionados con entornos de esta localización) está sujeto a la cláusula de exención de responsabilidad, publicada en la sección [Localizaciones con restricciones de servicio][8] de nuestro sitio web.* +\*{{% mainland-china-disclaimer %}} [1]: https://app.datadoghq.com/integrations/amazon-web-services [2]: https://docs.aws.amazon.com/whitepapers/latest/aws-fault-isolation-boundaries/partitions.html @@ -132,9 +132,8 @@ Esta política define los permisos necesarios para que el rol de la integración [5]: /es/integrations/amazon_web_services/#resource-collection [6]: https://docs.aws.amazon.com/IAM/latest/UserGuide/reference_policies_elements_condition.html [7]: https://aws.amazon.com/blogs/security/easier-way-to-control-access-to-aws-regions-using-iam-policies/ -[8]: https://www.datadoghq.com/legal/restricted-service-locations/ {{% /tab %}} -{{% tab "Access keys" %}} +{{% tab "Claves de acceso" %}} ## Configuración @@ -146,17 +145,16 @@ Esta política define los permisos necesarios para que el rol de la integración ### Datadog 3. En el [cuadro de integración de AWS][1], haz clic en **Add AWS Account** (Añadir cuenta de AWS) y, a continuación, selecciona **Manually** (Manualmente). -4. Selecciona la pestaña **Claves de acceso**. +4. Selecciona la pestaña **Access Keys** (Claves de acceso). 5. Elige la partición en AWS a la que se delimita tu cuenta AWS. La partición puede ser `aws` para regiones comerciales, `aws-cn` para China* o `aws-us-gov` para GovCloud. Consulta [Particiones][9] en la documentación de AWS para obtener más información. 5. Haz clic en la casilla de verificación **I confirm that the IAM User for the Datadog Integration has been added to the AWS Account** (Confirmo que el usuario de IAM para la integración de Datadog se ha añadido a la cuenta de AWS). 6. Introduce tu `Account ID`, `AWS Access Key` y `AWS Secret Key`. 7. Haz clic en **Save** (Guardar). 8. Espera hasta 10 minutos para que los datos comiencen a recopilarse y, a continuación, consulta el dashboard de resumen de AWS para ver las métricas enviadas por tus servicios e infraestructura de AWS . -*\* Cualquier uso de los servicios Datadog en China continental (o relacionados con entornos de esta localización) está sujeto a la cláusula de exención de responsabilidad, publicada en la sección [Localizaciones con restricciones de servicio][2] de nuestro sitio web.* +\*{{% mainland-china-disclaimer %}} [1]: https://app.datadoghq.com/integrations/amazon-web-services -[2]: https://www.datadoghq.com/legal/restricted-service-locations/ {{% /tab %}} {{< /tabs >}} diff --git a/content/es/integrations/guide/aws-terraform-setup.md b/content/es/integrations/guide/aws-terraform-setup.md index 794062073fe52..0cf7400dcbf26 100644 --- a/content/es/integrations/guide/aws-terraform-setup.md +++ b/content/es/integrations/guide/aws-terraform-setup.md @@ -12,63 +12,98 @@ title: La integración de AWS con Terraform Mediante el uso de [Terraform][1], puedes crear el rol IAM de Datadog, el documento de política y la integración Datadog-AWS con un único comando `terraform apply`. 1. Configura el proveedor de Terraform en Datadog][2] para interactuar con la API de Datadog a través de una configuración de Terraform. - * Si aún no lo ha hecho, configure `api_url` con la URL de la API de su sitio Datadog. + * Si aún no lo has hecho, configura `api_url` con la URL de la API de tu sitio Datadog. * **Nota**: El recurso `datadog_integration_aws_account` sustituyó al recurso `datadog_integration_aws` en la versión `3.50.0` del proveedor de Datadog Terraform. Para actualizar desde el recurso `datadog_integration_aws`, consulta [Actualización desde recursos de datadog_integration_aws][3]. {{< site-region region="us,us3,us5,eu" >}} 2. Configura tu archivo de ajustes de Terraform utilizando el siguiente ejemplo como plantilla base. Asegúrate de actualizar los siguientes parámetros antes de aplicar los cambios: - * `AWS_PERMISSIONS_LIST`: Políticas de IAM que necesitan las integraciones Datadog con AWS. La lista actual está disponible en la documentación [Integración de Datadog con AWS][1]. * `AWS_ACCOUNT_ID`: El ID de tu cuenta de AWS. Consulta el [registro de Terraform][2] para obtener más ejemplos de uso y la lista completa de parámetros opcionales, así como recursos adicionales de Datadog. ```hcl data "aws_iam_policy_document" "datadog_aws_integration_assume_role" { - declaración { - acciones = ["sts:AssumeRole"] - directores { - tipo = "AWS" - identificadores = ["arn:aws:iam::464622532012:root"] + statement { + actions = ["sts:AssumeRole"] + principals { + type = "AWS" + identifiers = ["arn:aws:iam::464622532012:root"] } - condición { + condition { test = "StringEquals" variable = "sts:ExternalId" - valores = [ + values = [ "${datadog_integration_aws_account.datadog_integration.auth_config.aws_auth_config_role.external_id}" ] } } } +data "datadog_integration_aws_iam_permissions" "datadog_permissions" {} + +locals { + all_permissions = data.datadog_integration_aws_iam_permissions.datadog_permissions.iam_permissions + + max_policy_size = 6144 + target_chunk_size = 5900 + + permission_sizes = [ + for perm in local.all_permissions : + length(perm) + 3 + ] + cumulative_sizes = [ + for i in range(length(local.permission_sizes)) : + sum(slice(local.permission_sizes, 0, i + 1)) + ] + + chunk_assignments = [ + for cumulative_size in local.cumulative_sizes : + floor(cumulative_size / local.target_chunk_size) + ] + chunk_numbers = distinct(local.chunk_assignments) + permission_chunks = [ + for chunk_num in local.chunk_numbers : [ + for i, perm in local.all_permissions : + perm if local.chunk_assignments[i] == chunk_num + ] + ] +} + data "aws_iam_policy_document" "datadog_aws_integration" { - declaración { - acciones = [] + count = length(local.permission_chunks) + + statement { + actions = local.permission_chunks[count.index] resources = ["*"] } } -recurso "aws_iam_policy" "datadog_aws_integration" { - name = "DatadogAWS IntegrationPolicy" - policy = data.aws_iam_policy_document.datadog_aws_integration.json +resource "aws_iam_policy" "datadog_aws_integration" { + count = length(local.permission_chunks) + + name = "DatadogAWSIntegrationPolicy-${count.index + 1}" + policy = data.aws_iam_policy_document.datadog_aws_integration[count.index].json } resource "aws_iam_role" "datadog_aws_integration" { - name = "DatadogIntegrationRole" - description = "Rol para Datadog AWS Integración" + name = "DatadogIntegrationRole" + description = "Role for Datadog AWS Integration" assume_role_policy = data.aws_iam_policy_document.datadog_aws_integration_assume_role.json } resource "aws_iam_role_policy_attachment" "datadog_aws_integration" { - rol = aws_iam_role.datadog_aws_integration.name - policy_arn = aws_iam_policy.datadog_aws_integration.arn + count = length(local.permission_chunks) + + role = aws_iam_role.datadog_aws_integration.name + policy_arn = aws_iam_policy.datadog_aws_integration[count.index].arn } resource "aws_iam_role_policy_attachment" "datadog_aws_integration_security_audit" { - rol = aws_iam_role.datadog_aws_integration.name + role = aws_iam_role.datadog_aws_integration.name policy_arn = "arn:aws:iam::aws:policy/SecurityAudit" } resource "datadog_integration_aws_account" "datadog_integration" { - account_tags = [] + account_tags = [] aws_account_id = "" - aws_partition = "aws" + aws_partition = "aws" aws_regions { include_all = true } @@ -77,15 +112,15 @@ resource "datadog_integration_aws_account" "datadog_integration" { role_name = "DatadogIntegrationRole" } } - resources_config { + resources_config { cloud_security_posture_management_collection = false - extended_collection = true + extended_collection = true } traces_config { xray_services { } } - logs_config { + logs_config { lambda_forwarder { } } @@ -96,7 +131,7 @@ resource "datadog_integration_aws_account" "datadog_integration" { } ``` -
Nota: Por defecto, la configuración anterior no incluye Cloud Security. Para habilitar Cloud Security, en resources_config, establezca cloud_security_posture_management_collection = true.
+
Por defecto, la configuración anterior no incluye Cloud Security. Para habilitar Cloud Security, en resources_config, establece cloud_security_posture_management_collection = true.
[1]: /es/integrations/amazon_web_services/?tab=manual#aws-iam-permissions [2]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/integration_aws_account @@ -104,58 +139,93 @@ resource "datadog_integration_aws_account" "datadog_integration" { {{< site-region region="ap1" >}} 2. Configura tu archivo de ajustes de Terraform utilizando el siguiente ejemplo como plantilla base. Asegúrate de actualizar los siguientes parámetros antes de aplicar los cambios: - * `AWS_PERMISSIONS_LIST`: Políticas de IAM que necesitan las integraciones Datadog con AWS. La lista actual está disponible en la documentación [Integración de Datadog con AWS][1]. * `AWS_ACCOUNT_ID`: El ID de tu cuenta de AWS. Consulta el [registro de Terraform][2] para obtener más ejemplos de uso y la lista completa de parámetros opcionales, así como recursos adicionales de Datadog. ```hcl data "aws_iam_policy_document" "datadog_aws_integration_assume_role" { - declaración { - acciones = ["sts:AssumeRole"] - directores { - tipo = "AWS" - identificadores = ["arn:aws:iam::417141415827:root"] + statement { + actions = ["sts:AssumeRole"] + principals { + type = "AWS" + identifiers = ["arn:aws:iam::417141415827:root"] } - condición { + condition { test = "StringEquals" variable = "sts:ExternalId" - valores = [ + values = [ "${datadog_integration_aws_account.datadog_integration.auth_config.aws_auth_config_role.external_id}" ] } } } +data "datadog_integration_aws_iam_permissions" "datadog_permissions" {} + +locals { + all_permissions = data.datadog_integration_aws_iam_permissions.datadog_permissions.iam_permissions + + max_policy_size = 6144 + target_chunk_size = 5900 + + permission_sizes = [ + for perm in local.all_permissions : + length(perm) + 3 + ] + cumulative_sizes = [ + for i in range(length(local.permission_sizes)) : + sum(slice(local.permission_sizes, 0, i + 1)) + ] + + chunk_assignments = [ + for cumulative_size in local.cumulative_sizes : + floor(cumulative_size / local.target_chunk_size) + ] + chunk_numbers = distinct(local.chunk_assignments) + permission_chunks = [ + for chunk_num in local.chunk_numbers : [ + for i, perm in local.all_permissions : + perm if local.chunk_assignments[i] == chunk_num + ] + ] +} + data "aws_iam_policy_document" "datadog_aws_integration" { - declaración { - acciones = [] + count = length(local.permission_chunks) + + statement { + actions = local.permission_chunks[count.index] resources = ["*"] } } -recurso "aws_iam_policy" "datadog_aws_integration" { - name = "DatadogAWS IntegrationPolicy" - policy = data.aws_iam_policy_document.datadog_aws_integration.json +resource "aws_iam_policy" "datadog_aws_integration" { + count = length(local.permission_chunks) + + name = "DatadogAWSIntegrationPolicy-${count.index + 1}" + policy = data.aws_iam_policy_document.datadog_aws_integration[count.index].json } resource "aws_iam_role" "datadog_aws_integration" { - name = "DatadogIntegrationRole" - description = "Rol para Datadog AWS Integración" + name = "DatadogIntegrationRole" + description = "Role for Datadog AWS Integration" assume_role_policy = data.aws_iam_policy_document.datadog_aws_integration_assume_role.json } resource "aws_iam_role_policy_attachment" "datadog_aws_integration" { - rol = aws_iam_role.datadog_aws_integration.name - policy_arn = aws_iam_policy.datadog_aws_integration.arn + count = length(local.permission_chunks) + + role = aws_iam_role.datadog_aws_integration.name + policy_arn = aws_iam_policy.datadog_aws_integration[count.index].arn } resource "aws_iam_role_policy_attachment" "datadog_aws_integration_security_audit" { - rol = aws_iam_role.datadog_aws_integration.name + role = aws_iam_role.datadog_aws_integration.name policy_arn = "arn:aws:iam::aws:policy/SecurityAudit" } resource "datadog_integration_aws_account" "datadog_integration" { - account_tags = [] + account_tags = [] aws_account_id = "" - aws_partition = "aws" + aws_partition = "aws" aws_regions { include_all = true } @@ -164,18 +234,24 @@ resource "datadog_integration_aws_account" "datadog_integration" { role_name = "DatadogIntegrationRole" } } - resources_config { + resources_config { cloud_security_posture_management_collection = false - extended_collection = true + extended_collection = true } + + # Optionally, specify services to include for X-Ray tracing traces_config { xray_services { } } - logs_config { + + # Optionally, specify the ARN of the Datadog Forwarder Lambda function and sources to enable for automatic log collection + logs_config { lambda_forwarder { } } + + # Optionally, specify namespaces to exclude from metric collection metrics_config { namespace_filters { } @@ -183,7 +259,7 @@ resource "datadog_integration_aws_account" "datadog_integration" { } ``` -
Nota: Por defecto, la configuración anterior no incluye Cloud Security. Para habilitar Cloud Security, en resources_config, establezca cloud_security_posture_management_collection = true.
+
Por defecto, la configuración anterior no incluye Cloud Security. Para habilitar Cloud Security, en resources_config, establece cloud_security_posture_management_collection = true.
[1]: /es/integrations/amazon_web_services/?tab=manual#aws-iam-permissions [2]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/integration_aws @@ -191,58 +267,93 @@ resource "datadog_integration_aws_account" "datadog_integration" { {{< site-region region="ap2" >}} 2. Configura tu archivo de ajustes de Terraform utilizando el siguiente ejemplo como plantilla base. Asegúrate de actualizar los siguientes parámetros antes de aplicar los cambios: - * `AWS_PERMISSIONS_LIST`: Políticas de IAM que necesitan las integraciones Datadog con AWS. La lista actual está disponible en la documentación [Integración de Datadog con AWS][1]. * `AWS_ACCOUNT_ID`: El ID de tu cuenta de AWS. Consulta el [registro de Terraform][2] para obtener más ejemplos de uso y la lista completa de parámetros opcionales, así como recursos adicionales de Datadog. ```hcl data "aws_iam_policy_document" "datadog_aws_integration_assume_role" { - declaración { - acciones = ["sts:AssumeRole"] - directores { - tipo = "AWS" - identificadores = ["arn:aws:iam::412381753143:root"] + statement { + actions = ["sts:AssumeRole"] + principals { + type = "AWS" + identifiers = ["arn:aws:iam::412381753143:root"] } - condición { + condition { test = "StringEquals" variable = "sts:ExternalId" - valores = [ + values = [ "${datadog_integration_aws_account.datadog_integration.auth_config.aws_auth_config_role.external_id}" ] } } } +data "datadog_integration_aws_iam_permissions" "datadog_permissions" {} + +locals { + all_permissions = data.datadog_integration_aws_iam_permissions.datadog_permissions.iam_permissions + + max_policy_size = 6144 + target_chunk_size = 5900 + + permission_sizes = [ + for perm in local.all_permissions : + length(perm) + 3 + ] + cumulative_sizes = [ + for i in range(length(local.permission_sizes)) : + sum(slice(local.permission_sizes, 0, i + 1)) + ] + + chunk_assignments = [ + for cumulative_size in local.cumulative_sizes : + floor(cumulative_size / local.target_chunk_size) + ] + chunk_numbers = distinct(local.chunk_assignments) + permission_chunks = [ + for chunk_num in local.chunk_numbers : [ + for i, perm in local.all_permissions : + perm if local.chunk_assignments[i] == chunk_num + ] + ] +} + data "aws_iam_policy_document" "datadog_aws_integration" { - declaración { - acciones = [] + count = length(local.permission_chunks) + + statement { + actions = local.permission_chunks[count.index] resources = ["*"] } } -recurso "aws_iam_policy" "datadog_aws_integration" { - name = "DatadogAWS IntegrationPolicy" - policy = data.aws_iam_policy_document.datadog_aws_integration.json +resource "aws_iam_policy" "datadog_aws_integration" { + count = length(local.permission_chunks) + + name = "DatadogAWSIntegrationPolicy-${count.index + 1}" + policy = data.aws_iam_policy_document.datadog_aws_integration[count.index].json } resource "aws_iam_role" "datadog_aws_integration" { - name = "DatadogIntegrationRole" - description = "Rol para Datadog AWS Integración" + name = "DatadogIntegrationRole" + description = "Role for Datadog AWS Integration" assume_role_policy = data.aws_iam_policy_document.datadog_aws_integration_assume_role.json } resource "aws_iam_role_policy_attachment" "datadog_aws_integration" { - rol = aws_iam_role.datadog_aws_integration.name - policy_arn = aws_iam_policy.datadog_aws_integration.arn + count = length(local.permission_chunks) + + role = aws_iam_role.datadog_aws_integration.name + policy_arn = aws_iam_policy.datadog_aws_integration[count.index].arn } resource "aws_iam_role_policy_attachment" "datadog_aws_integration_security_audit" { - rol = aws_iam_role.datadog_aws_integration.name + role = aws_iam_role.datadog_aws_integration.name policy_arn = "arn:aws:iam::aws:policy/SecurityAudit" } resource "datadog_integration_aws_account" "datadog_integration" { - account_tags = [] + account_tags = [] aws_account_id = "" - aws_partition = "aws" + aws_partition = "aws" aws_regions { include_all = true } @@ -251,15 +362,15 @@ resource "datadog_integration_aws_account" "datadog_integration" { role_name = "DatadogIntegrationRole" } } - resources_config { + resources_config { cloud_security_posture_management_collection = false - extended_collection = true + extended_collection = true } traces_config { xray_services { } } - logs_config { + logs_config { lambda_forwarder { } } @@ -270,66 +381,217 @@ resource "datadog_integration_aws_account" "datadog_integration" { } ``` -
Nota: Por defecto, la configuración anterior no incluye Cloud Security. Para habilitar Cloud Security, en resources_config, establezca cloud_security_posture_management_collection = true.
+
Por defecto, la configuración anterior no incluye Cloud Security. Para habilitar Cloud Security, en resources_config, establece cloud_security_posture_management_collection = true.
[1]: /es/integrations/amazon_web_services/?tab=manual#aws-iam-permissions [2]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/integration_aws {{< /site-region >}} {{< site-region region="gov" >}} -2. Configura tu archivo de ajustes de Terraform utilizando el siguiente ejemplo como plantilla base. Asegúrate de actualizar los siguientes parámetros antes de aplicar los cambios: - * `AWS_PERMISSIONS_LIST`: Políticas de IAM que necesitan las integraciones Datadog con AWS. La lista actual está disponible en la documentación [Integración de Datadog con AWS][1]. +2. Selecciona la pestaña correspondiente a tu tipo de cuenta de AWS y, a continuación, utiliza el ejemplo siguiente como plantilla base para configurar tu archivo de configuración de Terraform. Asegúrate de actualizar los siguientes parámetros antes de aplicar los cambios: * `AWS_ACCOUNT_ID`: El ID de tu cuenta de AWS. -Consulta el [registro de Terraform][2] para obtener más ejemplos de uso y la lista completa de parámetros opcionales, así como recursos adicionales de Datadog. +{{< tabs >}} + +{{% tab "AWS Commercial Cloud" %}} ```hcl data "aws_iam_policy_document" "datadog_aws_integration_assume_role" { - declaración { - acciones = ["sts:AssumeRole"] - directores { - tipo = "AWS" - identificadores = ["arn:aws:iam::065115117704:root"] + statement { + actions = ["sts:AssumeRole"] + principals { + type = "AWS" + identifiers = ["arn:aws:iam::392588925713:root"] } - condición { + condition { test = "StringEquals" variable = "sts:ExternalId" - valores = [ + values = [ "${datadog_integration_aws_account.datadog_integration.auth_config.aws_auth_config_role.external_id}" ] } } } +data "datadog_integration_aws_iam_permissions" "datadog_permissions" {} + +locals { + all_permissions = data.datadog_integration_aws_iam_permissions.datadog_permissions.iam_permissions + + max_policy_size = 6144 + target_chunk_size = 5900 + + permission_sizes = [ + for perm in local.all_permissions : + length(perm) + 3 + ] + cumulative_sizes = [ + for i in range(length(local.permission_sizes)) : + sum(slice(local.permission_sizes, 0, i + 1)) + ] + + chunk_assignments = [ + for cumulative_size in local.cumulative_sizes : + floor(cumulative_size / local.target_chunk_size) + ] + chunk_numbers = distinct(local.chunk_assignments) + permission_chunks = [ + for chunk_num in local.chunk_numbers : [ + for i, perm in local.all_permissions : + perm if local.chunk_assignments[i] == chunk_num + ] + ] +} + data "aws_iam_policy_document" "datadog_aws_integration" { - declaración { - acciones = [] + count = length(local.permission_chunks) + + statement { + actions = local.permission_chunks[count.index] resources = ["*"] } } -recurso "aws_iam_policy" "datadog_aws_integration" { - name = "DatadogAWS IntegrationPolicy" - policy = data.aws_iam_policy_document.datadog_aws_integration.json +resource "aws_iam_policy" "datadog_aws_integration" { + count = length(local.permission_chunks) + + name = "DatadogAWSIntegrationPolicy-${count.index + 1}" + policy = data.aws_iam_policy_document.datadog_aws_integration[count.index].json } resource "aws_iam_role" "datadog_aws_integration" { - name = "DatadogIntegrationRole" - description = "Rol para Datadog AWS Integración" + name = "DatadogIntegrationRole" + description = "Role for Datadog AWS Integration" assume_role_policy = data.aws_iam_policy_document.datadog_aws_integration_assume_role.json } resource "aws_iam_role_policy_attachment" "datadog_aws_integration" { - rol = aws_iam_role.datadog_aws_integration.name - policy_arn = aws_iam_policy.datadog_aws_integration.arn + count = length(local.permission_chunks) + + role = aws_iam_role.datadog_aws_integration.name + policy_arn = aws_iam_policy.datadog_aws_integration[count.index].arn } resource "aws_iam_role_policy_attachment" "datadog_aws_integration_security_audit" { - rol = aws_iam_role.datadog_aws_integration.name + role = aws_iam_role.datadog_aws_integration.name policy_arn = "arn:aws:iam::aws:policy/SecurityAudit" } resource "datadog_integration_aws_account" "datadog_integration" { - account_tags = [] + account_tags = [] + aws_account_id = "" + aws_partition = "aws" + aws_regions { + include_all = true + } + auth_config { + aws_auth_config_role { + role_name = "DatadogIntegrationRole" + } + } + resources_config { + cloud_security_posture_management_collection = false + extended_collection = true + } + traces_config { + xray_services { + } + } + logs_config { + lambda_forwarder { + } + } + metrics_config { + namespace_filters { + } + } +} +``` + +{{% /tab %}} + +{{% tab "AWS GovCloud" %}} + +```hcl +data "aws_iam_policy_document" "datadog_aws_integration_assume_role" { + statement { + actions = ["sts:AssumeRole"] + principals { + type = "AWS" + identifiers = ["arn:aws-us-gov:iam::065115117704:root"] + } + condition { + test = "StringEquals" + variable = "sts:ExternalId" + values = [ + "${datadog_integration_aws_account.datadog_integration.auth_config.aws_auth_config_role.external_id}" + ] + } + } +} + +data "datadog_integration_aws_iam_permissions" "datadog_permissions" {} + +locals { + all_permissions = data.datadog_integration_aws_iam_permissions.datadog_permissions.iam_permissions + + max_policy_size = 6144 + target_chunk_size = 5900 + + permission_sizes = [ + for perm in local.all_permissions : + length(perm) + 3 + ] + cumulative_sizes = [ + for i in range(length(local.permission_sizes)) : + sum(slice(local.permission_sizes, 0, i + 1)) + ] + + chunk_assignments = [ + for cumulative_size in local.cumulative_sizes : + floor(cumulative_size / local.target_chunk_size) + ] + chunk_numbers = distinct(local.chunk_assignments) + permission_chunks = [ + for chunk_num in local.chunk_numbers : [ + for i, perm in local.all_permissions : + perm if local.chunk_assignments[i] == chunk_num + ] + ] +} + +data "aws_iam_policy_document" "datadog_aws_integration" { + count = length(local.permission_chunks) + + statement { + actions = local.permission_chunks[count.index] + resources = ["*"] + } +} + +resource "aws_iam_policy" "datadog_aws_integration" { + count = length(local.permission_chunks) + + name = "DatadogAWSIntegrationPolicy-${count.index + 1}" + policy = data.aws_iam_policy_document.datadog_aws_integration[count.index].json +} +resource "aws_iam_role" "datadog_aws_integration" { + name = "DatadogIntegrationRole" + description = "Role for Datadog AWS Integration" + assume_role_policy = data.aws_iam_policy_document.datadog_aws_integration_assume_role.json +} +resource "aws_iam_role_policy_attachment" "datadog_aws_integration" { + count = length(local.permission_chunks) + + role = aws_iam_role.datadog_aws_integration.name + policy_arn = aws_iam_policy.datadog_aws_integration[count.index].arn +} +resource "aws_iam_role_policy_attachment" "datadog_aws_integration_security_audit" { + role = aws_iam_role.datadog_aws_integration.name + policy_arn = "arn:aws-us-gov:iam::aws:policy/SecurityAudit" +} + +resource "datadog_integration_aws_account" "datadog_integration" { + account_tags = [] aws_account_id = "" - aws_partition = "aws" + aws_partition = "aws-us-gov" aws_regions { include_all = true } @@ -338,15 +600,15 @@ resource "datadog_integration_aws_account" "datadog_integration" { role_name = "DatadogIntegrationRole" } } - resources_config { + resources_config { cloud_security_posture_management_collection = false - extended_collection = true + extended_collection = true } traces_config { xray_services { } } - logs_config { + logs_config { lambda_forwarder { } } @@ -357,7 +619,13 @@ resource "datadog_integration_aws_account" "datadog_integration" { } ``` -
Nota: Por defecto, la configuración anterior no incluye Cloud Security. Para habilitar Cloud Security, en resources_config, establezca cloud_security_posture_management_collection = true.
+{{% /tab %}} + +{{< /tabs >}} + +Consulta el [registro de Terraform][2] para obtener más ejemplos de uso y la lista completa de parámetros opcionales, así como recursos adicionales de Datadog. + +
Por defecto, la configuración anterior no incluye Cloud Security. Para habilitar Cloud Security, en resources_config, establece cloud_security_posture_management_collection = true.
[1]: /es/integrations/amazon_web_services/?tab=manual#aws-iam-permissions [2]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/integration_aws diff --git a/content/es/integrations/guide/source-code-integration.md b/content/es/integrations/guide/source-code-integration.md index 1139b3bb1d606..3e08cdfb007ff 100644 --- a/content/es/integrations/guide/source-code-integration.md +++ b/content/es/integrations/guide/source-code-integration.md @@ -316,7 +316,7 @@ Si utilizas un host, tienes dos opciones: utilizar Microsoft SourceLink o config Si utilizas contenedores de Docker, tienes varias opciones: utilizar un complemento si tu aplicación está empaquetada, utilizar Docker, o configurar tu aplicación con variables de entorno `DD_GIT_*`. -##### Opción 1: Complemento empaquetador +##### Opción 1: complemento empaquetador {{% sci-dd-tags-bundled-node-js %}} @@ -332,7 +332,7 @@ Si utilizas contenedores de Docker, tienes varias opciones: utilizar un compleme Si estás utilizando Serverless, tienes varias opciones dependiendo de la configuración de tu aplicación serverless. -##### Opción 1: Complemento empaquetador +##### Opción 1: complemento empaquetador {{% sci-dd-tags-bundled-node-js %}} @@ -348,7 +348,7 @@ Si estás utilizando Serverless, tienes varias opciones dependiendo de la config Para entornos basados en host, tienes dos opciones basadas en tu configuración de compilación y despliegue. -##### Opción 1: Complemento empaquetador +##### Opción 1: complemento empaquetador {{% sci-dd-tags-bundled-node-js %}} @@ -429,7 +429,7 @@ Si utilizas un host, configura tu aplicación con variables de entorno `DD_GIT_* {{% /tab %}} {{% tab "PHP" %}} -
Se requiere la biblioteca del cliente PHP versión 1.2.0 o posterior.
+
Se requiere la versión 1.13.0 o posterior de la biblioteca cliente de PHP o 1.2.0 o posterior si solo se utiliza el rastreo sin la creación de perfiles.
#### Contenedores @@ -593,6 +593,16 @@ Para más información, consulta la [documentación de Dynamic Instrumentation][ ### Comentarios en solicitudes pull +
+ Los comentarios PR no son compatibles en solicitudes de incorporación de cambios en repositorios públicos o en solicitudes de incorporación de cambios que se dirijan a una rama de destino en un repositorio diferente de la rama source (fuente) (es decir, repositorios bifurcados que intentan fusionarse en el repositorio principal). +
+ +Los comentarios PR son comentarios automáticos añadidos por las [integraciones de gestión de código de source (fuente)][10] de Datadog para informar a los desarrolladores de los problemas detectados en sus cambios de código y, en ciertos casos, sugerir correcciones. + +Hay un máximo de 31 comentarios únicos por RP en cualquier momento para reducir el ruido y el desorden. Estos comentarios incluyen: +* Siempre se publica un comentario resumen para ofrecer una visión de alto nivel de todos los problemas que Datadog ha detectado en el PR. Este comentario es editado por Datadog a medida que nuevas confirmaciones añadidas al PR cambian los resultados. +* Cuando proceda, se publicarán hasta 30 comentarios en línea sobre las líneas de código específicas que hayan provocado una infracción. Si se introducen más de 30 infracciones en la diferencia del PR, se publican las 30 infracciones de mayor gravedad. + {{< tabs >}} {{% tab "CI Visibility" %}} Los comentarios de solicitud pull están habilitados por defecto cuando se accede por primera vez a CI Visibility si la integración con GitHub o GitLab está instalada correctamente. Estas integraciones publican un comentario resumiendo los trabajos fallidos detectados en tu solicitud pull. @@ -645,4 +655,5 @@ Para desactivar los comentarios en solicitudes pull para Test Optimization, ve a [6]: /es/tracing/ [7]: https://app.datadoghq.com/source-code/setup/apm [8]: /es/tracing/error_tracking/ -[9]: /es/tracing/trace_collection/dd_libraries/ \ No newline at end of file +[9]: /es/tracing/trace_collection/dd_libraries/ +[10]: #source-code-management-providers \ No newline at end of file diff --git a/content/es/logs/explorer/advanced_search.md b/content/es/logs/explorer/advanced_search.md index 3fa2726aa264f..1bd955461dc18 100644 --- a/content/es/logs/explorer/advanced_search.md +++ b/content/es/logs/explorer/advanced_search.md @@ -36,8 +36,8 @@ Esto introduce nuevos elementos en el editor de consultas: 1. Define tu filtro de subconsulta en el campo **from** (de). 1. En el menú desplegable **Select Column** (Seleccionar columna) que precede al filtro de la subconsulta, selecciona el atributo por el que deseas agrupar y ordenar los resultados de la subconsulta. 1. Selecciona si deseas utilizar el operador **IN** o **NOT IN**: - - Los resultados del operador **IN** solo incluyen logs cuando el valor del atributo también se encuentra en los resultados de la subconsulta. Por ejemplo, si solo deseas ver logs generados por `service:a` y está asociado a un usuario que también es uno de los principales usuarios de `service:b`. - - Los resultados del operador **NOT IN** excluyen logs donde se encuentra el valor del atributo en los resultados de la subconsulta. Por ejemplo, si solo deseas ver logs `status:error`, pero también deseas filtrar logs `status:error` donde los usuarios asociados a esos logs acaben finalmente con un log `status:success`. Consulta [Filtrar logs desactualizados o sustituidos](#filter-outdated-or-superseded-logs) para ver un ejemplo detallado. + - Los resultados del operador **IN** solo incluyen los logs en los que el valor del atributo también se encuentra en los resultados de la subconsulta. Por ejemplo, si solo deseas ver los logs generados por `service:a` y asociados a un usuario que también es uno de los principales usuarios de `service:b`. + - Los resultados del operador **NOT IN** excluyen los logs en los que se encuentra el valor del atributo en los resultados de la subconsulta. Por ejemplo, si solo deseas ver logs `status:error`, pero también deseas filtrar logs `status:error` en los que los usuarios asociados a esos logs acaben finalmente con un log `status:success`. Consulta [Filtrar logs obsoletos o sustituidos](#filter-outdated-or-superseded-logs) para ver un ejemplo detallado. 1. Opcionalmente, reduce el número de valores de atributos de subconsulta con los que comparar. El valor por defecto y máximo es `1000`. Elige entre **top** (principal) (valores de mayor frecuencia) o **bottom** (inferior) (valores de menor frecuencia). ### Ejemplos de subconsultas diff --git a/content/es/logs/explorer/facets.md b/content/es/logs/explorer/facets.md index 0b924bae50c1a..5ad3b8e61d2e8 100644 --- a/content/es/logs/explorer/facets.md +++ b/content/es/logs/explorer/facets.md @@ -221,7 +221,7 @@ Esta es la mejor opción si incorporas logs desde nuevas fuentes. En lugar de cr ## Borrar una faceta -
Borrar una faceta que está siendo utilizada en índices, monitores, dashboards, consultas de restricción o por otros equipos puede causar que las configuraciones se rompan.
+
La eliminación de una faceta que está siendo utilizada en índices, monitores, dashboards, consultas de restricción, o por otros equipos puede causar que las configuraciones se rompan.
Para eliminar una faceta, sigue estos pasos: diff --git a/content/es/logs/guide/docker-logs-collection-troubleshooting-guide.md b/content/es/logs/guide/docker-logs-collection-troubleshooting-guide.md index 930fd80cb98a3..b4671dbbc86f8 100644 --- a/content/es/logs/guide/docker-logs-collection-troubleshooting-guide.md +++ b/content/es/logs/guide/docker-logs-collection-troubleshooting-guide.md @@ -84,7 +84,7 @@ Cuando se recopilan logs del contenedor de Docker de archivos, el Agent recurre Status: Error: file /var/lib/docker/containers/ce0bae54880ad75b7bf320c3d6cac1ef3efda21fc6787775605f4ba8b6efc834/ce0bae54880ad75b7bf320c3d6cac1ef3efda21fc6787775605f4ba8b6efc834-json.log does not exist ``` -Este estado significa que el Agent no puede encontrar un archivo de log para un determinado contenedor. Para resolver este problema, comprueba que la carpeta que contiene logs del contenedor de Docker está correctamente expuesta al contenedor del Datadog Agent. En Linux, esto corresponde a `-v /var/lib/Docker/containers:/var/lib/Docker/containers:ro` on the command line starting the Agent container, whereas on Windows it corresponds to `-v c:/programdata/Docker/containers:c:/programdata/Docker/containers:ro`. Note that the directory relative to the underlying host may be different due to specific configuration of the Docker daemon—this is not an issue pending a correct Docker volume mapping. For example, use `-v /data/Docker/containers:/var/lib/Docker/containers:ro` if the Docker data directory has been relocated to `/data/Docker` en el subyacente host. +Este estado significa que el Agent no puede encontrar un archivo de log para un determinado contenedor. Para resolver este problema, comprueba que la carpeta que contiene logs del contenedor de Docker está correctamente expuesta al contenedor del Datadog Agent. En Linux, esto corresponde a `-v /var/lib/docker/containers:/var/lib/docker/containers:ro` on the command line starting the Agent container, whereas on Windows it corresponds to `-v c:/programdata/docker/containers:c:/programdata/docker/containers:ro`. Note that the directory relative to the underlying host may be different due to specific configuration of the Docker daemon—this is not an issue pending a correct Docker volume mapping. For example, use `-v /data/docker/containers:/var/lib/docker/containers:ro` if the Docker data directory has been relocated to `/data/docker` en el subyacente host. Si se recopilan logs pero las líneas individuales parecen estar divididas, comprueba que el daemon Docker utiliza el [controlador de gestión de logs JSON](#your-containers-are-not-using-the-json-logging-driver). @@ -134,30 +134,6 @@ Si el estado del Logs Agent de logs se parece al ejemplo en [Comprobar el estado * El puerto requerido (10516) para enviar logs a Datadog está bloqueado. * Tu contenedor está utilizando un controlador de gestión de logs diferente del que espera el Agent. -#### El tráfico saliente en el puerto 10516 está bloqueado - -El Datadog Agent envía sus logs a Datadog a través de TCP utilizando el puerto 10516. Si esa conexión no está disponible, los logs no se pueden enviar y se registra un error en el archivo `agent.log`. - -Puedes probar manualmente tu conexión utilizando OpenSSL, GnuTLS u otro cliente SSL/TLS. Para OpenSSL, ejecuta el siguiente comando: - -```shell -openssl s_client -connect intake.logs.datadoghq.com:10516 -``` - -Para GnuTLS, ejecuta el siguiente comando: - -```shell -gnutls-cli intake.logs.datadoghq.com:10516 -``` - -Y luego, enviando un log como el siguiente: - -```texto - este es un mensaje de prueba -``` - -Si abrir el puerto 10516 no es una opción, es posible configurar el Datadog Agent para enviar logs a través de HTTPS configurando la variable de entorno `DD_LOGS_CONFIG_FORCE_USE_HTTP` en `true`: - #### Tus contenedores no están utilizando el controlador de gestión de logs JSON El controlador de gestión de logs predeterminado de Docker es el json-file, por lo que es lo primero que el Agent de contenedor intenta leer. Si tus contenedores están configurados para utilizar un controlador de gestión de logs diferente, el Logs Agent indica que puede encontrar tus contenedores sin problemas, pero que no puede recopilar tus logs. El Agent de contenedor también puede configurarse para leer desde el controlador de gestión de logs journald. diff --git a/content/es/logs/guide/forwarder.md b/content/es/logs/guide/forwarder.md index a002be874e060..9f318f232c0f2 100644 --- a/content/es/logs/guide/forwarder.md +++ b/content/es/logs/guide/forwarder.md @@ -117,13 +117,27 @@ Las variables de entorno proporcionadas en Si tienes problemas para actualizar a la última versión, consulta la sección Solucionar problemas. +### Actualizar a v5.0.0+ + +**Antes de actualizar, revisa el [CHANGELOG.md][25] para obtener información detallada sobre los cambios de última hora y los requisitos de migración. + +Principales cambios en la versión 5.0.0: + +- **Se ha modificado el comportamiento de filtrado de logs**: `IncludeAtMatch` y `ExcludeAtMatch` ahora solo coinciden con el mensaje de log, no con toda la estructura JSON. +- **Transporte TCP eliminado**: el parámetro `DD_USE_TCP` ha sido eliminado, todos los logs deben utilizar HTTP/HTTPS +- **Variable de PrivateLink eliminada**: `DD_USE_PRIVATE_LINK` ha sido eliminado (PrivateLink sigue siendo compatible a través de `DdUseVPC`) +- **Nuevo enriquecimiento de etiquetas**: enriquecimiento de etiquetas basado en backend activado por defecto a través de `DdEnrichS3Tags` y `DdEnrichCloudwatchTags`, lo que reduce los costes de reenvío. + ### Actualizar una versión anterior a 4.13.0+ + A partir de la versión 4.13.0+, la función Lambda se ha actualizado para requerir **Python 3.13**. Si actualizas una instalación de forwarder anterior a 4.13.0+, asegúrate de que la función de AWS Lambda está configurada para utilizar Python 3.13. ### Actualizar una versión anterior a 4.3.0+ + A partir de la versión 4.3.0 el Lambda forwarder admitirá una única versión de python. La versión de Python admitida en esta versión es la 3.12. ### Actualizar una versión anterior a v4.0.0 + A partir de la versión 4.0.0, la lógica de identificación de `source`, `service` y `host` se extraerá del código del Forwarder Lambda y se instalará directamente en el backend de Datadog. La primera fuente de logs migrada es `RDS`. Esto no supone un cambio radical en la forma en que `source`, `service` y `host` se configuran del lado del `Log explorer`. Los usuarios deberían seguir teniendo el mismo comportamiento que antes. @@ -162,8 +176,8 @@ A partir de la versión 3.0.0, la función Lambda del Forwarder se gestiona util 4. Asegúrate de que el nuevo Forwarder funciona como se espera, por ejemplo, que se invoca regularmente sin errores. 5. Asegúrate de que los logs de los activadores migrados (fuentes) aparecen en el explorador de logs de Datadog y que su aspecto es correcto. 6. Migra todos los activadores al nuevo Forwarder. - - Si has dejado que Datadog gestione los activadores [automáticamente][6], actualiza el ARN de Lambda del Forwarder en la pestaña **Log Collection** (Recopilación de logs) de la página de integraciones AWS. - - Si has gestionado los activadores [manualmente][7], entonces tienes que migrarlos manualmente (o utilizando un script). + - Si has dejado que Datadog gestione los activadores [automáticamente][6], actualiza el ARN de Lambda del Forwarder en la pestaña **Log Collection** (Recopilación de logs) de la página de integraciones AWS. + - Si has gestionado los activadores [manualmente][7], entonces tienes que migrarlos manualmente (o utilizando un script). 7. Asegúrate de que el recuento de invocaciones de la función Lambda del antiguo Forwarder baja a cero. 8. Elimina la función Lambda del antiguo Forwarder cuando lo creas conveniente. 9. Si tienes instaladas funciones Lambda del antiguo Forwarder en varias cuentas y regiones AWS, repite los pasos anteriores en cada combinación de cuenta y región. @@ -187,7 +201,7 @@ Datadog recomienda ajustar los parámetros de tu Forwarder a través de CloudFor No olvides comprobar si el problema ya se ha solucionado en las últimas [versiones][9]. -### Registro +### Generación de logs Configura la variable de entorno `DD_LOG_LEVEL` como `debug` en la función Lambda del Forwarder para habilitar temporalmente la gestión de logs detallada (no olvides eliminarla). La depuración de logs debería poder mostrarte la carga útil de eventos exacta que recibe la función Lambda y la carga útil de datos (logs, métricas o trazas) que se envían a Datadog. @@ -217,42 +231,42 @@ Nos encantan las solicitudes de extracción. Aquí tienes una guía rápida. 1. Si quieres discutir una función o la corrección de errores antes de la implementación, ponte en contacto con nosotros en el canal `#serverless` de la [Comunidad Slack Datadog][11]. 1. Bifurca, clona y crea una rama: - ```bash - git clone git@github.com:/datadog-serverless-functions.git - git checkout -b - ``` + ```bash + git clone git@github.com:/datadog-serverless-functions.git + git checkout -b + ``` 1. Realiza cambios en el código. 1. Crea utilizando tus cambios locales. - ```bash - cd aws/logs_monitoring - ./tools/build_bundle.sh # any unique version is fine - ``` + ```bash + cd aws/logs_monitoring + ./tools/build_bundle.sh # any unique version is fine + ``` 1. Actualiza tu Forwarder de test con el código modificado y pruébalo: - ```bash - # Upload in the AWS Lambda console if you don't have AWS CLI - aws lambda update-function-code \ - --region \ - --function-name \ - --zip-file fileb://.forwarder/aws-dd-forwarder-.zip - ``` + ```bash + # Upload in the AWS Lambda console if you don't have AWS CLI + aws lambda update-function-code \ + --region \ + --function-name \ + --zip-file fileb://.forwarder/aws-dd-forwarder-.zip + ``` 1. Ejecuta tests unitarios. - ``` - python -m unittest discover . # for code in Python - ./trace_forwarder/scripts/run_tests.sh # for code in Go - ``` + ``` + python -m unittest discover . # for code in Python + ./trace_forwarder/scripts/run_tests.sh # for code in Go + ``` 1. Ejecuta los tests de integraciones. - ```bash - ./tools/integration_tests/integration_tests.sh + ```bash + ./tools/integration_tests/integration_tests.sh - # to update the snapshots if changes are expected - ./tools/integration_tests/integration_tests.sh --update - ``` + # to update the snapshots if changes are expected + ./tools/integration_tests/integration_tests.sh --update + ``` 1. Si los cambios afectan a la plantilla de CloudFormation, ejecuta el test de instalación con tu propia cuenta de AWS. - ```bash - ./tools/installation_test.sh - ``` + ```bash + ./tools/installation_test.sh + ``` 1. Envíalo a tu bifurcación y [envía una solicitud de extracción][12]. ## Avanzado @@ -272,21 +286,9 @@ Puedes ejecutar el Forwarder en una subred privada de VPC y enviar datos a Datad 1. Sigue [estas instrucciones][14] para añadir los endpoints `api` , `http-logs.intake` y `trace.agent` de Datadog a tu VPC. 2. Sigue las [instrucciones][15] para añadir endpoints de AWS Secrets Manager y S3 a tu VPC. 3. Al instalar el Forwarder con la plantilla de CloudFormation: - 1. Configurar `DdUseVPC` como `true`. - 2. Configura `VPCSecurityGroupIds` y `VPCSubnetIds` en función de la configuración de tu VPC. - 3. Establece `DdFetchLambdaTags`, `DdFetchStepFunctionsTags` y `DdFetchS3Tags` en `false`, porque la API de etiquetado de grupos de recursos de AWS no admite PrivateLink. - -#### DdUsePrivateLink está obsoleto - -La opción `DdUsePrivateLink` está obsoleta desde la [v3.41.0][16]. Esta opción se utilizaba anteriormente para indicar al Forwarder que debía utilizar un conjunto especial de endpoints de PrivateLink para recibir datos: `pvtlink.api.{{< region-param key="dd_site" code="true" >}}`, `api-pvtlink.logs.{{< region-param key="dd_site" code="true" >}}` y `trace-pvtlink.agent.{{< region-param key="dd_site" code="true" >}}`. A partir de la versión 3.41.0, el Forwarder puede enviar datos a Datadog, a través de PrivateLink, utilizando los nombres comunes del DNS de los endpoints de entrada: `api.{{< region-param key="dd_site" code="true" >}}`, `http-intake.logs.{{< region-param key="dd_site" code="true" >}}` y `trace.agent.{{< region-param key="dd_site" code="true" >}}`. Por lo tanto, la opción `DdUsePrivateLink` ya no es necesaria. - -Si tienes una implementación antigua del Forwarder con `DdUsePrivateLink` configurado como `true`, puede que encuentres discordancias entre los endpoints de PrivateLink configurados y aquellos [documentados en Datadog][14], lo cual es de esperar. Aunque los endpoints de PrivateLink más antiguos se hayan eliminado de ese documento, siguen funcionando. No se requiere ningún cambio al actualizar el Forwarder. Esto significa que puedes mantener habilitado `DdUsePrivateLink` y seguir utilizando los endpoints más antiguos. - -Pero si te interesa cambiar a los nuevos endpoints, debes seguir las instrucciones actualizadas anteriores para: - -1. Configurar los nuevos endpoints en `api.{{< region-param key="dd_site" code="true" >}}`, `http-intake.logs.{{< region-param key="dd_site" code="true" >}}` y `trace.agent.{{< region-param key="dd_site" code="true" >}}`. -2. Configurar `DdUseVPC` como `true`. -3. Configurar `DdUsePrivateLink` como `false`. + 1. Configurar `DdUseVPC` como `true`. + 2. Configura `VPCSecurityGroupIds` y `VPCSubnetIds` en función de la configuración de tu VPC. + 3. Establece `DdFetchLambdaTags`, `DdFetchStepFunctionsTags` y `DdFetchS3Tags` en `false`, porque la API de etiquetado de grupos de recursos de AWS no admite PrivateLink. ### Compatibilidad de AWS con VPC y proxy @@ -295,7 +297,7 @@ Si necesitas desplegar el Forwarder en una VPC sin acceso público directo a Int 1. A menos que el Forwarder esté desplegado en una subred pública, sigue las [instrucciones][15] para añadir endpoints para Secrets Manager y S3 a la VPC, de modo que el Forwarder pueda acceder a esos servicios. 2. Actualiza tu proxy con las siguientes configuraciones ([HAproxy][17] o [NGINX][18]). Si estás utilizando otro proxy o proxy web, autoriza el dominio Datadog, por ejemplo: `.{{< region-param key="dd_site" code="true" >}}`. 3. Al instalar el Forwarder con la plantilla de CloudFormation, configura `DdUseVPC`, `VPCSecurityGroupIds` y `VPCSubnetIds`. -4. Asegúrate de que las opciones `DdFetchLambdaTags`, `DdFetchStepFunctionsTags` y `DdFetchS3Tags` están desactivadas, ya que AWS VPC aún no ofrece un endpoint para la API de etiquetado de grupos de recursos. +4. Asegúrate de que las opciones `DdFetchLambdaTags`, `DdFetchStepFunctionsTags` y `DdFetchS3Tags` están desactivadas, ya que la AWS VPC aún no ofrece un endpoint para la API de etiquetado de grupos de recursos. 5. Si utilizas HAproxy o NGINX: - Configura `DdApiUrl` como `http://:3834` o `https://:3834`. @@ -355,10 +357,6 @@ Datadog recomienda utilizar al menos 10 de concurrencia reservada, pero este val `DdMultilineLogRegexPattern` : Utiliza la expresión regular proporcionada para detectar una nueva línea de logs para logs de múltiples líneas de S3, como `\d{2}\/\d{2}\/\d{4}` para los logs de múltiples líneas que comienzan con el patrón "11/10/2014". -`DdUseTcp` -: Por defecto, el Forwarder envía logs utilizando HTTPS a través del puerto 443. Para enviar logs a través de una -conexión TCP cifrada SSL, configura este parámetro como true (verdadero). - `DdNoSsl` : Deshabilita SSL al reenviar logs y configúralo como true (verdadero) al reenviar logs a través de un proxy. @@ -402,31 +400,36 @@ conexión TCP cifrada SSL, configura este parámetro como true (verdadero). `IncludeAtMatch` : Sólo envía logs que coinciden con la expresión regular proporcionada, no excluida por `ExcludeAtMatch`. -Las reglas de filtrado se aplican a todo el log con formato JSON, incluidos los metadatos que el Forwarder. añade automáticamente Sin embargo, las transformaciones aplicadas por [pipelines de logs][21], que se producen después del envío de logs a Datadog, no pueden utilizarse para filtrar logs en el Forwarder. El uso de una expresión regular ineficaz, como `.*`, puede ralentizar el Forwarder. +Las reglas de filtrado se aplican al mensaje de log. Sin embargo, las transformaciones aplicadas por [pipelines de log][21], que se producen después de que los logs se envíen a Datadog, no pueden utilizarse para filtrar logs en el Forwarder. El uso de una expresión regular ineficiente, como `.*`, puede ralentizar el Forwarder. Los siguientes son algunos ejemplos de expresiones regulares que pueden utilizarse para el filtrado de logs: -- Incluye (o excluye) logs de la plataforma Lambda: `"(START|END) RequestId:\s`. El precedente `"` es necesario para que coincida con el inicio del mensaje del log, que está en un blob JSON (`{"message": "START RequestId...."}`). Datadog recomienda conservar los logs de `REPORT`, ya que se utilizan para rellenar la lista de invocaciones en las vistas de funciones serverless. +- Incluir (o excluir) los logs de plataforma de Lambda: `(START|END) RequestId:\s`. Datadog recomienda mantener los logs `REPORT`, ya que se utilizan para rellenar la lista de invocaciones en las vistas de funciones sin servidor. - Incluye sólo mensajes de error de CloudTrail: `errorMessage`. - Incluye sólo logs que contienen un código de error HTTP 4XX o 5XX: `\b[4|5][0-9][0-9]\b`. -- Incluye sólo logs de CloudWatch cuando el campo `message` contiene un par clave/valor JSON específico: `\"awsRegion\":\"us-east-1\"`. - - El campo de mensaje de un evento de log de CloudWatch se codifica como una cadena. Por ejemplo,`{"awsRegion": "us-east-1"}` se codifica como `{\"awsRegion\":\"us-east-1\"}`. Por lo tanto, el patrón que proporciones debe incluir `\` caracteres de escape, como en el siguiente ejemplo: `\"awsRegion\":\"us-east-1\"`. +- Incluye solo los logs de CloudWatch cuyo campo `message` contenga un par clave/valor JSON específico: `"awsRegion":"us-east-1"`. Para probar diferentes patrones en tus logs, activa la [limpieza de logs](#troubleshooting). ### Avanzado (opcional) +`DdEnrichS3Tags` +: activado por defecto. Cuando está activado, ordena al backend de Datadog que enriquezca automáticamente los logs procedentes de buckets de S3 con las etiquetas asociadas a dichos buckets. Este enfoque ofrece el mismo enriquecimiento de etiquetas que `DdFetchS3Tags`, pero aplaza la operación después de la ingesta de logs, lo que reduce la sobrecarga del Forwarder. Requiere que la [Recopilación de recursos](https://docs.datadoghq.com/integrations/amazon-web-services/#resource-collection) esté habilitada en tu integración de AWS. + +`DdEnrichCloudwatchTags` +: activado por defecto. Cuando se activa, ordena al backend de Datadog que enriquezca automáticamente logs originados en CloudWatch LogGroups con las etiquetas asociadas a esos grupos de logs. Este enfoque ofrece el mismo enriquecimiento de etiquetas que `DdFetchLogGroupTags`, pero aplaza la operación después de la ingesta de logs, reduciendo la sobrecarga del Forwarder. Requiere que la [Recopilación de recursos](https://docs.datadoghq.com/integrations/amazon-web-services/#resource-collection) esté habilitada en tu integración de AWS. + `DdFetchLambdaTags` : Permite que el Forwarder recupere etiquetas de Lambda mediante llamadas a la API de GetResources y las aplique a logs, métricas y trazas. Si se configura como true (verdadero), el permiso `tag:GetResources` se añadirá automáticamente al rol IAM de ejecución Lambda. `DdFetchLogGroupTags` -: Permite que el Forwarder obtenga etiquetas de grupo de logs mediante ListTagsLogGroup y las aplique a logs, métricas y trazas. Si se define como true, el permiso `logs:ListTagsForResource` se añadirá automáticamente al rol IAM de ejecución de Lambda. +: **OBSOLETO, usa DdEnrichCloudwatchTags]** Permite que el forwarder obtenga etiquetas de grupo de logs mediante ListTagsLogGroup y las aplique a logs, métricas y trazas. Si se establece en true, el permiso `logs:ListTagsForResource` se añadirá automáticamente al rol de IAM de ejecución de Lambda. `DdFetchStepFunctionsTags` : Permite que Forwarder recupere tags de funciones Step mediante llamadas a la API GetResources y las aplique a logs y trazas (si está habilitado el rastreo de funciones Step). Si se configura como true (verdadero), el permiso `tag:GetResources` se añadirá automáticamente al rol IAM de ejecución de Lambda. `DdFetchS3Tags` -: Permite que el forwarder recupere etiquetas de S3 mediante llamadas a la API GetResources y las aplique a logs y trazas. Si se establece en true, el permiso `tag:GetResources` se añadirá automáticamente al rol de IAM de ejecución de Lambda. +: **[OBSOLETO, usa DdEnrichS3Tags]** Permite que el forwarder obtenga etiquetas de S3 mediante llamadas a la API GetResources y las aplique a logs y trazas. Si se establece en true, el permiso `tag:GetResources` se añadirá automáticamente al rol de IAM de ejecución de Lambda. `DdStepFunctionsTraceEnabled` : Establécelo como true para activar el rastreo de todas Step Functions. @@ -437,9 +440,6 @@ Para probar diferentes patrones en tus logs, activa la [limpieza de logs](#troub `PermissionsBoundaryArn` : ARN para la política de límites de permisos. -`DdUsePrivateLink` (OBSOLETO) -: Configurado como true (verdadero) para permitir el envío de logs y métricas a través de AWS PrivateLink. Consulta [Conectarse a Datadog a través de AWS PrivateLink][2]. - `DdHttpproxyURL` : Configura las variables de entorno estándar del proxy web HTTP_PROXY y HTTPS_PROXY. Estos son los endpoints de URL que tu servidor proxy expone. No lo utilices en combinación con AWS Private Link. Asegúrate también de configurar `DdSkipSslValidation` como true (verdadero). @@ -461,11 +461,11 @@ Para probar diferentes patrones en tus logs, activa la [limpieza de logs](#troub `LayerARN` : ARN de la capa que contiene el código del Forwarder. Si está vacío, el script utilizará la versión de la capa con la que se ha publicado el Forwarder. Por defecto está vacío. - [20]: https://app.datadoghq.com/organization-settings/api-keys [13]: https://docs.datadoghq.com/es/getting_started/site/ [21]: https://docs.datadoghq.com/es/logs/processing/pipelines/ [2]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/ + {{% /tab %}} {{% tab "Terraform" %}} @@ -483,6 +483,7 @@ Para todas las opciones de configuración y detalles, incluyendo [Despliegue mul [203]: https://docs.datadoghq.com/es/getting_started/site/#access-the-datadog-site [204]: https://app.datadoghq.com/organization-settings/api-keys [205]: https://registry.terraform.io/modules/DataDog/log-lambda-forwarder-datadog/aws/latest#multi-region-deployments + {{% /tab %}} {{% tab "Manual" %}} @@ -525,10 +526,6 @@ Datadog recomienda utilizar al menos 10 de concurrencia reservada, pero este val `DD_MULTILINE_LOG_REGEX_PATTERN` : Utiliza la expresión regular suministrada para detectar una nueva línea de log para logs multilíneas de S3, como `\d{2}\/\d{2}\/\d{4}` para logs multilíneas que comienzan con el patrón "11/10/2014". -`DD_USE_TCP` -: Por defecto, el forwarder envía logs utilizando HTTPS a través del puerto 443. Para enviar logs a través de una -conexión TCP con cifrado SSL, establece este parámetro en true. - `DD_NO_SSL` : Desactivar SSL al reenviar logs, poner en true al reenviar logs a través de un proxy. @@ -572,25 +569,30 @@ conexión TCP con cifrado SSL, establece este parámetro en true. `INCLUDE_AT_MATCH` : Solo envía logs que coincidan con la expresión regular suministrada, y no excluidos por `EXCLUDE_AT_MATCH`. -Las reglas de filtrado se aplican a todo el log con formato JSON, incluidos los metadatos que el Forwarder. añade automáticamente Sin embargo, las transformaciones aplicadas por [pipelines de logs][21], que se producen después del envío de logs a Datadog, no pueden utilizarse para filtrar logs en el Forwarder. El uso de una expresión regular ineficaz, como `.*`, puede ralentizar el Forwarder. +Las reglas de filtrado se aplican al mensaje de log tal y como lo lee el forwarder. El uso de una expresión regular ineficiente, como `.*`, puede ralentizar el forwarder. Los siguientes son algunos ejemplos de expresiones regulares que pueden utilizarse para el filtrado de logs: -- Incluye (o excluye) logs de la plataforma Lambda: `"(START|END) RequestId:\s`. El precedente `"` es necesario para que coincida con el inicio del mensaje del log, que está en un blob JSON (`{"message": "START RequestId...."}`). Datadog recomienda conservar los logs de `REPORT`, ya que se utilizan para rellenar la lista de invocaciones en las vistas de funciones serverless. +- Incluir (o excluir) los logs de plataforma de Lambda: `(START|END) RequestId:\s`. Datadog recomienda mantener los logs `REPORT`, ya que se utilizan para rellenar la lista de invocaciones en las vistas de funciones sin servidor. - Incluye sólo mensajes de error de CloudTrail: `errorMessage`. - Incluye sólo logs que contienen un código de error HTTP 4XX o 5XX: `\b[4|5][0-9][0-9]\b`. -- Incluye sólo logs de CloudWatch cuando el campo `message` contiene un par clave/valor JSON específico: `\"awsRegion\":\"us-east-1\"`. - - El campo de mensaje de un evento de log de CloudWatch se codifica como una cadena. Por ejemplo,`{"awsRegion": "us-east-1"}` se codifica como `{\"awsRegion\":\"us-east-1\"}`. Por lo tanto, el patrón que proporciones debe incluir `\` caracteres de escape, como en el siguiente ejemplo: `\"awsRegion\":\"us-east-1\"`. +- Incluye solo los logs de CloudWatch cuyo campo `message` contenga un par clave/valor JSON específico: `"awsRegion":"us-east-1"`. Para probar diferentes patrones en tus logs, activa la [limpieza de logs](#troubleshooting). ### Avanzado (opcional) +`DD_ENRICH_S3_TAGS` +: activado por defecto. Cuando está activado, ordena al backend de Datadog que enriquezca automáticamente logs procedentes de buckets de S3 con las etiquetas asociadas a dichos buckets. Este enfoque ofrece el mismo enriquecimiento de etiquetas que `DD_FETCH_S3_TAGS`, pero aplaza la operación después de la ingesta de logs, lo que reduce la sobrecarga del forwarder. Requiere que https://docs.datadoghq.com/integrations/amazon-web-services/#resource-collection esté habilitada en tu integración de AWS. + +`DD_ENRICH_CLOUDWATCH_TAGS` +: activado por defecto. Cuando se activa, ordena al backend de Datadog que enriquezca automáticamente los logs originados desde Cloudwatch LogGroup con las etiquetas asociadas a esos grupos de logs. Este enfoque ofrece el mismo enriquecimiento de etiquetas que `DD_FETCH_LOG_GROUP_TAGS` pero aplaza la operación después de la ingesta de logs, reduciendo la sobrecarga del forwarder. Requiere que https://docs.datadoghq.com/integrations/amazon-web-services/#resource-collection esté habilitada en tu integración de AWS. + `DD_FETCH_LAMBDA_TAGS` : Permite que el forwarder obtenga etiquetas Lambda mediante llamadas a la API GetResources y las aplique a logs, métricas y rastros. Si se establece en true, el permiso `tag:GetResources` se añadirá automáticamente al rol de IAM de ejecución de Lambda. `DD_FETCH_LOG_GROUP_TAGS` -: Permite que el forwarder obtenga etiquetas de grupo de log mediante ListTagsLogGroup y las aplique a logs, métricas y trazas. Si se establece en true, el permiso `logs:ListTagsForResource` se añadirá automáticamente al rol de IAM de ejecución de Lambda. +: [OBSOLETO, usa DD_ENRICH_CLOUDWATCH_TAGS] Permite al forwarder obtener etiquetas de grupo de logs mediante ListTagsLogGroup y aplicarlas a logs, métricas y trazas. Si se establece en true, el permiso `logs:ListTagsForResource` se añadirá automáticamente al rol de IAM de ejecución de Lambda. `DD_FETCH_STEP_FUNCTIONS_TAGS` : Permite que el Forwarder recupere etiquetas de Step Functions mediante llamadas a la API GetResources y las aplique a logs y trazas (si está habilitado el rastreo de Step Functions). Si se configura como true (verdadero), el permiso `tag:GetResources` se añadirá automáticamente al rol de IAM de ejecución de Lambda. @@ -604,9 +606,6 @@ Para probar diferentes patrones en tus logs, activa la [limpieza de logs](#troub `PERMISSIONS_BOUNDARY_ARN` : ARN para la política de límites de permisos. -`DD_USE_PRIVATE_LINK` (OBSOLETO) -: Establecer en true para permitir el envío de logs y métricas a través de AWS PrivateLink. Consulta [Conectarte a Datadog a través de AWS PrivateLink][2]. - `DD_HTTP_PROXY_URL` : Establece las variables de entorno estándar del proxy web HTTP_PROXY y HTTPS_PROXY. Estos son los endpoints de URL que expone tu servidor proxy. No utilices esto en combinación con AWS Private Link. Asegúrate también de establecer `DD_SKIP_SSL_VALIDATION` a true. @@ -632,6 +631,7 @@ Para probar diferentes patrones en tus logs, activa la [limpieza de logs](#troub [13]: https://docs.datadoghq.com/es/getting_started/site/ [21]: https://docs.datadoghq.com/es/logs/processing/pipelines/ [2]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/ + {{% /tab %}} {{< /tabs >}} @@ -643,33 +643,33 @@ Para desplegar el stack tecnológico de CloudFormation con las opciones predeter ```json { - "Effect": "Allow", - "Action": [ - "cloudformation:*", - "secretsmanager:CreateSecret", - "secretsmanager:TagResource", - "s3:CreateBucket", - "s3:GetObject", - "s3:PutEncryptionConfiguration", - "s3:PutBucketPublicAccessBlock", - "iam:CreateRole", - "iam:GetRole", - "iam:PassRole", - "iam:PutRolePolicy", - "iam:AttachRolePolicy", - "lambda:CreateFunction", - "lambda:GetFunction", - "lambda:GetFunctionConfiguration", - "lambda:GetLayerVersion", - "lambda:InvokeFunction", - "lambda:PutFunctionConcurrency", - "lambda:AddPermission", - "lambda:TagResource", - "logs:CreateLogGroup", - "logs:DescribeLogGroups", - "logs:PutRetentionPolicy" - ], - "Resource": "*" + "Effect": "Allow", + "Action": [ + "cloudformation:*", + "secretsmanager:CreateSecret", + "secretsmanager:TagResource", + "s3:CreateBucket", + "s3:GetObject", + "s3:PutEncryptionConfiguration", + "s3:PutBucketPublicAccessBlock", + "iam:CreateRole", + "iam:GetRole", + "iam:PassRole", + "iam:PutRolePolicy", + "iam:AttachRolePolicy", + "lambda:CreateFunction", + "lambda:GetFunction", + "lambda:GetFunctionConfiguration", + "lambda:GetLayerVersion", + "lambda:InvokeFunction", + "lambda:PutFunctionConcurrency", + "lambda:AddPermission", + "lambda:TagResource", + "logs:CreateLogGroup", + "logs:DescribeLogGroups", + "logs:PutRetentionPolicy" + ], + "Resource": "*" } ``` @@ -686,25 +686,25 @@ El stack tecnológico de CloudFormation crea los siguientes roles IAM: ```json [ - { - "Effect": "Allow", - "Action": [ - "logs:CreateLogGroup", - "logs:CreateLogStream", - "logs:PutLogEvents" - ], - "Resource": "*" - }, - { - "Action": ["s3:GetObject"], - "Resource": "arn:aws:s3:::*", - "Effect": "Allow" - }, - { - "Action": ["secretsmanager:GetSecretValue"], - "Resource": "", - "Effect": "Allow" - } + { + "Effect": "Allow", + "Action": [ + "logs:CreateLogGroup", + "logs:CreateLogStream", + "logs:PutLogEvents" + ], + "Resource": "*" + }, + { + "Action": ["s3:GetObject"], + "Resource": "arn:aws:s3:::*", + "Effect": "Allow" + }, + { + "Action": ["secretsmanager:GetSecretValue"], + "Resource": "", + "Effect": "Allow" + } ] ``` @@ -714,36 +714,33 @@ El stack tecnológico de CloudFormation crea los siguientes roles IAM: ```json [ - { - "Effect": "Allow", - "Action": [ - "logs:CreateLogGroup", - "logs:CreateLogStream", - "logs:PutLogEvents" - ], - "Resource": "*" - }, - { - "Action": [ - "s3:ListBucket", - "s3:PutObject", - "s3:DeleteObject" - ], - "Resource": "", - "Effect": "Allow" - } + { + "Effect": "Allow", + "Action": [ + "logs:CreateLogGroup", + "logs:CreateLogStream", + "logs:PutLogEvents" + ], + "Resource": "*" + }, + { + "Action": ["s3:ListBucket", "s3:PutObject", "s3:DeleteObject"], + "Resource": "", + "Effect": "Allow" + } ] ``` ## Configuración de la etiqueta de servicio + El valor de la etiqueta `service` se determina en función de varias entradas. Estas entradas se ordenan por prioridad de mayor a menor + 1. Etiquetas personalizadas de mensajes de logs: Si el mensaje de log tiene una clave `ddtags` que contiene un valor de etiqueta `service`, se utilizará para anular la etiqueta `service` en el evento de log. 2. Caché de etiquetas Lambda (aplicable sólo a logs de Lambda): La activación de `DdFetchLambdaTags` obtendrá y almacenará todas las etiquetas de las funciones Lambda y anulará la etiqueta `service` si no se configuró previamente o si se configuró con un valor predeterminado, es decir, el valor `source (fuente)`. 3. Caché de etiquetas de grupo de logs de Cloudwatch (aplicable sólo a logs de Cloudwatch): La activación `DdFetchLogGroupTags` obtendrá y almacenará todas las etiquetas de grupos de logs de Cloudwatch que se añadan a la entrada `ddtags` en el evento de log. Si el valor de la etiqueta `service` se configuró en el caché de etiquetas, se utilizará para configurar la etiqueta `service` para el evento de log. 4. Establecer directamente un valor de etiqueta `service` en la variable de entorno `ddtags` del forwarder. 5. Valor por defecto igual a la etiqueta `source (fuente)`. - ## Referencias adicionales Documentación útil adicional, enlaces y artículos: @@ -773,4 +770,5 @@ Documentación útil adicional, enlaces y artículos: [21]: https://docs.datadoghq.com/es/logs/processing/pipelines/ [22]: https://docs.datadoghq.com/es/agent/guide/private-link/ [23]: https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/transform-aws-serverless.html -[24]: https://docs.datadoghq.com/es/logs/log_configuration/processors/?tab=ui#log-date-remapper \ No newline at end of file +[24]: https://docs.datadoghq.com/es/logs/log_configuration/processors/?tab=ui#log-date-remapper +[25]: https://github.com/DataDog/datadog-serverless-functions/blob/master/aws/logs_monitoring/CHANGELOG.md \ No newline at end of file diff --git a/content/es/logs/guide/log-collection-troubleshooting-guide.md b/content/es/logs/guide/log-collection-troubleshooting-guide.md index 9da0885419b39..ee2fbb0a2fd10 100644 --- a/content/es/logs/guide/log-collection-troubleshooting-guide.md +++ b/content/es/logs/guide/log-collection-troubleshooting-guide.md @@ -24,37 +24,6 @@ Existen una serie de problemas comunes que pueden surgir al [enviar nuevos logs Los cambios en la configuración del `datadog-agent` no se tendrán en cuenta hasta que [reinicies el Agent][3]. -## El tráfico saliente en el puerto 10516 está bloqueado - -El Datadog Agent envía sus logs a Datadog a través de TCP utilizando el puerto 10516. Si esa conexión no está disponible, los logs no se pueden enviar y se registra un error en el archivo `agent.log`. - -Puedes probar manualmente tu conexión utilizando OpenSSL, GnuTLS u otro cliente SSL/TLS. Para OpenSSL, ejecuta el siguiente comando: - -```shell -openssl s_client -connect intake.logs.datadoghq.com:10516 -``` - -Para GnuTLS, ejecuta el siguiente comando: - -```shell -gnutls-cli intake.logs.datadoghq.com:10516 -``` - -Y luego, enviando un log como el siguiente: - -```texto - este es un mensaje de prueba -``` - -- Si abrir el puerto 10516 no es una opción, es posible configurar el Datadog Agent para enviar logs a través de HTTPS, añadiendo lo siguiente en `datadog.yaml`: - -```yaml -logs_config: - force_use_http: true -``` - -Para obtener más información, consulta la sección sobre el [reenvío HTTPS de logs][4]. - ## Comprobar el estado del Agent A menudo, comprobar los resultados del [comando de estado del Agent][5] te ayudará a solucionar lo que está ocurriendo. diff --git a/content/es/logs/log_collection/csharp.md b/content/es/logs/log_collection/csharp.md index 159dc7c59daf5..afa07e2d29eea 100644 --- a/content/es/logs/log_collection/csharp.md +++ b/content/es/logs/log_collection/csharp.md @@ -494,58 +494,6 @@ using (var log = new LoggerConfiguration() } ``` -{{< site-region region="us" >}} - -También puedes reemplazar el comportamiento predeterminado y enviar los logs en TCP al especificar manualmente las siguientes propiedades necesarias: `url`, `port`, `useSSL` y `useTCP`. De manera opcional, [especifica el `source`, `service`, `host` y las etiquetas personalizadas.][1] - -Por ejemplo, para reenviar logs a la región US de Datadog en TCP deberías usar la siguiente configuración del receptor: - -```csharp -var config = new DatadogConfiguration(url: "intake.logs.datadoghq.com", port: 10516, useSSL: true, useTCP: true); -using (var log = new LoggerConfiguration() - .WriteTo.DatadogLogs( - "", - source: "", - service: "", - host: "", - tags: new string[] {":", ":"}, - configuration: config - ) - .CreateLogger()) -{ - // Some code -} -``` - -[1]: /es/logs/log_configuration/attributes_naming_convention/#reserved-attributes - -{{< /site-region >}} -{{< site-region region="eu" >}} - -También puedes reemplazar el comportamiento predeterminado y enviar los logs en TCP al especificar manualmente las siguientes propiedades necesarias: `url`, `port`, `useSSL` y `useTCP`. De manera opcional, [especifica el `source`, `service`, `host` y las etiquetas personalizadas.][1] - -Por ejemplo, para reenviar logs a la región EU de Datadog en TCP deberías usar la siguiente configuración del receptor: - -```csharp -var config = new DatadogConfiguration(url: "tcp-intake.logs.datadoghq.eu", port: 443, useSSL: true, useTCP: true); -using (var log = new LoggerConfiguration() - .WriteTo.DatadogLogs( - "", - source: "", - service: "", - host: "", - tags: new string[] {":", ":"}, - configuration: config - ) - .CreateLogger()) -{ - // Some code -} -``` -[1]: /es/logs/log_configuration/attributes_naming_convention/#reserved-attributes - -{{< /site-region >}} - Ahora los logs nuevos se envían directamente a Datadog. ## Referencias adicionales diff --git a/content/es/network_monitoring/cloud_network_monitoring/setup.md b/content/es/network_monitoring/cloud_network_monitoring/setup.md index 2e24c1d4d8ed9..d71a09c6cbefc 100644 --- a/content/es/network_monitoring/cloud_network_monitoring/setup.md +++ b/content/es/network_monitoring/cloud_network_monitoring/setup.md @@ -204,7 +204,7 @@ Para habilitar Cloud Network Monitoring para hosts de Windows: ```shell net /y stop datadogagent && net start datadogagent ``` -**Nota**: Cloud Network Monitoring monitoriza los hosts de Windows solamente, y no contenedores de Windows. +**Nota**: Cloud Network Monitoring solo monitoriza hosts de Windows y no contenedores de Windows. [1]: /es/agent/basic_agent_usage/windows/?tab=commandline @@ -212,28 +212,71 @@ Para habilitar Cloud Network Monitoring para hosts de Windows: {{% /tab %}} {{% tab "Helm" %}} -Para habilitar Cloud Network Monitoring con Kubernetes utilizando Helm, añade lo siguiente a tu archivo `values.yaml`.
-**Nota:** Se requiere Helm Chart v2.4.39 o posterior. Para obtener más información, consulta la [documentación de Helm Chart de Datadog][1]. +Para activar Cloud Network Monitoring con Kubernetes utilizando Helm, añade lo siguiente a tu archivo `values.yaml`.
+**Nota:** Se requiere Helm Chart v3.135.3+. Para obtener más información, consulta la [documentación de Helm Chart de Datadog][1]. ```yaml datadog: + ... networkMonitoring: enabled: true ``` -**Nota**: Si recibes un error de permisos al configurar CNM en tu entorno de Kubernetes: `Error: error enabling protocol classifier: permission denied`, añade lo siguiente a tu `values.yaml`. (Consulta esta [sección][5] en el Helm chart): - ```yaml - agents: - podSecurity: - apparmor: - enabled: true - ``` +Es posible que necesites uno de los siguientes pasos adicionales en función de tu entorno: + +{{< collapse-content title="GKE Autopilot de Google" level="h4" >}} + +Si tu clúster está ejecutando GKE Autopilot de Google, añade lo siguiente a tu archivo de valores: + +``` +providers: + gke: + autopilot: true +``` + +{{< /collapse-content >}} + +{{< collapse-content title="Sistema operativo optimizado con contenedor (COS) de Google" level="h4" >}} + +Si tu clúster ejecuta el sistema operativo optimizado con contenedor (COS) de Google, añade lo siguiente a tu archivo de valores: + +``` +providers: + gke: + cos: true +``` + + +{{< /collapse-content >}} + +{{< collapse-content title="Bottlerocket Linux" level="h4" >}} + +Si tu clúster utiliza la distribución Bottlerocket Linux para sus nodos, añade lo siguiente a tu archivo de valores: + +``` +agents: + containers: + systemProbe: + securityContext: + seLinuxOptions: + user: "system_u" + role: "system_r" + type: "spc_t" + level: "s0" +``` + +{{< /collapse-content >}} + +[1]: https://github.com/DataDog/helm-charts/blob/main/charts/datadog/README.md#enabling-npm-collection + +{{% /tab %}} +{{% tab "Kubernetes without Helm" %}} Si no utilizas Helm, puedes habilitar Cloud Network Monitoring con Kubernetes desde cero: -1. Descarga la plantilla [datadog-agent.yaml manifest][2]. -2. Sustituye `` por tu [clave de API Datadog][3]. +1. Descarga la plantilla [manifiesto de datadog-agent.yaml][1]. +2. Sustituye `` por tu [clave de API de Datadog][2]. 3. (Opcional) **Configura tu sitio Datadog**. Si utilizas el sitio Datadog EU, configura la variable de entorno `DD_SITE` como `datadoghq.eu` en el manifiesto `datadog-agent.yaml`. 4. **Despliega el DaemonSet** con el comando: @@ -241,7 +284,7 @@ Si no utilizas Helm, puedes habilitar Cloud Network Monitoring con Kubernetes de kubectl apply -f datadog-agent.yaml ``` -Si el [Agent ya se ejecuta con un manifiesto][4]: +Si ya tienes el [Agent ejecutándose con un manifiesto][3]: 1. Para las versiones de Kubernetes inferiores a `1.30`, añade la anotación `container.apparmor.security.beta.kubernetes.io/system-probe: unconfined` en la plantilla `datadog-agent`: @@ -392,11 +435,9 @@ Si el [Agent ya se ejecuta con un manifiesto][4]: emptyDir: { } ``` -[1]: https://github.com/DataDog/helm-charts/blob/master/charts/datadog/README.md#enabling-system-probe-collection -[2]: /resources/yaml/datadog-agent-npm.yaml -[3]: https://app.datadoghq.com/organization-settings/api-keys -[4]: /es/agent/kubernetes/ -[5]: https://github.com/DataDog/helm-charts/blob/main/charts/datadog/values.yaml#L1774-L1775 +[1]: /resources/yaml/datadog-agent-npm.yaml +[2]: https://app.datadoghq.com/organization-settings/api-keys +[3]: /es/agent/kubernetes/ {{% /tab %}} {{% tab "Operator" %}} diff --git a/content/es/network_monitoring/netflow/_index.md b/content/es/network_monitoring/netflow/_index.md index 435665da8c9ab..f55fa315bb2b2 100644 --- a/content/es/network_monitoring/netflow/_index.md +++ b/content/es/network_monitoring/netflow/_index.md @@ -11,14 +11,28 @@ further_reading: - link: https://www.datadoghq.com/blog/diagnose-network-performance-with-snmp-trap-monitoring/ tag: Blog text: Monitorizar y diagnosticar problemas de rendimiento de red con SNMP Traps -title: Monitorización de NetFlow +title: NetFlow Monitoring --- ## Información general -Utiliza NetFlow Monitoring en Datadog para visualizar y monitorizar tus registros de flujo en tus dispositivos habilitados para NetFlow. +La vista de NetFlow en Network Device Monitoring proporciona visibilidad de los flujos de tráfico de red recopilados de dispositivos que exportan datos de flujo (por ejemplo, enrutadores, cortafuegos o conmutadores). Puedes analizar el volumen de tráfico, identificar a los principales interlocutores y comprender cómo se mueven los datos por la red. -{{< img src="network_device_monitoring/netflow/home.png" alt="Página de NetFlow Monitoring con pestañas de fuentes principales, destinos, protocolos, puertos de origen, puertos de destino y tendencias de dispositivos" style="width:100%;" >}} +La vista de NetFlow muestra las métricas de tráfico agregadas por dispositivo e interfaz. Utilízala para identificar qué dispositivos o interfaces consumen más ancho de banda, generan más paquetes o contribuyen a los picos de tráfico. + +{{< img src="network_device_monitoring/netflow/netflow_home_2.png" alt="La page (página) de NetFlow Monitoring que contiene una leyenda contraíble para el volumen de tráfico, el estado del dispositivo, los flujos, etc." style="width:100%;" >}} + +## Navegación lateral + +Utiliza la navegación de la izquierda para explorar vistas adicionales de NetFlow: + +- **Volumen de tráfico**: Métricas de flujo global por dispositivo e interfaz. +- **Estado de los dispositivos**: Estado y utilización de los dispositivos monitorizados. +- **Flujos**: Registros detallados de flujos individuales. +- **Conversaciones**: Pares agregados de origen-destino. +- **Sistemas autónomos**: Datos de flujo agrupados por Números de sistema autónomo (ASN). +- **IP geográfico**: Datos de flujo agrupados por origen/destino geográfico. +- **Puertos de origen / Puertos de destino / Protocolos / Marcas**: Desglose del tráfico por metadatos de paquetes. ## Instalación @@ -30,7 +44,7 @@ Para utilizar NetFlow Monitoring con Network Device Monitoring, asegúrate de qu Para configurar tus dispositivos para enviar tráfico de NetFlow, jFlow, sFlow o IPFIX al servidor NetFlow del Agent, tus dispositivos deben estar configurados para enviar tráfico a la dirección IP en la que está instalado el Datadog Agent, específicamente `flow_type` y `port`. -Edita tu archivo de configuración del Agent [`datadog.yaml`][3] para activar NetFlow: +1. Edita tu archivo de configuración del Agent [`datadog.yaml`][3] para activar NetFlow: ```yaml network_devices: @@ -49,9 +63,9 @@ network_devices: reverse_dns_enrichment_enabled: false ``` -Luego de guardar los cambios, [reinicia el Agent][4]. +2. Luego de guardar los cambios, [reinicia el Agent][4]. -**Nota**: Asegúrate de que tus [reglas de firewall][9] permiten el tráfico UDP entrante en los puertos configurados. + **Nota**: Asegúrate de que tus [reglas de firewall][9] permiten el tráfico UDP entrante en los puertos configurados. ## Agregación @@ -67,21 +81,19 @@ Si la IP del exportador de NetFlow es una de las direcciones IP del dispositivo, Datadog enriquece las IP con el servicio y la región del proveedor de la nube pública para las direcciones IPv4, de modo que puedas filtrar los registros de flujos de un servicio y una región específicos. -{{< img src="network_device_monitoring/netflow/netflow_cloud_provider_ip_enrichment.png" alt="Direcciones IP de NetFlow enriquecidas con el nombre, la región y el servicio del proveedor de la nube" width="80%" >}} +{{< img src="network_device_monitoring/netflow/netflow_cloud_provider_enrichment_2.png" alt="Menú de Netflow Filter en el cual se muestra el nombre, la región y el servicio del proveedor en la nube" width="100%" >}} ### Enriquecimiento de puertos -Datadog enriquece los puertos en NetFlow con datos de IANA (Internet Assigned Numbers Authority) para resolver asignaciones de puertos bien conocidos (como Postgres en 5432 y HTTPS en 443). Esto puede observarse cuando se buscan nombres de aplicaciones de origen o de destino en NetFlow. - -{{< img src="network_device_monitoring/netflow/netflow_iana_port_mappings.png" alt="Página de NetFlow filtrada por @destination.application_name, que muestra nombres de puertos como HTTPS" width="80%" >}} +Datadog enriquece los puertos en NetFlow con datos de la IANA (Internet Assigned Numbers Authority) para resolver asignaciones de puertos bien conocidos (como Postgres en 5432 y HTTPS en 443). #### Enriquecimiento personalizado de puertos También puedes añadir tus propios enriquecimientos personalizados para asignar puertos y protocolos a aplicaciones específicas (por ejemplo, si un servicio personalizado se ejecuta en un puerto específico). Esto permite a los ingenieros de redes y a tus equipos interpretar y consultar los datos de NetFlow con nombres legibles. -En la pestaña **Configuración** en NetFlow, haz clic en **Add Enrichment** (Añadir enriquecimiento) para cargar el archivo CSV que contiene tus enriquecimientos personalizados. +En la pestaña **Configuration** (Configuración) de NetFlow, haz clic en **+ Add Enrichment** (+ Añadir enriquecimiento) para cargar el archivo CSV que contiene tus enriquecimientos personalizados. -{{< img src="network_device_monitoring/netflow/new_enrichment.png" alt="Modal de Asignación de nuevo enriquecimiento en la pestaña de configuración de NetFlow" width="80%" >}} +{{< img src="network_device_monitoring/netflow/new_enrichment_2.png" alt="El modal de Nueva asignación de enriquecimiento en la pestaña de la configuración de Netflow" width="100%" >}} ### Enriquecimiento de IP privada con DNS inverso @@ -89,19 +101,29 @@ Activa el enriquecimiento de IP privada con DNS inverso para realizar búsquedas Por [defecto][7], el enriquecimiento de IP con DNS inverso en tu archivo `datadog.yaml` está deshabilitado. Para habilitarlo, consulta la sección [Configuración](#configuration) de esta página. -Busca **DNS** en la agrupación de Flujo de la sección de facetas para encontrar los flujos asociados con el enriquecimiento de IP con DNS inverso: +Busca **DNS** en el menú **+ Filter** (+ Filtro) para localizar los flujos asociados al enriquecimiento del IP de DNS inverso: -{{< img src="network_device_monitoring/netflow/dns_ip_enrichment.png" alt="Captura de pantalla del destino DNS inverso y de las facetas de origen" width="100%" >}} +{{< img src="network_device_monitoring/netflow/dns_ip_enrichmen_2.png" alt="Filtrar el menú mejorado para mostrar las facetas de destino y de origen de DNS inverso" width="100%" >}} **Nota**: Las entradas de DNS inverso se almacenan en caché y están sujetas a limitaciones de frecuencia para minimizar las consultas DNS y reducir la carga de los servidores DNS. Para obtener más información sobre las opciones de configuración, incluyendo la modificación del almacenamiento en caché predeterminado y la limitación de frecuencia, consulta el [archivo de configuración completo][8]. -## Visualización +## Datos de IP + +En la vista **Conversations** (Conversaciones), puedes ver la dirección IP pública de la IP de destino. Pasa el ratón sobre la IP para mostrar metadatos enriquecidos sobre la IP y un enlace a **View Related Network Connections** (Ver conexiones de red relacionadas) donde puedes inspeccionar la conectividad con más detalles. + +{{< img src="network_device_monitoring/netflow/NetFlow_IP_pill.png" alt="Pase el ratón sobre la dirección IP para mostrar los datos de la IP y ver conexiones de red relacionadas" width="100%" >}} -Puedes acceder a los datos recopilados por NetFlow Monitoring en la página de [**NetFlow**][5]. Pasa el cursor sobre un flujo de la lista para obtener información adicional sobre hosts, pods y contenedores, y acceder a las conexiones de red relacionadas. +## Diagrama de flujo -{{< img src="network_device_monitoring/netflow/information.png" alt="Pasa el cursor sobre un flujo agregado desde un dispositivo emisor de NetFlow para acceder a las conexiones relacionadas con la red" width="100%" >}} +Puedes visualizar los flujos en NetFlow Monitoring haciendo clic en el menú **Flows** (Flujos) y pasando el ratón por encima de un flujo de la lista para ver información adicional sobre IP de origen, nombre de la interfaz de ingreso, nombre del dispositivo e IP de destino en todas las conexiones de red relacionadas. -Al crear un [monitor de NetFlow][6], debes tener en cuenta los siguientes campos, con respecto a la IP de origen o la IP de destino, desde la perspectiva del dispositivo. Estos campos proporcionan información sobre los patrones de tráfico de red y ayudan a optimizar el rendimiento y la seguridad. +{{< img src="network_device_monitoring/netflow/flows.png" alt="Pasar el ratón sobre un flujo agregado desde un dispositivo que emite netflow para acceder a conexiones de red relacionadas" width="100%" >}} + +## Monitor (noun) de NetFlow + +Haz clic en el icono **Create Monitor** (Crear monitor (noun)) desde cualquiera de las vistas para crear un [Monitor (noun) de NetFlow][6]. Cuando crees el monitor (noun), ten en cuenta los siguientes campos con respecto a la IP de origen o IP de destino desde la perspectiva del dispositivo. Estos campos proporcionan información sobre los patrones de tráfico de la red y ayudan a optimizar el rendimiento y la seguridad. + +{{< img src="network_device_monitoring/netflow/create_monitor.png" alt="Vista de flujos en NetFlow que monitoriza con el vínculo para crear monitores resaltado." width="100%" >}} ### Información sobre la interfaz @@ -206,14 +228,6 @@ Además de los campos, también puedes utilizar facetas predefinidas para empeza | Nombre de la subdivisión de origen | El nombre de la subdivisión (como estado o provincia) asociada a la IP de origen. | | Zona horaria de origen | La zona horaria asociada a la IP de origen. | -Mediante la monitorización de estos campos clave y del uso de facetas para analizar eventos de NetFlow, las organizaciones pueden obtener visibilidad de su infraestructura de red, optimizar el rendimiento y mejorar la postura de seguridad. - -{{< img src="monitors/monitor_types/netflow/monitor.png" alt="Crea un dashboard con datos de NetFlow" width="100%" >}} - -Estos datos también están disponibles en dashboards y notebooks, lo que permite realizar consultas precisas y correlacionarlas con otras fuentes de datos. Al crear un dashboard con datos de NetFlow, selecciona **NetFlow** como fuente en la sección **Grafica tus datos**. - -{{< img src="network_device_monitoring/netflow/dashboard.png" alt="Crea un dashboard con datos de NetFlow" width="100%" >}} - ## Frecuencia de muestreo La frecuencia de muestreo de NetFlow se tiene en cuenta en el cálculo de bytes y paquetes por defecto. Los valores mostrados para los bytes y los paquetes se calculan con la frecuencia de muestreo aplicada. diff --git a/content/es/real_user_monitoring/_index.md b/content/es/real_user_monitoring/_index.md index ff9b39bb0e3c3..1d2ee66792625 100644 --- a/content/es/real_user_monitoring/_index.md +++ b/content/es/real_user_monitoring/_index.md @@ -54,7 +54,7 @@ further_reading: - link: https://www.datadoghq.com/blog/static-web-application-monitoring-best-practices/ tag: Blog text: Prácticas recomendadas para la monitorización de aplicaciones web estáticas -- link: /real_user_monitoring/browser/data_collected/ +- link: /real_user_monitoring/application_monitoring/browser/data_collected/ tag: Documentación text: Datos del navegador de RUM recopilados - link: https://www.datadoghq.com/blog/progressive-web-application-monitoring/ @@ -101,21 +101,21 @@ Selecciona un tipo de aplicación para empezar a recopilar datos de RUM: La siguiente tabla muestra las funcionalidades de RUM compatibles con cada plataforma: -| Función | Navegador | Android | iOS | Flutter | React Native | Roku | Notas | -| ------------------------------------- | --------|---------|---------|---------|--------------|------|-------| -| Enviar logs a Datadog | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | -| Rastreo distribuido de solicitudes de red | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | El **SDK de Datadog Roku** sólo puede rastrear algunos tipos de solicitudes HTTP. | -| Rastrear vistas y acciones (RUM) | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | - Todas las acciones rastreadas en **Flutter Web** se registran como `custom`
- **Roku** sólo admite el rastreo manual de acciones. | -| Seguimiento de marcadores de funciones y seguimiento de versiones | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | | -| Seguimiento de errores y asignación de orígenes | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | Sólo parcialmente compatible con **React Native** | -| Seguimiento de fallos, simbolización y desofuscación | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | -| Detener sesiones (monitorización de quioscos) | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | | -| Rastrear eventos en vistas web | | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | | -| Monitorizar indicadores vitales específicos de plataformas | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | | -| Seguimiento global de contexto/atributo en logs | {{< X >}} | | | | | | | -| Rastreo del lado del cliente | | {{< X >}} | {{< X >}}| | | | | | -| Session Replay | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | | | -| Señales de frustración | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | Compatible sólo parcialmente con todos los dispositivos **móviles** y **Roku** | +| Función | Navegador | Android | iOS | Flutter | React Native | Roku | KMP | Unidad | Notas | +| ------------------------------------- | --------|---------|---------|---------|--------------|------|-----|-------|--------| +| Enviar logs a Datadog | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | +| Rastreo distribuido de solicitudes de red | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | - **Roku** solo puede rastrear algunos tipos de solicitudes HTTP.
- **Unity** utiliza una envoltura alrededor de `UnityWebRequest` para realizar el seguimiento de las solicitudes. | +| Rastrear vistas y acciones (RUM) | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | - Todas las acciones seguidas en **Flutter Web** se registran como `custom`.
- **Roku** y **Unity** solo admiten el seguimiento manual de acciones. | +| Seguimiento de marcadores de funciones y seguimiento de versiones | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | {{< X >}} | | +| Seguimiento de errores y asignación de orígenes | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | Solo parcialmente compatible con **React Native**. | +| Seguimiento de fallos, simbolización y desofuscación | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | +| Detener sesiones (monitorización de quioscos) | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | {{< X >}} | | +| Rastrear eventos en vistas web | | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | | | +| Monitorizar indicadores vitales específicos de plataformas | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | | | +| Seguimiento global de contexto/atributo en logs | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | {{< X >}} | | +| Rastreo del lado del cliente | | {{< X >}} | {{< X >}}| | | | | | | | +| Session Replay | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | | Session Replay de **Flutter** está en vista previa. | +| Señales de frustración | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | Solo parcialmente compatible con todos los dispositivos **móviles** y **Roku**. | ## Endpoints compatibles para dominios de SDK @@ -126,14 +126,14 @@ El tráfico de todos los SDK de Datadog se transmite a través de SSL (443 por d | US1 | `https://browser-intake-datadoghq.com` | | US3 | `https://browser-intake-us3-datadoghq.com` | | US5 | `https://browser-intake-us5-datadoghq.com` | -| EU1 | `https://browser-intake-datadoghq.eu` | +| UE1 | `https://browser-intake-datadoghq.eu` | | US1-FED | `https://browser-intake-ddog-gov.com` | | AP1 | `https://browser-intake-ap1-datadoghq.com` | | AP2 | `https://browser-intake-ap2-datadoghq.com` | ## Explorar RUM de Datadog -Accede a RUM yendo a [**Experiencia digital > Resumen del rendimiento**][1]. +Accede a RUM yendo a [**Digital Experience > Performance Summary** (Experiencia digital > Resumen del rendimiento)][1]. Selecciona una aplicación en la barra de navegación superior o sigue las instrucciones de configuración de [navegador][15] o [móvil][16] para añadir tu primera aplicación. @@ -235,7 +235,7 @@ Debes tener acceso de edición para restaurar el acceso general a una aplicació [4]: /es/monitors/types/real_user_monitoring/ [5]: /es/real_user_monitoring/correlate_with_other_telemetry/apm/ [6]: /es/real_user_monitoring/error_tracking/ -[7]: /es/real_user_monitoring/browser/monitoring_page_performance/#event-timings-and-core-web-vitals +[7]: /es/real_user_monitoring/application_monitoring/browser/monitoring_page_performance/#event-timings-and-core-web-vitals [8]: /es/real_user_monitoring/ios/mobile_vitals/ [9]: /es/real_user_monitoring/android/mobile_vitals/ [10]: /es/real_user_monitoring/ios/web_view_tracking/ @@ -243,7 +243,7 @@ Debes tener acceso de edición para restaurar el acceso general a una aplicació [12]: /es/real_user_monitoring/session_replay/browser/ [13]: /es/real_user_monitoring/session_replay/browser/privacy_options/ [14]: /es/real_user_monitoring/session_replay/browser/developer_tools/ -[15]: /es/real_user_monitoring/browser/setup/ -[16]: /es/real_user_monitoring/mobile_and_tv_monitoring/ +[15]: /es/real_user_monitoring/application_monitoring/browser/setup/ +[16]: /es/real_user_monitoring/application_monitoring/ [17]: https://app.datadoghq.com/rum/optimization/inspect [18]: /es/account_management/rbac/ \ No newline at end of file diff --git a/content/es/real_user_monitoring/guide/upload-javascript-source-maps.md b/content/es/real_user_monitoring/guide/upload-javascript-source-maps.md index b1e67fcdd5ca8..cb3a346b0b9a0 100644 --- a/content/es/real_user_monitoring/guide/upload-javascript-source-maps.md +++ b/content/es/real_user_monitoring/guide/upload-javascript-source-maps.md @@ -1,4 +1,6 @@ --- +description: Carga mapas fuente de JavaScript para mejorar el rastreo de errores con + stack traces legibles y una mejor depuración del código minificado. further_reading: - link: /real_user_monitoring/error_tracking tag: Documentación @@ -6,7 +8,7 @@ further_reading: - link: /real_user_monitoring/error_tracking/explorer tag: Documentación text: Visualización de tus datos de rastreo de errores en el Explorer -- link: https://github.com/DataDog/datadog-ci/tree/master/packages/datadog-ci/src/commands/sourcemaps +- link: https://github.com/DataDog/datadog-ci/tree/master/packages/datadog-ci/src/commands/sourcemaps#sourcemaps-command tag: Código fuente text: Referencia del comando Sourcemaps title: Carga de mapas de fuente de JavaScript @@ -20,10 +22,10 @@ Si el código fuente de tu frontend JavaScript está minificado, carga tus mapas ## Instrumentar tu código -Configura tu empaquetador de JavaScript para que, al minificar tu código fuente, genere mapas de fuente que incluyan directamente el código fuente relacionado en el atributo `sourcesContent`. +Configura tu empaquetador de JavaScript para que, al minificar el código fuente,, genere mapas fuente que incluyan directamente el código fuente relacionado en el atributo `sourcesContent`.
-Asegúrate de que el tamaño de cada mapa fuente aumentado con el tamaño del archivo minificado relacionado no supere el límite de **500 MB**. +Asegúrate de que el tamaño de cada source map (mapa de fuentes) aumentado con el tamaño del archivo minificado relacionado no supere el límite de **500 MB**.
Consulta las siguientes configuraciones para los empaquetadores más populares de JavaScript. @@ -65,6 +67,27 @@ module.exports = { Parcel genera mapas de fuente por defecto cuando se ejecuta el comando build: `parcel build `. +{{% /tab %}} +{{% tab "Vite" %}} + +Puedes generar source maps (mapas de fuentes) configurando la opción `build.sourcemap` en tu archivo `vite.config.js`. + +Consulta el ejemplo de configuración: + +```javascript +// vite.config.js +import { defineConfig } from 'vite' + +export default defineConfig({ + build: { + sourcemap: true, // generates .js.map files + minify: 'terser', // or 'esbuild' + } +}) +``` + +**Nota**: Si estás utilizando TypeScript, asegúrate de que `compilerOptions.sourceMap` se configure en `true` en tu archivo `tsconfig.json`. + {{% /tab %}} {{< /tabs >}} @@ -82,7 +105,7 @@ Consulta el siguiente ejemplo: ```
-Si la suma del tamaño de los archivos javascript.364758.min.js y javascript.364758.js.map supera el límite de 500 MB, redúcelo configurando el empaquetador para dividir el código fuente en varios fragmentos más pequeños. Para obtener más información, consulta Code Splitting with WebpackJS. +Si la suma del tamaño de los archivos javascript.364758.min.js y javascript.364758.js.map supera el límite de 500 MB, redúcelo configurando el empaquetador para dividir el código source (fuente) en varios fragmentos más pequeños. Para obtener más información, consulta División del código con WebpackJS.
## Cargar tus mapas de fuente @@ -158,6 +181,6 @@ Por otro lado, un stack trace sin minificar te proporciona todo el contexto que {{< partial name="whats-next/whats-next.html" >}} [1]: https://github.com/DataDog/datadog-ci/tree/master/packages/datadog-ci/src/commands/sourcemaps -[2]: https://docs.datadoghq.com/es/real_user_monitoring/browser/setup/#initialization-parameters +[2]: https://docs.datadoghq.com/es/real_user_monitoring/application_monitoring/browser/setup/#initialization-parameters [3]: https://docs.datadoghq.com/es/logs/log_collection/javascript/#initialization-parameters -[4]: https://github.com/DataDog/datadog-ci/tree/master/packages/datadog-ci/src/commands/sourcemaps#link-errors-with-your-source-code +[4]: https://github.com/DataDog/datadog-ci/tree/master/packages/datadog-ci/src/commands/sourcemaps#link-errors-with-your-source-code \ No newline at end of file diff --git a/content/es/real_user_monitoring/session_replay/browser/_index.md b/content/es/real_user_monitoring/session_replay/browser/_index.md index e3161dfd96842..b00322060ef1f 100644 --- a/content/es/real_user_monitoring/session_replay/browser/_index.md +++ b/content/es/real_user_monitoring/session_replay/browser/_index.md @@ -1,7 +1,6 @@ --- aliases: - /es/real_user_monitoring/guide/session-replay-getting-started/ -- /es/real_user_monitoring/session_replay/ description: Aprende a capturar y reproducir visualmente la experiencia de navegación web de tus usuarios con Session Replay. further_reading: @@ -30,11 +29,11 @@ title: Session Replay de navegador Session Replay amplía tu experiencia de monitorización de usuarios, ya que te permite capturar y reproducir visualmente la experiencia de navegación web de tus usuarios. Combinada con los datos de rendimiento de RUM, Session Replay es útil para identificar, reproducir y solucionar errores, y proporciona información sobre los patrones de uso y los fallos de diseño de tu aplicación web. -El SDK del Navegador RUM es de [código abierto][1] y aprovecha el proyecto de código abierto [rrweb][2]. +El SDK del navegador RUM es de [código abierto][1] y aprovecha el proyecto de código abierto [rrweb][2]. ## Cómo funciona el grabador de Session Replay -El grabador de Session Replay forma parte del SDK del Navegador RUM. El grabador toma una snapshot de DOM y CSS del navegador, mientras realiza un seguimiento y graba los eventos de una página web (como modificaciones de DOM, movimientos del cursor, clics y eventos de entradas) junto con estas marcas de tiempo de eventos. +El grabador de Session Replay forma parte del SDK del navegador RUM. El grabador toma una snapshot de DOM y CSS del navegador, mientras realiza un seguimiento y graba los eventos de una página web (como modificaciones de DOM, movimientos del cursor, clics y eventos de entradas) junto con estas marcas de tiempo de eventos. Datadog, a continuación, reconstruye la página web y vuelve a aplicar los eventos registrados en el momento adecuado en la vista de reproducción. @@ -44,84 +43,19 @@ Para reducir el impacto de Session Replay en la red y garantizar que el grabador ## Configuración -Session Replay está disponible en el SDK del Navegador RUM. Para empezar a recopilar datos para Session Replay, configura la [monitorización del Navegador RUM Datadog][4] creando una aplicación RUM, habilitando la generación de token de cliente e inicializando el el SDK del Navegador RUM. Para ver la configuración en entornos móviles, consulta [Session Replay para móviles][5]. +Aprende a [instalar y configurar el navegador de Session Replay][4]. -
Session Replay es compatible con la versión 3.6.0 o posterior del SDK.
+## Opciones de privacidad -## Utilización +Consulta [Opciones de privacidad][5]. -A partir de la versión 5.0.0 del SDK del Navegador RUM, Session Replay comienza a grabar automáticamente al llamar a `init()`. Para iniciar condicionalmente la grabación, utiliza el parámetro de inicialización `startSessionReplayRecordingManually` y llama a `startSessionReplayRecording()`. +## Solucionar problemas -Por ejemplo, para grabar sólo las sesiones de usuarios autenticados: - -```javascript -window.DD_RUM.init({ - applicationId: '', - clientToken: '', - site: '', - // servicio: 'my-web-application', - // entorno: 'production', - // versión: '1.0.0', - sessionSampleRate: 100, - sessionReplaySampleRate: 100, - startSessionReplayRecordingManually: true, - ... -}); - -if (user.isAuthenticated) { - window.DD_RUM.startSessionReplayRecording(); -} -``` - -Para detener la grabación de Session Replay, llama a `stopSessionReplayRecording()`. - -
Cuando se utiliza una versión del SDK del Navegador RUM anterior a v5.0.0, la grabación de Session Replay no comienza automáticamente. Para iniciar la grabación, llama a startSessionReplayRecording().
- -## Forzar Session Replay - -En algunos casos, es posible que desees iniciar la grabación de una sesión después de que haya comenzado, incluso si inicialmente se muestreó fuera de la reproducción. Por ejemplo, es posible que desees forzar Session Replay en una página recién desplegada para una monitorización más detallada, o iniciar la grabación después de detectar un error para garantizar datos de reproducción completos. - -Para forzar la grabación de Session Replay para el resto de la sesión actual, llama a `startSessionReplayRecording({ force: true })` - -Cuando se utiliza la opción de forzar, la sesión se actualiza a una sesión reproducida durante el resto de su duración, independientemente de su decisión de muestreo inicial. - -
La opción forzar sólo convierte una sesión existente en una repetición si ya se está muestreando. En otras palabras, si aún no se ha iniciado el muestreo, el uso de la opción forzar no lo inicia y no se graba ninguna repetición.
- -## Desactivar Session Replay - -Para detener las grabaciones de sesión, establece `sessionReplaySampleRate` en `0`. Esto detiene la recopilación de datos para el [plan de navegador RUM y Session Replay][6]. - -
Si estás utilizando una versión del SDK del navegador RUM anterior a v5.0.0, define replaySampleRate en 0.
- -## Conservación - -Por defecto, los datos de Session Replay se conservan durante 30 días. - -Para ampliar el periodo de conservación a 15 meses, puedes habilitar la conservación ampliada en las repeticiones de sesiones individuales. Estas sesiones no deben estar activas (el usuario ha completado su experiencia). - -La conservación ampliada sólo se aplica a Session Replay y no incluye los eventos asociados. Los 15 meses comienzan cuando se habilita la conservación ampliada, no cuando se recopila la sesión. - -Puedes deshabilitar la conservación ampliada en cualquier momento. Si la reproducción de sesiones todavía está dentro de los 30 días de conservación predeterminados, la reproducción caduca al final de la ventana inicial de 30 días. Si deshabilitas la conservación ampliada en una reproducción de sesión que tiene más de 30 días, la reproducción caduca inmediatamente. - -{{< img src="real_user_monitoring/session_replay/session-replay-extended-retention.png" alt="Habilitar la conservación ampliada" style="width:100%;" >}} - -Consulta el siguiente diagrama para comprender qué datos se conservan con la conservación ampliada. - -{{< img src="real_user_monitoring/session_replay/replay-extended-retention.png" alt="Diagrama de los datos que se conservan mediante la conservación ampliada" style="width:100%;" >}} - -## Historial de reproducción - -Puedes ver quién ha visto la repetición de una sesión determinada haciendo clic en el recuento de **vistos** que aparece en la página del reproductor. Esta función te permite consultar si alguien con quien quieres compartir la grabación ya la ha visto. - -{{< img src="real_user_monitoring/session_replay/session-replay-playback-history.png" alt="Consultar quién ha visto la grabación de una sesión" style="width:100%;" >}} - -El historial sólo incluye las reproducciones que se han realizado en la página del reproductor o en un reproductor integrado, como en un [notebook][8] o panel lateral. Las reproducciones incluidas también generan un evento de [Audit Trail][7]. Las previsualizaciones en miniatura no se incluyen en el historial. - -Para ver tu propio historial de reproducción, consulta la lista de reproducción [Mi historial de vistas][9]. +Aprende a [solucionar problemas del navegador de Session Replay][7]. ## Session Replay para móviles -Más información sobre [Session Replay para móviles][5]. +Más información sobre [Session Replay para móviles][8]. ## Referencias adicionales @@ -130,9 +64,7 @@ Más información sobre [Session Replay para móviles][5]. [1]: https://github.com/DataDog/browser-sdk [2]: https://www.rrweb.io/ [3]: https://github.com/DataDog/browser-sdk/blob/main/packages/rum/BROWSER_SUPPORT.md -[4]: /es/real_user_monitoring/browser/ -[5]: /es/real_user_monitoring/session_replay/mobile/ -[6]: https://www.datadoghq.com/pricing/?product=real-user-monitoring--session-replay#real-user-monitoring--session-replay -[7]: https://docs.datadoghq.com/es/account_management/audit_trail/ -[8]: https://docs.datadoghq.com/es/notebooks/ -[9]: https://app.datadoghq.com/rum/replay/playlists/my-watch-history \ No newline at end of file +[4]: /es/real_user_monitoring/session_replay/browser/setup_and_configuration +[5]: /es/real_user_monitoring/session_replay/browser/privacy_options +[7]: /es/real_user_monitoring/session_replay/browser/troubleshooting +[8]: /es/real_user_monitoring/session_replay/mobile/ \ No newline at end of file diff --git a/content/es/serverless/aws_lambda/configuration.md b/content/es/serverless/aws_lambda/configuration.md index 156db221f6e4d..ec6aec9963414 100644 --- a/content/es/serverless/aws_lambda/configuration.md +++ b/content/es/serverless/aws_lambda/configuration.md @@ -45,6 +45,7 @@ Primero, [instala][1] Datadog Serverless Monitoring para comenzar a recopilar m - [Configuración del enlace automático para PutItem de DynamoDB](#configure-auto-linking-for-dynamodb-putitem) - [Visualización y modelado correcto de los servicios de AWS](#visualize-and-model-aws-services-by-resource-name) - [Envío de logs a Observability Pipelines](#sending-data-to-observability-pipelines) +- [Recargar periódicamente el secreto de la clave de API](#reload-api-key-secret-periodically) - [Solucionar problemas](#troubleshoot) - [Referencias adicionales](#further-reading) @@ -798,6 +799,14 @@ Para activar esta función, establece estas variables de entorno: **Nota**: Tu Observability pipeline debe utilizar `Http Server` como fuente para procesar logs de Lambda Extension. No utilices `Datadog Agent` como fuente. +## Recargar periódicamente el secreto de la clave de API + +Si especificas la clave de API de Datadog utilizando `DD_API_KEY_SECRET_ARN`, también puedes configurar `DD_API_KEY_SECRET_RELOAD_INTERVAL` para que recargue periódicamente el secreto. Por ejemplo, si configuras `DD_API_KEY_SECRET_RELOAD_INTERVAL` en `43200`, el secreto se recarga cuando se necesita la clave de API para enviar datos y han pasado más de 43200 segundos desde la última carga. + +Ejemplo de caso de uso: por seguridad, cada día (86400 segundos), la clave de API se rota y el secreto se actualiza a la nueva clave, y la clave de API antigua se mantiene válida durante otro día como periodo de gracia. En este caso, se puede establecer `DD_API_KEY_SECRET_RELOAD_INTERVAL` en `43200`, por lo que la clave de API se recarga durante el periodo de gracia de la clave antigua. + +Está disponible para la versión 88+ de la extensión de Datadog Lambda. + ## Solucionar problemas Si tienes problemas para configurar tus instalaciones, define la variable de entorno `DD_LOG_LEVEL` como `debug` en los logs de depuración. Para obtener más consejos sobre cómo solucionar problemas, consulta la [guía de solución de problemas de la monitorización serverless][39]. diff --git a/content/es/serverless/guide/datadog_forwarder_node.md b/content/es/serverless/guide/datadog_forwarder_node.md index a940166ff4679..9d4320482c3b7 100644 --- a/content/es/serverless/guide/datadog_forwarder_node.md +++ b/content/es/serverless/guide/datadog_forwarder_node.md @@ -5,7 +5,7 @@ title: Instrumentación de aplicaciones serverless de Node.js mediante el Datado ## Información general
-Si recién empiezas a utilizar Datadog Serverless, sigue las instrucciones para instrumentar tus funciones de Lambda mediante la Datadog Lambda Extension. Si configuraste Datadog Serverless con el Datadog Forwarder antes de que Lambda ofreciera la funcionalidad lista para usar, utiliza esta guía para mantener tu instancia. +Si eres un usuario nuevo de Datadog Serverless, sigue las instrucciones para instrumentar tus funciones de Lambda utilizando la extensión de Datadog Lambda. Si has configurado Datadog Serverless con el Datadog Forwarder antes de que Lambda ofreciera una funcionalidad predefinida, utiliza esta guía para mantener tu instancia.
## Requisitos previos @@ -44,7 +44,7 @@ datadog-ci lambda instrument -f -f -r ` y `` por los nombres de tu función de Lambda. - Reemplaza `` por el nombre de la región de AWS. -- Reemplaza `` por la versión de la librería Lambda de Datadog que quieres utilizar. La última versión es `{{< latest-lambda-layer-version layer="node" >}}`. +- Reemplaza `` por la versión de la biblioteca Lambda de Datadog que quieres utilizar. La última versión es `{{< latest-lambda-layer-version layer="node" >}}`. - Reemplaza `` por el nombre de recurso de Amazon (ARN) del Forwarder (consulta la [documentación del Forwarder][2]). Por ejemplo: @@ -65,7 +65,7 @@ Obtén más información y parámetros adicionales en la [documentación de la C {{% /tab %}} {{% tab "Serverless Framework" %}} -El complemento [Datadog Serverless Plugin][1] añade la librería Lambda de Datadog automáticamente a tus funciones mediante capas y configura las funciones para enviar métricas, trazas y logs a Datadog a través del [Datadog Forwarder][2]. +El complemento [Datadog Serverless Plugin][1] añade la biblioteca Lambda de Datadog automáticamente a tus funciones mediante capas y configura las funciones para enviar métricas, trazas y logs a Datadog a través del [Datadog Forwarder][2]. Si configuraste tu función de Lambda para utilizar la firma de código, debes añadir el ARN del perfil de firma de Datadog (`arn:aws:signer:us-east-1:464622532012:/signing-profiles/DatadogLambdaSigningProfile/9vMI9ZAGLc`) a la [configuración de firma de código][6] de tu función antes de poder instalar el Datadog Serverless Plugin. @@ -98,7 +98,7 @@ Para instalar y configurar el Datadog Serverless Plugin, sigue estos pasos: {{% /tab %}} {{% tab "AWS SAM" %}} -La [macro de CloudFormation de Datadog][1] transforma automáticamente tu plantilla de aplicación de SAM para añadir la librería Lambda de Datadog a tus funciones mediante capas. Además, configura las funciones para enviar métricas, trazas y logs a Datadog a través del [Datadog Forwarder][2]. +La [macro de CloudFormation de Datadog][1] transforma automáticamente tu plantilla de aplicación de SAM para añadir la biblioteca Lambda de Datadog a tus funciones mediante capas. Además, configura las funciones para enviar métricas, trazas y logs a Datadog a través del [Datadog Forwarder][2]. ### Instalar @@ -146,13 +146,13 @@ Obtén más información y parámetros adicionales en la [documentación de la m Las [Construcciones del Datadog CDK][1] configuran automáticamente la ingesta de métricas, trazas y logs de tus aplicaciones serverless mediante las siguientes acciones: -- La instalación y configuración de la librería Lambda de Datadog para tus funciones de Lambda de Python y Node.js. +- La instalación y configuración de la biblioteca Lambda de Datadog para tus funciones de Lambda de Python y Node.js. - La habilitación de la recopilación de trazas y métricas personalizadas de tus funciones de Lambda. - La gestión de las suscripciones del Datadog Forwarder a los grupos de logs de tus funciones de Lambda. ### Instalar -Ejecuta el siguiente comando de Yarn o NPM en tu proyecto del CDK para instalar la librería de Construcciones del Datadog CDK: +Ejecuta el siguiente comando de Yarn o NPM en tu proyecto del CDK para instalar la biblioteca de Construcciones del Datadog CDK: ```sh #Yarn @@ -202,7 +202,7 @@ Obtén más información y parámetros adicionales en la [página de NPM del Dat ### Instalar -Si vas a desplegar tu función de Lambda como una imagen de contenedor, no puedes utilizar la librería Lambda de Datadog como una capa. En su lugar, debes instalar la librería Lambda de Datadog como una dependencia de tu función dentro de la imagen. Si quieres utilizar el rastreo de Datadog, también debes instalar `dd-trace`. +Si vas a desplegar tu función de Lambda como una imagen de contenedor, no puedes utilizar la biblioteca Lambda de Datadog como una capa. En su lugar, debes instalar la biblioteca Lambda de Datadog como una dependencia de tu función dentro de la imagen. Si quieres utilizar el rastreo de Datadog, también debes instalar `dd-trace`. **NPM**: @@ -244,7 +244,7 @@ Suscribe la función de Lambda del Datadog Forwarder a cada uno de los grupos de ### Instalar -La librería Lambda de Datadog puede importarse como una capa o como un paquete de JavaScript. +La biblioteca Lambda de Datadog puede importarse como una capa o como un paquete de JavaScript. La versión secundaria del paquete `datadog-lambda-js` siempre coincide con la versión de la capa. Por ejemplo, la versión 0.5.0 de datadog-lambda-js coincide con el contenido de la versión 5 de la capa. @@ -267,7 +267,7 @@ Las opciones disponibles en `RUNTIME` son {{< latest-lambda-layer-version layer= arn:aws:lambda:us-east-1:464622532012:layer:Datadog-{{< latest-lambda-layer-version layer="node-example-version" >}}:{{< latest-lambda-layer-version layer="node" >}} ``` -Si configuraste tu función de Lambda para utilizar la firma de código, debes añadir el ARN del perfil de firma de Datadog (`arn:aws:signer:us-east-1:464622532012:/signing-profiles/DatadogLambdaSigningProfile/9vMI9ZAGLc`) a la [configuración de firma de código][2] de tu función antes de poder añadir la librería Lambda de Datadog como una capa. +Si configuraste tu función de Lambda para utilizar la firma de código, debes añadir el ARN del perfil de firma de Datadog (`arn:aws:signer:us-east-1:464622532012:/signing-profiles/DatadogLambdaSigningProfile/9vMI9ZAGLc`) a la [configuración de firma de código][2] de tu función antes de poder añadir la biblioteca Lambda de Datadog como una capa. #### Como un paquete @@ -386,4 +386,4 @@ Para obtener más información sobre el envío de métricas personalizadas, cons [2]: /es/getting_started/tagging/unified_service_tagging/#aws-lambda-functions [3]: https://app.datadoghq.com/functions [4]: /es/serverless/custom_metrics?tab=nodejs -[5]: /es/tracing/custom_instrumentation/nodejs/ +[5]: /es/tracing/custom_instrumentation/nodejs/ \ No newline at end of file diff --git a/content/es/service_management/on-call/_index.md b/content/es/service_management/on-call/_index.md index 24c13887bc4cd..9d0638617f457 100644 --- a/content/es/service_management/on-call/_index.md +++ b/content/es/service_management/on-call/_index.md @@ -64,13 +64,13 @@ Para restringir el acceso a un recurso de On-Call: 1. Ve al recurso de On-Call específico (cronograma, política de escalado, reglas de derivación a equipos 1. Haz clic en **Manage** (Gestionar). -1. Selecciona **Permisos** en el menú desplegable. +1. Selecciona **Permissions** (Permisos) en el menú desplegable. 1. Haz clic en **Restrict Access** (Restringir el acceso). 1. Selecciona uno o varios roles, equipos o usuarios en el menú desplegable. 1. Haz clic en **Add** (Añadir). 1. Selecciona el nivel de acceso que quieres asociar a cada uno de ellos en el menú desplegable situado junto a su nombre: - - **Visor**: Acceso de sólo lectura para ver el recurso. - - **Anulación** (sólo cronogramas): Se pueden ver y crear anulaciones de cronogramas. + - **Visor**: Acceso de solo lectura para ver el recurso. + - **Anulación** (solo cronogramas): Se pueden ver y crear anulaciones de cronogramas. - **Editor**: Acceso total para ver y modificar el recurso. 1. Haz clic en **Save** (Guardar). @@ -78,7 +78,7 @@ Para restringir el acceso a un recurso de On-Call: ## Empiece a utilizar Datadog On-Call -
Para conservar el historial de incidentes, Datadog On-Call no admite la eliminación de recursos como localizadores, políticas de escalado o cronogramas. Para probar On-Call sin afectar a tu entorno de producción, crea una organización de prueba como sandbox.
+
Para conservar el historial de incidentes, Datadog On-Call no admite la eliminación de recursos como páginas, políticas de escalado u horarios. Para testear On-Call sin afectar a tu entorno de producción, crea una organización de prueba como un entorno de pruebas.
Para empezar con On-Call [incorpora un equipo de On-Call][1] y asegúrate de que todos los miembros del equipo configuran sus [ajustes del perfil de On-Call][2] para recibir notificaciones. diff --git a/content/es/service_management/on-call/guides/_index.md b/content/es/service_management/on-call/guides/_index.md index ea22992c3c36b..6ddd3f8f7afaf 100644 --- a/content/es/service_management/on-call/guides/_index.md +++ b/content/es/service_management/on-call/guides/_index.md @@ -6,6 +6,7 @@ title: Guías de guardia {{< whatsnext desc="Guías generales:">}} {{< nextlink href="/service_management/on-call/guides/configure-mobile-device-for-on-call" >}}Configurar tu dispositivo móvil para Datadog On-Call{{< /nextlink >}} - {{< nextlink href="/service_management/on-call/guides/migrating-from-your-current-providers" >}}Migrar desde tu actual proveedor de servicios de guardia{{< /nextlink >}} + {{< nextlink href="/service_management/on-call/guides/migrating-from-your-current-providers" >}}Migrar desde tu proveedor de On-Call actual{{< /nextlink >}} {{< nextlink href="/service_management/on-call/guides/migrate-your-pagerduty-resources-to-on-call" >}}Migrar recursos de PagerDuty a Datadog On-Call{{< /nextlink >}} + {{< nextlink href="/service_management/on-call/guides/offboarding-teams-and-users" >}}Salida de equipos y usuarios desde Datadog On-Call{{< /nextlink >}} {{< /whatsnext >}} \ No newline at end of file diff --git a/content/es/service_management/on-call/guides/configure-mobile-device-for-on-call.md b/content/es/service_management/on-call/guides/configure-mobile-device-for-on-call.md index 158cf05c4a92b..19934b5472c20 100644 --- a/content/es/service_management/on-call/guides/configure-mobile-device-for-on-call.md +++ b/content/es/service_management/on-call/guides/configure-mobile-device-for-on-call.md @@ -10,7 +10,7 @@ Estar de guardia requiere notificaciones fiables y puntuales para asegurar que p 1. Instala la [aplicación móvil de Datadog][1]. 2. [Configurar notificaciones push](#set-up-push-notifications): habilita tu dispositivo para recibir notificaciones desde la aplicación móvil de Datadog. -3. [Evitar el modo silencio y No molestar](#circumvent-mute-and-do-not-disturb-mode): recibe notificaciones push, llamadas de voz y SMS mientras tu dispositivo está en modo No molestar. +3. [Circunvenir el modo silencio y No molestar](#circumvent-mute-and-do-not-disturb-mode-for-on-call): recibe notificaciones push, llamadas de voz y SMS mientras tu dispositivo está en modo No molestar. ## Establecer notificaciones push
@@ -47,8 +47,8 @@ Asegúrate de conceder a la aplicación móvil los permisos necesarios. {{% /tab %}} {{< /tabs >}} -### Sonidos personalizados -Tanto en iOS como en Android, tienes la opción de anular los sonidos de notificación predeterminados del sistema. La aplicación de Datadog viene precargada con una selección de sonidos personalizados. +### Sonidos personalizados +Tanto en iOS como en Android, tienes la opción de anular los sonidos de notificación predeterminados del sistema. La aplicación de Datadog viene precargada con una selección de sonidos personalizados. ## El modo Silencio y No molestar para On-Call Puedes anular el volumen de sistema de tu dispositivo y el modo No molestar tanto para las notificaciones push (desde la aplicación móvil de Datadog) como para las notificaciones de telefonía (como llamadas de voz y SMS). @@ -78,28 +78,30 @@ Puedes anular el volumen de sistema de tu dispositivo y el modo No molestar tant {{< img src="service_management/mobile/android_allow_notification_may_2025.png" alt="Anula tu volumen del sistema del dispositivo de Android y el modo No molestar." style="width:100%;" >}} -2. Si faltan permisos de notificación, pulsa **Bypass Do Not Disturb** (Ignorar No Molestar) y activa **Allow notifications** (Permitir notificaciones) en System Settings (Ajustes del sistema). +2. Si faltan permisos de notificación, pulsa **Bypass Do Not Disturb** (Anular No molestar) y activa **Allow notifications** (Permitir notificaciones) en System Settings (Ajustes del sistema). {{< img src="service_management/mobile/android_override_system_may_2025.png" alt="Anula tu volumen del sistema del dispositivo de Android y el modo No molestar." style="width:100%;" >}} 3. A continuación, pulsa **Bypass Do Not Disturb** (Ignorar No Molestar) y activa **Override Do Not Disturb** (Anular No Molestar) en Ajustes del sistema para On-Call de urgencia elevada. +**Para Samsung:** ve a las opciones **Settings** > **Notifications** > **Do Not Disturb** > **App notification** (Configuración > Notificaciones > No molestar > Notificación de la aplicación) del dispositivo. Selecciona Datadog como aplicación que omite No molestar. + {{< img src="service_management/mobile/android_override_system_volume_may_2025.png" alt="Anula tu volumen del sistema del dispositivo de Android y el modo No molestar." style="width:100%;" >}} -5. Para anular el volumen del sistema, toca **Override system volume** (Anular volumen del sistema) y permite **Mode access** (Modo de acceso) en System Settings (Configuración del sistema) para activar **Override system volume** (Anular volumen del sistema). +4. Para anular el volumen del sistema, toca **Override system volume** (Anular volumen del sistema) y permite **Mode access** (Modo de acceso) en System Settings (Configuración del sistema) para activar **Override system volume** (Anular volumen del sistema). -6. En la web, configura las preferencias de notificación para **Notificaciones muy urgentes** o **Notificaciones poco urgentes**. +5. En la web, configura las preferencias de notificación para **Notificaciones muy urgentes** o **Notificaciones poco urgentes**. -7. Prueba la configuración de tu notificación push crítica tocando **Test push notifications** (Probar notificaciones push). +6. Prueba la configuración de tu notificación push crítica tocando **Test push notifications** (Probar notificaciones push).
-En Android, la aplicación móvil de Datadog no puede omitir los ajustes de volumen de sistema o de No molestar cuando se utiliza dentro de un perfil de trabajo. Como solución, instala la aplicación móvil de Datadog en tu perfil personal. +En Android, la aplicación móvil de Datadog no puede omitir los ajustes de volumen del sistema o de No molestar cuando se utiliza dentro de un perfil de trabajo. Como solución, instala la aplicación móvil de Datadog en tu perfil personal.
{{% /tab %}} {{< /tabs >}} -### Sonidos personalizados para notificaciones push críticas -Para las notificaciones muy urgentes, Datadog recomienda encarecidamente personalizar los sonidos del sistema y la configuración del volumen. Esto garantiza que las alertas no sólo sean más claras y reconocibles, sino también más eficaces a la hora de captar la atención. +### Sonidos y volumen personalizados para un push crítico +Para las notificaciones de alta urgencia, Datadog recomienda encarecidamente personalizar los sonidos del sistema y la configuración del volumen. Esto garantiza que las alertas no solo sean más claras y reconocibles, sino también más eficaces a la hora de captar la atención. Testea tus preferencias de notificación para confirmar que se comportan como esperas. ### Canales de telefonía (llamadas de voz y SMS) @@ -117,6 +119,8 @@ Para mayor fiabilidad, Datadog utiliza un conjunto rotatorio de números de tel 3. Una vez creado este contacto, abre los ajustes del sistema iOS y ve a **Focus** > **Do Not Disturb** (Enfoque > No molestar). 4. En **People** (Personas), permite notificaciones desde el contacto de Datadog On-Call. Si has activado las alertas críticas para las aplicaciones push de Datadog, la aplicación móvil de Datadog también aparecerá en **Aplicaciones**. + +5. Para omitir el modo silencioso, desplázate hasta el contacto de Datadog On-Call >> pulsa **Ringtone** (Tono de llamada) >> activa **Emergency Bypass** (Anulación de emergencia). {{% /tab %}} {{% tab "Android" %}} @@ -129,7 +133,7 @@ Para mayor fiabilidad, Datadog utiliza un conjunto rotatorio de números de tel 3. Una vez creado este contacto, márcalo como favorito. -4. Abre los ajustes del sistema Android y ve a **Sound & vibration** > **Do Not Disturb** (Sonido y vibración > No molestar). Crea una excepción para el contacto de Datadog On-Call. +4. Abre la configuración del sistema Android y ve a **Sound & Vibration** > **Do Not Disturb** (Sonido y vibración > No molestar). Crea una excepción para el contacto de Datadog On-Call. {{% /tab %}} {{< /tabs >}} @@ -138,4 +142,70 @@ Para mayor fiabilidad, Datadog utiliza un conjunto rotatorio de números de tel Descarga la versión actual de la tarjeta de contacto de Datadog On-Call. Nota: La tarjeta de contacto está sujeta a cambios en cualquier momento.
-[1]: /es/service_management/mobile/?tab=ios \ No newline at end of file +## Widgets móviles de On-Call +Añade widgets de pantalla de inicio y pantalla de bloqueo de On-Call para acceder fácilmente a tus páginas y turnos. + +### Widget de la pantalla de inicio de On-Call + +Ve tus turnos y las páginas de On-Call en la pantalla de inicio de tu móvil con los widgets de Datadog. + +Puedes personalizar tus widgets de turnos de On-Call filtrando en: + +- Organización +- Periodo de tiempo + +Puedes personalizar tus widgets de página de On-Call filtrando en: + +- Organización +- Equipo +- Pedido + +**Nota**: Puedes añadir filtros adicionales para el widget de páginas de On-Call. + +#### Editar un widget de turno de On-Call + +{{< tabs >}} +{{% tab "iOS" %}} + +{{< img src="service_management/mobile/ios_shifts_widget_may_2025.png" alt="Página de inicio configurada de widgets de turno de On-Call que se muestran en pantallas de iOS" responsive="true" style="width:100%; background:none; border:none; box-shadow:none;">}} + +1. Mantén pulsado el widget durante un rato para configurarlo. +2. Pulsa **Edit Widget** (Editar widget) para acceder a la pantalla de configuración. +3. Selecciona la **Organization** (Organización) y el **Period** (Periodo) para el que deseas ver tus turnos de On-Call. +4. Pulsa en cualquier lugar fuera del widget para validar tus preferencias y salir de la pantalla de configuración. + + +{{% /tab %}} +{{% tab "Android" %}} + +{{< img src="service_management/mobile/android_shifts_widget_may_2025.png" alt="Página de inicio configurada de widgets de turno de On-Call que se muestran en pantallas de Android" responsive="true" style="width:100%; background:none; border:none; box-shadow:none;">}} + +1. Pulsa sobre el widget para configurarlo. +2. Selecciona la **Organization** (Organización) y el **Time Period** (Periodo de tiempo) para el que deseas ver tus turnos de On-Call. +3. Pulsa **✓** para guardar la configuración. +4. Mantén pulsado el widget durante un rato para elegir el tamaño que prefieras. + +{{% /tab %}} +{{< /tabs >}} + +### Widget de pantalla de bloqueo de On-Call + +El widget de pantalla de bloqueo de On-Call muestra tu estado de On-Call. Los widgets de la pantalla de bloqueo solo están disponibles en iOS. + +1. Pulsa prolongadamente en la pantalla de bloqueo. +2. Pulsa **Customize** (Personalizar) y, a continuación, **Lock Screen** (Pantalla de bloqueo). +3. Pulsa en el espacio para widgets de la pantalla de bloqueo para abrir la tarjeta **Add Widgets** (Añadir widgets). +4. Desplázate y pulsa sobre la aplicación **Datadog**. +4. Pulsa el widget de pantalla de bloqueo de On-Call. +5. Toca el widget en la pantalla de bloqueo para abrir el panel de configuración. +6. Selecciona la organización para la que deseas mostrar tu estado de On-Call. + +**Nota**: Debes tener un espacio vacío en tu pantalla de bloqueo para añadir un nuevo widget. Puedes eliminar widgets de la pantalla de bloqueo pulsando el botón **-** en la parte superior izquierda del widget que deseas eliminar. + +## Solucionar problemas +Si necesitas ayuda para solucionar problemas, [ponte en contacto con el servicio de asistencia de Datadog][2]. También puedes enviar un mensaje en el canal [público de Slack de Datadog][3] [#mobile-app][4]. + +[1]: /es/service_management/mobile/?tab=ios +[2]: /es/help/ +[3]: https://chat.datadoghq.com/ +[4]: https://datadoghq.slack.com/archives/C0114D5EHNG \ No newline at end of file diff --git a/content/es/tracing/recommendations/_index.md b/content/es/tracing/recommendations/_index.md index f77c420fb5258..30f848c2e26ce 100644 --- a/content/es/tracing/recommendations/_index.md +++ b/content/es/tracing/recommendations/_index.md @@ -94,6 +94,7 @@ multifiltersearch: - filter_by: true id: recommendation_prerequisite name: Requisito previo de la recomendación +site_support_id: apm_recommendations title: Recomendaciones de APM --- @@ -128,7 +129,7 @@ Al examinar conjuntamente estas fuentes, Datadog encuentra formas de ayudarte a Revisar las recomendaciones que requieren tu atención: -1. Ve a [**APM** > **Recommendations**][1] (APM > Recomendaciones). +1. Ve a [**APM** > **Recommendations** (APM > Recomendaciones)][1]. 2. Revisa las recomendaciones en **For Review** (Para revisión). 3. Selecciona una recomendación de la lista para ver el problema, el impacto y cómo resolverlo. 4. Revisa el problema, su impacto y la recomendación de Datadog para resolverlo. diff --git a/content/fr/logs/guide/docker-logs-collection-troubleshooting-guide.md b/content/fr/logs/guide/docker-logs-collection-troubleshooting-guide.md index 6d6f2a44a8d09..5f576587007e8 100644 --- a/content/fr/logs/guide/docker-logs-collection-troubleshooting-guide.md +++ b/content/fr/logs/guide/docker-logs-collection-troubleshooting-guide.md @@ -134,30 +134,6 @@ Si vos logs ne sont pas transmis à la plate-forme Datadog alors que le statut d * Le port utilisé pour l'envoi de logs à Datadog (10516) est bloqué * Votre conteneur utilise un pilote de logging autre que celui attendu par l'Agent -#### Le trafic sortant du port 10516 est bloqué - -L'Agent Datadog envoie ses logs à Datadog par TCP via le port 10516. Si cette connexion n'est pas disponible, les logs ne sont pas envoyés et une erreur est enregistrée dans le fichier `agent.log`. - -Vous pouvez tester manuellement votre connexion avec OpenSSL, GnuTLS ou un autre client SSL/TLS. Pour OpenSSL, exécutez la commande suivante : - -```shell -openssl s_client -connect intake.logs.datadoghq.com:10516 -``` - -Pour GnuTLS, exécutez la commande suivante : - -```shell -gnutls-cli intake.logs.datadoghq.com:10516 -``` - -Envoyez ensuite un log comme suit : - -```text - Ceci est un message test -``` - -Si vous ne pouvez pas ouvrir le port 10516, vous pouvez configurer l'Agent Datadog de façon à envoyer les logs via HTTPS en définissant la variable d'environnement `DD_LOGS_CONFIG_USE_HTTP` sur `true` : - #### Vos conteneurs n'utilisent pas le pilote de logging JSON Étant donné que Docker utilise le pilote de logging json-file par défaut, l'Agent de conteneur tente d'abord de recueillir les logs à partir de celui-ci. Si vos conteneurs sont configurés de façon à utiliser un autre pilote de logging, l'Agent indique qu'il parvient à trouver vos conteneurs, mais qu'il n'est pas en mesure de recueillir leurs logs. L'Agent de conteneur peut également être configuré de façon à lire les logs à partir du pilote journald. diff --git a/content/ja/logs/guide/docker-logs-collection-troubleshooting-guide.md b/content/ja/logs/guide/docker-logs-collection-troubleshooting-guide.md index ed4fca80465c3..e3c935ce3e177 100644 --- a/content/ja/logs/guide/docker-logs-collection-troubleshooting-guide.md +++ b/content/ja/logs/guide/docker-logs-collection-troubleshooting-guide.md @@ -134,30 +134,6 @@ Docker ソケットへのアクセスを可能にするには、`-v /var/run/doc * Datadog へのログの送信に必要なポート (10516) がブロックされる。 * Agent が予期するものとは異なるロギングドライバーが、コンテナに使用されている。 -#### ポート 10516 のアウトバウンドトラフィックがブロックされる - -Datadog Agent は、ポート 10516 を使って TCP で Datadog にログを送信します。この接続が使用できない場合、ログは送信に失敗し、それを示すエラーが `agent.log` ファイルに記録されます。 - -OpenSSL、GnuTLS、または他の SSL/TLS クライアントを使用して、接続を手動でテストすることができます。OpenSSL の場合は、以下のコマンドを実行します。 - -```shell -openssl s_client -connect intake.logs.datadoghq.com:10516 -``` - -GnuTLS の場合、以下のコマンドを実行します。 - -```shell -gnutls-cli intake.logs.datadoghq.com:10516 -``` - -さらに、次のようなログを送信します。 - -```text - これはテストメッセージです -``` - -ポート 10516 を開くことを選択できない場合は、`DD_LOGS_CONFIG_FORCE_USE_HTTP` 環境変数を `true` に設定して、Datadog Agent が HTTPS 経由でログを送信するよう構成することができます。 - #### コンテナに JSON ロギングドライバーが使用されていない Docker のデフォルトのロギングドライバーは json-file であり、コンテナ Agent はまずこのドライバーから読み取ろうとします。コンテナが別のロギングドライバーを使用するように設定されている場合、ログ Agent はコンテナを見つけることはできますが、ログを収集することができません。コンテナ Agent は、journald ロギングドライバーから読み取るように構成することもできます。 diff --git a/content/ko/logs/guide/docker-logs-collection-troubleshooting-guide.md b/content/ko/logs/guide/docker-logs-collection-troubleshooting-guide.md index fa3f870662780..98521e83aa878 100644 --- a/content/ko/logs/guide/docker-logs-collection-troubleshooting-guide.md +++ b/content/ko/logs/guide/docker-logs-collection-troubleshooting-guide.md @@ -134,30 +134,6 @@ Logs Agent 상태가 [Agent 상태 확인](#check-the-agent-status)의 예와 * Datadog으로 로그를 전송하는 데 필요한 포트(10516)가 차단되었습니다. * 컨테이너가 Agent가 예상하는 것과 다른 로깅 드라이버를 사용하고 있습니다. -#### 포트 10516의 아웃바운드 트래픽이 차단되었습니다. - -Datadog Agent는 포트 10516을 사용하여 TCP를 통해 Datadog에 로그를 보냅니다. 해당 연결을 사용할 수 없는 경우 로그 전송이 실패하고 그에 따른 오류가 `agent.log` 파일에 기록됩니다. - -OpenSSL, GnuTLS 또는 다른 SSL/TLS 클라이언트를 사용하여 연결을 수동으로 테스트할 수 있습니다. OpenSSL의 경우 다음 명령을 실행합니다. - -```shell -openssl s_client -connect intake.logs.datadoghq.com:10516 -``` - -GnuTLS의 경우 다음 명령을 실행합니다. - -```shell -gnutls-cli intake.logs.datadoghq.com:10516 -``` - -그런 다음 다음과 같은 로그를 보냅니다. - -```text - 테스트 메시지입니다 -``` - -포트 10516을 여는 것이 옵션이 아닌 경우 `DD_LOGS_CONFIG_USE_HTTP` 환경 변수를 `true`로 설정하여 HTTPS를 통해 로그를 보내도록 Datadog Agent를 설정할 수 있습니다. - #### 컨테이너가 JSON 로깅 드라이버를 사용하지 않습니다. Docker의 기본값은 json 파일 로깅 드라이버이므로 Container Agent는 먼저 이 드라이버에서 읽기를 시도합니다. 컨테이너가 다른 로깅 드라이버를 사용하도록 설정된 경우 Logs Agent는 컨테이너를 성공적으로 찾을 수 있지만 로그를 수집할 수 없음을 나타냅니다. journald 로깅 드라이버에서 읽도록 Container Agent를 설정할 수도 있습니다. @@ -197,7 +173,7 @@ logs_config: docker_client_read_timeout: 60 ``` -## Host Agent +## 호스트 에이전트 ### Docker 그룹의 Agent 사용자 Host Agent를 사용하는 경우 Docker 소켓에서 읽을 수 있는 권한을 가지려면 `dd-agent` 사용자를 Docker 그룹에 추가해야 합니다. `agent.log` 파일에 다음 오류 로그가 표시되는 경우: diff --git a/i18n/es.json b/i18n/es.json index 7064b3dd8f066..0a7f7677addcc 100644 --- a/i18n/es.json +++ b/i18n/es.json @@ -292,6 +292,12 @@ "available_for": { "other": "Disponible para" }, + "join_now": { + "other": "Únete ahora" + }, + "datadog_partner_network": { + "other": "Documentación sobre redes de socios de Datadog" + }, "alert_note": { "other": "NOTA" },