+
OpenShift 4.0+: Si has utilizado el instalador de OpenShift en un proveedor de nube compatible, debes desplegar el SCC con allowHostNetwork: true en el manifiesto scc.yaml, así como hostNetwork: true en la configuración del Agent para obtener etiquetas (tags) de host y alias. Por lo demás, el acceso a los servidores de metadatos desde la red de pod está restringido.
@@ -205,7 +150,7 @@ runAsUser:
La recopilación de logs del Datadog Agent se configura en OpenShift en gran medida igual que otros clústeres de Kubernetes. El Datadog Operator y Helm Chart se montan en el directorio `/var/log/pods`, que el pod de Datadog Agent utiliza para monitorizar los logs de los pods y contenedores en sus respectivos hosts. Sin embargo, con el Datadog Operator, es necesario aplicar opciones de SELinux adicionales para dar al Agent permisos para leer estos archivos de log.
-Consulta [Recopilación de logs de Kubernetes][9] para obtener más información general y la página [Distribuciones][3] para ver ejemplos de configuración.
+Consulta la [recopilación de logs de Kubernetes](https://docs.datadoghq.com/agent/kubernetes/log/?tab=daemonset) para obtener más información general y la página [Distribuciones](https://docs.datadoghq.com/containers/kubernetes/distributions/?tab=datadogoperator#Openshift) para ver ejemplos de configuración.
### APM
@@ -213,17 +158,61 @@ En Kubernetes, hay tres opciones principales para enrutar los datos desde el pod
Datadog recomienda deshabilitar la opción de UDS explícitamente para evitar esto y para evitar que el Admission Controller (Controlador de admisión) inyecte esta configuración.
-Consulta [Recopilación de trazas, APM de Kubernetes][10] para más información general y la página [Distribuciones][3] para ver ejemplos de configuración.
+Consulta [recopilación de APM y trazas de Kubernetes](https://docs.datadoghq.com/containers/kubernetes/apm) para más información general y la página [Distribuciones](https://docs.datadoghq.com/containers/kubernetes/distributions/?tab=datadogoperator#Openshift) para ejemplos de configuración.
### Validación
-Ver [kubernetes_apiserver][1]
+Consulta [kubernetes_apiserver](https://github.com/DataDog/datadog-agent/blob/master/cmd/agent/dist/conf.d/kubernetes_apiserver.d/conf.yaml.example)
## Datos recopilados
### Métricas
-{{< get-metrics-from-git "openshift" >}}
+| | |
+| --- | --- |
+| **openshift.appliedclusterquota.cpu.limit**
(gauge) | Límite fijo para cpu por cuota de recursos de clúster y espacio de nombres
_Se muestra como cpu_ |
+| **openshift.appliedclusterquota.cpu.remaining**
(gauge) | Cpu disponible restante por cuota de recursos de clúster y espacio de nombres
_Se muestra como cpu_ |
+| **openshift.appliedclusterquota.cpu.used**
(gauge) | Uso de cpu observado por cuota de recursos de clúster y espacio de nombres
_Se muestra como cpu_ |
+| **openshift.appliedclusterquota.memory.limit**
(gauge) | Límite fijo de memoria por cuota de recursos de clúster y espacio de nombres
_Se muestra como byte_ |
+| **openshift.appliedclusterquota.memory.remaining**
(gauge) | Memoria disponible restante por cuota de recursos de clúster y espacio de nombres
_Se muestra como byte_ |
+| **openshift.appliedclusterquota.memory.used**
(gauge) | Uso de memoria observado por cuota de recursos de clúster y espacio de nombres
_Se muestra como byte_ |
+| **openshift.appliedclusterquota.persistentvolumeclaims.limit**
(gauge) | Límite fijo para reclamaciones de volúmenes persistentes por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.persistentvolumeclaims.remaining**
(gauge) | Reclamaciones de volúmenes persistentes disponibles por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.persistentvolumeclaims.used**
(gauge) | Uso observado de reclamaciones de volumen persistente por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.pods.limit**
(gauge) | Límite fijo para pods por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.pods.remaining**
(gauge) | Pods disponibles por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.pods.used**
(gauge) | Uso de pods observado por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.services.limit**
(gauge) | Límite fijo para servicios por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.services.loadbalancers.limit**
(gauge) | Límite fijo para equilibradores de carga de servicios por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.services.loadbalancers.remaining**
(gauge) | Equilibradores de carga de servicios disponibles por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.services.loadbalancers.used**
(gauge) | Uso observado de los equilibradores de carga de servicios por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.services.nodeports.limit**
(gauge) | Límite fijo para puertos de nodo de servicio por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.services.nodeports.remaining**
(gauge) | Puertos de nodo de servicio disponibles por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.services.nodeports.used**
(gauge) | Uso observado de puertos de nodos de servicio por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.services.remaining**
(gauge) | Servicios disponibles restantes por cuota de recursos de clúster y espacio de nombres|
+| **openshift.appliedclusterquota.services.used**
(gauge) | Utilización de servicios observada por cuota de recursos de clúster y espacio de nombres|
+| **openshift.clusterquota.cpu.limit**
(gauge) | Límite fijo de cpu por cuota de recursos de clúster para todos los espacios de nombres
_Se muestra como cpu_ |
+| **openshift.clusterquota.cpu.remaining**
(gauge) | Cpu disponible restante por cuota de recursos de clúster para todos los espacios de nombres
_Se muestra como cpu_ |
+| **openshift.clusterquota.cpu.requests.used**
(gauge) | Uso de cpu observado por recurso de clúster para solicitud|
+| **openshift.clusterquota.cpu.used**
(gauge) | Uso de cpu observado por cuota de recursos de clúster para todos los espacios de nombres
_Se muestra como cpu_ |
+| **openshift.clusterquota.memory.limit**
(gauge) | Límite fijo de memoria por cuota de recursos de clúster para todos los espacios de nombres
_Se muestra como byte_ |
+| **openshift.clusterquota.memory.remaining**
(gauge) | Memoria disponible restante por cuota de recursos de clúster para todos los espacios de nombres
_Se muestra como byte_ |
+| **openshift.clusterquota.memory.used**
(gauge) | Uso de memoria observado por cuota de recursos de clúster para todos los espacios de nombres
_Se muestra como byte_ |
+| **openshift.clusterquota.persistentvolumeclaims.limit**
(gauge) | Límite fija para las reclamaciones de volúmenes persistentes por cuota de recursos de clúster para todos los espacios de nombres.|
+| **openshift.clusterquota.persistentvolumeclaims.remaining**
(gauge) | Reclamaciones de volumen persistente disponibles restantes por cuota de recursos de clúster para todos los espacios de nombres.|
+| **openshift.clusterquota.persistentvolumeclaims.used**
(gauge) | Uso de reclamaciones de volumen persistente observado por cuota de recursos de clúster para todos los espacios de nombres|
+| **openshift.clusterquota.pods.limit**
(gauge) | Límite duro para pods por cuota de recursos de clúster para todos los espacios de nombres|
+| **openshift.clusterquota.pods.remaining**
(gauge) | Pods disponibles restantes por cuota de recursos de clúster para todos los espacios de nombres|
+| **openshift.clusterquota.pods.used**
(gauge) | Uso de pods observado por cuota de recursos de clúster para todos los espacios de nombres|
+| **openshift.clusterquota.services.limit**
(gauge) | Límite fijo para servicios por cuota de recursos de clúster para todos los espacios de nombres|
+| **openshift.clusterquota.services.loadbalancers.limit**
(gauge) | Límite fijo para los equilibradores de carga de servicios por cuota de recursos de clúster para todos los espacios de nombres.|
+| **openshift.clusterquota.services.loadbalancers.remaining**
(gauge) | Equilibradores de carga de servicio disponibles restantes por cuota de recursos de clúster para todos los espacios de nombres.|
+| **openshift.clusterquota.services.loadbalancers.used**
(gauge) | Uso observado de los equilibradores de carga de servicios por cuota de recursos de clúster para todos los espacios de nombres|
+| **openshift.clusterquota.services.nodeports.limit**
(gauge) | Límite fijo para puertos de nodo de servicio por cuota de recursos de clúster para todos los espacios de nombres.|
+| **openshift.clusterquota.services.nodeports.remaining**
(gauge) | Puertos de nodo de servicio disponibles restantes por cuota de recursos de clúster para todos los espacios de nombres|
+| **openshift.clusterquota.services.nodeports.used**
(gauge) | Uso observado de puertos de nodo de servicio por cuota de recursos de clúster para todos los espacios de nombres|
+| **openshift.clusterquota.services.remaining**
(gauge) | Servicios disponibles restantes por cuota de recursos de clúster para todos los espacios de nombres|
+| **openshift.clusterquota.services.used**
(gauge) | Utilización de servicios observada por cuota de recursos de clúster para todos los espacios de nombres|
### Eventos
@@ -235,17 +224,4 @@ El check de OpenShift no incluye ningún check de servicio.
## Solucionar problemas
-¿Necesitas ayuda? Contacta con el [equipo de asistencia de Datadog][11].
-
-
-[1]: https://github.com/DataDog/datadog-agent/blob/master/cmd/agent/dist/conf.d/kubernetes_apiserver.d/conf.yaml.example
-[2]: https://docs.datadoghq.com/es/containers/kubernetes/installation
-[3]: https://docs.datadoghq.com/es/containers/kubernetes/distributions/?tab=datadogoperator#Openshift
-[4]: https://github.com/DataDog/datadog-operator/
-[5]: https://docs.openshift.com/container-platform/4.10/operators/understanding/olm-understanding-operatorhub.html
-[6]: https://developers.redhat.com/blog/2014/11/06/introducing-a-super-privileged-container-concept
-[7]: https://github.com/DataDog/datadog-agent/blob/master/Dockerfiles/manifests/openshift/scc.yaml
-[8]: https://docs.datadoghq.com/es/agent/kubernetes/daemonset_setup/?tab=k8sfile#configure-rbac-permissions
-[9]: https://docs.datadoghq.com/es/agent/kubernetes/log/?tab=daemonset
-[10]: https://docs.datadoghq.com/es/containers/kubernetes/apm
-[11]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
+¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/).
\ No newline at end of file
diff --git a/content/es/integrations/openstack.md b/content/es/integrations/openstack.md
new file mode 100644
index 0000000000000..63e6fb9bda43d
--- /dev/null
+++ b/content/es/integrations/openstack.md
@@ -0,0 +1,263 @@
+---
+app_id: openstack
+categories:
+- cloud
+- log collection
+- network
+- provisioning
+- configuration & deployment
+custom_kind: integración
+description: Seguimiento del uso de recursos a nivel de hipervisor y VM, además de
+ métricas de Neutron.
+further_reading:
+- link: https://www.datadoghq.com/blog/openstack-monitoring-nova
+ tag: blog
+ text: Monitorización de OpenStack Nova
+- link: https://www.datadoghq.com/blog/install-openstack-in-two-commands
+ tag: blog
+ text: Instalar OpenStack en dos comandos para dev y test
+- link: https://www.datadoghq.com/blog/openstack-host-aggregates-flavors-availability-zones
+ tag: blog
+ text: 'OpenStack: agregados de hosts, opciones y zonas de disponibilidad'
+integration_version: 4.0.1
+media: []
+supported_os:
+- linux
+- windows
+- macos
+title: OpenStack (heredado)
+---
+
+
+## Información general
+
+**Nota**: Esta integración solo se aplica a OpenStack v12 e inferiores. Si deseas recopilar métricas de OpenStack v13+, utiliza la [integración de OpenStack Controller](https://docs.datadoghq.com/integrations/openstack_controller).
+
+Obtén métricas del servicio OpenStack en tiempo real para:
+
+- Visualizar y monitorizar estados de OpenStack.
+- Recibir notificaciones sobre fallos y eventos de OpenStack.
+
+## Configuración
+
+### Instalación
+
+Para capturar tus métricas de OpenStack, [instala el Agent](https://app.datadoghq.com/account/settings/agent/latest) en tus hosts que ejecutan hipervisores.
+
+### Configuración
+
+#### Preparar OpenStack
+
+Configura un rol y un usuario de Datadog con tu servidor de identidad:
+
+```console
+openstack role create datadog_monitoring
+openstack user create datadog \
+ --password my_password \
+ --project my_project_name
+openstack role add datadog_monitoring \
+ --project my_project_name \
+ --user datadog
+```
+
+A continuación, actualiza tus archivos `policy.json` para conceder los permisos necesarios. `role:datadog_monitoring` requiere acceso a las siguientes operaciones:
+
+**Nova**
+
+```json
+{
+ "compute_extension": "aggregates",
+ "compute_extension": "hypervisors",
+ "compute_extension": "server_diagnostics",
+ "compute_extension": "v3:os-hypervisors",
+ "compute_extension": "v3:os-server-diagnostics",
+ "compute_extension": "availability_zone:detail",
+ "compute_extension": "v3:availability_zone:detail",
+ "compute_extension": "used_limits_for_admin",
+ "os_compute_api:os-aggregates:index": "rule:admin_api or role:datadog_monitoring",
+ "os_compute_api:os-aggregates:show": "rule:admin_api or role:datadog_monitoring",
+ "os_compute_api:os-hypervisors": "rule:admin_api or role:datadog_monitoring",
+ "os_compute_api:os-server-diagnostics": "rule:admin_api or role:datadog_monitoring",
+ "os_compute_api:os-used-limits": "rule:admin_api or role:datadog_monitoring"
+}
+```
+
+**Neutron**
+
+```json
+{
+ "get_network": "rule:admin_or_owner or rule:shared or rule:external or rule:context_is_advsvc or role:datadog_monitoring"
+}
+```
+
+**Keystone**
+
+```json
+{
+ "identity:get_project": "rule:admin_required or project_id:%(target.project.id)s or role:datadog_monitoring",
+ "identity:list_projects": "rule:admin_required or role:datadog_monitoring"
+}
+```
+
+Es posible que tengas que reiniciar tus servicios de API de Keystone, Neutron y Nova para asegurarte de que los cambios de política se llevan a cabo.
+
+**Nota**: La instalación de la integración de OpenStack podría aumentar el número de máquinas virtuales que Datadog monitoriza. Para obtener más información sobre cómo esto puede afectar a tu facturación, consulta las FAQ de facturación.
+
+#### Configuración del Agent
+
+1. Configura el Datadog Agent para conectarte a tu servidor Keystone, y especifica proyectos individuales para monitorizar. Edita el archivo `openstack.d/conf.yaml` en la carpeta `conf.d/` en la raíz del [directorio de configuración del Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory) con la configuración de abajo. Consulta el [openstack.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/openstack/datadog_checks/openstack/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles:
+
+ ```yaml
+ init_config:
+ ## @param keystone_server_url - string - required
+ ## Where your identity server lives.
+ ## Note that the server must support Identity API v3
+ #
+ keystone_server_url: "https://
:/"
+
+ instances:
+ ## @param name - string - required
+ ## Unique identifier for this instance.
+ #
+ - name: ""
+
+ ## @param user - object - required
+ ## User credentials
+ ## Password authentication is the only auth method supported.
+ ## `user` object expects the parameter `username`, `password`,
+ ## and `user.domain.id`.
+ ##
+ ## `user` should resolve to a structure like:
+ ##
+ ## {'password': '', 'name': '', 'domain': {'id': ''}}
+ #
+ user:
+ password: ""
+ name: datadog
+ domain:
+ id: ""
+ ```
+
+1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
+
+##### Recopilación de logs
+
+1. La recopilación de logs está desactivada por defecto en el Datadog Agent, puedes activarla en `datadog.yaml`:
+
+ ```yaml
+ logs_enabled: true
+ ```
+
+1. Añade este bloque de configuración a tu archivo `openstack.d/conf.yaml` para empezar a recopilar tus logs de Openstack:
+
+ ```yaml
+ logs:
+ - type: file
+ path: ""
+ source: openstack
+ ```
+
+ Cambia el valor de los parámetros de `path` y configúralos para tu entorno. Consulta el [openstack.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/openstack/datadog_checks/openstack/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles.
+
+### Validación
+
+Ejecuta el subcomando [de estado del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `openstack` en la sección Checks.
+
+## Datos recopilados
+
+### Métricas
+
+| | |
+| --- | --- |
+| **openstack.nova.current_workload**
(gauge) | Carga de trabajo actual en el hipervisor de Nova|
+| **openstack.nova.disk_available_least**
(gauge) | Disco disponible para el hipervisor de Nova
_Se muestra como gibibyte_ |
+| **openstack.nova.free_disk_gb**
(gauge) | Disco libre en el hipervisor de Nova
_Se muestra como gibibyte_ |
+| **openstack.nova.free_ram_mb**
(gauge) | RAM libre en el hipervisor de Nova
_Se muestra como mebibyte_ |
+| **openstack.nova.hypervisor_load.1**
(gauge) | La carga media del hipervisor durante un minuto.|
+| **openstack.nova.hypervisor_load.15**
(gauge) | La carga media del hipervisor en quince minutos.|
+| **openstack.nova.hypervisor_load.5**
(gauge) | La carga media del hipervisor en cinco minutos.|
+| **openstack.nova.limits.max_image_meta**
(gauge) | El máximo permitido de definiciones de metadatos de imagen para este inquilino|
+| **openstack.nova.limits.max_personality**
(gauge) | Las personalidades máximas permitidas para este inquilino|
+| **openstack.nova.limits.max_personality_size**
(gauge) | El tamaño máximo de una sola personalidad permitido para este inquilino.|
+| **openstack.nova.limits.max_security_group_rules**
(gauge) | El número máximo de reglas de grupo de seguridad permitidas para este inquilino.|
+| **openstack.nova.limits.max_security_groups**
(gauge) | Número máximo de grupos de seguridad permitidos para este inquilino|
+| **openstack.nova.limits.max_server_meta**
(gauge) | El máximo permitido de definiciones de metadatos de servicio para este inquilino|
+| **openstack.nova.limits.max_total_cores**
(gauge) | El máximo de núcleos permitidos para este inquilino|
+| **openstack.nova.limits.max_total_floating_ips**
(gauge) | El máximo permitido de IPs flotantes para este inquilino|
+| **openstack.nova.limits.max_total_instances**
(gauge) | Número máximo de instancias permitidas para este inquilino|
+| **openstack.nova.limits.max_total_keypairs**
(gauge) | Los pares de claves máximos permitidos para este inquilino|
+| **openstack.nova.limits.max_total_ram_size**
(gauge) | El tamaño máximo de RAM permitido para este inquilino en megabytes (MB)
_Se muestra como mebibyte_ |
+| **openstack.nova.limits.total_cores_used**
(gauge) | El total de núcleos utilizados por este inquilino|
+| **openstack.nova.limits.total_floating_ips_used**
(gauge) | El total de IPs flotantes utilizadas por este inquilino|
+| **openstack.nova.limits.total_instances_used**
(gauge) | El total de instancias utilizadas por este inquilino|
+| **openstack.nova.limits.total_ram_used**
(gauge) | La RAM actual utilizada por este inquilino en megabytes (MB)
_Se muestra como mebibyte_ |
+| **openstack.nova.limits.total_security_groups_used**
(gauge) | Número total de grupos de seguridad utilizados por este inquilino|
+| **openstack.nova.local_gb**
(gauge) | El tamaño en GB del disco efímero presente en este host hipervisor
_Se muestra como gibibyte_ |
+| **openstack.nova.local_gb_used**
(gauge) | El tamaño en GB del disco utilizado en este host hipervisor
_Se muestra como gibibyte_ |
+| **openstack.nova.memory_mb**
(gauge) | El tamaño en MB de la RAM presente en este host hipervisor
_Se muestra como mebibyte_ |
+| **openstack.nova.memory_mb_used**
(gauge) | El tamaño en MB de la RAM utilizada en este host hipervisor
_Se muestra como mebibyte_ |
+| **openstack.nova.running_vms**
(gauge) | Número de máquinas virtuales en ejecución en este host de hipervisor|
+| **openstack.nova.server.cpu0_time**
(gauge) | Tiempo de CPU en nanosegundos de esta CPU virtual
_Se muestra como nanosegundo_ |
+| **openstack.nova.server.hdd_errors**
(gauge) | Número de errores observados por el servidor al acceder a un dispositivo HDD|
+| **openstack.nova.server.hdd_read**
(gauge) | Número de bytes leídos desde un dispositivo HDD por este servidor
_Se muestra como byte_ |
+| **openstack.nova.server.hdd_read_req**
(gauge) | Número de solicitudes de lectura realizadas a un dispositivo HDD por este servidor|
+| **openstack.nova.server.hdd_write**
(gauge) | Número de bytes escritos en un dispositivo HDD por este servidor
_Se muestra como byte_ |
+| **openstack.nova.server.hdd_write_req**
(gauge) | El número de solicitudes de escritura realizadas a un dispositivo HDD por este servidor|
+| **openstack.nova.server.memory**
(gauge) | La cantidad de memoria en MB aprovisionada para este servidor
_Se muestra como mebibyte_ |
+| **openstack.nova.server.memory_actual**
(gauge) | La cantidad de memoria en MB aprovisionada para este servidor
_Se muestra como mebibyte_ |
+| **openstack.nova.server.memory_rss**
(gauge) | La cantidad de memoria utilizada por los procesos de este servidor que no está asociada a páginas de disco, como el stack tecnológico y la memoria heap
_Se muestra como mebibyte_ |
+| **openstack.nova.server.vda_errors**
(gauge) | Número de errores observados por el servidor al acceder a un dispositivo VDA.|
+| **openstack.nova.server.vda_read**
(gauge) | Número de bytes leídos desde un dispositivo VDA por este servidor
_Se muestra como byte_ |
+| **openstack.nova.server.vda_read_req**
(gauge) | Número de solicitudes de lectura realizadas a un dispositivo VDA por este servidor.|
+| **openstack.nova.server.vda_write**
(gauge) | Número de bytes escritos en un dispositivo VDA por este servidor
_Se muestra como byte_ |
+| **openstack.nova.server.vda_write_req**
(gauge) | Número de solicitudes de escritura realizadas a un dispositivo VDA por este servidor|
+| **openstack.nova.vcpus**
(gauge) | Número de vCPUs disponibles en este host hipervisor|
+| **openstack.nova.vcpus_used**
(gauge) | Número de vCPUS utilizados en este host hipervisor|
+
+### Eventos
+
+El check de OpenStack no incluye ningún evento.
+
+### Checks de servicio
+
+**openstack.neutron.api.up**
+
+Devuelve `CRITICAL` si el Agent no puede consultar la API de Neutron, `UNKNOWN` si hay un problema con la API de Keystone. En caso contrario, devuelve `OK`.
+
+_Estados: ok, critical, unknown_
+
+**openstack.nova.api.up**
+
+Devuelve `CRITICAL` si el Agent no puede consultar la API de Nova, `UNKNOWN` si hay un problema con la API de Keystone. En caso contrario, devuelve `OK`.
+
+_Estados: ok, critical, unknown_
+
+**openstack.keystone.api.up**
+
+Devuelve `CRITICAL` si el Agent no puede consultar la API de Keystone. En caso contrario, devuelve `OK`.
+
+_Estados: ok, critical_
+
+**openstack.nova.hypervisor.up**
+
+Devuelve `UNKNOWN` si el Agent no puede obtener el estado del hipervisor, `CRITICAL` si el hipervisor está caído. Devuelve `OK` en caso contrario.
+
+_Estados: ok, critical, unknown_
+
+**openstack.neutron.network.up**
+
+Devuelve `UNKNOWN` si el Agent no puede obtener el estado de la red, `CRITICAL` si la red está caída. En caso contrario, devuelve `OK`.
+
+_Estados: ok, critical, unknown_
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/).
+
+## Referencias adicionales
+
+Documentación útil adicional, enlaces y artículos:
+
+- [Monitorización de OpenStack Nova](https://www.datadoghq.com/blog/openstack-monitoring-nova)
+- [Instalar OpenStack en dos comandos para dev y test](https://www.datadoghq.com/blog/install-openstack-in-two-commands)
+- [OpenStack: agregados de hosts, opciones y zonas de disponibilidad](https://www.datadoghq.com/blog/openstack-host-aggregates-flavors-availability-zones)
\ No newline at end of file
diff --git a/content/es/network_monitoring/cloud_network_monitoring/network_analytics.md b/content/es/network_monitoring/cloud_network_monitoring/network_analytics.md
index aa13b7919f1f0..f216f65a31b8e 100644
--- a/content/es/network_monitoring/cloud_network_monitoring/network_analytics.md
+++ b/content/es/network_monitoring/cloud_network_monitoring/network_analytics.md
@@ -144,22 +144,80 @@ Las etiquetas neutras no son específicas de un cliente o servidor, sino que se
La siguiente lista muestra etiquetas neutras disponibles para su uso:
-| Etiqueta | Descripción |
-|-------------------------|-----------------------------------------------------------------------------------------------|
-| `is_agent_traffic` | Indica si el tráfico fue generado por el Datadog Agent. |
-| `tls_encrypted` | Especifica si la conexión está cifrada mediante TLS. |
-| `tls_cipher_suite` | Identifica el conjunto de cifrado TLS utilizado (por ejemplo, `tls_ecdhe_rsa_with_aes_128_gcm_sha256`). |
-| `tls_cipher_insecure` | Indica si el cifrado utilizado se considera seguro. |
-| `tls_version` | Versión de TLS utilizada (`tls_1.2` o `tls_1.3`). |
-| `tls_client_version` | Versiones de TLS compatibles con el cliente (`tls_1.2` o `tls_1.3`). |
-| `gateway_id` | Identificador único del recurso de pasarela AWS. |
-| `gateway_type` | Tipo de puerta de enlace AWS (Internet, NAT o Tránsito). |
-| `gateway_region` | Región AWS de la puerta de enlace (por ejemplo, `us-east-1`). |
-| `gateway_availability-zone` | Zona de disponibilidad que aloja la puerta de enlace (por ejemplo, `us-east-1a`). |
-| `gateway_public_ip` | Dirección IP pública asignada a la puerta de enlace NAT. |
-| `tgw_attachment_id` | Identificador único de la conexión de AWS Transit Gateway. |
-| `tgw_attachment_type` | Tipo de adjunto de la puerta de enlace de tránsito (por ejemplo, VPC, VPN, Direct Connect). |
-| `vpc_endpoint_id` | Identificador único del endpoint de la VPC. |
+
+
+
+| Etiqueta |
+Descripción |
+
+
+
+
+gateway_availability-zone |
+Zona de disponibilidad que aloja la gateway (por ejemplo, us-east-1a). |
+
+
+gateway_id |
+Identificador único para el recurso gateway de AWS. |
+
+
+gateway_public_ip |
+Dirección IP pública asignada a la gateway NAT. |
+
+
+gateway_region |
+Región de AWS de la gateway (por ejemplo, us-east-1). |
+
+
+gateway_type |
+Tipo de gateway de AWS (internet, NAT o Transit). |
+
+
+intra_availability_zone |
+Indica si los flujos de red están dentro de la zona de disponibilidad (true), zona entre disponibilidad (false) o no determinado (unknown). Nota: No se aplica para Azure. |
+
+
+intra_region |
+Indica si los flujos de red están dentro de una región (true), entre regiones (false), o no determinado (unknown). |
+
+
+is_agent_traffic |
+Indica si al tráfico lo generó el Datadog Agent. |
+
+
+tgw_attachment_id |
+Identificador único para el adjunto de AWS Transit Gateway. |
+
+
+tgw_attachment_type |
+Tipo de adjunto de Transit Gateway (por ejemplo, VPC, VPN, Direct Connect). |
+
+
+tls_cipher_insecure |
+Indica si eli cipher se considera seguro. |
+
+
+tls_cipher_suite |
+Identifica si el conjunto de cipher TLS utilizado (por ejemplo, tls_ecdhe_rsa_with_aes_128_gcm_sha256). |
+
+
+tls_client_version |
+La versión de TLS admitida por el cliente (tls_1.2 o tls_1.3). |
+
+
+tls_encrypted |
+Especifica si la conexión está cifrada con TLS. |
+
+
+tls_version |
+La versión de TLS utilizada (tls_1.2 o tls_1.3). |
+
+
+vpc_endpoint_id |
+Identificador único para el endpoint de VPC. |
+
+
+
## Gráficos de resumen
@@ -207,16 +265,19 @@ Están disponibles las siguientes métricas TCP:
| Métrica | Descripción |
|---|---|
-| **Retransmisiones TCP** | Las retransmisiones TCP representan los fallos detectados que se retransmiten para garantizar la entrega, medidas como recuento de retransmisiones del cliente. |
-| **Latencia TCP** | Medida como tiempo de ida y vuelta suavizado por TCP, es decir, el tiempo transcurrido entre el envío y el acuse de recibo de un marco TCP. |
-| **Jitter TCP** | Medido como variación del tiempo de ida y vuelta suavizada por TCP. |
-| **Tiempos de espera TCP** | Número de conexiones TCP que han expirado desde la perspectiva del sistema operativo. Esto puede indicar problemas generales de conectividad y latencia. |
-| **Rechazos de TCP** | Número de conexiones TCP rechazadas por el servidor. Normalmente esto indica un intento de conexión a una IP/puerto que no está recibiendo conexiones o una mala configuración de cortafuegos/seguridad. |
-| **Reinicios de TCP** | Número de conexiones TCP reiniciadas por el servidor. |
-| **Conexiones establecidas** | Número de conexiones TCP en estado establecido, medidas en conexiones por segundo del cliente. |
| **Conexiones finalizadas** | Número de conexiones TCP en estado finalizado, medidas en conexiones por segundo del cliente. |
+| **Conexiones establecidas** | Número de conexiones TCP en estado establecido, medidas en conexiones por segundo del cliente. |
+| **No se puede alcanzar el host** | Indica cuando el host de destino está fuera de línea o el tráfico está bloqueado por routers o firewall. Disponible en el **Agent 7.68+**. |
+| **No se puede alcanzar la red** | Indica problemas de red local en el equipo host del Agent. Disponible en el **Agent 7.68+**. |
+| **Cancelaciones de la conexión** | Rastrea las cancelaciones de conexión de TCP y los tiempos de espera de la conexión del espacio de usuario en tiempos de ejecución de lenguajes como `Go` y `Node.js`. Disponible en el **Agent 7.70+**. |
+| **Jitter TCP** | Medido como variación del tiempo de ida y vuelta suavizada por TCP. |
+| **Latencia TCP** | Medida como tiempo de ida y vuelta suavizado por TCP, es decir, el tiempo transcurrido entre el envío y el acuse de recibo de un marco TCP. |
+| **Rechazos de TCP** | Número de conexiones de TCP rechazadas por el servidor. Por lo general, esto indica un intento de conexión a una IP/puerto que no está recibiendo conexiones, o una mala configuración del firewall/seguridad. |
+| **Reinicios de TCP** | Número de conexiones de TCP reiniciadas por el servidor. |
+| **Retransmisiones TCP** | Las retransmisiones TCP representan los fallos detectados que se retransmiten para garantizar la entrega, medidas como recuento de retransmisiones del cliente. |
+| **Tiempos de espera TCP** | Número de conexiones de TCP vencidas desde la perspectiva del sistema operativo. Esto puede indicar problemas generales de conectividad y latencia. |
-Todas las métricas se instrumentan desde la perspectiva del lado del `client` de la conexión, cuando está disponible, o del servidor en caso contrario.
+Todas las métricas se miden desde el lado `client` de la conexión cuando están disponibles; en caso contrario, desde el lado del servidor.
### Detección automática de servicios en la nube
diff --git a/content/es/real_user_monitoring/guide/send-rum-custom-actions.md b/content/es/real_user_monitoring/guide/send-rum-custom-actions.md
index 8ecc66b8c1508..4a278602c1bab 100644
--- a/content/es/real_user_monitoring/guide/send-rum-custom-actions.md
+++ b/content/es/real_user_monitoring/guide/send-rum-custom-actions.md
@@ -1,4 +1,7 @@
---
+algolia:
+ tags:
+ - addaction
aliases:
- /es/real_user_monitoring/guide/send-custom-user-actions/
beta: true
@@ -17,7 +20,7 @@ Real User Monitoring [recopila acciones automáticamente][1] en tu aplicación w
Las acciones RUM personalizadas te permiten monitorizar eventos interesantes con todo su contexto relevante adjunto. Por ejemplo, el SDK del Navegador Datadog puede recopilar la información de pago de un usuario (como la cantidad de artículos en el carro de compras, la lista de artículos y su precio) cuando hace clic en el botón de pago en un sitio web de comercio electrónico.
-## Instrumentación de tu código
+## Instrumentar tu código
Crea una acción RUM utilizando la API `addAction`. Dale un nombre a tu acción y adjunta atributos de contexto en forma de objeto de JavaScript.
diff --git a/content/es/security/code_security/dev_tool_int/pull_request_comments/_index.md b/content/es/security/code_security/dev_tool_int/pull_request_comments/_index.md
new file mode 100644
index 0000000000000..d8956aa3641db
--- /dev/null
+++ b/content/es/security/code_security/dev_tool_int/pull_request_comments/_index.md
@@ -0,0 +1,140 @@
+---
+aliases:
+- /es/static_analysis/github_pull_requests
+- /es/code_analysis/github_pull_requests/
+- /es/security/code_security/dev_tool_int/github_pull_requests/
+description: Aprende a configurar comentarios de solicitudes de incorporación de cambios
+ para repositorios explorados por Code Security.
+title: Comentarios de solicitudes de incorporación de cambios
+---
+
+## Información general
+Code Security puede publicar comentarios directamente en las solicitudes de incorporación de cambios de tu sistema de gestión de código (SCM) source (fuente) cuando se detecten vulnerabilidades. Esto te ayuda a ver y solucionar los problemas en contexto antes de fusionar el código. Los comentarios tienen reconocimiento diferente, lo que significa que solo marcan los nuevos problemas introducidos en las líneas modificadas en la solicitud de incorporación de cambios.
+
+Existen dos tipos de comentarios de solicitudes de incorporación de cambios:
+- **Comentario en línea**: Marca una conclusión individual de Code Security en líneas específicas de código y sugiere una corrección (si está disponible) .
+
+ {{< img src="/code_security/github_inline_pr_comment_light.png" alt="A Datadog bot has posted an inline comment on a GitHub pull request flagging a \"Critical: Code Vulnerability\". Este comentario sugiere sustituir el código os.system(command) con os.system(shlex.quote(command)) para depurar la llamada de proceso." style="width:100%;" >}}
+- **Comentario resumido**: Combina todas las conclusiones de Datadog en un único comentario.
+
+ {{< img src="/code_security/github_summary_comment_injections_light.png" alt="Un bot de Datadog ha publicado un comentario resumido en una solicitud de incorporación de cambios de GitHub. El comentario tiene una sección \"Warnings\" (Advertencias) en la que se enumeran vulnerabilidades críticas de código, como SQL e inserciones de comandos, con vínculos a los archivos y líneas específicas de código." style="width:100%;" >}}
+
+Puedes configurar los comentarios de PR a nivel de la organización o del repositorio en [Configuración del repositorio][7], con los siguientes controles:
+- Activación/desactivación de comentarios de PR por tipo de exploración (pruebas de seguridad de aplicaciones estáticas (SAST), SCA estático, secretos, IaC)
+- Configuración de umbrales de gravedad para cada tipo de exploración
+- Exclusión de los resultados de los archivos test o de las dependencias desarrollo/test
+
+**Nota**: Los comentarios de PR no son checks de PR. Para configurar las checks, consulta [Quality Gates][10].
+
+## Requisitos previos
+- Debes tener activada la integración de código source (fuente) de Datadog para tu proveedor. Los comentarios de PR son compatibles con los repositorios de [GitHub][2], [GitLab][8] y Azure DevOps ([en vista previa][9]).
+- Tus repositorios deben tener activados los productos Code Security correspondientes. Para actvar Code Security en la aplicación, ve a la [page (página) de configuración de **Code Security**][4].
+
+## Configurar comentarios de solicitud de incorporación de cambios
+Sigue los pasos que se indican a continuación en función de tu proveedor de gestión de códigos source (fuente).
+
+{{< tabs >}}
+{{% tab "GitHub" %}}
+
+Si utilizas la exploración alojada en Datadog, activa la alternancia del tipo de exploración que desees (por ejemplo, Análisis estático de código (pruebas de seguridad de aplicaciones estáticas (SAST))) una vez completados los pasos de configuración de GitHub.
+Si utilizas
Acciones de GitHub para ejecutar tus exploraciones, activa la opción acción en
inserción para que aparezcan los comentarios una vez completada la configuración de GitHub.
+
+### Conecta tu(s) cuenta(s) de GitHub a Datadog
+Para obtener instrucciones de configuración, lee la documentación de [integración de código source (fuente) de Datadog y GitHub][2].
+
+### Crear o actualizar una aplicación de GitHub
+Si ya tienes una aplicación de GitHub conectada a Datadog, actualízala. De lo contrario, crea una nueva aplicación de GitHub.
+
+Los permisos que concedas a la aplicación de GitHub determinan qué funciones de
integración de GitHub están disponibles para la configuración.
+
+#### Crear e instalar una aplicación GitHub
+
+1. En Datadog, ve a [**Integraciones** > **Aplicaciones GitHub** > **Añadir una nueva aplicación GitHub**][3].
+2. Rellena los datos necesarios, como el nombre de la organización GitHub.
+3. En **Seleccionar función**, marca la casilla **Code Security: Comentarios de revisión de solicitudes de extracción**.
+4. En **Editar permisos**, comprueba que el permiso **Solicitudes de extracción** está configurado para **Lectura y escritura**.
+5. Haz clic en **Create App in GitHub** (Crear aplicación en GitHub).
+6. Introduce un nombre para tu aplicación y envíalo.
+7. Haz clic en **Install GitHub App** (Instalar aplicación GitHub).
+8. Elige en qué repositorios debe instalarse la aplicación y luego haz clic en **Install & Authorize** (Instalar y autorizar).
+
+ {{< img src="ci/static-analysis-install-github-app.png" alt="Pantalla de instalación de la aplicación de GitHub" style="width:50%;" >}}
+
+#### Actualizar una GitHub App existente
+
+1. En Datadog, ve a [**Integraciones > Aplicaciones GitHub**][5] y busca la aplicación GitHub que quieres utilizar para la seguridad del código.
+ {{< img src="ci/static-analysis-existing-github-app.png" alt="Ejemplo de comentario de Static Code Analysis en una solicitud de extracción" style="width:90%;" >}}
+2. En la pestaña **Características**, observa la sección **Code Security: Comentarios de solicitudes de extracción** para determinar si tu aplicación GitHub necesita permisos adicionales. Si es así, haz clic en **Update permissions in GitHub** (Actualizar permisos en GitHub) para editar la configuración de la aplicación.
+3. En **Permisos de repositorio**, configura el acceso a **Solicitudes de extracción** como **Lectura y escritura**.
+ {{< img src="ci/static-analysis-pr-read-write-permissions.png" alt="Desplegable correspondiente al permiso de lectura y escritura en solicitudes de extracción" style="width:90%;" >}}
+4. Bajo el título **Suscribirse a eventos**, marca la casilla **Solicitud de extracción**.
+ {{< img src="ci/static-analysis-pr-review-comment.png" alt="Casilla correspondiente al permiso para comentarios de revisión en solicitudes de extracción" style="width:90%;" >}}
+
+
+[2]: /es/integrations/github/
+[3]: https://app.datadoghq.com/integrations/github/add
+[5]: https://app.datadoghq.com/integrations/github/configuration
+
+{{% /tab %}}
+{{% tab "GitLab" %}}
+
+Consulta las instrucciones de configuración de l[Código source (fuente) de GitLab][8] para conectar GitLab a Datadog.
+
+[8]: /es/integrations/gitlab-source-code/
+
+{{% /tab %}}
+{{% tab "Azure DevOps" %}}
+
+Azure DevOps para Code Security está en vista previa. [Solicita acceso para unirte a la vista previa][9].
+
+[9]: https://www.datadoghq.com/product-preview/azure-devops-integration-code-security/
+
+{{% /tab %}}
+{{< /tabs >}}
+
+## Opciones de configuración
+
+Antes de activar los comentarios de PR, asegúrate de que **al menos una capacidad de exploración de Code Security esté activada en el repositorio.** Incluso si los comentarios de PR están configurados a nivel de la organización, solo se añaden en repositorios donde está activo un tipo de exploración admitido (por ejemplo, pruebas de seguridad de aplicaciones estáticas (SAST), SCA o IaC). Los repositorios sin ningún tipo de exploración activado no recibirán comentarios de PR.
+
+Los comentarios de PR pueden configurarse a nivel de la organización o a nivel del repositorio:
+- **Nivel de la organización:** La configuración se aplica a todos los repositorios de la organización que tengan activada al menos una capacidad de exploración.
+- **Nivel del repositorio:** La configuración sustituye los valores predeterminados de la organización para el repositorio seleccionado.
+
+Al configurar los comentarios de PR, puedes:
+- Activar o desactivar comentarios para tipos específicos de exploración (pruebas de seguridad de aplicaciones estáticas (SAST), SCA, IaC).
+- Configura umbrales mínimos de gravedad para controlar cuándo aparecen los comentarios.
+- Excluye los comentarios de los resultados en los archivos test o en las dependencias desarrollo/test para evitar el ruido de los problemas de baja prioridad.
+
+## Configurar los comentarios de PR a nivel de la organización
+
+1. En Datadog, ve a [**Seguridad** > **Code Security** > **Configuración**][7].
+1. En **Configuración del repositorio**, haz clic en **Global PR Comment Configuration** (Configuración global de comentarios en solicitudes de extracción).
+1. Configura los parámetros:
+ - **Activar comentarios en solicitudes de extracción para todos los tipos y gravedades de análisis**: Habilita esta opción para aplicar comentarios en solicitudes de extracción para todos los tipos y gravedades.
+ - **Activar para Static Analysis (SAST)**: Activa esta opción para habilitar comentarios en solicitudes de extracción para SAST. Si está activada, especifica un umbral de gravedad mínimo. Además, selecciona **Excluir comentarios en solicitudes de extracción, si se detectan infracciones en archivos de test** para evitar comentarios sobre problemas encontrados en archivos de test.
+ - **Activar para Software Composition Analysis (SCA)**: Activa esta opción para habilitar comentarios en solicitudes de extracción para SCA. Si está activada, especifica un umbral de gravedad mínimo. Además, selecciona **Excluir comentarios en solicitudes de extracción, si se detectan infracciones en dependencias de test o desarrollo** para evitar comentarios sobre problemas encontrados en dependencias existentes, sólo en entornos de test o desarrollo.
+ - **Activar para Infrastructure-as-Code (IaC)**: Activa esta opción para habilitar comentarios en solicitudes de extracción para IaC. Si está activada, especifica un umbral de gravedad mínimo.
+1. Haz clic en **Save** (Guardar).
+
+## Configurar comentarios de PR a nivel del repositorio
+
+1. En Datadog, ve a [**Seguridad** > **Code Security** > **Configuración**][7].
+1. En **Configuración del repositorio**, selecciona un repositorio de la lista.
+1. Configura los parámetros:
+ - **Activar comentarios en solicitudes de extracción para todos los tipos y gravedades de análisis**: Habilita esta opción para aplicar comentarios en solicitudes de extracción para todos los tipos y gravedades.
+ - **Activar para Static Analysis (SAST)**: Activa esta opción para habilitar comentarios en solicitudes de extracción para SAST. Si está activada, especifica un umbral de gravedad mínimo. Además, selecciona **Excluir comentarios en solicitudes de extracción, si se detectan infracciones en archivos de test** para evitar comentarios sobre problemas encontrados en archivos de test.
+ - **Activar para Software Composition Analysis (SCA)**: Activa esta opción para habilitar comentarios en solicitudes de extracción para SCA. Si está activada, especifica un umbral de gravedad mínimo. Además, selecciona **Excluir comentarios en solicitudes de extracción, si se detectan infracciones en dependencias de test o desarrollo** para evitar comentarios sobre problemas encontrados en dependencias existentes, sólo en entornos de test o desarrollo.
+ - **Activar para Infrastructure-as-Code (IaC)**: Activa esta opción para habilitar comentarios en solicitudes de extracción para IaC. Si está activada, especifica un umbral de gravedad mínimo.
+ - **Bloquear todos los comentarios en este repositorio**: Activa esta opción para desactivar todos los comentarios de este repositorio, anulando la configuración global.
+1. Haz clic en **Save configuration** (Guardar configuración).
+
+[1]: /es/security/code_security/
+[2]: /es/integrations/github/
+[3]: https://app.datadoghq.com/integrations/github/add
+[4]: https://app.datadoghq.com/security/configuration/code-security/setup
+[5]: https://app.datadoghq.com/integrations/github/configuration
+[6]: /es/security/code_security/static_analysis/github_actions/
+[7]: https://app.datadoghq.com/security/configuration/code-security/settings
+[8]: /es/integrations/gitlab-source-code/
+[9]: https://www.datadoghq.com/product-preview/azure-devops-integration-code-security/
+[10]: /es/quality_gates/?tab=staticanalysis#setup
\ No newline at end of file
diff --git a/content/es/service_management/incident_management/integrations/slack/_index.md b/content/es/service_management/incident_management/integrations/slack/_index.md
new file mode 100644
index 0000000000000..c7e73d52ce966
--- /dev/null
+++ b/content/es/service_management/incident_management/integrations/slack/_index.md
@@ -0,0 +1,196 @@
+---
+description: Gestiona los incidents (incidentes) de Datadog directamente desde Slack.
+further_reading:
+- link: integrations/slack/
+ tag: Documentación
+ text: Instalar la integración con Slack
+- link: https://app.datadoghq.com/integrations/slack
+ tag: Aplicación
+ text: Ícono de la integración de Slack en la aplicación
+- link: https://www.datadoghq.com/blog/slack-incident-management/
+ tag: Blog
+ text: Gestiona los incidents (incidentes) a la perfección con la integración de
+ Datadog para Slack
+title: Integrar Slack con Incident Management de Datadog
+---
+
+## Información general
+
+Slack es una plataforma de mensajería y colaboración ampliamente utilizada por equipos para comunicarse en tiempo real. La integración de Datadog con Slack conecta tus procesos de respuesta de incident (incidente) directamente con Slack, para que los equipos puedan declarar, gestionar y resolver incidents (incidentes) sin salir de su entorno de chat.
+
+Con la integración, puedes:
+
+- Responder más rápidamente declarando incidentes en Datadog directamente desde Slack.
+- Crear automáticamente canales de Slack para colaborar cuando se declaren incidentes en Datadog.
+- Ejecutar tu respuesta al incident (incidente) en Slack. Por ejemplo, paginar equipos de guardia, asignar roles de respondedor o actualizar la gravedad.
+
+La documentación sobre la integración de Slack se organiza en torno al ciclo de vida típico del uso de Slack con Incident Management:
+
+1. [**Instalar y conectar Slack**](#setup): Configura la integración entre tu espacio de trabajo de Slack y Datadog.
+2. [Declarar incidentes**](#declaring-incidents-from-slack): Aprende a iniciar incidentes utilizando comandos de Slack o acciones de mensajes.
+3. [**Gestionar incidentes desde los canales de incident (incidente) **](#incident-channels): Utiliza canales de Slack dedicados con comandos, sincronización y automatizaciones.
+4. [Configurar las notificaciones globales**](#global-slack-notifications): Mantén informada a tu organización con actualizaciones automáticas.
+5. **[Opciones de configuración de Slack de referencia](#additional-slack-configurations) y [comandos de Slack](#slack-incident-commands)**: Explora las opciones de configuración detalladas y consulta la lista completa de comandos de Slack disponibles para adaptar y agilizar tus procesos de respuesta al incident (incidente).
+
+## Requisitos previos
+
+Instala la integración a través del [ícono de integración de Slack][1] con los [ámbitos de OAuth][6] adecuados. Para obtener más información, consulta la documentación de [integración de Slack][2].
+
+Una vez instalada la integración, ve a [**Service Management (Gestión de servicios)** > **Incidents** (incidentes) > **Settings** (Configuración) > **Integrations** (Integraciones)][3] para activar las capacidades de Slack para Incident Management.
+
+## Declarar incidentes desde Slack
+
+Cuando conectas un espacio de trabajo de Slack a una organización de Datadog, los usuarios del espacio de trabajo pueden utilizar los accesos directos de Slack relacionados con Incident Management.
+
+Puedes declarar un incident (incidente) con el siguiente comando de barra oblicua:
+
+```
+/datadog incident
+```
+
+Para declarar un incident (incidente) desde un mensaje de Slack, sitúa el cursor sobre el mensaje, haz clic en **More actions** (Más acciones) (los tres puntos verticales) y selecciona **Declare incident** (Declarar incidente). Datadog publica un mensaje en el hilo del mensaje que confirma la creación del incident (incidente).
+
+En forma predeterminada, solo los usuarios de Slack conectados a una organización de Datadog pueden declarar incidentes. Los usuarios de Slack pueden conectarse a una organización de Datadog mediante la ejecución de `/datadog connect`.
+
+Para permitir que cualquier usuario de Slack en el espacio de trabajo declare incidentes, activa **Permitir que los usuarios de Slack declaren incidentes sin una cuenta de Datadog conectada** en la configuración de Incident Management.
+
+## Canales de incident (incidente)
+
+Puedes configurar Incident Management para crear automáticamente un canal de Slack dedicado para cada incident (incidente) que cumpla los criterios que definas. A continuación, tus respondedores pueden gestionar el incident (incidente) directamente en Slack desde el canal de incident (incidente).
+
+Para utilizar los canales de incident (incidente), ve a [**Incidents** (Incidentes) > **Settings** (Configuración) > **Integrations** (Integraciones)][3] y activa **Create Slack channels for incidents** (Crear canales de Slack para incidentes).
+
+La **plantilla de nombre de canal** que definas determina cómo Datadog nombra los incident (incidente) channels que creas. Las siguientes variables están disponibles en las plantillas de nombres de canales:
+
+* `{{public_id}}`: Identificador numérico del incident (incidente)
+* `{{title}}`: título del incident (incidente)
+* `{{created}}`: fecha de recreación del incident (incidente) en formato MM_DD_AAAA
+* `{{yyyy}}`: año de creación de cuatro dígitos del incident (incidente)
+* `{{mm}}`: mes de creación de dos dígitos del incident (incidente)
+* `{{dd}}`: día de creación de dos dígitos del mes del incident (incidente)
+* `{{random_adjective}}`: Adjetivo aleatorio
+* `{{random_noun}}`: Sustantivo aleatorio
+
+
+### Sincronización de mensajes (reflejo de Slack)
+
+Tras activar la creación automática de canales, puedes configurar Incident Management para sincronizar los mensajes entre un canal de Slack de incident (incidente) y la línea de tiempo del incident (incidente) en Datadog.
+
+Para activar la sincronización, activa **Insertar mensajes de canales de Slack en la línea de tiempo de incident (incidente)** en la configuración de Incident Management y, a continuación, selecciona una de las siguientes opciones:
+
+* **Refleja todos los mensajes en tiempo real**: Datadog sincroniza todos los mensajes publicados por los usuarios de Slack en el canal de incident (incidente).
+* **Insertar un mensaje cuando se añade 📌 como reacción**: Datadog sincroniza los mensajes sólo cuando los usuarios de Slack reaccionan a ellos con marcadores (📌).
+
+Para ambas opciones, no es necesario que el autor de un mensaje esté conectado a la organización de Datadog para que Datadog sincronice el mensaje. En el caso de los mensajes anclados, el autor **debe** estar conectado a la organización de Datadog para que el mensaje anclado se sincronice.
+
+En organizaciones con facturación Incident Managment en función del uso
+
+* La autoría de un mensaje que se sincroniza con Datadog **no** te convierte en usuario facturable para el mes en curso.
+* Anclar un mensaje que luego se sincroniza **te convierte en usuario facturable**.
+
+En organizaciones con facturación de Incident Management en función del puesto:
+
+* **No** es necesario que dispongas de un puesto para que Datadog sincronice tus mensajes con Incident Management.
+* Cuando anclas un mensaje, **debes** tener un puesto para que Datadog sincronice el mensaje que has anclado.
+
+### Comandos de Slack en el canal de incident (incidente)
+
+En un canal incident (incidente) de Slack, puedes ejecutar comandos de Slack para modificar los estados y la gravedad del incident (incidente), asignar roles del respondedor, paginar equipos de guardia y mucho más.
+
+Para obtener una lista completa de los comandos de Slack, consulta [comandos de Slack](#slack-commands).
+
+### Otras opciones de configuración del canal de incident (incidente)
+
+Accede a todas las opciones de configuración de Slack en Incident Management a través de la page (página) [**Incidents** (Incidentes) > **Settings** (Configuración) > **Integrations** (Integraciones)][3].
+
+| Función | Descripción y notas |
+|-----------------------------------------------------------|-------------------------------------------------------------------------------------------------------------------------------------------------|
+| **Enviar mensajes de línea de tiempo de incident (incidente) a Slack** | Envía automáticamente las actualizaciones de la línea de tiempo de incident (incidente) desde Datadog al canal de Slack.
Mantiene a los participantes del canal sincronizados con las actualizaciones de Datadog. |
+| **Añadir enlaces importantes a los marcadores del canal** | Publica enlaces relacionados con incidents (incidentes) en los marcadores del canal de Slack.
Proporciona un cómodo acceso a los recursos. |
+| **Añadir miembros del equipo automáticamente** | Cuando se añade un equipo de Datadog al incident (incidente), sus miembros se añaden al canal de Slack. |
+| **Envía actualizaciones de incident (incidente) al canal Slack** | Actualiza el tema del canal con el estado, la gravedad y el responsable del incident (incidente). |
+| **Enviar una notificación de Slack cuando comience una reunión** | Notifica al canal de Slack cuando se inicie una reunión, con los participantes y un enlace para unirse.
Proporciona un cómodo acceso a las llamadas de incident (incidente). |
+| **Activar Bits AI en canales de incident (incidente) de Slack** | Activa funciones de IA que utilizan el contexto de incident (incidente) de Datadog.
Se aplica a todos los tipos de incident (incidente) en el espacio de trabajo de Slack seleccionado. |
+| **Archivar automáticamente los canales de Slack tras la resolución** | Archiva canales de incident (incidente) de Slack una vez resuelto el incident (incidente).
Ayuda a reducir el desorden en los canales. |
+
+## Canal mundial de actualizaciones de incidents (incidentes)
+
+Puedes configurar Incident Management para que publique automáticamente actualizaciones sobre incidentes en un canal de Slack seleccionado. Para activarlo:
+
+1. En Datadog, ve a [**Incidents** (Incidentes) > **Settings** (Configuración) > **Integraions** (Integraciones][3].
+1. En la sección Slack, activa **Enviar todas las actualizaciones de incident (incidente) a un canal global**.
+1. Selecciona el espacio de trabajo de Slack y el canal de Slack donde deseas que se publiquen las actualizaciones de incidencias.
+
+Datadog notifica automáticamente al canal seleccionado los nuevos incidentes declarados, así como los cambios en los estados de incident (incidente), las gravedades y los responsables del incident (incidente).
+
+Bajo la superficie, esta función es una [regla de notificación integrada y oculta de incident (incidente)][5]. Si deseas personalizar el mensaje o sus desencadenantes, desactívala y define tu propia regla de notificación.
+
+## Comandos de Slack
+
+Puedes consultar la lista completa de comandos disponibles en Slack en cualquier momento escribiendo `/dd help` o `/datadog help` en Slack. Esto abrirá la referencia del comando directamente en tu espacio de trabajo de Slack. Para abrir la bandeja acción para acciones de gestión comunes de incident (incidente), escribe `/datadog`.
+
+
+
+
+ | Categoría |
+ Comando |
+ Descripción |
+
+
+
+
+ | Comandos globales (se ejecutan en cualquier lugar) |
+ /datadog incident |
+ Declara un nuevo incident (incidente). |
+
+
+ /datadog incident test |
+ Declara un nuevo test de incident (incidente) (si los incidentes de test están activados para el tipo de incident (incidente) ). |
+
+
+ /datadog incident list |
+ Enumera todos los incidentes abiertos (activos y estables). |
+
+
+ | Comandos de canales de incident (incidente) |
+ /datadog |
+ Abre la bandeja de acción de incident (incidente) para realizar acciones comunes. |
+
+
+ /datadog incident update |
+ Actualiza el estado del incident (incidente), la gravedad u otro atributo del incident (incidente). |
+
+
+ /datadog incident notify |
+ Notifica a @-handles sobre el incident (incidente). |
+
+
+ /datadog incident private |
+ Hacer privado el incident (incidente) (si los incidentes privados están activados). |
+
+
+ /datadog incident (incidente) responders |
+ Gestiona el equipo de respuesta de incident (incidente)(añade respondedores y asigna roles de respondedor). |
+
+
+ /datadog task |
+ Crea una nueva tarea de incident (incidente). |
+
+
+ /datadog task list |
+ Lista las tareas existentes en el incident (incidente). |
+
+
+
+
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/integrations/slack/
+[2]: /es/integrations/slack/?tab=datadogforslack
+[3]: https://app.datadoghq.com/incidents/settings#Integrations
+[4]: /es/integrations/jira/
+[5]: /es/service_management/incident_management/incident_settings/notification_rules/
+[6]: /es/integrations/slack/?tab=datadogforslack#permissions
\ No newline at end of file
diff --git a/content/es/tests/flaky_management/_index.md b/content/es/tests/flaky_management/_index.md
new file mode 100644
index 0000000000000..7e0ef8f13afd6
--- /dev/null
+++ b/content/es/tests/flaky_management/_index.md
@@ -0,0 +1,157 @@
+---
+description: Rastrea, clasifica y gestiona los tests de errores.
+further_reading:
+- link: /continuous_integration/tests/
+ tag: Documentación
+ text: Más información sobre Test Optimization
+- link: /tests/flaky_tests/
+ tag: Documentación
+ text: Aprende a trabajar con tests de errores
+- link: https://www.datadoghq.com/knowledge-center/flaky-tests/
+ tag: Centro de conocimiento
+ text: Información general de tests con errores
+title: Gestión de tests con errores
+---
+
+{{< site-region region="gov" >}}
+Test Optimization no está disponible en el sitio seleccionado ({{< region-param key="dd_site_name" >}}) en este momento.
+{{< /site-region >}}
+
+## Información general
+
+La página [Gestión de tests defectuosos][1] proporciona una vista centralizada para realizar un seguimiento, clasificar y remediar tests defectuosos en toda la organización. Puedes ver el estado de cada test junto con métricas de impacto clave como el número de fallos de pipeline, el tiempo de CI perdido y la tasa de fallos.
+
+Desde esta interfaz, puedes actuar sobre los tests defectuosos para mitigar su impacto. Pon en cuarentena o desactiva los tests problemáticos para evitar que los fallos conocidos rompan las compilaciones, y crea casos e incidentes en Jira para realizar un seguimiento del trabajo realizado para solucionarlos.
+
+{{< img src="tests/flaky_management.png" alt="Información general de la interfaz de usuario de gestión de tests defectuosos" style="width:100%;" >}}
+
+## Cambiar el estado de un test defectuoso
+
+Utiliza el menú desplegable de estado para cambiar cómo se gestiona un test defectuoso en tu pipeline CI. Esto puede ayudar a reducir el ruido de CI, manteniendo la trazabilidad y el control. Los estados disponibles son:
+
+| Estado | Descripción |
+| ----------- | ----------- |
+| **Activo** | Se sabe que el test es defectuoso y se está ejecutando en CI. |
+| **En cuarentena** | El test se mantiene ejecutándose en segundo plano, pero los fallos no afectan al estado de CI ni rompen los pipelines. Esto es útil para aislar los tests defectuosos sin bloquear las fusiones. |
+| **Desactivado** El test se omite por completo en CI. Utilízalo cuando un test ya no sea relevante o necesite ser eliminado temporalmente del pipeline. |
+| **Corregido** | El test ha pasado la prueba de forma consistente y ya no tiene fallos. Si es compatible, utiliza el [flujo de corrección](#confirm-fixes-for-flaky-tests) para confirmar una corrección y aplicar automáticamente este estado, en lugar de cambiarlo manualmente. |
+
+Las acciones de estado tienen requisitos de versión mínimos para la biblioteca de instrumentación de cada lenguaje de programación. Consulta
Compatibilidad para obtener más detalles.
+
+## Configura políticas para automatizar el ciclo de vida de los tests defectuosos
+
+Configura políticas de tests defectuosos automatizadas para controlar cómo se gestionan los tests defectuosos en cada repositorio. Por ejemplo, un test con defectos en la rama preeterminada puede ser automáticamente puesto en cuarentena y luego desactivado si permanece sin corregir después de 30 días.
+
+1. Haz clic en el botón **Policies* (Políticas) situado en la parte superior derecha de la página de gestión de tests defectuosos. También puedes ir a [**Políticas de tests defectuosos**][13] en los parámetros de entrega de software.
+2. Busca y selecciona el repositorio que quieres configurar. Se abrirá el menú desplegable **Edit Policies** (Editar políticas).
+ {{< img src="tests/flaky-policies-2.png" alt="Página Políticas de tests defectuosos con el menú Edit Policies (Editar políticas) abierto para configurar una política" style="width:100%;" >}}
+
+3. Utiliza los conmutadores para activar acciones automatizadas específicas y utiliza reglas de automatización para personalizar aún más la forma en que los tests son colocados en cuarentena, se desactivan o se vuelven a intentar:
+
+| Acción | Descripción |
+| ---- | ---- |
+| **Cuarentena** | Utiliza los conmutadores para permitir que los tests defectuosos se coloquen en cuarentena para este repositorio. Personaliza reglas de automatización basadas en: Tiempo: Coloca en cuarentena un test si su estado es `Active` durante un número especificado de días. Rama: Coloca en cuarentena un test `Active` si presenta defectos en una o más ramas especificadas.|
+| **Desactivar** | Utiliza los conmutadores para permitir que los tests defectuosos esté desactiven para este repositorio. Es posible que quieras hacer esto después de colocarlos en cuarentena o para proteger ramas específicas de potenciales defectos. Personaliza reglas de automatización basadas en: Estado y hora: Desactiva un test si tiene un estado especificado durante un número especificado de días. Rama: Desactiva un test `Active` o `Quarantined` si presenta defectos en una o más ramas especificadas. |
+| **Intento de corregir** | Cuando intentes corregir un test defectuoso, vuelve a intentar automáticamente el test un número especificado de veces en el commit que contiene la corrección. |
+| **Corregido** | Si un test defectuoso deja de presentar defectos durante 30 días, pasa automáticamente al estado Corregido. Esta automatización es el comportamiento por defecto y no se puede personalizar. |
+
+## Rastreo de la evolución de tests con errores
+
+Rastrea la evolución del número de tests con errores con la métrica predefinida `test_optimization.test_management.flaky_tests`. La métrica se enriquece con las siguientes tags (etiquetas) para ayudarte a investigar los counts con más detalle.
+
+- `repository_id`
+- `branch`
+- `flaky_status`
+- `test_codeowners`
+- `flaky_category`
+
+La tag (etiqueta) `branch` sólo existe cuando el test tiene errores en la rama predeterminada del repositorio durante los últimos 30 días. Esto te ayuda a descartar tests que sólo han mostrado errores en ramas de funciones, ya que estas pueden no ser relevantes. Puedes configurar la rama predeterminada de tus repositorios en [Configuración del repositorio][2].
+
+## Investigar un test con errores
+
+Para obtener más información sobre un test específico con errores, utiliza estas opciones en el menú de acciones al final de cada fila:
+
+- **Ver la última ejecución fallida de test **: Abre el panel lateral con los detalles de la última ejecución fallida de test.
+- **Ver ejecuciones relacionadas de test **: Abre el [Explorer de test optimization (optimización de tests)][3] poblado con todas las ejecuciones recientes del test.
+
+## Crea casos para los tests con errores
+
+Para cualquier test con errores, puedes crear un case (incidencia) y utilizar [Case Management][4] para rastrear cualquier trabajo de corrección. Haz clic en el botón **Crear case (incidencia)** o utiliza el menú de acciones situado al final de la fila.
+
+## Confirmar las correcciones de los tests con errores
+
+Cuando se corrige un test con errores, el flujo de corrección de test optimization (optimización de tests) puede confirmar la corrección reintentando el test varias veces. Si tiene éxito, el estado del test se actualiza automáticamente a `Fixed`. Para activar el flujo de corrección:
+
+1. En la página de test que estás corrigiendo, haz clic en **Link commit to Flaky test fix** (Vincular commit con la corrección del test defectuoso) en la interfaz de gestión de tests defectuosos.
+1. Copia la clave única de test con errores que aparece (por ejemplo, `DD_ABC123`).
+1. Incluye la clave del test en el título de tu confirmación Git o en el mensaje de la corrección (por ejemplo, `git commit -m "DD_ABC123"`).
+1. Cuando Datadog detecta la clave del test en tu confirmación, activa automáticamente el flujo de corrección para ese test:
+ - Reintenta 20 veces cualquier test que estés intentando corregir.
+ - Ejecuta tests aunque estén marcados como `Disabled`.
+ - Si se superan todos los reintentos, se actualiza el estado del test a `Fixed`.
+ - Si falla algún reintento, mantiene el estado actual del test(`Active`, `Quarantined`, o `Disabled`).
+
+## Categorización de tests defectuosos mediante IA
+
+La Gestión de tests defectuosos utiliza la IA para asignar automáticamente una categoría de causa raíz a cada test defectuoso en función de patrones de ejecución y señales de error. Esto te ayuda a filtrar, clasificar y priorizar tests defectuosos con mayor eficacia.
+
+Un test debe tener al menos una ejecución fallida que incluya las etiquetas (tags) @error.message y @error.stack para poder ser categorizado. Si el test se ha detectado recientemente, la categorización puede tardar varios minutos en finalizar.
+
+### Categorías
+
+| Categoría | Descripción |
+|-------------------------|-------------|
+| **Simultaneidad** | Test que invoca múltiples subprocesos que interactúan de forma insegura o imprevista. Los defectos son causados, por ejemplo, por condiciones de carrera resultantes de suposiciones implícitas sobre el orden de ejecución, que conducen a bloqueos en determinadas ejecuciones de tests. |
+| **Aleatoriedad** | Test que utiliza el resultado de un generador de datos aleatorios. Si el test no tiene en cuenta todos los casos posibles, puede fallar de forma intermitente, por ejemplo, solo cuando el resultado de un generador de números aleatorios es cero. |
+| **Punto flotante** | Test que utiliza el resultado de una operación de coma flotante. Las operaciones de coma flotante pueden sufrir excesos y defectos de precisión, sumas no asociativas, etc., que, si no se tienen en cuenta adecuadamente, pueden dar lugar a resultados incoherentes (por ejemplo, comparar un resultado de coma flotante con un valor real exacto en una aserción). |
+| **Colección desordenada**| Test que supone un orden de iteración particular para un objeto de colección desordenada. Dado que no se especifica ningún orden, los tests que suponen un orden fijo probablemente serán defectuoso por varias razones (por ejemplo, la implementación de la clase de colección). |
+| **Rango demasiado restrictivo**| Test cuyas aserciones solo aceptan parte del rango de salida válido. Falla intermitentemente en casos límite no gestionados. |
+| **Tiempo de espera** | Test que falla debido a limitaciones de tiempo, ya sea a nivel de test individual o como parte de un conjunto. Esto incluye aquellos tests que superan su límite de tiempo de ejecución (por ejemplo, test individual o todo el conjunto) y fallan intermitentemente debido a tiempos de ejecución variables. |
+| **Dependencia del orden** | Test que depende de un valor o recurso compartido modificado por otro test. Cambiar el orden de ejecución de test puede romper esas dependencias y producir resultados incoherentes. |
+| **Fuga de recursos** | Test que gestiona incorrectamente un recurso externo (por ejemplo, no logra liberar memoria). Los siguientes tests que reutilicen el recurso pueden presentar defectos. |
+| **Espera asíncrona** | Test que realiza una llamada asíncrona o espera a que los elementos se carguen/representen, pero no espera explícitamente a que se completen (a menudo utilizando un retraso fijo). Si la llamada o la representación tardan más que el retraso, el test falla. |
+| **E/S** | Test defectuoso debido a su gestión de entrada/salida, por ejemplo, fallando cuando se agota el espacio en disco durante una escritura. |
+| **Red** | Test que depende de la disponibilidad de la red (por ejemplo, consultas a un servidor). Si la red no está disponible o está congestionada, el test puede fallar. |
+| **Tiempo** | Test que se basa en la hora del sistema y puede fallar debido a discrepancias de precisión o de zona horaria (por ejemplo, falla cuando pasa la medianoche en UTC). |
+| **Dependencia del entorno** | Test que depende de sistemas operativos, versiones de bibliotecas o hardwares específicos. Puede ser aprobado en un entorno, pero fallar en otro, especialmente en entornos CI de nube donde las máquinas varían de forma no determinista. |
+| **Desconocido** | El test es defectuoso por una razón desconocida. |
+
+## Recibir notificaciones
+
+Configura notificaciones para realizar un seguimiento de los cambios en tus tests defectuosos. Cada vez que un usuario o una política cambia el estado de un test defectuoso, se envía un mensaje a los destinatarios seleccionados. Puedes enviar notificaciones a direcciones de correo electrónico o a canales de Slack (consulta la [integración de Datadog con Slack][5]) y enrutar los mensajes en función de los propietarios de códigos de test. Si no se especifica ningún propietario de código, se notifica a todos los destinatarios seleccionados de los cambios en tests defectuosos del repositorio. Configura la notificación para cada repositorio desde la página [**Políticas de tests defectuosos**][13] en los parámetros de entrega de software.
+
+Las notificaciones no se envían inmediatamente, sino que se agrupan por lotes cada pocos minutos para reducir el ruido.
+
+{{< img src="tests/flaky_management_notifications_settings.png" alt="Interfaz de usuario de parámetros de notificación" style="width:100%;" >}}
+
+## Compatibilidad
+
+Para utilizar las funciones de la gestión de tests defectuosos, debes utilizar la instrumentación nativa de Datadog para tu marco de test. En la tabla siguiente se indican las versiones mínimas de cada biblioteca de rastreo Datadog necesaria para poner en cuarentena, desactivar e intentar reparar tests con errores. Haz clic en el nombre de un lenguaje para obtener información sobre la configuración:
+
+| Lenguaje | Cuarentena y desactivación | Intento de corrección |
+| --------------- | ----------------------------- | ---------------------------- |
+| [.NET][6] | 3.13.0+ | 3.17.0+ |
+| [Go][7] | 1.73.0 o posterior (Orchestrion v1.3.0 o posterior) | 2.2.2 o posterior (Orchestrion v1.6.0 o posterior) |
+| [Java][8] | 1.48.0+ | 1.50.0+ |
+| [JavaScript][9] | 5.44.0+ | 5.52.0+ |
+| [Python][10] | 3.3.0+ | 3.8.0+ |
+| [Ruby][11] | 1.13.0+ | 1.17.0+ |
+| [Swift][12] | 2.6.1 o posterior | 2.6.1 o posterior |
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/ci/test/flaky
+[2]: https://app.datadoghq.com/source-code/repositories
+[3]: /es/tests/explorer
+[4]: /es/service_management/case_management
+[5]: /es/integrations/slack/?tab=datadogforslack
+[6]: /es/tests/setup/dotnet/
+[7]: /es/tests/setup/go/
+[8]: /es/tests/setup/java/
+[9]: /es/tests/setup/javascript/
+[10]: /es/tests/setup/python/
+[11]: /es/tests/setup/ruby/
+[12]: /es/tests/setup/swift/
+[13]: https://app.datadoghq.com/ci/settings/test-optimization/flaky-test-management
\ No newline at end of file
diff --git a/content/es/tracing/guide/send_traces_to_agent_by_api.md b/content/es/tracing/guide/send_traces_to_agent_by_api.md
index c14d6f1394978..a905f76185de8 100644
--- a/content/es/tracing/guide/send_traces_to_agent_by_api.md
+++ b/content/es/tracing/guide/send_traces_to_agent_by_api.md
@@ -3,6 +3,8 @@ aliases:
- /es/api/latest/tracing/
- /es/api/v1/tracing/
- /es/api/v2/tracing/
+description: Aprende a enviar trazas directamente al Datadog Agent utilizando la API
+ de rastreo para integraciones personalizadas y frameworks no compatibles.
further_reading:
- link: /tracing/
tag: Documentación
@@ -47,7 +49,7 @@ y cada tramo es un diccionario con `trace_id`, `span_id`, `resource` y así suce
|------------|---------|---------------------------------------|
| `duration` | int64 | La duración de la solicitud en nanosegundos. |
| `error` | int32 | Establece este valor en 1 para indicar si se ha producido un error. Si se produce un error, debes añadir información adicional, como el mensaje de error, el tipo y la información de stack en la propiedad meta. |
-| `meta` | objecto | Conjunto de metadatos clave-valor. Las claves y los valores deben ser cadenas. |
+| `meta` | objeto | Conjunto de metadatos clave-valor. Las claves y los valores deben ser cadenas. |
| - `` | cadena | Propiedades adicionales para metadatos clave-valor. |
| métricas | objeto | Un conjunto de metadatos clave-valor. Las claves deben ser cadenas y los valores deben ser números de coma flotante de 64 bits. |
| - `` | doble | Propiedades adicionales para métricas clave-valor. |
@@ -58,7 +60,7 @@ y cada tramo es un diccionario con `trace_id`, `span_id`, `resource` y así suce
| `span_id` | int64 | El ID de número entero del tramo (64 bits sin signo). |
| `start` | int64 | La hora de inicio de la solicitud en nanosegundos desde la epoch UNIX. |
| `trace_id` | int64 | Los 64 bits inferiores del ID entero único para la traza que contiene este tramo. Para un ID de traza de 128 bits, configura los 64 bits superiores utilizando la etiqueta (tag) `_dd.p.tid` en formato hexadecimal en minúsculas en el campo `meta`. |
-| `type` | enumerado | Tipo de solicitud. Valores de enumerado (enum) permitidos: `web`, `db`, `cache`, `custom` |
+| `type` | enum | Tipo de solicitud. Valores de enumerado (enum) permitidos: `web`, `db`, `cache`, `custom` |
### Ejemplo
@@ -153,6 +155,6 @@ Invoke-RestMethod -Uri $uri -Method Put -Body $body -Headers $headers
{{% /tab %}}
{{< /tabs >}}
-## Leer más
+## Referencias adicionales
{{< partial name="whats-next/whats-next.html" >}}
\ No newline at end of file
diff --git a/content/ko/security/application_security/code_security/setup/compatibility/nodejs.md b/content/ko/security/application_security/code_security/setup/compatibility/nodejs.md
new file mode 100644
index 0000000000000..57ba7cfd9163c
--- /dev/null
+++ b/content/ko/security/application_security/code_security/setup/compatibility/nodejs.md
@@ -0,0 +1,181 @@
+---
+code_lang: nodejs
+code_lang_weight: 50
+title: Node.js 호환성 요구 사항
+type: multi-code-lang
+---
+
+## Application Security 기능
+
+다음은 특정 트레이서 버전에 대해 Node.js 라이브러리에서 지원되는 애플리케이션 보안 기능입니다.
+
+| 애플리케이션 보안 기능 | 최소 Node.js 트레이서 버전 |
+|----------------------------------------|----------------------------------------------------|
+| 위협 탐지 | 4.0.0 |
+| Threat Protection | 4.0.0 |
+| 차단된 요청에 대한 응답 사용자 지정 | 4.1.0 |
+| 소프트웨어 구성 분석(SCA) | 4.0.0 |
+| 코드 보안 | Node.js 16+의 경우 4.18.0 또는 Node.js 18+의 경우 5.0.0 |
+| 자동 사용자 활동 이벤트 추적 | Node.js 16+용 4.4.0 |
+| API Security | Node.js 16+용 4.30.0 또는 Node.js 18+용 5.6.0 |
+
+Node.js에서 지원되는 모든 애플리케이션 보안 기능을 사용하는 데 필요한 최소 트레이서 버전은 4.30.0입니다.
+
+
+**참고**:
+- Threat Protection를 사용하려면 명시된 트레이스 최소 버전에 포함된 [Remote Configuration][2]을 활성화해야 합니다.
+
+### 지원되는 배포 유형
+| 유형 | 위협 탐지 지원 | 소프트웨어 구성 분석 |
+|-------------|--------------------------|-------------------------------|
+| Docker | {{< X >}} | {{< X >}} |
+| 쿠버네티스(Kubernetes) | {{< X >}} | {{< X >}} |
+| Amazon ECS | {{< X >}} | {{< X >}} |
+| AWS Fargate | {{< X >}} | {{< X >}} |
+| AWS Lambda | {{< X >}} | {{< X >}} |
+
+## 언어 및 프레임워크 호환성
+
+### Node.js 버전 지원
+
+Node.js 프로젝트에서 LTS 주요 릴리스 라인에 대한 지원을 중단하면(서비스 종료 시), 다음 주요 버전인 `dd-trace`의 다음 주요 버전의 해당 릴리스에 대한 지원이 중단됩니다.
+`dd-trace` 라이브러리의 마지막 주요 지원 릴리스 라인은 유지 관리 모드 기준으로 최소 1년 동안 해당 EOL 버전의 Node.js를 지원합니다.
+
+일부 문제는 `dd-trace`에서 해결할 수 없으며, 대신 Node.js에서 해결해야 합니다. 이러한 문제가 발생하고, 문제가 있는 Node.js 릴리스가 EOL인 경우, 다른 비 EOL 릴리스로 전환하지 않고는 문제를 해결할 수 없습니다.
+Datadog은 비 LTS Node.js 주요 릴리스 라인(홀수 버전)에 대한 특정 지원을 제공하기 위해 `dd-trace` 새 릴리스를 생성하지 않습니다.
+
+최상의 지원을 받으려면 항상 최신 LTS 릴리스와 `dd-trace`의 최신 메이저 버전을 실행합니다. 어떤 릴리스 라인을 사용하든 최신 보안 수정 사항이 적용되도록 해당 릴리스 라인의 최신 버전의 Node.js도 사용합니다.
+
+Node.js 릴리스에 대한 자세한 내용은 [공식 Node.js 문서][4]를 참조하세요.
+
+
+
+### 운영 체제 지원
+
+다음 운영 체제가 `dd-trace`에서 공식적으로 지원됩니다. 목록에 없는 운영 체제에서도 작동할 수 있지만, 애플리케이션 보안 기능, 프로파일링 및 런타임 메트릭과 같은 일부 기능이 누락될 수 있습니다. 일반적으로 메이저 전이 처음 출시될 때 활발하게 유지 관리되는 운영 체제가 지원됩니다.
+
+
+| 운영 체제 | 아키텍처 | 최소 버전 |
+|------------------|---------------|------------------------------------------|
+| Linux (glibc) | arm64, x64 | CentOS 7, Debian 9, RHEL 7, Ubuntu 14.04 |
+| Linux (musl) | arm64, x64 | Alpine 3.13 |
+| macOS | arm64, x64 | Catalina (10.15) |
+| 윈도우즈(Windows) | x64 | Windows 8.1, Windows Server 2012 |
+
+
+
+
+
+### 웹 프레임워크 호환성
+
+- 공격자 소스 HTTP 요청 세부 정보
+- HTTP 요청 태그(상태 코드, 메소드 등)
+- Distributed Tracing으로 애플리케이션을 통한 공격 플로 확인
+
+##### Application Security 기능 노트
+- **Software Composition Analysis**는 모든 프레임워크에서 지원됩니다.
+- 프레임워크가 하단 목록에 명시되지 않은 경우에도 **Code Security**는 취약한 암호화, 취약한 해싱, 안전하지 않은 쿠키, HttpOnly Flag가 없는 쿠키, SameSite Flag가 없는 쿠키의 취약점을 탐지합니다.
+
+
+| 프레임워크 | 버전 | Threat Detection이 지원되나요? | Threat Protection이 지원되나요? | Code Security? |
+|-----------|----------|-----------------------------|------------------------------|----------------------------------------------------|
+| express | >=4 | {{< X >}} | {{< X >}} | {{< X >}} |
+| nextjs | >=11.1 | {{< X >}} | | |
+
+
+
+
+
+
+
+
+### 네트워킹 프레임워크 호환성
+
+
+**네트워킹 추적은 다음을 제공합니다.**
+
+- 애플리케이션을 통한 Distributed Tracing
+- 요청 기반 차단
+
+##### Application Security 기능 노트
+- **Software Composition Analysis**는 모든 프레임워크에서 지원됩니다.
+
+
+
+| 프레임워크 | Threat Detection이 지원되나요? | Threat Protection이 지원되나요? | Code Security? |
+|-----------|-----------------------------|------------------------------|----------------------------------------------------|
+| http | {{< X >}} | {{< X >}} | {{< X >}} |
+| https | {{< X >}} | {{< X >}} | {{< X >}} |
+
+
+
+
+### 데이터 스토어 호환성
+
+
+**Datastore 추적은 다음을 제공합니다.**
+
+- 요청에서 응답까지의 시간 측정
+- 쿼리 정보(예: 보안 처리된(sanitized) 쿼리 문자열)
+- 오류 및 스택 트레이스 캡처
+
+##### Application Security 기능 노트
+- **Software Composition Analysis**는 모든 프레임워크에서 지원됩니다.
+- **Threat Protection**는 HTTP 요청(인풋) 레이어에서도 작동하므로, 아래 표에 명시되지 않은 데이터베이스를 포함한 모든 데이터베이스에서 기본적으로 작동합니다.
+
+
+| 프레임워크 | 버전 | Threat Detection이 지원되나요? | Threat Protection이 지원되나요? | Code Security? |
+|--------------------------|-----------|-----------------------------|------------------------------|----------------------------------------------------|
+| [@apollo/server][43] | `>=4` | {{< X >}} | {{< X >}} | |
+| [apollo-server-core][44] | `>=3` | {{< X >}} | {{< X >}} | |
+| [cassandra-driver][28] | `>=3` | {{< X >}} | {{< X >}} | |
+| [couchbase][29] | `^2.4.2` | {{< X >}} | {{< X >}} | |
+| [elasticsearch][30] | `>=10` | {{< X >}} | {{< X >}} | |
+| [ioredis][31] | `>=2` | {{< X >}} | {{< X >}} | |
+| [knex][32] | `>=0.8` | {{< X >}} | {{< X >}} | |
+| [mariadb][5] | `>=3` | {{< X >}} | {{< X >}} | |
+| [memcached][33] | `>=2.2` | {{< X >}} | {{< X >}} | |
+| [mongodb-core][34] | `>=2` | {{< X >}} | {{< X >}} | {{< X >}} |
+| [mysql][35] | `>=2` | {{< X >}} | {{< X >}} | {{< X >}} |
+| [mysql2][36] | `>=1` | {{< X >}} | {{< X >}} | {{< X >}} |
+| [oracledb][37] | `>=5` | {{< X >}} | {{< X >}} | |
+| [pg][38] | `>=4` | {{< X >}} | {{< X >}} | {{< X >}} |
+| [redis][39] | `>=0.12` | {{< X >}} | {{< X >}} | |
+| [sharedb][40] | `>=1` | {{< X >}} | {{< X >}} | |
+| [tedious][41] | `>=1` | {{< X >}} | {{< X >}} | |
+| [sequelize][42] | `>=4` | {{< X >}} | {{< X >}} | {{< X >}} |
+
+
+### 사용자 Authentication Frameworks 호환성
+
+**User Authentication Framework 통합은 다음을 제공합니다.**
+
+- 사용자 ID를 포함한 사용자 로그인 이벤트
+- Account Takeover 탐지 기능은 사용자 로그인 이벤트를 모니터링합니다.
+
+| 프레임워크 | 최소 Framework 버전 |
+|-----------------|---------------------------|
+| passport-local | 1.0.0 |
+| passport-http | 0.3.0 |
+
+[1]: /ko/tracing/trace_collection/compatibility/nodejs/
+[2]: /ko/agent/remote_config/#enabling-remote-configuration
+[4]: https://github.com/nodejs/release#release-schedule
+[5]: https://github.com/mariadb-corporation/mariadb-connector-nodejs
+[28]: https://github.com/datastax/nodejs-driver
+[29]: https://github.com/couchbase/couchnode
+[30]: https://github.com/elastic/elasticsearch-js
+[31]: https://github.com/luin/ioredis
+[32]: https://knexjs.org
+[33]: https://github.com/3rd-Eden/memcached
+[34]: http://mongodb.github.io/node-mongodb-native/core
+[35]: https://github.com/mysqljs/mysql
+[36]: https://github.com/sidorares/node-mysql2
+[37]: https://oracle.github.io/node-oracledb/
+[38]: https://node-postgres.com
+[39]: https://github.com/NodeRedis/node_redis
+[40]: https://share.github.io/sharedb/
+[41]: http://tediousjs.github.io/tedious
+[42]: https://github.com/sequelize/sequelize
+[43]: https://github.com/apollographql/apollo-server
+[44]: https://www.npmjs.com/package/apollo-server-core
\ No newline at end of file
diff --git a/content/ko/security/application_security/software_composition_analysis/setup/_index.md b/content/ko/security/application_security/software_composition_analysis/setup/_index.md
index 7af0f7b052ee3..7601c1bd0205e 100644
--- a/content/ko/security/application_security/software_composition_analysis/setup/_index.md
+++ b/content/ko/security/application_security/software_composition_analysis/setup/_index.md
@@ -109,6 +109,9 @@ SCA는 지원되는 언어에서 `-Ddd.appsec.sca.enabled` 플래그 또는 `DD_
{{< tabs >}}
{{% tab "Docker CLI" %}}
+`docker run` 명령에 다음 인수를 추가하여 APM에 대한 구성 컨테이너를 업데이트하세요.
+
+
```shell
docker run [...] -e DD_APPSEC_SCA_ENABLED=true [...]
```
diff --git a/content/ko/security/code_security/iast/setup/compatibility/nodejs.md b/content/ko/security/code_security/iast/setup/compatibility/nodejs.md
new file mode 100644
index 0000000000000..bc2e80a15a531
--- /dev/null
+++ b/content/ko/security/code_security/iast/setup/compatibility/nodejs.md
@@ -0,0 +1,181 @@
+---
+code_lang: nodejs
+code_lang_weight: 50
+title: Node.js 호환성 요구 사항
+type: multi-code-lang
+---
+
+## Application Security 기능
+
+다음은 특정 트레이서 버전에 대해 Node.js 라이브러리에서 지원되는 애플리케이션 보안 기능입니다.
+
+| 애플리케이션 보안 기능 | 최소 Node.js 트레이서 버전 |
+|----------------------------------------|----------------------------------------------------|
+| 위협 탐지 | 4.0.0 |
+| Threat Protection | 4.0.0 |
+| 차단된 요청에 대한 응답 사용자 지정 | 4.1.0 |
+| 소프트웨어 구성 분석(SCA) | 4.0.0 |
+| 코드 보안 | Node.js 16+의 경우 4.18.0 또는 Node.js 18+의 경우 5.0.0 |
+| 자동 사용자 활동 이벤트 추적 | Node.js 16+용 4.4.0 |
+| API Security | Node.js 16+용 4.30.0 또는 Node.js 18+용 5.6.0 |
+
+Node.js에서 지원되는 모든 애플리케이션 보안 기능을 사용하는 데 필요한 최소 트레이서 버전은 4.30.0입니다.
+
+
+**참고**:
+- Threat Protection를 사용하려면 명시된 트레이스 최소 버전에 포함된 [Remote Configuration][2]을 활성화해야 합니다.
+
+### 지원되는 배포 유형
+| 유형 | 위협 탐지 지원 | 소프트웨어 구성 분석 |
+|-------------|--------------------------|-------------------------------|
+| 도커(Docker) | {{< X >}} | {{< X >}} |
+| Kubernetes | {{< X >}} | {{< X >}} |
+| Amazon ECS | {{< X >}} | {{< X >}} |
+| AWS Fargate | {{< X >}} | {{< X >}} |
+| AWS Lambda | {{< X >}} | {{< X >}} |
+
+## 언어 및 프레임워크 호환성
+
+### Node.js 버전 지원
+
+Node.js 프로젝트에서 LTS 주요 릴리스 라인에 대한 지원을 중단하면(서비스 종료 시), 다음 주요 버전인 `dd-trace`의 다음 주요 버전의 해당 릴리스에 대한 지원이 중단됩니다.
+`dd-trace` 라이브러리의 마지막 주요 지원 릴리스 라인은 유지 관리 모드 기준으로 최소 1년 동안 해당 EOL 버전의 Node.js를 지원합니다.
+
+일부 문제는 `dd-trace`에서 해결할 수 없으며, 대신 Node.js에서 해결해야 합니다. 이러한 문제가 발생하고, 문제가 있는 Node.js 릴리스가 EOL인 경우, 다른 비 EOL 릴리스로 전환하지 않고는 문제를 해결할 수 없습니다.
+Datadog은 비 LTS Node.js 주요 릴리스 라인(홀수 버전)에 대한 특정 지원을 제공하기 위해 `dd-trace` 새 릴리스를 생성하지 않습니다.
+
+최상의 지원을 받으려면 항상 최신 LTS 릴리스와 `dd-trace`의 최신 메이저 버전을 실행합니다. 어떤 릴리스 라인을 사용하든 최신 보안 수정 사항이 적용되도록 해당 릴리스 라인의 최신 버전의 Node.js도 사용합니다.
+
+Node.js 릴리스에 대한 자세한 내용은 [공식 Node.js 문서][4]를 참조하세요.
+
+
+
+### 운영 체제 지원
+
+다음 운영 체제가 `dd-trace`에서 공식적으로 지원됩니다. 목록에 없는 운영 체제에서도 작동할 수 있지만, 애플리케이션 보안 기능, 프로파일링 및 런타임 메트릭과 같은 일부 기능이 누락될 수 있습니다. 일반적으로 메이저 전이 처음 출시될 때 활발하게 유지 관리되는 운영 체제가 지원됩니다.
+
+
+| 운영 체제 | 아키텍처 | 최소 버전 |
+|------------------|---------------|------------------------------------------|
+| Linux (glibc) | arm64, x64 | CentOS 7, Debian 9, RHEL 7, Ubuntu 14.04 |
+| Linux (musl) | arm64, x64 | Alpine 3.13 |
+| macOS | arm64, x64 | Catalina (10.15) |
+| 윈도우즈(Windows) | x64 | Windows 8.1, Windows Server 2012 |
+
+
+
+
+
+### 웹 프레임워크 호환성
+
+- 공격자 소스 HTTP 요청 세부 정보
+- HTTP 요청 태그(상태 코드, 메소드 등)
+- Distributed Tracing으로 애플리케이션을 통한 공격 플로 확인
+
+##### Application Security 기능 노트
+- **Software Composition Analysis**는 모든 프레임워크에서 지원됩니다.
+- 프레임워크가 하단 목록에 명시되지 않은 경우에도 **Code Security**는 취약한 암호화, 취약한 해싱, 안전하지 않은 쿠키, HttpOnly Flag가 없는 쿠키, SameSite Flag가 없는 쿠키의 취약점을 탐지합니다.
+
+
+| 프레임워크 | 버전 | Threat Detection이 지원되나요? | Threat Protection이 지원되나요? | Code Security? |
+|-----------|----------|-----------------------------|------------------------------|----------------------------------------------------|
+| express | >=4 | {{< X >}} | {{< X >}} | {{< X >}} |
+| nextjs | >=11.1 | {{< X >}} | | |
+
+
+
+
+
+
+
+
+### 네트워킹 프레임워크 호환성
+
+
+**네트워킹 추적은 다음을 제공합니다.**
+
+- 애플리케이션을 통한 Distributed Tracing
+- 요청 기반 차단
+
+##### Application Security 기능 노트
+- **Software Composition Analysis**는 모든 프레임워크에서 지원됩니다.
+
+
+
+| 프레임워크 | Threat Detection이 지원되나요? | Threat Protection이 지원되나요? | Code Security? |
+|-----------|-----------------------------|------------------------------|----------------------------------------------------|
+| http | {{< X >}} | {{< X >}} | {{< X >}} |
+| https | {{< X >}} | {{< X >}} | {{< X >}} |
+
+
+
+
+### 데이터 스토어 호환성
+
+
+**Datastore 추적은 다음을 제공합니다.**
+
+- 요청에서 응답까지의 시간 측정
+- 쿼리 정보(예: 보안 처리된(sanitized) 쿼리 문자열)
+- 오류 및 스택 트레이스 캡처
+
+##### Application Security 기능 노트
+- **Software Composition Analysis**는 모든 프레임워크에서 지원됩니다.
+- **Threat Protection**는 HTTP 요청(인풋) 레이어에서도 작동하므로, 아래 표에 명시되지 않은 데이터베이스를 포함한 모든 데이터베이스에서 기본적으로 작동합니다.
+
+
+| 프레임워크 | 버전 | Threat Detection이 지원되나요? | Threat Protection이 지원되나요? | Code Security? |
+|--------------------------|-----------|-----------------------------|------------------------------|----------------------------------------------------|
+| [@apollo/server][43] | `>=4` | {{< X >}} | {{< X >}} | |
+| [apollo-server-core][44] | `>=3` | {{< X >}} | {{< X >}} | |
+| [cassandra-driver][28] | `>=3` | {{< X >}} | {{< X >}} | |
+| [couchbase][29] | `^2.4.2` | {{< X >}} | {{< X >}} | |
+| [elasticsearch][30] | `>=10` | {{< X >}} | {{< X >}} | |
+| [ioredis][31] | `>=2` | {{< X >}} | {{< X >}} | |
+| [knex][32] | `>=0.8` | {{< X >}} | {{< X >}} | |
+| [mariadb][5] | `>=3` | {{< X >}} | {{< X >}} | |
+| [memcached][33] | `>=2.2` | {{< X >}} | {{< X >}} | |
+| [mongodb-core][34] | `>=2` | {{< X >}} | {{< X >}} | {{< X >}} |
+| [mysql][35] | `>=2` | {{< X >}} | {{< X >}} | {{< X >}} |
+| [mysql2][36] | `>=1` | {{< X >}} | {{< X >}} | {{< X >}} |
+| [oracledb][37] | `>=5` | {{< X >}} | {{< X >}} | |
+| [pg][38] | `>=4` | {{< X >}} | {{< X >}} | {{< X >}} |
+| [redis][39] | `>=0.12` | {{< X >}} | {{< X >}} | |
+| [sharedb][40] | `>=1` | {{< X >}} | {{< X >}} | |
+| [tedious][41] | `>=1` | {{< X >}} | {{< X >}} | |
+| [sequelize][42] | `>=4` | {{< X >}} | {{< X >}} | {{< X >}} |
+
+
+### 사용자 Authentication Frameworks 호환성
+
+**User Authentication Framework 통합은 다음을 제공합니다.**
+
+- 사용자 ID를 포함한 사용자 로그인 이벤트
+- Account Takeover 탐지 기능은 사용자 로그인 이벤트를 모니터링합니다.
+
+| 프레임워크 | 최소 Framework 버전 |
+|-----------------|---------------------------|
+| passport-local | 1.0.0 |
+| passport-http | 0.3.0 |
+
+[1]: /ko/tracing/trace_collection/compatibility/nodejs/
+[2]: /ko/tracing/guide/remote_config/
+[4]: https://github.com/nodejs/release#release-schedule
+[5]: https://github.com/mariadb-corporation/mariadb-connector-nodejs
+[28]: https://github.com/datastax/nodejs-driver
+[29]: https://github.com/couchbase/couchnode
+[30]: https://github.com/elastic/elasticsearch-js
+[31]: https://github.com/luin/ioredis
+[32]: https://knexjs.org
+[33]: https://github.com/3rd-Eden/memcached
+[34]: https://www.mongodb.com/docs/drivers/node/current/
+[35]: https://github.com/mysqljs/mysql
+[36]: https://github.com/sidorares/node-mysql2
+[37]: https://oracle.github.io/node-oracledb/
+[38]: https://node-postgres.com
+[39]: https://github.com/NodeRedis/node_redis
+[40]: https://share.github.io/sharedb/
+[41]: http://tediousjs.github.io/tedious
+[42]: https://github.com/sequelize/sequelize
+[43]: https://github.com/apollographql/apollo-server
+[44]: https://www.npmjs.com/package/apollo-server-core
\ No newline at end of file
From 73e06ebf77a2be987cea7448c398ddf2a4723918 Mon Sep 17 00:00:00 2001
From: "webops-guacbot[bot]"
<214537265+webops-guacbot[bot]@users.noreply.github.com>
Date: Wed, 22 Oct 2025 15:13:16 +0000
Subject: [PATCH 7/9] Translated file updates
---
.../guide/csv_headers/usage-trends.md | 5 +-
content/es/account_management/users/_index.md | 18 +-
.../agent/guide/use-community-integrations.md | 6 +-
...install-the-agent-on-my-cloud-instances.md | 3 +
content/es/agent/troubleshooting/site.md | 2 +
content/es/api/latest/_index.md | 18 +-
content/es/bits_ai/mcp_server/setup/_index.md | 433 ++++++
.../cloud_cost_management/reports/_index.md | 110 ++
content/es/cloudprem/manage/_index.md | 82 ++
.../continuous_integration/troubleshooting.md | 10 +-
content/es/dashboards/functions/smoothing.md | 2 +
content/es/dashboards/functions/timeshift.md | 7 +-
.../widgets/configuration/_index.md | 193 +++
content/es/dashboards/widgets/table.md | 11 +-
content/es/dashboards/widgets/types/_index.md | 119 ++
.../es/developers/dogstatsd/unix_socket.md | 2 +-
.../getting_started/feature_flags/_index.md | 139 ++
content/es/integrations/solr.md | 324 +++++
content/es/integrations/spark.md | 232 +++
content/es/integrations/sqlserver.md | 314 +++++
content/es/integrations/teamcity.md | 316 +++++
content/es/integrations/tyk.md | 4 +-
content/es/integrations/win32_event_log.md | 12 +-
.../es/llm_observability/monitoring/_index.md | 78 +-
...ting-file-permissions-for-rotating-logs.md | 5 +-
content/es/metrics/summary.md | 7 +-
content/es/metrics/units.md | 8 +-
.../guide/template-variable-evaluation.md | 3 +
content/es/monitors/notify/variables.md | 57 +-
.../devices/troubleshooting.md | 2 +
.../es/notebooks/advanced_analysis/_index.md | 57 +-
content/es/opentelemetry/setup/_index.md | 51 +-
.../setup/collector_exporter/_index.md | 318 +----
.../browser/tracking_user_actions.md | 52 +-
.../browser/troubleshooting.md | 36 +-
.../explorer/visualize.md | 40 +-
.../rum_without_limits/_index.md | 108 ++
content/es/remote_configuration/_index.md | 176 +++
.../create_rule/_index.md | 4 +
.../code_security/iac_security/_index.md | 89 ++
.../static_analysis_rules/_index.md | 134 +-
.../service_management/status_pages/_index.md | 132 +-
.../guide/synthetic-tests-caching.md | 10 +-
.../guide/uptime-percentage-widget.md | 2 +-
content/es/synthetics/notifications/_index.md | 252 ++++
.../guide/setting_primary_tags_to_scope.md | 2 +
.../tracing/guide/setting_up_APM_with_cpp.md | 10 +-
.../es/tracing/guide/slowest_request_daily.md | 2 +-
.../guide/trace_ingestion_volume_control.md | 22 +-
.../guide/week_over_week_p50_comparison.md | 4 +-
.../troubleshooting/tracer_debug_logs.md | 87 +-
.../troubleshooting/tracer_startup_logs.md | 26 +-
content/fr/agent/guide/install-agent-6.md | 1238 +++++++++++++++++
..._highest_impact_jobs_with_critical_path.md | 74 +
content/ja/integrations/github_copilot.md | 156 +++
.../unity/advanced_configuration.md | 192 +++
.../session_replay/heatmaps.md | 147 ++
content/ko/containers/docker/integrations.md | 399 +++---
.../guide/autodiscovery-with-jmx.md | 421 ++++++
.../ko/integrations/itunified_ug_dbxplorer.md | 207 +++
content/ko/integrations/jlcp_sefaz.md | 123 ++
.../integrations/trek10_coverage_advisor.md | 131 ++
.../incident_management/investigate/_index.md | 82 ++
.../investigate/timeline.md | 59 +
.../test_impact_analysis/setup/javascript.md | 198 +++
.../test_impact_analysis/setup/python.md | 223 +++
.../tutorial-enable-java-aws-ecs-fargate.md | 2 +-
.../custom_instrumentation/cpp/dd-api.md | 151 ++
data/api/v1/translate_actions.es.json | 10 +-
data/api/v2/translate_tags.es.json | 104 +-
70 files changed, 7180 insertions(+), 873 deletions(-)
create mode 100644 content/es/bits_ai/mcp_server/setup/_index.md
create mode 100644 content/es/cloud_cost_management/reports/_index.md
create mode 100644 content/es/cloudprem/manage/_index.md
create mode 100644 content/es/dashboards/widgets/configuration/_index.md
create mode 100644 content/es/dashboards/widgets/types/_index.md
create mode 100644 content/es/getting_started/feature_flags/_index.md
create mode 100644 content/es/integrations/solr.md
create mode 100644 content/es/integrations/spark.md
create mode 100644 content/es/integrations/sqlserver.md
create mode 100644 content/es/integrations/teamcity.md
create mode 100644 content/es/real_user_monitoring/rum_without_limits/_index.md
create mode 100644 content/es/remote_configuration/_index.md
create mode 100644 content/es/security/cloud_siem/detect_and_monitor/custom_detection_rules/create_rule/_index.md
create mode 100644 content/es/security/code_security/iac_security/_index.md
create mode 100644 content/es/synthetics/notifications/_index.md
create mode 100644 content/fr/agent/guide/install-agent-6.md
create mode 100644 content/ja/continuous_integration/guides/identify_highest_impact_jobs_with_critical_path.md
create mode 100644 content/ja/integrations/github_copilot.md
create mode 100644 content/ja/real_user_monitoring/mobile_and_tv_monitoring/unity/advanced_configuration.md
create mode 100644 content/ja/real_user_monitoring/session_replay/heatmaps.md
create mode 100644 content/ko/containers/guide/autodiscovery-with-jmx.md
create mode 100644 content/ko/integrations/itunified_ug_dbxplorer.md
create mode 100644 content/ko/integrations/jlcp_sefaz.md
create mode 100644 content/ko/integrations/trek10_coverage_advisor.md
create mode 100644 content/ko/service_management/incident_management/investigate/_index.md
create mode 100644 content/ko/service_management/incident_management/investigate/timeline.md
create mode 100644 content/ko/tests/test_impact_analysis/setup/javascript.md
create mode 100644 content/ko/tests/test_impact_analysis/setup/python.md
create mode 100644 content/ko/tracing/trace_collection/custom_instrumentation/cpp/dd-api.md
diff --git a/content/es/account_management/guide/csv_headers/usage-trends.md b/content/es/account_management/guide/csv_headers/usage-trends.md
index c4dc343d2edf6..5591606d21309 100644
--- a/content/es/account_management/guide/csv_headers/usage-trends.md
+++ b/content/es/account_management/guide/csv_headers/usage-trends.md
@@ -1,4 +1,7 @@
---
+description: Se ha actualizado la estructura CSV de los informes de devolución de
+ costes con nuevos encabezados para el nombre de la organización, el ID público,
+ el mes, el nombre del producto y el coste.
title: Nuevos encabezados CSV para las devoluciones
---
@@ -7,4 +10,4 @@ Los cambios en el encabezado CSV entrarán en vigor la semana del 19 de febrero
| Nombre de la organización | Identificación pública | Mes | Nombre del producto | Coste |
|----| ---| ---| ---| ---|
|Org 1 | public_id_1 | 2024-01 | Infra hosts | $100.18 |
-|Org 1 | public_id_1 | 2024-01 | Integración | $50.00 |
\ No newline at end of file
+|Org 1 | public_id_1 | 2024-01 | Métricas personalizadas | $50.00 |
\ No newline at end of file
diff --git a/content/es/account_management/users/_index.md b/content/es/account_management/users/_index.md
index 0f5374a475849..6bc36fedc155a 100644
--- a/content/es/account_management/users/_index.md
+++ b/content/es/account_management/users/_index.md
@@ -8,7 +8,7 @@ further_reading:
text: Configurar SAML para tu cuenta de Datadog
- link: /account_management/rbac/
tag: Documentación
- text: Aprende cómo crear, actualizar y borrar un rol
+ text: Aprende cómo crear, actualizar y borrar un rol.
- link: /account_management/rbac/permissions/
tag: Documentación
text: Descubre la lista de permisos disponibles
@@ -18,23 +18,23 @@ further_reading:
title: Gestión de usuarios
---
{{< site-region region="gov" >}}
-El sitio Datadog for Government solo permite el inicio de sesión con SAML.
+El sitio de Datadog for Government solo admite el inicio de sesión SAML.
{{< /site-region >}}
-La pestaña **User** (Usuario) en **Organization Settings** (Parámetros de la organización) te permite gestionar los usuarios y sus roles asociados. Puedes alternar entre las vistas de lista y de cuadrícula haciendo clic en **List View** (Vista de lista) y **Grid View** (Vista de cuadrícula) a la derecha.
+La pestaña **User** (Usuario) en **Organization Settings** (Parámetros de la organización) te permite gestionar los usuarios y sus roles asociados. Puedes alternar entre las vistas de lista y de cuadrícula haciendo clic en **List View** (Vista de lista) y **Grid View** (Vista de cuadrícula), a la derecha.
## Añadir miembros y gestionar invitaciones
Si quieres añadir algún miembro a tu organización:
1. Accede la página Organization Settings (Parámetros de la organización) y haz clic en la pestaña **Users** (Usuarios).
-2. Haz clic en **Invite Users** (Invitar usuarios) en la esquina superior derecha de la página.
+2. Haz clic en **Invite Users** (Invitar usuarios), en la esquina superior derecha de la página.
3. Ingresa la dirección de correo electrónico del usuario al que quieres invitar a tu cuenta de Datadog.
4. Asigna uno o más [roles de usuario][1] a los usuarios.
**Nota**: Los usuarios con el permiso Invite User (Invitar usuarios) pueden invitar a otros usuarios a los roles que les pertenecen. Los usuarios con los permisos Invite User y Access Management (Gestión de acceso) pueden invitar a otros usuarios a cualquier rol.
5. Haz clic en **Send Invites** (Enviar invitaciones).
-El nuevo usuario recibe un correo electrónico con un enlace para iniciar sesión y tendrá el estado `Invite Pending` hasta que complete el proceso. Si quieres cancelar la invitación antes de que inicie sesión, haz clic en el botón **Delete Invite** (Borrar invitación), que aparece a la derecha del usuario en la vista de lista, o en la casilla del usuario en la vista de cuadrícula.
+El nuevo usuario recibe un correo electrónico con un enlace para iniciar sesión. Este enlace es válido durante 48 horas. El usuario será marcado con el estado `Invite Pending` hasta que inicie sesión. Para cancelar la invitación antes de que inicie sesión, haz clic en el botón **Delete Invite** (Eliminar invitación) situado a la derecha de la línea de usuario en la vista de lista, o en el cuadro de usuario en la vista de cuadrícula.
Para reenviar una invitación en la vista de lista, haz clic en el usuario y se abrirá el panel lateral. Haz clic en **Resend Invite** (Reenviar invitación). En la vista de cuadrícula, pasa el cursor sobre la casilla del usuario y haz clic en **Resend Invite**.
@@ -57,18 +57,18 @@ Para descubrir los roles disponibles y cómo crear roles personalizados, consult
Sólo los usuarios con el permiso User Access Management (Gestión de acceso de usuarios), por ejemplo los que tienen un rol de administrador en Datadog, pueden modificar los métodos de inicio de sesión de otros usuarios.
-Los métodos de inicio de sesión predeterminados de una organización se pueden configurar en la página de métodos de inicio de sesión, desde donde podrás autorizar o no a todos los usuarios de tu organización a utilizar un nombre de usuario o una contraseña de Datadog, a iniciar sesión con Google o para iniciar sesión con SAML. En User Management (Gestión de usuarios) también puedes hacer modificaciones individuales a cada usuario para permitirle utilizar un método de inicio de sesión concreto o varios. Esto puede resultar útil si quieres que todos los usuarios utilicen SAML, pero necesitas que algunos de ellos puedan iniciar sesión con su usuario y contraseña en caso de emergencia.
+Los métodos de inicio de sesión predeterminados de una organización se pueden configurar en la página de métodos de inicio de sesión, desde donde podrás autorizar o no a todos los usuarios de tu organización a utilizar un nombre de usuario o una contraseña de Datadog, a iniciar sesión con Google o a iniciar sesión con SAML. En User Management (Gestión de usuarios), también puedes hacer modificaciones individuales a cada usuario para permitirle utilizar un método de inicio de sesión concreto o varios. Esto puede resultar útil si quieres que todos los usuarios utilicen SAML, pero necesitas que algunos de ellos puedan iniciar sesión con su usuario y contraseña en caso de emergencia.
Para editar los métodos de inicio de sesión de un usuario:
1. Accede a la pestaña **Users** (Usuarios) en **Organization Settings** (Parámetros de la organización).
2. Selecciona **Edit** (Editar) a la derecha del usuario.
-3. Activa **Override Default Login Methods** (Anular los métodos de inicio de sesión predeterminados) para activar o desactivar parámetros específicos para un usuario.
+3. Activa **Override Default Login Methods** (Anular los métodos de inicio de sesión predeterminados), para activar o desactivar parámetros específicos para un usuario.
4. Si activas esta opción, elige un conjunto de métodos de inicio de sesión que el usuario puede utilizar para conectarse a Datadog. Puedes definir un único método o todos los que tengas configurados para tu organización.
5. Haz clic en **Save** (Guardar).
-**Nota**: Las anulaciones pueden definirse únicamente en métodos de inicio de sesión válidos. Si no has configurado SAML, no podrás utilizarlo como anulación para un usuario.
+**Nota**: Las anulaciones pueden definirse únicamente en métodos de inicio de sesión válidos. Si no has configurado SAML, no podrás utilizar ese método de inicio de sesión como anulación para un usuario.
## Desactivar miembros existentes
@@ -82,7 +82,7 @@ Sólo los usuarios con el permiso Access Management (Gestión de acceso), por ej
**Nota**: Por defecto, los usuarios desactivados se excluyen de la lista de usuarios de la página User Management (Gestión de usuarios). Si tienes los permisos correctos, puedes filtrar los usuarios con estado `Disabled` y reactivarlos.
-## Leer más
+## Referencias adicionales
{{< partial name="whats-next/whats-next.html" >}}
diff --git a/content/es/agent/guide/use-community-integrations.md b/content/es/agent/guide/use-community-integrations.md
index ff291805f4bcb..08c2ba5df2c21 100644
--- a/content/es/agent/guide/use-community-integrations.md
+++ b/content/es/agent/guide/use-community-integrations.md
@@ -1,6 +1,8 @@
---
aliases:
- /es/agent/guide/community-integrations-installation-with-docker-agent
+description: Guía de instalación y configuración para integraciones desarrolladas
+ por la comunidad y Marketplace con el Datadog Agent en distintos entornos.
further_reading:
- link: /agent/troubleshooting/
tag: Documentación
@@ -40,7 +42,7 @@ En las versiones 7.21/6.21 del Agent (y posteriores):
[1]: /es/getting_started/integrations/
[2]: /es/agent/configuration/agent-commands/#restart-the-agent
{{% /tab %}}
-{{% tab "Contenedorizado" %}}
+{{% tab "Contenedores" %}}
Para utilizar una integración de la comunidad o el mercado en un entorno contenerizado debes crear una imagen personalizada que incluya la integración comunitaria que quieras.
@@ -51,7 +53,7 @@ FROM gcr.io/datadoghq/agent:latest
RUN agent integration install -r -t datadog-==
```
-El comando `datadog-agent integration install` (ejecutado dentro de Docker) emite la siguiente advertencia inofensiva: `Error loading config: Config File "datadog" Not Found in "[/etc/datadog-agent]": warn`. Puedes ignorarla.
+El comando `agent integration install` (ejecutado dentro de Docker) emite la siguiente advertencia inofensiva: `Error loading config: Config File "datadog" Not Found in "[/etc/datadog-agent]": warn`. Puedes ignorar esta advertencia.
Si utilizas Kubernetes, actualiza tu gráfico de Helm o tu configuración de operador Datadog para extraer tu imagen personalizada.
diff --git a/content/es/agent/guide/why-should-i-install-the-agent-on-my-cloud-instances.md b/content/es/agent/guide/why-should-i-install-the-agent-on-my-cloud-instances.md
index bbc74bae6aa18..3300e6c551046 100644
--- a/content/es/agent/guide/why-should-i-install-the-agent-on-my-cloud-instances.md
+++ b/content/es/agent/guide/why-should-i-install-the-agent-on-my-cloud-instances.md
@@ -3,6 +3,9 @@ aliases:
- /es/agent/faq/why-should-i-install-the-agent-on-my-aws-instances/
- /es/integrations/faq/why-is-my-aws-error-count-metric-orders-of-magnitude-lower-in-datadog-than-cloudwatch/
- /es/agent/faq/why-should-i-install-the-agent-on-my-cloud-instances/
+description: Explica las ventajas de instalar el Datadog Agent en instancias en la
+ nube, incluida una mejor resolución, más métricas, integraciones y funciones de
+ monitorización personalizadas.
further_reading:
- link: /integrations/guide/cloud-metric-delay/
tag: Guía
diff --git a/content/es/agent/troubleshooting/site.md b/content/es/agent/troubleshooting/site.md
index 34bb6fab5046b..db2dd06e47fe5 100644
--- a/content/es/agent/troubleshooting/site.md
+++ b/content/es/agent/troubleshooting/site.md
@@ -1,4 +1,6 @@
---
+description: Configura el Datadog Agent para enviar datos al sitio de Datadog correcto
+ estableciendo el parámetro de sitio o la variable de entorno DD_SITE.
title: Problemas con el sitio del Agent
---
diff --git a/content/es/api/latest/_index.md b/content/es/api/latest/_index.md
index ce35dadb55014..9ffa0fbe0973b 100644
--- a/content/es/api/latest/_index.md
+++ b/content/es/api/latest/_index.md
@@ -62,7 +62,7 @@ Gradle - Añade esta dependencia al archivo de compilación de tu proyecto:
compile "com.datadoghq:datadog-api-client:{{< sdk-version "datadog-api-client-java" >}}"
```
-#### Uso
+#### Utilización
```java
import com.datadog.api.client.ApiClient;
@@ -126,7 +126,7 @@ Ejemplo de ejecución con el comando `gradle run`.
```sh
pip install datadog
```
-#### Uso
+#### Utilización
```python
import datadog
```
@@ -137,7 +137,7 @@ import datadog
```console
pip3 install datadog-api-client
```
-#### Uso
+#### Utilización
```python
import datadog_api_client
```
@@ -148,7 +148,7 @@ import datadog_api_client
```sh
gem install dogapi
```
-#### Uso
+#### Utilización
```ruby
require 'dogapi'
```
@@ -159,7 +159,7 @@ require 'dogapi'
```sh
gem install datadog_api_client -v {{< sdk-version "datadog-api-client-ruby" >}}
```
-#### Uso
+#### Utilización
```ruby
require 'datadog_api_client'
```
@@ -170,7 +170,7 @@ require 'datadog_api_client'
```sh
go mod init main && go get github.com/DataDog/datadog-api-client-go/v2/api/datadog
```
-#### Uso
+#### Utilización
```go
import (
"github.com/DataDog/datadog-api-client-go/v2/api/datadog"
@@ -192,7 +192,7 @@ npm install @datadog/datadog-api-client
yarn add @datadog/datadog-api-client
```
-#### Uso
+#### Utilización
```js
import { } from 'datadog-api-client';
```
@@ -209,7 +209,7 @@ Ejecuta `cargo add datadog-api-client` o añade lo siguiente a `Cargo.toml` en `
datadog-api-client = "0"
```
-#### Uso
+#### Utilización
Prueba el siguiente fragmento para validar la clave de tu API Datadog:
```rust
use datadog_api_client::datadog::Configuration;
@@ -250,4 +250,4 @@ O consulta directamente en las bibliotecas:
[4]: /es/api/v1/using-the-api/
[5]: https://brew.sh
[6]: https://docs.datadoghq.com/es/developers/community/libraries/
-[7]: /es/getting_started/application/
+[7]: /es/getting_started/application/
\ No newline at end of file
diff --git a/content/es/bits_ai/mcp_server/setup/_index.md b/content/es/bits_ai/mcp_server/setup/_index.md
new file mode 100644
index 0000000000000..bf04f721f43b1
--- /dev/null
+++ b/content/es/bits_ai/mcp_server/setup/_index.md
@@ -0,0 +1,433 @@
+---
+description: Aprende a instalar y configurar el servidor MCP de Datadog para conectar
+ tus agentes de IA a las herramientas y datos de capacidad de observación de Datadog.
+further_reading:
+- link: https://www.datadoghq.com/blog/datadog-remote-mcp-server/
+ tag: Blog
+ text: Conecta tus agentes de IA a las herramientas y el contexto de Datadog mediante
+ el servidor MCP de Datadog.
+- link: bits_ai/mcp_server
+ tag: Documentación
+ text: Servidor MCP de Datadog
+- link: developers/ide_plugins/vscode/?tab=cursor
+ tag: Documentación
+ text: Extensión para Cursor de Datadog
+- link: https://www.datadoghq.com/blog/datadog-cursor-extension/
+ tag: Blog
+ text: Depuración de problemas de producción en directo con la extensión Cursor de
+ Datadog
+- link: https://www.datadoghq.com/blog/openai-datadog-ai-devops-agent/
+ tag: Blog
+ text: 'Datadog + OpenAI: integración de Codex CLI para DevOps asistidos por IA'
+private: true
+title: Configurar el servidor MCP de Datadog
+---
+
+{{< callout url="https://www.datadoghq.com/product-preview/datadog-mcp-server/" >}}
+El servidor MCP de Datadog está en vista previa. El uso del servidor MCP de Datadog durante la vista previa es gratuito. Si estás interesado en esta función y necesitas acceso, completa este formulario. Más información sobre el servidor MCP en el blog de Datadog .
+{{< /callout >}}
+
+## Descargo de responsabilidad
+
+- El servidor MCP de Datadog no es compatible con el uso en producción durante la vista previa.
+- Solo las organizaciones de Datadog que hayan sido específicamente autorizadas pueden utilizar el Servidor MCP de Datadog. No está disponible para el público en general.
+- El servidor MCP de Datadog no está disponible para organizaciones que requieran el cumplimiento de HIPAA.
+- Datadog recopila determinada información sobre el uso que haces del Servidor MCP remoto de Datadog, incluida la forma en que interactúas con él, si se han producido errores al utilizarlo, cuál ha sido la causa de dichos errores e identificadores de usuario, de conformidad con la Política de privacidad de Datadog y el EULA de Datadog. Estos datos se utilizan para ayudar a mejorar el rendimiento y las funciones del servidor, incluidas las transiciones hacia y desde el servidor y la page (página) de inicio de sesión de Datadog aplicable para acceder a los Servicios y el contexto (por ejemplo, los avisos al usuario) que conducen al uso de las herramientas de MCP. Los datos se almacenan durante 120 días.
+
+## Información general
+
+El servidor MCP gestionado por Datadog actúa como puente entre tus datos de capacidad de observación en Datadog y los agentes de IA compatibles con el [Protocolo de Contexto de Modelo (MCP)][1]. Al proporcionar acceso estructurado a los contextos, funciones y herramientas pertinentes de Datadog, el servidor MCP te permite consultar y recuperar información de capacidad de observación directamente desde clientes de IA como Cursor, OpenAI Codex, Claude Code o tu propio agente de IA.
+
+Esta page (página) proporciona instrucciones para conectar tu agente de IA al servidor MCP de Datadog, enumera las herramientas disponibles e incluye ejemplos de avisos.
+
+Esta demostración muestra el Servidor MCP de Datadog mientras se utiliza en Cursor y Claude Code (desactiva el silencio para el audio):
+
+{{< img src="bits_ai/mcp_server/mcp_cursor_demo_3.mp4" alt="Demostración del servidor MCP de Datadog en Cursor y Claude Code" video="true" >}}
+
+## Compatibilidad con los clientes
+
+Los siguientes clientes de la IA son compatibles con el servidor MCP de Datadog.
+
+El servidor MCP de Datadog se encuentra en fase de desarrollo, por lo que es posible que aparezcan otros clientes compatibles.
+
+| Cliente | Desarrollador | Notas |
+|--------|------|------|
+| [Cursor][8] | Anysphere | Se recomienda la [extensión Cursor y VS Code](#connect-in-cursor-and-vs-code) de Datadog. |
+| [Claude Code][5] | Anthropic | |
+| [Claude Desktop][6] | Anthropic | Compatibilidad limitada para la autenticación remota. Utiliza la [autenticación binaria local](?tab=localbinaryauthentication#connect-in-supported-ai-clients) según sea necesario. |
+| [Codex CLI][7] | OpenAI | |
+| [VS Code][11] | Microsoft | Se recomienda la [extensión Cursor y VS](#connect-in-cursor-and-vs-code) de Datadog. |
+| [Goose][9] | Bloque | |
+| [Q CLI][10] | Amazon | Para la autenticación remota, añade `"oauthScopes": []` a la [configuración] del servidor(?tab=remoteauthentication#example-configurations). |
+| [Cline][18] | Cline Bot | Compatibilidad limitada para la autenticación remota. Utiliza la [autenticación binaria local](?tab=localbinaryauthentication#connect-in-supported-ai-clients) según sea necesario. |
+
+## Requisitos
+
+Los usuarios de Datadog deben tener el [permiso][19] `Incidents Read` para utilizar el Servidor MCP.
+
+## Conectar en Cursor y VS Code
+
+La [extensión de Cursor y VS Code][12] de Datadog incluye acceso integrado al servidor MCP gestionado de Datadog. Las ventajas incluyen:
+
+* No es necesaria ninguna otra configuración del el servidor MCP después de instalar la extensión y conectarse a Datadog.
+* Transiciones con un solo clic entre varias organizaciones de Datadog.
+* [Solo Cursor] Mejores correcciones de **Fix in Chat** en Code Insights (problemas de Error Tracking, vulnerabilidades de código y vulnerabilidades de bibliotecas), informadas por contexto desde el Servidor MCP.
+
+Para instalar la extensión:
+
+1. Si previamente instalaste manualmente el Servidor MCP de Datadog, elimínalo de la configuración del IDE para evitar conflictos. Para encontrar la configuración del Servidor MCP:
+ - Cursor: Ve a **Cursor Settings** (Configuración de Cursor) (`Shift` + `Cmd/Ctrl` + `J`) y selecciona la pestaña **MCP**.
+ - VS Code: Abre la paleta de comandos (`Shift` + `Cmd/Ctrl` + `P`) y ejecuta `MCP: Open User Configuration`.
+2. Instala la extensión de Datadog siguiendo [estas instrucciones][14]. Si ya tienes instalada la extensión, asegúrate de que sea la última versión, ya que periódicamente se publican nuevas funciones.
+3. Inicia sesión en tu cuenta de Datadog. Si tienes varias cuentas, utiliza la cuenta incluida en tu vista previa del producto.
+ {{< img src="bits_ai/mcp_server/ide_sign_in.png" alt="Inicia sesión en Datadog desde la extensión del IDE" style="width:70%;" >}}
+4. **Reinicia el IDE.
+5. Confirma que el servidor MCP de Datadog esté disponible y que las [herramientas](#available-tools) aparezcan en tu IDE:
+ - Cursor: Ve a **Cursor Settings** (Configuración de Cursor) (`Shift` + `Cmd/Ctrl` + `J`) y selecciona la pestaña **MCP**.
+ - VS Code: Abre el panel del chat, selecciona el modo agente y haz clic en el botón **Configure Tools** (Configurar herramientas).
+ {{< img src="bits_ai/mcp_server/vscode_configure_tools_button.png" alt="Botón Configurar herramientas en VS Code" style="width:70%;" >}}
+
+## Conectar en clientes de IA compatibles
+
+Las siguientes instrucciones son para todos los [clientes compatibles con MCP](#client-compatibility). Para Cursor o VS Code, utiliza la [extensión de Datadog ](#connect-in-cursor-and-vs-code) para un acceso integrado al Servidor MCP de Datadog.
+
+{{< tabs >}}
+{{% tab "Autenticación remota" %}}
+Este método utiliza el mecanismo de transmisión [HTTP transmisible][1] de la especificación de MCP para conectarse al Servidor MCP.
+
+Dirige tu agente de IA al endpoint del servidor MCP para tu [sitio regional de Datadog ][2]. Por ejemplo, si utilizas `app.datadoghq.com` para acceder a Datadog, utiliza el endpoint del sitio US1.
+
+Si tu organización utiliza un [subdominio personalizado][3], utiliza el endpoint que corresponda a tu sitio regional de Datadog. Por ejemplo, si tu subdominio personalizado es `myorg.datadoghq.com`, utiliza el endpoint US1.
+
+| Sitio web de Datadog | Endpoint del servidor MCP |
+|--------|------|
+| **US1** (`app.datadoghq.com`) | `https://mcp.datadoghq.com/api/unstable/mcp-server/mcp` |
+| **US3** (`us3.datadoghq.com`) | `https://mcp.us3.datadoghq.com/api/unstable/mcp-server/mcp` |
+| **US5** (`us5.datadoghq.com`) | `https://mcp.us5.datadoghq.com/api/unstable/mcp-server/mcp` |
+| **UE1** (`app.datadoghq.eu`) | `https://mcp.datadoghq.eu/api/unstable/mcp-server/mcp` |
+| **AP1** (`ap1.datadoghq.com`) | `https://mcp.ap1.datadoghq.com/api/unstable/mcp-server/mcp` |
+| **AP2** (`ap2.datadoghq.com`) | `https://mcp.ap2.datadoghq.com/api/unstable/mcp-server/mcp` |
+
+### Ejemplos de configuraciones
+
+Estos ejemplos corresponden al sitio US1:
+
+* **Línea de comandos: Para Claude Code, ejecuta:
+ ```bash
+ claude mcp add --transport http datadog-mcp https://mcp.datadoghq.com/api/unstable/mcp-server/mcp
+ ```
+
+* **Archivo de configuración**: Edita el archivo de configuración de tu agente de IA:
+ * Codex CLI: `~/.codex/config.toml`
+ * Gemini CLI: `~/.gemini/settings.json`
+
+ ```json
+ {
+ "mcpServers": {
+ "datadog": {
+ "type": "http",
+ "url": "https://mcp.datadoghq.com/api/unstable/mcp-server/mcp"
+ }
+ }
+ }
+ ```
+ * Amazon Q CLI: `~/.aws/amazonq/default.json`
+
+ ```json
+ {
+ "mcpServers": {
+ "datadog": {
+ "type": "http",
+ "url": "https://mcp.datadoghq.com/api/unstable/mcp-server/mcp",
+ "oauthScopes": []
+ }
+ }
+ }
+ ```
+
+[1]: https://modelcontextprotocol.io/specification/2025-03-26/basic/transports#streamable-http
+[2]: /es/getting_started/site/
+[3]: /es/account_management/multi_organization/#custom-sub-domains
+{{% /tab %}}
+
+{{% tab "Autenticación binaria local" %}}
+
+Este método utiliza el mecanismo de transmisión [stdio][1] de la especificación de MCP para conectarse al servidor MCP.
+
+Utiliza esta opción si no dispones de autenticación remota directa. Tras la instalación, normalmente no es necesario actualizar el binario local para beneficiarse con las actualizaciones del servidor MCP, ya que las herramientas son remotas.
+
+1. Instala el binario del Servidor MCP de Datadog:
+ * macOS y Linux:
+ ```bash
+ curl -sSL https://coterm.datadoghq.com/mcp-cli/install.sh | bash
+ ```
+
+ Esto instala el binario del Servidor MCP en `~/.local/bin/datadog_mcp_cli` y entonces puedes utilizarlo como cualquier otro servidor MCP stdio.
+
+ * Windows: Descarga la [versión Windows][2].
+
+2. Ejecuta `datadog_mcp_cli login` manualmente para recorrer el flujo de inicio de sesión de OAuth.
+
+ El servidor MCP inicia automáticamente el flujo de OAuth si un cliente lo necesita, pero hacerlo manualmente te permite elegir un [sitio Datadog][3] y evitar que el cliente de IA se desconecte.
+
+3. Configura tu cliente de IA para utilizar el Servidor MCP de Datadog. Sigue las instrucciones de configuración de tu cliente, ya que la configuración del Servidor MCP varía entre clientes de IA de terceros.
+
+ Por ejemplo, para Claude Code, añade esto a `~/.claude.json`, asegúrate de sustituir `` en la ruta del comando:
+
+ ```json
+ {
+ "mcpServers": {
+ "datadog": {
+ "type": "stdio",
+ "command": "/Users//.local/bin/datadog_mcp_cli",
+ "args": [],
+ "env": {}
+ }
+ }
+ }
+ ```
+
+ Alternativamente, también puedes configurar Claude Code ejecutando lo siguiente:
+ ```bash
+ claude mcp add datadog --scope user -- ~/.local/bin/datadog_mcp_cli
+ ```
+
+[1]: https://modelcontextprotocol.io/specification/2025-03-26/basic/transports#stdio
+[2]: https://coterm.datadoghq.com/mcp-cli/datadog_mcp_cli.exe
+[3]: /es/getting_started/site/
+{{% /tab %}}
+{{< /tabs >}}
+
+### Autenticación
+
+El servidor MCP utiliza OAuth 2.0 para la [autenticación][2]. Si no puedes pasar por el flujo de OAuth (por ejemplo, en un servidor), puedes proporcionar una [clave de API y clave de aplicación][3] de Datadog como `DD_API_KEY` y `DD_APPLICATION_KEY` encabezados HTTP. Por ejemplo:
+
+{{< code-block lang="json" >}}
+{
+ "mcpServers": {
+ "datadog": {
+ "type": "http",
+ "url": "https://mcp.datadoghq.com/api/unstable/mcp-server/mcp",
+ "headers": {
+ "DD_API_KEY": "",
+ "DD_APPLICATION_KEY": ""
+ }
+ }
+ }
+}
+{{< /code-block >}}
+
+### Test de acceso al servidor MCP
+
+1. Instala el [inspector de MCP][4], una herramienta de desarrollo para testing y depuración de servidores MCP.
+
+ ```bash
+ npx @modelcontextprotocol/inspector
+ ```
+2. En la interfaz web del inspector, en **Transport Type** (Tipo de transmisión), selecciona **Streamable HTTP** (HTTP transmisible).
+3. En **URL**, introduce la [URL del servidor MCP](?tab=remoteauthentication#connect-in-supported-ai-clients) de tu sitio regional de Datadog.
+4. Haz clic en **Connect** (Conectar), luego ve a **Tools** (Herramientas) > **List Tools** (Enumerar herramientas).
+5. Check si aparecen las [herramientas disponibles](#available-tools).
+
+## Conjuntos de herramientas
+
+El servidor MCP de Datadog admite _conjuntos de herramientas_, que te permiten utilizar solo las herramientas que necesitas, ahorrando un valioso espacio en la ventana contextual. Estos conjuntos de herramientas están disponibles:
+
+- `core`: El conjunto de herramientas predeterminado
+- `synthetics`: Herramientas para interactuar con [tests de Synthetic Monitoring][21] de Datadog
+
+Para utilizar un conjunto de herramientas, incluye el parámetro de consulta `toolsets` en la URL del endpoint al conectarte al servidor MCP ([autenticación remota](?tab=remote-authentication#connect-in-supported-ai-clients) únicamente). Por ejemplo
+
+- `https://mcp.datadoghq.com/api/unstable/mcp-server/mcp` recupera solo las herramientas básicas (es el valor predeterminado si no se especifica `toolsets` ).
+- `https://mcp.datadoghq.com/api/unstable/mcp-server/mcp?toolsets=synthetics` recupera solo las herramientas relacionadas con tests de Synthetic Monitoring.
+- `https://mcp.datadoghq.com/api/unstable/mcp-server/mcp?toolsets=core,synthetics` recupera las herramientas de tests básicas y de Synthetic Monitoring.
+
+## Herramientas disponibles
+
+En esta sección se enumeran las herramientas disponibles en el servidor MCP de Datadog y se ofrecen avisos de cómo utilizarlas.
+
+Las herramientas del servidor MCP de Datadog se encuentran en fase de desarrollo y están sujetas a cambios. Utiliza
este formulario de comentarios para compartir cualquier comentario, casos de uso o problemas encontrados con sus avisos y consultas.
+
+### `search_datadog_docs`
+*Toolset: **core***\
+Devuelve respuestas generadas por IA a preguntas de Datadog, extraídas de la [documentación de Datadog][15].
+- ¿Cómo se activa la generación de perfiles de Datadog en Python?
+- ¿Cuál es la mejor manera de correlacionar logs y traces (trazas)?
+- ¿Cómo funciona la instrumentación automática de RUM?
+
+### `search_datadog_events`
+*Toolset: **core***\
+Busca eventos como alertas en monitor (noun), notificaciones de despliegue, cambios en la infraestructura, hallazgos de seguridad y cambios en el estado de los servicios.
+
+- Muestra todos los eventos de despliegue de las últimas 24 horas.
+- Busca eventos relacionados con nuestro entorno de producción con estado de error.
+- Obtén los eventos etiquetados con `service:api` de la última hora.
+
+**Nota**: Consulta la [API de Event Management][16] para obtener más detalles.
+
+### `get_datadog_incident`
+*Toolset: **core***\
+Recupera información detallada sobre un incident (incidente).
+
+- Obtén información detallada para el incident (incidente) ABC123.
+- ¿Cuál es la situación del incident (incidente) ABC123?
+- Recupera la información completa sobre el incident (incidente) Redis de ayer.
+
+**Nota**: La herramienta está operativa, pero no incluye datos cronológicos del incident (incidente).
+
+### `get_datadog_metric`
+*Toolset: **core***\
+Consulta y analiza datos de métricas históricas o en tiempo real, que admiten consultas y agregaciones personalizadas.
+
+- Muéstrame las métricas de utilización de CPU de todos los hosts en las últimas 4 horas.
+- Obtén métricas de latencia de Redis del entorno de producción.
+- Despliega las tendencias de uso de memoria de nuestros servidores de bases de datos.
+
+### `search_datadog_monitors`
+*Toolset: **core***\
+Recupera información sobre los monitores de Datadog, incluidos sus estados, umbrales y condiciones de alerta.
+
+- Enumera todos los monitores que están alertando actualmente.
+- Muéstrame monitores relacionados con nuestro servicio de pagos.
+- Busca monitores etiquetados con `team:infrastructure`.
+
+### `get_datadog_trace`
+*Toolset: **core***\
+Obtiene una trace (traza) completa de Datadog APM con un identificador de trace (traza).
+
+- Obtén la trace (traza) completa del identificador 7d5d747be160e280504c099d984bcfe0.
+- Muéstrame todos los spans (tramos) de la trace (traza) abc123 con información de tiempo.
+- Recupera detalles de trace (traza) que incluyen consultas a la base de datos del identificador xyz789.
+
+**Nota**: Las traces (trazas) grandes con miles de spans (tramos) pueden quedar truncadas (e indicarse como tales) sin una forma de recuperar todos los spans (tramos).
+
+### `search_datadog_dashboards`
+*Toolset: **core***\
+Enumera los dashboards disponibles y los detalles claves de Datadog.
+
+- Muéstrame todos los dashboards disponibles en nuestra cuenta.
+- Enumera los dashboards relacionados con la monitorización de la infraestructura.
+- Encuentra dashboards compartidos para el equipo de ingeniería.
+
+**Nota**: Esta herramienta enumera los dashboards pertinentes, pero ofrece detalles limitados sobre su contenido.
+
+### `search_datadog_hosts`
+*Toolset: **core***\
+Enumera y proporciona información sobre los hosts monitorizados, que admite filtrado y búsqueda.
+
+- Muéstrame todos los hosts de nuestro entorno de producción.
+- Enumera los hosts incorrectos que no han informado en la última hora.
+- Obtén todos los hosts etiquetados con `role:database`.
+
+### `search_datadog_incidents`
+*Toolset: **core***\
+Recupera una lista de incidentes de Datadog, incluido su estado, gravedad y metadatos.
+
+- Muéstrame todos los incidentes activos por gravedad.
+- Enumera los incidentes resueltos la semana pasada.
+- Encuentra incidentes que afecten a los clientes.
+
+### `search_datadog_metrics`
+*Toolset: **core***\
+Enumera las métricas disponibles, con opciones de filtrado y metadatos.
+
+- Muéstrame todas las métricas disponibles de Redis.
+- Enumera las métricas relacionadas con la CPU de nuestra infraestructura.
+- Busca métricas etiquetadas con `service:api`.
+
+### `search_datadog_services`
+*Toolset: **core***\
+Enumera los servicios del Software Catalog de Datadog con detalles e información del equipo.
+
+- Muéstrame todos los servicios de nuestra arquitectura de microservicios.
+- Enumera los servicios propiedad del equipo de la plataforma.
+- Busca servicios relacionados con el procesamiento de pagos.
+
+### `search_datadog_spans`
+*Toolset: **core***\
+Recupera spans (tramos) de las traces (trazas) de APM con filtros como servicio, hora, recurso, etc.
+
+- Muéstrame spans (tramos) con errores del servicio de pagos.
+- Busca consultas lentas a la base de datos en los últimos 30 minutos.
+- Obtén los spans (tramos) de las solicitudes de API fallidas a nuestro servicio de pagos.
+
+### `search_datadog_logs`
+*Toolset: **core***\
+Busca en logs con filtros (hora, consulta, servicio, host, nivel de almacenamiento, etc.) y devuelve los detalles de logs. Renombrado de `get_logs`.
+
+- Muéstrame logs de error del servicio NGINX en la última hora.
+- Busca logs que contengan 'tiempo de espera de la connection (conexión)' de nuestro servicio de API.
+- Obtén los 500 logs de códigos de estado de la producción.
+
+### `search_datadog_rum_events`
+*Toolset: **core***\
+Busca eventos de RUM de Datadog mediante la utilización de una sintaxis de consulta avanzada.
+
+- Muestra errores y advertencias de la consola de JavaScript en RUM.
+- Busca las páginas que se cargan lentamente (más de 3 segundos).
+- Muestra las interacciones recientes de los usuarios en las páginas de detalles de los productos.
+
+### `get_synthetics_tests`
+*Toolset **sintéticos***\
+Busca tests de Synthetic Monitoring de Datadog.
+
+- Ayúdame a comprender por qué el test de Synthetic Monitoring en el endpoint `/v1/my/tested/endpoint` está fallando.
+- Hay una interrupción; busca todos los tests de Synthetic Monitoring que fallan en el dominio `api.mycompany.com`.
+- ¿Siguen funcionando los tests de Synthetic Monitoring en mi sitio web `api.mycompany.com` en la última hora?
+
+### `edit_synthetics_tests`
+*Tooset: **sintética***\
+Edita tests de la API de HTTP de Synthetic Monitoring de Datadog.
+
+- Mejora las afirmaciones del test de Synthetic Monitoring definido en mi endpoint `/v1/my/tested/endpoint`.
+- Pon en pausa el test `aaa-bbb-ccc` y configura las ubicaciones solo en lugares europeos.
+- Añade la etiqueta de mi equipo al test `aaa-bbb-ccc` .
+
+### `synthetics_test_wizard`
+*Toolset: **synthetics***\
+Previsualiza y crea tests de la API de HTTP de Synthetic Monitoring de Datadog.
+
+- Crea tests de Synthetic Monitoring en cada endpoint definido en este archivo de código.
+- Crea un test de Synthetic Monitoring en `/path/to/endpoint`.
+- Crea un test de Synthetic Monitoring que compruebe si mi dominio `mycompany.com` permanece activo.
+
+## Eficiencia del contexto
+
+El servidor MCP de Datadog se optimiza para proporcionar respuestas de forma que los agentes de IA obtengan el contexto pertinente sin sobrecargarse con información innecesaria. Por ejemplo:
+
+- Las respuestas se truncan en función de la longitud estimada de las respuestas que proporciona cada herramienta. Las herramientas responden a los agentes de IA con instrucciones sobre cómo solicitar más información si la respuesta estaba truncada.
+- La mayoría de las herramientas tienen un parámetro `max_tokens` que permite a los agentes de IA solicitar menos o más información.
+
+## Rastrea las llamadas a herramientas en Audit Trail
+
+Puedes ver información sobre las llamadas realizadas por las herramientas del servidor MCP en [Audit Trail][17] de Datadog. Busca o filtra por el nombre del evento `MCP Server`.
+
+## Comentarios
+
+El servidor MCP de Datadog se encuentra en fase de desarrollo. Durante la vista previa, utiliza [este formulario de comentarios][20] para compartir comentarios, casos de uso o problemas encontrados con sus avisos y consultas.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://modelcontextprotocol.io/
+[2]: https://modelcontextprotocol.io/specification/draft/basic/authorization
+[3]: /es/account_management/api-app-keys/
+[4]: https://github.com/modelcontextprotocol/inspector
+[5]: https://www.anthropic.com/claude-code
+[6]: https://claude.ai/download
+[7]: https://help.openai.com/en/articles/11096431-openai-codex-cli-getting-started
+[8]: https://www.cursor.com/
+[9]: https://github.com/block/goose
+[10]: https://github.com/aws/amazon-q-developer-cli
+[11]: https://code.visualstudio.com/
+[12]: /es/developers/ide_plugins/vscode/
+[13]: https://nodejs.org/en/about/previous-releases
+[14]: /es/developers/ide_plugins/vscode/?tab=cursor#installation
+[15]: /es/
+[16]: /es/api/latest/events/
+[17]: /es/account_management/audit_trail/
+[18]: https://cline.bot/
+[19]: /es/account_management/rbac/permissions/#case-and-incident-management
+[20]: https://docs.google.com/forms/d/e/1FAIpQLSeorvIrML3F4v74Zm5IIaQ_DyCMGqquIp7hXcycnCafx4htcg/viewform
+[21]: /es/synthetics/
\ No newline at end of file
diff --git a/content/es/cloud_cost_management/reports/_index.md b/content/es/cloud_cost_management/reports/_index.md
new file mode 100644
index 0000000000000..935e5ad260ca3
--- /dev/null
+++ b/content/es/cloud_cost_management/reports/_index.md
@@ -0,0 +1,110 @@
+---
+description: Realiza un seguimiento de los gastos de tu organización con los informes
+ de Cloud Cost Management.
+further_reading:
+- link: /cloud_cost_management/reports/scheduled_reports
+ tag: Documentación
+ text: Informes de costes programados
+- link: /cloud_cost_management/
+ tag: Documentación
+ text: Más información sobre Cloud Cost Management
+private: true
+title: Informes
+---
+
+## Información general
+
+Los informes de Cloud Cost Monitoring (CCM) de Datadog agilizan las operaciones financieras y permiten a los equipos de finanzas gestionar eficazmente los costes de la nube. Esta función proporciona una plataforma centralizada para el análisis detallado de los costes, que te permite explorar, analizar y compartir datos de costes o presupuestos de nube.
+
+Con los informes, puedes:
+
+- **Centralizar análisis de costes de nube**: Visualiza y gestiona los costes de [AWS][1], [Azure][2], [Google Cloud][3], [Oracle][12] y [proveedores de SaaS][4] en un solo lugar.
+- **Filtrar y agrupar**: Filtra por proveedor, etiquetas (tags), regiones y agrupa por servicio, proveedor o etiquetas personalizadas.
+- **Visualizar gráficos**: Utiliza gráficos de barras, resúmenes y vistas diarias para detectar tendencias y anomalías.
+- **Utilizar controles avanzados**: Cambia entre tipos de costes, alterna la asignación de contenedores y céntrate en los gastos de uso o en todos los gastos.
+- **Crear informes de presupuestos**: Elabora informes de presupuestos, además de informes de costes, para realizar un seguimiento de los gastos con respecto a los objetivos de presupuesto y anticipa costes futuros.
+- **Colaborar y compartir**: Guarda, marca, exporta y comparta informes con tu equipo.
+
+## Crear un informe de CCM
+
+1. Ve a [**Cloud Cost > Analyze > Reports** (Cloud Cost > Análisis > Informes)][5] en Datadog.
+1. Haz clic en **New Report** (Nuevo informe) para empezar desde cero, o selecciona una plantilla de la galería para acelerar tu flujo de trabajo.
+
+ {{< img src="cloud_cost/cost_reports/create-new-report.png" alt="Crear un informe nuevo o a partir de una plantilla." style="width:100%;" >}}
+
+ **Plantillas disponibles:**
+ - **Gasto de AWS por nombre de servicio**: Comprende tus costes de EC2, S3 y Lambda.
+ - **Gasto de Azure por nombre de servicio**: Desglosa los costes por servicios Azure como máquinas virtuales y monitor Azure.
+ - **Gasto de GCP por nombre de servicio**: Desglosa los costes por servicios GCP como Compute Engine, BigQuery y Kubernetes Engine.
+ - **Gasto por proveedor**: Compara costes en AWS, Azure, Google Cloud, etc.
+
+## Personalización del informe
+
+{{< img src="cloud_cost/cost_reports/customization-options-aws-1.png" alt="Personaliza tu informe seleccionando proveedores de nube, filtrando, agrupando, cambiando la visualización y utilizando opciones avanzadas." style="width:100%;" >}}
+
+### Seleccionar el tipo de informe
+
+Selecciona el tipo de informe que quieres crear:
+
+- **Coste**: Comprende en qué se gasta tu dinero en servicios, regiones, equipos, etc.
+- **Presupuesto**: Realiza un seguimiento de los gastos con respecto a los objetivos de presupuesto predefinidos y anticipa costes futuros.
+
+### Aplicar filtros
+
+Utiliza filtros para incluir solo los costes específicos que quieres asignar, como por proveedor, producto, etiqueta, región o tipo de coste, de modo que tu regla apunte exactamente al subconjunto adecuado de tus gastos de nube.
+
+| Filtrar por | Caso práctico |
+|--------|----------|
+| Proveedor de nube (como AWS, Azure, GCP, Snowflake) | Aplica tu regla de asignación solo a los costes de un proveedor de nube específico, como por ejemplo a las tarifas de asistencia de AWS, pero no a los costes de Azure o GCP. |
+| Producto o servicio (como EC2, S3, RDS) | Asigna costes relacionados con un producto o servicio específico. Por ejemplo, divide solo los costes de EC2 entre equipos, en lugar de todos los costes de AWS. |
+| Etiquetas (`env:prod`, `team:analytics`) | Incluye o excluye costes en función de las etiquetas de los recursos. Por ejemplo, asigna costes solo a los recursos de producción (`env:prod`) o solo a los recursos etiquetados para el equipo de análisis. |
+| Región | Asigna costes solo a los recursos de una región geográfica específica. Por ejemplo, divide los costes de los recursos de `us-east-1` separados de los de `eu-west-1`. |
+| Tipo de coste (uso, soporte, no etiquetado) | Asigna solo determinados tipos de costes, como cargos por uso, tarifas de soporte o costes no etiquetados. Por ejemplo, asigna solo costes no etiquetados para incentivar a los equipos a etiquetar sus recursos. |
+| Criterios personalizados | Cuando tengas un requisito empresarial único que combine varios filtros, crea un criterio personalizado. Por ejemplo, quieres asignar solo los costes de EC2 en una región específica `us-west-2`, etiquetados como `env:prod`. |
+
+### Datos del grupo
+- Agrupa por nombre de proveedor, nombre de servicio o etiquetas de recursos personalizadas para obtener información más detallada.
+
+### Cambia la forma de ver tus datos
+- Selecciona una **opción de visualización**:
+ - **Gráfico de barras**: Compara los costes de varias categorías para identificar los principales factores de coste.
+ - **Gráfico circular**: Muestra la cuota porcentual de cada segmento, ideal para comprender la proporción relativa de costes entre un número reducido de categorías.
+ - **Diagrama de árbol**: Muestra datos jerárquicos y el tamaño relativo de muchas categorías a la vez, para que puedas ver la estructura general y los mayores colaboradores en una sola vista.
+- Cambia la **vista de tabla**:
+ - **Resumen**: Una imagen consolidada y global de tus costes.
+ - **Día a día**, **semana a semana** o **mes a mes**: Analiza cómo cambian tus costes día a día, semana a semana o mes a mes, e identifica tendencias o fluctuaciones inusuales.
+- Actualiza el **marco temporal** para monitorizar tendencias sobre tus gastos en la nube.
+
+### Opciones avanzadas (opcionales)
+
+- **Mostrar solo gastos de uso**: Elige incluir todos los gastos (tarifas, impuestos, reembolsos) o centrarte solo en los gastos de uso.
+- **Tipo de coste**: Elige el tipo de coste que mejor se adapte a tus necesidades de elaboración de informes, análisis o gestión financiera. Revisa las definiciones de cada tipo de coste según tu proveedor: [AWS][7], [Azure][8], [Google Cloud][9], [Personalizado][10].
+
+ **Nota**: La disponibilidad de estas opciones varía en función del/de los proveedor(es) seleccionado(s).
+
+## Guardar y compartir tu informe
+
+Una vez creado y personalizado el informe, puedes guardarlo y compartirlo desde la página principal de informes y desde las vistas individuales de informes.
+
+- **Guarda tu informe** para que esté disponible para uso personal o del equipo.
+- **Comparte tu informe** copiando la URL o exportándolo a CSV o PNG.
+- **Programa informes** para que se envíen automáticamente a tu equipo. [Más información sobre la programación de informes][11].
+- **Exporta vistas de informes a dashboards** para realizar un seguimiento de los costes junto con otros widgets.
+- **Busca informes guardados** para encontrar lo que necesitas (solo disponible en la página de informes principales.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/cloud_cost_management/aws/
+[2]: /es/cloud_cost_management/azure/?tab=billingaccounts
+[3]: /es/cloud_cost_management/google_cloud/
+[4]: /es/cloud_cost_management/saas_costs/
+[5]: https://app.datadoghq.com/cost/analyze/reports
+[6]: /es/cloud_cost_management/container_cost_allocation/
+[7]: /es/cloud_cost_management/setup/aws/#cost-types
+[8]: /es/cloud_cost_management/setup/azure/#cost-types
+[9]: /es/cloud_cost_management/setup/google_cloud/#cost-types
+[10]: /es/cloud_cost_management/setup/custom/#cost-metric-types
+[11]: /es/cloud_cost_management/reports/scheduled_reports
+[12]: /es/cloud_cost_management/oracle/
\ No newline at end of file
diff --git a/content/es/cloudprem/manage/_index.md b/content/es/cloudprem/manage/_index.md
new file mode 100644
index 0000000000000..098788465e3fc
--- /dev/null
+++ b/content/es/cloudprem/manage/_index.md
@@ -0,0 +1,82 @@
+---
+description: Aprende a monitorizar, mantener y operar tu despliegue de CloudPrem.
+title: Gestiona y monitoriza CloudPrem
+---
+
+{{< callout btn_hidden="true" >}}
+ CloudPrem de Datadog está en vista previa.
+{{< /callout >}}
+
+## Política de retención
+
+La política de retención especifica cuánto tiempo se almacenan los datos antes de ser eliminados. En forma predeterminada, el periodo de retención está configurado en 30 días. Los datos se eliminan automáticamente en forma diaria por el conserje, que borra las divisiones (archivos de índice) más antiguas que el umbral de retención definido.
+
+Para cambiar el periodo de retención, actualiza el parámetro `cloudprem.index.retention` en el archivo de valores del gráfico de Helm, luego actualiza la versión de Helm y opcionalmente reinicia el pod de conserje para aplicar los cambios de inmediato:
+
+1. Actualiza el periodo de retención en el archivo de valores del gráfico de Helm con una cadena legible por humanos (por ejemplo, `15 days`, `6 months` o `3 years`):
+{{< code-block lang="yaml" filename="datadog-values.yaml">}}
+cloudprem:
+ índice:
+ retención: 6 meses
+{{< /code-block >}}
+
+2. Actualiza la versión del gráfico de Helm:
+
+ ```shell
+ helm upgrade datadog/cloudprem \
+ -n \
+ -f datadog-values.yaml
+ ```
+
+3. Reinicia el pod de conserje (opcional, pero recomendado para un efecto inmediato):
+
+ ```shell
+ kubectl delete pod -l app.kubernetes.io/component=janitor -n
+ ```
+
+## Dashboards
+
+CloudPrem proporciona un dashboard predefinido que monitoriza las métricas clave de CloudPrem.
+
+### Configuración
+
+[DogStatsD][1] exporta estas métricas. Puedes:
+
+- Ejecutar DogStatsD como servicio independiente o
+- Ejecutar el Datadog Agent (que incluye DogStatsD en forma predeterminada)
+
+Configura cualquiera de las opciones con la clave de API de tu organización para exportar estas métricas. En cuanto tu clúster de CloudPrem se conecte a Datadog, se creará automáticamente el dashboard predefinido al que podrás acceder desde tu [Lista de dashboards][2].
+
+### Datos recopilados
+
+| Métrica | Descripción |
+|---|---|
+| **indexed_events.count**
(Contador) | Número de eventos indexados |
+| **indexed_events_bytes.count**
(Contador) | Número de bytes indexados |
+| **ingest_requests.count**
(Contador) | Número de solicitudes de ingesta |
+| **object_storage_delete_requests.count**
(Contador) | Número de solicitudes de eliminación en el almacenamiento de objetos |
+| **object_storage_get_requests.count**
(Contador) | Número de solicitudes de obtención en el almacenamiento de objetos |
+| **object_storage_get_requests_bytes.count**
(Contador) | Total de bytes leídos del almacenamiento de objetos mediante solicitudes GET |
+| **object_storage_put_requests.count**
(Contador) | Número de solicitudes PUT en el almacenamiento de objetos |
+| **object_storage_put_requests_bytes.count**
(Contador) | Total de bytes escritos en el almacenamiento de objetos mediante solicitudes PUT |
+| **pending_merge_ops.gauge**
(Gauge) | Número de operaciones de fusión pendientes |
+| **search_requests.count**
(Contador) | Número de solicitudes de búsqueda |
+| **search_requests.duration_seconds**
(Histograma) | Latencia de las solicitudes de búsqueda |
+| **metastore_requests.count**
(Contador) | Número de solicitudes de metastore |
+| **metastore_requests.duration_seconds**
(Histograma) | Latencia de las solicitudes de metastore |
+| **cpu.usage.gauge**
(Gauge) | Porcentaje de uso de la CPU |
+| **uptime.gauge**
(Gauge) | Tiempo de actividad del servicio en segundos |
+| **memory.allocated_bytes.gauge**
(Gauge) | Memoria asignada en bytes |
+| **disk.bytes_read.counter**
(Contador) | Total de bytes leídos desde el disco |
+| **disk.bytes_written.counter**
(Contador) | Total de bytes escritos en el disco |
+| **disk.available_space.gauge**
(Gauge) | Espacio disponible en disco en bytes |
+| **disk.total_space.gauge**
(Gauge) | Capacidad total del disco en bytes |
+| **network.bytes_recv.counter**
(Contador) | Total de bytes recibidos por la red |
+| **network.bytes_sent.counter**
(Contador) | Total de bytes enviados por la red |
+
+
+
+[1]: https://docs.datadoghq.com/es/developers/dogstatsd/?tab=hostagent
+[2]: https://app.datadoghq.com/dashboard/lists?q=cloudprem&p=1
\ No newline at end of file
diff --git a/content/es/continuous_integration/troubleshooting.md b/content/es/continuous_integration/troubleshooting.md
index c8edf000f9649..92a0fc0a9b50a 100644
--- a/content/es/continuous_integration/troubleshooting.md
+++ b/content/es/continuous_integration/troubleshooting.md
@@ -38,16 +38,20 @@ La falta de etapas o tareas en la página _Detalles del pipeline_ puede deberse
[Las variables definidas por el usuario en Gitlab][16] deben ser informadas en el campo `@ci.parameters` en CI Visibility. Sin embargo, esta información sólo está presente en algunos casos, como los pipelines aguas abajo, y puede faltar en el resto de los casos, ya que Gitlab [no siempre proporciona esta información][17] a Datadog.
-### Limitaciones en la ejecución de pipelines
+## Limitaciones en la ejecución de pipelines
-#### La entrega de eventos de webhook no está garantizada por los proveedores de CI
+### La entrega de eventos de webhook no está garantizada por los proveedores de CI
El soporte para la ejecución de pipelines depende de los datos enviados por los proveedores de CI, indicando el estado de la ejecución. Si estos datos no están disponibles, es posible que las ejecuciones marcadas como `Running` en Datadog ya hayan finalizado.
-#### Duración máxima de la ejecución de un pipeline
+### Duración máxima de la ejecución de un pipeline
Una ejecución de pipeline puede conservar el estado `Running` durante un máximo de tres días. Si sigue en ejecución después de ese tiempo, la ejecución del pipeline no aparece en CI Visibility. Si una ejecución de pipeline finaliza después de tres días, la ejecución del pipeline finalizada aparece en CI Visibility con su correspondiente estado final (`Success`, `Error`, `Canceled`, `Skipped`) y con la duración correcta.
+## Limitaciones a los trabajos terminados de los pipelines
+
+Los datos de trabajo tienen un límite de tres días para ser procesados tras su finalización. Si un pipeline incluye trabajos que finalizan más de tres días antes de que se reciba el pipeline, esos trabajos no se procesan y no aparecen en CI Visibility.
+
## Referencias adicionales
{{< partial name="whats-next/whats-next.html" >}}
diff --git a/content/es/dashboards/functions/smoothing.md b/content/es/dashboards/functions/smoothing.md
index 99b93a63058b1..fbc7a7a2e5d16 100644
--- a/content/es/dashboards/functions/smoothing.md
+++ b/content/es/dashboards/functions/smoothing.md
@@ -1,6 +1,8 @@
---
aliases:
- /es/graphing/functions/smoothing/
+description: Reduce el ruido en los datos métricos utilizando autosmooth, medias móviles
+ ponderadas exponencialmente, filtros de mediana y funciones ponderadas.
title: Suavizado
---
diff --git a/content/es/dashboards/functions/timeshift.md b/content/es/dashboards/functions/timeshift.md
index 1586f08725f03..f951e55d0a0e7 100644
--- a/content/es/dashboards/functions/timeshift.md
+++ b/content/es/dashboards/functions/timeshift.md
@@ -1,6 +1,9 @@
---
aliases:
- /es/graphing/functions/timeshift/
+description: Compara los valores actuales de las métricas con los datos históricos
+ mediante las funciones de cambio temporal, desplazamiento de calendario y comparación
+ basada en el tiempo.
further_reading:
- link: /dashboards/faq/how-can-i-graph-the-percentage-change-between-an-earlier-value-and-a-current-value/
tag: FAQ
@@ -51,7 +54,7 @@ Este es un ejemplo de `system.load.1` con el valor `hour_before()` mostrado como
## Día anterior
-La función de día anterior está obsoleta. En su lugar, utiliza el desplazamiento del calendario con un valor de "-1d".
+La función de día anterior está obsoleta. En su lugar, utiliza el desplazamiento de calendario con un valor de "-1d".
| Función | Descripción | Ejemplo |
|:---------------|:---------------------------------------------------------------------|:-------------------------------|
@@ -63,7 +66,7 @@ Este es un ejemplo de `nginx.net.connections` con el valor de `day_before()` mos
## Semana anterior
-La función de semana anterior está obsoleta. En su lugar, utiliza el desplazamiento del calendario con un valor de "-7d".
+La función de semana anterior está obsoleta. En su lugar, utiliza el desplazamiento de calendario con un valor de "-7d".
| Función | Descripción | Ejemplo |
|:----------------|:-------------------------------------------------------------------------------|:--------------------------------|
diff --git a/content/es/dashboards/widgets/configuration/_index.md b/content/es/dashboards/widgets/configuration/_index.md
new file mode 100644
index 0000000000000..9a41815e222c8
--- /dev/null
+++ b/content/es/dashboards/widgets/configuration/_index.md
@@ -0,0 +1,193 @@
+---
+description: Aprende a configurar los widgets en los dashboards de Datadog, incluidas
+ las opciones de pantalla completa, enlaces personalizados, información sobre métricas
+ y anulaciones de unidades.
+further_reading:
+- link: /dashboards/widgets/
+ tag: Documentación
+ text: Información general del widget
+- link: /dashboards/widgets/types
+ tag: Documentación
+ text: Tipos de widgets
+title: Configuración del widget
+---
+
+## Información general
+
+La configuración de widgets es esencial para crear dashboards eficaces que proporcionen información significativa sobre tu infraestructura y aplicaciones. En esta guía se describen las principales opciones de configuración y las consideraciones que debes tener en cuenta a la hora de configurar los widgets.
+
+
+## Pantalla completa
+
+El modo de pantalla completa ofrece funciones mejoradas de visualización y análisis de tus widgets. Puedes ver la mayoría de los widgets en modo de pantalla completa y hacer lo siguiente:
+
+* Cambiar los períodos
+* Retroceder o avanzar en función del período de tiempo seleccionado
+* Pausar la gráfica en el momento actual o visualizar la gráfica en directo
+* Restablecer el período de tiempo
+* Exportar la gráfica a un dashboard o notebook, o copiar la consulta
+* Descargar los datos que producen la gráfica en formato CSV
+
+Para acceder directamente a la vista general del widget, haz clic en el botón de pantalla completa en la esquina superior derecha del widget.
+
+Hay opciones adicionales disponibles para los [widgets de serie temporal][1].
+
+## Vista previa de datos
+
+Puedes unir varias fuentes de datos en el editor de gráficos para enriquecer tus visualizaciones con contexto y metadatos adicionales. Con la vista previa de datos, puedes ver qué datos estás uniendo o si la consulta está funcionando como se esperaba. Esta función te ayuda a:
+
+- Confirmar estructura de datos y nombres de columnas
+- Identificar las claves coincidentes
+- Validar los resultados antes de ejecutar la consulta completa
+
+{{% collapse-content title="Ejemplo" level="h4" expanded=false %}}
+Podrías unir tus logs de pago con una tabla de referencia (tabla de búsqueda) que contenga detalles del producto para mostrar el precio de venta o la fecha de lanzamiento junto con los datos de la transacción. O bien, podrías enriquecer los datos de sesión de RUM uniéndolos a la información de cliente de una fuente externa, como Salesforce o Snowflake, para segmentar a los usuarios por nivel de cliente.
+
+Las fuentes de datos compatibles para las uniones incluyen (entre otras):
+
+- Logs
+- Métricas
+- RUM
+- Recomendaciones de costes en la nube
+- Netflow
+- Tramos de APM
+- Trazas de APM
+- Perfiles
+- Lotes de CI de Synthetic Monitoring
+- Ejecución de Synthetic Monitoring
+- Análisis estático
+- Tests CI
+- Conclusiones sobre el cumplimiento
+- Product Analytics
+- Tablas de referencia
+
+El uso de uniones y previsualizaciones de datos facilita la selección de los campos adecuados y enriquece tus gráficos con detalles relevantes, mejorando la calidad y utilidad de tus dashboards.
+
+
+{{% /collapse-content %}}
+
+## Enlaces personalizados
+
+Los enlaces personalizados mejoran la interacción con los datos conectando los valores de los datos del widget a URL relevantes, como las páginas de Datadog o tu consola de AWS.
+
+Para personalizar las interacciones con datos en línea de tus widgets genéricos, consulta [Enlaces contextuales][2].
+
+## Información de las métricas
+
+En el gráfico de una métrica, haz clic en el menú contextual (tres puntos verticales) para encontrar la opción **Metrics info** (Información de la métrica). Esto abre un panel con una descripción de la métrica. Al hacer clic en el nombre de la métrica en este panel, se abre la métrica en la página del resumen de métricas para su posterior análisis o edición.
+
+## Anulación de unidad
+
+Las modificaciones de unidad son una opción de visualización clave que te permiten personalizar la forma en que se presentan los valores de los datos en los widgets, añadiendo un contexto significativo a tus datos. Para obtener más información y casos de uso, consulta [Personaliza tus visualizaciones con modificaciones de unidad][3].
+- **Anulación de unidad**: elige mostrar unidades en la familia de la «memoria» y haz que Datadog se encargue de mostrar la escala adecuada en función de los datos (como megabytes o gigabytes).
+- **Anulación de unidad y escala**: fija las unidades en una sola escala (muestra los datos en megabytes independientemente del valor).
+- **Definir unidades personalizadas**: define unidades completamente personalizadas (como «pruebas» en lugar de un recuento genérico).
+
+Esta no es una alternativa para asignar unidades a tus datos.
+{{< whatsnext desc="Establece unidades a nivel de la organización: ">}}
+ {{< nextlink href="/metrics/units/">}} Establecer unidades de métricas{{< /nextlink >}}
+ {{< nextlink href="/logs/explorer/facets/#units">}} Establecer unidades para consultas basadas en eventos{{< /nextlink >}}
+{{< /whatsnext >}}
+
+## Selector de hora global
+
+El selector de hora global es una opción de configuración horaria fundamental que sincroniza todos los widgets de un dashboard para que utilicen el mismo marco temporal. Para utilizar el selector de hora global, al menos un widget basado en la hora debe estar configurado para utilizar `Global Time`. Haz la selección en el editor de widgets en **Set display preferences** (Configurar preferencias de visualización), o añade un widget (la hora global es la configuración horaria por defecto).
+
+El selector de tiempo global establece el mismo marco temporal para todos los widgets que utilicen la opción `Global Time` en el mismo dashboard. Selecciona un intervalo móvil en el pasado (por ejemplo, `Past 1 Hour` o `Past 1 Day`) o un periodo fijo con la opción `Select from calendar...` o [introduce un marco temporal personalizado][8]. Si se elige un intervalo móvil, los widgets se actualizan para moverse junto con el intervalo.
+
+Los widgets no vinculados a la hora global muestran los datos de su periodo de tiempo local aplicados a la ventana global. Por ejemplo, si el selector de hora global está configurado del 1 de enero de 2019 al 2 de enero de 2019, un widget configurado con el marco de hora local para `Past 1 Minute` muestra el último minuto del 2 de enero de 2019 a partir de las 23:59.
+
+## Copiar y pegar widgets
+
+Copiar y pegar es una función clave para compartir y colaborar que permite reutilizar widgets en distintos contextos de Datadog y herramientas externas.
+
+
+
+Los widgets pueden copiarse en [Dashboards][4], [Notebooks][5], [APM Service][6] y la page (página) del [recurso de APM][7] utilizando Ctrl/Cmd + C o seleccionando el ícono de compartir y seleccionando "Copiar".
+
+Los widgets copiados pueden pegarse en Datadog utilizando Ctrl/Cmd + V:
+
+* **Dashboards**: añade un widget nuevo ubicado debajo del cursor del mouse.
+* **Notebooks**: añade una celda nueva al final del notebook.
+
+También puedes pegar el widget en tu programa de chat favorito que muestre previsualizaciones de enlaces (como Slack o Microsoft Teams). Esto muestra una imagen snapshot de tu gráfica junto con un enlace directo al widget.
+
+Para obtener más información, consulta el [Portapapeles de Datadog][9].
+
+## Grupos de widgets
+
+Copia los widgets de grupos de timeboard pasando el ratón sobre el área del widget de grupo y utilizando Ctrl/Cmd + C o seleccionando el ícono de compartir y seleccionando "Copy" (Copiar).
+
+**Nota**: Al pegar gráficos en screenboard o notebook, Datadog pega cada widget del grupo individualmente.
+
+Para copiar varios widgets de screenboard (sólo en modo de edición), pulsa Mayúsculas + clic en los widgets y utiliza Ctrl/Cmd + C.
+
+**Nota**: Esto solo funciona cuando se comparte dentro de Datadog. No genera una imagen de vista previa.
+
+## Widget de menús gráficos
+
+Los menús de gráficos del widget proporcionan opciones esenciales para la interacción con los datos. Pasa el cursor sobre un gráfico para acceder a las siguientes opciones de menú.
+
+### View in full screen (Ver en pantalla completa)
+
+Ve el gráfico en [modo pantalla completa](#full-screen).
+
+### Exportar
+
+Haz clic en el icono de exportación de cualquier gráfico del dashboard para abrir un menú de opciones:
+
+| Opción | Descripción |
+|------------------------|--------------------------------------------------------------------|
+| Copia | Crea una copia del gráfico del dashboard. |
+| Compartir snapshot | Crea y envía un snapshot de tu gráfico. |
+
+#### Utilización en Datadog
+
+| Opción | Descripción |
+|------------------------|--------------------------------------------------------------------|
+| Declarar incidente | Declara un incidente del gráfico. |
+| Añadir al incidente | Añade el gráfico a una página existente del incidente. |
+| Crear incidencia | Crea una incidencia a partir del gráfico. |
+| Guardar en notebook | Guarda el gráfico en un notebook. |
+| Enlace al widget | Obtén un enlace al widget copiado en el portapapeles. |
+
+#### Compartir externamente
+
+| Formato | Descripción |
+| ----- | ----------------------- |
+| Descargar como PNG | Descarga el widget en formato PNG. |
+| Descargar como SVG | Descarga el widget en formato SVG. |
+| Descargar como CSV | Descarga el widget en formato CSV. |
+
+### Editar
+
+Haz clic en el icono del lápiz de cualquier gráfico del dashboard para realizar modificaciones.
+
+### Opciones adicionales
+
+Haz clic en el menú contextual (tres puntos verticales) de cualquier gráfico del dashboard para abrir un menú de opciones:
+
+| Opción | Descripción |
+|------------------------|--------------------------------------------------------------------|
+| Editar | Edita el gráfico. |
+| Clonar | Crea una copia adyacente del gráfico. |
+| Gráfica dividida | Crea un [gráfico dividido][10]. |
+| Crear enlaces personalizados | Crea [enlaces personalizados](#custom-links). |
+| Crear monitor | Crea un monitor preconfigurado con la consulta del gráfico. |
+| Información de la métrica (solo gráficos de métrica) | Obtén una descripción de las métricas en este gráfico. Puedes hacer clic en los nombres de las métricas para abrirlas en la página Resumen de métricas. |
+| Borrar | Borra el gráfico. |
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/dashboards/widgets/timeseries/#full-screen
+[2]: /es/dashboards/guide/context-links/
+[3]: /es/dashboards/guide/unit-override
+[4]: /es/dashboards/
+[5]: /es/notebooks/
+[6]: /es/tracing/services/service_page/
+[7]: /es/tracing/services/resource_page/
+[8]: /es/dashboards/guide/custom_time_frames/
+[9]: /es/service_management/incident_management/datadog_clipboard/
+[10]: /es/dashboards/widgets/split_graph/
\ No newline at end of file
diff --git a/content/es/dashboards/widgets/table.md b/content/es/dashboards/widgets/table.md
index c74d56994f064..fa72c57821b2b 100644
--- a/content/es/dashboards/widgets/table.md
+++ b/content/es/dashboards/widgets/table.md
@@ -1,6 +1,8 @@
---
aliases:
- /es/graphing/widgets/table/
+description: Visualiza datos tabulares con columnas, filas y funciones de clasificación
+ para un análisis detallado de métricas y eventos.
further_reading:
- link: /dashboards/graphing_json/
tag: Documentación
@@ -22,7 +24,7 @@ La visualización de tablas muestra columnas de datos agregados agrupados por cl
### Configuración
-1. Elige los datos a graficar:
+1. Elige los datos para los que crear gráficas:
* Métrica: consulta la [Documentación principal de crear gráficas][1] para configurar una consulta a la métrica.
* Fuentes de datos no métrica: consulta la [Documentación de búsqueda de log][2] para configurar una consulta de evento.
@@ -34,18 +36,19 @@ La visualización de tablas muestra columnas de datos agregados agrupados por cl
* Configura si se muestra o no la barra de búsqueda. **Auto** es el valor predeterminado y muestra la barra de búsqueda según el tamaño del widget, esto significa que si tu pantalla se hace demasiado pequeña, prioriza la visualización de los datos en el widget y oculta la barra de búsqueda, pero sigue estando disponible en el modo de pantalla completa.
#### Formato de columnas
+
Personaliza la visualización de los valores de las celdas de cada columna con las Reglas de formato de columna. Crea códigos de color para tus datos para visualizar tendencias y cambios.
* Formato de umbral: resalta las celdas con colores cuando se cumplan determinados rangos de valores.
* Formato de rango: codifica por colores las celdas con un rango de valores.
* Formato de texto: sustituye las celdas por valores de texto de alias para mejorar la legibilidad.
+* Información de tendencias: visualiza las consultas de métricas y eventos.
-{{< img src="/dashboards/widgets/table/range_conditional_formatting.png" alt="Configuración del widget que muestra las opciones de formato de columna" style="width:90%;" >}}
+{{< img src="/dashboards/widgets/table/conditional_formatting_trends.png" alt="Widget de tabla que muestra el formato condicional con indicadores de tendencia" style="width:100%;" >}}
#### Enlaces contextuales
Los [enlaces contextuales][10] están activados por defecto y pueden activarse o desactivarse. Los enlaces contextuales sirven de puente entre widgets de dashboard con otras páginas de Datadog, o con aplicaciones de terceros.
-
## Valores N/A
Las columnas del widget de tabla se consultan independientemente unas de otras. Los grupos solapados con nombres coincidentes se unen en tiempo real para formar las filas de la tabla. Como resultado de dicho proceso, puede haber situaciones sin solapamiento total, por lo que se muestran celdas N/A. Para mitigar esto:
@@ -60,7 +63,7 @@ La [definición del esquema de widget JSON][9] dedicada al widget de la tabla es
{{< dashboards-widgets-api >}}
-## Leer más
+## Referencias adicionales
{{< partial name="whats-next/whats-next.html" >}}
diff --git a/content/es/dashboards/widgets/types/_index.md b/content/es/dashboards/widgets/types/_index.md
new file mode 100644
index 0000000000000..54ab8ddc61d17
--- /dev/null
+++ b/content/es/dashboards/widgets/types/_index.md
@@ -0,0 +1,119 @@
+---
+title: Tipos de widgets
+description: |
+Descubre los tipos de widgets de dashboard disponibles en Datadog para visualizar y analizar tus datos, incluidos gráficos, tablas, grupos y widgets de análisis.
+further_reading:
+- link: /dashboards/widgets/
+ tag: Documentación
+ text: Información general del widget
+- link: dashboards/widgets/configuración
+ tag: Documentación
+ text: Configuraciones de widgets
+---
+
+## Gráficos
+{{< whatsnext desc="Widgets generales para graficar los datos desde productos de Datadog: ">}}
+ {{< nextlink href="/dashboards/widgets/bar_chart"
+ img="/dashboards/widgets/icons/bar-chart_light_large.svg">}}Gráfico de barras{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/change"
+ img="dashboards/widgets/icons/change_light_large.png">}} Cambio{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/distribution"
+ img="dashboards/widgets/icons/distribution_light_large.png">}} Distribución{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/geomap"
+ img="dashboards/widgets/icons/geomap_light_large.png">}} Mapa geográfico{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/heat_map"
+ img="dashboards/widgets/icons/heatmap_light_large.png">}} Mapa de calor{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/pie_chart"
+ img="dashboards/widgets/icons/pie_light_large.png">}} Gráfico de tortas{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/query_value"
+ img="dashboards/widgets/icons/query-value_light_large.png">}} Valor de consulta{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/scatter_plot"
+ img="dashboards/widgets/icons/scatter-plot_light_large.png">}} Diagrama de dispersión{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/table"
+ img="dashboards/widgets/icons/table_light_large.png">}} Tabla{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/treemap"
+ img="dashboards/widgets/icons/treemap_light_large.png">}} Mapa de árbol{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/timeseries"
+ img="dashboards/widgets/icons/timeseries_light_large.png">}} Serie temporal{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/top_list"
+ img="dashboards/widgets/icons/top-list_light_large.png">}} Lista de principales{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/wildcard"
+ img="/dashboards/widgets/icons/wildcard_light_large.svg">}} Comodín{{< /nextlink >}}
+{{< /whatsnext >}}
+
+## Grupos
+{{< whatsnext desc="Muestra tus widgets en grupos: ">}}
+ {{< nextlink href="/dashboards/widgets/group"
+ img="dashboards/widgets/icons/group_default_light_large.svg">}} Grupo{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/powerpack"
+ img="dashboards/widgets/icons/group_powerpack_light_large.svg">}} Powerpack{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/split_graph"
+ img="dashboards/widgets/icons/group-split_light_small.svg">}} Gráfica dividida{{< /nextlink >}}
+{{< /whatsnext >}}
+
+## Product Analytics
+{{< whatsnext desc="Visualizar datos de Product Analytics: ">}}
+ {{< nextlink href="/dashboards/widgets/sankey"
+ img="dashboards/widgets/icons/sankey_light_large.svg">}} Sankey{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/funnel"
+ img="dashboards/widgets/icons/funnel_light_large.png">}} Túnel{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/retention"
+ img="/dashboards/widgets/icons/cohort_light_small.svg">}} Retención{{< /nextlink >}}
+{{< /whatsnext >}}
+
+## Arquitectura
+{{< whatsnext desc="Visualizar datos de infraestructura y arquitectura: ">}}
+ {{< nextlink href="/dashboards/widgets/hostmap"
+ img="dashboards/widgets/icons/host-map_light_large.png">}} Mapa de host{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/topology_map"
+ img="dashboards/widgets/icons/service-map_light_large.png">}} Mapa de topología{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/service_summary"
+ img="dashboards/widgets/icons/service-summary_light_large.png">}} Resumen de servicio{{< /nextlink >}}
+{{< /whatsnext >}}
+
+## Anotaciones y embeds
+{{< whatsnext desc="Widgets de decoración para estructurar y anotar visualmente dashboards: ">}}
+ {{< nextlink href="/dashboards/widgets/free_text"
+ img="dashboards/widgets/icons/free-text_light_large.png">}} Texto libre{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/iframe"
+ img="dashboards/widgets/icons/iframe_light_large.png">}} Iframe{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/image"
+ img="dashboards/widgets/icons/image_light_large.png">}} Imagen{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/note"
+ img="dashboards/widgets/icons/notes_light_large.png">}} Notas y enlaces{{< /nextlink >}}
+{{< /whatsnext >}}
+
+## Listas y flujos
+{{< whatsnext desc="Muestra una lista de eventos y problemas provenientes de diferentes fuentes: ">}}
+ {{< nextlink href="/dashboards/widgets/list"
+ img="dashboards/widgets/icons/change_light_large.png">}} Lista{{< /nextlink >}}
+{{< /whatsnext >}}
+
+## Alerta y respuesta
+{{< whatsnext desc="Widgets de resumen para mostrar información de monitorización: ">}}
+ {{< nextlink href="/dashboards/widgets/alert_graph"
+ img="dashboards/widgets/icons/alert-graph_light_large.png">}} Gráfico de alertas{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/alert_value"
+ img="dashboards/widgets/icons/alert-value_light_large.png">}}Valor de alerta{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/check_status"
+ img="dashboards/widgets/icons/check-status_light_large.png">}} Comprobar estado{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/monitor_summary"
+ img="dashboards/widgets/icons/monitor-summary_light_large.png">}} Resumen de monitor{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/run_workflow"
+ img="dashboards/widgets/icons/run-workflow_light_small.svg">}} Ejecutar flujo de trabajo{{< /nextlink >}}
+{{< /whatsnext >}}
+
+## Rendimiento y fiabilidad
+{{< whatsnext desc="Visualizaciones de fiabilidad del sitio: ">}}
+ {{< nextlink href="/dashboards/widgets/profiling_flame_graph"
+ img="dashboards/widgets/icons/profiling_flame_graph.svg">}} Perfilado del gráfico de llamas{{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/slo"
+ img="dashboards/widgets/icons/slo-summary_light_large.png">}} Resumen de objetivo de nivel de servicio (SLO){{< /nextlink >}}
+ {{< nextlink href="/dashboards/widgets/slo_list"
+ img="dashboards/widgets/icons/slo-list_light_large.png">}} Objetivo de nivel de servicio (SLO){{< /nextlink >}}
+{{< /whatsnext >}}
+
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
diff --git a/content/es/developers/dogstatsd/unix_socket.md b/content/es/developers/dogstatsd/unix_socket.md
index 6adde3c63cd69..d265b20d9af6f 100644
--- a/content/es/developers/dogstatsd/unix_socket.md
+++ b/content/es/developers/dogstatsd/unix_socket.md
@@ -38,7 +38,7 @@ Para habilitar el UDS del DogStatsD del Agent:
{{< tabs >}}
{{% tab "Host" %}}
-Nota: El script de instalación del Agent crea el archivo de socket con los permisos correctos, y use_dogstatsd: true y dogstatsd_socket: "/var/run/datadog/dsd.socket" se establecen por defecto.
+El script de instalación del Agent crea automáticamente el archivo de socket con los permisos correctos, y use_dogstatsd: true y dogstatsd_socket: "/var/run/datadog/dsd.socket" están configurados por defecto.
1. Crea un archivo de socket para que DogStatsD lo utilice como socket de escucha. Por ejemplo:
```shell
diff --git a/content/es/getting_started/feature_flags/_index.md b/content/es/getting_started/feature_flags/_index.md
new file mode 100644
index 0000000000000..745bec4c24351
--- /dev/null
+++ b/content/es/getting_started/feature_flags/_index.md
@@ -0,0 +1,139 @@
+---
+description: Gestiona la entrega de funciones con capacidad de observación integrada,
+ métricas en tiempo real y lanzamientos graduales compatibles con OpenFeature.
+further_reading:
+- link: https://openfeature.dev/docs/reference/technologies/client/web/
+ tag: Sitio externo
+ text: Documentación del kit de desarrollo de software (SDK) de OpenFeature Web
+- link: https://www.datadoghq.com/blog/feature-flags/
+ tag: Blog
+ text: Envía funciones de forma más rápida y segura con Datadog Feature Flags
+site_support_id: empezando_con_feature_flags
+title: Empezando con los Feature Flags
+---
+
+{{< callout url="http://datadoghq.com/product-preview/feature-flags/" >}}
+Feature Flags está en vista previa. Completa el formulario para solicitar acceso.
+{{< /callout >}}
+
+## Información general
+
+Los marcadores de funciones de Datadog ofrecen una forma potente e integrada de gestionar la entrega de funciones, con capacidad de observación incorporada y una integración perfecta en toda la plataforma.
+
+* **Métricas en tiempo real:** Conoce quién recibe cada variante y la manera en que tu marcador afecta al estado y al rendimiento de tu aplicación, todo en tiempo real.
+
+* **Admite cualquier tipo de datos:** Utiliza booleanos, cadenas, números u objetos completos de JSON, el que necesite tu uso en case (incidencia).
+
+* **Creado para la experimentación:** Dirígete a audiencias específicas para tests A/B, lanza funciones gradualmente con versiones canarias y retrocede automáticamente cuando se detecten regresiones.
+
+* **Compatible con OpenFeature:** Se basa en la norma de OpenFeature, lo que garantiza la compatibilidad con las implementaciones existentes de OpenFeature y proporciona un enfoque independiente del proveedor para la gestión de marcadores de funciones.
+
+## Configura tus entornos
+
+Es probable que tu organización ya disponga de entornos preconfigurados para Desarrollo, Escenificación y Producción. Si necesitas configurar estos u otros entornos, ve a la page (página) [**Entornos**][3] para crear consultas de etiquetas para cada entorno. También puedes identificar qué entorno debe considerarse como entorno de Producción.
+
+{{< img src="getting_started/feature_flags/environments-list.png" alt="Lista de entornos" style="width:100%;" >}}
+
+## Crea tu primer marcador de funciones
+
+### Step (UI) / paso (generic) 1: Importar e inicializar el kit de desarrollo de software (SDK)
+
+En primer lugar, instala `@datadog/openfeature-browser`, `@openfeature/web-sdk`, y `@openfeature/core` como dependencias en tu project (proyecto):
+
+
+```
+yarn add @datadog/openfeature-browser@preview @openfeature/web-sdk @openfeature/core
+```
+
+A continuación, añade lo siguiente a tu project (proyecto) para inicializar el kit de desarrollo de software (SDK):
+
+```js
+import { DatadogProvider } from '@datadog/openfeature-browser';
+import { OpenFeature } from '@openfeature/web-sdk';
+
+// Initialize the provider
+const provider = new DatadogProvider({
+ clientToken: '',
+ applicationId: '',
+ enableExposureLogging: true,
+ site: 'datadoghq.com',
+ env: '', // Same environment normally passed to the RUM SDK
+ service: '',
+ version: '1.0.0',
+});
+
+// Set the provider
+await OpenFeature.setProviderAndWait(provider);
+```
+
+Puedes encontrar más información sobre las opciones de configuración del kit de desarrollo de software (SDK) de OpenFeature en tu [documentación][1]. Para obtener más información sobre la creación de tokens del cliente e identificadores de la aplicación, consulta [Claves de API y de aplicaciones][4].
+
+### Ptep (UI) / paso (generic) 2: Crear un marcador de función
+
+Utiliza la [interfaz de usuario de creación de marcadores de funciones][2] para arrancar tu primer marcador de función. En forma predeterminada, el marcador está desactivado en todos los entornos.
+
+### Step (UI) / paso (generic) 3: Evaluar el marcador y escribir el código de la función
+
+En el código de tu aplicación, utiliza el kit de desarrollo de software (SDK) para evaluar el marcador y la puerta de la nueva función.
+
+```js
+import { OpenFeature } from '@openfeature/web-sdk';
+
+const client = OpenFeature.getClient();
+
+// If applicable, set relevant attributes on the client's global context
+// (e.g. org id, user email)
+await OpenFeature.setContext({
+ org: { id: 2 },
+ user: { id: 'user-123', email: 'user@example.com' },
+ targetingKey: 'user-123',
+});
+
+// This is what the SDK returns if the flag is disabled in
+// the current environment
+const fallback = false;
+
+const showFeature = await client.getBooleanValue('show-new-feature', fallback);
+if (showFeature) {
+ // Feature code here
+}
+```
+
+Una vez que hayas finalizado este step (UI) / paso (generic), vuelve a desplegar la aplicación para recoger estos cambios. Puedes encontrar más ejemplos de uso en la [documentación][1] del kit de desarrollo de software (SDK).
+
+### Step (UI) / paso (generic) 4: Definir las reglas de selección y activar el marcador de función
+
+Ahora que la aplicación está lista para check el valor de su marcador, puedes empezar a añadir reglas de orientación. Las reglas de orientación te permiten definir dónde o a quién servir diferentes variantes de tu función.
+
+Ve a **Feature Flags**, selecciona tu marcador y busca la sección **Targeting Rules & Rollouts** (Reglas de oriengación y lanzamientos. Selecciona el entorno cuyas reglas deseas modificar y haz clic en **Edit Targeting Rules** (Editar reglas de orientación).
+
+{{< img src="getting_started/feature_flags/ff-targeting-rules-and-rollouts.png" alt="Reglas de orientación y lanzamientos" style="width:100%;" >}}
+
+### Ptep (UI) / paso (generic) 5: Publicar las normas en tus entornos
+
+Tras guardar los cambios en las reglas de orientación, publícalas activando tu marcador en el entorno que desees.
+
+
+Como práctica general, los cambios deben implementarse en un entorno de pruebas antes de implementarlos en producción.
+
+
+En la sección **Reglas de orientación y lanzamientos**, cambia el entorno seleccionado a **Activado**.
+
+{{< img src="getting_started/feature_flags/publish-targeting-rules.png" alt="Publicar reglas de orientación" style="width:100%;" >}}
+
+El marcador sirve tus reglas de orientación en este entorno. Puedes seguir editando estas reglas de orientación para controlar dónde se sirven las variantes.
+
+### Step (UI) / paso (generic) 6: Monitorizar tu despliegue
+
+Monitoriza el despliegue de la función desde la page (página) de detalles del marcador de función, en que se proporciona un rastreo de la exposición en tiempo real y métricas como **la tasa de errores** y **el tiempo de carga de la page (página) **. A medida que vayas lanzando la función con el marcador, consulta el panel **Real-Time Metric Overview** (Información general de métricas en tiempo real) de la interfaz de usuario de Datadog para ver cómo afecta la función al rendimiento de la aplicación.
+
+{{< img src="getting_started/feature_flags/real-time-flag-metrics.png" alt="Panel de métricas de marcadores en tiempo real" style="width:100%;" >}}
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://openfeature.dev/docs/reference/technologies/client/web/
+[2]: https://app.datadoghq.com/feature-flags/create
+[3]: https://app.datadoghq.com/feature-flags/environments
+[4]: https://docs.datadoghq.com/es/account_management/api-app-keys/#client-tokens
\ No newline at end of file
diff --git a/content/es/integrations/solr.md b/content/es/integrations/solr.md
new file mode 100644
index 0000000000000..76b4927767f65
--- /dev/null
+++ b/content/es/integrations/solr.md
@@ -0,0 +1,324 @@
+---
+"app_id": "solr"
+"app_uuid": "3733c24e-8466-4f3b-8411-59ef85c28302"
+"assets":
+ "dashboards":
+ "solr": "assets/dashboards/solr_overview.json"
+ "integration":
+ "auto_install": true
+ "configuration":
+ "spec": "assets/configuration/spec.yaml"
+ "events":
+ "creates_events": false
+ "metrics":
+ "check": "solr.searcher.numdocs"
+ "metadata_path": "metadata.csv"
+ "prefix": "solr."
+ "process_signatures":
+ - "solr start"
+ "service_checks":
+ "metadata_path": "assets/service_checks.json"
+ "source_type_id": !!int "42"
+ "source_type_name": "Solr"
+ "saved_views":
+ "solr_processes": "assets/saved_views/solr_processes.json"
+"author":
+ "homepage": "https://www.datadoghq.com"
+ "name": "Datadog"
+ "sales_email": "info@datadoghq.com"
+ "support_email": "help@datadoghq.com"
+"categories":
+- "caching"
+- "data stores"
+- "log collection"
+"custom_kind": "integración"
+"dependencies":
+- "https://github.com/DataDog/integrations-core/blob/master/solr/README.md"
+"display_on_public_website": true
+"draft": false
+"git_integration_title": "solr"
+"integration_id": "solr"
+"integration_title": "Solr"
+"integration_version": "2.1.0"
+"is_public": true
+"manifest_version": "2.0.0"
+"name": "solr"
+"public_title": "Solr"
+"short_description": "Monitoriza tasa de solicitudes, errores de gestor, fallos de caché y desalojos y más".
+"supported_os":
+- "linux"
+- "windows"
+- "macos"
+"tile":
+ "changelog": "CHANGELOG.md"
+ "classifier_tags":
+ - "Category::Caching"
+ - "Category::Data Stores"
+ - "Category::Log Collection"
+ - "Supported OS::Linux"
+ - "Supported OS::Windows"
+ - "Supported OS::macOS"
+ - "Offering::Integration"
+ "configuration": "README.md#Setup"
+ "description": "Monitoriza tasa de solicitudes, errores de gestor, fallos de caché y desalojos y más".
+ "media": []
+ "overview": "README.md#Overview"
+ "support": "README.md#Support"
+ "title": "Solr"
+---
+
+
+
+
+![Gráfico de Solr][1]
+
+## Información general
+
+El check de Solr realiza un seguimiento del estado y el rendimiento de un clúster de Solr. Recopila métricas del número de documentos indexados, los aciertos y desalojos de la caché, los tiempos medios de solicitud, las solicitudes medias por segundo, etc.
+
+## Configuración
+
+### Instalación
+
+El check de Solr está incluido en el paquete del [Datadog Agent][2], por lo que no necesitas instalar nada más en tus nodos de Solr.
+
+Este check está basado en JMX, por lo que necesitas habilitar JMX Remote en tus servidores de Solr. Consulta la [documentación del check de JMX][3] para obtener más información.
+
+### Configuración
+
+{{< tabs >}}
+{{% tab "Host" %}}
+
+#### Host
+
+Para configurar este check para un Agent que se ejecuta en un host:
+
+1. Edita el archivo `solr.d/conf.yaml` en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][1]. Para conocer todas las opciones de configuración disponibles, consulta el [solr.d/conf.yaml de ejemplo][2].
+
+ ```yaml
+ init_config:
+
+ ## @param is_jmx - boolean - required
+ ## Whether or not this file is a configuration for a JMX integration.
+ #
+ is_jmx: true
+
+ ## @param collect_default_metrics - boolean - required
+ ## Whether or not the check should collect all default metrics.
+ #
+ collect_default_metrics: true
+
+ instances:
+ ## @param host - string - required
+ ## Solr host to connect to.
+ - host: localhost
+
+ ## @param port - integer - required
+ ## Solr port to connect to.
+ port: 9999
+ ```
+
+2. [Reinicia el Agent][3].
+
+#### Lista de métricas
+
+El parámetro `conf` es una lista de métricas que recopilará la integración. Solo se admiten 2 claves:
+
+- `include` (**obligatorio**): un diccionario de filtros, cualquier atributo que coincida con estos filtros se recopila a menos que también coincida con los filtros `exclude` (ver más abajo).
+- `exclude` (**opcional**): un diccionario de filtros, los atributos que coinciden con estos filtros no se recopilan.
+
+Para un bean dado, las métricas se etiquetan de la siguiente manera:
+
+```text
+mydomain:attr0=val0,attr1=val1
+```
+
+En este ejemplo, tu métrica es `mydomain` (o alguna variación según el atributo dentro del bean) y tiene las etiquetas `attr0:val0`, `attr1:val1` y `domain:mydomain`.
+
+Si especificas un alias en una clave `include` con formato _camel case_, se convierte a _snake case_. Por ejemplo, `MyMetricName` aparece en Datadog como `my_metric_name`.
+
+##### El filtro de atributos
+
+El filtro `attribute` puede aceptar dos tipos de valores:
+
+- Un diccionario cuyas claves son nombres de atributos (ver más adelante). Para este caso, puedes especificar un alias para la métrica que se convierte en el nombre de métrica en Datadog. También puedes especificar el tipo de métrica como gauge o count. Si eliges count, se calcula una tasa por segundo para la métrica.
+
+ ```yaml
+ conf:
+ - include:
+ attribute:
+ maxThreads:
+ alias: tomcat.threads.max
+ metric_type: gauge
+ currentThreadCount:
+ alias: tomcat.threads.count
+ metric_type: gauge
+ bytesReceived:
+ alias: tomcat.bytes_rcvd
+ metric_type: counter
+ ```
+
+- Una lista de nombres de atributos (ver más abajo). Para este caso, el tipo de métrica es un gauge y el nombre de métrica es `jmx.\[DOMAIN_NAME].\[ATTRIBUTE_NAME]`.
+
+ ```yaml
+ conf:
+ - include:
+ domain: org.apache.cassandra.db
+ attribute:
+ - BloomFilterDiskSpaceUsed
+ - BloomFilterFalsePositives
+ - BloomFilterFalseRatio
+ - Capacity
+ - CompressionRatio
+ - CompletedTasks
+ - ExceptionCount
+ - Hits
+ - RecentHitRate
+ ```
+
+#### Versiones anteriores
+
+La lista de filtros solo se admite en el Datadog Agent > 5.3.0. Si utilizas una versión anterior, utiliza singletons y varias sentencias `include` en su lugar.
+
+```yaml
+# Datadog Agent > 5.3.0
+ conf:
+ - include:
+ domain: domain_name
+ bean:
+ - first_bean_name
+ - second_bean_name
+# Older Datadog Agent versions
+ conf:
+ - include:
+ domain: domain_name
+ bean: first_bean_name
+ - include:
+ domain: domain_name
+ bean: second_bean_name
+```
+
+[1]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory
+[2]: https://github.com/DataDog/integrations-core/blob/master/solr/datadog_checks/solr/data/conf.yaml.example
+[3]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+{{% /tab %}}
+{{% tab "Contenedorizado" %}}
+
+#### Contenedores
+
+Para obtener información sobre entornos en contenedores, consulta la guía [Autodiscovery con JMX][1].
+
+##### Recopilación de logs
+
+1. La recopilación de logs está desactivada por defecto en el Datadog Agent, actívala en tu archivo `datadog.yaml`:
+
+ ```yaml
+ logs_enabled: true
+ ```
+
+2. Solr utiliza el registrador `log4j` por defecto. Para personalizar el formato de registro, edita el archivo [`server/resources/log4j2.xml`][2]. Por defecto, el pipeline de la integración de Datadog admite el siguiente [patrón][3] de conversión:
+
+ ```text
+ %maxLen{%d{yyyy-MM-dd HH:mm:ss.SSS} %-5p (%t) [%X{collection} %X{shard} %X{replica} %X{core}] %c{1.} %m%notEmpty{ =>%ex{short}}}{10240}%n
+ ```
+
+ Clona y edita el [pipeline de integración][4] si tienes un formato diferente.
+
+
+3. Anula los comentarios y edita el bloque de configuración de logs en tu archivo `solr.d/conf.yaml`. Cambia los valores de los parámetros `type`, `path` y `service` en función de tu entorno. Consulta [solr.d/solr.yaml de ejemplo][5] para conocer todas las opciones disponibles de configuración.
+
+ ```yaml
+ logs:
+ - type: file
+ path: /var/solr/logs/solr.log
+ source: solr
+ # To handle multi line that starts with yyyy-mm-dd use the following pattern
+ # log_processing_rules:
+ # - type: multi_line
+ # pattern: \d{4}\-(0?[1-9]|1[012])\-(0?[1-9]|[12][0-9]|3[01])
+ # name: new_log_start_with_date
+ ```
+
+4. [Reinicia el Agent][6].
+
+Para habilitar logs para entornos de Kubernetes, consulta [Recopilación de log de Kubernetes][7].
+
+[1]: https://docs.datadoghq.com/agent/guide/autodiscovery-with-jmx/?tab=containerizedagent
+[2]: https://lucene.apache.org/solr/guide/configuring-logging.html#permanent-logging-settings
+[3]: https://logging.apache.org/log4j/2.x/manual/layouts.html#Patterns
+[4]: https://docs.datadoghq.com/logs/processing/#integration-pipelines
+[5]: https://github.com/DataDog/integrations-core/blob/master/solr/datadog_checks/solr/data/conf.yaml.example
+[6]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[7]: https://docs.datadoghq.com/agent/docker/log/
+{{% /tab %}}
+{{< /tabs >}}
+
+### Validación
+
+[Ejecuta el subcomando de estado del Agent][4] y busca `solr` en la sección Checks.
+
+## Datos recopilados
+
+### Métricas
+{{< get-metrics-from-git "solr" >}}
+
+
+### Eventos
+
+El check de Solr no incluye ningún evento.
+
+### Checks de servicio
+{{< get-service-checks-from-git "solr" >}}
+
+
+## Solucionar problemas
+
+### Comandos para ver las métricas disponibles
+
+El comando `datadog-agent jmx` se añadió en la versión 4.1.0.
+
+- Mostrar una lista de atributos que coincidan con, al menos, una de tus configuraciones de instancias:
+ `sudo datadog-agent jmx list matching`
+- Mostrar una lista de atributos que coinciden con una de tus configuraciones de instancias, pero no se recopilan porque se superaría el número de métricas que es posible recopilar.
+ `sudo datadog-agent jmx list limited`
+- Mostrar una lista de atributos que se espera que recopile tu configuración de instancias actual:
+ `sudo datadog-agent jmx list collected`
+- Mostrar una lista de atributos que no coincidan con ninguna de tus configuraciones de instancias:
+ `sudo datadog-agent jmx list not-matching`
+- Mostrar cada atributo disponible que tenga un tipo compatible con JMXFetch:
+ `sudo datadog-agent jmx list everything`
+- Iniciar la recopilación de métricas según tu configuración actual y mostrarlas en la consola:
+ `sudo datadog-agent jmx collect`
+
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][5].
+
+## Referencias adicionales
+
+### Parseo de un valor de cadena en un número
+
+Si tu jmxfetch devuelve solo valores de cadena como **false** y **true** y quieres transformarlo en una métrica gauge de Datadog para usos avanzados. Por ejemplo, si deseas la siguiente equivalencia para tu jmxfetch:
+
+```text
+"myJmxfetch:false" = myJmxfetch:0
+"myJmxfetch:true" = myJmxfetch:1
+```
+
+Puedes utilizar el filtro `attribute` como se indica a continuación:
+
+```yaml
+# ...
+attribute:
+ myJmxfetch:
+ alias: your_metric_name
+ metric_type: gauge
+ values:
+ "false": 0
+ "true": 1
+```
+
+
+[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/solr/images/solrgraph.png
+[2]: https://app.datadoghq.com/account/settings/agent/latest
+[3]: https://docs.datadoghq.com/integrations/java/
+[4]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information
+[5]: https://docs.datadoghq.com/help/
diff --git a/content/es/integrations/spark.md b/content/es/integrations/spark.md
new file mode 100644
index 0000000000000..a369ef0fc7b03
--- /dev/null
+++ b/content/es/integrations/spark.md
@@ -0,0 +1,232 @@
+---
+"app_id": "spark"
+"app_uuid": "5cb22455-9ae2-44ee-ae05-ec21c27b3292"
+"assets":
+ "dashboards":
+ "Databricks Spark Overview": "assets/dashboards/databricks_overview.json"
+ "spark": "assets/dashboards/spark_dashboard.json"
+ "integration":
+ "auto_install": true
+ "configuration":
+ "spec": "assets/configuration/spec.yaml"
+ "events":
+ "creates_events": false
+ "metrics":
+ "check": "spark.job.count"
+ "metadata_path": "metadata.csv"
+ "prefix": "spark."
+ "process_signatures":
+ - "java org.apache.spark.deploy.SparkSubmit"
+ - "java org.apache.spark.deploy.worker.Worker"
+ - "java org.apache.spark.deploy.master.Master"
+ "service_checks":
+ "metadata_path": "assets/service_checks.json"
+ "source_type_id": !!int "142"
+ "source_type_name": "Spark"
+"author":
+ "homepage": "https://www.datadoghq.com"
+ "name": "Datadog"
+ "sales_email": "info@datadoghq.com"
+ "support_email": "help@datadoghq.com"
+"categories":
+- "log collection"
+"custom_kind": "integración"
+"dependencies":
+- "https://github.com/DataDog/integrations-core/blob/master/spark/README.md"
+"display_on_public_website": true
+"draft": false
+"git_integration_title": "spark"
+"integration_id": "spark"
+"integration_title": "Spark"
+"integration_version": "6.4.0"
+"is_public": true
+"manifest_version": "2.0.0"
+"name": "spark"
+"public_title": "Spark"
+"short_description": "Rastrea los índices de tareas fallidas, bytes aleatorios y mucho más".
+"supported_os":
+- "linux"
+- "windows"
+- "macos"
+"tile":
+ "changelog": "CHANGELOG.md"
+ "classifier_tags":
+ - "Category::Log Collection"
+ - "Supported OS::Linux"
+ - "Supported OS::Windows"
+ - "Supported OS::macOS"
+ - "Offering::Integration"
+ "configuration": "README.md#Setup"
+ "description": "Rastrea los índices de tareas fallidas, bytes aleatorios y mucho más".
+ "media": []
+ "overview": "README.md#Overview"
+ "resources":
+ - "resource_type": "blog"
+ "url": "https://www.datadoghq.com/blog/data-jobs-monitoring/"
+ - "resource_type": "blog"
+ "url": "https://www.datadoghq.com/blog/data-observability-monitoring/"
+ - "resource_type": "blog"
+ "url": "https://www.datadoghq.com/blog/monitoring-spark"
+ - "resource_type": "blog"
+ "url": "https://www.datadoghq.com/blog/spark-emr-monitoring/"
+ "support": "README.md#Support"
+ "title": "Spark"
+---
+
+
+
+
+
+
Data Jobs Monitoring te ayuda a observar, solucionar problemas y optimizar los costes de tus trabajos de Spark y Databricks y clústeres.
+Esta página solo documenta cómo ingerir métricas y logs de Spark.
+
+
+![Gráfico de Spark][1]
+
+## Información general
+
+Este check monitoriza [Spark][2] a través del Datadog Agent. Recopila métricas de Spark para:
+
+- Controladores y ejecutores: bloques RDD, memoria utilizada, disco utilizado, duración, etc.
+- RDDs: recuento de particiones, memoria utilizada y disco utilizado.
+- Tareas: número de tareas activas, omitidas, fallidas y totales.
+- Estado del trabajo: número de trabajos activos, completados, omitidos y fallidos.
+
+## Configuración
+
+### Instalación
+
+El check de Spark está incluido en el paquete del [Datadog Agent][3]. No es necesaria ninguna instalación adicional en tu nodo maestro de Mesos (para Spark on Mesos), YARN ResourceManager (para Spark on YARN), o nodo maestro de Spark (para Spark Standalone).
+
+### Configuración
+
+{{< tabs >}}
+{{% tab "Host" %}}
+
+#### Host
+
+Para configurar este check para un Agent que se ejecuta en un host:
+
+1. Edita el archivo `spark.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la [raíz del directorio de configuración del Agent][1]. Puede que sea necesario actualizar los siguientes parámetros. Para conocer todas las opciones de configuración disponibles, consulta el [spark.d/conf.yaml de ejemplo][2].
+
+ ```yaml
+ init_config:
+
+ instances:
+ - spark_url: http://localhost:8080 # Spark master web UI
+ # spark_url: http://:5050 # Mesos master web UI
+ # spark_url: http://:8088 # YARN ResourceManager address
+
+ spark_cluster_mode: spark_yarn_mode # default
+ # spark_cluster_mode: spark_mesos_mode
+ # spark_cluster_mode: spark_yarn_mode
+ # spark_cluster_mode: spark_driver_mode
+
+ # required; adds a tag 'cluster_name:' to all metrics
+ cluster_name: ""
+ # spark_pre_20_mode: true # if you use Standalone Spark < v2.0
+ # spark_proxy_enabled: true # if you have enabled the spark UI proxy
+ ```
+
+2. [Reinicia el Agent][3].
+
+[1]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory
+[2]: https://github.com/DataDog/integrations-core/blob/master/spark/datadog_checks/spark/data/conf.yaml.example
+[3]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+{{% /tab %}}
+{{% tab "Contenedorizado" %}}
+
+#### Contenedores
+
+Para entornos en contenedores, consulta las plantillas de integración de Autodiscovery, ya sea para [Docker][1] o [Kubernetes][2], para obtener orientación sobre la aplicación de los parámetros que se indican a continuación.
+
+| Parámetro | Valor |
+| -------------------- | ----------------------------------------------------------------- |
+| `` | `spark` |
+| `` | en blanco o `{}` |
+| `` | `{"spark_url": "%%host%%:8080", "cluster_name":""}` |
+
+[1]: https://docs.datadoghq.com/containers/docker/integrations/
+[2]: https://docs.datadoghq.com/agent/kubernetes/integrations/
+{{% /tab %}}
+{{< /tabs >}}
+
+### Recopilación de logs
+
+1. La recopilación de logs está desactivada por defecto en el Datadog Agent, actívala en tu archivo `datadog.yaml`:
+
+ ```yaml
+ logs_enabled: true
+ ```
+
+2. Anula los comentarios y edita el bloque de configuración de logs en tu archivo `spark.d/conf.yaml`. Cambia los valores de los parámetros `type`, `path` y `service` en función de tu entorno. Consulta [spark.d/.yaml de ejemplo][4] para conocer todas las opciones disponibles de configuración.
+
+ ```yaml
+ logs:
+ - type: file
+ path:
+ source: spark
+ service:
+ # To handle multi line that starts with yyyy-mm-dd use the following pattern
+ # log_processing_rules:
+ # - type: multi_line
+ # pattern: \d{4}\-(0?[1-9]|1[012])\-(0?[1-9]|[12][0-9]|3[01])
+ # name: new_log_start_with_date
+ ```
+
+3. [Reinicia el Agent][5].
+
+Para habilitar los logs para entornos de Docker, consulta [recopilación de logs de Docker][6].
+
+### Validación
+
+[Ejecuta el subcomando de estado del Agent][7] y busca `spark` en la sección Checks.
+
+## Datos recopilados
+
+### Métricas
+{{< get-metrics-from-git "spark" >}}
+
+
+### Eventos
+
+El check de Spark no incluye ningún evento.
+
+### Checks de servicio
+{{< get-service-checks-from-git "spark" >}}
+
+
+## Solucionar problemas
+
+### Spark en Amazon EMR
+
+Para recibir métricas para Spark en Amazon EMR, [utiliza acciones de arranque][8] para instalar el [Agent][9]:
+
+Para Agent v5, crea el archivo de configuración `/etc/dd-agent/conf.d/spark.yaml` con los [valores adecuados en cada nodo de EMR][10].
+
+Para Agent v6/7, crea el archivo de configuración `/etc/datadog-agent/conf.d/spark.d/conf.yaml` con los [valores adecuados en cada nodo de EMR][10].
+
+### Check finalizado con éxito, pero no se recopilaron métricas
+
+La integración de Spark solo recopila métricas sobre las aplicaciones en ejecución. Si no tienes ninguna aplicación en ejecución, el check se limitará a enviar un check de estado.
+
+## Referencias adicionales
+
+Más enlaces, artículos y documentación útiles:
+
+- [Monitorización de Hadoop y Spark con Datadog][11]
+- [Monitorización de aplicaciones de Apache Spark ejecutadas en Amazon EMR][12]
+
+
+[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/spark/images/sparkgraph.png
+[2]: https://spark.apache.org/
+[3]: https://app.datadoghq.com/account/settings/agent/latest
+[4]: https://github.com/DataDog/integrations-core/blob/master/spark/datadog_checks/spark/data/conf.yaml.example
+[5]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[6]: https://docs.datadoghq.com/agent/docker/log/
+[7]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information
+[8]: https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-bootstrap.html
+[9]: https://docs.datadoghq.com/agent/
+[10]: https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-connect-master-node-ssh.html
+[11]: https://www.datadoghq.com/blog/monitoring-spark
+[12]: https://www.datadoghq.com/blog/spark-emr-monitoring/
diff --git a/content/es/integrations/sqlserver.md b/content/es/integrations/sqlserver.md
new file mode 100644
index 0000000000000..17eebbd31187e
--- /dev/null
+++ b/content/es/integrations/sqlserver.md
@@ -0,0 +1,314 @@
+---
+"app_id": "sql-server"
+"app_uuid": "bfa2f276-da05-4153-b8d4-48d4e41f5e40"
+"assets":
+ "dashboards":
+ "SQLServer-AlwaysOn": "assets/dashboards/SQLServer-AlwaysOn_dashboard.json"
+ "SQLServer-Overview": "assets/dashboards/SQLServer-Overview_dashboard.json"
+ "sqlserver": "assets/dashboards/sqlserver_dashboard.json"
+ "integration":
+ "auto_install": true
+ "configuration":
+ "spec": "assets/configuration/spec.yaml"
+ "events":
+ "creates_events": false
+ "metrics":
+ "check": "sqlserver.stats.connections"
+ "metadata_path": "metadata.csv"
+ "prefix": "sqlserver."
+ "service_checks":
+ "metadata_path": "assets/service_checks.json"
+ "source_type_id": !!int "45"
+ "source_type_name": "SQL Server"
+ "monitors":
+ "Auto-parameterization attempts are failing": "assets/monitors/sqlserver_high_number_failed_auto_param.json"
+ "Availability Group is not healthy": "assets/monitors/sqlserver_ao_not_healthy.json"
+ "Availability group failover detected": "assets/monitors/sqlserver_ao_failover.json"
+ "Database is not online": "assets/monitors/sqlserver_db_not_online.json"
+ "Database not in sync": "assets/monitors/sqlserver_db_not_sync.json"
+ "Processes are blocked": "assets/monitors/sqlserver_high_processes_blocked.json"
+"author":
+ "homepage": "https://www.datadoghq.com"
+ "name": "Datadog"
+ "sales_email": "info@datadoghq.com"
+ "support_email": "help@datadoghq.com"
+"categories":
+- "data stores"
+- "log collection"
+"custom_kind": "integración"
+"dependencies":
+- "https://github.com/DataDog/integrations-core/blob/master/sqlserver/README.md"
+"display_on_public_website": verdadero
+"draft": falso
+"git_integration_title": "sqlserver"
+"integration_id": "sql-server"
+"integration_title": "SQL Server"
+"integration_version": "22.7.0"
+"is_public": verdadero
+"manifest_version": "2.0.0"
+"name": "sqlserver"
+"public_title": "SQL Server"
+"short_description": "Recopila métricas de rendimiento y estado importantes de SQL Server".
+"supported_os":
+- "linux"
+- "macos"
+- "windows"
+"tile":
+ "changelog": "CHANGELOG.md"
+ "classifier_tags":
+ - "Supported OS::Linux"
+ - "Supported OS::macOS"
+ - "Supported OS::Windows"
+ - "Category::Almacenes de datos"
+ - "Category::Recopilación de logs"
+ - "Offering::Integration"
+ "configuration": "README.md#Setup"
+ "description": "Recopila métricas de rendimiento y estado importantes de SQL Server".
+ "media": []
+ "overview": "README.md#Overview"
+ "resources":
+ - "resource_type": "blog"
+ "url": "https://www.datadoghq.com/blog/monitor-azure-sql-databases-datadog"
+ - "resource_type": "blog"
+ "url": "https://www.datadoghq.com/blog/sql-server-monitoring"
+ - "resource_type": "blog"
+ "url": "https://www.datadoghq.com/blog/sql-server-monitoring-tools"
+ - "resource_type": "blog"
+ "url": "https://www.datadoghq.com/blog/sql-server-performance"
+ - "resource_type": "blog"
+ "url": "https://www.datadoghq.com/blog/sql-server-metrics"
+ - "resource_type": "blog"
+ "url": "https://www.datadoghq.com/blog/migrate-sql-workloads-to-azure-with-datadog/"
+ "support": "README.md#Support"
+ "title": "SQL Server"
+---
+
+
+
+
+![Gráfico de SQL Server][1]
+
+## Información general
+
+La integración de SQL Server realiza un seguimiento del rendimiento de las instancias de SQL Server. Recopila métricas para el número de conexiones de usuario, la tasa de compilaciones de SQL y mucho más.
+
+Activa la [Monitorización de base de datos][2] (DBM) para obtener una visión mejorada del rendimiento de las consultas y del estado de la base de datos. Además de la integración estándar, Datadog DBM proporciona métricas a nivel de consulta, snapshots de consultas en tiempo real e históricas, análisis de eventos de espera, carga de la base de datos, planes de explicación de consultas e información sobre consultas de bloqueo.
+
+SQL Server 2012, 2014, 2016, 2017, 2019 y 2022 son compatibles.
+
+## Configuración
+
+
+
+### Instalación
+
+El check de SQL Server se incluye en el paquete del [Datadog Agent][3]. No es necesaria ninguna instalación adicional en tus instancias de SQL Server.
+
+Asegúrate de que tu instancia de SQL Server admite la autenticación de SQL Server activando el "Modo de autenticación de SQL Server y Windows" en las propiedades del servidor:
+
+_Propiedades del servidor_ -> _Seguridad_ -> _Modo de autenticación de SQL Server y Windows_
+
+### Requisito previo
+
+**Nota**: Para instalar la Monitorización de base de datos para SQL Server, selecciona tu solución de alojamiento en el [sitio de documentación][4] para obtener instrucciones.
+
+Las versiones de SQL Server admitidas para el check de SQL Server son las mismas que para la Monitorización de base de datos. Visita la página [Configuración de SQL Server][5] para ver las versiones soportadas actualmente bajo el título **Autoalojado**.
+
+Procede con los siguientes pasos de esta guía solo si vas a instalar la integración estándar únicamente.
+
+1. Crea un inicio de sesión de sólo lectura para conectarse a tu servidor:
+
+ ```SQL
+ CREATE LOGIN datadog WITH PASSWORD = '';
+ USE master;
+ CREATE USER datadog FOR LOGIN datadog;
+ GRANT SELECT on sys.dm_os_performance_counters to datadog;
+ GRANT VIEW SERVER STATE to datadog;
+ ```
+
+ Para recopilar métricas del tamaño del archivo por base de datos, asegúrate de que el usuario que has creado (`datadog`) tiene [acceso con permiso de conexión][6] a tus bases de datos ejecutando:
+
+ ```SQL
+ GRANT CONNECT ANY DATABASE to datadog;
+ ```
+
+2. (Necesario para AlwaysOn y métricas `sys.master_files`) Para reunir AlwaysOn y métricas `sys.master_files`, concede el siguiente permiso adicional:
+
+ ```SQL
+ GRANT VIEW ANY DEFINITION to datadog;
+ ```
+
+### Configuración
+
+{{< tabs >}}
+{{% tab "Host" %}}
+
+#### host
+
+Para configurar este check para un Agent que se ejecuta en un host:
+
+1. Edita el archivo `sqlserver.d/conf.yaml` en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][1]. Para conocer todas las opciones de configuración disponibles, consulta el [sqlserver.d/conf.yaml de ejemplo][2].
+
+ ```yaml
+ init_config:
+
+ instances:
+ - host: ","
+ username: datadog
+ password: ""
+ connector: adodbapi
+ adoprovider: MSOLEDBSQL19 # Replace with MSOLEDBSQL for versions 18 and previous
+ ```
+
+ Si utilizas el Autodiscovery de puerto, utiliza `0` para `SQL_PORT`. Consulta la [configuración de check de ejemplo][2] para obtener una descripción completa de todas las opciones, incluido cómo utilizar consultas personalizadas para crear tus propias métricas.
+
+ Utiliza [controladores compatibles][3] en función de tu configuración de SQL Server.
+
+ **Nota**: También es posible utilizar la autenticación de Windows y no especificar el nombre de usuario/contraseña con:
+
+ ```yaml
+ connection_string: "Trusted_Connection=yes"
+ ```
+
+
+2. [Reinicia el Agent][4].
+
+##### Linux
+
+Se requieren pasos adicionales en la configuración para que la integración de SQL Server funcione en el host de Linux:
+
+1. Instala un controlador ODBC SQL Server, por ejemplo el [controlador ODBC de Microsoft][5] o el [controlador FreeTDS][6].
+2. Copia los archivos `odbc.ini` y `odbcinst.ini` en la carpeta `/opt/datadog-agent/embedded/etc`.
+3. Configura el archivo `conf.yaml` para utilizar el conector `odbc` y especifica el controlador adecuado como se indica en el archivo `odbcinst.ini`.
+
+##### Recopilación de logs
+
+_Disponible para las versiones 6.0 o posteriores del Agent_
+
+1. La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent, actívala en tu archivo `datadog.yaml`:
+
+ ```yaml
+ logs_enabled: true
+ ```
+
+2. Añade este bloque de configuración a tu archivo `sqlserver.d/conf.yaml` para empezar a recopilar tus logs de SQL Server:
+
+ ```yaml
+ logs:
+ - type: file
+ encoding: utf-16-le
+ path: ""
+ source: sqlserver
+ service: ""
+ ```
+
+ Cambia los valores de los parámetros `path` y `service` en función de tu entorno. Consulta el [sqlserver.d/conf.yaml de ejemplo][2] para ver todas las opciones disponibles de configuración.
+
+3. [Reinicia el Agent][4].
+
+[1]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory
+[2]: https://github.com/DataDog/integrations-core/blob/master/sqlserver/datadog_checks/sqlserver/data/conf.yaml.example
+[3]: https://docs.datadoghq.com/database_monitoring/setup_sql_server/selfhosted/#supported-drivers
+[4]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[5]: https://docs.microsoft.com/en-us/sql/connect/odbc/linux-mac/installing-the-microsoft-odbc-driver-for-sql-server?view=sql-server-2017
+[6]: http://www.freetds.org/
+{{% /tab %}}
+{{% tab "Contenedores" %}}
+
+#### En contenedores
+
+Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][1] para obtener orientación sobre la aplicación de los parámetros que se indican a continuación.
+
+##### Recopilación de métricas
+
+| Parámetro | Valor |
+| -------------------- | -------------------------------------------------------------------------------------------------------------------------------- |
+| `` | `sqlserver` |
+| `` | en blanco o `{}` |
+| `` | `{"host": "%%host%%,%%port%%", "username": "datadog", "password": "", "connector": "odbc", "driver": "FreeTDS"}` |
+
+Consulta [Variables de plantilla de Autodiscovery][2] para obtener más detalles sobre cómo pasar `` como una variable de entorno en lugar de una etiqueta (label).
+
+##### Recopilación de logs
+
+_Disponible para las versiones 6.0 o posteriores del Agent_
+
+La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta la [recopilación de logs de Kubernetes][3].
+
+| Parámetro | Valor |
+| -------------- | ------------------------------------------------- |
+| `` | `{"source": "sqlserver", "service": "sqlserver"}` |
+
+[1]: https://docs.datadoghq.com/agent/kubernetes/integrations/
+[2]: https://docs.datadoghq.com/agent/faq/template_variables/
+[3]: https://docs.datadoghq.com/agent/kubernetes/log/
+{{% /tab %}}
+{{< /tabs >}}
+
+### Validación
+
+[Ejecuta el subcomando de estado del Agent][9] y busca `sqlserver` en la sección Checks.
+
+## Datos recopilados
+
+### Métricas
+{{< get-metrics-from-git "sqlserver" >}}
+
+
+La mayoría de estas métricas proceden de la tabla `sys.dm_os_performance_counters` de tu SQL Server.
+
+### Eventos
+
+El check de SQL Server no incluye ningún evento.
+
+### Checks de servicio
+{{< get-service-checks-from-git "sqlserver" >}}
+
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8].
+
+Si estás ejecutando el Agent en un procesador ARM aarch64, existe un problema conocido que comienza en la versión 14.0.0 de este check, que se incluye con el Agent versión 7.48.0. Una dependencia de Python falla al cargarse y verás el siguiente mensaje al ejecutar [el subcomando de estado del Agent][7]:
+
+```
+Loading Errors
+ ==============
+ sqlserver
+ ---------
+ Core Check Loader:
+ Check sqlserver not found in Catalog
+ JMX Check Loader:
+ check is not a jmx check, or unable to determine if it's so
+ Python Check Loader:
+ unable to import module 'sqlserver': No module named 'sqlserver'
+```
+
+Esto se ha solucionado en la versión 15.2.0 del check y en las versiones 7.49.1 y posteriores del Agent.
+
+## Referencias adicionales
+
+- [Monitoriza tus bases de datos de Azure SQL con Datadog][9]
+- [Métricas clave para la monitorización de SQL Server][10]
+- [Herramientas de monitorización de SQL Server][11]
+- [Monitorizar el rendimiento de SQL Server con Datadog][12]
+- [Métricas personalizadas de SQL Server para una monitorización detallada][13]
+- [Hacer una estrategia para tu migración de Azure para cargas de trabajo de SQL con Datadog][14]
+- [Optimizar el rendimiento de SQL Server con la monitorización de base de datos de Datadog][15]
+
+
+[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/sqlserver/images/sqlserver_dashboard_02_2024.png
+[2]: https://docs.datadoghq.com/database_monitoring/
+[3]: https://app.datadoghq.com/account/settings/agent/latest
+[4]: https://docs.datadoghq.com/database_monitoring/#sqlserver
+[5]: https://docs.datadoghq.com/database_monitoring/setup_sql_server/
+[6]: https://docs.microsoft.com/en-us/sql/t-sql/statements/grant-server-permissions-transact-sql?view=sql-server-ver15
+[7]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information
+[8]: https://docs.datadoghq.com/help/
+[9]: https://www.datadoghq.com/blog/monitor-azure-sql-databases-datadog
+[10]: https://www.datadoghq.com/blog/sql-server-monitoring
+[11]: https://www.datadoghq.com/blog/sql-server-monitoring-tools
+[12]: https://www.datadoghq.com/blog/sql-server-performance
+[13]: https://www.datadoghq.com/blog/sql-server-metrics
+[14]: https://www.datadoghq.com/blog/migrate-sql-workloads-to-azure-with-datadog/
+[15]: https://www.datadoghq.com/blog/optimize-sql-server-performance-with-datadog/
diff --git a/content/es/integrations/teamcity.md b/content/es/integrations/teamcity.md
new file mode 100644
index 0000000000000..c035ded48708e
--- /dev/null
+++ b/content/es/integrations/teamcity.md
@@ -0,0 +1,316 @@
+---
+"app_id": "teamcity"
+"app_uuid": "8dd65d36-9cb4-4295-bb0c-68d67c0cdd4b"
+"assets":
+ "dashboards":
+ "TeamCity Overview": "assets/dashboards/overview.json"
+ "integration":
+ "auto_install": true
+ "configuration":
+ "spec": "assets/configuration/spec.yaml"
+ "events":
+ "creates_events": true
+ "metrics":
+ "check":
+ - "teamcity.builds"
+ - "teamcity.build_duration"
+ "metadata_path": "metadata.csv"
+ "prefix": "teamcity."
+ "process_signatures":
+ - "teamcity-server.sh"
+ - "teamcity-server"
+ "service_checks":
+ "metadata_path": "assets/service_checks.json"
+ "source_type_id": !!int "109"
+ "source_type_name": "Teamcity"
+ "monitors":
+ "Builds are failing": "assets/monitors/build_status.json"
+ "saved_views":
+ "teamcity_processes": "assets/saved_views/teamcity_processes.json"
+"author":
+ "homepage": "https://www.datadoghq.com"
+ "name": "Datadog"
+ "sales_email": "info@datadoghq.com"
+ "support_email": "help@datadoghq.com"
+"categories":
+- "configuration & deployment"
+- "log collection"
+- "notifications"
+"custom_kind": "integración"
+"dependencies":
+- "https://github.com/DataDog/integrations-core/blob/master/teamcity/README.md"
+"display_on_public_website": true
+"draft": false
+"git_integration_title": "teamcity"
+"integration_id": "teamcity"
+"integration_title": "TeamCity"
+"integration_version": "6.1.0"
+"is_public": true
+"manifest_version": "2.0.0"
+"name": "teamcity"
+"public_title": "TeamCity"
+"short_description": "Realiza un seguimiento de las compilaciones y comprende el impacto en el rendimiento de cada despliegue".
+"supported_os":
+- "linux"
+- "windows"
+- "macos"
+"tile":
+ "changelog": "CHANGELOG.md"
+ "classifier_tags":
+ - "Category::Configuration & Deployment"
+ - "Category::Log Collection"
+ - "Category::Notifications"
+ - "Supported OS::Linux"
+ - "Supported OS::Windows"
+ - "Supported OS::macOS"
+ - "Offering::Integration"
+ "configuration": "README.md#Setup"
+ "description": "Realiza un seguimiento de las compilaciones y comprende el impacto en el rendimiento de cada despliegue".
+ "media": []
+ "overview": "README.md#Overview"
+ "resources":
+ - "resource_type": "blog"
+ "url": "https://www.datadoghq.com/blog/track-performance-impact-of-code-changes-with-teamcity-and-datadog"
+ "support": "README.md#Support"
+ "title": "TeamCity"
+---
+
+
+
+
+## Información general
+
+Esta integración se conecta a tu servidor de TeamCity para enviar métricas, checks de servicio y eventos, lo que te permite monitorizar el estado de las configuraciones de compilación de tus proyectos de TeamCity, las ejecuciones de compilación, los recursos del servidor y mucho más.
+
+## Configuración
+
+### Instalación
+
+El check de TeamCity está incluido en el paquete del [Datadog Agent][1], por lo que no necesitas instalar nada más en tus servidores de TeamCity.
+
+### Configuración
+
+#### Preparar TeamCity
+
+Puedes activar el [inicio de sesión de invitado](#guest-login), o identificar [credenciales de usuario](#user-credentials) para la autenticación HTTP básica.
+
+##### Inicio de sesión de invitado
+
+1. [Activar el inicio de sesión de invitado][2].
+
+2. Habilita `Per-project permissions` para permitir la asignación de permisos basados en proyectos al usuario invitado. Consulta [Cambiar el modo de autorización][3].
+![Activar inicio de sesión de invitado][4]
+3. Utiliza un rol existente o crea uno nuevo de solo lectura y añade el permiso `View Usage Statistics` al rol. Consulta [Gestión de roles y permisos][5].
+![Crear rol de solo lectura][6]
+
+3. _[Opcional]_ Para permitir que el check detecte automáticamente el tipo de configuración de la compilación durante la recopilación de eventos, añade el permiso `View Build Configuration Settings` al rol de solo lectura.
+![Asignar permiso de configuración de vista de compilación][7]
+
+4. Asigna el rol de solo lectura al usuario invitado. Consulta [Asignación de roles a los usuarios][8].
+![Configuración del usuario invitado][9]
+![Asignar rol][10]
+
+##### Credenciales de usuario
+
+Para la autenticación HTTP básica
+- Especifica un `username` identificado y `password` en el archivo `teamcity.d/conf.yaml` en la carpeta `conf.d/` de tu [directorio de configuración del Agent][11].
+- Si encuentras un error `Access denied. Enable guest authentication or check user permissions.`, asegúrate de que el usuario tiene los permisos correctos:
+ - Permisos Por proyecto y Ver estadísticas de uso activados.
+ - Si estás recopilando estadísticas de carga útil del Agent, asigna también los permisos Ver detalles del Agent y Ver estadísticas de uso del Agent.
+
+{{< tabs >}}
+{{% tab "Host" %}}
+
+#### Host
+
+Para configurar este check para un Agent que se ejecuta en un host:
+
+Edita el archivo `teamcity.d/conf.yaml` en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][1]. Para conocer todas las opciones de configuración disponibles, consulta el [teamcity.d/conf.yaml de ejemplo][2]:
+
+El check de TeamCity ofrece dos métodos de recopilación de datos. Para optimizar la monitorización de tu entorno de TeamCity, configura dos instancias separadas para recopilar métricas de cada método.
+
+1. Método de OpenMetrics (requiere Python versión 3):
+
+ Habilita `use_openmetrics: true` para recopilar métricas desde el endpoint de Prometheus`/metrics` de TeamCity.
+
+ ```yaml
+ init_config:
+
+ instances:
+ - use_openmetrics: true
+
+ ## @param server - string - required
+ ## Specify the server name of your TeamCity instance.
+ ## Enable Guest Authentication on your instance or specify `username` and `password` to
+ ## enable basic HTTP authentication.
+ #
+ server: http://teamcity..com
+ ```
+
+ Para recopilar métricas de histograma y resumen [conformes con OpenMetrics][3] (disponible a partir de TeamCity Server 2022.10+), añade la propiedad interna, `teamcity.metrics.followOpenMetricsSpec=true`. Consulta [Propiedades internas de TeamCity][4].
+
+2. Método API REST de TeamCity Server (requiere Python versión 3):
+
+ Configura una instancia separada en el archivo `teamcity.d/conf.yaml` para recopilar métricas específicas de la compilación, checks de servicio y eventos de estado de la compilación de la API REST del servidor TeamCity. Especifica tus proyectos y configuraciones de compilación utilizando la opción `projects`.
+
+ ```yaml
+ init_config:
+
+ instances:
+ - server: http://teamcity..com
+
+ ## @param projects - mapping - optional
+ ## Mapping of TeamCity projects and build configurations to
+ ## collect events and metrics from the TeamCity REST API.
+ #
+ projects:
+ :
+ include:
+ -
+ -
+ exclude:
+ -
+ :
+ include:
+ -
+ : {}
+ ```
+
+Personaliza la monitorización de la configuración de compilación de cada proyecto utilizando los filtros opcionales `include` y `exclude` para especificar IDs de configuración de la compilación para incluir o excluir de la monitorización, respectivamente. Se admiten patrones de expresión regular en las claves `include` y `exclude` para especificar patrones de coincidencia de ID de la configuración de la compilación. Si se omiten los filtros `include` y `exclude`, todas las configuraciones de compilación se monitorean para el proyecto especificado.
+
+Para Python versión 2, configura un ID de configuración de compilación por instancia utilizando la opción `build_configuration`:
+
+```yaml
+init_config:
+
+instances:
+ - server: http://teamcity..com
+
+ ## @param projects - mapping - optional
+ ## Mapping of TeamCity projects and build configurations to
+ ## collect events and metrics from the TeamCity REST API.
+ #
+ build_configuration:
+```
+
+[Reinicia el Agent][5] para empezar a recopilar y enviar eventos de TeamCity a Datadog.
+
+##### Recopilación de logs
+
+1. Establecer la [configuración de registro][6] de TeamCity.
+
+2. Por defecto, el pipeline de la integración de Datadog admite el siguiente tipo de formato de log:
+
+ ```text
+ [2020-09-10 21:21:37,486] INFO - jetbrains.buildServer.STARTUP - Current stage: System is ready
+ ```
+
+ Clona y edita el [pipeline de integración][7] si has definido diferentes [patrones] de conversión[8].
+
+3. La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en tu archivo `datadog.yaml`:
+
+ ```yaml
+ logs_enabled: true
+ ```
+
+4. Anula los comentarios del bloque de configuración siguiente en tu archivo `teamcity.d/conf.yaml`. Cambia el valor de los parámetros `path` según tu entorno. Consulta el [teamcity.d/conf.yaml de ejemplol][2] para ver todas las opciones de configuración disponibles.
+
+ ```yaml
+ logs:
+ - type: file
+ path: /opt/teamcity/logs/teamcity-server.log
+ source: teamcity
+ - type: file
+ path: /opt/teamcity/logs/teamcity-activities.log
+ source: teamcity
+ - type: file
+ path: /opt/teamcity/logs/teamcity-vcs.log
+ source: teamcity
+ - type: file
+ path: /opt/teamcity/logs/teamcity-cleanup.log
+ source: teamcity
+ - type: file
+ path: /opt/teamcity/logs/teamcity-notifications.log
+ source: teamcity
+ - type: file
+ path: /opt/teamcity/logs/teamcity-ws.log
+ source: teamcity
+ ```
+
+5. [Reinicia el Agent][5].
+
+[1]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory
+[2]: https://github.com/DataDog/integrations-core/blob/master/teamcity/datadog_checks/teamcity/data/conf.yaml.example
+[3]: https://github.com/OpenObservability/OpenMetrics/blob/main/specification/OpenMetrics.md
+[4]: https://www.jetbrains.com/help/teamcity/server-startup-properties.html#TeamCity+Internal+Properties
+[5]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[6]: https://www.jetbrains.com/help/teamcity/teamcity-server-logs.html
+[7]: https://docs.datadoghq.com/logs/log_configuration/pipelines/#integration-pipelines
+[8]: https://logging.apache.org/log4j/2.x/manual/layouts.html#Patterns
+{{% /tab %}}
+{{% tab "Contenedorizado" %}}
+
+#### Contenedores
+
+Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][1] para obtener orientación sobre la aplicación de los parámetros que se indican a continuación.
+
+| Parámetro | Valor |
+| -------------------- | ------------------------------------------------------------------------------------------------- |
+| `` | `teamcity` |
+| `` | en blanco o `{}` |
+| `` | `{"server": "%%host%%", "use_openmetrics": "true"}` |
+
+##### Recopilación de logs
+
+La recopilación de logs está deshabilitada por defecto en el Datadog Agent. Para activarla, consulta [Recopilación de logs de Kubernetes][2].
+
+| Parámetro | Valor |
+| -------------- | ---------------------------------------------------- |
+| `` | `{"source": "teamcity"}` |
+
+[1]: https://docs.datadoghq.com/agent/kubernetes/integrations/
+[2]: https://docs.datadoghq.com/agent/kubernetes/log/
+{{% /tab %}}
+{{< /tabs >}}
+
+### Validación
+
+[Ejecuta el subcomando `status` del Agent][12] y busca `teamcity` en la sección Checks.
+
+## Datos recopilados
+
+### Métricas
+{{< get-metrics-from-git "teamcity" >}}
+
+
+### Eventos
+
+Los eventos de TeamCity que representan las compilaciones exitosas y fallidas se envían a Datadog.
+
+### Checks de servicio
+{{< get-service-checks-from-git "teamcity" >}}
+
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][13].
+
+## Referencias adicionales
+
+- [Seguimiento del impacto en el rendimiento de los cambios de código con TeamCity y Datadog][14]
+
+
+[1]: https://app.datadoghq.com/account/settings/agent/latest
+[2]: https://www.jetbrains.com/help/teamcity/enabling-guest-login.html
+[3]: https://www.jetbrains.com/help/teamcity/managing-roles-and-permissions.html#Changing+Authorization+Mode
+[4]: https://raw.githubusercontent.com/DataDog/integrations-core/master/teamcity/images/authentication.jpg
+[5]: https://www.jetbrains.com/help/teamcity/managing-roles-and-permissions.html
+[6]: https://raw.githubusercontent.com/DataDog/integrations-core/master/teamcity/images/create_role.jpg
+[7]: https://raw.githubusercontent.com/DataDog/integrations-core/master/teamcity/images/build_config_permissions.jpg
+[8]: https://www.jetbrains.com/help/teamcity/creating-and-managing-users.html#Assigning+Roles+to+Users
+[9]: https://raw.githubusercontent.com/DataDog/integrations-core/master/teamcity/images/guest_user_settings.jpg
+[10]: https://raw.githubusercontent.com/DataDog/integrations-core/master/teamcity/images/assign_role.jpg
+[11]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory
+[12]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information
+[13]: https://docs.datadoghq.com/help/
+[14]: https://www.datadoghq.com/blog/track-performance-impact-of-code-changes-with-teamcity-and-datadog
diff --git a/content/es/integrations/tyk.md b/content/es/integrations/tyk.md
index 6046b49e6992f..417c9421f54c5 100644
--- a/content/es/integrations/tyk.md
+++ b/content/es/integrations/tyk.md
@@ -29,7 +29,7 @@ author:
support_email: yaara@tyk.io
categories:
- métricas
-custom_kind: integration
+custom_kind: integración
dependencies:
- https://github.com/DataDog/integrations-extras/blob/master/tyk/README.md
display_on_public_website: true
@@ -118,7 +118,7 @@ pump.conf:
"dogstatsd": {
"type": "dogstatsd",
"meta": {
- "address": "dd-agent:8126",
+ "address": "dd-agent:8125",
"namespace": "tyk",
"async_uds": true,
"async_uds_write_timeout_seconds": 2,
diff --git a/content/es/integrations/win32_event_log.md b/content/es/integrations/win32_event_log.md
index 925da26f13745..0d1c42f84cc12 100644
--- a/content/es/integrations/win32_event_log.md
+++ b/content/es/integrations/win32_event_log.md
@@ -33,7 +33,7 @@ draft: false
git_integration_title: win32_event_log
integration_id: event-viewer
integration_title: Log de eventos de Windows
-integration_version: 5.0.0
+integration_version: 5.2.1
is_public: true
manifest_version: 2.0.0
name: win32_event_log
@@ -188,7 +188,7 @@ Para recopilar logs de eventos de Windows como eventos de Datadog, configura can
```yaml
init_config:
instances:
- - # API de logs de eventos
+ - # Event Log API
path: Security
legacy_mode: false
filters: {}
@@ -204,7 +204,7 @@ Las versiones 7.49 y posteriores del Agent permiten configurar `legacy_mode` en
init_config:
legacy_mode: false
instances:
- - # API de logs de eventos
+ - # Event Log API
path: Security
filters: {}
@@ -225,7 +225,7 @@ Para recopilar logs de eventos de Windows como eventos de Datadog, configura can
```yaml
init_config:
instances:
- - # WMI (por defecto)
+ - # WMI (default)
legacy_mode: true
log_file:
- Security
@@ -266,7 +266,7 @@ Datadog recomienda crear y probar la consulta en el editor de filtros del Visor
A continuación, copia y pega la consulta en la configuración del Agent.
```yaml
- # recopilar eventos Críticos, de Advertencia y de Error
+ # collect Critical, Warning, and Error events
- type: windows_event
channel_path: Application
source: windows.events
@@ -447,7 +447,7 @@ Puedes utilizar la [opción`query`][2] para filtrar eventos con [consultas XPATH
```yaml
init_config:
instances:
- # recopilar eventos Críticos, de Advertencia y de Error
+ # collect Critical, Warning, and Error events
- path: Application
legacy_mode: false
query: '*[System[(Level=1 or Level=2 or Level=3)]]'
diff --git a/content/es/llm_observability/monitoring/_index.md b/content/es/llm_observability/monitoring/_index.md
index e172c52b080f9..a992656a90dec 100644
--- a/content/es/llm_observability/monitoring/_index.md
+++ b/content/es/llm_observability/monitoring/_index.md
@@ -1,9 +1,77 @@
---
+description: Explorar aún más tu aplicación en LLM Observability.
title: Monitorización
---
-{{< whatsnext desc="Esta sección incluye los siguientes temas:">}}
- {{< nextlink href="/llm_observability/monitoring/llm_observability_and_apm">}}Conecta LLM Observability con APM: vincular tramos de LLM Observability con tramos de Datadog APM{{< /nextlink >}}
- {{< nextlink href="/llm_observability/monitoring/cluster_map">}}Mapa de clúster: uso de la visualización del Mapa de clúster de LLM Observability{{< /nextlink >}}
- {{< nextlink href="/llm_observability/monitoring/agent_monitoring">}}Monitorización del Agent: monitorización de aplicaciones de Agentic LLM{{< /nextlink >}}
-{{< /whatsnext >}}
\ No newline at end of file
+## Información general
+
+Explora y analiza tus aplicaciones LLM en producción con herramientas para consultar, visualizar, correlacionar e investigar datos en trazas (traces), clústeres y otros recursos.
+
+Monitoriza el rendimiento, corrige los problemas, evalúa la calidad y protege tus sistemas basados en LLM con una visibilidad unificada de trazas, métricas y evaluaciones en línea.
+
+### Monitorización del rendimiento en tiempo real
+
+Monitoriza el estado operativo de tu aplicación LLM con métricas y dashboards integrados:
+
+{{< img src="llm_observability/index/llm_dashboard_light.png" alt="Dashboard de información operativa de LLM Observability, que muestra diversas métricas y visualizaciones. Incluye una sección de información general con el número total de trazas y tramos (spans), índices de acierto y error, etc., y una sección de llamadas LLM con un gráfico circular del uso de modelos, la media de tokens de entrada y salida por llamada, etc." style="width:100%">}}
+
+- **Volumen y latencia de solicitudes**: Realiza un seguimiento de las solicitudes por segundo, los tiempos de respuesta y los cuellos de botella de rendimiento en diferentes modelos, operaciones y endpoints.
+- **Seguimiento de errores**: Monitoriza errores HTTP, tiempos de espera del modelo y solicitudes fallidas con el contexto de error detallado.
+- **Consumo de tokens**: Realiza un seguimiento de los tokens de solicitudes, los tokens almacenados en caché, los tokens de finalización y el uso total para optimizar los costes.
+- **Análisis del uso de modelos**: Monitoriza qué modelos están siendo llamandos, sus frecuencias y sus características de rendimiento.
+
+El [dashboard de información operativa de LLM Observability][6] proporciona vistas consolidadas de métricas a nivel de traza y de tramo, índices de error, desgloses de latencia, tendencias de consumo de tokens y monitores activados.
+
+### Corrección y resolución de problemas de producción
+
+Depura flujos de trabajo LLM complejos con una visibilidad detallada de la ejecución:
+
+{{< img src="llm_observability/index/llm_trace_light.png" alt="Vista detallada de una traza en LLM Observability, que muestra un gráfico de llama que representa visualmente cada llamada a un servicio. 'OpenAI.createResponse' está seleccionado y se muestra una vista detallada del tramo, que incluye los mensajes de entrada y los mensajes de salida." style="width:100%">}}
+
+- **Análisis de trazas de extremo a extremo**: Visualiza los flujos completos de solicitudes, desde la entrada del usuario hasta las llamadas al modelo, las llamadas a las herramientas y la generación de respuestas.
+- **Depuración a nivel de tramo**: Examina las operaciones individuales dentro de las cadenas, incluyendo los pasos de preprocesamiento, las llamadas al modelo y la lógica de postprocesamiento.
+- **Identificación de las causas de error**: Identifica los puntos de fallo en las cadenas de varios pasos, los flujos de trabajo o las operaciones agénticas con información detallada del contexto y el momento del error.
+- **Identificación de los cuellos de botella**: Busca las operaciones lentas y optimízalas en función de los desgloses de latencia de los componentes de flujos de trabajo.
+
+### Evaluaciones de calidad y seguridad
+
+{{< img src="llm_observability/index/llm_example_eval_light.png" alt="Vista detallada de un tramo en la pestaña Evaluations (Evaluaciones) de LLM Observability, que muestra una evaluación de alucinaciones con 'Contradicción confirmada', la salida marcada, la cuota de contexto y una explicación de pr qué se ha marcado." style="width:100%">}}
+
+Asegúrate de que tus agentes o aplicaciones LLM cumplen las normas de calidad con evaluaciones en línea. Para obtener información completa sobre las evaluaciones alojadas y gestionadas en Datadog, la ingesta de evaluaciones personalizadas y las funciones de monitorización de la seguridad, consults la [documentación sobre evaluaciones][5].
+
+### Consultar trazas y tramos de tu aplicación LLM
+
+{{< img src="llm_observability/index/llm_query_example_light.png" alt="Vista LLM Observability > Trazas, donde el usuario ha ingresado la consulta`ml_app:shopist-chat-v2 'purchase' -'discount' @trace.total_tokens:>=20` y se muestran varias trazas." style="width:100%">}}
+
+Aprende a utilizar la interfaz de consulta de LLM Observability de Datadog para buscar, filtrar y analizar las trazas y los tramos generados por tus aplicaciones LLM. La [documentación sobre consultas][1] explica cómo hacerlo:
+
+- Utiliza la barra de búsqueda para filtrar las trazas y los tramos por atributos como modelo, usuario o estado de error.
+- Aplica filtros avanzados para centrarte en operaciones o plazos específicos de LLM.
+- Visualiza e inspecciona detalles de trazas para solucionar problemas y optimizar tus flujos de trabajo LLM.
+
+Esto te permite identificar rápidamente los problemas, monitorizar el rendimiento y obtener información sobre el comportamiento de tu aplicación LLM en producción.
+
+
+### Correlacionar APM y LLM Observability
+
+{{< img src="llm_observability/index/llm_apm_example_light.png" alt="Una traza en Datadog APM. La pestaña Overview (Información general) muestra una sección llamada LLM Observability, con un enlace para visualizar el tramo en LLM Observability, así como el texto de entrada y salida." style="width:100%">}}
+
+Para aplicaciones instrumentadas con Datadog APM, puedes [correlacionar APM y LLM Observability][2] a través del SDK. Correlacionar APM con LLM Observability proporciona visibilidad completa de extremo a extremo y análisis exhaustivos, desde problemas de aplicaciones hasta causas raíz específicas de LLM.
+
+### Mapa de clústeres
+
+{{< img src="llm_observability/index/llm_cluster_example.png" alt="Un mapa de clústeres de ejemplo qie muestra más de 1000 entradas de trazas, coloreadas por la métrica 'no hubo respuesta'. En el mapa se ve un estado de punto suspendido, que muestra una clasificación de la traza como 'Opciones económicas', así como texto de entrada y salida y un enlace para ver más detalles." style="width:100%">}}
+
+El [mapa de clústeres][3] proporciona información general de cómo se agrupan y relacionan las solicitudes de tu aplicación LLM. Te ayuda a identificar patrones, grupos de actividad similar y outliers en trazas LLM, lo que facilita la investigación de problemas y optimiza el rendimiento.
+
+### Monitorizar tus sistemas agénticos
+
+Aprende cómo monitorizar aplicaciones LLM agénticas que utilizan múltiples herramientas o cadenas de razonamiento con [Agent Monitoring][4] de Datadog. Esta característica te ayuda a realizar un seguimiento de las acciones de los agentes, el uso de herramientas y los pasos de razonamiento, proporcionándote una visibilidad de complejos flujos de trabajo LLM y permitiéndote solucionar problemas y optimizar los sistemas agénticos de manera efectiva. Consulta la [documentación de Agent Monitoring][4] para ver más detalles.
+
+
+[1]: /es/llm_observability/monitoring/querying
+[2]: /es/llm_observability/monitoring/llm_observability_and_apm
+[3]: /es/llm_observability/monitoring/cluster_map/
+[4]: /es/llm_observability/monitoring/agent_monitoring
+[5]: /es/llm_observability/evaluations/
+[6]: https://app.datadoghq.com/dash/integration/llm_operational_insights?fromUser=false&refresh_mode=sliding&from_ts=1758905575629&to_ts=1758909175629&live=true
\ No newline at end of file
diff --git a/content/es/logs/guide/setting-file-permissions-for-rotating-logs.md b/content/es/logs/guide/setting-file-permissions-for-rotating-logs.md
index 73219fa13a8a6..0346f78d7f477 100644
--- a/content/es/logs/guide/setting-file-permissions-for-rotating-logs.md
+++ b/content/es/logs/guide/setting-file-permissions-for-rotating-logs.md
@@ -47,7 +47,7 @@ setfacl -m u:dd-agent:rx /var/log/apache
### Configuración de permisos para la rotación de archivos de logs
-[Configurar los permisos][4] una vez no servirá para la rotación de logs, ya que logrotate no vuelve a aplicar la configuración de ACL. Para obtener una solución más permanente, añade una regla a logrotate para restablecer la ACL en un nuevo archivo:
+Configurar los permisos una vez no persistirá para rotar logs, ya que logrotate no vuelve a aplicar la configuración ACL. Para una solución más permanente, añade una regla a logrotate para restablecer la ACL en un nuevo archivo:
```shell
sudo touch /etc/logrotate.d/dd-agent_ACLs
@@ -113,5 +113,4 @@ Cada aplicación existente seguirá una nomenclatura similar. La ventaja es que
[1]: https://help.ubuntu.com/community/FilePermissionsACLs
[2]: https://www.tecmint.com/secure-files-using-acls-in-linux
-[3]: http://xmodulo.com/configure-access-control-lists-acls-linux.html
-[4]: http://bencane.com/2012/05/27/acl-using-access-control-lists-on-linux
\ No newline at end of file
+[3]: http://xmodulo.com/configure-access-control-lists-acls-linux.html
\ No newline at end of file
diff --git a/content/es/metrics/summary.md b/content/es/metrics/summary.md
index bdb19d672ea99..a19dd8ebf3577 100644
--- a/content/es/metrics/summary.md
+++ b/content/es/metrics/summary.md
@@ -21,9 +21,9 @@ Busca tus métricas por nombre de métrica o etiqueta (tag) utilizando los campo
{{< img src="metrics/summary/tag_advanced_filtering.png" alt="Página de resumen de métricas SIN equipo:* ingresado en la barra de búsqueda por etiquetas" style="width:75%;">}}
-También puede descubrir métricas relevantes utilizando el soporte mejorado de concordancia difusa en el campo de búsqueda de métricas:
+También puedes detectar métricas relevantes utilizando la compatibilidad mejorada de concordancia difusa en el campo de búsqueda de métricas:
-{{< img src="metrics/summary/metric_advanced_filtering_fuzzy.png" alt="The metrics summary Page ( página) with fuzzy search searching shopist checkout" style="width:75%;">}}
+{{< img src="metrics/summary/metric_advanced_filtering_fuzzy.png" alt="La página de resumen de métricas con búsqueda difusa que busca el pago en Shopist" style="width:75%;">}}
El filtrado por etiquetas admite la sintaxis booleana y de comodín para que puedas identificar:
* Métricas que están etiquetadas con una clave de etiqueta concreta, por ejemplo, `team`: `team:*`
@@ -149,12 +149,13 @@ Para cualquier clave concreta de etiqueta, puedes:
### Activos relacionados con métricas
-{{< img src="metrics/summary/related_assets_dashboards.png" alt="Activos relacionados para un nombre de métricas especificado" style="width:80%;">}}
+{{< img src="metrics/summary/related_assets_dashboards_08_05_2025.png" alt="Activos relacionados para un nombre de métricas específico" style="width:80%;">}}
Para determinar el valor de cualquier nombre de métrica para tu organización, utiliza Activos relacionados de métricas. Los activos relacionados de métricas se refieren a cualquier dashboard, notebook, monitor, o SLO que consulta una métrica en particular.
1. Desplázate hasta la parte inferior del panel lateral de detalles de la métrica, hasta la sección **Recursos relacionados**.
2. Haz clic en el botón desplegable para ver el tipo de recurso relacionado que te interesa en (dashboards, monitores, notebooks, SLOs). Además, puedes utilizar la barra de búsqueda para validar activos específicos.
+3. La columna **Tags** (Etiquetas) muestra exactamente qué etiquetas se utilizan en cada activo.
## Explorador de la cardinalidad de etiquetas de métricas personalizadas
diff --git a/content/es/metrics/units.md b/content/es/metrics/units.md
index 48e8103bd3fae..a2efe23549279 100644
--- a/content/es/metrics/units.md
+++ b/content/es/metrics/units.md
@@ -25,9 +25,13 @@ Por ejemplo, si tienes un punto de datos que es 3.000.000.000:
* Si no has especificado una unidad para este punto de datos, aparecerá "3G".
* Si has especificado que este punto de datos está en bytes, aparecerá "3GB".
-Las unidades también se muestran en la parte inferior de las gráficas de timeboard, y las descripciones de métricas están disponibles al seleccionar **Metrics Info** del menú desplegable:
+Haz clic en el botón de pantalla completa situado en la esquina superior derecha del gráfico para ver las unidades que aparecen en la parte inferior:
-{{< img src="metrics/units/annotated_ops.png" alt="Operaciones anotadas" style="width:100%;">}}
+{{< img src="metrics/units/metrics_units.png" alt="Las unidades de un gráfico de métricas en el modo pantalla completa" style="width:100%;">}}
+
+En el gráfico de una métrica, haz clic en el menú contextual (tres puntos verticales) para encontrar la opción **Metrics info** (Información de la métrica). Esto abre un panel con una descripción de la métrica. Al hacer clic en el nombre de la métrica en este panel, se abre la métrica en la página del resumen de métricas para su posterior análisis o edición.
+
+{{< img src="metrics/units/metrics_info.png" alt="La opción Información de métricas en el menú de contexto ampliado (tres puntos verticales)" style="width:100%;">}}
Para cambiar una unidad de métrica, ve a la página de [resumen de métricas][1] y selecciona una métrica. Haz clic en **Edit** en **Metadata** y selecciona una unidad, como `bit` o `byte` del menú desplegable.
diff --git a/content/es/monitors/guide/template-variable-evaluation.md b/content/es/monitors/guide/template-variable-evaluation.md
index 02d39e49b7c10..d0126af08beda 100644
--- a/content/es/monitors/guide/template-variable-evaluation.md
+++ b/content/es/monitors/guide/template-variable-evaluation.md
@@ -1,4 +1,7 @@
---
+description: Modifica la salida de variables de plantilla en las notificaciones de
+ monitor utilizando operaciones matemáticas, funciones y manipulación de cadenas
+ con la sintaxis eval.
title: Evaluación de variables de plantilla
---
diff --git a/content/es/monitors/notify/variables.md b/content/es/monitors/notify/variables.md
index cd3a88fff5c70..fcf9d9515394f 100644
--- a/content/es/monitors/notify/variables.md
+++ b/content/es/monitors/notify/variables.md
@@ -146,7 +146,7 @@ O utiliza el parámetro `{{else}}` del primer ejemplo:
@slack-example
{{/is_match}}
```
-**Nota**: Para comprobar si un `` no existe o si está vacío, utiliza `is_exact_match`. Consulta la pestaña `is_exact_match` para más detalles.
+**Nota**: Para comprobar si uns `` no existe o si está vacía, utiliza `is_exact_match`. Consulta la pestaña `is_exact_match` para más detalles.
{{% /tab %}}
{{% tab "is_exact_match" %}}
@@ -197,7 +197,7 @@ La variable condicional `is_exact_match` también admite una cadena vacía para
```text
{{#is_exact_match "host.datacenter" ""}}
This displays if the attribute or tag does not exist or if it's empty
-{{/is_match}}
+{{/is_exact_match}}
```
@@ -264,7 +264,7 @@ Atributos
### Variables de alerta múltiple
-Configura variables de multialertas en [monitores de multialertas][1] en función de la dimensión seleccionada en el cuadro de grupo de multialertas. Mejora las notificaciones incluyendo dinámicamente en cada alerta el valor asociado a la dimensión agrupada.
+Configura variables de multialertas en [monitores de multialertas][1] en función de la dimensión seleccionada en el cuadro de grupo de multialertas. Enriquece las notificaciones incluyendo dinámicamente en cada alerta el valor asociado a la dimensión agrupada.
**Nota**: Cuando se utiliza el campo `group_by` en la agregación, las etiquetas y alertas adicionales del monitor pueden heredarse automáticamente. Esto significa que cualquier alerta o configuración establecida en el endpoint supervisado podría aplicarse a cada grupo resultante de la agregación.
@@ -381,31 +381,23 @@ Para documentos y enlaces también puedes acceder a un elemento específico con
```
{{% /collapse-content %}}
+### Unión de variables de atributo/etiqueta
+Puedes incluir cualquier atributo o etiqueta de un log, tramo de traza, evento RUM, CI pipeline, o evento de CI test que coincida con la consulta de monitor. La siguiente tabla muestra ejemplos de atributos y variables que puedes añadir de diferentes tipos de monitor.
-### Unión de variables de atributo/etiqueta
+Para ver la lista completa de variables disponibles para tu monitor, en la parte inferior de la configuración de notificaciones, haz clic en Add Variable (Añadir variable) y selecciona una de las opciones del menú desplegado.
-
-
-Para incluir **cualquier** atributo o etiqueta de un log, un tramo (span) de traza (trace), un evento RUM, un CI Pipeline, o un evento de CI Test que coincida con la consulta del monitor, utiliza las siguientes variables:
-
-| Tipo de monitor | Sintaxis de la variable |
-|-----------------|--------------------------------------------------|
-| Log | `{{log.attributes.key}}` o `{{log.tags.key}}` |
-| Trace Analytics | `{{span.attributes.key}}` o `{{span.tags.key}}` |
-| Error Tracking | `{{issue.attributes.key}}` |
-| RUM | `{{rum.attributes.key}}` o `{{rum.tags.key}}` |
-| Audit Trail | `{{audit.attributes.key}}` o `{{audit.message}}` |
-| CI Pipeline | `{{cipipeline.attributes.key}}` |
-| CI Test | `{{citest.attributes.key}}` |
-| Database Monitoring | `{{databasemonitoring.attributes.key}}` |
+| Tipo de monitor | Sintaxis de la variable |
+|--------------------------|--------------------------------------------------------|
+| [Audit Trail][16] | `{{audit.attributes.key}}` o `{{audit.message}}` |
+| [CI Pipeline][17] | `{{cipipeline.attributes.key}}` |
+| [CI Test][18] | `{{citest.attributes.key}}` |
+| [Database Monitoring][19]| `{{databasemonitoring.attributes.key}}` |
+| [Error Tracking][14] | `{{issue.attributes.key}}` |
+| [Log][12] | `{{log.attributes.key}}` o `{{log.tags.key}}` |
+| [RUM][15] | `{{rum.attributes.key}}` o `{{rum.tags.key}}` |
+| [Synthetic Monitoring][20]| `{{synthetics.attributes.key}}` |
+| [Trace Analytics][13] | `{{span.attributes.key}}` o `{{span.tags.key}}` |
{{% collapse-content title="Ejemplo de uso de sintaxis" level="h4" %}}
- Para cualquier par `key:value`, la variable `{{log.tags.key}}` se convierte en `value` en el mensaje de alerta.
@@ -425,10 +417,8 @@ Para incluir **cualquier** atributo o etiqueta de un log, un tramo (span) de tra
{{ event.tags.[dot.key.test] }}
```
-
{{% /collapse-content %}}
-
#### Notas importantes
- Si el evento seleccionado no incluye la clave de atributo o etiqueta, la variable aparece vacía en el mensaje de notificación. Para evitar que se pierdan notificaciones, evita utilizar estas variables para enrutar notificaciones con indicadores `{{#is_match}}`.
@@ -515,7 +505,7 @@ Las variables de plantilla de monitor `{{first_triggered_at}}`, `{{first_trigger
{{< img src="monitors/notifications/triggered_variables.png" alt="Muestra cuatro transiciones con marcas temporales A: 1419 OK a WARN, B: 1427 WARN a ALERT, C: 1445 ALERT a NO DATA, D: 1449 NO DATA a OK" style="width:90%;">}}
-**Ejemplo**: Cuando el monitor pasa de `OK` → `WARN`, los valores de `{{first_triggered_at}}` y `{{last_triggered_at}}` tienen ambos la marca temporal A. La tabla siguiente muestra los valores hasta que el monitor se recupera.
+**Ejemplo**: Cuando el monitor pasa de `OK` → `WARN`, los valores de `{{first_triggered_at}}` y `{{last_triggered_at}}` tienen ambos la marca temporal A. La tabla siguiente muestra los valores hasta que el monitor se recupere.
| Transición | first_triggered_at | last_triggered_at | triggered_duration_sec |
|------------------ |-------------------------------- |-------------------------------- |-------------------------------- |
@@ -716,4 +706,13 @@ https://app.datadoghq.com/services/{{urlencode "service.name"}}
[8]: https://en.wikipedia.org/wiki/List_of_tz_database_time_zones
[9]: /es/monitors/types/error_tracking/
[10]: /es/software_catalog/service_definitions/
-[11]: https://docs.datadoghq.com/es/software_catalog/service_definitions/v2-2/#example-yaml
\ No newline at end of file
+[11]: https://docs.datadoghq.com/es/software_catalog/service_definitions/v2-2/#example-yaml
+[12]: /es/monitors/types/log/
+[13]: /es/monitors/types/apm/?tab=analytics
+[14]: /es/monitors/types/error_tracking/
+[15]: /es/monitors/types/real_user_monitoring/
+[16]: /es/monitors/types/audit_trail/
+[17]: /es/monitors/types/ci/?tab=tests
+[18]: /es/monitors/types/ci/?tab=pipelines
+[19]: /es/monitors/types/database_monitoring/
+[20]: /es/synthetics/notifications/template_variables/
\ No newline at end of file
diff --git a/content/es/network_monitoring/devices/troubleshooting.md b/content/es/network_monitoring/devices/troubleshooting.md
index 89a691e75ad1a..61a97b7ee4dae 100644
--- a/content/es/network_monitoring/devices/troubleshooting.md
+++ b/content/es/network_monitoring/devices/troubleshooting.md
@@ -149,6 +149,8 @@ Si ves un error de permiso denegado mientras enlazas puertos en logs del Agent,
Si faltan trampas SNMP o tráfico NetFlow, una causa común son las reglas del cortafuegos que bloquean los paquetes UDP antes de que lleguen al Agent. Tanto las trampas SNMP como el tráfico NetFlow dependen de UDP y utilizan los puertos definidos en tu configuración de [datadog.yaml][9].
+Los firewalls locales como Uncomplicated Firewall (UFW) pueden bloquear el tráfico incluso cuando están configurados con parámetros permisivos. Comprueba los logs del sistema en busca de entradas de paquetes bloqueados, que suelen indicar que el tráfico llegó a la interfaz de red pero se bloqueó antes de llegar al sistema operativo.
+
Utiliza los siguientes comandos específicos de la plataforma para buscar reglas de cortafuegos que puedan estar bloqueando el tráfico y evitando que llegue al Agent.
{{< tabs >}}
diff --git a/content/es/notebooks/advanced_analysis/_index.md b/content/es/notebooks/advanced_analysis/_index.md
index 940376acd7177..ffb981551b76a 100644
--- a/content/es/notebooks/advanced_analysis/_index.md
+++ b/content/es/notebooks/advanced_analysis/_index.md
@@ -1,4 +1,9 @@
---
+aliases:
+- /es/logs/workspaces/
+- /es/logs/workspaces/export/
+description: Realiza análisis avanzados de datos en notebooks con consultas SQL, transformaciones
+ de datos, uniones y visualizaciones en varios conjuntos de datos.
further_reading:
- link: /notebooks
tag: Documentación
@@ -11,7 +16,7 @@ title: Analysis Features
{{% site-region region="gov" %}}
-Analysis Features para notebooks no está disponible en el
sitio de Datadog ({{< region-param key="dd_site_name" >}}).
+Los análisis avanzados en notebooks no están disponibles en el
sitio Datadog ({{< region-param key="dd_site_name" >}}).
{{% /site-region %}}
@@ -21,53 +26,54 @@ La función de análisis de los notebooks permite realizar análisis avanzados d
Los notebooks son editores de texto colaborativos que permiten incrustar gráficos de Datadog directamente en los documentos. Aunque esto es ideal para explorar y narrar, las investigaciones más profundas pueden requerir un control más avanzado sobre las consultas de datos. Las funciones de análisis te permiten realizar consultas que te ayudarán a:
-* Consultar en cadena, como la agregación de datos agregados existentes o la unión de dos conjuntos de datos agregados.
+* Encadena consultas, como la agregación de datos agregados existentes o la unión de dos conjuntos de datos agregados.
* Unir datos de múltiples fuentes de logs y otros conjuntos de datos.
-* Realizar parseos avanzados, extraer datos y añadir campos calculados en el momento de la consulta.
+* Realiza análisis avanzados, extrae datos y añade campos calculados en el momento de la consulta.
* Visualizar conjuntos de datos transformados con gráficos.
## Añadir datos a tu notebook
-Para ejecutar consultas complejas en un notebook, añade primero una celda **Data Source** (Fuente de datos). Hay dos maneras de hacerlo:
+Para ejecutar consultas complejas en un notebook, añade primero una celda **Fuente de datos**. Hay dos maneras de hacerlo:
**Desde un notebook**:
-1. Escribe `/datasource` y pulsa Enter (Intro), o haz clic en el cuadro **Data Source** (Fuente de datos) situado en la parte inferior de página.
-2. Escribe o selecciona la fuente de datos deseada en el menú desplegable y pulsa Enter (Intro).
+1. Escribe `/datasource` y presiona Intro o haz clic en el cuadro **Data Source** (Fuente de datos) situado en la parte inferior de la página.
+2. Escribe o seleccione tu fuente de datos deseada en el menú desplegable y presiona Intro.
+**Nota**: Si buscas una fuente de datos y no está disponible, solicítala [aquí][5].
3. Introduce tu consulta. Los atributos reservados de los logs filtrados se añaden automáticamente como columnas.
-**Desde el [Log Explorer][1]**:
+**Desde el [Explorador de logs][1]**:
-1. Introduce tu consulta en el Log Explorer.
-2. Haz clic en **Analyze in Notebooks** (Analizar en notebooks).
-3. Marca la casilla **Use as a computational data source** (Utilizar como fuente de datos computacionales) y selecciona el notebook que deseas utilizar.
-4. Se añade una celda de fuente de datos al notebook seleccionado con la misma consulta introducida en el Log Explorer. Por defecto, las columnas mostradas en el Log Explorer se incluyen en la celda de fuente de datos.
+1. Introduce tu consulta en el Explorador de logs.
+2. Haz clic en **Analyze in Notebooks** (Analizar en notebooks).
+3. Marca la casilla **Use as a computational data source** (Utilizar como fuente de datos de cálculo) y selecciona el notebook que quieres utilizar.
+4. Se añade una celda de fuente de datos al notebook seleccionado con la misma consulta introducida en el Explorador de logs. Por defecto, las columnas mostradas en el Explorador de logs se incluyen en la celda de fuente de datos.
## Configuración de una celda de fuente de datos
-Después de añadir una celda de fuente de datos a un notebook, puedes seguir modificándola para estructurar los datos de forma que se adapten a tus necesidades de análisis.
+Después de añadir una celda de fuente de datos a un notebook, puedes seguir modificándola para estructurar los datos según tus necesidades de análisis.
### Cambiar el marco temporal de los datos
-Por defecto, las celdas de fuente de datos creadas a partir de notebooks utilizan el marco temporal global del notebook. Las celdas de fuente de datos creadas a partir del Log Explorer utilizan una hora local fijada al marco temporal en el momento de la exportación.
+Por defecto, las celdas de fuente de datos creadas a partir de notebooks utilizan el marco temporal global del notebook. Las celdas de fuente de datos creadas a partir del Explorador de logs utilizan una hora local fijada al marco temporal en el momento de la exportación.
-Puedes cambiar cualquier celda de fuente de datos entre un marco temporal local o global utilizando el botón de alternancia situado en la esquina superior derecha de la celda.
+Puedes cambiar cualquier celda de fuente de datos entre un marco temporal local o global, utilizando el botón conmutador situado en la esquina superior derecha de la celda.
### Filtrar la fuente de datos
-Independientemente de cómo crees la celda de fuente de datos, puedes modificar la consulta utilizando la barra de búsqueda. Cualquier cambio en la consulta reejecuta automáticamente la celda de fuente de datos y cualquier celda posterior, actualizando la vista previa de los datos.
+Independientemente de cómo crees la celda de fuente de datos, puedes modificar la consulta utilizando la barra de búsqueda. Cualquier cambio en la consulta vuelve a ejecutar automáticamente la celda de fuente de datos y cualquier celda posterior, actualizando la vista previa de los datos.
### Añadir o modificar una columna
Puedes añadir o modificar columnas en tu celda de fuente de datos. Hay dos formas de ajustar las columnas:
-- En la sección de vista previa, haz clic en **columnas** para buscar entre los atributos disponibles para tus fuente de datos.
+- En la sección de vista previa, haz clic en **columns** (columnas) para buscar entre los atributos disponibles para tu fuente de datos.
- En la vista previa, haz clic en una fila para abrir el panel lateral de detalles. Haz clic en el atributo que desees añadir como columna y, en la opción emergente, selecciona "@your_column" a tu conjunto de datos "@your_datasource".
{{< img src="/notebooks/analysis_features/add_column_to_dataset.png" alt="Panel lateral de detalles abierto con la opción para añadir una columna de atributos a la celda de fuente de datos" style="width:100%;" >}}
### Consultas de campos calculados
-Puedes tomar consultas existentes del Log Explorer que incluyan [Campos calculados][4] y abrirlas en notebooks. Para transferir estas consultas desde el Log Explorer, haz clic en **More** (Más) y selecciona **Analyze in Notebooks** (Analizar en notebooks). Los campos calculados se convierten automáticamente en una celda de transformación.
+Puedes tomar consultas existentes del Explorador de logs que incluyan [Campos calculados][4] y abrirlas en notebooks. Para transferir estas consultas desde el Explorador de logs, haz clic en **More** (Más) y selecciona **Analyze in Notebooks** (Analizar en notebooks). Los campos calculados se convierten automáticamente en una celda de transformación.
También puedes crear campos calculados directamente en un notebook para definir un campo calculado a partir de fuentes de datos existentes. Estos campos pueden reutilizarse en análisis posteriores:
1. Abre un Workspace con una fuente de datos.
@@ -85,7 +91,7 @@ Puedes añadir varios tipos de celdas para mejorar tus capacidades de análisis.
Añade una celda de transformación para filtrar, agrupar, unir o extraer datos definidos en una celda de fuente de datos.
-1. Escribe `/transformation` y pulsa Enter (Intro), o bien haz clic en el cuadro del conjunto de datos de transformación situado en la parte inferior de la página.
+1. Escribe `/transformation` y presiona Intro o haz clic en el cuadro del conjunto de datos de transformación situado en la parte inferior de la página.
2. Selecciona la fuente de datos que quieres transformar en el menú desplegable del conjunto de datos fuente.
Después de añadir la celda de transformación, puedes añadir cualquier número de operaciones de transformación dentro de la celda. Elige una operación de la lista de transformaciones admitidas:
@@ -104,9 +110,9 @@ Después de añadir la celda de transformación, puedes añadir cualquier númer
También puedes transformar tus datos utilizando SQL añadiendo una celda de análisis a tu notebook.
-1. Escribe `/sql` o `/analysis` y pulsa Enter (Intro), o haz clic en el cuadro **SQL Query** (Consulta SQL) situada en la parte inferior de la página.
-2. En el desplegable del conjunto de datos fuente, selecciona la fuente de datos que deseas transformar.
-3. Escribe tu consulta SQL. Para conocer la sintaxis SQL compatible, consulta la [Referencia de DDSQL][4].
+1. Escribe `/sql` o `/analysis` y presiona Intro o haz clic en el cuadro **SQL Query** (Consulta SQL) situado en la parte inferior de la página.
+2. En el desplegable del conjunto de datos de la fuente, selecciona la fuente de datos que quieres transformar.
+3. Escribe tu consulta SQL. Para conocer la sintaxis SQL compatible, consulta la [referencia de DDSQL][4].
4. Haz clic en **Run** (Ejecutar) en la esquina superior derecha de la celda de análisis para ejecutar la consulta.
{{< img src="/notebooks/analysis_features/analysis_cell_example.png" alt="Ejemplo de una celda de análisis con datos de transformación de consulta SQL en un notebook" style="width:100%;" >}}
@@ -117,9 +123,9 @@ Puedes representar gráficamente los datos que has transformado utilizando celda
Para representar gráficamente los datos:
-1. Escribe `/graph` y pulsa Enter (Intro), o haz clic en el cuadro **graph dataset** (Conjunto de datos de gráfico) situado en la parte inferior de página.
-2. Escribe o selecciona la fuente de datos deseada en el menú desplegable y pulsa Enter (Intro).
-3. Selecciona el tipo de visualización en el menú de gráficos y pulsa Enter (Intro).
+1. Escribe `/graph` y presiona Intro o haz clic en el cuadro **Graph Dataset** (Graficar conjunto de datos) situado en la parte inferior de la página.
+2. Escribe o selecciona tu fuente de datos deseada en el menú desplegable y presiona Intro.
+3. Selecciona el tipo de visualización en el menú de gráficos y presiona Intro.
## Visualización y exportación de datos
@@ -153,4 +159,5 @@ Para descargar tu conjunto de datos como archivo CSV:
[1]: https://app.datadoghq.com/logs
[2]: /es/logs/log_configuration/parsing/
[3]: /es/logs/explorer/calculated_fields/expression_language/
-[4]: /es/ddsql_reference/
\ No newline at end of file
+[4]: /es/ddsql_reference/
+[5]: https://www.datadoghq.com/product-preview/additional-advanced-querying-data-sources/
\ No newline at end of file
diff --git a/content/es/opentelemetry/setup/_index.md b/content/es/opentelemetry/setup/_index.md
index 41299a70354f0..11c04adee3e5b 100644
--- a/content/es/opentelemetry/setup/_index.md
+++ b/content/es/opentelemetry/setup/_index.md
@@ -1,5 +1,4 @@
---
-aliases: null
further_reading:
- link: /opentelemetry/instrument/
tag: Documentación
@@ -7,16 +6,50 @@ further_reading:
- link: https://www.datadoghq.com/blog/otel-deployments/
tag: Blog
text: Seleccionar el depsliegue de OpenTelemetry
-title: Enviar datos a Datadog
+title: Enviar datos de OpenTelemetry a Datadog
---
-Existen varias formas de enviar datos de OpenTelemetry a Datadog. Elige el método que mejor se adapte a tu infraestructura y a tus requisitos:
+En esta página se describen todas las formas de enviar datos de OpenTelemetry (OTel) a Datadog.
-| Método | Lo mejor para | Principales ventajas | Documentación |
-|---------------------------------|--------------------------------------------------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|-----------------------------------------------|
-| Recopilador de OTel | Usuarios nuevos o existentes de OTel que quieren una configuración neutral con respecto al proveedor | - Neutralidad total con respecto al proveedor
- Envío de trazas (traces), métricas y logs a Datadog sin necesidad de instalar bibliotecas del Datadog Agent o de rastreo
- Capacidades de procesamiento avanzadas (por ejemplo, [muestreo basado en colas][4])
| [Enviar datos utilizando el recopilador de OTel][2] |
-| Datadog Agent | Usuarios existentes de Datadog o equipos que necesiten funciones basadas en el Agent:- [Recopilador de DDOT][5]: Recomendado para entornos Kubernetes
- [Ingesta de OTLP][1]: Recomendado para todos los demás entornos
| - Acceso a todas las funciones del Datadog Agent
- Capacidades de monitorización mejoradas que incluyen:
- Automatización de flotas
- Live Container Monitoring
- Explorador Kubernetes
- Live Processes
- Cloud Network Monitoring
- Universal Service Monitoring
- {{< translate key="integration_count" >}}+ integraciones Datadog
| [Enviar datos a través del Datadog Agent][1] |
-| Despliegue sin Agent | Situaciones que requieren conexión directa sin infraestructura adicional | - Transmisión directa de datos
- No se necesitan componentes adicionales
| [Enviar datos utilizando el endpoint de entrada][3] |
+## Datadog distribution of OpenTelemetry (DDOT) Collector (Recomendado)
+
+Datadog distribution of OpenTelemetry (DDOT) Collector es una solución de código abierto que combina la flexibilidad de OpenTelemetry con las amplias capacidades de observabilidad de Datadog.
+
+Este enfoque te ofrece un control total sobre los procesos de OpenTelemetry, a la vez que te proporciona acceso a potentes funciones basadas en el Datadog Agent, entre las que se incluyen:
+
+- Automatización de flotas
+- Container Monitoring en tiempo real
+- Explorer de Kubernetes
+- Live Processes
+- Monitorización de redes en la nube
+- Universal Service Monitoring
+- {{< translate key="integration_count" >}}+ Integraciones de Datadog
+
+{{< whatsnext desc=" " >}}
+ {{< nextlink href="/opentelemetry/setup/ddot_collector/install/" >}}
+ Instala el Datadog distribution of OpenTelemetry (DDOT) Collector
+ Sigue nuestra configuración guiada para instalar el Collector y comenzar a enviar tus datos de OpenTelemetry a Datadog.
+ {{< /nextlink >}}
+{{< /whatsnext >}}
+
+## Otras opciones de configuración
+
+Existen métodos alternativos para casos de uso específicos, como el mantenimiento de un pipeline de proveedor neutral o la ejecución en entornos que no sean Kubernetes.
+
+{{< whatsnext desc=" " >}}
+ {{< nextlink href="/opentelemetry/setup/collector_exporter/" >}}
+ OpenTelemetry Collector independiente
+ Útil para usuarios que prefieran usar distribuciones del OTel Collector desde la comunidad de código abierto de OpenTelemetry o que requieran funciones de procesamiento avanzadas como el muestreo basado en el seguimiento de logs.
+ {{< /nextlink >}}
+ {{< nextlink href="/opentelemetry/setup/otlp_ingest_in_the_agent" >}}
+ Ingesta OTLP en el Agent
+ Útil para usuarios en plataformas que no sean Kubernetes Linux, o aquellos que prefieran una configuración mínima sin administrar los pipelines del Collector.
+ {{< /nextlink >}}
+ {{< nextlink href="/opentelemetry/setup/agentless" >}}
+ Ingesta directa de OTLP (Vista previa)
+ Útil para situaciones que requieren la trasmisión directa de datos al endpoint de entrada de Datadog sin componentes intermediarios.
+ {{< /nextlink >}}
+{{< /whatsnext >}}
¿Aún no sabes cuál es la configuración más adecuada para ti? Consulta la tabla de
compatibilidad de funciones para saber qué funciones de Datadog son compatibles.
@@ -26,7 +59,7 @@ Existen varias formas de enviar datos de OpenTelemetry a Datadog. Elige el méto
[1]: /es/opentelemetry/setup/agent
[2]: /es/opentelemetry/setup/collector_exporter/
-[3]: /es/opentelemetry/setup/intake_endpoint
+[3]: /es/opentelemetry/setup/agentless
[4]: /es/opentelemetry/ingestion_sampling#tail-based-sampling
[5]: /es/opentelemetry/agent
[6]: /es/opentelemetry/setup/otlp_ingest_in_the_agent
\ No newline at end of file
diff --git a/content/es/opentelemetry/setup/collector_exporter/_index.md b/content/es/opentelemetry/setup/collector_exporter/_index.md
index 0e8787635ceda..f77bf6426b5bf 100644
--- a/content/es/opentelemetry/setup/collector_exporter/_index.md
+++ b/content/es/opentelemetry/setup/collector_exporter/_index.md
@@ -1,300 +1,62 @@
---
-aliases:
-- /es/tracing/setup_overview/open_standards/otel_collector_datadog_exporter/
-- /es/tracing/trace_collection/open_standards/otel_collector_datadog_exporter/
-- /es/opentelemetry/otel_collector_datadog_exporter/
-- /es/opentelemetry/collector_exporter/
-- /es/opentelemetry/collector_exporter/otel_collector_datadog_exporter
description: Envío de datos de OpenTelemetry al OpenTelemetry Collector y el Datadog
Exporter
further_reading:
-- link: https://opentelemetry.io/docs/collector/
- tag: Sitio externo
- text: Documentación del Collector
-- link: https://www.datadoghq.com/blog/ingest-opentelemetry-traces-metrics-with-datadog-exporter/
- tag: Blog
- text: Envío de métricas, trazas (traces) y logs desde OpenTelemetry Collector a
- Datadog con el Datadog Exporter
-title: Configurar el OpenTelemetry Collector
+- link: /opentelemetry/setup/ddot_collector/install/
+ tag: Documentación
+ text: Instala el Datadog distribution of OpenTelemetry (DDOT) Collector (Recomendado)
+- link: /opentelemetry/compatibility/
+ tag: Documentación
+ text: Compatibilidad de funciones
+title: Instalación y configuración del OpenTelemetry Collector
---
## Información general
-El OpenTelemetry Collector te permite recopilar, procesar y exportar datos de telemetría de tus aplicaciones de una manera independiente del proveedor. Cuando se configura con el [Datadog Exporter][1] y el [Datadog Connector][29], puedes enviar tus trazas, logs y métricas a Datadog sin necesidad del Datadog Agent.
+En esta página se proporcionan guías para instalar y configurar un OpenTelemetry Collector independiente para enviar datos de telemetría a Datadog.
-- **Datadog Exporter**: Reenvía datos de trazas, métricas y logs de los SDK de OpenTelemetry a Datadog (sin necesidad del Datadog Agent)
-- **Datadog Connector**: Calcula métricas de rastreo a partir de los datos de tramos recopilados
+Este método es el mejor para los usuarios que prefieren utilizar distribuciones del OpenTelemetry Collector de la comunidad de código abierto de OpenTelemetry o que requieren capacidades de procesamiento avanzadas no disponibles en otras configuraciones. Para la mayoría de los casos de uso, el [Datadog Distribution of OTel Collector (DDOT)][1] es el método recomendado.
-{{< img src="/opentelemetry/setup/otel-collector.png" alt="Diagrama: El SDK de OpenTelemetry en código envía datos a través de OTLP al host que ejecuta el OpenTelemetry Collector con el Datadog Exporter, que los reenvía a la plataforma de observabilidad de Datadog." style="width:100%;" >}}
+## Configuración
-
+Para empezar, instala el OpenTelemetry Collector y configúralo con el Datadog Exporter. Esta guía te indicará la configuración inicial necesaria antes de pasar a temas de configuración más específicos.
-## Instalar y configurar
-
-### 1 - Descargar el OpenTelemetry Collector
-
-Descarga la última versión de la distribución OpenTelemetry Collector Contrib, desde [el repositorio del proyecto][3].
-
-### 2 - Configurar el Datadog Exporter y el Datadog Connector
-
-Para utilizar el Datadog Exporter y el Datadog Connector, defínelos en tu [configuración del [OpenTelemetry Collector[4]:
-
-1. Crea un archivo de configuración llamado `collector.yaml`.
-1. Utiliza el siguiente archivo de ejemplo para empezar.
-1. Configura tu clave de API Datadog como la variable de entorno `DD_API_KEY`.
-
-{{% otel-endpoint-note %}}
-
-```yaml
-receivers:
- otlp:
- protocols:
- http:
- endpoint: 0.0.0.0:4318
- grpc:
- endpoint: 0.0.0.0:4317
- # The hostmetrics receiver is required to get correct infrastructure metrics in Datadog.
- hostmetrics:
- collection_interval: 10s
- scrapers:
- paging:
- metrics:
- system.paging.utilization:
- enabled: true
- cpu:
- metrics:
- system.cpu.utilization:
- enabled: true
- disk:
- filesystem:
- metrics:
- system.filesystem.utilization:
- enabled: true
- load:
- memory:
- network:
- processes:
- # The prometheus receiver scrapes metrics needed for the OpenTelemetry Collector Dashboard.
- prometheus:
- config:
- scrape_configs:
- - job_name: 'otelcol'
- scrape_interval: 10s
- static_configs:
- - targets: ['0.0.0.0:8888']
-
- filelog:
- include_file_path: true
- poll_interval: 500ms
- include:
- - /var/log/**/*example*/*.log
-
-processors:
- batch:
- send_batch_max_size: 100
- send_batch_size: 10
- timeout: 10s
-
-connectors:
- datadog/connector:
-
-exporters:
- datadog/exporter:
- api:
- site: {{< region-param key="dd_site" >}}
- key: ${env:DD_API_KEY}
-
-service:
- pipelines:
- metrics:
- receivers: [hostmetrics, prometheus, otlp, datadog/connector]
- processors: [batch]
- exporters: [datadog/exporter]
- traces:
- receivers: [otlp]
- processors: [batch]
- exporters: [datadog/connector, datadog/exporter]
- logs:
- receivers: [otlp, filelog]
- processors: [batch]
- exporters: [datadog/exporter]
-```
-
-Esta configuración básica permite recibir datos de OTLP a través de HTTP y gRPC, y configura un [procesador por lotes][5].
-
-Si quieres consultar la lista completa de opciones de configuración del Datadog Exporter, consulta el [archivo de configuración de ejemplo completamente documentado][8]. Opciones adicionales como `api::site` y `host_metadata` pueden ser relevantes, dependiendo de tu despliegue.
-
-#### Configuración del procesador por lotes
-
-El procesador por lotes se requiere en entornos que no son de desarrollo. La configuración exacta depende de tu carga de trabajo específica y de los tipos de señales.
-
-Configura el procesador por lotes basándote en los límites de ingesta de Datadog:
-
-- Ingreso de trazas: 3,2MB
-- Ingesta de log: [5MB sin comprimir][6]
-- Ingesta de métricas V2: [500 KB o 5 MB tras la descompresión][7]
-
-Pueden producirse errores en `413 - Request Entity Too Large`, si se introducen demasiados datos de telemetría en el procesador por lotes.
-
-### 3 - Configurar tu aplicación
-
-Para obtener mejores metadatos para trazas y para simplificar la integración con Datadog:
-
-- **Utiliza detectores de recursos**: si los proporciona el SDK del lenguaje, adjunta información de contenedor como atributos de recurso. Por ejemplo, en Go, utiliza la opción de recurso [`WithContainer()`][9].
-
-- **Aplica [etiquetado de servicios unificado][10]**: asegúrate de haber configurado tu aplicación con los atributos de recursos apropiados para el etiquetado de servicios unificado. Esto vincula la telemetría de Datadog con etiquetas (tags) para nombre de servicio, entorno de despliegue y versión de servicio. La aplicación debe establecer estas etiquetas utilizando las convenciones semánticas de OpenTelemetry: `service.name`, `deployment.environment` y `service.version`.
-
-### 4 - Configurar el generador de logs para tu aplicación
-
-{{< img src="logs/log_collection/otel_collector_logs.png" alt="Un diagrama con el host, contenedor o aplicación que envía datos al receptor de log de archivo en el Collector y el Datadog Exporter en el Collector que envía los datos al backend de Datadog" style="width:100%;">}}
-
-Dado que la funcionalidad de generación de logs del SDK de OpenTelemetry no es totalmente compatible (consulta tu lenguaje específico en la [documentación de OpenTelemetry][11] para más información), Datadog recomienda el uso de una biblioteca de generación de logs estándar para tu aplicación. Sigue la [documentación de recopilación de logs][12] específica del lenguaje para configurar el generador de logs adecuado en tu aplicación. Datadog recomienda especialmente la configuración de tu biblioteca de registro para la salida de logs en JSON, a fin de evitar la necesidad de [reglas de análisis personalizadas][13].
-
-#### Configurar el receptor de log de archivo
-
-Configura el receptor de log de archivo utilizando [operadores][14]. Por ejemplo, si hay un servicio `checkoutservice` que está escribiendo logs en `/var/log/pods/services/checkout/0.log`, un ejemplo de log podría tener este aspecto:
-
-```
-{"level":"info","message":"order confirmation email sent to \"jack@example.com\"","service":"checkoutservice","span_id":"197492ff2b4e1c65","timestamp":"2022-10-10T22:17:14.841359661Z","trace_id":"e12c408e028299900d48a9dd29b0dc4c"}
-```
-
-Ejemplo de configuración de log de archivo:
-
-```
-filelog:
- include:
- - /var/log/pods/**/*checkout*/*.log
- start_at: end
- poll_interval: 500ms
- operators:
- - id: parse_log
- type: json_parser
- parse_from: body
- - id: trace
- type: trace_parser
- trace_id:
- parse_from: attributes.trace_id
- span_id:
- parse_from: attributes.span_id
- attributes:
- ddtags: env:staging
-```
-
-- `include`: Lista de archivos que el receptor rastrea
-- `start_at: end`: Indica que se lea el nuevo contenido que se está escribiendo
-- `poll_internal`: Define la frecuencia de sondeo
-- Operadores:
- - `json_parser`: analiza los logs JSON. Por defecto, el receptor de log de archivos convierte cada línea de log en un registro de log, que es el `body` del [modelo de datos][15] de logs. A continuación, el `json_parser` convierte el cuerpo JSON en atributos del modelo de datos.
- - `trace_parser`: Extrae `trace_id` y `span_id` del log para correlacionar logs y trazas en Datadog.
-
-#### Reasignar el atributo `service.name` de OTel a `service` para logs
-
-Para las versiones 0.83.0 y posteriores del Datadog Exporter, el campo `service` de logs de OTel se rellena como la [convención semántica de OTel][25] `service.name`. Sin embargo, `service.name` no es uno de los [atributos de servicio][26] predeterminados en el preprocesamiento de logs de Datadog.
-
-Para que el campo `service` se rellene correctamente en tus logs, puedes especificar que `service.name` sea la fuente de un servicio de log estableciendo un [procesador de reasignación de servicio de log][27].
-
-{{% collapse-content title="Optional: Using Kubernetes" level="h4" %}}
-
-Hay múltiples maneras de desplegar el OpenTelemetry Collector y el Datadog Exporter en una infraestructura Kubernetes. Para que el receptor filelog funcione, el [despliegue del Agent/DaemonSet][16] es el método de despliegue recomendado.
-
-En entornos contenedorizados, las aplicaciones escriben logs en `stdout` o `stderr`. Kubernetes recopila los logs y los escribe en una localización estándar. Es necesario montar la localización en el nodo host del Collector para el receptor filelog. A continuación se muestra un [ejemplo de extensión][17] con los montajes necesarios para enviar logs.
-
-```
-apiVersion: apps/v1
-metadata:
- name: otel-agent
- labels:
- app: opentelemetry
- component: otel-collector
-spec:
- template:
- metadata:
- labels:
- app: opentelemetry
- component: otel-collector
- spec:
- containers:
- - name: collector
- command:
- - "/otelcol-contrib"
- - "--config=/conf/otel-agent-config.yaml"
- image: otel/opentelemetry-collector-contrib:0.71.0
- env:
- - name: POD_IP
- valueFrom:
- fieldRef:
- fieldPath: status.podIP
- # The k8s.pod.ip is used to associate pods for k8sattributes
- - name: OTEL_RESOURCE_ATTRIBUTES
- value: "k8s.pod.ip=$(POD_IP)"
- ports:
- - containerPort: 4318 # default port for OpenTelemetry HTTP receiver.
- hostPort: 4318
- - containerPort: 4317 # default port for OpenTelemetry gRPC receiver.
- hostPort: 4317
- - containerPort: 8888 # Default endpoint for querying metrics.
- volumeMounts:
- - name: otel-agent-config-vol
- mountPath: /conf
- - name: varlogpods
- mountPath: /var/log/pods
- readOnly: true
- - name: varlibdockercontainers
- mountPath: /var/lib/docker/containers
- readOnly: true
- volumes:
- - name: otel-agent-config-vol
- configMap:
- name: otel-agent-conf
- items:
- - key: otel-agent-config
- path: otel-agent-config.yaml
- # Mount nodes log file location.
- - name: varlogpods
- hostPath:
- path: /var/log/pods
- - name: varlibdockercontainers
- hostPath:
- path: /var/lib/docker/containers
-```
-
-{{% /collapse-content %}}
+{{< whatsnext desc=" " >}}
+ {{< nextlink href="/opentelemetry/setup/collector_exporter/install" >}}
+ Instala y configura el Collector
+ Sigue los pasos de configuración inicial para obtener un Collector que se ejecuta con el Datadog Exporter.
+ {{< /nextlink >}}
+{{< /whatsnext >}}
-## Configuración del Datadog Exporter predefinida
+## Configuración
-Puedes encontrar ejemplos de configuración predefinida del Datadog Exporter en la [carpeta`exporter/datadogexporter/examples`][31] en el proyecto OpenTelemetry Collector Contrib. Consulta el archivo de ejemplo de configuración completo, [`ootb-ec2.yaml`][30]. Configura cada uno de los siguientes componentes para adaptarlos a tus necesidades:
+Una vez que el Collector esté en funcionamiento, utiliza estas guías para configurar receptores y procesadores específicos para recopilar y enriquecer los datos de telemetría.
{{< whatsnext desc=" " >}}
- {{< nextlink href="/opentelemetry/collector_exporter/otlp_receiver/" >}}Receptor OTLP{{< /nextlink >}}
- {{< nextlink href="/opentelemetry/collector_exporter/hostname_tagging/" >}}Nombre de host y etiquetas{{< /nextlink >}}
- {{< nextlink href="/opentelemetry/collector_exporter/collector_batch_memory/" >}}Configuración de lote y memoria{{< /nextlink >}}
+ {{< nextlink href="/opentelemetry/setup/collector_exporter/deploy" >}}
+ Desplegar el Collector
+ Aprende cómo ejecutar el Collector en varios entornos, incluido en un host, en Docker, o como un DaemonSet o Gateway en Kubernetes.
+ {{< /nextlink >}}
+ {{< nextlink href="/opentelemetry/config/hostname_tagging" >}}
+ Configurar el nombre de host y el etiquetado
+ Usa la detección de recursos y los procesadores de atributos de Kubernetes para asegurar la resolución correcta de nombres de host y aplicar las etiquetas críticas para correlacionar la telemetría en Datadog.
+ {{< /nextlink >}}
+ {{< nextlink href="/opentelemetry/config/log_collection" >}}
+ Configurar la recopilación de logs
+ Configura el receptor de logs de archivo para recopilar logs desde archivos y reenviarlos a Datadog, lo que admite los logs, métricas y trazas unificados.
+ {{< /nextlink >}}
+ {{< nextlink href="/opentelemetry/config/otlp_receiver" >}}
+ Permitir un receptor OTLP
+ Configura el receptor OTLP para aceptar trazas, métricas y logs desde tus aplicaciones instrumentadas por OpenTelemetry mediante gRPC o HTTP.
+ {{< /nextlink >}}
+ {{< nextlink href="/opentelemetry/config/collector_batch_memory" >}}
+ Ajustar la configuración de lotes y memoria
+ Optimiza el rendimiento y el consumo de recursos de tu Collector al configurar el procesador de lotes y el delimitador de memoria.
+ {{< /nextlink >}}
{{< /whatsnext >}}
## Referencias adicionales
{{< partial name="whats-next/whats-next.html" >}}
-[1]: https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/exporter/datadogexporter
-[3]: https://github.com/open-telemetry/opentelemetry-collector-releases/releases/latest
-[4]: https://opentelemetry.io/docs/collector/configuration/
-[5]: https://github.com/open-telemetry/opentelemetry-collector/blob/main/processor/batchprocessor/README.md
-[6]: /es/api/latest/logs/
-[7]: /es/api/latest/metrics/#submit-metrics
-[8]: https://github.com/open-telemetry/opentelemetry-collector-contrib/blob/main/internal/e2e/examples/collector.yaml
-[9]: https://pkg.go.dev/go.opentelemetry.io/otel/sdk/resource#WithContainer
-[10]: /es/getting_started/tagging/unified_service_tagging/
-[11]: https://opentelemetry.io/docs/instrumentation/
-[12]: /es/logs/log_collection/?tab=host
-[13]: /es/logs/log_configuration/parsing/
-[14]: https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/pkg/stanza/docs/operators
-[15]: https://opentelemetry.io/docs/reference/specification/logs/data-model/
-[16]: https://opentelemetry.io/docs/collector/deployment/#agent
-[17]: https://github.com/open-telemetry/opentelemetry-collector-contrib/blob/main/exporter/datadogexporter/examples/k8s-chart/daemonset.yaml
-[25]: https://opentelemetry.io/docs/specs/semconv/resource/#service
-[26]: /es/logs/log_configuration/pipelines/?tab=service#service-attribute
-[27]: /es/logs/log_configuration/processors/?tab=ui#service-remapper
-[28]: /es/opentelemetry/schema_semantics/hostname/
-[29]: https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/connector/datadogconnector
-[30]: https://github.com/open-telemetry/opentelemetry-collector-contrib/blob/main/exporter/datadogexporter/examples/ootb-ec2.yaml
-[31]: https://github.com/open-telemetry/opentelemetry-collector-contrib/blob/main/exporter/datadogexporter/examples/
-[32]: /es/opentelemetry/compatibility/
\ No newline at end of file
+[1]: /es/opentelemetry/setup/ddot_collector/install/
\ No newline at end of file
diff --git a/content/es/real_user_monitoring/browser/tracking_user_actions.md b/content/es/real_user_monitoring/browser/tracking_user_actions.md
index f152119a7a795..1e510da5e063c 100644
--- a/content/es/real_user_monitoring/browser/tracking_user_actions.md
+++ b/content/es/real_user_monitoring/browser/tracking_user_actions.md
@@ -2,6 +2,9 @@
algolia:
tags:
- acciones del usuario
+description: Realiza un seguimiento automático de las interacciones de los usuarios
+ y las acciones personalizadas en las aplicaciones web para comprender el comportamiento
+ de los usuarios, el rendimiento y la adopción de funciones.
further_reading:
- link: https://www.datadoghq.com/blog/real-user-monitoring-with-datadog/
tag: Blog
@@ -28,34 +31,32 @@ Puedes alcanzar los siguientes objetivos:
* Cuantificar la adopción de las funciones
* Identificar los pasos que llevaron a un error específico en el navegador
+Aunque no hay un límite explícito en el número total de acciones que pueden ser recopiladas por el SDK del RUM Browser durante una sesión, hay limitaciones técnicas en los tamaños de los eventos individuales y la carga útil enviada. Para más detalles sobre las limitaciones de las acciones, consulta la [documentación de resolución de problemas del RUM Browser][1].
+
## Administrar la información recopilada
El parámetro de inicialización `trackUserInteractions` activa la recopilación de los clics del usuario en tu aplicación, lo que significa que se pueden incluir datos confidenciales y privados presentes en tus páginas para identificar los elementos con los que ha interactuado un usuario.
-Para controlar qué información se envía a Datadog, puedes [enmascarar nombres de acciones con opciones de privacidad][6], [configurar manualmente un nombre de acción](#declare-a-name-for-click-actions) o [implementar una regla de limpieza global en el SDK del navegador de Datadog para RUM][1].
+Para controlar qué información se envía a Datadog, puedes [enmascarar nombres de acciones con opciones de privacidad][2], [configurar manualmente un nombre de acción](#declare-a-name-for-click-actions) o [implementar una regla de limpieza global en el SDK de Datadog Browser para RUM][3].
## Administrar las interacciones de los usuarios
-El SDK del RUM Browser realiza un rastreo automático de los clics. Se crea una acción de clic cuando se cumplen **todas las siguientes** condiciones:
-
-* Se detecta la actividad posterior al clic. Consulta [Cómo se calcula la actividad de la página][2] para obtener más información.
-* El clic no genera que se cargue una nueva página, en cuyo caso, el SDK del navegador de Datadog genera otro evento de vista de RUM.
-* Se puede calcular un nombre para la acción. Consulta [Declarar un nombre para las acciones de clics](#declare-a-name-for-click-actions) para obtener más información.
+El SDK de RUM Browser rastrea automáticamente los clics para generar acciones de clic. Una acción de un solo clic representa generalmente un clic del usuario, excepto cuando se hace clic varias veces seguidas en el mismo elemento, y en ese caso se considera una sola acción (consulta [Señales de frustración "clics repetidos"][4]).
-## Métricas del tiempo de acción
+## Telemetría de tiempos de acción
-Para obtener información sobre los atributos predeterminados para todos los tipos de eventos de RUM, consulta [Datos de RUM Browser recopilados][3].
+Para obtener información sobre los atributos predeterminados para todos los tipos de eventos RUM, consulta [Datos recopilados del RUM Browser][5].
-| Métrica | Tipo | Descripción |
+| Telemetría | Tipo | Descripción |
|--------------|--------|--------------------------|
| `action.loading_time` | número (ns) | El tiempo de carga de la acción. |
| `action.long_task.count` | número | Número de tareas largas recopiladas para esta acción. |
| `action.resource.count` | número | Número de recursos recopilados para esta acción. |
| `action.error.count` | número | Número de errores recopilados para esta acción.|
-El SDK del navegador de Datadog para RUM calcula el tiempo de carga de la acción monitorizando la actividad de la página después de cada clic. Una acción se considera completa cuando la página no tiene más actividad. Consulta [Cómo se calcula la actividad de la página][2] para obtener más información.
+El SDK de Datadog Browser para RUM calcula el tiempo de carga de la acción monitorizando la actividad de la página después de cada clic. Una acción se considera completa cuando la página no tiene más actividad. Consulta [Cómo se calcula la actividad de la página][2] para obtener más información.
-Para obtener más información sobre la configuración para el muestreo o el contexto global, consulta [Modificar los datos y el contexto de RUM][1].
+Para obtener más información sobre la configuración para el muestreo o el contexto global, consulta [Modificación de datos y contexto RUM][3].
## Atributos de las acciones
@@ -78,11 +79,11 @@ Por ejemplo:
Error:
- Ingresar una dirección de correo electrónico válida
+ Enter a valid email address
```
-A partir de la [versión 2.16.0][4], mediante el parámetro de inicialización `actionNameAttribute`, es posible especificar un atributo personalizado que se emplee para dar un nombre a la acción.
+A partir de la [versión 2.16.0][7], con el parámetro de inicialización `actionNameAttribute`, puedes especificar un atributo personalizado que se utiliza para dar nombre a acción.
Por ejemplo:
@@ -113,15 +114,26 @@ El SDK del navegador de Datadog utiliza diferentes estrategias para calcular los
Para aumentar la recopilación de interacciones del usuario, envía tus acciones personalizadas mediante la API `addAction`. Estas acciones personalizadas envían información sobre un evento que se produce durante el recorrido de un usuario.
-Para más información, consulta [Enviar acciones personalizadas][5].
+Para obtener más información, consulta [Enviar acciones personalizadas][8].
+
+## Límites y muestreo de acciones
+
+No existe un límite estricto en el número de acciones del usuario, como clics o acciones personalizadas, que el SDK de Datadog RUM Browser puede rastrear por sesión o página. Sin embargo, debes tener en cuenta lo siguiente:
+
+- **Muestreo**: puedes configurar el SDK para que muestree un porcentaje de las acciones del usuario utilizando las opciones `sampleRate` y `trackInteractions`. Esto ayuda a controlar el volumen de datos enviados a Datadog. Para más información, consulta [Configuración avanzada][1].
+- **Rendimiento**: el SDK agrupa y envía eventos periódicamente. En casos de acciones de alta frecuencia, como clics repetidos, el SDK puede deduplicar o agrupar acciones, por ejemplo, mediante la detección de clics repetidos para evitar inundaciones.
+
+Como mejor práctica, si esperas un alto volumen de acciones de usuario, considera ajustar tu configuración de muestreo y monitorizar tu uso de eventos de Datadog.
## Referencias adicionales
{{< partial name="whats-next/whats-next.html" >}}
-[1]: /es/real_user_monitoring/browser/advanced_configuration/
-[2]: /es/real_user_monitoring/browser/monitoring_page_performance/#how-page-activity-is-calculated
-[3]: /es/real_user_monitoring/browser/data_collected/#default-attributes
-[4]: https://github.com/DataDog/browser-sdk/blob/main/CHANGELOG.md#v2160
-[5]: /es/real_user_monitoring/guide/send-rum-custom-actions
-[6]: /es/data_security/real_user_monitoring/#mask-action-names
\ No newline at end of file
+[1]: /es/real_user_monitoring/browser/troubleshooting/
+[2]: /es/data_security/real_user_monitoring/#mask-action-names
+[3]: /es/real_user_monitoring/browser/advanced_configuration/
+[4]: /es/real_user_monitoring/browser/frustration_signals/
+[5]: /es/real_user_monitoring/browser/data_collected/#default-attributes
+[6]: /es/real_user_monitoring/browser/monitoring_page_performance/#how-page-activity-is-calculated
+[7]: https://github.com/DataDog/browser-sdk/blob/main/CHANGELOG.md#v2160
+[8]: /es/real_user_monitoring/guide/send-rum-custom-actions
\ No newline at end of file
diff --git a/content/es/real_user_monitoring/browser/troubleshooting.md b/content/es/real_user_monitoring/browser/troubleshooting.md
index f453200105535..d9e4d033f471d 100644
--- a/content/es/real_user_monitoring/browser/troubleshooting.md
+++ b/content/es/real_user_monitoring/browser/troubleshooting.md
@@ -1,4 +1,6 @@
---
+description: Solucionar problemas comunes con el SDK de RUM Browser incluyendo datos
+ perdidos, bloqueadores de anuncios, restricciones de red y problemas de configuración.
further_reading:
- link: https://www.datadoghq.com/blog/real-user-monitoring-with-datadog/
tag: Blog
@@ -9,7 +11,7 @@ further_reading:
title: Solucionar problemas
---
-Si experimentas algún comportamiento inesperado con Datadog Browser RUM, utiliza esta guía para resolver los problemas rápidamente. Si sigues teniendo problemas, contacta con el [equipo de asistencia de Datadog][1] para obtener más ayuda. Actualiza con regularidad el [RUM Browser SDK][2] a la última versión, ya que cada nueva versión contiene mejoras y correcciones.
+Si experimentas algún comportamiento inesperado con Datadog Browser RUM, utiliza esta guía para resolver los problemas rápidamente. Si sigues teniendo problemas, contacta con el [equipo de asistencia de Datadog][1] para obtener más ayuda. Actualiza con regularidad el [SDK del RUM Browser][2] a la última versión, ya que cada nueva versión contiene mejoras y correcciones.
## Datos faltantes
@@ -19,16 +21,20 @@ Si no puedes ver ningún dato en RUM o si faltan datos de algún usuario:
| ----------------------------------------------------------------------------------------------------------- | -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
| Los bloqueadores de anuncios impiden que el SDK del RUM Browser se descargue o envíe datos a Datadog. | Algunos bloqueadores de anuncios amplían sus restricciones a las herramientas de rastreo de rendimiento y marketing. Consulta los documentos [Instalar el SDK del RUM Browser con npm][3] y [reenviar los datos recopilados a través de un proxy][4]. |
| Las reglas de red, las VPN o el software antivirus pueden impedir que se descargue el SDK del RUM Browser o que se envíen datos a Datadog. | Permite el acceso a los endpoints necesarios para descargar el SDK del RUM Browser o para enviar datos. La lista de endpoints está disponible en la [documentación sobre la Política de seguridad de contenido][5]. |
-| Los scripts, paquetes y clientes inicializados antes del SDK del RUM Browser pueden provocar que se pierdan logs, recursos y acciones del usuario. Por ejemplo, inicializar ApolloClient antes que el SDK del RUM Browser puede provocar que las solicitudes `graphql` no se registren como recursos XHR en el navegador RUM. | Check dónde se inicializa el SDK de RUM Browser y plantéate adelantar este paso en la ejecución del código de tu aplicación. |
-| Si has configurado `trackViewsManually: true` y observas que no hay sesiones, es posible que la aplicación haya dejado de enviar información RUM repentinamente aunque no haya errores red. | Asegúrate de iniciar una vista inicial una vez que hayas inicializado RUM para evitar cualquier pérdida de datos. Consulta [Configuración avanzada][6] para obtener más información.|
+| Los scripts, paquetes y clientes inicializados antes del SDK del RUM Browser pueden provocar que se pierdan logs, recursos y acciones del usuario. Por ejemplo, inicializar ApolloClient antes que el SDK del RUM Browser puede provocar que las solicitudes `graphql` no se registren como recursos XHR en el RUM Explorer. | Check dónde se inicializa el SDK de RUM Browser y plantéate adelantar este paso en la ejecución del código de tu aplicación. |
+| Si has configurado `trackViewsManually: true` y observas que no hay sesiones, es posible que la aplicación haya dejado de enviar información RUM repentinamente aunque no haya errores de red. | Asegúrate de iniciar una vista inicial una vez que hayas inicializado RUM para evitar cualquier pérdida de datos. Consulta [Configuración avanzada][6] para obtener más información.|
-Lee las [directrices de la política de seguridad de contenidos][5] y asegúrate de que tu sitio web permita el acceso al CDN del SDK del RUM Browser y al endpoint de ingesta.
+Lee las [directrices de la política de seguridad de contenido][5] y asegúrate de que tu sitio web permita el acceso al CDN del SDK del RUM Browser y al endpoint de ingesta.
+
+## Problemas al ejecutar varias herramientas RUM en la misma aplicación
+
+Datadog solo admite un SDK por aplicación. Para garantizar una recopilación de datos óptima y la plena funcionalidad de todas las características del SDK de Datadog RUM, utiliza únicamente el SDK de Datadog RUM.
### Inicialización del SDK del RUM Browser
Check si el SDK del RUM Browser se inicializa ejecutando `window.DD_RUM.getInternalContext()` en la consola de tu navegador y verifica que se devuelvan `application_id`, `session_id` y el objeto de vista:
-{{< img src="real_user_monitoring/browser/troubleshooting/success_rum_internal_context.png" alt="Comando de obtención de contexto interno ejecutado correctamente">}}
+{{< img src="real_user_monitoring/browser/troubleshooting/success_rum_internal_context.png" alt="El comando de obtención de contexto interno se ejecutó correctamente">}}
Si el SDK del RUM Browser no está instalado o si no se inicializa correctamente, puedes ver el error `ReferenceError: DD_RUM is not defined` como el que se muestra a continuación:
@@ -44,13 +50,13 @@ También puedes check la consola de herramientas de desarrollo de tu navegador o
El SDK de RUM envía lotes de datos de eventos a la ingesta de Datadog cada vez que se cumple una de estas condiciones:
- Cada 30 segundos
-- Cuando se hayan alcanzado 50 eventos
-- Cuando la carga útil sea >16 kB
+- Cuando se hayan alcanzado 50 eventos
+- Cuando la carga útil sea >16 kB
- En `visibility:hidden` o `beforeUnload`
-Si se están enviando datos, deberías ver solicitudes de redes dirigidas a `/v1/input` (la parte del origen de la URL puede diferir debido a la configuración de RUM) en la sección de red de las herramientas de desarrollo del navegador:
+Si se están enviando datos, deberías ver las solicitudes de red dirigidas a `api/v2/rum` (la parte del origen de la URL puede diferir debido a la configuración de RUM) en la sección Red de las herramientas de desarrollo de tu navegador:
-{{< img src="real_user_monitoring/browser/troubleshooting/network_intake.png" alt="Solicitudes de RUM a la ingesta de Datadog">}}
+{{< img src="real_user_monitoring/browser/troubleshooting/network_intake-1.png" alt="Solicitudes de RUM a la entrada de Datadog">}}
## Cookies de RUM
@@ -120,16 +126,20 @@ El SDK del navegador RUM permite configurar el [contexto global][10], la [inform
Para minimizar el impacto en el ancho de banda del usuario, el SDK del navegador RUM limita los datos enviados a la ingesta de Datadog. Sin embargo, el envío de grandes volúmenes de datos puede afectar al rendimiento de los usuarios con conexiones a Internet lentas.
-Para una mejor experiencia de usuario, Datadog recomienda mantener el tamaño del contexto global, la información del usuario y las marcas de funciones por debajo de 3 KiB. Si los datos superan este límite, se muestra una advertencia: `The data exceeds the recommended 3KiB threshold.`
+Para una mejor experiencia de usuario, Datadog recomienda mantener el tamaño del contexto global, la información del usuario y las marcas de funciones por debajo de 3 KiB. Si los datos superan este límite, se mostrará una advertencia: `The data exceeds the recommended 3KiB threshold.`
Desde v5.3.0, el SDK del RUM Browser admite la compresión de datos a través de `compressIntakeRequest` [parámetro de inicialización][13]. Cuando está activado, este límite recomendado se amplía de 3 KiB a 16 KiB.
## Advertencia de bloqueo de lectura de origen cruzado
-En los navegadores basados en Chromium, cuando el SDK del RUM Browser envía datos a la ingesta de Datadog, se muestra una advertencia CORB en la consola: `Cross-Origin Read Blocking (CORB) blocked cross-origin response`.
+En los navegadores de Chromium, cuando el SDK del RUM Browser envía datos a la ingesta de Datadog, se muestra una advertencia CORB en la consola: `Cross-Origin Read Blocking (CORB) blocked cross-origin response`.
La advertencia se muestra porque la ingesta devuelve un objeto JSON no vacío. Este comportamiento es un problema reportado [de Chromium][8]. No afecta al SDK del RUM Browser y se lo puede ignorar en forma segura.
+## Advertencia "Deobfuscation failed"
+
+Aparece una advertencia cuando falla el desenmascaramiento de un stack trace. Si el stack trace no está enmascarado para empezar, puedes ignorar esta advertencia. De lo contrario, utiliza la [página Símbolos de depuración de RUM][14] para ver todos tus mapas fuente subidos. Consulta [Investigar stack traces enmascarados con símbolos de depuración de RUM][15].
+
## Referencias adicionales
{{< partial name="whats-next/whats-next.html" >}}
@@ -146,4 +156,6 @@ La advertencia se muestra porque la ingesta devuelve un objeto JSON no vacío. E
[10]: /es/real_user_monitoring/browser/advanced_configuration/?tab=npm#global-context
[11]: /es/real_user_monitoring/browser/advanced_configuration/?tab=npm#user-session
[12]: /es/real_user_monitoring/guide/setup-feature-flag-data-collection/?tab=browser
-[13]: /es/real_user_monitoring/browser/setup/#initialization-parameters
\ No newline at end of file
+[13]: /es/real_user_monitoring/browser/setup/#initialization-parameters
+[14]: https://app.datadoghq.com/source-code/setup/rum
+[15]: /es/real_user_monitoring/guide/debug-symbols
\ No newline at end of file
diff --git a/content/es/real_user_monitoring/explorer/visualize.md b/content/es/real_user_monitoring/explorer/visualize.md
index 298e94bd45b53..32b1dc2a7b3e5 100644
--- a/content/es/real_user_monitoring/explorer/visualize.md
+++ b/content/es/real_user_monitoring/explorer/visualize.md
@@ -1,4 +1,7 @@
---
+description: Crea visualizaciones a partir de los datos de RUM, incluyendo listas,
+ series temporales, tablas y gráficos para analizar el rendimiento y las tendencias
+ de comportamiento de los usuarios.
further_reading:
- link: /real_user_monitoring/explorer/search/
tag: Documentación
@@ -12,11 +15,11 @@ Las visualizaciones definen los resultados de los filtros y agregados mostrados
## Listas
-Las listas son resultados paginados de eventos y son ideales cuando son importantes los resultados individuales. Para utilizar las listas no es necesario tener conocimientos previos de lo que define un resultado coincidente.
+Las listas son resultados paginados de eventos y son ideales cuando importan los resultados individuales. Para utilizar las listas no es necesario tener conocimientos previos de lo que define un resultado coincidente.
{{< img src="real_user_monitoring/explorer/visualize/rum_explorer_lists-1.mp4" alt="Listas en el Explorador RUM" video="true" style="width:70%;" >}}
-La información que buscas se muestra en columnas. Puedes administrar lo siguiente:
+La información que buscas se muestra en columnas. Puedes gestionar lo siguiente:
- La tabla con las interacciones disponibles en la primera fila. Puedes ordenar, reorganizar y eliminar columnas.
- El panel de facetas de la izquierda o el [panel lateral de eventos][2] RUM de la derecha. Puedes añadir una columna para un campo.
@@ -43,8 +46,8 @@ El gráfico de series temporales muestra la evolución del número de páginas v
Puedes elegir opciones de visualización adicionales como:
-- Visualización: Los resultados se muestran en forma de barras (recomendado para recuentos y recuentos únicos), líneas (recomendado para agregaciones estadísticas), áreas. Hay varios conjuntos de colores disponibles.
-- Intervalo de roll-up: Determina la anchura de los buckets en las barras.
+- Visualización: Los resultados se muestran en forma de barras (recomendado para counts y counts únicos), líneas (recomendado para agregaciones estadísticas), áreas y se dispone de varios conjuntos de colores.
+- El intervalo de acumulación: determina el ancho de los buckets en las barras.
## Lista principal
@@ -52,16 +55,16 @@ Visualiza los principales valores de una faceta en función de la medida elegida
{{< img src="real_user_monitoring/explorer/visualize/top-list-2.png" alt="Gráfico de barras de la lista principal en el Explorador RUM" style="width:90%;" >}}
-La lista principal incluye los principales navegadores utilizados para visitar el sitio web de Shopist durante el último día.
+La lista de principales incluye los principales navegadores utilizados para visitar el sitio web de Shopist durante el último día.
## Tablas anidadas
Visualiza los principales valores de hasta tres [facetas][5] según la [medida][5] elegida (la primera medida que elijas en lista) y visualiza el valor de las medidas adicionales para los elementos que aparecen en la tabla anidada. Actualiza la consulta de búsqueda o investiga los eventos RUM correspondientes a cualquiera de las dos dimensiones.
-* Cuando hay varias medidas, la lista principal o inferior se determina en función de la primera medida.
-* El subtotal puede diferir de la suma real de valores de un grupo, ya que sólo se muestra un subconjunto (principal o inferior). Los eventos con un valor nulo o vacío para esta dimensión no se muestran como subgrupo.
+* Cuando haya varias medidas, la lista superior o inferior se determina en función de la primera medida.
+* El subtotal puede diferir de la suma real de valores de un grupo, ya que sólo se muestra un subconjunto (superior o inferior). Los eventos con un valor nulo o vacío para esta dimensión no se muestran como subgrupo.
- **Nota**: Una visualización de tabla utilizada para una sola medida y una sola dimensión es lo mismo que una [lista principal](#top-list), sólo que con una visualización diferente.
+ **Nota**: Una visualización de tabla utilizada para una sola medida y una sola dimensión es lo mismo que una [lista de principales](#top-list), sólo que con una visualización diferente.
La siguiente tabla de RUM Analytics muestra las **5 principales rutas URL** para **dos países**, EE.UU. y Japón, agrupadas por navegador, durante el último día:
@@ -69,11 +72,11 @@ Visualiza los principales valores de hasta tres [facetas][5] según la [medida][
## Distribuciones
-Puedes visualizar la distribución de los atributos de medida a lo largo del periodo de tiempo seleccionado para ver la fluctuación de los valores.
+Puedes visualizar la distribución de los atributos de medidas a lo largo del periodo de tiempo seleccionado para ver la fluctuación de los valores.
{{< img src="real_user_monitoring/explorer/visualize/distribution-2.png" alt="Gráfico de distribución en el Explorador RUM" style="width:90%;">}}
-El gráfico de distribución muestra la distribución del Largest Contentful Paint que mide la experiencia de usuario de la página de inicio de Shopist.
+En el gráfico de distribución, se muestra la distribución de la pintura de mayor contenido que mide la experiencia de usuario de la página de destino de Shopist.
## Geomapas
@@ -85,11 +88,11 @@ El geomapa de RUM Analytics muestra el percentil 75 del **Largest Contentful Pai
## Embudos
-El análisis del embudo te ayuda a realizar un seguimiento de las tasas de conversión en los flujos de trabajo clave para identificar y abordar los cuellos de botella en los recorridos integrales de los usuarios. En concreto, puedes:
+El análisis del embudo te ayuda a realizar un seguimiento de las tasas de conversión en flujos de trabajo clave, para identificar y abordar los cuellos de botella en recorridos de extremo a extremo de los usuarios. En concreto, puedes:
-- Comprobar si los clientes abandonan el sitio web en un momento determinado debido a un rendimiento deficiente
-- Rastrear la evolución de la tasa de conversión a medida que se incorporan nuevas funciones
-- Medir cómo afecta a la tasa de abandono la adición de nuevos pasos a un flujo de trabajo
+- Ver si los clientes abandonan el sitio web en un momento determinado debido a un rendimiento deficiente.
+- Realizar un seguimiento de la evolución de la tasa de conversión a medida que se incorporan nuevas funciones.
+- Medir cómo afecta a la tasa de abandono la adición de nuevos pasos a un flujo de trabajo.
**Nota**: La tasa de conversión es el número de visitantes de tu sitio web que completaron un objetivo deseado (una conversión) del número total de visitantes.
@@ -101,9 +104,9 @@ Para construir un embudo, elige tu vista o acción inicial y haz clic en el icon
### Próximos pasos sugeridos
-Cuando tengas un punto de partida en mente, pero no estés seguro de lo que tus usuarios hicieron después, despliega el panel **Quickly add a step** (Añadir rápidamente un paso) (disponible en un cajón a la derecha) para ver los siguientes pasos sugeridos. Después de introducir los pasos, este panel carga automáticamente las cinco **vistas** y **acciones** más comunes que los usuarios suelen ver y realizar a continuación. Esto te permite construir embudos más rápido sabiendo los caminos que tus usuarios están tomando en secuencia.
+Cuando tengas un punto de partida en mente, pero no estés seguro de lo que tus usuarios hicieron a continuación, haz clic en el cuadro de búsqueda donde dice "Search for View or Action Name" (Búsqueda por nombre de vista o acción) para ver los siguientes pasos sugeridos. Este cuadro de entrada carga automáticamente las **vistas** y **acciones** más comunes que los usuarios suelen ver y realizar a continuación. Esto te permite crear embudos más rápido sabiendo los caminos que tus usuarios están tomando en secuencia.
-{{< img src="real_user_monitoring/funnel_analysis/funnel-analysis-suggested-next-steps.jpg" alt="Crear un embudo" style="width:90%;" >}}
+{{< img src="real_user_monitoring/funnel_analysis/funnel-analysis-suggested-next-steps-1.png" alt="Crear un túnel" style="width:90%;" >}}
**Nota**: Cualquier acción o vista que ocurra entre dos pasos de un embudo no afecta a la tasa de conversión paso a paso o global. Mientras el paso 1 y el paso 2 ocurran en el orden correcto en una sesión dada al menos una vez, cuentan como una única sesión convertida.
@@ -129,7 +132,7 @@ Después de crear un embudo, haz clic en **View Funnel Insights** (Ver informaci
## Gráficos circulares
Un gráfico circular te ayuda a organizar y mostrar los datos como un porcentaje del total. Resulta útil cuando se compara la relación entre diferentes dimensiones como servicios, usuarios, hosts, países, etc. dentro de tus datos de logs.
-El siguiente gráfico circular muestra el desglose porcentual por **Ruta de vista**.
+En el siguiente gráfico circular se muestra el desglose porcentual por **Ruta de vista**.
{{< img src="real_user_monitoring/explorer/visualize/pie-chart.png" alt="Gráfico circular en el Explorador RUM" style="width:90%;">}}
@@ -139,13 +142,12 @@ Para todas las visualizaciones, selecciona una sección del gráfico o haz clic
{{< img src="real_user_monitoring/explorer/visualize/related-events-2.png" alt="Enlace de eventos relacionados cuando se hace clic en el gráfico" width="90%" >}}
-Para el resto de las opciones de visualización, haz clic en el gráfico y luego en **Ver eventos**, para ver una lista de los eventos que corresponden a tu selección.
+Para el resto de las opciones de visualización, haz clic en el gráfico y en **Ver eventos** para ver una lista de eventos que correspondan a tu selección.
## Referencias adicionales
{{< partial name="whats-next/whats-next.html" >}}
-
[1]: /es/real_user_monitoring/explorer/
[2]: /es/real_user_monitoring/explorer/events/
[3]: /es/logs/explorer/facets/
diff --git a/content/es/real_user_monitoring/rum_without_limits/_index.md b/content/es/real_user_monitoring/rum_without_limits/_index.md
new file mode 100644
index 0000000000000..d0bdebb081bb8
--- /dev/null
+++ b/content/es/real_user_monitoring/rum_without_limits/_index.md
@@ -0,0 +1,108 @@
+---
+description: Conserva solo los datos RUM que necesites, manteniendo una visibilidad
+ total de las métricas de rendimiento para tus aplicaciones.
+further_reading:
+- link: /real_user_monitoring/rum_without_limits/retention_filters
+ tag: Documentación
+ text: Conservar datos con filtros de retención
+- link: /real_user_monitoring/guide/retention_filter_best_practices/
+ tag: Guía
+ text: Mejores prácticas para los filtros de retención
+- link: /real_user_monitoring/rum_without_limits/metrics
+ tag: Documentación
+ text: Analizar el rendimiento con métricas
+- link: https://www.datadoghq.com/blog/rum-without-limits/
+ tag: Blog
+ text: 'Presentamos RUM without LimitsTM: captura todo, conserva lo que importa'
+title: RUM without Limits
+---
+
+RUM without Limits se activa automáticamente para los clientes con planes de RUM no comprometidos. Ponte en contacto con tu equipo de cuentas o con
el servicio de asistencia de Datadog para activar esta función.
+
+{{< img src="real_user_monitoring/rum_without_limits/rum-without-limits-overview.png" alt="Página de panel lateral de las métricas de uso estimado" style="width:90%" >}}
+
+## Información general
+
+RUM without Limits te proporciona flexibilidad sobre tus volúmenes de sesiones RUM al desacoplar la ingesta de datos de sesión de la indexación. Esto te permite:
+
+- Establecer filtros de retención dinámicamente desde la interfaz de usuario de Datadog sin tener que tomar decisiones de muestreo previas ni cambiar el código.
+- Conservar las sesiones con errores o problemas de rendimiento y descartar las menos significativas, como las que tienen pocas interacciones con el usuario.
+
+Aunque solo se conserve una fracción de las sesiones, Datadog proporciona [métricas de rendimiento][1] para todas las sesiones ingestadas. Esto garantiza una visión general precisa y a largo plazo del estado y el rendimiento de la aplicación, incluso si solo se conserva una fracción de los datos de sesión.
+
+**Nota**: En el modo RUM without Limits, solo puedes utilizar los filtros predeterminados en la [página de Resumen de monitorización del rendimiento][7]. Esto te permite ver todo el conjunto de datos y evita métricas de rendimiento sesgadas, ya que los datos se muestrean y hay menos etiquetas disponibles que en los atributos de eventos.
+
+Esta página identifica los componentes clave de RUM without Limits que pueden ayudarte a gestionar los volúmenes de tus sesiones RUM dentro de tu presupuesto de observabilidad.
+
+### Para nuevas aplicaciones
+
+Para empezar a trabajar con RUM without Limits para nuevas aplicaciones, en el paso de [instrumentación][2]:
+
+1. Asegúrate de que `sessionSampleRate` está configurado al 100%. Datadog recomienda configurarlo a este porcentaje para una visibilidad óptima y precisión de las métricas.
+
+2. Elige una `sessionReplaySampleRate` que satisfaga tus necesidades de observabilidad.
+
+3. Para aplicaciones con la integración [APM activada][3], configura el porcentaje de sesiones para las que deseas asegurarte de que las trazas de backend de APM se ingieren con `traceSampleRate` (navegador), `traceSampler` (Android) o `sampleRate` (iOS).
+
+4. Habilita `traceContextInjection: sampled` para permitir que las bibliotecas de rastreo de backend tomen sus propias decisiones de muestreo para las sesiones en las que el SDK de RUM decida no conservar la traza.
+
+ Los pasos 1, 3 y 4 pueden afectar a la ingesta de trazas de APM. Para garantizar que los volúmenes ingestados de tramos permanezcan estables, configura traceSampleRate con el valor de sessionSampleRate configurado anteriormente. Por ejemplo, si solías tener configurado sessionSampleRate al 10 % y lo aumentas al 100 % para RUM without Limits, reduce traceSampleRate del 100 % al 10 % para ingerir la misma cantidad de trazas.
+
+5. Despliega tu aplicación para aplicar la configuración.
+
+### Para aplicaciones existentes
+Los usuarios existentes de RUM deben volver a desplegar las aplicaciones para utilizar plenamente RUM without Limits. Asegúrate de que la frecuencia de muestreo de la sesión es del 100 % para todas las aplicaciones.
+
+#### Paso 1: Ajustar la frecuencia de muestreo
+Si ya estás recopilando repeticiones, para aumentar la frecuencia de muestreo de la sesión es necesario reducir la frecuencia de muestreo de las repeticiones para recopilar el mismo número de repeticiones (consulta el ejemplo siguiente). La frecuencia de muestreo de repetición se basa en la frecuencia de muestreo de sesión existente.
+
+Antes:
+
+```java
+ sessionSampleRate: 20,
+ sessionReplaySampleRate: 10,
+```
+
+Después:
+
+```java
+ sessionSampleRate: 100,
+ sessionReplaySampleRate: 2,
+```
+
+1. Ve a [**Digital Experiences > Real User Monitoring > Manage Applications**][4] (Experiencias digitales > Real User Monitoring > Gestionar aplicaciones).
+1. Haz clic en la aplicación que deseas migrar.
+1. Haz clic en la pestaña **SDK Configuration** (Configuración del SDK).
+1. Asegúrate de que `sessionSampleRate` está ajustado al 100 %.
+1. Establece `sessionReplaySampleRate` a una velocidad que resulte en el mismo número de repeticiones antes de aumentar la velocidad de muestreo de la sesión.
+1. Utiliza el fragmento de código generado para actualizar tu código fuente y volver a desplegar tus aplicaciones para asegurarte de que se aplica la nueva configuración.
+
+#### Paso 2: Ajustar el rastreo
+
+Si has aumentado `sessionSampleRate`, podrías aumentar el número de tramos de APM ingestados, ya que el SDK de RUM tiene la capacidad de anular las decisiones de muestreo de las trazas de backend para realizar la correlación.
+
+Para simplificar esto, establece `traceSampleRate` en un porcentaje inferior al 100 % (a la `sessionSampleRate` establecida anteriormente) y establece `traceContextInjection: sampled` para permitir que las bibliotecas de rastreo de backend tomen sus propias decisiones de muestreo para las sesiones en las que el SDK de RUM decida no mantener la traza.
+
+#### Paso 3: Crear filtros de retención
+
+En las aplicaciones móviles, pueden convivir muchas versiones concurrentes. Sin embargo, las versiones existentes no envían necesariamente el 100 % de las sesiones, lo que significa que la creación de nuevos filtros de retención reduce los datos disponibles en Datadog para estas versiones de aplicaciones.
+
+Datadog recomienda crear los mismos filtros de retención para todas las versiones de la aplicación, independientemente de si la tasa de muestreo del SDK está configurada al 100 % o no. En última instancia, todas las sesiones valiosas se siguen recopilando aunque algunas sesiones no se ingieran para algunas versiones antiguas.
+
+Consulta los filtros de retención y casos de uso sugeridos en [Prácticas recomendadas del filtro de retención][5].
+
+## Siguientes pasos
+
+Crea y configura [filtros de retención][6].
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/real_user_monitoring/rum_without_limits/metrics
+[2]: /es/real_user_monitoring/browser/setup/
+[3]: /es/real_user_monitoring/platform/connect_rum_and_traces/
+[4]: https://app.datadoghq.com/rum/list
+[5]: /es/real_user_monitoring/guide/retention_filter_best_practices/
+[6]: /es/real_user_monitoring/rum_without_limits/retention_filters
+[7]: https://app.datadoghq.com/rum/performance-monitoring
\ No newline at end of file
diff --git a/content/es/remote_configuration/_index.md b/content/es/remote_configuration/_index.md
new file mode 100644
index 0000000000000..27361d6c75997
--- /dev/null
+++ b/content/es/remote_configuration/_index.md
@@ -0,0 +1,176 @@
+---
+algolia:
+ tags:
+ - configuración remota
+ - configuración remota
+aliases:
+- /es/agent/guide/how_rc_works
+- /es/agent/guide/how_remote_config_works
+- /es/agent/remote_config
+description: Configura y cambia de forma remota el comportamiento de los componentes
+ de Datadog como Agents, bibliotecas de rastreo y Observability Pipelines Workers
+ desplegados en tu infraestructura.
+further_reading:
+- link: /security/application_security/how-appsec-works/#built-in-protection
+ tag: Documentación
+ text: Como funciona Application Security Monitoring
+- link: /dynamic_instrumentation/?tab=configurationyaml#enable-remote-configuration
+ tag: Documentación
+ text: Dynamic Instrumentation
+- link: /security/workload_protection/
+ tag: Documentación
+ text: Configuración de Workload Protection
+- link: https://www.datadoghq.com/blog/compliance-governance-transparency-with-datadog-audit-trail/
+ tag: Blog
+ text: Como usar Datadog Audit Trail
+- link: https://www.datadoghq.com/blog/remote-configuration-for-datadog/
+ tag: Blog
+ text: Aplicar actualizaciones en tiempo real a los componentes de Datadog con la
+ configuración remota
+title: Configuración remota
+---
+
+## Información general
+
+La configuración remota es una función de Datadog que te permite configurar y cambiar de forma remota el comportamiento de los componentes de Datadog (por ejemplo, Agents, bibliotecas de rastreo y Observability Pipelines Workers) desplegados en tu infraestructura. Utiliza la configuración remota para aplicar configuraciones a componentes de Datadog de tu entorno, disminuyendo los costes de gestión, reduciendo la fricción entre equipos y acelerando los tiempos de resolución de problemas.
+
+Para productos de seguridad de Datadog, App and API Protection y Workload Protection, los Agents habilitados por configuración remota y bibliotecas de rastreo compatibles proporcionan actualizaciones y respuestas de seguridad en tiempo real, lo que mejora la situación de seguridad de tus aplicaciones y la infraestructura de la nube.
+
+## Cómo funciona
+
+Cuando la configuración remota está activada, los componentes de Datadog como el Datadog Agent sondean de forma segura el [sitio Datadog][1] configurado en busca de cambios de configuración que estén listos para ser aplicados. Los cambios pendientes se aplican automáticamente a los componentes de Datadog. Por ejemplo, después de enviar cambios de configuración en la interfaz de usuario de Datadog para una función de producto habilitada por configuración remota, los cambios se almacenan en Datadog.
+
+El siguiente diagrama muestra como funciona la configuración remota:
+
+{{
}}
+
+1. Configura las funciones del producto escogidas en la interfaz de usuario de Datadog.
+2. La configuración de las funciones del producto se almacenan en condiciones seguras en Datadog.
+3. Los componentes de Datadog habilitados por configuración remota en tus entornos sondean, reciben y aplican automáticamente actualizaciones de configuración de forma segura desde Datadog. Las bibliotecas de rastreo que se despliegan en tus entornos se comunican con los Agents para solicitar y recibir actualizaciones de configuración desde Datadog, en lugar de sondear Datadog directamente.
+
+## Entornos compatibles
+
+La configuración remota funciona en entornos en los que están instalados los componentes compatibles de Datadog. Entre los componentes compatibles de Datadog se incluyen:
+- Agents
+- Rastreadores (indirectamente)
+- Observability Pipeline Workers
+- Ejecutores de acciones privadas y servicios de nube de contenedores sin servidor como AWS Fargate
+
+La configuración remota no es compatible con aplicaciones sin servidor gestionadas por contenedores, como AWS App Runner, Azure Container Apps, Google Cloud Run, ni con funciones desplegadas con paquetes de contenedores, como AWS Lambda, Azure Functions y Google Cloud Functions.
+
+## Productos y funciones compatibles
+
+Los siguientes productos y funciones son compatibles con la configuración remota.
+
+Fleet Automation
+: - [Envía flares][27] directamente desde el sitio Datadog. Soluciona sin problemas incidentes del Datadog Agent sin acceder directamente al host.
+: - [Actualiza tus Agents][29] (Vista previa).
+
+App and API Protection (AAP)
+: - [Activación de AAP en 1 clic][33]: Activa AAP en 1 clic desde la interfaz de usuario de Datadog.
+: - [Actualizaciones de patrones de ataque en la aplicación][34]: Recibe automáticamente los patrones de ataque más recientes de Web Application Firewall (WAF) a medida que Datadog los publica, siguiendo vulnerabilidades o vectores de ataque recientemente revelados.
+: - [Protección][34]: Bloquea las IP de los atacantes, los usuarios autenticados y las solicitudes sospechosas indicadas en señales y rastros de seguridad de AAP de forma temporal o permanente a través de la interfaz de usuario de Datadog.
+
+Application Performance Monitoring (APM)
+: - Configuración en tiempo de ejecución (Vista previa): Cambia la frecuencia de muestreo del rastreo de un servicio, la activación de la inyección de logs y las etiquetas (tags) de encabezados HTTP desde la interfaz de usuario del Catálogo de software, sin tener que reiniciar el servicio. Consulta [Configuración en tiempo de ejecución][22] para obtener más información.
+: - [Configura de forma remota la frecuencia de muestreo del Agent][35] (Vista previa): Configura de forma remota el Datadog Agent para cambiar sus frecuencias de muestreo del rastreo y configura reglas para escalar la ingesta de trazas (traces) de tu organización según tus necesidades, sin necesidad de reiniciar tu Datadog Agent.
+
+[Dynamic Instrumentation][36]
+: - Envía métricas, trazas y logs críticos de tus aplicaciones en directo sin cambios en el código.
+
+Workload Protection
+: - Actualizaciones automáticas de reglas predeterminadas del Agent: Recibe y actualiza automáticamente las reglas predeterminadas del Agent mantenidas por Datadog a medida que se publican nuevas detecciones y mejoras del Agent. Consulta [Configuración de Workload Protection][3] para obtener más información.
+: - Despliegue automático de reglas personalizadas del Agent: Despliega automáticamente tus reglas personalizadas del Agent en los hosts designados (todos los hosts o un subconjunto definido de hosts).
+
+Observability Pipelines
+: - Despliega y actualiza de forma remota [Observability Pipelines Workers][4] (OPW): Crea y edita pipelines en la interfaz de usuario de Datadog, desplegando tus cambios de configuración en las instancias OPW que se ejecutan en tu entorno.
+
+Ejecutor de acciones privadas
+: - Ejecuta flujos de trabajo y aplicaciones de Datadog que interactúan con servicios alojados en tu red privada sin exponer tus servicios a la Internet pública. Para obtener más información, consulta [Private Actions][30].
+
+## Cuestiones de seguridad
+
+Datadog implementa las siguientes medidas de seguridad para proteger la confidencialidad, la integridad y la disponibilidad de las configuraciones que reciben y aplican los componentes de Datadog:
+
+- Los componentes de Datadog habilitados por configuración remota y desplegados en tu infraestructura necesitan configuraciones de Datadog.
+ Algunos componentes, como los ejecutores de acciones privadas, están siempre habilitados por configuración remota. Otros, como el Agent, pueden activarse o desactivarse mediante opciones de configuración en el disco.
+- Datadog nunca envía cambios de configuración a menos que se lo soliciten componentes de Datadog. Si envía cambios de configuración, Datadog solo envía aquellos relevantes para el componente solicitante.
+- Las solicitudes de configuración se inician desde tu infraestructura a Datadog a través de HTTPS (puerto 443). Este es el mismo puerto que el Agent utiliza por defecto para enviar datos de observabilidad.
+- La comunicación entre tus componentes de Datadog y Datadog se cifra mediante HTTPS y se autentica y autoriza utilizando tu clave de API Datadog, excepto en el caso de los ejecutores de acciones privadas donde se utiliza un token JWT en su lugar.
+- Solo los usuarios con el permiso [`api_keys_write`][5] están autorizados a activar o desactivar la función de configuración remota en las claves de API y a utilizar las funciones compatibles del producto.
+- Los cambios de configuración enviados a través de la interfaz de usuario de Datadog son firmados y validados por el componente de Datadog solicitante, lo que verifica la integridad de la configuración.
+
+## Activar la configuración remota
+
+En la mayoría de los casos, la configuración remota está activada por defecto para tu organización. Puedes comprobar si la configuración remota está activada en tu organización desde la página de parámetros de [Configuración remota][8]. Si necesitas activarla:
+1. Asegúrate de que los permisos de RBAC incluyan [`org_management`][7], para poder habilitar la configuración remota en tu organización.
+1. Desde la página Parámetros de tu organización, activa [Configuración remota][8]. Esto permite que los componentes de Datadog de toda la organización reciban configuraciones de Datadog.
+1. Sigue las instrucciones de [configuración específicas del producto](#product-specific-configuration) que se indican a continuación para finalizar la configuración remota.
+
+### Configuración específica del producto
+
+Consulta la documentación a continuación para obtener instrucciones específicas para el producto que estás configurando.
+
+| Producto | Instrucciones de instalación |
+| ------- | --------------------- |
+| Automatización de flotas | [Configurar Fleet Automation][31] |
+| APM | [Configuración en tiempo de ejecución](/tracing/guide/remote_config/) |
+| Dynamic Instrumentation | [Empezando con Dynamic Instrumentation](/dynamic_instrumentation/#getting-started) |
+| Workload Protection | [Workload Protection][3] |
+| Observability Pipelines | Asegúrate de que has [activado la configuración remota en la clave de API][32] que estás utilizando para Observability Pipelines. |
+| Sensitive Data Scanner | [Almacenamiento en la nube](/security/sensitive_data_scanner/setup/cloud_storage/?tab=newawsaccount) |
+| Ejecutor de acciones privadas | [Información general sobre acciones privadas](/actions/private_actions/) |
+
+## Prácticas recomendadas
+
+### Audit Trail de Datadog
+
+Utiliza [Audit Trail de Datadog][13] para monitorizar el acceso a la organización y a eventos habilitados por configuración remota. Audit Trail permite a los administradores y equipos de seguridad realizar un seguimiento de la creación, eliminación y modificación de la API de Datadog y las claves de aplicación. Una vez configurado Audit Trail, podrás ver los eventos relacionados con las funciones habilitadas por configuración remota y quién ha solicitado estos cambios. Audit Trail permite reconstruir secuencias de eventos y establecer una monitorización sólida de Datadog para la configuración remota.
+
+### Monitores
+
+Configurar los [monitores][14] para recibir notificaciones cuando se encuentre un evento de interés.
+
+## Exclusión de la configuración remota
+
+En lugar de desactivar la configuración remota de forma global, Datadog recomienda optar por desactivarla en productos específicos de Datadog. Para obtener más información, consulta la [documentación del producto en cuestión](#product-specific-configuration).
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/getting_started/site/
+[3]: /es/security/workload_protection/
+[4]: /es/observability_pipelines/#observability-pipelines-worker
+[5]: /es/account_management/rbac/permissions#api-and-application-keys
+[6]: /es/security/application_security/threats/setup/compatibility/
+[7]: /es/account_management/rbac/permissions#access-management
+[8]: https://app.datadoghq.com/organization-settings/remote-config
+[9]: /es/security/default_rules/#cat-workload-security
+[10]: /es/tracing/trace_pipeline/ingestion_controls/#managing-ingestion-for-all-services-at-the-agent-level
+[11]: /es/dynamic_instrumentation/?tab=configurationyaml#enable-remote-configuration
+[12]: /es/security/application_security/how-appsec-works/#built-in-protection
+[13]: /es/account_management/audit_trail
+[14]: /es/monitors/
+[15]: /es/help/
+[16]: /es/remote_configuration
+[17]: /es/agent/configuration/network
+[18]: /es/agent/configuration/proxy/
+[19]: /es/tracing/software_catalog/
+[20]: /es/dynamic_instrumentation/?tab=configurationyaml#prerequisites
+[21]: /es/agent/configuration/agent-configuration-files/?tab=agentv6v7#agent-main-configuration-file
+[22]: /es/tracing/trace_collection/runtime_config/
+[23]: /es/remote_configuration#opting-out-of-remote-configuration
+[24]: https://app.datadoghq.com/organization-settings/api-keys
+[25]: /es/agent/guide/
+[26]: https://app.datadoghq.com/organization-settings/remote-config/setup?page_id=org-enablement-step
+[27]: /es/agent/fleet_automation/#send-a-remote-flare
+[28]: /es/security/sensitive_data_scanner/?tab=usingtheagent
+[29]: /es/agent/fleet_automation/remote_management#remotely-upgrade-your-agents
+[30]: /es/actions/private_actions/use_private_actions/
+[31]: /es/agent/guide/setup_remote_config
+[32]: https://app.datadoghq.com/organization-settings/remote-config/setup?page_id=api-key-enablement-step&standalone=1
+[33]: /es/security/application_security/setup/
+[34]: /es/security/application_security/
+[35]: /es/tracing/trace_pipeline/adaptive_sampling/
+[36]: /es/tracing/dynamic_instrumentation/#explore-dynamic-instrumentation
\ No newline at end of file
diff --git a/content/es/security/cloud_siem/detect_and_monitor/custom_detection_rules/create_rule/_index.md b/content/es/security/cloud_siem/detect_and_monitor/custom_detection_rules/create_rule/_index.md
new file mode 100644
index 0000000000000..26c93965eefc7
--- /dev/null
+++ b/content/es/security/cloud_siem/detect_and_monitor/custom_detection_rules/create_rule/_index.md
@@ -0,0 +1,4 @@
+---
+title: Crear una regla personalizada
+type: multi-code-lang
+---
diff --git a/content/es/security/code_security/iac_security/_index.md b/content/es/security/code_security/iac_security/_index.md
new file mode 100644
index 0000000000000..f573c85711504
--- /dev/null
+++ b/content/es/security/code_security/iac_security/_index.md
@@ -0,0 +1,89 @@
+---
+aliases:
+- /es/security/cloud_security_management/iac_scanning/
+further_reading:
+- link: https://www.datadoghq.com/blog/datadog-iac-security/
+ tag: Blog
+ text: Evitar que los errores de configuración de la nube lleguen a la producción
+ con Datadog IaC Security
+- link: /security/code_security/iac_security/setup
+ tag: Documentación
+ text: Configurar IaC Security
+- link: /security/code_security/iac_security/exclusions
+ tag: Documentación
+ text: Configurar exclusiones de IaC Security
+- link: /security/code_security/iac_security/iac_rules/
+ tag: Documentación
+ text: Reglas de IaC Security
+title: Infrastructure as Code (IaC) Security
+---
+
+Datadog Infrastructure as Code (IaC) Security detecta errores de configuración en el código de Terraform antes de su despliegue. Señala problemas como la falta de cifrado o el acceso demasiado permisivo en los archivos almacenados en los repositorios de GitHub conectados. Los tipos de archivos compatibles incluyen archivos Terraform independientes y módulos locales.
+
+{{< img src="/security/infrastructure_as_code/iac_misconfiguration_side_panel.png" alt="Panel lateral de errores de configuración de IaC en el que se muestran detalles del problema de alta gravedad activado por IMDSv1, incluidos un resumen de seguridad, un fragmento de código, marcas de tiempo de detección y pasos de corrección." width="100%">}}
+
+## Cómo funciona
+
+IaC Security se integra con tus repositorios de GitHub para buscar continuamente errores de configuración. Analiza cada commit en todas las ramas y realiza un análisis diario completo de cada repositorio configurado. Los hallazgos aparecen cuando se detectan infracciones y se asocian con el repositorio, la rama y la ruta de archivo relevantes. Esto te permite identificar, priorizar y corregir errores de configuración directamente en el origen.
+
+## Capacidades clave
+
+### Revisar y corregir infracciones en solicitudes de extracción
+
+Cuando una solicitud de extracción de GitHub incluye cambios en la infraestructura como código, Datadog añade comentarios en línea para señalar cualquier infracción. Cuando corresponde, también sugiere correcciones de código que pueden aplicarse directamente en la solicitud de extracción. También puedes abrir una nueva solicitud de extracción desde Datadog para corregir un hallazgo. Para obtener más información, consulta [Solicitudes de extracción de GitHub][5].
+
+### Ver y filtrar los hallazgos
+
+Después de configurar IaC Security, cada commit de un repositorio analizado activa un análisis. Los hallazgos se resumen en la página [Vulnerabilidades de Code Security][3] y se agrupan por repositorio en la página [Repositorios de Code Security][6].
+
+Utiliza filtros para delimitar los resultados:
+
+- Gravedad
+- Estado (abierto, silenciado, fijo)
+- Resource type
+- Proveedor de la nube
+- Ruta del archivo
+- Equipo
+- Repositorio
+
+Haz clic en cualquier hallazgo para abrir un panel lateral que muestra:
+
+- **Detalles**: Una descripción y el código relevante que ha activado el hallazgo. (Para ver fragmentos de código, [instala la aplicación GitHub][9]).
+- **Solución**: Si están disponibles, se sugieren correcciones de código para los hallazgos que admiten la corrección.
+
+### Crear tickets de Jira a partir de hallazgos
+
+Puedes crear un ticket bidireccional de Jira directamente desde cualquier hallazgo para realizar un seguimiento de los problemas y solucionarlos en tus flujos de trabajo existentes. El estado del ticket permanece sincronizado entre Datadog y Jira. Para obtener más información, consulta [Sincronización bidireccional de tickets con Jira][4].
+
+### Silenciar los hallazgos
+
+Para eliminar un hallazgo, haz clic en **Mute** (Silenciar) en el panel de detalles del hallazgo. Se abre un flujo de trabajo, donde puedes [crear una regla de silenciado][10] para el filtrado contextual por valores de etiqueta (tag) (por ejemplo, por `service` o `environment`). Silenciar un hallazgo lo oculta y lo excluye de los informes.
+
+Para restaurar un hallazgo silenciado, haz clic en **Unmute** (Anular el modo de silencio) en el panel de detalles. También puedes utilizar el filtro **Estado** en la página [Vulnerabilidades de Code Security][3] para revisar los hallazgos silenciados.
+
+### Excluir reglas, archivos o recursos específicos
+
+Puedes configurar exclusiones para evitar que ciertos hallazgos aparezcan en los resultados del análisis. Las exclusiones pueden basarse en el ID de la regla, la ruta del archivo, el tipo de recurso, la gravedad o la etiqueta.
+
+Las exclusiones se gestionan a través de un archivo de configuración o comentarios en línea en tu código IaC. Para ver los formatos compatibles y ejemplos de uso, consulta [Configurar exclusiones de IaC Security][7].
+
+## Siguientes pasos
+
+1. [Configura IaC Security][1] en tu entorno.
+2. Configura [exclusiones de análisis][2] para reducir los falsos positivos o ignorar los resultados esperados.
+3. Revisa y clasifica los hallazgos en la página [Vulnerabilidades de Code Security][3].
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/security/code_security/iac_security/setup
+[2]: /es/security/code_security/iac_security/exclusions
+[3]: https://app.datadoghq.com/security/code-security/iac
+[4]: /es/security/ticketing_integrations#bidirectional-ticket-syncing-with-jira
+[5]: /es/security/code_security/dev_tool_int/github_pull_requests/
+[6]: https://app.datadoghq.com/ci/code-analysis?
+[7]: /es/security/code_security/iac_security/exclusions/?tab=yaml
+[8]: /es/security/automation_pipelines/mute
+[9]: https://app.datadoghq.com/integrations/github/
+[10]: /es/security/automation_pipelines/
\ No newline at end of file
diff --git a/content/es/security/code_security/static_analysis/static_analysis_rules/_index.md b/content/es/security/code_security/static_analysis/static_analysis_rules/_index.md
index 28e1a962ec9eb..8d7c29091ada9 100644
--- a/content/es/security/code_security/static_analysis/static_analysis_rules/_index.md
+++ b/content/es/security/code_security/static_analysis/static_analysis_rules/_index.md
@@ -9,214 +9,230 @@ aliases:
is_beta: false
type: static-analysis
rulesets:
+ apex-code-style:
+ title: Reglas para hacer cumplir el estilo de código Apex y las mejores prácticas.
+ description: |
+Code Security para escribir reglas Apex que sigan los estándares de codificación establecidos.
+ apex-security:
+ title: Reglas de seguridad para Apex
+ description: |
+Reglas enfocadas a encontrar problemas de seguridad en tu código Apex.
csharp-best-practices:
title: "Prácticas recomendadas para C#"
description: |
- Reglas para aplicar las prácticas recomendadas de C#.
+Reglas para aplicar las prácticas recomendadas de C#.
csharp-code-style:
title: "Seguir los patrones del estilo de código de C#"
description: |
- Reglas para aplicar el código de estilo de C#.
+Reglas para aplicar el código de estilo de C#.
csharp-inclusive:
title: "Usar lenguaje inclusivo en C#"
description: |
- Reglas para que tu código de C# sea más inclusivo.
+Reglas para que tu código de C# sea más inclusivo.
csharp-security:
title: "Escribir código de C# seguro y protegido"
description: |
- Reglas centradas en encontrar problemas de seguridad en tu código de C#.
+Reglas centradas en encontrar problemas de seguridad en tu código de C#.
docker-best-practices:
title: Seguir las prácticas recomendadas con el uso de Docker
description: |
- Prácticas recomendadas para el uso de Docker.
+Prácticas recomendadas para el uso de Docker.
github-actions:
title: Proteger las GitHub Actions
description: |
- Reglas para verificar tus GitHub Actions y detectar patrones inseguros, como permisos o fijación de versiones.
+Reglas para verificar tus GitHub Actions y detectar patrones inseguros, como permisos o fijación de versiones.
go-best-practices:
title: Prácticas recomendadas para Go
description: |
- Reglas para que sea más rápido y sencillo escribir código de Go. Desde el estilo de código hasta la prevención de errores, este conjunto de reglas ayuda a los desarrolladores a escribir código de Go eficiente, fácil de mantener y de alto rendimiento.
+Reglas para que sea más rápido y sencillo escribir código de Go. Desde el estilo de código hasta la prevención de errores, este conjunto de reglas ayuda a los desarrolladores a escribir código de Go eficiente, fácil de mantener y de alto rendimiento.
go-inclusive:
title: Usar lenguaje inclusivo en Go
description: |
- Verifica el código de Go para detectar problemas de redacción.
+Verifica el código de Go para detectar problemas de redacción.
go-security:
title: Garantizar que el código de Go esté protegido y seguro
description: |
- Detecta problemas de seguridad comunes (como la inyección de SQL, XSS o inyección de shell) en tu base de código de Go.
+Detecta problemas de seguridad comunes (como la inyección de SQL, XSS o inyección de shell) en tu base de código de Go.
java-best-practices:
title: Seguir las prácticas recomendadas en Java
description: |
- Reglas para aplicar las prácticas recomendadas de Java.
+Reglas para aplicar las prácticas recomendadas de Java.
java-code-style:
title: Seguir los patrones del estilo de código de Java
description: |
- Reglas para aplicar el código de estilo de Java.
+Reglas para aplicar el código de estilo de Java.
java-inclusive:
title: Usar lenguaje inclusivo en Java
description: |
- Reglas de Java para evitar redactar textos inadecuados en el código y los comentarios.
+Reglas de Java para evitar redactar textos inadecuados en el código y los comentarios.
java-security:
title: Garantizar que el código de Java sea seguro
description: |
- Reglas centradas en encontrar problemas de seguridad en código de Java.
+Reglas centradas en encontrar problemas de seguridad en código de Java.
javascript-best-practices:
title: Seguir las mejores prácticas para escribir código de JavaScript
description: |
- Reglas para aplicar las prácticas recomendadas de JavaScript.
+Reglas para aplicar las prácticas recomendadas de JavaScript.
javascript-browser-security:
title: Reglas de seguridad para aplicaciones web de JavaScript
description: |
- Reglas centradas en encontrar problemas de seguridad en tus aplicaciones web de JavaScript.
+Reglas centradas en encontrar problemas de seguridad en tus aplicaciones web de JavaScript.
javascript-code-style:
title: Aplicar el estilo de código de JavaScript
description: |
- Reglas para aplicar el código de estilo de JavaScript.
+Reglas para aplicar el código de estilo de JavaScript.
javascript-common-security:
title: Reglas de seguridad comunes para JavaScript
description: |
- Reglas centradas en encontrar problemas de seguridad en tu código de JavaScript.
+Reglas centradas en encontrar problemas de seguridad en tu código de JavaScript.
javascript-express:
title: Consultar las prácticas recomendadas y seguridad de Express.js
description: |
- Reglas específicas para las prácticas recomendadas y seguridad de Express.js.
+Reglas específicas para las prácticas recomendadas y seguridad de Express.js.
javascript-inclusive:
title: Verifica el código de JavaScript para detectar problemas de redacción.
description: |
- Reglas de JavaScript para evitar redactar textos inadecuados en el código y los comentarios.
+Reglas de JavaScript para evitar redactar textos inadecuados en el código y los comentarios.
javascript-node-security:
title: Identificar posibles puntos críticos de seguridad en Node
description: |
- Reglas para identificar posibles puntos críticos de seguridad en Node. Esto puede incluir falsos positivos que requieren una evaluación más exhaustiva.
+Reglas para identificar posibles puntos críticos de seguridad en Node. Esto puede incluir falsos positivos que requieren una evaluación más exhaustiva.
jsx-react:
title: Reglas de linting específicas de React
description: |
- Este complemento exporta una configuración `recommended` que aplica las prácticas recomendadas de React.
+Este complemento exporta una configuración `recommended` que aplica las prácticas recomendadas de React.
kotlin-best-practices:
title: Seguir las mejores prácticas para escribir código de Kotlin
description: |
- Reglas para aplicar las prácticas recomendadas de Kotlin.
+Reglas para aplicar las prácticas recomendadas de Kotlin.
kotlin-code-style:
title: Aplicar el estilo de código de Kotlin
description: |
- Reglas para aplicar el código de estilo de Kotlin.
+Reglas para aplicar el código de estilo de Kotlin.
kotlin-security:
title: Aplicar la codificación segura de Kotlin
description: |
- Reglas enfocadas a encontrar problemas de seguridad en tu código Kotlin.
+Reglas enfocadas a encontrar problemas de seguridad en tu código Kotlin.
php-best-practices:
title: Seguir las mejores prácticas para escribir código de PHP
description: |
- Reglas para aplicar las prácticas recomendadas de PHP, mejorar el estilo de código, prevenir errores, y promover un código de PHP de alto rendimiento, fácil de mantener y eficiente.
+Reglas para aplicar las prácticas recomendadas de PHP, mejorar el estilo de código, prevenir errores, y promover un código de PHP de alto rendimiento, fácil de mantener y eficiente.
php-code-style:
title: Aplicar el estilo de código de PHP
description: |
- Reglas para aplicar el código de estilo de PHP.
+Reglas para aplicar el código de estilo de PHP.
php-security:
title: Reglas de seguridad para PHP
description: |
- Reglas centradas en encontrar problemas de seguridad en tu código de PHP.
+Reglas centradas en encontrar problemas de seguridad en tu código de PHP.
python-best-practices:
title: Seguir las mejores prácticas para escribir código de Python
description: |
- Prácticas recomendadas de Python para escribir código eficiente y sin errores.
+Prácticas recomendadas de Python para escribir código eficiente y sin errores.
python-code-style:
title: Aplicar el estilo de código de Python
description: |
- Reglas para aplicar el código de estilo de Python.
+Reglas para aplicar el código de estilo de Python.
python-design:
title: Verificar la estructura de programa de Python
description: |
- Reglas para verificar la estructura de programa de Python, incluido cosas como bucles anidados.
+Reglas para verificar la estructura de programa de Python, incluido cosas como bucles anidados.
python-django:
title: Consultar las prácticas recomendadas y seguridad de Django
description: |
- Reglas específicas para las prácticas recomendadas y seguridad de Django.
+Reglas específicas para las prácticas recomendadas y seguridad de Django.
python-flask:
title: Consultar las prácticas recomendadas y seguridad de Flask
description: |
- Reglas específicas para las prácticas recomendadas y seguridad de Flask.
+Reglas específicas para las prácticas recomendadas y seguridad de Flask.
python-inclusive:
title: Verifica el código de Python para detectar problemas de redacción.
description: |
- Reglas de Python para evitar redactar textos inadecuados en el código y los comentarios.
+Reglas de Python para evitar redactar textos inadecuados en el código y los comentarios.
python-pandas:
title: Prácticas recomendadas para la ciencia de datos con pandas
description: |
- Un conjunto de reglas para verificar que el código de pandas se use de forma adecuada.
+Un conjunto de reglas para verificar que el código de pandas se use de forma adecuada.
- - Garantiza que las declaraciones `import` sigan las pautas de codificación.
- - Evita códigos y métodos obsoletos.
- - Evita el código ineficiente siempre que sea posible.
+ - Garantiza que las declaraciones `import` sigan las pautas de codificación.
+ - Evita códigos y métodos obsoletos.
+ - Evita el código ineficiente siempre que sea posible.
python-security:
title: Garantizar que el código de Python esté protegido y seguro
description: |
- Reglas centradas en encontrar problemas de seguridad y vulnerabilidad en tu código de Python, incluidos aquellos que se encuentran en OWASP10 y SANS25.
+Reglas centradas en encontrar problemas de seguridad y vulnerabilidad en tu código de Python, incluidos aquellos que se encuentran en OWASP10 y SANS25.
- - Uso de protocolos de cifrado y hash incorrectos
- - Falta de control de acceso
- - Configuración errónea de seguridad
- - Inyecciones de SQL
- - Credenciales codificadas
- - Inyección de shell
- - Deserialización insegura
+ - Uso de protocolos de cifrado y hash incorrectos
+ - Falta de control de acceso
+ - Configuración errónea de seguridad
+ - Inyecciones de SQL
+ - Credenciales codificadas
+ - Inyección de shell
+ - Deserialización insegura
rails-best-practices:
title: Patrones ampliamente adoptados por la comunidad de Ruby on Rails
description: |
- Prácticas recomendadas para escribir código de Ruby on Rails.
+Prácticas recomendadas para escribir código de Ruby on Rails.
ruby-best-practices:
title: Seguir las prácticas recomendadas en Ruby
description: |
- Reglas para aplicar las prácticas recomendadas de Ruby.
+Reglas para aplicar las prácticas recomendadas de Ruby.
ruby-code-style:
title: Reglas para aplicar el código de estilo de Ruby.
description: |
- Codifica las reglas de seguridad para escribir reglas de Ruby que sigan las normas de codificación establecidas.
+Codifica las reglas de seguridad para escribir reglas de Ruby que sigan las normas de codificación establecidas.
ruby-inclusive:
title: Reglas para código de Ruby inclusivo
description: |
- Escribir código de Ruby inclusivo
+Escribir código de Ruby inclusivo
ruby-security:
title: Reglas de seguridad para Ruby
description: |
- Reglas centradas en encontrar problemas de seguridad en tu código de Ruby.
+Reglas centradas en encontrar problemas de seguridad en tu código de Ruby.
+ swift-code-style:
+ title: Reglas para imponer el estilo y las buenas prácticas del código Swift.
+ description: |
+Code Security para escribir reglas Swift que sigan los estándares de codificación establecidos.
+ swift-security:
+ title: Reglas de seguridad para Swift
+ description: |
+Reglas centradas en encontrar problemas de seguridad en tu código Swift.
terraform-aws:
title: Terraform AWS
description: |
- Reglas a fin de aplicar las prácticas recomendadas de Terraform para AWS.
+Reglas a fin de aplicar las prácticas recomendadas de Terraform para AWS.
tsx-react:
title: Calidad del código de TypeScript con React
description: |
- Este complemento exporta una configuración `recommended` que aplica las prácticas recomendadas de React.
+Este complemento exporta una configuración `recommended` que aplica las prácticas recomendadas de React.
typescript-best-practices:
title: Seguir las mejores prácticas para escribir código de TypeScript
description: |
- Reglas para aplicar las prácticas recomendadas de TypeScript.
+Reglas para aplicar las prácticas recomendadas de TypeScript.
typescript-browser-security:
title: Reglas de seguridad para aplicaciones web de TypeScript
description: |
- Reglas centradas en encontrar problemas de seguridad en tus aplicaciones web de TypeScript.
+Reglas centradas en encontrar problemas de seguridad en tus aplicaciones web de TypeScript.
typescript-code-style:
title: Patrones de código con opiniones de TypeScript
description: |
- Reglas que se consideran las prácticas recomendadas para las bases de código de TypeScript modernas, pero que no afectan la lógica del programa. Por lo general, estas reglas tienen como objetivo aplicar patrones de código más simples.
+Reglas que se consideran las prácticas recomendadas para las bases de código de TypeScript modernas, pero que no afectan la lógica del programa. Por lo general, estas reglas tienen como objetivo aplicar patrones de código más simples.
typescript-common-security:
title: Reglas de seguridad comunes para TypeScript
description: |
- Reglas centradas en encontrar problemas de seguridad en tu código de TypeScript.
+Reglas centradas en encontrar problemas de seguridad en tu código de TypeScript.
typescript-express:
title: Consultar las prácticas recomendadas y seguridad de Express.js con TypeScript
description: |
- Reglas específicas para las prácticas recomendadas y seguridad de Express.js con TypeScript.
+Reglas específicas para las prácticas recomendadas y seguridad de Express.js con TypeScript.
typescript-inclusive:
title: Verifica el código de TypeScript para detectar problemas de redacción.
description: |
- Reglas de TypeScript para evitar redactar textos inadecuados en el código y los comentarios.
+Reglas de TypeScript para evitar redactar textos inadecuados en el código y los comentarios.
typescript-node-security:
title: Identificar posibles puntos críticos de seguridad en Node
description: |
- Reglas para identificar posibles puntos críticos de seguridad en Node. Esto puede incluir falsos positivos que requieren una evaluación más exhaustiva.
+Reglas para identificar posibles puntos críticos de seguridad en Node. Esto puede incluir falsos positivos que requieren una evaluación más exhaustiva.
cascade:
modal:
title: Prueba esta regla y analiza tu código con Datadog Code Security
diff --git a/content/es/service_management/status_pages/_index.md b/content/es/service_management/status_pages/_index.md
index dde72bd562e37..e2924f83229d5 100644
--- a/content/es/service_management/status_pages/_index.md
+++ b/content/es/service_management/status_pages/_index.md
@@ -1,123 +1,151 @@
---
further_reading:
+- link: https://www.datadoghq.com/blog/status-pages
+ tag: Blog
+ text: Mantener informados a las partes interesadas con las páginas de estado de
+ Datadog
- link: service_management/incident_management/
tag: Documentación
text: Obtén más información sobre la gestión de incidencias
- link: service_management/on-call/
tag: Documentación
text: Más información sobre la programación de guardias
+- link: service_management/incident_management/integrations/status_pages
+ tag: Documentación
+ text: Integrar las páginas de estado de Datadog con Incident Management
title: Páginas de estado
---
-{{< callout url="https://www.datadoghq.com/product-preview/status-pages/">}}
-Páginas de estado está en Vista Previa.
-{{< /callout >}}
-
## Información general
-{{< img src="service_management/status_pages/shopist_status_page_example.png" alt="Ejemplo de page (página) de estado en la que se muestran componentes de servicios con su estado actual y actualizaciones recientes de incident (incidente)" style="width:100%;" >}}
+{{< img src="service_management/status_pages/shopist_status_page.png" alt="Ejemplo de página de estado en la que se muestran componentes de servicios con su estado actual y actualizaciones de incidentes recientes" style="width:100%;" >}}
-Las páginas de estado forman parte de la serie de respuestas a incidents (incidentes) de Datadog, junto con On-Call e Incident Management. Permiten a tu equipo comunicar de forma proactiva la **disponibilidad del servicio**, **incidents (incidentes)** y **actualizaciones de mantenimiento** a clientes o partes interesadas internas a través de una page (página) web compartible.
+Las páginas de estado forman parte de la serie de respuestas a incidentes de Datadog, junto con On-Call e Incident Management. Permiten a tu equipo comunicar de forma proactiva la **disponibilidad del servicio** y los **incidentes** a clientes o partes interesadas internas a través de una página web compartible.
Utiliza las páginas de estado para:
* Compartir la disponibilidad de sistemas y funciones críticos
* Comunicar claramente las interrupciones del servicio durante los incidents (incidentes)
-* Reducir el volumen de asistencia entrante con actualizaciones proactivas
+* Reduzca el volumen de asistencia entrante con notificaciones proactivas por correo electrónico
-## Configurar permisos
+## Configurar permisos
Hay tres permisos RBAC que son relevantes para las páginas de estado. Los usuarios con el rol de administrador de Datadog tienen todos los permisos necesarios.
Para crear, actualizar o publicar páginas de estado, debes tener permisos RBAC `status_pages_settings_read`, `status_pages_settings_write` y `status_pages_incident_write`. Para obtener más información, consulta [Control de acceso][1].
-| Nombre | Descripción | Función predeterminada |
-| :---- | :---- | :---- |
-| Configuración de lectura de las páginas de estado (`status_pages_settings_read`) | Mira la lista de páginas de estado, la configuración de cada página de estado, sus incidents (incidentes) y las páginas de estado privadas lanzadas. | Rol de sólo lectura de Datadog |
-| Configuración de escritura de las páginas de estado (`status_pages_settings_write`) | Crea e inicia nuevas páginas de estado y configure los parámetros de las páginas de estado. | Rol de administrador de Datadog |
-| Escritura de incidents (incidentes) de páginas de estado (`status_pages_incident_write`) | Publicar y actualizar incidents (incidentes). | Rol de administrador de Datadog |
+
+
+
+ | Nombre |
+ Descripcion |
+ Rol predeterminado |
+
+
+
+
+ Configuración de lectura de las páginas de estado
status_pages_settings_read |
+ Visualiza la lista de páginas de estado, los parámetros de cada página de estado, sus incidentes y las páginas de estado internas iniciadas |
+ Rol de solo lectura de Datadog |
+
+
+ Configuración de escritura de las páginas de estado
status_pages_settings_write |
+ Crea e inicia nuevas páginas de estado y configura los parámetros de las páginas de estado. |
+ Rol de administrador de Datadog |
+
+
+ Escritura de avisos de páginas de estado
status_pages_incident_write |
+ Publica y actualiza incidentes. |
+ Rol de administrador de Datadog |
+
+
+
## Crear una página de estado
-1. En Datadog, ve a [**Service Management (gestión de servicios) > Páginas de estado**][2].
+1. En Datadog, ve a [**Service Management > Status Pages** (Gestión de servicios > Páginas de estado)][2].
1. Haz clic en **Crear página de estado** y sigue el flujo de incorporación:
| Campo | Descripción |
| ----------------- | ----------- |
- | **Visibilidad** | Selecciona quién puede acceder a la Page (página):
- **Pública** - Cualquiera con el enlace puede ver
- **Privada** - Sólo los usuarios autentificados en tu organización Datadog pueden ver |
- | **Nombre de page (página)** | Se muestra como encabezado de la page (página) (si no se carga ningún logotipo).
*Ejemplo: Acme Cloud Platform* |
- | **Prefijo de dominio** | Se utiliza como prefijo de subdominio de tu page (página) de estado.
*Ejemplo: shopist → shopist.status.datadoghq.com*
- Debe ser **globalmente único**
- En minúsculas, alfanumérico y con guión
- Puede afectar a los enlaces si se cambia posteriormente |.
- | **Logotipo de la empresa o Favicon** *(opcional)* | Carga un logotipo o favicon para personalizar la apariencia de tu page (página) de estado |
+ | **Tipo de página de estado** | Elige quién puede acceder a la página:
- **Público** - Cualquiera con el enlace puede visualizar
- **Interno** - Solo usuarios autentificados de tu organización Datadog pueden visualizar |
+ | **Nombre de la página** | Se muestra como encabezado de la página (si no se carga ningún logotipo).
*Ejemplo: Acme Cloud Platform* |
+ | **Prefijo de dominio** | Se utiliza como prefijo de subdominio de tu página de estado. Para obtener más información sobre dominios personalizados, consulta la sección [Configurar un dominio personalizado](#set-a-custom-domain).
*Ejemplo: shopist → shopist.statuspage.datadoghq.com*
- Debe ser **globalmente único**
- En minúsculas, alfanumérico y con guión
- Puede afectar a los enlaces si se cambia posteriormente |.
+ | **Suscripciones** *(opcional)* | Permite a los usuarios recibir notificaciones por correo electrónico sobre actualizaciones de páginas de estado. Cuando las suscripciones están activadas, los usuarios pueden registrarse para recibir notificaciones sobre nuevos avisos y actualizaciones. Puedes activar o desactivar las suscripciones para cada página de estado. **Nota**: Las [suscripciones por correo electrónico](#email-subscriptions) son de doble opción, el correo electrónico debe ser confirmado. |
+ | **Logotipo de la empresa, favicon o imagen de cabecera de correo electrónico** *(opcional)* | Carga un logotipo, favicon o imagen para personalizar el aspecto de tu página de estado y las notificaciones por correo electrónico. |
1. (Opcional) [Añadir componentes](#add-components) para mostrar el estado de los servicios individuales.
1. Haz clic en **Guardar parámetros**
- Una página de estado
no está en tiempo real después de guardar tus parámetros. Para que la page (página) esté disponible,
publica tu página de estado.
+ Una página de estado
no está en tiempo real después de guardar tus parámetros. Para que la página esté disponible,
publica tu página de estado.
## Añadir componentes
{{< img src="/service_management/status_pages/status_page_components.png" alt="Configuración de componentes de la página de estado con el panel de vista previa en tiempo real" style="width:100%;" >}}
-Los componentes son los bloques de construcción de tu Page (página) de estado. Cada uno de ellos representa un servicio o función que les interesa a los usuarios. Algunos ejemplos de componentes son:
-- Puerta de acceso de API
-- Dashboard web
-- Clúster de bases de datos
+Los componentes son los bloques de construcción de tu página de estado. Cada uno de ellos representa un servicio o función que les interesa a los usuarios. Algunos ejemplos de componentes son:
+- API Gateway
+- Dashboard web
+- Clúster de bases de datos
- Servicios para la región de EE.UU.
-Puedes añadir componentes a tu page (página) de estado, ya sea en la configuración inicial o a través de los parámetros de la página de estado:
+Puedes añadir componentes a tu página de estado, ya sea en la configuración inicial o a través de los parámetros de la página de estado:
-1. Desde tu page (página) de estado, haz clic en **Configuración** y selecciona la pestaña **Componentes**.
-1. Crea componentes individuales o un grupo de componentes relacionados. Puede asociar [incidentes](#add-an-incident) a estos componentes para reflejar el efecto en tu page (página) de estado.
-1. Selecciona un tipo de visualización:
- 1. Barras y porcentaje de tiempo de actividad
- 1. Sólo barras
- 1. Sólo nombre del componente
+1. Desde tu página de estado, haz clic en **Settings** (Parámetros) y selecciona la pestaña **Components** (Componentes).
+1. Crea componentes individuales o un grupo de componentes relacionados. Puedes asociar [avisos](#add-a-notice) a estos componentes para reflejar el impacto en tu página de estado.
+1. Selecciona un tipo de visualización:
+ 1. Barras y porcentaje de tiempo de actividad
+ 1. Solo barras
+ 1. Solo nombre del componente
-## Publica tu page (página) de estado
+## Publicar tu página de estado
-Después de guardar la configuración de tu Page (página) de estado, haz clic en **Lanzar page (página) de estado** para que la page (página) esté disponible en tu URL.
+Después de guardar la configuración de tu página de estado, haz clic en **Launch Status Page** (Iniciar página de estado) para que la página esté disponible en tu URL.
Si has seleccionado:
-- **Pública**, la page (página) es inmediatamente accesible a todos los visitantes.
-- **Privada**, el acceso está limitado a los usuarios autentificados en tu organización Datadog.
-
-## Añade un incident (incidente)
+- **Público**, la página es inmediatamente accesible a todos los visitantes.
+- **Interno**, el acceso está limitado a los usuarios autentificados de Datadog de tu organización.
-Los incidents (incidentes) publicados en las páginas de estado no son los mismos que los incidentes declarados en Incident Management de Datadog. Los incidentes de las páginas de estado son mensajes cuidadosamente elaborados que se publican en un sitio web público para comunicar el estado del sistema y pueden englobar varios incidentes internos de Incident Management.
+## Añadir un aviso
-Cuando surja un problema, puedes comunicarlo claramente a través de tu página de estado.
+Los avisos en las páginas de estado son mensajes cuidadosamente elaborados que se publican en un sitio web público para comunicar el estado del sistema. Cuando surge un problema, puedes comunicarlo claramente a través de tu página de estado.
-1. Desde una página de estadeo, haz clic en **Publicar incident (incidente)** para abrir un modal "Publicar incident (incidente) de página de estado" y proporcionar:
+1. Desde una página de estado, haz clic en **Publish Notice** (Publicar aviso) para abrir un modal "Publish Status Page Notice" (Publicar aviso de página de estado) y proporciona:
| Campo | Descripción |
| ---- | ---- |
| **Título** | Descripción breve y clara del incident (incidente)
*Ejemplo: Aumento del porcentaje de errores en la región de EE.UU.* |
| **Estado** | Estado actual del incident (incidente):
- Investigando
- Identificado
- Monitorizando
- Resuelto |
| **Mensaje** *(opcional)* | Detalles adicionales para tus usuarios
*Ejemplos: causa conocida, tiempo de resolución esperado* |
- | **Componentes afectados** | Uno o más componentes afectados por el incident (incidente) |
+ | **Componentes afectados** | Uno o más componentes afectados por el incidente |
| **Efecto** | Nivel de efecto por componente:
- Operativo
- Rendimiento degradado
- Interrupción parcial
- Interrupción grave |
-1. Haz clic en **Publicar incident (incidente)**.
+ | **Notificar a los suscriptores** | Alternar para enviar el aviso a los suscriptores |
+1. Haz clic en **Publish Notice** (Publicar aviso).
-{{< img src="/service_management/status_pages/publish_status_page_incident.png" alt="Captura de pantalla del modal de creación del incident (incidente) de la página de estado con los campos completados" style="width:70%;" >}}
+{{< img src="/service_management/status_pages/publish_status_page_incident_1.png" alt="Captura de pantalla del modal de creación de un aviso de página de estado con los campos rellenados" style="width:70%;" >}}
-Tras la publicación de un incident (incidente), el incident (incidente):
-- Aparece en la lista de páginas de estado en **Incidentes Activos**.
+Tras la publicación de un aviso, este:
+- Aparece en la lista de páginas de estado bajo **Active Notices** (Avisos activos).
- Actualiza las barras de tiempo de actividad de los componentes afectados.
-- Es visible en la línea de tiempo del historial del incident (incidente).
+- Es visible en la línea de tiempo del historial de avisos.
+
+Puedes publicar **actualizaciones** a lo largo del tiempo para mantener informados a los usuarios y, a continuación, marcar el aviso como **Resuelto**.
+
+## Suscripciones por correo electrónico
-Puedes publicar **actualizaciones** a lo largo del tiempo para mantener informados a los usuarios y luego marcar el incident (incidente) como **Resuelto**.
+Las suscripciones por correo electrónico en las páginas de estado son de **doble opción**: los usuarios deben confirmar su dirección de correo electrónico antes de ser añadidos como suscriptores. Después de introducir un correo electrónico para suscribirse, se envía un correo de confirmación, y la suscripción solo se activa cuando el usuario hace clic en el enlace de confirmación.
-{{< img src="/service_management/status_pages/live_status_page_incident_history.mp4" alt="Video en el que se muestra la línea de tiempo del historial del incident (incidente) en una página de estado en tiempo real con los incidentes y actualizaciones publicados" video=true >}}
+Para las páginas de estado **internas**, el proceso de suscripción es el mismo, pero los usuarios deben iniciar sesión en la misma organización Datadog para confirmar su suscripción y recibir notificaciones.
## Configurar un dominio personalizado
Para que coincida con tu marca, tienes la opción de asignar tu página de estado a un dominio personalizado como `status.acme.com`.
-1. Desde tu página de estado, haz clic en **Configuración**.
+1. Desde tu página de estado, haz clic en **Settings** (Parámetros).
1. Selecciona **Dominio personalizado**.
-1. Sigue las instrucciones para introducir tu dominio y añadir registros DNS.
-1. Datadog detecta automáticamente la configuración DNS y proporciona un certificado SSL.
+1. Sigue las instrucciones para introducir tu dominio y añadir registros DNS.
+1. Datadog detecta automáticamente la configuración DNS y proporciona un certificado SSL.
-Los dominios personalizados requieren acceso a tu proveedor de DNS para añadir un registro CNAME o A.
+Los dominios personalizados requieren acceso a tu proveedor de DNS para añadir un registro CNAME o A.
-**Notas**:
+**Nota**:
- La propagación de DNS puede tardar varios minutos.
- Puedes volver al dominio predeterminado Datadog en cualquier momento.
diff --git a/content/es/synthetics/guide/synthetic-tests-caching.md b/content/es/synthetics/guide/synthetic-tests-caching.md
index 783ed3df75112..dd8a0d55a32e3 100644
--- a/content/es/synthetics/guide/synthetic-tests-caching.md
+++ b/content/es/synthetics/guide/synthetic-tests-caching.md
@@ -6,6 +6,10 @@ further_reading:
- link: /synthetics/api_tests/http_tests
tag: Documentación
text: Configurar un test de HTTP
+- link: https://www.datadoghq.com/blog/cache-purge-ci-cd/
+ tag: Blog
+ text: Patrones para una purga de caché segura y eficaz en pipelines de Continuous
+ Integration Continuous Delivery
title: Evita los problemas de caché en los tests de Sintético
---
@@ -15,15 +19,15 @@ En esta guía se describe cómo evitar los problemas de almacenamiento en caché
## Tests de API
-### Tests de HTTP
+### Tests HTTP
-Puedes aprovechar las [variables locales][1] para generar una cadena aleatoria y enviarla con tu carga útil para asegurarte de que tus [tests HTTP][2] no utilicen tus sistemas de almacenamiento en caché.
+Puedes aprovechar las [variables locales][1] para generar una cadena aleatoria y enviarla con tu carga útil para asegurarte de que tus [tests de HTTP][2] no utilicen tus sistemas de almacenamiento en caché.
## Tests de navegador
Los navegadores se eliminan después de cada ejecución del test, lo que garantiza que tus tests de navegador no tengan problemas relacionados con la caché en el lado del cliente.
-## Referencias adiionales
+## Referencias adicionales
{{< partial name="whats-next/whats-next.html" >}}
diff --git a/content/es/synthetics/guide/uptime-percentage-widget.md b/content/es/synthetics/guide/uptime-percentage-widget.md
index 77254c73656a9..13dcd4aa8768a 100644
--- a/content/es/synthetics/guide/uptime-percentage-widget.md
+++ b/content/es/synthetics/guide/uptime-percentage-widget.md
@@ -21,7 +21,7 @@ Para poder cumplir los acuerdos de nivel del servicio suscritos con clientes int
A continuación, te mostramos cómo lograrlo con la herramienta [Synthetic Monitoring][1] y el [widget de objetivos de nivel del servicio ][2] (SLOs). Para ello, usaremos `http://example.com/` como ejemplo.
-## Cree una supervisión en Synthetic Monitoring test
+## Crear un test de Synthetic Monitoring
Para crear un [test de API de Synthetics][3] con `http://example.com/`, consulta [Crear un test de API simple][4].
diff --git a/content/es/synthetics/notifications/_index.md b/content/es/synthetics/notifications/_index.md
new file mode 100644
index 0000000000000..e8f7f92fdc4e9
--- /dev/null
+++ b/content/es/synthetics/notifications/_index.md
@@ -0,0 +1,252 @@
+---
+further_reading:
+- link: synthetics/notifications/template_variables
+ tag: Documentación
+ text: Utiliza variables de plantilla en tus notificaciones de Synthetic Monitoring
+- link: synthetics/notifications/conditional_alerting
+ tag: Documentación
+ text: Utiliza alertas condicionales en tus notificaciones de Synthetic Monitoring
+- link: /synthetics/notifications/statuspage/
+ tag: Documentación
+ text: Aprende a integrar los monitores de Synthetic Monitoring con Statuspage
+title: Notificaciones de Synthetic Monitoring
+---
+
+## Información general
+
+Personaliza tus alertas en [Synthetic Monitoring][1] para ofrecer a los respondedores de la llamada un contexto significativo. El sistema de plantillas de mensajes de Synthetic Monitoring te permite enriquecer las alertas con detalles de test, extraer datos de los resultados de test y dirigir las notificaciones condicionalmente en función del fallo.
+
+
+
+Puedes personalizar las notificaciones utilizando:
+
+- **[Contenido prellenado](#pre-filled-monitor-messages)**: Comienza con un punto de partida estructurado.
+- **[Variables de plantilla][2]**: Enriquece tus notificaciones con contenido dinámico.
+- **[Lógica condicional][3]**: Adapta los mensajes de alerta a los distintos tipos de test y procesos.
+- **[Uso avanzado][4]**: Estructura mensajes complejos utilizando plantillas de manillar.
+- **[Visualización de notificaciones personalizadas](#display-custom-notifications-massage)**: Muestra solo tu mensaje personalizado sin contenido enriquecido predeterminado.
+- **[Notificaciones simuladas](#simulate-notifications)**: Test tus mensajes de notificación mediante el envío de notificaciones simuladas.
+
+**Nota**: Para obtener información sobre el acceso a variables locales (configuración), consulta la sección [Variables][6].
+
+## Mensajes de monitores (noun) prellenados
+
+Synthetic Monitoring proporciona mensajes prellenados con metadatos como:
+
+- Nombre del test
+- Identificador del monitor (noun)
+- Ubicaciones fallidas
+- Información sobre la última ejecución fallida de test
+- Es hora de que test empiece a fallar
+
+Estos valores aparecen en forma predeterminada en la mayoría de los canales de notificación. Puedes sustituir o ampliar el mensaje con [plantillas][2].
+
+ {{< img src="/synthetics/browser_tests/browser_tests_pre-filled.png" alt="Sección de monitores (noun) de Synthetic Monitoring, en la que se resaltan mensajes de monitores (noun) prellenados" style="width:100%;" >}}
+
+**Ejemplos**:
+
+{{< tabs >}}
+{{% tab "Respuesta de solicitud de API" %}}
+
+**Solicitud:**
+```handlebars
+{{#with synthetics.attributes.result.request}}
+We made a {{method}} request to `{{{url}}}`{{#if headers}} with the following headers:
+
+{{#each headers}}
+{{@key}}={{this}}
+{{/each}}
+
+{{/if}}
+{{#if body}}And the body:
+
+{{{body}}}
+
+{{/if}}
+{{/with}}
+```
+
+**Respuesta:**
+```handlebars
+{{#with synthetics.attributes.result.response}}
+We received an HTTP {{httpVersion}} response with a {{statusCode}} status code{{#if headers}} with the following headers:
+
+{{#each headers}}
+{{@key}}={{this}}
+{{/each}}
+
+{{/if}}
+{{#if redirects}}
+Redirections:
+{{#each redirects}}
+* {{statusCode}} redirect to `{{{location}}}`
+{{/each}}
+{{/if}}
+The body's size was {{eval "humanize_bytes(bodySize)"}}{{#if body}} and contained:
+
+{{{body}}}
+
+{{/if}}
+{{/with}}
+```
+
+{{% /tab %}}
+{{% tab "Tests de WebSocket" %}}
+
+```handlebars
+{{! Websocket request and response details }}
+{{#with synthetics.attributes.result}}
+{{#if handshake }}
+The handshake received a response with the {{handshake.response.statusCode}} status code.
+{{/if}}
+{{#if request}}
+A WebSocket request was made with the message:
+
+{{{request.message}}}
+
+{{/if}}
+{{#if response}}
+and the response closed with status code {{response.close.statusCode}} and reason `{{response.close.reason}}`
+{{#if response.message}}, containing the message:
+
+{{{response.message}}}
+
+{{else}}.{{/if}}
+{{/if}}
+{{/with}}
+```
+
+{{% /tab %}}
+{{% tab "Variables de tests de la API" %}}
+
+Itera sobre las variables extraídas para los tests de la API:
+
+**Variables de configuración:**
+```handlebars
+{{#each synthetics.attributes.result.variables.config}}
+* **Name:** {{name}}
+ Type: {{type}}
+ Value: {{#if secure}}*Obfuscated (value hidden)*{{else}}{{value}}{{/if}}
+{{/each}}
+```
+
+**Variables extraídas (solo visibles para notificaciones de recuperación):**
+```handlebars
+{{#each synthetics.attributes.result.variables.extracted}}
+* **Name:** {{name}}
+ Global Variable ID: {{id}}
+ Value: {{#if secure}}*Obfuscated (value hidden)*{{else}}{{val}}{{/if}}
+{{/each}}
+```
+
+{{% /tab %}}
+{{% tab "Variables de varios pasos de la API" %}}
+
+Itera sobre pasos extrayendo variables para tests de varios pasos de la API:
+
+```handlebars
+{{! List extracted variables across all successful steps }}
+# Extracted Variables
+{{#each synthetics.attributes.result.steps}}
+ {{#each variables.extracted}}
+ * **Name**: `{{name}}`
+ Value: {{#if secure}}*Obfuscated (value hidden)*{{else}}`{{{val}}}`{{/if}}
+ {{/each}}
+{{/each}}
+```
+
+{{% /tab %}}
+{{% tab "Variables de tests del navegador y móviles" %}}
+
+Itera sobre los pasos extrayendo variables para tests del navegador y móvil:
+
+```handlebars
+{{#each synthetics.attributes.result.steps}}
+ {{#if extractedValue}}
+ * **Name**: {{extractedValue.name}}
+ **Value:** {{#if extractedValue.secure}}*Obfuscated (value hidden)*{{else}}{{extractedValue.value}}{{/if}}
+ {{/if}}
+{{/each}}
+```
+
+{{% /tab %}}
+{{< /tabs >}}
+
+## Mostrar un mensaje de notificación personalizado
+
+Las notificaciones de Synthetic Monitoring admiten la posibilidad de mostrar **solo el mensaje de notificación personalizado** en las notificaciones de alertas, ocultando todo el contenido enriquecido predeterminado, como los detalles de la consulta, las etiquetas, las capturas de pantalla y los pies de página.
+
+En forma predeterminada, todos los monitores incluyen detalles enriquecidos en el mensaje de alerta. Esto puede incluir:
+- Metadatos de tests
+- Información de step (UI) / paso (generic) fallido
+- Capturas de pantalla
+- Etiquetas
+- Enlaces a los recursos de Datadog
+
+### Notificaciones prestablecidas
+
+Puedes seleccionar entre las siguientes opciones para ocultar o mostrar la información pertinente para ti:
+
+| Prestablecido | Descripción |
+|-------------------|-----------------------------------------------------------------------------|
+| `show_all` | (Predeterminado) Incluye todos los datos y metadatos enriquecidos. | |
+| `hide_handles` | Oculta los controladores de `@notification` (por ejemplo, `@slack-channel`). |
+| `hide_all` | Oculta todo el contenido adicional, excepto el mensaje personalizado y el enlace al evento. |
+
+{{< img src="/monitors/monitor_types/synthetic_monitoring/content_in_notification.png" alt="Page (página) de monitor (noun) de Synthetic Monitoring, que destaca el contenido mostrado en la notificación desplegable" style="width:80%;" >}}
+
+### Ejemplo
+
+| Canal | `show_all` | `hide_all` |
+|---------|--------------------|---------------------|
+| Correo electrónico | Información del detalle completo de test, captura de pantalla, step (UI) / paso (generic) | Solo mensaje personalizado y enlace al evento |
+| Slack | Contenido enriquecido + vista previa de la ejecución fallida | Solo mensaje personalizado |
+
+Consulta [Notificaciones de monitor (noun)][5] para obtener más información.
+
+## Notificaciones simuladas
+
+Puedes test tus mensajes de notificación enviando notificaciones simuladas. Para ello:
+
+1. Añade un controlador de notificación a tu mensaje de monitor (noun)
+2. Haz clic en el botón **Notificaciones simuladas**:
+
+ {{< img src="/synthetics/notifications/simulate_notifications.png" alt="Pantalla de Synthetic Monitoring, que resalta el botón de Notificaciones simuladas" style="width:80%;" >}}
+
+3. Selecciona el tipo de notificación que deseas test y haz clic en **Send** (Enviar):
+
+ {{< img src="/synthetics/notifications/simulate_notifications_type.png" alt="Envía una notificación que simula una falla o recuperación de test." style="width:80%;" >}}
+
+Las notificaciones simuladas incluyen **[TEST]** en sus líneas del asunto y utilizan un nombre de monitor (noun) predeterminado cuando sea necesario.
+
+**Ejemplos:**
+
+
+
+|
+{{< img src="/synthetics/notifications/simulated_notifications_email.png" alt="Notificación por correo electrónico que simula una falla del test." style= "width:100%;" >}}
+ |
+
+{{< img src="/synthetics/notifications/simulated_notifications_email_recovered.png" alt="Notificación por correo electrónico que simula una recuperación del test." style= "width:100%;" >}}
+ |
+
+
+
+**Notas importantes sobre las notificaciones simuladas:**
+
+- Los resultados de tests utilizados en las simulaciones son datos de muestra estandarizados, no resultados reales de tu configuración específica del test.
+- Los resultados varían en función del tipo de test, el subtipo (para tests de la API) y el tipo de notificación:
+ - **Notificaciones de alerta**: Datos de fallos simulados
+ - **Notificaciones de recuperación**: Datos de éxito simulados
+- Todos los usuarios reciben los mismos datos simulados, independientemente de su configuración del test.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/monitors/types/synthetic_monitoring/
+[2]: /es/synthetics/notifications/template_variables
+[3]: /es/synthetics/notifications/conditional_alerting
+[4]: /es/synthetics/notifications/advanced_notifications
+[5]: /es/monitors/notifications
+[6]: /es/synthetics/notifications/template_variables/?tab=testinfo#variables
\ No newline at end of file
diff --git a/content/es/tracing/guide/setting_primary_tags_to_scope.md b/content/es/tracing/guide/setting_primary_tags_to_scope.md
index 96b258822a455..e415489f6066b 100644
--- a/content/es/tracing/guide/setting_primary_tags_to_scope.md
+++ b/content/es/tracing/guide/setting_primary_tags_to_scope.md
@@ -1,6 +1,8 @@
---
aliases:
- /es/tracing/advanced/setting_primary_tags_to_scope/
+description: Aprende a establecer etiquetas primarias para delimitar y filtrar los
+ datos de APM en diferentes entornos, servicios y versiones para una mejor organización.
further_reading:
- link: /tracing/other_telemetry/connect_logs_and_traces/
tag: Documentación
diff --git a/content/es/tracing/guide/setting_up_APM_with_cpp.md b/content/es/tracing/guide/setting_up_APM_with_cpp.md
index 9d431bd636f78..11b5e56604898 100644
--- a/content/es/tracing/guide/setting_up_APM_with_cpp.md
+++ b/content/es/tracing/guide/setting_up_APM_with_cpp.md
@@ -1,4 +1,6 @@
---
+description: Aprende a configurar APM y el rastreo distribuido para aplicaciones C++
+ utilizando bibliotecas de rastreo e instrumentación de Datadog.
further_reading:
- link: /tracing/trace_collection/dd_libraries/cpp/
tag: Documentación
@@ -33,7 +35,7 @@ sudo apt-get update
sudo apt-get -y install g++ cmake
```
-Descarga e instala la librería `dd-trace-cpp` con:
+Descarga e instala la biblioteca `dd-trace-cpp` con:
```bash
wget https://github.com/DataDog/dd-trace-cpp/archive/v1.0.0.tar.gz -O dd-trace-cpp.tar.gz
@@ -48,7 +50,7 @@ mkdir dd-trace-cpp
tar zxvf dd-trace-cpp.tar.gz -C ./dd-trace-cpp/ --strip-components=1
```
-Por último, crea e instala la librería:
+Por último, crea e instala la biblioteca:
```bash
cd dd-trace-cpp
@@ -139,9 +141,9 @@ Haz clic en el servicio para ver tus trazas.
{{< img src="tracing/guide/setting_up_APM_with_cpp/traces_ui.png" alt="Interfaz de usuario de trazas de APM" >}}
-## Leer más
+## Referencias adicionales
{{< partial name="whats-next/whats-next.html" >}}
[1]: /es/tracing/setup/cpp/
-[2]: https://app.datadoghq.com/account/settings/agent/latest?platform=ubuntu
+[2]: https://app.datadoghq.com/account/settings/agent/latest?platform=ubuntu
\ No newline at end of file
diff --git a/content/es/tracing/guide/slowest_request_daily.md b/content/es/tracing/guide/slowest_request_daily.md
index 039fbd53302a9..2b1f1a857444e 100644
--- a/content/es/tracing/guide/slowest_request_daily.md
+++ b/content/es/tracing/guide/slowest_request_daily.md
@@ -22,7 +22,7 @@ _3 minutos para completarse_
Con Datadog APM , puedes investigar el rendimiento de tus endpoints, identificar solicitudes lentas e investigar la causa raíz de los problemas de latencia. Este ejemplo muestra la [traza][1] más lenta del día para un endpoint de pago de comercio electrónico y cómo se ralentiza debido al alto uso de la CPU.
-1. **Abra el [Catálogo de servicios][2]**.
+1. **Abre el [Software Catalog][2]**.
Esta página contiene una lista de todos los servicios que envían datos a Datadog. Ten en cuenta que puedes buscar palabras clave, filtrar por `env-tag` y establecer el marco temporal.
diff --git a/content/es/tracing/guide/trace_ingestion_volume_control.md b/content/es/tracing/guide/trace_ingestion_volume_control.md
index 3c2b2e70c3341..323e13bfa8608 100644
--- a/content/es/tracing/guide/trace_ingestion_volume_control.md
+++ b/content/es/tracing/guide/trace_ingestion_volume_control.md
@@ -1,4 +1,6 @@
---
+description: Aprende a controlar el volumen de ingesta de tramo con los mecanismos
+ de rastreo de APM para gestionar los costes manteniendo la observabilidad.
further_reading:
- link: /tracing/trace_pipeline/ingestion_controls/
tag: Documentación
@@ -23,7 +25,7 @@ Si decides reducir el volumen de ingesta para determinados servicios, las **[mé
**Nota**: Si tus aplicaciones y servicios están instrumentadas con bibliotecas de OpenTelemetry y configuras el muestreo en el nivel de SDK o en el nivel de Collector, las métricas de APM se basan en el conjunto **muestreado** de datos de forma predeterminada. Consulta [Muestreo de ingesta con OpenTelemetry][4] para obtener más información.
-
+
Los datos de traza son muy repetitivos, lo que significa que las muestras de traza para investigar cualquier problema siguen estando disponibles con el muestreo de ingesta. En el caso de servicios de alto rendimiento, no suele ser necesario recopilar todas y cada una de las solicitudes: un problema lo suficientemente importante siempre debería mostrar indicios en varias trazas. Los controles de ingesta te ayudan a tener la visibilidad que necesitas para solucionar problemas sin salirse del presupuesto.
@@ -41,7 +43,7 @@ Los monitores de [**análisis de traza**][6] basados en el recuento también se
## Evalúa la configuración de ingesta de tu servicio
-Para evaluar el estado actual de la instrumentación de aplicaciones, aprovecha la [página de Control de ingesta de traza][1] que brinda información detallada sobre la configuración del Agent y la librería de rastreo.
+Para evaluar el estado actual de la instrumentación de aplicaciones, aprovecha la [página de Control de ingesta de traza][1] que brinda información detallada sobre la configuración del Agent y la biblioteca de rastreo.
### Comprende si estás dentro de la asignación de ingesta mensual
@@ -73,7 +75,7 @@ Si el servicio tiene una alta tasa de Bytes/segundo de descarga y una alta tasa
### Configura globalmente la frecuencia de muestreo de la ingesta a nivel del Agent
-La columna **Configuration** (Configuración) te indica si tus servicios están configurados con reglas de muestreo. Si los servicios superiores están etiquetados con la configuración `AUTOMATIC`, al cambiar la **Agent Configuration** (Configuración del Agent) se reduce el volumen globalmente en los servicios.
+La columna **Configuration** (Configuración) te indica si tus servicios están o no configurados con reglas de muestreo. Si los servicios principales están etiquetados con la configuración `AUTOMATIC`, al cambiar la **configuración del Agent** se reducirá el volumen globalmente en todos los servicios.
Para reducir el volumen de ingesta en el nivel del Agent, configura `DD_APM_MAX_TPS` (establecido en `10` por defecto) para reducir la parte del volumen de muestreo basada en el título. Lee más información sobre el [mecanismo de muestreo por defecto][7].
@@ -83,13 +85,13 @@ Además, para reducir el volumen de [error][9] y trazas [poco frecuentes][10]:
- Configura `DD_APM_ERROR_TPS` para reducir la cuota de error de muestreo.
- Establece `DD_APM_DISABLE_RARE_SAMPLER` en true para dejar de muestrear las trazas poco frecuentes.
-### Configura independientemente la frecuencia de muestreo de la ingesta para los servicios a nivel de librería
+### Configura independientemente la frecuencia de muestreo de la ingesta para los servicios a nivel de biblioteca
Al configurar las frecuencias de muestreo para unos pocos servicios de alto rendimiento, la mayor parte del volumen de ingesta "excedente" puede reducirse.
Haz clic en un servicio para ver el **Service Ingestion Summary** (Resumen de ingesta del servicio). Observa el **Ingestion reasons breakdown** (Desglose de motivos de ingesta) en el panel lateral, que ofrece una descripción general de la parte de volumen de ingesta atribuida a cada mecanismo.
-Si el motivo principal de la mayor parte del volumen de ingesta es el muestreo basado en títulos (`auto` o `rule`), el volumen puede configurarse estableciendo una regla de muestreo en el nivel de la librería de rastreo.
+Si el motivo principal de la mayor parte del volumen de ingesta es el muestreo basado en títulos (`auto` o `rule`), el volumen puede configurarse estableciendo una regla de muestreo en el nivel de la biblioteca de rastreo.
Haz clic en el botón **Manage Ingestion Rate** (Gestionar tasa de ingesta) para configurar una tasa de muestreo para el servicio. Selecciona el lenguaje de servicio y la frecuencia de muestreo de ingesta que deseas aplicar.
@@ -112,7 +114,7 @@ El mecanismo por defecto para muestrear trazas es el muestreo basado en la fase
El muestreo basado en la fase inicial es configurable en las bibliotecas de rastreo o desde el Datadog Agent:
-| Motivo de la ingesta | Dónde | Descripción del mecanismo de ingesta | Predeterminado |
+| Motivo de la ingesta | Dónde | Descripción del mecanismo de ingesta | Valor predeterminado |
|--------------------|-------------------|-----------------------|---------|
| `auto` | [Agent](#globally-configure-the-ingestion-sampling-rate-at-the-agent-level) | El Datadog Agent distribuye las frecuencias de muestreo a las bibliotecas de rastreo. | 10 trazas por segundo por Agent |
| `rule` | [Bibliotecas de rastreo](#independently-configure-the-ingestion-sampling-rate-for-services-at-the-library-level) | El porcentaje de muestreo definido por las bibliotecas para servicios específicos. | nulo |
@@ -120,10 +122,10 @@ El muestreo basado en la fase inicial es configurable en las bibliotecas de rast
Otros motivos de ingesta aparecen en la página Control de la ingesta y como una etiqueta en la métrica `datadog.estimated_usage.apm.ingested_bytes`. Estas razones de ingesta pueden ser responsables de tu volumen de ingesta:
-| Motivo de la ingesta | Dónde | Descripción del mecanismo de ingesta | Predeterminado |
+| Motivo de la ingesta | Dónde | Descripción del mecanismo de ingesta | Valor predeterminado |
|--------------------|-------------------|-----------------------|---------|
| `error` | [Agent](#globally-configure-the-ingestion-sampling-rate-at-the-agent-level) | Muestreo de errores no detectados por el muestreo basado en la fase inicial. | 10 trazas por segundo por Agent (nulo, si se definen reglas) |
-| `rare` | [Agent](#globally-configure-the-ingestion-sampling-rate-at-the-agent-level) | Muestreo de trazas poco frecuentes (captura de todas las combinaciones de un conjunto de span tags). | 5 trazas por segundo por Agent (nulo, si se definen reglas) |
+| `rare` | [Agent](#globally-configure-the-ingestion-sampling-rate-at-the-agent-level) | Muestreo de trazas poco frecuentes (captura de todas las combinaciones de un conjunto de etiquetas de tramo). | 5 trazas por segundo por Agent (nulo, si se definen reglas) |
| `manual` | En el código | Anulación de decisión en código para mantener/descartar un tramo y sus secundarios. | nulo |
| `analytics` | Agent y bibliotecas de rastreo | [Mecanismo de ingesta obsoleto][16] que muestrea tramos únicos sin la traza completa. | nulo |
@@ -135,7 +137,7 @@ Además, otros productos pueden ser responsables del volumen de tramos muestread
Más información sobre los motivos de ingesta en la [documentación sobre Mecanismos de ingesta][2].
-## Leer más
+## Referencias adicionales
{{< partial name="whats-next/whats-next.html" >}}
@@ -154,4 +156,4 @@ Más información sobre los motivos de ingesta en la [documentación sobre Mecan
[13]: https://github.com/open-telemetry/opentelemetry-specification/blob/main/specification/trace/sdk.md#parentbased
[14]: https://github.com/open-telemetry/opentelemetry-collector-contrib/blob/main/processor/tailsamplingprocessor/README.md
[15]: https://github.com/open-telemetry/opentelemetry-collector-contrib/blob/main/processor/probabilisticsamplerprocessor/README.md
-[16]: /es/tracing/legacy_app_analytics
+[16]: /es/tracing/legacy_app_analytics
\ No newline at end of file
diff --git a/content/es/tracing/guide/week_over_week_p50_comparison.md b/content/es/tracing/guide/week_over_week_p50_comparison.md
index a405d204099b1..8b13dd1be5055 100644
--- a/content/es/tracing/guide/week_over_week_p50_comparison.md
+++ b/content/es/tracing/guide/week_over_week_p50_comparison.md
@@ -1,4 +1,6 @@
---
+description: Aprende a crear dashboards y monitores que comparen las métricas de latencia
+ del servicio semana tras semana para identificar tendencias y problemas de rendimiento.
further_reading:
- link: /tracing/guide/alert_anomalies_p99_database/
tag: 3 minutos
@@ -46,7 +48,7 @@ Datadog puede mostrarte la latencia de tu aplicación a lo largo del tiempo y c
**Nota**: A medida que realices tu análisis, puedes exportar este gráfico a cualquier dashboard desde la vista del servicio, y mostrar estos datos junto a cualquier otro gráfico generado en Datadog, incluyendo tus métricas personalizadas, información de nivel de host y logs.
-## Leer más
+## Referencias adicionales
{{< partial name="whats-next/whats-next.html" >}}
diff --git a/content/es/tracing/troubleshooting/tracer_debug_logs.md b/content/es/tracing/troubleshooting/tracer_debug_logs.md
index 60bde32613fa1..aa853043382e0 100644
--- a/content/es/tracing/troubleshooting/tracer_debug_logs.md
+++ b/content/es/tracing/troubleshooting/tracer_debug_logs.md
@@ -1,11 +1,40 @@
---
-null
-...
+description: Habilita y recopila logs de depuración de trazas de APM para solucionar
+ problemas de configuración y conectividad.
+further_reading:
+- link: /tracing/troubleshooting/connection_errors/
+ tag: Documentación
+ text: Solucionar problemas de errores de conexión de APM
+title: Logs de depuración de rastreador
---
+## Recopilación de logs de depuración automatizada
+
+
+Un flare te permite enviar la información necesaria para solucionar problemas al equipo de soporte de Datadog, incluyendo el logs del rastreador, con los datos confidenciales eliminados. Los flares son útiles para solucionar problemas como el uso elevado de la CPU, el uso elevado de la memoria y tramos (spans) faltantes.
+
+### Requisitos previos
+- La [configuración remota][3] debe estar activada.
+- Tu clave de API debe estar configurada para la Configuración remota.
+- Debes tener una versión del rastreador compatible:
+ - Java: `1.26.0` o posterior
+ - Python: `3.12.0` o posterior
+ - Node.js: `5.15.0` o posterior, o `4.39.0` o posterior
+ - .NET: `2.46.0` o posterior
+
+### Enviar un flare
+Para enviar un flare desde el sitio de Datadog, asegúrate de haber habilitado [Fleet Automation][3] en el Agent.
+{{% remote-flare %}}
+
+Si no ves la opción para tu servicio, es probable que haya un error en la conexión entre la aplicación y el Datadog Agent y deberías optar por la opción manual de proporcionar los logs del rastreador de depuración.
+
+Por ejemplo:
+
+{{< img src="agent/fleet_automation/fleet-automation-flare-agent-and-tracer-debuglevel.png" alt="El botón Enviar ticket inicia un formulario para enviar una bengala sobre un nuevo ticket de asistencia o uno existente" style="width:60%;" >}}
+
## Activar el modo de depuración
-Utiliza la configuración de depuración de Datadog para diagnosticar problemas o auditar datos de traza. Datadog no recomienda activar el modo de depuración en sistemas de producción porque aumenta el número de eventos que se envían a los registradores. Utiliza el modo de depuración solo con fines de depuración.
+Utiliza la configuración de depuración de Datadog para diagnosticar problemas o auditar datos de rastreo. Datadog no recomienda activar el modo de depuración en sistemas de producción porque aumenta el número de eventos que se envían a los registradores. Utiliza el modo de depuración solo con fines de depuración.
El modo de depuración está desactivado por defecto. Para activarlo, sigue las instrucciones del rastreador de lenguaje correspondiente:
@@ -15,10 +44,15 @@ El modo de depuración está desactivado por defecto. Para activarlo, sigue las
Para habilitar el modo de depuración para el rastreador de Datadog Java, establece el indicador `-Ddd.trace.debug=true` when starting the JVM or add `DD_TRACE_DEBUG=true` como variable de entorno.
-**Nota**: El rastreador de Datadog Java implementa SL4J SimpleLogger, por lo que [se pueden aplicar todos sus ajustes][1], por ejemplo, el registro en un archivo de log dedicado:
+**Notas**:
+- Datadog Java Tracer implementa SLF4J SimpleLogger, para que [se puedan aplicar todas sus configuraciones][1]. Por ejemplo, puedes configurarlo para generar logs en un archivo de log exclusivo:
```
-Ddatadog.slf4j.simpleLogger.logFile=
```
+- Para generar logs de Datadog Java Tracer en un formato JSON compatible con la interfaz de usuario de Datadog Logs, utiliza:
+```
+-Ddatadog.slf4j.simpleLogger.jsonEnabled=true
+```
[1]: https://www.slf4j.org/api/org/slf4j/simple/SimpleLogger.html
@@ -40,11 +74,11 @@ Los pasos para activar el modo de depuración en el rastreador de Datadog Python
```
import logging
-# configuración del registrador raíz
+# root logger configuration
root_logger = logging.getLogger()
root_logger.setLevel(logging.DEBUG)
-# anular la configuración ddtrace al nivel de log WARNING
+# override the ddtrace configuration to WARNING log level
logging.getLogger("ddtrace").setLevel(logging.WARNING)
```
@@ -59,7 +93,7 @@ logging.getLogger("ddtrace").setLevel(logging.WARNING)
3. Para dirigir logs a la consola, para aplicaciones **Python 2**, configura `logging.basicConfig()` o similar. Los logs se envían automáticamente a la consola para aplicaciones **Python 3**.
-### Escenario 3: ddtrace versión 1.0.x a 1.2.x
+### Escenario 2: ddtrace versión 1.3.2 a <2.x
1. Para activar el modo de depuración: `DD_TRACE_DEBUG=true`
@@ -71,9 +105,9 @@ logging.getLogger("ddtrace").setLevel(logging.WARNING)
2. Para dirigir logs a la consola, para aplicaciones **Python 2 o Python 3**, configura `logging.basicConfig()` o utiliza `DD_CALL_BASIC_CONFIG=true`.
-### Escenario 5: Configuración del registro de depuración en el código de la aplicación con la librería de registro estándar
+### Escenario 5: Configuración de la generación de logs de depuración en el código de la aplicación con la biblioteca de registro estándar
-Para cualquier versión de ddtrace, en lugar de establecer la variable de entorno del rastreador `DD_TRACE_DEBUG`, puedes habilitar el registro de depuración en el código de la aplicación utilizando directamente la librería estándar de `logging`:
+Para cualquier versión de ddtrace, en lugar de establecer la variable de entorno del rastreador `DD_TRACE_DEBUG`, puedes habilitar la generación de logs de depuración en el código de la aplicación utilizando directamente la biblioteca estándar de `logging`:
```
log = logging.getLogger("ddtrace.tracer")
@@ -90,14 +124,14 @@ Para activar el modo de depuración del rastreador de Datadog Ruby, configura la
Por defecto, todos los logs son procesados por el registrador por defecto de Ruby. Cuando uses Rails, deberías ver los mensajes en tu archivo de log de aplicación.
-Los mensajes de logs de cliente de Datadog se marcan con `[ddtrace]`, para que puedas aislarlos de otros mensajes.
+Los mensajes de log de cliente de Datadog se marcan con `[ddtrace]`, para que puedas aislarlos de otros mensajes.
Puedes anular el registrador predeterminado y sustituirlo por uno personalizado con el atributo `log` del rastreador:
```ruby
-f = File.new(".log", "w+") # Los mesajes de log van aquí
+f = File.new(".log", "w+") # Log messages should go there
Datadog.configure do |c|
- c.logger.instance = Logger.new(f) # Anular el rastreador por defecto
+ c.logger.instance = Logger.new(f) # Overriding the default tracer
end
Datadog::Tracing.logger.info { "this is typically called by tracing code" }
@@ -111,13 +145,17 @@ Consulta [la documentación de la API][1] para obtener más detalles.
{{< programming-lang lang="go" >}}
+{{% tracing-go-v2 %}}
+
Para habilitar el modo de depuración para el rastreador de Datadog Go, establece la variable de entorno `DD_TRACE_DEBUG=true`,
o habilita el modo de depuración durante la configuración de `Start`:
```go
package main
-import "gopkg.in/DataDog/dd-trace-go.v1/ddtrace/tracer"
+import (
+ "github.com/DataDog/dd-trace-go/v2/ddtrace/tracer"
+)
func main() {
tracer.Start(tracer.WithDebugMode(true))
@@ -127,7 +165,7 @@ func main() {
#### Logs de tramo abandonados
-El rastreador de Datadog Go también admite el registro para tramos (spans) potencialmente abandonados. Para habilitar este modo de depuración en Go, establece la variable de entorno `DD_TRACE_DEBUG_ABANDONED_SPANS=true`. Para cambiar la duración después de la cual los tramos se consideran abandonados (por defecto=`10m`), establece la variable de entorno `DD_TRACE_ABANDONED_SPAN_TIMEOUT` al tiempo de duración deseado. Los logs de tramos abandonados aparecen en el nivel de información.
+El rastreador de Datadog Go también admite la generación de logs para tramos (spans) potencialmente abandonados. Para habilitar este modo de depuración en Go, establece la variable de entorno `DD_TRACE_DEBUG_ABANDONED_SPANS=true`. Para cambiar la duración después de la cual los tramos se consideran abandonados (por defecto=`10m`), establece la variable de entorno `DD_TRACE_ABANDONED_SPAN_TIMEOUT` al tiempo de duración deseado. Los logs de tramos abandonados aparecen en el nivel de información.
También puedes activar la depuración de tramos abandonados durante la configuración de `Start`:
@@ -137,7 +175,7 @@ package main
import (
"time"
- "gopkg.in/DataDog/dd-trace-go.v1/ddtrace/tracer"
+ "github.com/DataDog/dd-trace-go/v2/ddtrace/tracer"
)
func main() {
@@ -199,7 +237,7 @@ Para activar el modo de depuración para el rastreador de Datadog .NET, establec
```csharp
using Datadog.Trace;
-// habilitar modo de depuración
+// enable debug mode
GlobalSettings.SetDebugEnabled(true);
```
@@ -210,12 +248,12 @@ Los logs se guardan por defecto en los siguientes directorios. Utiliza la config
|------------------------------------------------------|--------------------------------------------------|
| Windows | `%ProgramData%\Datadog .NET Tracer\logs\` |
| Linux | `/var/log/datadog/dotnet/` |
-| Linux (cuando se utiliza la [inyección de la librería de Kubernetes][1]) | `/datadog-lib/logs` |
+| Linux (cuando se utiliza la [inyección de la biblioteca de Kubernetes][1]) | `/datadog-lib/logs` |
| Azure App Service | `%AzureAppServiceHomeDirectory%\LogFiles\datadog`|
**Nota:**: En Linux, debes crear el directorio de logs antes de activar el modo de depuración.
-Desde la versión `2.19.0`, puedes utilizar el ajuste `DD_TRACE_LOGFILE_RETENTION_DAYS` para configurar el rastreador para borrar archivos de log del directorio de registro actual al iniciarse. El rastreador borra archivos de log de la misma antigüedad y más antiguos que el número de días dado, con un valor por defecto de `32`.
+A partir de la versión `2.19.0`, puedes utilizar el ajuste `DD_TRACE_LOGFILE_RETENTION_DAYS` para configurar el rastreador para borrar archivos de log del directorio de generación de logs actual al iniciarse. El rastreador elimina archivos de log de la misma antigüedad y más antiguos que el número de días dado, con un valor por defecto de `32`.
Para más detalles sobre cómo configurar el rastreador de .NET, consulta la sección [Configuración][2].
@@ -243,7 +281,7 @@ Con dd-trace-php 0.98.0+, puedes especificar una ruta a un archivo de log para d
- **INI**: `datadog.trace.log_file`
**Notas**:
- - Para obtener más información sobre dónde configurar `DD_TRACE_LOG_FILE`, consulta [Configuración de la librería de rastreo de PHP][2].
+ - Para obtener más información sobre dónde configurar `DD_TRACE_LOG_FILE`, consulta [Configuración de la biblioteca de rastreo de PHP][2].
- Si no se especifica `DD_TRACE_LOG_FILE`, los logs pasarán a la localización del error por defecto en PHP (Ver **Opción 2** para más detalles).
**Opción 2:**
@@ -261,7 +299,7 @@ Si estás configurando en su lugar en el nivel de PHP, utiliza el parámetro ini
{{< programming-lang lang="cpp" >}}
-Las bibliotecas binarias de versión están compiladas con símbolos de depuración añadidos a la versión optimizada. Puedes utilizar GDB o LLDB para depurar la librería y leer los volcados de núcleos. Si estás compilando la librería desde la fuente, pasa el argumento `-DCMAKE_BUILD_TYPE=RelWithDebInfo` a cmake para compilar una versión optimizada con símbolos de depuración.
+Las bibliotecas binarias de versión están compiladas con símbolos de depuración añadidos a la versión optimizada. Puedes utilizar GDB o LLDB para depurar la biblioteca y leer los volcados de núcleos. Si estás compilando la biblioteca desde la fuente, pasa el argumento `-DCMAKE_BUILD_TYPE=RelWithDebInfo` a cmake para compilar una versión optimizada con símbolos de depuración.
```bash
cmake -B .build -DCMAKE_BUILD_TYPE=RelWithDebInfo ..
@@ -275,7 +313,8 @@ cmake --install .build
## Revisar logs de depuración
-Cuando el modo de depuración para tu rastreador está habilitado, los mensajes de log específicos del rastreador informan cómo se inicializó el rastreador y si las trazas fueron enviadas al Agent. **Estos logs no son enviados al Datadog Agent en el flare y son almacenados en una ruta separada según tu configuración de registro**. Los siguientes ejemplos de log muestran lo que podría aparecer en tu archivo de log.
+
+Cuando el modo de depuración de tu rastreador está habilitado, los mensajes de log específicos del rastreador informan cómo se inicializó el rastreador y si se enviaron trazas (traces) al Agent. Los logs de depuración se almacenan en una ruta separada dependiendo de tu configuración de generación de logs. Si habilitas la información del rastreador a nivel de aplicación, también se envían logs de depuración en la bengala para los [lenguajes compatibles](##prerequisites). Los siguientes ejemplos de logs muestran lo que puede aparecer en tu archivo de log.
Si hay errores que no entiendes, o si se informan trazas como descartadas en Datadog, pero no puedes verlas en la interfaz de usuario de Datadog, [ponte en contacto con el soporte de Datadog][1] y proporciona las entradas de log pertinentes con [un flare][2].
@@ -307,7 +346,7 @@ Si hay errores que no entiendes, o si se informan trazas como descartadas en Dat
{{< /programming-lang >}}
{{< programming-lang lang="python" >}}
-Los logs generados por el rastreador de Python tienen el nombre de gestor de registro `ddtrace`.
+Los logs generados por el rastreador de Python tienen la `ddtrace` del nombre del gestor de generación de logs.
**Se generaron trazas:**
@@ -473,9 +512,11 @@ Disponible a partir de 0.98.0:
{{< /programming-lang-wrapper >}}
-## Leer más
+## Referencias adicionales
{{< partial name="whats-next/whats-next.html" >}}
[1]: /es/help/
[2]: /es/agent/troubleshooting/#send-a-flare
+[3]: /es/tracing/guide/remote_config
+[5]: /es/remote_configuration#enabling-remote-configuration
\ No newline at end of file
diff --git a/content/es/tracing/troubleshooting/tracer_startup_logs.md b/content/es/tracing/troubleshooting/tracer_startup_logs.md
index 2397871b65f86..662c49d9c6e5b 100644
--- a/content/es/tracing/troubleshooting/tracer_startup_logs.md
+++ b/content/es/tracing/troubleshooting/tracer_startup_logs.md
@@ -1,4 +1,6 @@
---
+description: Configura y analiza los logs de inicio del rastreador para solucionar
+ problemas de configuración y conectividad del Agent.
further_reading:
- link: /tracing/troubleshooting/connection_errors/
tag: Documentación
@@ -20,7 +22,7 @@ Si no ves logs en absoluto, asegúrate de que tus logs de aplicación no están
{{< programming-lang-wrapper langs="java,.NET,php,go,nodejs,python,ruby,cpp" >}}
{{< programming-lang lang="java" >}}
-**Configuration:**
+**Configuration:** (Configuración)
```text
{"os_name":"Mac OS X","os_version":"10.15.4","architecture":"x86_64","lang":"jvm","lang_version":"11.0.6","jvm_vendor":"AdoptOpenJDK","jvm_version":"11.0.6+10","java_class_version":"55.0","enabled":true,"service":"unnamed-java-app","agent_url":"http://localhost:8126","agent_error":false,"debug":false,"analytics_enabled":false,"sampling_rules":[{},{}],"priority_sampling_enabled":true,"logs_correlation_enabled":false,"profiling_enabled":false,"dd_version":"null","health_checks_enabled":false,"configuration_file":"no config file present","runtime_id":"b69deb26-8bc3-4c00-8952-d42bf8c2123b"}
@@ -43,18 +45,18 @@ Los archivos de log se guardan por defecto en los siguientes directorios. Utiliz
|------------------------------------------------------|--------------------------------------------------|
| Windows | `%ProgramData%\Datadog .NET Tracer\logs\` |
| Linux | `/var/log/datadog/dotnet/` |
-| Linux (cuando se utiliza la [inyección de la librería de Kubernetes][1]) | `/datadog-lib/logs` |
+| Linux (cuando se utiliza la [inyección de la biblioteca de Kubernetes][1]) | `/datadog-lib/logs` |
| Azure App Service | `%AzureAppServiceHomeDirectory%\LogFiles\datadog`|
**Nota:** En Linux, debes crear el directorio de logs antes de activar el modo de depuración.
-Desde la versión `2.19.0`, puedes utilizar el ajuste `DD_TRACE_LOGFILE_RETENTION_DAYS` para configurar el rastreador para borrar archivos de log del directorio de registro actual al iniciarse. El rastreador borra archivos de log de la misma antigüedad y más antiguos que el número de días dado, con un valor por defecto de `32`.
+A partir de la versión `2.19.0`, puedes utilizar el ajuste `DD_TRACE_LOGFILE_RETENTION_DAYS` para configurar el rastreador para borrar archivos de log del directorio de generación de logs actual al iniciarse. El rastreador elimina archivos de log de la misma antigüedad y más antiguos que el número de días dado, con un valor por defecto de `32`.
- `dotnet-tracer-managed-{processName}-{timestamp}.log` contiene los logs de configuración.
- `dotnet-tracer-native-{processName}-{processID}.log` contiene los logs de diagnóstico, si se genera alguno.
-**Configuration:**
+**Configuration:** (Configuración)
```text
2020-06-29 12:26:39.572 +02:00 [INF] DATADOG TRACER CONFIGURATION -
@@ -124,7 +126,7 @@ ddtrace.disable => Off => Off
...
```
-**Configuration:**
+**Configuration:** (Configuración)
Si el rastreador está en [modo DEBUG][1] (depuración), los logs de inicio aparecerán en `error_log` una vez por proceso en la primera solicitud.
@@ -153,7 +155,7 @@ echo \DDTrace\startup_logs() . PHP_EOL;
{{< /programming-lang >}}
{{< programming-lang lang="go" >}}
-**Configuration:**
+**Configuration:** (Configuración)
```text
2020/07/09 15:57:07 Datadog Tracer v1.26.0 INFO: DATADOG TRACER CONFIGURATION {"date":"2020-07-09T15:57:07-05:00","os_name":"darwin","os_version":"10.15.4","version":"v1.26.0","lang":"Go","lang_version":"go1.14.2","env":"","service":"splittest2","agent_url":"http://127.0.0.1:8126/v0.4/traces","agent_error":"","debug":true,"analytics_enabled":false,"sample_rate":"NaN","sampling_rules":null,"sampling_rules_error":"","tags":{"runtime-id":"d269781c-b1bf-4d7b-9a55-a8174930554f"},"runtime_metrics_enabled":false,"health_metrics_enabled":false,"dd_version":"","architecture":"amd64","global_service":""}
@@ -175,7 +177,7 @@ El rastreador de Go imprime una de las dos líneas de diagnóstico posibles, una
Los logs de inicio están desactivados por defecto a partir de la versión 2.x del rastreador. Pueden activarse utilizando la variable de entorno `DD_TRACE_STARTUP_LOGS=true`.
-**Configuration:**
+**Configuration:** (Configuración)
```text
[2020-07-02 14:51:16.421] [INFO] app - host:port==localhost:9080
@@ -208,7 +210,7 @@ Para ver los logs de inicio del rastreador, añade un registrador, o establece `
Para ver las opciones de registro en un archivo con `DD_TRACE_LOG_FILE`, lee [Logs de depuración del rastreador][1].
-**Configuration:**
+**Configuration:** (Configuración)
```text
2020-07-09 11:04:08,098 INFO [ddtrace.tracer] [tracer.py:338] - - DATADOG TRACER CONFIGURATION - {"date": "2020-07-09T15:04:08.092797", "os_name": "Darwin", "os_version": "19.5.0", "is_64_bit": true, "architecture": "64bit", "vm": "CPython", "version": "0.38.1.dev79+gd22e2972.d20200707", "lang": "python", "lang_version": "3.7.6", "pip_version": "20.0.2", "in_virtual_env": true, "agent_url": "http://localhost:1234", "agent_error": "Agent not reachable. Exception raised: [Errno 61] Connection refused", "env": "", "is_global_tracer": true, "enabled_env_setting": null, "tracer_enabled": true, "sampler_type": "DatadogSampler", "priority_sampler_type": "RateByServiceSampler", "service": "", "debug": true, "enabled_cli": true, "analytics_enabled": false, "log_injection_enabled": false, "health_metrics_enabled": false, "dd_version": "", "priority_sampling_enabled": true, "global_tags": "", "tracer_tags": "", "integrations": {"asyncio": "N/A", "boto": "N/A", "botocore": {"enabled": true, "instrumented": false, "module_available": true, "module_version": "1.15.32", "module_imported": false, "config": "N/A"}, "bottle": {"enabled": false, "instrumented": false, "module_available": true, "module_version": "0.12.18", "module_imported": false, "config": null}, "cassandra": "N/A", "celery": {"enabled": true, "instrumented": false, "module_available": true, "module_version": "4.2.2", "module_imported": false, "config": "N/A"}, "consul": "N/A", "django": "N/A", "elasticsearch": "N/A", "algoliasearch": {"enabled": true, "instrumented": false, "module_available": true, "module_version": "2.2.0", "module_imported": false, "config": "N/A"}, "futures": "N/A", "grpc": "N/A", "mongoengine": {"enabled": true, "instrumented": false, "module_available": true, "module_version": "0.19.1", "module_imported": false, "config": "N/A"}, "mysql": "N/A", "mysqldb": "N/A", "pymysql": "N/A", "psycopg": "N/A", "pylibmc": {"enabled": true, "instrumented": false, "module_available": true, "module_version": "1.6.1", "module_imported": false, "config": "N/A"}, "pymemcache": {"enabled": true, "instrumented": false, "module_available": true, "module_version": "1.4.4", "module_imported": false, "config": "N/A"}, "pymongo": {"enabled": true, "instrumented": false, "module_available": true, "module_version": "3.10.1", "module_imported": false, "config": "N/A"}, "redis": {"enabled": true, "instrumented": false, "module_available": true, "module_version": "3.5.3", "module_imported": false, "config": "N/A"}, "rediscluster": "N/A", "requests": {"enabled": true, "instrumented": false, "module_available": true, "module_version": "2.23.0", "module_imported": false, "config": "N/A"}, "sqlalchemy": "N/A", "sqlite3": "N/A", "aiohttp": {"enabled": true, "instrumented": false, "module_available": true, "module_version": "3.6.2", "module_imported": false, "config": "N/A"}, "aiopg": {"enabled": true, "instrumented": false, "module_available": true, "module_version": "0.15.0", "module_imported": false, "config": "N/A"}, "aiobotocore": {"enabled": false, "instrumented": false, "module_available": true, "module_version": "1.0.1", "module_imported": false, "config": null}, "httplib": "N/A", "vertica": "N/A", "molten": {"enabled": true, "instrumented": false, "module_available": true, "module_version": "0.7.4", "module_imported": false, "config": "N/A"}, "jinja2": "N/A", "mako": "N/A", "flask": "N/A", "kombu": {"enabled": false, "instrumented": false, "module_available": true, "module_version": "4.3.0", "module_imported": false, "config": null}, "falcon": {"enabled": false, "instrumented": false, "module_available": true, "module_version": "1.4.1", "module_imported": false, "config": null}, "pylons": "N/A", "pyramid": {"enabled": false, "instrumented": false, "module_available": true, "module_version": "1.10.4", "module_imported": false, "config": null}, "logging": "N/A"}}
@@ -251,7 +253,7 @@ export DD_TRACE_STARTUP_LOGS=true
Cuando se activan los logs de inicio, el rastreador emite información de configuración y diagnóstico.
-**Configuration:**
+**Configuration:** (Configuración)
El rastreador Ruby imprime una línea de configuración para cada producto (por ejemplo, Profiling, Core y Tracing).
@@ -274,7 +276,7 @@ W, [2020-07-08T21:19:05.765994 #143] WARN -- ddtrace: [ddtrace] DATADOG ERROR -
{{< /programming-lang >}}
{{< programming-lang lang="cpp" >}}
-**Configuration:**
+**Configuration:** (Configuración)
```text
{"agent_url":"http://localhost:8126","analytics_enabled":false,"analytics_sample_rate":null,"date":"2020-07-03T00:44:37+0000","dd_version":"","enabled":true,"env":"test-env","lang":"cpp","lang_version":"201402","operation_name_override":"","report_hostname":false,"sampling_rules":"[{\"sample_rate\": 1.0}]","service":"service_name","tags":{},"version":"v1.2.0"}
@@ -305,7 +307,7 @@ Si una integración que estás utilizando no es compatible, o deseas un análisi
Para cada lenguaje, puedes desactivar los logs de inicio configurando la variable de entorno `DD_TRACE_STARTUP_LOGS=false`, pero hazlo solo si los logs emitidos plantean un problema. Si más tarde envías logs de [depuración][8], recuerda habilitar los logs de inicio y enviar todos los logs relevantes juntos para acelerar el análisis de tu caso de soporte.
-## Leer más
+## Referencias adicionales
{{< partial name="whats-next/whats-next.html" >}}
@@ -316,4 +318,4 @@ Para cada lenguaje, puedes desactivar los logs de inicio configurando la variabl
[5]: /es/help/
[6]: /es/tracing/troubleshooting/connection_errors/
[7]: /es/tracing/compatibility_requirements/
-[8]: /es/tracing/troubleshooting/tracer_debug_logs/
+[8]: /es/tracing/troubleshooting/tracer_debug_logs/
\ No newline at end of file
diff --git a/content/fr/agent/guide/install-agent-6.md b/content/fr/agent/guide/install-agent-6.md
new file mode 100644
index 0000000000000..1557b27932fe8
--- /dev/null
+++ b/content/fr/agent/guide/install-agent-6.md
@@ -0,0 +1,1238 @@
+---
+further_reading:
+- link: agent/
+ tag: Documentation
+ text: L'Agent Datadog
+private: true
+title: Installer l'Agent Datadog 6
+---
+
+Ce guide décrit comment installer la version 6 de l'Agent. Datadog recommande d'installer la version 7 de l'Agent ou d'effectuer la mise à niveau vers celle-ci pour bénéficier des dernières fonctionnalités. Pour en savoir plus sur l'installation de la dernière version de l'Agent, suivez les [instructions d'installation les plus récentes de l'Agent][1]. Pour obtenir plus d'informations sur la mise à niveau vers la version 7 de l'Agent à partir d'une version antérieure, consultez la section relative à la [mise à niveau vers la version 7 de l'Agent Datadog][2].
+
+## macOS
+
+- La version 6 de l'Agent Datadog nécessite macOS 10.12 ou ultérieur.
+- La version 6.34 de l'Agent est la dernière à prendre en charge macOS 10.12.
+- La version 6.38 de l'Agent est la dernière version 6 pour macOS.
+
+### Installer l'Agent
+
+#### Ligne de commande
+
+Exécutez la commande suivante, en remplaçant `MY_API_KEY` par votre clé d'API Datadog :
+{{< code-block lang="shell" >}}
+DD_AGENT_MAJOR_VERSION=6 DD_API_KEY=MY_API_KEY DD_SITE="${site}" bash -c "$(curl -L https://install.datadoghq.com/scripts/install_mac_os.sh)"
+{{< /code-block >}}
+
+L'Agent s'exécute à l'ouverture de la session. Vous pouvez le désactiver à partir de la barre d'état système.
+
+#### LaunchDaemon
+
+L'Agent Datadog peut être installé en tant que LaunchDaemon dans l'ensemble du système en spécifiant `DD_SYSTEMDAEMON_INSTALL=true` et `DD_SYSTEMDAEMON_USER_GROUP=username:groupname`. Remplacez `MY_API_KEY` par votre clé d'API Datadog :
+
+{{< code-block lang="shell" >}}
+DD_SYSTEMDAEMON_INSTALL=true DD_SYSTEMDAEMON_USER_GROUP=username:groupname DD_AGENT_MAJOR_VERSION=6 DD_API_KEY=MY_API_KEY DD_SITE="datad0g.com" bash -c "$(curl -L https://install.datadoghq.com/scripts/install_mac_os.sh)"
+{{< /code-block >}}
+
+L'Agent s'exécute au démarrage du système. Un utilisateur non root valide et son groupe doivent être fournis à l'aide de la variable `DD_SYSTEMDAEMON_USER_GROUP`. Le processus de l'Agent s'exécute sous cet utilisateur et ce groupe.
+
+L'application de la barre d'état système n'est pas prise en charge par les installations via un LaunchDaemon dans l'ensemble du système.
+
+#### Interface graphique
+
+1. Téléchargez et installez le [package DMG][3].
+1. Ajoutez la ligne suivante à `/opt/datadog-agent/etc/datadog.yaml`, en remplaçant `MY_API_KEY` par votre clé d'API Datadog :
+ {{< code-block lang="shell" >}}
+api_key: MY_API_KEY
+site: datad0g.com
+{{< /code-block >}}
+
+### Gérer l'Agent
+
+Vous disposez des ressources suivantes pour gérer l'Agent :
+- L'application de l'Agent Datadog dans la barre d'état système, pour les installations basées sur un seul utilisateur
+- `launchctl` pour les installations via un LaunchDaemon dans l'ensemble du système
+- La commande `datadog-agent` ; le binaire se trouve dans `/usr/local/bin`
+
+Activez ou désactivez les intégrations dans `/opt/datadog-agent/etc/conf.d.`
+
+## Windows
+
+Depuis la version 6.11.0, les composants principaux, APM et de tracing de l'Agent Windows s'exécutent sous le compte `ddagentuser` et sont créés au moment de l'installation, au lieu de s'exécuter sous le compte `LOCAL_SYSTEM`. Si vous passez d'une version 6.x de l'Agent Datadog à la version 6.11 ou à une version ultérieure, consultez la documentation [Utilisateur de l'Agent pour Windows][10] avant de procéder à la mise à niveau.
+
+Les liens vers les différentes versions du programme d'installation de Windows sont fournis au [format JSON][6].
+
+### Installer l'Agent
+
+#### Installation interactive
+
+1. Téléchargez et exécutez le [programme d'installation de l'Agent Datadog][4].
+1. Exécutez le programme d'installation (en tant qu'administrateur) en ouvrant `datadog-agent-6-latest.amd64.msi`.
+1. Suivez les instructions à l'écran, acceptez l'accord de licence et saisissez votre clé d'API Datadog.
+1. Saisissez votre région Datadog : {{< region-param key=dd_site code="true" >}}.
+1. Si vous le souhaitez, lancez le Datadog Agent Manager lorsque cela vous est demandé.
+
+#### Installation sans surveillance
+
+1. Téléchargez et exécutez le [programme d'installation de l'Agent Datadog][4].
+1. Exécutez l'une des commandes suivantes dans le répertoire où vous avez téléchargé le programme d'installation, en remplaçant `MY_API_KEY` par votre clé d'API Datadog :
+ - Invite de commandes :
+ {{< code-block lang="shell" >}}
+start /wait msiexec /qn /i datadog-agent-6-latest.amd64.msi APIKEY="MY_API_KEY" SITE="datad0g.com"
+{{< /code-block >}}
+ - Powershell :
+ {{< code-block lang="powershell" >}}
+Start-Process -Wait msiexec -ArgumentList '/qn /i datadog-agent-6-latest.amd64.msi APIKEY="MY_API_KEY" SITE="datad0g.com"'
+{{< /code-block >}}
+
+`HOSTNAME` et `TAGS` sont des valeurs facultatives. Consultez la [documentation relative à l'Agent Windows][5] pour découvrir toutes les options disponibles.
+
+#### Déploiement sur Azure
+
+Pour installer l'Agent sur Azure, suivez les instructions de la [documentation Microsoft Azure][8].
+
+## Linux et Unix
+
+{{< tabs >}}
+
+{{% tab "Debian" %}}
+### Installation en une seule étape
+
+La commande en une seule étape installe les packages APT pour l'Agent Datadog et vous demande de saisir votre mot de passe.
+- Si l'Agent n'est pas déjà installé sur votre machine et que vous ne souhaitez pas qu'il démarre automatiquement après l'installation, ajoutez `DD_INSTALL_ONLY=true` au début de la commande avant de l'exécuter.
+- Si vous disposez d'un fichier de configuration de l'Agent, les valeurs existantes sont conservées lors de la mise à jour.
+- Vous pouvez configurer certaines des options de l'Agent au cours de la procédure d'installation initiale. Pour en savoir plus, consultez les [options de configuration install_script][101].
+
+Pour installer l'Agent, exécutez la commande suivante, en remplaçant `MY_API_KEY` par votre clé d'API Datadog :
+```shell
+DD_API_KEY=MY_API_KEY DD_SITE="datad0g.com" bash -c "$(curl -L https://s3.amazonaws.com/dd-agent/scripts/install_script_agent6.sh)"
+```
+
+### Installation en plusieurs étapes
+
+1. Configurez APT afin de pouvoir effectuer des téléchargements via HTTPS et installer `curl` et `gnupg` :
+ ```shell
+ sudo apt-get update
+ sudo apt-get install apt-transport-https curl gnupg
+ ```
+1. Configurez le référentiel Debian de Datadog sur votre système et créez un keyring d'archive Datadog :
+ ```shell
+ sudo sh -c "echo 'deb [signed-by=/usr/share/keyrings/datadog-archive-keyring.gpg] https://apt.datadoghq.com/ stable 6' > /etc/apt/sources.list.d/datadog.list"
+ sudo touch /usr/share/keyrings/datadog-archive-keyring.gpg
+ sudo chmod a+r /usr/share/keyrings/datadog-archive-keyring.gpg
+
+ curl https://keys.datadoghq.com/DATADOG_APT_KEY_CURRENT.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch
+ curl https://keys.datadoghq.com/DATADOG_APT_KEY_06462314.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch
+ curl https://keys.datadoghq.com/DATADOG_APT_KEY_C0962C7D.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch
+ curl https://keys.datadoghq.com/DATADOG_APT_KEY_F14F620E.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch
+ curl https://keys.datadoghq.com/DATADOG_APT_KEY_382E94DE.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch
+ ```
+
+1. Si vous utilisez Debian 8 ou une version antérieure, copiez le keyring vers `/etc/apt/trusted.gpg.d` :
+ ```shell
+ sudo cp -a /usr/share/keyrings/datadog-archive-keyring.gpg /etc/apt/trusted.gpg.d/
+ ```
+
+1. Mettez à jour votre répertoire APT local et installez l'Agent :
+ ```shell
+ sudo apt-get update
+ sudo apt-get install datadog-agent datadog-signing-keys
+ ```
+
+1. Si vous effectuez une mise à niveau depuis la version 5.17 ou une version ultérieure de l'Agent, vous pouvez choisir d'importer votre configuration existante de l'Agent 5 :
+ ```shell
+ sudo -u dd-agent -- datadog-agent import /etc/dd-agent /etc/datadog-agent
+ ```
+
+1. Si vous n'effectuez pas de mise à niveau et que vous ne souhaitez pas utiliser une ancienne configuration, copiez l'exemple de configuration et installez le fichier Agent. Remplacez `MY_API_KEY` par votre clé d'API Datadog :
+ ```shell
+ sudo sh -c "sed 's/api_key:.*/api_key: MY_API_KEY/' /etc/datadog-agent/datadog.yaml.example > /etc/datadog-agent/datadog.yaml"
+ ```
+1. Configurez la région Datadog :
+ ```shell
+ sudo sh -c "sed -i 's/# site:.*/site: datad0g.com/'
+ /etc/datadog-agent/datadog.yaml"
+ ```
+1. Assurez-vous que les autorisations de l'utilisateur de l'Agent sont correctes :
+ ```shell
+ sudo sh -c "chown dd-agent:dd-agent /etc/datadog-agent/datadog.yaml && chmod 640 /etc/datadog-agent/datadog.yaml"
+ ```
+1. Démarrez l'Agent :
+ ```shell
+ sudo systemctl restart datadog-agent.service
+ ```
+
+[101]: https://github.com/DataDog/agent-linux-install-script/blob/main/README.md#agent-configuration-options
+{{% /tab %}}
+
+{{% tab "Ubuntu" %}}
+### Installation en une seule étape
+
+La commande en une seule étape installe les packages APT pour l'Agent Datadog et vous demande de saisir votre mot de passe. Si l'Agent n'est pas déjà installé sur votre machine et que vous ne souhaitez pas qu'il démarre automatiquement après l'installation, ajoutez `DD_INSTALL_ONLY=true` au début de la commande avant de l'exécuter.
+
+Exécutez la commande suivante, en remplaçant `MY_API_KEY` par votre clé d'API Datadog :
+```shell
+DD_API_KEY=MY_API_KEY bash -c "$(curl -L https://raw.githubusercontent.com/DataDog/dd-agent/master/packaging/datadog-agent/source/install_agent.sh)"
+```
+
+### Installation en plusieurs étapes
+
+1. Configurez APT afin de pouvoir effectuer des téléchargements via HTTPS et installer `curl` et `gnupg` :
+ ```shell
+ sudo apt-get update
+ sudo apt-get install apt-transport-https curl gnupg
+ ```
+1. Configurez le référentiel Debian de Datadog sur votre système et créez un keyring d'archive Datadog :
+ ```shell
+ sudo sh -c "echo 'deb [signed-by=/usr/share/keyrings/datadog-archive-keyring.gpg] https://apt.datadoghq.com/ stable 6' > /etc/apt/sources.list.d/datadog.list"
+ sudo touch /usr/share/keyrings/datadog-archive-keyring.gpg
+ sudo chmod a+r /usr/share/keyrings/datadog-archive-keyring.gpg
+
+ curl https://keys.datadoghq.com/DATADOG_APT_KEY_CURRENT.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch
+ curl https://keys.datadoghq.com/DATADOG_APT_KEY_06462314.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch
+ curl https://keys.datadoghq.com/DATADOG_APT_KEY_C0962C7D.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch
+ curl https://keys.datadoghq.com/DATADOG_APT_KEY_F14F620E.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch
+ curl https://keys.datadoghq.com/DATADOG_APT_KEY_382E94DE.public | sudo gpg --no-default-keyring --keyring /usr/share/keyrings/datadog-archive-keyring.gpg --import --batch
+ ```
+1. Si vous utilisez Ubuntu 14 ou une version antérieure, copiez le keyring vers `/etc/apt/trusted.gpg.d` :
+ ```shell
+ sudo cp -a /usr/share/keyrings/datadog-archive-keyring.gpg /etc/apt/trusted.gpg.d/
+ ```
+
+1. Mettez à jour votre répertoire APT local et installez l'Agent :
+ ```shell
+ sudo apt-get update
+ sudo apt-get install datadog-agent datadog-signing-keys
+ ```
+
+1. Si vous effectuez une mise à niveau depuis la version 5.17 ou une version ultérieure de l'Agent, vous pouvez choisir d'importer votre configuration existante de l'Agent 5 :
+ ```shell
+ sudo -u dd-agent -- datadog-agent import /etc/dd-agent /etc/datadog-agent
+ ```
+
+1. Si vous n'effectuez pas de mise à niveau et que vous ne souhaitez pas utiliser une ancienne configuration, copiez l'exemple de configuration et installez le fichier Agent. Remplacez `MY_API_KEY` par votre clé d'API Datadog :
+ ```shell
+ sudo sh -c "sed 's/api_key:.*/api_key: MY_API_KEY/' /etc/datadog-agent/datadog.yaml.example > /etc/datadog-agent/datadog.yaml"
+ ```
+1. Configurez la région Datadog :
+ ```shell
+ sudo sh -c "sed -i 's/# site:.*/site: datad0g.com/' /etc/datadog-agent/datadog.yaml"
+ ```
+1. Assurez-vous que les autorisations de l'utilisateur de l'Agent sont correctes :
+ ```shell
+ sudo sh -c "chown dd-agent:dd-agent /etc/datadog-agent/datadog.yaml && chmod 640 /etc/datadog-agent/datadog.yaml"
+ ```
+1. Démarrez l'Agent :
+ - Ubuntu 16.04 et versions ultérieures :
+ ```shell
+ sudo systemctl restart datadog-agent.service
+ ```
+ - Ubuntu 14.04 :
+ ```shell
+ sudo initctl start datadog-agent
+ ```
+
+{{% /tab %}}
+
+{{% tab "Amazon Linux" %}}
+### Installation en une seule étape
+
+La commande en une seule étape installe les packages YAM pour l'Agent Datadog et vous demande de saisir votre mot de passe.
+- Si l'Agent n'est pas déjà installé sur votre machine et que vous ne souhaitez pas qu'il démarre automatiquement après l'installation, ajoutez `DD_INSTALL_ONLY=true` au début de la commande avant de l'exécuter.
+- Si vous disposez d'un fichier de configuration de l'Agent, les valeurs existantes sont conservées lors de la mise à jour.
+- Vous pouvez configurer certaines des options de l'Agent au cours de la procédure d'installation initiale. Pour en savoir plus, consultez les [options de configuration install_script][101].
+
+1. Exécutez la commande suivante, en remplaçant `MY_API_KEY` par votre clé d'API Datadog :
+ ```shell
+ DD_API_KEY=MY_API_KEY DD_SITE="datad0g.com" bash -c "$(curl -L https://s3.amazonaws.com/dd-agent/scripts/install_script_agent6.sh)"
+ ```
+
+1. For Amazon Linux 2022 installations on Agent version <= 6.39. The Agent requires the `libxcrypt-compat` package:
+ ```shell
+ dnf install -y libxcrypt-compat
+ ```
+
+### Multi-step install
+
+1. On an x86_64 host, set up the Datadog YUM repo by creating `/etc/yum.repos.d/datadog.repo` with the following configuration:
+ ```conf
+ [datadog]
+ name=Datadog, Inc.
+ baseurl=https://yum.datadoghq.com/stable/6/x86_64/
+ enabled=1
+ gpgcheck=1
+ repo_gpgcheck=1
+ gpgkey=https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public
+ https://keys.datadoghq.com/DATADOG_RPM_KEY_4F09D16B.public
+ https://keys.datadoghq.com/DATADOG_RPM_KEY_B01082D3.public
+ https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public
+ https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public
+ ```
+
+1. On an arm64 host, set up the Datadog YUM repo by creating `/etc/yum.repos.d/datadog.repo` with the following configuration:
+ ```conf
+ [datadog]
+ name=Datadog, Inc.
+ baseurl=https://yum.datadoghq.com/stable/6/aarch64/
+ enabled=1
+ gpgcheck=1
+ repo_gpgcheck=1
+ gpgkey=https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public
+ https://keys.datadoghq.com/DATADOG_RPM_KEY_4F09D16B.public
+ https://keys.datadoghq.com/DATADOG_RPM_KEY_B01082D3.public
+ https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public
+ https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public
+ ```
+
+1. If upgrading from Agent 5 or 6, delete the obsolete RPM GPG key:
+ ```shell
+ sudo sh -c 'if rpm -q gpg-pubkey-4172a230-55dd14f6 >/dev/null; then rpm --erase gpg-pubkey-4172a230-55dd14f6; fi'
+ ```
+
+1. Update your local yum repo and install the Agent:
+ ```shell
+ sudo yum makecache
+ sudo yum install datadog-agent
+ ```
+
+1. Optionally, if upgrading from Agent 5.17 or higher, import your existing Agent 5 configuration:
+ ```shell
+ sudo -u dd-agent -- datadog-agent import /etc/dd-agent /etc/datadog-agent
+ ```
+
+1. If you're not upgrading and do not want to use an old configuration, copy the example config into place and install the Agent. Replace `MY_API_KEY` with your Datadog API key:
+ ```shell
+ sudo sh -c "sed 's/api_key:.*/api_key: MY_API_KEY/' /etc/datadog-agent/datadog.yaml.example > /etc/datadog-agent/datadog.yaml"
+ ```
+
+1. Configure the Datadog region:
+ ```shell
+ sudo sh -c "sed -i 's/# site:.*/site: datad0g.com/' /etc/datadog-agent/datadog.yaml"
+ ```
+1. Ensure the Agent user's permissions are correct::
+ ```shell
+ sudo sh -c "chown dd-agent:dd-agent /etc/datadog-agent/datadog.yaml && chmod 640 /etc/datadog-agent/datadog.yaml"
+ ```
+1. Start the Agent:
+ - Amazon Linux 2.0:
+ ```shell
+ sudo systemctl restart datadog-agent.service
+ ```
+ - Amazon Linux 1.0:
+ ```shell
+ sudo initctl start datadog-agent
+ ```
+
+[101]: https://github.com/DataDog/agent-linux-install-script/blob/main/README.md#agent-configuration-options
+{{% /tab %}}
+
+{{% tab "CentOS and RedHat" %}}
+### One-step install
+
+The one-step command installs the YUM packages for the Datadog Agent and prompts you for your password.
+- If the Agent is not already installed on your machine and you don't want it to start automatically after the installation, prepend `DD_INSTALL_ONLY=true` to the command before running it.
+- If you have an existing Agent configuration file, existing values are retained during the update.
+- You can configure some of the Agent options during the initial install process. For more information, check the [install_script configuration options][101].
+
+Run the following command, replacing `MY_API_KEY` with your Datadog API key:
+```shell
+DD_UPGRADE=true DD_SITE="datad0g.com" bash -c "$(curl -L https://s3.amazonaws.com/dd-agent/scripts/install_script_agent6.sh)"
+```
+
+### Multi-step install
+
+1. Set up the Datadog YUM repo by creating `/etc/yum.repos.d/datadog.repo` with the following configuration:
+ ```conf
+ [datadog]
+ name=Datadog, Inc.
+ baseurl=https://yum.datadoghq.com/rpm/x86_64/
+ enabled=1
+ gpgcheck=0
+ repo_gpgcheck=1
+ gpgkey=https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public
+ https://keys.datadoghq.com/DATADOG_RPM_KEY_4F09D16B.public
+ https://keys.datadoghq.com/DATADOG_RPM_KEY_B01082D3.public
+ https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public
+ https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public
+ ```
+
+ **Note**: The `repo_gpgcheck=0` option is a workaround for [a bug in DNF][102].
+
+1. If you're upgrading from Agent 5 or a previous version of Agent 6, delete the obsolete RPM GPG key:
+ ```shell
+ sudo sh -c 'if rpm -q gpg-pubkey-4172a230-55dd14f6 >/dev/null; then rpm --erase gpg-pubkey-4172a230-55dd14f6; fi'
+ ```
+
+1. Update your local yum repo and install the Agent:
+ ```shell
+ sudo yum makecache
+ sudo yum remove datadog-agent-base
+ sudo yum install datadog-agent
+ ```
+
+1. Optionally, if upgrading from Agent 5.17 or higher, import your existing Agent 5 configuration:
+ ```shell
+ sudo -u dd-agent -- datadog-agent import /etc/dd-agent /etc/datadog-agent
+ ```
+
+1. If you're not upgrading and do not want to use an old configuration, copy the example config into place and install the Agent. Replace `MY_API_KEY` with your Datadog API key:
+ ```shell
+ sudo sh -c "sudo sh -c "sed 's/api_key:.*/api_key: .*/api_key: MY_API_KEY/' /etc/datadog-agent/datadog.yaml.example > /etc/datadog-agent/datadog.yaml"
+ ```
+
+1. Configure the Datadog region:
+ ```shell
+ sudo sh -c "sed -i 's/# site:.*/site: datad0g.com/' /etc/datadog-agent/datadog.yaml"
+ ```
+
+1. Ensure the Agent user's permissions are correct::
+ ```shell
+ sudo sh -c "chown dd-agent:dd-agent /etc/datadog-agent/datadog.yaml && chmod 640 /etc/datadog-agent/datadog.yaml"
+ ```
+
+1. Start the Agent:
+ - Centos or Red Hat 7 and higher:
+ ```shell
+ sudo systemctl restart datadog-agent.service
+ ```
+ - Centos or Red Hat 6:
+ ```shell
+ sudo initctl start datadog-agent
+ ```
+
+[101]: https://github.com/DataDog/agent-linux-install-script/blob/main/README.md#agent-configuration-options
+[102]: https://bugzilla.redhat.com/show_bug.cgi?id=1792506
+{{% /tab %}}
+
+{{% tab "Alma, Oracle, and Rocky" %}}
+### One-step install
+
+The one-step command installs the YUM packages for the Datadog Agent and prompts you for your password.
+- If the Agent is not already installed on your machine and you don't want it to start automatically after the installation, prepend `DD_INSTALL_ONLY=true` to the command before running it.
+- If you have an existing Agent configuration file, existing values are retained during the update.
+- You can configure some of the Agent options during the initial install process. For more information, check the [install_script configuration options][101].
+
+Run the following command, replacing `MY_API_KEY` with your Datadog API key:
+```shell
+DD_UPGRADE=true DD_SITE="datad0g.com" bash -c "$(curl -L https://s3.amazonaws.com/dd-agent/scripts/install_script_agent6.sh)"
+```
+
+### Multi-step install
+
+1. Set up the Datadog YUM repo by creating `/etc/yum.repos.d/datadog.repo` with the following configuration:
+ ```conf
+ [datadog]
+ name=Datadog, Inc.
+ baseurl=https://yum.datadoghq.com/rpm/x86_64/
+ enabled=1
+ gpgcheck=1
+ repo_gpgcheck=1
+ gpgkey=https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public
+ https://keys.datadoghq.com/DATADOG_RPM_KEY_4F09D16B.public
+ https://keys.datadoghq.com/DATADOG_RPM_KEY_B01082D3.public
+ https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public
+ https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public
+ ```
+
+1. If you're upgrading from Agent 5 or a previous version of Agent 6, delete the obsolete RPM GPG key:
+ ```shell
+ sudo sh -c 'if rpm -q gpg-pubkey-4172a230-55dd14f6 >/dev/null; then rpm --erase gpg-pubkey-4172a230-55dd14f6; fi'
+ ```
+
+1. Update your local yum repo and install the Agent:
+ ```shell
+ sudo yum makecache
+ sudo yum remove datadog-agent-base
+ sudo yum install datadog-agent
+ ```
+
+1. Optionally, if upgrading from Agent 5.17 or higher, import your existing Agent 5 configuration:
+ ```shell
+ sudo -u dd-agent -- datadog-agent import /etc/dd-agent /etc/datadog-agent
+ ```
+
+1. If you're not upgrading and do not want to use an old configuration, copy the example config into place and install the Agent. Replace `MY_API_KEY` with your Datadog API key:
+ ```shell
+ sudo sh -c "sudo sh -c "sed 's/api_key:.*/api_key: .*/api_key: MY_API_KEY/' /etc/datadog-agent/datadog.yaml.example > /etc/datadog-agent/datadog.yaml"
+ ```
+
+1. Configure the Datadog region:
+ ```shell
+ sudo sh -c "sed -i 's/# site:.*/site: datad0g.com/' /etc/datadog-agent/datadog.yaml"
+ ```
+
+1. Ensure the Agent user's permissions are correct::
+ ```shell
+ sudo sh -c "chown dd-agent:dd-agent /etc/datadog-agent/datadog.yaml && chmod 640 /etc/datadog-agent/datadog.yaml"
+ ```
+
+1. Restart the Agent:
+ ```shell
+ sudo systemctl restart datadog-agent.service
+ ```
+
+[101]: https://github.com/DataDog/agent-linux-install-script/blob/main/README.md#agent-configuration-options
+{{% /tab %}}
+
+{{% tab "Fedora" %}}
+### One-step install
+
+The one-step command installs the YUM packages for the Datadog Agent and prompts you for your password.
+- If the Agent is not already installed on your machine and you don't want it to start automatically after the installation, prepend `DD_INSTALL_ONLY=true` to the command before running it.
+- If you have an existing Agent configuration file, existing values are retained during the update.
+- You can configure some of the Agent options during the initial install process. For more information, check the [install_script configuration options][101].
+
+Run the following command, replacing `MY_API_KEY` with your Datadog API key:
+```shell
+DD_API_KEY=MY_API_KEY bash -c "$(curl -L https://raw.githubusercontent.com/DataDog/dd-agent/master/packaging/datadog-agent/source/install_agent.sh)"
+```
+
+### Multi-step install
+
+1. Set up the Datadog YUM repo by creating `/etc/yum.repos.d/datadog.repo` with the following configuration:
+ ```conf
+ [datadog]
+ name=Datadog, Inc.
+ baseurl=https://yum.datadoghq.com/rpm/x86_64/
+ enabled=1
+ gpgcheck=1
+ repo_gpgcheck=1
+ gpgkey=https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public
+ https://keys.datadoghq.com/DATADOG_RPM_KEY_4F09D16B.public
+ https://keys.datadoghq.com/DATADOG_RPM_KEY_B01082D3.public
+ https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public
+ https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public
+ ```
+
+1. If you're upgrading from Agent 5 or a previous version of Agent 6, delete the obsolete RPM GPG key:
+ ```shell
+ sudo sh -c 'if rpm -q gpg-pubkey-4172a230-55dd14f6 >/dev/null; then rpm --erase gpg-pubkey-4172a230-55dd14f6; fi'
+ ```
+
+1. Update your local yum repo and install the Agent:
+ ```shell
+ sudo yum makecache
+ sudo yum install datadog-agent
+ ```
+
+1. Optionally, if upgrading from Agent 5.17 or higher, import your existing Agent 5 configuration:
+ ```shell
+ sudo -u dd-agent -- datadog-agent import /etc/dd-agent /etc/datadog-agent
+ ```
+
+1. If you're not upgrading and do not want to use an old configuration, copy the example config into place and install the Agent. Replace `MY_API_KEY` with your Datadog API key:
+ ```shell
+ sudo sh -c "sudo sh -c "sed 's/api_key:.*/api_key: .*/api_key: MY_API_KEY/' /etc/datadog-agent/datadog.yaml.example > /etc/datadog-agent/datadog.yaml"
+ ```
+
+1. Configure the Datadog region:
+ ```shell
+ sudo sh -c "sed -i 's/# site:.*/site: datad0g.com/' /etc/datadog-agent/datadog.yaml"
+ ```
+
+1. Ensure the Agent user's permissions are correct::
+ ```shell
+ sudo sh -c "chown dd-agent:dd-agent /etc/datadog-agent/datadog.yaml && chmod 640 /etc/datadog-agent/datadog.yaml"
+ ```
+
+1. Restart the Agent:
+ ```shell
+ sudo systemctl restart datadog-agent.service
+ ```
+
+[101]: https://github.com/DataDog/agent-linux-install-script/blob/main/README.md#agent-configuration-options
+{{% /tab %}}
+
+{{% tab "Suse" %}}
+### One-step install
+
+The one-step command installs the YUM packages for the Datadog Agent and prompts you for your password.
+- If the Agent is not already installed on your machine and you don't want it to start automatically after the installation, prepend `DD_INSTALL_ONLY=true` to the command before running it.
+- If you have an existing Agent configuration file, existing values are retained during the update.
+- You can configure some of the Agent options during the initial install process. For more information, check the [install_script configuration options][101].
+
+Run the following command, replacing `MY_API_KEY` with your Datadog API key:
+```shell
+DD_API_KEY=MY_API_KEY DD_SITE="datad0g.com" bash -c "$(curl -L https://s3.amazonaws.com/dd-agent/scripts/install_script_agent6.sh)"
+```
+
+### Installation en plusieurs étapes
+
+1. Set up the Datadog YUM repo by creating `/etc/zypp/repos.d/datadog.repo` with the following configuration:
+ ```conf
+ [datadog]
+ name=Datadog, Inc.
+ baseurl=hhttps://yum.datadoghq.com/suse/stable/6/x86_64
+ enabled=1
+ gpgcheck=1
+ repo_gpgcheck=1
+ gpgkey=https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public
+ https://keys.datadoghq.com/DATADOG_RPM_KEY_4F09D16B.public
+ https://keys.datadoghq.com/DATADOG_RPM_KEY_B01082D3.public
+ https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public
+ https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public
+ ```
+
+1. If you're upgrading from Agent 5 or a previous version of Agent 6, delete the obsolete RPM GPG key:
+ ```shell
+ sudo sh -c 'if rpm -q gpg-pubkey-4172a230-55dd14f6 >/dev/null; then rpm --erase gpg-pubkey-4172a230-55dd14f6; fi'
+ ```
+
+1. Update your local zypper repo and install the Agent:
+ ```shell
+ sudo zypper refresh
+ sudo rpm --import https://keys.datadoghq.com/DATADOG_RPM_KEY_CURRENT.public
+ sudo rpm --import https://keys.datadoghq.com/DATADOG_RPM_KEY_4F09D16B.public
+ sudo rpm --import https://keys.datadoghq.com/DATADOG_RPM_KEY_B01082D3.public
+ sudo rpm --import https://keys.datadoghq.com/DATADOG_RPM_KEY_FD4BF915.public
+ sudo rpm --import https://keys.datadoghq.com/DATADOG_RPM_KEY_E09422B3.public
+ sudo zypper install datadog-agent
+ ```
+
+1. Si vous effectuez une mise à niveau depuis la version 5.17 ou une version ultérieure de l'Agent, vous pouvez choisir d'importer votre configuration existante de l'Agent 5 :
+ ```shell
+ sudo -u dd-agent -- datadog-agent import /etc/dd-agent /etc/datadog-agent
+ ```
+
+1. Si vous n'effectuez pas de mise à niveau et que vous ne souhaitez pas utiliser une ancienne configuration, copiez l'exemple de configuration et installez le fichier Agent. Remplacez `MY_API_KEY` par votre clé d'API Datadog :
+ ```shell
+ sudo sh -c "sudo sh -c "sed 's/api_key:.*/api_key: .*/api_key: MY_API_KEY/' /etc/datadog-agent/datadog.yaml.example > /etc/datadog-agent/datadog.yaml"
+ ```
+
+1. Configurez la région Datadog :
+ ```shell
+ sudo sh -c "sed -i 's/# site:.*/site: datad0g.com/' /etc/datadog-agent/datadog.yaml"
+ ```
+
+1. Assurez-vous que les autorisations de l'utilisateur de l'Agent sont correctes :
+ ```shell
+ sudo sh -c "chown dd-agent:dd-agent /etc/datadog-agent/datadog.yaml && chmod 640 /etc/datadog-agent/datadog.yaml"
+ ```
+
+1. Restart the Agent:
+ ```shell
+ sudo systemctl restart datadog-agent.service
+ ```
+
+[101]: https://github.com/DataDog/agent-linux-install-script/blob/main/README.md#agent-configuration-options
+{{% /tab %}}
+
+{{% tab "AIX" %}}
+### Installation en une seule étape
+
+The one-step command installs the latest BFF package for the Datadog Agent and prompts you for your password if necessary. Si l'Agent n'est pas déjà installé sur votre machine et que vous ne souhaitez pas qu'il démarre automatiquement après l'installation, ajoutez `DD_INSTALL_ONLY=true` au début de la commande avant de l'exécuter.
+
+Exécutez la commande suivante, en remplaçant `MY_API_KEY` par votre clé d'API Datadog :
+```shell
+DD_API_KEY=MY_API_KEY DD_SITE="datad0g.com" ksh -c "$(curl -L https://raw.githubusercontent.com/DataDog/datadog-unix-agent/master/scripts/install_script.sh)"
+```
+
+### Upgrade from a previous installation
+
+To install the Agent while keeping your existing configuration, run the following command:
+```shell
+DD_UPGRADE=true DD_SITE="datad0g.com" ksh -c "$(curl -L https://raw.githubusercontent.com/DataDog/datadog-unix-agent/master/scripts/install_script.sh)"
+```
+
+For a full list of the available installation script environment variables, see [Basic Agent Usage for AIX][101].
+
+### Installation en plusieurs étapes
+
+1. Download the preferred BFF from the [datadog-unix-agent][102] repo releases.
+
+1. Install the artifact as root with `installp`:
+ ```shell
+ installp -aXYgd datadog-unix-agent-latest.powerpc.aix..bff datadog-unix-agent
+ ```
+
+1. If you don't have an existing configuration file, copy the example config into place. Replace `MY_API_KEY` with your Datadog API key:
+ ```shell
+ sudo sh -c "sed 's/api_key:.*/api_key: MY_API_KEY/' /etc/datadog-agent/datadog.yaml.example > /etc/datadog-agent/datadog.yaml"
+ ```
+
+1. Configurez la région Datadog :
+ ```shell
+ sudo sh -c "sed \'s/# site:.*/site: datad0g.com/\' /etc/datadog-agent/datadog.yaml > /etc/datadog-agent/datadog.yaml.new && mv /etc/datadog-agent/datadog.yaml.new /etc/datadog-agent/datadog.yaml"
+ ```
+
+1. Ensure that the Datadog Agent has the correct permissions:
+ ```shell
+ sudo sh -c "chown dd-agent:dd-agent /etc/datadog-agent/datadog.yaml && chmod 660 /etc/datadog-agent/datadog.yaml"
+ ```
+
+1. Stop the Agent service:
+ ```shell
+ sudo stopsrc -s datadog-agent
+ ```
+
+1. Verify the Agent service has stopped:
+ ```
+ sudo lssrc -s datadog-agent
+ ```
+
+1. Restart the Agent service:
+ ```shell
+ sudo startsrc -s datadog-agent
+ ```
+
+[101]: /fr/agent/basic_agent_usage/aix/#installation
+[102]: https://github.com/DataDog/datadog-unix-agent/releases
+{{% /tab %}}
+
+{{< /tabs >}}
+
+## Cloud and containers
+
+{{< tabs >}}
+
+{{% tab "Kubernetes" %}}
+
+Run the Datadog Agent directly in your Kubernetes cluster to start collecting your cluster and applications metrics, traces, and logs. You can deploy the Agent with a Helm chart, [the Datadog Operator][101] or directly with [a DaemonSet][102]. For more information about installing the Datadog Agent on different distributions, see the [Kubernetes distributions documentation][103].
+
+### Installing the Datadog Agent
+
+To install the chart with a custom release name `RELEASE_NAME`:
+
+1. [Install Helm][104].
+1. Add the Datadog Helm repository:
+ ```shell
+ helm repo add datadog https://helm.datadoghq.com
+ ```
+
+1. Fetch the latest version of newly added charts:
+ ```shell
+ helm repo update
+ ```
+
+1. Create an empty `values.yaml` file, and override any of the [default values][105] if desired. See the [Datadog `helm-charts` repo][106] for examples.
+1. Deploy the Datadog Agent, replacing `MY_API_KEY` with your Datadog API key:
+ **With Helm v3+**:
+ ```shell
+ helm install RELEASE_NAME -f datadog-values.yaml --set datadog.site='datad0g.com' --set agents.image.tag='6' --set datadog.apiKey=MY_API_KEY datadog/datadog
+ ```
+
+ **With Helm v1 or v2**:
+ ```shell
+ helm install -f datadog-values.yaml --name RELEASE_NAME --set datadog.site='datad0g.com' --set agents.image.tag='6' --set datadog.apiKey=MY_API_KEY datadog/datadog
+ ```
+
+ This chart adds the Datadog Agent to all nodes in your cluster using a DaemonSet. Soon after installation, Datadog begins to report hosts and metrics data in your account.
+
+### Enabling log collection
+
+To enable log collection with Helm, update your `datadog-values.yaml` file with the following log collection configuration:
+
+```yaml
+datadog:
+ logs:
+ enabled: true
+ containerCollectAll: true
+```
+
+Then upgrade your Datadog Helm chart:
+```shell
+helm upgrade -f datadog-values.yaml RELEASE_NAME datadog/datadog
+```
+
+### Enabling trace collection
+
+Follow the dedicated [APM setup documentation][107] to learn how to collect your application traces in a Kubernetes environment.
+
+### Further Reading
+
+For information on available Agent features, see the [Kubernetes documentation][108].
+
+[101]: /fr/containers/kubernetes/?tab=operator
+[102]: /fr/containers/kubernetes/?tab=daemonset
+[103]: /fr/containers/kubernetes/distributions/
+[104]: https://v3.helm.sh/docs/intro/install/
+[105]: https://github.com/DataDog/helm-charts/blob/main/charts/datadog/values.yaml
+[106]: https://github.com/DataDog/helm-charts/tree/main/examples/datadog
+[107]: https://dd-dev-local.datad0g.com/apm/service-setup?architecture=container-based&collection=Helm%20Chart%20%28Recommended%29&environment=kubernetes
+[108]: /fr/containers/kubernetes/
+{{% /tab %}}
+
+{{% tab "Docker" %}}
+### Installation en une seule étape
+
+The one-step installation command runs a signed Docker container which embeds the Datadog Agent to monitor your host. The Docker integration is enabled by default, as well as [Autodiscovery][101] in automatic configuration mode.
+
+You must not run more than one Datadog Agent per node. Running multiple Agents may result in unexpected behavior.
+
+For a one-step install, run the following command. Replace `MY_API_KEY` with your Datadog API key:
+
+On Amazon Linux v2:
+```shell
+docker run -d --name dd-agent -v /var/run/docker.sock:/var/run/docker.sock:ro -v /proc/:/host/proc/:ro -v /cgroup/:/host/sys/fs/cgroup:ro -e DD_API_KEY=MY_API_KEY -e DD_SITE="datad0g.com" gcr.io/datadoghq/agent:6
+```
+
+On other operating systems:
+```shell
+docker run -d --name dd-agent -v /var/run/docker.sock:/var/run/docker.sock:ro -v /proc/:/host/proc/:ro -v /sys/fs/cgroup/:/host/sys/fs/cgroup:ro -e DD_API_KEY=MY_API_KEY -e DD_SITE="datad0g.com" gcr.io/datadoghq/agent:6
+```
+
+#### Troubleshooting
+
+If the one-step installation command does not work, it's possible that your system mounts the `cgroup` directory in an unexpected place or does not use CGroups for memory management. CGroups are required for the Docker check to succeed. To enable CGroups, see [the Setup documentation][102].
+
+If CGroups are enabled, but the check is failing because of an unexpected `cgroup` directory location:
+1. Run `mount | grep "cgroup type tmpfs"` to retrieve the location of the `cgroup` directory.
+1. Replace the first occurrence of `/sys/fs/cgroup` in the one-step installation command with the location of the `cgroup` directory.
+
+### Send custom metrics with DogStatsD
+
+By default, DogStatsD only listens to localhost. To listen to DogStatsD packets from other containers:
+1. Add `-e DD_DOGSTATSD_NON_LOCAL_TRAFFIC=true` to the container's parameters.
+1. Bind the container's statsd port to the hosts's IP by adding the `-p 8125:8125/udp` option to the container's parameters.
+1. Configure your client library to send UDP packets to the hosts's IP.
+
+### Customize your Agent configuration
+
+- For information on configuring the Agent, see [Docker Agent for Docker, containerd, and Podman][103].
+- To tune Autodiscovery, see [Docker Integrations Autodiscovery][104].
+
+[101]: /fr/containers/docker/integrations/?tabs=docker
+[102]: /fr/containers/docker/?tab=standard#setup
+[103]: /fr/containers/docker/?tab=standard
+[104]: /fr/containers/docker/integrations/?tab=docker
+
+{{% /tab %}}
+
+{{% tab "CoreOS" %}}
+Running CoreOS Container Linux is supported with the Docker runtime. For installation instructions, see [Docker][1].
+
+To run CoreOS Tectonic on Kubernetes, see [Kubernetes][2].
+
+[1]: ?tab=docker#cloud-and-containers
+[2]: ?tab=kubernetes#cloud-and-containers
+
+{{% /tab %}}
+
+{{% tab "OpenShift" %}}
+Starting with version 6.1, the Datadog Agent supports monitoring OpenShift Origin and Enterprise clusters. Depending on your needs and the security constraints of your cluster, three deployment scenarios are supported:
+
+- [Restricted SCC operations][101]
+- [Host network SCC operations][102]
+- [Custom Datadog for all features][103]
+
+To install OpenShift, see the [Kubernetes installation instructions](?tab=kubernetes#cloud-and-containers). The Kubernetes integration targets OpenShift 3.7.0+ by default. For older versions of OpenShift, you must complete additional installation steps. For more information, see the [OpenShift integration documentation][104].
+
+[101]: /fr/integrations/openshift/?tab=helm#restricted-scc-operations
+[102]: /fr/integrations/openshift/?tab=helm#host
+[103]: /fr/integrations/openshift/?tab=helm#custom-datadog-scc-for-all-features
+[104]: /fr/integrations/openshift/?tab=helm#installation
+{{% /tab %}}
+
+{{% tab "Cloud Foundry" %}}
+The Datadog Agent BOSH release only works on Ubuntu and Red Hat stemcells.
+
+1. Upload the Datadog Agent release to your BOSH Director:
+
+ ```shell
+ # BOSH CLI v1
+ bosh upload release https://cloudfoundry.datadoghq.com/datadog-agent/datadog-agent-boshrelease-latest.tgz
+
+ # BOSH CLI v2
+ bosh upload-release https://cloudfoundry.datadoghq.com/datadog-agent/datadog-agent-boshrelease-latest.tgz
+ ```
+
+2. Configure Datadog as an addon in your runtime config. Replace `MY_API_KEY` with your Datadog API key::
+
+ ```yaml
+ # runtime.yml
+ ---
+ releases:
+ - name: datadog-agent
+ version: $UPLOADED_VERSION # e.g. 1.0.5140
+
+ addons:
+ - name: datadog
+ jobs:
+ - name: dd-agent
+ release: datadog-agent
+ properties:
+ dd:
+ use_dogstatsd: yes
+ dogstatsd_port: 18125 # Many Cloud Foundry deployments have their own StatsD listening on port 8125
+ api_key: MY_API_KEY
+ tags: ["my-cloud-foundry-deployment"] # optional. Add any tags you wish
+ # Optionally, enable any Agent Checks here
+ # integrations:
+ # directory:
+ # init_config: {}
+ # instances:
+ # directory: "."
+ ```
+
+3. Add the runtime to your [runtime config][101]:
+
+ ```shell
+ # BOSH cli v1
+ bosh update runtime-config runtime.yml
+
+ # BOSH cli v2
+ bosh update-runtime-config runtime.yml
+ ```
+
+4. Redeploy any existing deployments:
+ ```shell
+ # BOSH cli v1
+ bosh deployment myDeployment.yml
+ bosh -n deploy
+
+ # BOSH cli v2
+ bosh -n -d myDeployment deploy myDeployment.yml
+ ```
+
+[101]: https://bosh.io/docs/runtime-config/
+{{% /tab %}}
+
+{{< /tabs >}}
+
+## Configuration management
+
+{{< tabs >}}
+{{% tab "Ansible" %}}
+
+Installing the Agent with Ansible requires Ansible version 2.10 or higher.
+
+The Datadog Ansible collection supports most Debian, RHEL-based and SUSE-based Linux distributions, macOS, and Windows.
+
+### Prerequisites
+
+#### Windows
+Before you can use the Datadog Ansible Collection to manage Windows hosts, you must install the `ansible.windows` collection:
+```shell
+ansible-galaxy collection install ansible.windows
+```
+
+#### openSUSE and SLES
+
+Before you can use the Datadog Ansible Collection to manage openSUSE/SLES hosts, you must install the `community.general` collection:
+
+```shell
+ansible-galaxy collection install community.general
+```
+
+### Install Datadog
+
+1. Install the Datadog Ansible collection from Ansible Galaxy on your Ansible server:
+ ```shell
+ ansible-galaxy collection install datadog.dd
+ ```
+ - The Datadog Ansible collection is also available through the [Red Hat Automation Hub][101] where it is officially certified by Red Hat.
+ - Installing the collection is recommended. If needed, you can also install Datadog using the [standalone role][102].
+
+2. To deploy the Datadog Agent on hosts, add the Datadog role and your API key to your playbook. Replace `MY_API_KEY` with your Datadog API key:
+ ```yaml
+ - hosts: servers
+ tasks:
+ - name: Import the Datadog Agent role from the Datadog collection
+ import_role:
+ name: datadog.dd.agent
+ vars:
+ datadog_api_key: "MY_API_KEY"
+ datadog_agent_major_version: 6
+ datadog_site: "datad0g.com"
+ ```
+
+ To ensure that the Agent can group your hosts together, only use node hostnames that the Datadog Agent is tracking. You can check what hostnames the Agent is tracking using the following command:
+
+ ```shell
+ sudo datadog-agent status
+ ```
+
+## Specific Agent checks
+
+To use a specific Agent check or integration on one of your nodes, you can use the `datadog_checks` variable. Here is an example for the process check:
+```yaml
+- hosts: servers
+ tasks:
+ - name: Import the Datadog Agent role from the Datadog collection
+ import_role:
+ name: datadog.dd.agent
+ vars:
+ datadog_api_key: "MY_API_KEY"
+ datadog_agent_major_version: 6
+ datadog_site: "datad0g.com"
+ datadog_checks:
+ process:
+ init_config:
+ instances:
+ - name: ssh
+ search_string: ['ssh', 'sshd']
+ - name: syslog
+ search_string: ['rsyslog']
+ cpu_check_interval: 0.2
+ exact_match: true
+ ignore_denied_access: true
+```
+
+You can find more examples of the Agent role usage on the GitHub repo for the [standalone role][103].
+
+### Metrics and events
+
+To get metrics and events on Datadog after Ansible runs, see the Ansible callback project's [GitHub page][104].
+
+[101]: https://console.redhat.com/ansible/automation-hub/repo/published/datadog/dd/
+[102]: /fr/agent/guide/ansible_standalone_role/#ansible-role-versus-ansible-collection
+[103]: https://github.com/DataDog/ansible-datadog/#role-variables
+[104]: https://github.com/DataDog/ansible-datadog-callback
+
+{{% /tab %}}
+{{% tab "Puppet" %}}
+Starting with version 2.9.0, the datadog_agent module supports both Windows and Linux nodes. Previous versions of the datadog_agent module only support Linux nodes.
+
+## Requirements:
+- Requires Puppet Open Source version >= 4.6 or Puppet Enterprise version >= 2016.4
+
+## Install the Agent
+
+1. Install the `datadog_agent` module from the [Puppet Forge][101] on your Puppet server:
+ - For fresh installs, run the `module install command`:
+ ```shell
+ puppet module install datadog-datadog_agent
+ ```
+ - If the module is already installed, upgrade it:
+ ```shell
+ puppet module upgrade datadog-datadog_agent
+ ```
+
+2. To deploy the Datadog Agent on nodes, add this parametrized class to your manifests. Replace `MY_API_KEY` with your Datadog API key:
+ ```puppet
+ node "db1.mydomain.com" {
+ class { "datadog_agent":
+ api_key => "MY_API_KEY",
+ datadog_site => "datad0g.com",
+ agent_major_version => 6,
+ }
+ }
+ ```
+
+ To ensure that the Agent can group your hosts together, only use node hostnames that the Datadog Agent is tracking. You can check what hostnames the Agent is tracking using the following command:
+
+ ```shell
+ sudo datadog-agent status
+ ```
+
+3. Enable reporting to Datadog on your Puppet server:
+ 1. Add the following parameters to `/etc/puppet/puppet.conf`:
+ ```conf
+ [master]
+ report = true
+ reports = datadog_reports
+ pluginsync = true
+
+ [agent]
+ report = true
+ pluginsync = true
+ ```
+
+ 1. In your manifest, add the `puppet_run_reports` option to your Puppet server. For example:
+ ```puppet
+ node "puppet" {
+ class { "datadog_agent":
+ api_key => "MY_API_KEY",
+ datadog_site => "datad0g.com",
+ agent_major_version => 6,
+ puppet_run_reports => true,
+ }
+ }
+ ```
+1. Run Puppet on your Puppet server to install all necessary dependencies.
+1. Restart your Puppet server to begin receiving Puppet data in Datadog.
+
+## Specific Agent checks
+
+To use a specific Agent check or integration on one of your nodes, see the relevant [integration manifest][102] for a code sample. Here is an example for the elasticsearch integration:
+
+```puppet
+node "elastic-node1.mydomain.com" {
+ class { "datadog_agent":
+ api_key => "MY_API_KEY",
+ datadog_site => "datad0g.com",
+ agent_major_version => 6,
+ }
+ include "datadog_agent::integrations::elasticsearch"
+}
+```
+
+Refer to the [GitHub repository of the module][103] for more examples and advanced use cases.
+
+[101]: https://forge.puppetlabs.com/modules/datadog/datadog_agent/readme
+[102]: https://github.com/DataDog/puppet-datadog-agent/tree/main/manifests/integrations
+[103]: https://github.com/DataDog/puppet-datadog-agent
+
+{{% /tab %}}
+
+{{% tab "Chef" %}}
+
+Requires Chef version 10.14.x or higher.
+
+1. Add the Datadog cookbook:
+ - If you are using [Berkshelf][101], add the cookbook to your Berksfile:
+ ```shell
+ cookbook 'datadog', '~> 4.0'
+ ```
+
+ - If you're not using Berkshelf, install the cookbook in to your repository using Knife:
+ ```shell
+ knife cookbook site install datadog
+ ```
+
+1. Set the Datadog-specific attributes in either a role, environment, or another recipe. Replace `MY_API_KEY` with your Datadog API key:
+ ```chef
+ node.default['datadog']['api_key'] = "MY_API_KEY"
+
+ # Use an existing application key or create a new one for Chef
+ node.default['datadog']['application_key'] = "Generate Application Key"
+
+ # Enable install for Agent version 6
+ node.default['datadog']['agent_major_version'] = 6
+
+ # Set the Datadog site
+ node.default['datadog']['site'] = "datad0g.com"
+ ```
+
+1. Upload the updated cookbook to your Chef server:
+ ```shell
+ berks upload
+ # or
+ knife cookbook upload datadog
+ knife cookbook list | grep datadog &&
+ echo -e "e[0;32mdatadog cookbook - OKe[0m" ||
+ echo -e "e[0;31mmissing datadog cookbook - OKe[0m"
+ ```
+
+1. Add the cookbook to your node's `run_list` or `role`:
+ ```chef
+ "run_list": [
+ "recipe[datadog::dd-agent]"
+ ]
+ ```
+
+1. Wait for the next scheduled `chef-client` run.
+
+
+For more information and examples, see the [Agent GitHub repository][102].
+
+[101]: https://docs.chef.io/workstation/berkshelf/
+[102]: https://github.com/DataDog/chef-datadog
+
+{{% /tab %}}
+
+{{% tab "SaltStack" %}}
+
+The Datadog Saltstack formula only supports Debian-based and RedHat-based systems.
+The following instructions add the Datadog formula to the base Salt environment. To add it to another Salt environment, replace references to base with the name of your Salt environment.
+
+
+
+### Install using `gitfs_remotes`
+1. Install the [Datadog formula][101] in the base environment of your Salt Master node, using the `gitfs_remotes` option in your Salt Master configuration file (by default `/etc/salt/master`):
+ ```yaml
+ fileserver_backend:
+ - roots # Active by default, necessary to be able to use the local salt files we define in the next steps
+ - gitfs # Adds gitfs as a fileserver backend to be able to use gitfs_remotes
+
+ gitfs_remotes:
+ - https://github.com/DataDog/datadog-formula.git:
+ - saltenv:
+ - base:
+ - ref: 3.0 # Pin here the version of the formula you want to use
+ ```
+
+1. Restart your Salt Master service:
+ ```shell
+ systemctl restart salt-master
+ ```
+ or
+ ```shell
+ service salt-master restart
+ ```
+
+### Install by cloning the Datadog formula
+
+1. Clone the [Datadog formula][101] on your Salt Master node:
+ ```shell
+ mkdir -p /srv/formulas && cd /srv/formulas
+ git clone https://github.com/DataDog/datadog-formula.git
+ ```
+1. Add the cloned formula to the base environment in the `file_roots` of your Salt Master configuration file (by default `/etc/salt/master`):
+ ```yaml
+ file_roots:
+ base:
+ - /srv/salt/
+ - /srv/formulas/datadog-formula/
+ ```
+
+## Deploy the Agent to your hosts
+
+1. Add the Datadog formula to your top file (by default `/srv/salt/top.sls`):
+ ```yaml
+ base:
+ '*':
+ - datadog
+ ```
+
+1. Add a `datadog.sls` pillar file to your pillar directory (by default `/srv/pillar/`) and add your API key. Replace `MY_API_KEY` with your Datadog API key:
+ ```yaml
+ datadog:
+ config:
+ api_key: MY_API_KEY
+ install_settings:
+ agent_version:
+ ```
+
+1. Add the `datadog.sls` pillar file to the top pillar file (by default `/srv/pillar/top.sls`):
+ ```yaml
+ base:
+ '*':
+ - datadog
+ ```
+
+1. To use a specific Agent check or integration on one of your hosts, you can use the checks variable. Here is an example for the directory integration:
+ ```yaml
+ datadog:
+ config:
+ api_key: MY_API_KEY
+ install_settings:
+ agent_version:
+ checks:
+ directory:
+ config:
+ instances:
+ - directory: "/srv/pillar"
+ name: "pillars"
+ ```
+
+Refer to the formula [GitHub repository][101] for logs configuration, check examples, and advanced use cases.
+
+[101]: https://github.com/DataDog/datadog-formula
+{{% /tab %}}
+
+{{< /tabs >}}
+
+## Install from source
+
+Follow [the instructions in the Agent GitHub repository][11] to build the Agent 6 `.deb` and `.rpm` packages on Linux with Docker.
+
+Alternatively, you can build the Agent binary for version 6 following the [Getting Started instructions][12].
+
+## Further reading
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+
+[1]: https://app.datadoghq.com/account/settings/agent/latest?platform=overview
+[2]: /fr/agent/versions/upgrade_to_agent_v7/
+[3]: https://s3.amazonaws.com/dd-agent/datadogagent.dmg
+[4]: https://s3.amazonaws.com/ddagent-windows-stable/datadog-agent-6-latest.amd64.msi
+[5]: /fr/agent/basic_agent_usage/windows/
+[6]: https://s3.amazonaws.com/ddagent-windows-stable/installers.json
+[7]: https://s3.amazonaws.com/ddagent-windows-stable/ddagent-cli-latest.exe
+[8]: /fr/integrations/azure/
+[9]: https://github.com/DataDog/dd-agent/wiki/Windows-Agent-Installation
+[10]: /fr/agent/guide/windows-agent-ddagent-user/
+[11]: https://github.com/DataDog/datadog-agent/blob/main/docs/dev/agent_omnibus.md#building-inside-docker-linux-only-recommended
+[12]: https://github.com/DataDog/datadog-agent#getting-started
\ No newline at end of file
diff --git a/content/ja/continuous_integration/guides/identify_highest_impact_jobs_with_critical_path.md b/content/ja/continuous_integration/guides/identify_highest_impact_jobs_with_critical_path.md
new file mode 100644
index 0000000000000..3465b04377090
--- /dev/null
+++ b/content/ja/continuous_integration/guides/identify_highest_impact_jobs_with_critical_path.md
@@ -0,0 +1,74 @@
+---
+description: CI パイプラインの所要時間を改善するため、クリティカル パス上にある CI ジョブの特定方法を学びます。
+further_reading:
+- link: /continuous_integration/search/#pipeline-details-and-executions
+ tag: ドキュメント
+ text: パイプライン実行を検索・管理する方法を学びます
+- link: continuous_integration/search/#highlight-critical-path
+ tag: ドキュメント
+ text: パイプライン実行でクリティカル パスをハイライトする
+title: パイプラインの所要時間を短縮するためにクリティカル パス上の CI ジョブを特定する
+---
+
+## 概要
+
+このガイドでは、CI パイプライン全体の所要時間を短縮するために、どのジョブを優先すべきかを判断できるよう、クリティカル パス上にある CI ジョブの特定方法を解説します。
+
+### CI パイプラインにおけるクリティカル パスの理解
+
+CI パイプライン実行におけるクリティカル パスとは、そのパイプライン実行の総所要時間を決定する、最も長い CI ジョブの連なりです。本質的には、CI ジョブの依存関係グラフの中で、完了までに最も時間がかかる経路を指します。CI パイプライン実行の総所要時間を短縮するには、このクリティカル パス上の CI ジョブの所要時間を短縮する必要があります。
+
+{{< img src="continuous_integration/critical_path_highlight_pipeline.png" alt="パイプライン実行におけるクリティカル パス上のジョブのハイライト。" width="90%">}}
+
+ジョブの所要時間を見るだけでは十分でない場合があります。CI ジョブは通常、他のジョブと並列に実行されるため、パイプライン実行時間の短縮は、その CI ジョブの **排他的時間** をどれだけ減らせるかによって決まります。
+
+クリティカル パス上のジョブの排他的時間は、並列で実行されていた他のジョブの実行時間を除外して、CI ランナーが特定のジョブの実行に費やした時間を表します。
+
+{{< img src="continuous_integration/critical_path_highlight_pipeline_exclusive_time.png" alt="パイプライン実行においてクリティカル パス上のジョブの排他的時間をハイライト。" width="90%">}}
+
+たとえば、CI ジョブ `job1` が 100 ms の所要時間でクリティカル パス上にあり、80 ms の所要時間を持つ CI ジョブ `job2` と並列で実行されている場合、クリティカル パス上における `job1` の排他的時間は 20 ms です。つまり、`job1` の所要時間を 20 ms より多く短縮しても、パイプライン全体の所要時間は 20 ms しか短縮されません。
+
+## CI パイプラインを改善するための主要な CI ジョブを特定する
+
+### ファセットの使用
+
+`@ci.on_critical_path` や `@ci.critical_path.exclusive_time` といったファセットを使用すると、CI パイプライン内でどの CI ジョブがクリティカル パス上にあるかを特定できます。これらのファセットを活用して、要件に合わせたカスタム ダッシュボードやノート ブックを作成できます。
+
+{{< img src="continuous_integration/critical_path_facets.png" alt="クリティカル パスのファセットでフィルタリング" width="90%">}}
+
+これらのファセットは、クエリで `ci_level:job` を使用する場合にのみ利用できます。
+
+### ダッシュボード テンプレートの使用
+
+次のダッシュボード テンプレート [CI Visibility - Critical Path][1] をインポートすることもできます:
+- ダッシュボード テンプレート [civisibility-critical-path-dashboard.json][1] を開き、内容をクリップボードにコピーします。
+- Datadog で [New Dashboard][2] を作成します。
+- コピーした内容を新しいダッシュボードに貼り付けます。
+- ダッシュボードを保存します。
+
+{{< img src="continuous_integration/critical_path_dashboard.png" alt="CI Visibility のクリティカル パス ダッシュボード" width="90%">}}
+
+#### 用語
+
+| 列 | 説明 |
+|---------------------------------------|------------------------------------------------------------------------------------------------------------------------------------------------------------------|
+| Total Exclusive Time On Critical Path | ジョブの排他的時間の合計です。対象となるパイプラインで見込める時間短縮量の概算を示します。 |
+| Avg Exclusive Time On Critical Path | クリティカル パス上にある特定ジョブの平均排他的時間です。ジョブの排他的時間を減らした場合に、パイプラインの所要時間がどの程度短縮されるかを示します。 |
+| Rate On Critical Path | ジョブがクリティカル パス上にある頻度を測定します。 |
+
+##### 例
+
+前の画像では、`metrics` という CI ジョブは合計排他的時間 (Total Exclusive Time On Critical Path) が最も高く、改善候補であることがわかります。平均排他的時間はおよそ 21 分であり、この CI ジョブについて最大 21 分の改善余地があることを意味します。
+
+この CI ジョブが 43.5% の割合でクリティカル パス上にあることがわかっているため、パイプライン実行の 43.5% において、平均パイプライン所要時間を最大 21 分短縮できる可能性があります。
+
+{{< img src="continuous_integration/critical_path_dashboard_outlier_job_highlighted.png" alt="排他的時間の改善候補となる CI ジョブ。" width="90%">}}
+
+## 参考資料
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /resources/json/civisibility-critical-path-dashboard.json
+[2]: /ja/dashboards/
+[3]: /ja/continuous_integration/pipelines/gitlab/?tab=gitlabcom
+[4]: /ja/continuous_integration/search/#highlight-critical-path
\ No newline at end of file
diff --git a/content/ja/integrations/github_copilot.md b/content/ja/integrations/github_copilot.md
new file mode 100644
index 0000000000000..b1cf243a806d9
--- /dev/null
+++ b/content/ja/integrations/github_copilot.md
@@ -0,0 +1,156 @@
+---
+app_id: github-copilot
+app_uuid: b976afbb-2433-4bd9-b33d-5b9856114285
+assets:
+ dashboards:
+ Copilot Overview: assets/dashboards/github_copilot_overview.json
+ integration:
+ auto_install: false
+ events:
+ creates_events: false
+ metrics:
+ check:
+ - github_copilot.organizations.billing.seats.total
+ metadata_path: metadata.csv
+ prefix: github_copilot
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 31503641
+ source_type_name: GitHub Copilot
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com (日本語対応)
+ support_email: help@datadoghq.com
+categories:
+- ai/ml
+- コラボレーション
+- 開発ツール
+- モニター
+- ソースコントロール
+custom_kind: インテグレーション
+dependencies: []
+display_on_public_website: true
+draft: false
+git_integration_title: github_copilot
+integration_id: github-copilot
+integration_title: GitHub Copilot
+integration_version: ''
+is_public: true
+manifest_version: 2.0.0
+name: github_copilot
+public_title: GitHub Copilot
+short_description: ライセンスの配布状況を追跡し、採用傾向を監視し、Copilot の各種機能に対する開発者のエンゲージメントを分析します。
+supported_os: []
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Category::AI/ML
+ - Category::Collaboration
+ - Category::Developer Tools
+ - Category::Metrics
+ - カテゴリ::ソースコントロール
+ - Submitted Data Type::Metrics
+ - Offering::Integration
+ configuration: README.md#Setup
+ description: ライセンスの配布状況を追跡し、採用傾向を監視し、Copilot の各種機能に対する開発者のエンゲージメントを分析します。
+ media:
+ - caption: GitHub Copilot 概要ダッシュボード
+ image_url: images/overview-dashboard.png
+ media_type: image
+ - caption: GitHub Copilot Code Completion
+ image_url: images/copilot_dashb_code-completion.png
+ media_type: image
+ - caption: GitHub Copilot Languages Breakdown
+ image_url: images/copilot_dsh_languages-breakdown.png
+ media_type: image
+ - caption: GitHub Copilot IDE Chat
+ image_url: images/copilot_dash_ide-chat.png
+ media_type: image
+ overview: README.md#Overview
+ resources:
+ - resource_type: documentation
+ url: https://docs.datadoghq.com/integrations/github_copilot
+ - resource_type: blog
+ url: https://www.datadoghq.com/blog/monitor-github-copilot-with-datadog/
+ support: README.md#Support
+ title: GitHub Copilot
+---
+
+
+## 概要
+
+Datadog の [GitHub Copilot][1] インテグレーションを利用すると、組織全体の Copilot の使用状況が詳細に可視化され、採用状況の測定、チーム パフォーマンスの最適化、AI によるコード提案が開発ワークフローに与える影響の把握が可能になります。
+このインテグレーションにより、次のことができます。
+- **Copilot の採用状況の分析** - 開発者が Copilot のコード提案を受け入れる頻度を測定し、開発プロセスのどの段階で Copilot の機能が活用されているかを把握できます。
+- **ライセンス配布状況の追跡** - 組織内で割り当てられた Copilot ライセンスのステータスを監視し、ライセンスの利用を最適化できます。
+- **ユーザー エンゲージメントの把握** - 開発者が Copilot とどのようにやり取りしているかを理解し、以下の区別を行うことができます。
+ - **アクティブ ユーザー**: 受動的にコード提案を受け取る、Copilot チャットで対話するなど、Copilot に関連する何らかのアクティビティがある開発者。
+ - **エンゲージド ユーザー**: 提案を受け入れる、プル リクエストのサマリーを生成するなど、Copilot の機能を積極的に利用している開発者。エンゲージド ユーザーは全員アクティブ ユーザーでもあります。
+
+### 収集されるメトリクス
+Datadog は、Copilot の採用状況・使用状況を詳細に可視化し、チーム、プログラミング言語、IDE、リポジトリごとに粒度の高いインサイトを提供します。具体的には、次のような情報が含まれます。
+- **Copilot の使用状況に関するメトリクス** - IDE でのコード補完、チャット アクティビティ (IDE と GitHub.com の両方)、プル リクエストのサマリーなど、Copilot との主なやり取りを追跡できます。これらのメトリクスは日単位で利用できますが、社内で有効な Copilot ライセンスが 5 つ以上必要です。
+ - **IDE Code Completion & Chat** - IDE 内での使用状況を収集します (テレメトリーが有効になっている場合)。
+ - **GitHub.com Chat** - GitHub.com の Copilot チャットとのインタラクションを測定します。
+ - **Pull Request Usage** - 自動サマリーなど、Copilot が支援するプル リクエスト アクティビティを追跡します。
+- **請求に関するメトリクス** - 現在の請求サイクルにおける Copilot のシート割り当て状況をリアルタイムで確認できます。Datadog はこのデータを継続的に更新し、正確かつ最新のライセンス利用状況を表示します。
+Datadog の GitHub Copilot インテグレーションを利用することで、AI 支援開発の効率化を図るとともに、全チームを対象にその採用状況や効果を完全に可視化することができます。
+
+
+## セットアップ
+
+GitHub Copilot を Datadog に統合するにあたり、Datadog は OAuth を使用して GitHub に接続します。認証済みユーザーは、統合対象の組織でオーナー権限を持っている必要があります。
+
+### インストール
+
+1. [Integrations ページ][2]に移動して、「GitHub Copilot」インテグレーションを検索します。
+2. タイルをクリックします。
+3. インテグレーションをインストールするためにアカウントを追加するには、**Add GitHub Account** ボタンをクリックします。
+4. モーダルに表示された手順を確認したら、**Authorize** ボタンをクリックします。GitHub のログイン ページにリダイレクトされます。
+5. ログイン後、ユーザー アカウントがアクセス権を持つ組織に応じて、アクセス権を付与する GitHub 組織を選択するよう求められます。
+6. 組織にアクセス制限がかかっている場合:
+ - 組織名の横にある **Request** をクリックします。
+ - 組織の管理者: **Organization settings > Third-party Access > OAuth app policy** で承認します。
+ ![GH のアクセス承認][3]
+7. **Authorize datadog-integrations** をクリックします。
+8. 新しいアカウントが追加された状態で、Datadog の GitHub Copilot タイルにリダイレクトされます。アカウント名を覚えやすい名称に変更することをおすすめします。異なる組織へのアクセス権を持つ複数のアカウントを追加できます。
+
+**注**: GitHub はこの選択された承認内容を保存します。再度プロンプトを表示させたり、新しい組織を追加したりする場合は、GitHub (`Integrations > Applications > Authorized OAuth Apps > Datadog - GitHub Copilot OAuth App`) でアプリのアクセス権を取り消し、セットアップ プロセスをやり直してください。
+![GH のアクセス取り消し][4]
+
+## 検証
+
+インストール後、`github_copilot` という接頭辞の付いたメトリクスが利用可能になります。
+
+## 収集データ
+
+### メトリクス
+{{< get-metrics-from-git "github_copilot" >}}
+
+
+### サービスチェック
+
+GitHub Copilot には、サービス チェックは含まれません。
+
+### イベント
+
+GitHub Copilot には、イベントは含まれません。
+
+## トラブルシューティング
+
+ご不明な点は、[Datadog のサポートチーム][6]までお問合せください。
+
+## その他の参考資料
+
+お役に立つドキュメント、リンクや記事:
+
+- [Datadog を使用した GitHub Copilot の監視][7]
+
+[1]: https://github.com/features/copilot
+[2]: https://app.datadoghq.com/integrations/github-copilot
+[3]: images/gh_approved_access.png
+[4]: images/revoke_access_gh.png
+[5]: https://github.com/DataDog/integrations-internal-core/blob/main/github_copilot/metadata.csv
+[6]: https://docs.datadoghq.com/ja/help/
+[7]: https://www.datadoghq.com/blog/monitor-github-copilot-with-datadog/
\ No newline at end of file
diff --git a/content/ja/real_user_monitoring/mobile_and_tv_monitoring/unity/advanced_configuration.md b/content/ja/real_user_monitoring/mobile_and_tv_monitoring/unity/advanced_configuration.md
new file mode 100644
index 0000000000000..8167bf0d46875
--- /dev/null
+++ b/content/ja/real_user_monitoring/mobile_and_tv_monitoring/unity/advanced_configuration.md
@@ -0,0 +1,192 @@
+---
+aliases:
+- /ja/real_user_monitoring/unity/advanced_configuration
+- /ja/real_user_monitoring/otel
+- /ja/real_user_monitoring/mobile_and_tv_monitoring/advanced_configuration/otel
+- /ja/real_user_monitoring/mobile_and_tv_monitoring/setup/otel
+- /ja/real_user_monitoring/unity/otel_support/
+- /ja/real_user_monitoring/mobile_and_tv_monitoring/advanced_configuration/unity
+description: Unity Monitoring の設定方法を学びます。
+further_reading:
+- link: https://github.com/DataDog/dd-sdk-unity
+ tag: ソースコード
+ text: dd-sdk-unity のソースコード
+- link: real_user_monitoring/explorer/
+ tag: ドキュメント
+ text: RUM データの調査方法
+title: Unity の高度な設定
+---
+## 概要
+
+まだ Datadog Unity SDK for RUM をセットアップしていない場合は、[アプリ内のセットアップ手順][1] に従うか、[RUM Unity のセットアップ ドキュメント][2] を参照してください。[OpenTelemetry と RUM Unity の連携を設定する方法](#opentelemetry-setup)もご確認ください。
+
+### 高度な初期化オプション
+
+`Custom Endpoint`
+: オプション
+**型**: String
+**デフォルト**: `true`
+デフォルトの Datadog エンドポイントではなく、カスタム エンドポイントにデータを送信します。これは、カスタム サーバー経由でデータをプロキシする場合に便利です。
+
+`SDK Verbosity`
+: オプション
+**型**: Enum
+**デフォルト**: `Warn`
+Datadog SDK が出力するデバッグ情報のレベル。レベルが高いほど、より多くの情報を出力します。このオプションは、想定どおりに動作しない場合に SDK からデバッグ情報を取得したり、コンソール ログから SDK 関連のデバッグ エントリを除去したりするのに役立ちます。
+
+`Telemetry Sample Rate`
+: オプション
+**型**: Double
+**デフォルト**: `20`
+Datadog が内部テレメトリ データを送信する割合。値が 100 の場合、すべてのテレメトリ データがサンプリングされ、Datadog に送信されます。
+
+### ビューの自動追跡
+
+`Enable Automatic Scene Tracking` を選択すると、Datadog は Unity の `SceneManager` にフックしてシーンのロード/アンロードを検出し、RUM ビューを適切に開始します。`SceneManager` 以外の方法でシーン間を移動している場合、または `SceneManager` を伴わないビューの変更も追跡したい場合は、`DdRum.StartView` と `DdRum.StopView` を使って手動でビューを追跡する必要があります。
+
+### ユーザーアクションの追跡
+
+`DdRum.AddAction` を使用すると、タップ、クリック、スクロールなどの特定のユーザー アクションを追跡できます。
+
+`RumActionType.Tap` のような瞬間的な RUM アクションを手動で登録するには、`DdRum.AddAction()` を使用します。`RumActionType.Scroll` のような連続的な RUM アクションを登録するには、`DdRum.StartAction()` または `DdRum.StopAction()` を使用します。
+
+例:
+
+```cs
+void DownloadResourceTapped(string resourceName) {
+ DatadogSdk.Instance.Rum.AddAction(
+ RumActionType.Tap,
+ resourceName,
+ );
+}
+```
+
+`DdRum.StartAction` と `DdRum.StopAction` を使用する場合、Datadog Unity SDK がアクションの開始と完了を対応付けられるよう、`type` の値は同一である必要があります。
+
+### リソースの追跡
+
+Datadog は、RUM ビューからのリソースおよび HTTP 呼び出しを追跡できるよう、`UnityWebRequest` のドロップイン代替として `DatadogTrackedWebRequest` を提供しています。
+
+通常の `UnityWebRequest` と同様に使用できます。
+
+```cs
+var request = DatadogTrackedWebRequest.Get("https://httpbin.org/headers");
+yield return request.SendWebRequest();
+
+Debug.Log("Got result: " + request.downloadHandler.text);
+```
+
+### カスタムリソースの追跡
+
+`DatadogTrackedWebRequest` による自動リソース追跡に加えて、以下のメソッドを使うと、ネットワーク リクエストやサード パーティ プロバイダーの API など、特定のカスタム リソースを追跡できます。
+
+- `DdRum.StartResource`
+- `DdRum.StopResource`
+- `DdRum.StopResourceWithError`
+- `DdRum.StopResourceWithErrorInfo`
+
+例:
+
+```cs
+// ネットワーククライアントで
+
+DatadogSdk.Instance.Rum.startResource(
+ "resource-key",
+ RumHttpMethod.Get,
+ url,
+);
+
+// その後
+
+DatadogSdk.Instance.Rum.stopResource(
+ "resource-key",
+ 200,
+ RumResourceType.Image
+);
+```
+
+Datadog Unity SDK がリソースの開始と完了を対応付けられるよう、両方の呼び出しで `resourceKey` に用いる `string` は、対象リソースごとに一意である必要があります。
+
+### カスタムエラーの追跡
+
+特定のエラーを追跡するには、エラーが発生したときに例外、ソース、その他任意の属性情報を `DdRum` に通知します。
+
+```cs
+try
+{
+ // エラーを起こしやすいコード
+}
+catch(Exception e)
+{
+ DatadogSdk.Instance.Rum.AddError(e, RumErrorSource.Source);
+}
+```
+
+## カスタムグローバル属性の追跡
+
+Datadog Unity SDK が自動的に取得する[デフォルトの RUM 属性][3]に加えて、RUM イベントにカスタム属性などのコンテキスト情報を追加して、Datadog における可観測性を高めることができます。
+
+カスタム属性を使用すると、観察されたユーザーの行動に関する情報 (カート値、マーチャント層、広告キャンペーンなど) をコードレベルの情報 (バックエンドサービス、セッションタイムライン、エラーログ、ネットワークヘルスなど) でフィルタリングおよびグループ化することができます。
+
+### カスタムグローバル属性の設定
+
+カスタム グローバル属性を設定するには、`DdRum.AddAttribute` を使用します。
+
+* 属性を追加または更新するには、`DdRum.AddAttribute` を使用します。
+* キーを削除するには、`DdRum.RemoveAttribute` を使用します。
+
+### ユーザーセッションの追跡
+
+RUM セッションにユーザー情報を追加すると、次のことが簡単になります。
+
+* 特定のユーザーのジャーニーをたどる
+* エラーの影響を最も受けているユーザーを把握する
+* 最も重要なユーザーのパフォーマンスを監視する
+
+{{< img src="real_user_monitoring/browser/advanced_configuration/user-api.png" alt="RUM UI のユーザー API" style="width:90%" >}}
+
+| 属性 | タイプ | 説明 |
+| ----------- | ------ | ------------------------------------------------------------------------------- |
+| `usr.id` | 文字列 | (必須) 一意のユーザー識別子 |
+| `usr.name` | 文字列 | (オプション) RUM UI にデフォルトで表示されるユーザー フレンドリーな名前。 |
+| `usr.email` | 文字列 | (オプション) ユーザー名がない場合に RUM UI に表示されるユーザーのメール アドレス。 |
+
+ユーザー セッションを識別するには、`DatadogSdk.SetUserInfo` を使用します。
+
+例:
+
+```cs
+DatadogSdk.Instance.SetUserInfo("1234", "John Doe", "john@doe.com");
+```
+
+### カスタム ユーザー属性の追加
+
+ユーザー セッションにカスタム属性を追加できます。この追加情報は、ログ、トレース、RUM イベントに自動的に適用されます。
+
+既存の属性を削除するには、その属性に `null` を設定します。
+
+例:
+
+```cs
+DatadogSdk.Instance.AddUserExtraInfo(new ()
+{
+ { "attribute_1", "foo" },
+ { "attribute_2", null },
+});
+```
+
+## Clear all data
+
+`ClearAllData` を使用すると、Datadog にまだ送信されていないすべてのデータをクリアできます。
+
+```cs
+DatadogSdk.instance.ClearAllData();
+```
+
+## 参考資料
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/rum/application/create
+[2]: /ja/real_user_monitoring/mobile_and_tv_monitoring/unity/setup/
+[3]: /ja/real_user_monitoring/mobile_and_tv_monitoring/unity/data_collected/
\ No newline at end of file
diff --git a/content/ja/real_user_monitoring/session_replay/heatmaps.md b/content/ja/real_user_monitoring/session_replay/heatmaps.md
new file mode 100644
index 0000000000000..d09fc474d21ac
--- /dev/null
+++ b/content/ja/real_user_monitoring/session_replay/heatmaps.md
@@ -0,0 +1,147 @@
+---
+aliases:
+- /ja/real_user_monitoring/heatmaps
+description: ヒート マップは、ウェブ サイト上でユーザーがどこをクリックしているかを確認できるビジュアライゼーションの一種です。
+further_reading:
+- link: /real_user_monitoring/session_replay/browser/
+ tag: ドキュメント
+ text: ブラウザー向け Session Replay
+- link: /real_user_monitoring/session_replay/mobile/
+ tag: ドキュメント
+ text: モバイル向け Session Replay
+- link: https://www.datadoghq.com/blog/visualize-behavior-datadog-scrollmaps/
+ tag: ブログ
+ text: Datadog Heatmaps の Scrollmaps を使用して、ページ上のユーザー インタラクションを可視化する
+title: ヒート マップ
+---
+
+{{< img src="real_user_monitoring/session_replay/heatmaps/heatmaps-landing.png" alt="ヒート マップ 機能の概要。" style="width:100%;">}}
+
+ヒート マップ (heat map とも) とは、Session Replay データの上にユーザーのインタラクションをオーバーレイ表示して可視化するものです。Real User Monitoring (RUM) には 3 種類のヒート マップがあります:
+
+- **Click maps:** ページでユーザーがどのように操作しているかを理解するために、ユーザーのインタラクション (クリック) を表示します。
+- **Top Elements:** 特定のページで最も操作された要素のランキングを、最大上位 10 件まで表示します。
+- **Scroll maps:** ユーザーがページをどこまでスクロールしたかを表示します。ページの平均的なファースト ビュー (average fold) の位置も確認できます。平均的なファースト ビューは、ユーザーがスクロールせずにデバイス上で見られる最下点を指します。
+
+ヒート マップを使うと、複雑なデータをひと目で確認でき、ユーザー エクスペリエンス最適化のための示唆が得られます。
+
+## 前提条件
+
+ヒート マップを使い始めるには:
+
+1. SDK のバージョンを確認します:
+ - Click maps の場合、SDK は最新バージョン v4.40.0 以降である必要があります。
+ - Scroll maps の場合、SDK は v4.50.0 以降が必要です。
+2. [Session Replay][1] を有効化します。
+3. アクション追跡を有効にするため、SDK の初期化時に `trackUserInteractions: true` を設定します (Click maps で必須)。
+
+## はじめに
+
+[**Digital Experience > Real User Monitoring > Session Replay > Heatmaps**][2] に移動します。アプリケーションとビューを選択します。
+
+[Real User Monitoring ランディング ページ][3] で、[アプリケーション セレクター][4] からアプリケーションとビューを選択します。Timeframe セレクターの左側で、表示したい heatmap の種類を選択できます: Top Elements、Click Map、Scroll Map。これにより、特定のビューの [ヒート マップ ページ][2] に移動します。
+
+{{< img src="real_user_monitoring/session_replay/heatmaps/heatmaps-different-views.png" alt="Heatmaps ページでは、アプリケーション、マップ タイプ、デバイス タイプ、アクション名、詳細フィルターなどで異なるビューを表示できます。" style="width:100%;">}}
+
+次の追加の表示オプションがあります:
+
+- 表示中のビューを切り替えるには、上部の **View Name** と **Application** セレクターを使用します。
+- デバイス ビューを変更するには、**Device type** セレクターを使用します。
+- アクション名でフィルタするには、**Filter actions by** ドロップダウンを使用します。
+- 特定の地域など、より詳細なフィルターを追加するには、**Add Filter** ボタンをクリックします。
+
+## Top Elements
+
+Top Elements ヒート マップは、特定のビューにおけるクリック アクションを集計し、最も操作された要素とそのインタラクション順位を表示します。マップ上のランキングは、サイドに表示されるアクション名と対応しています。
+
+{{< img src="real_user_monitoring/session_replay/heatmaps/heatmaps-top-elements.png" alt="ページでクリックされた要素の上位ランキング。" style="width:100%;">}}
+
+パネル内の任意のアクション名にホバーすると、マップ上の対応するアクションがハイライト表示されます。
+
+## Click maps
+
+Click map は、セッションからのユーザー クリック アクションを集計し、マップ上にブロブとして可視化することで、特定のビューで最も操作されたアクションを示します。
+
+{{< img src="real_user_monitoring/session_replay/heatmaps/heatmaps-clickmaps.png" alt="ウェブ サイト上にオーバーレイされた Click map データ。" style="width:100%;">}}
+
+左側には、そのページで発生したすべてのアクションが頻度順に一覧表示されます。アクションをクリックすると、次のようにそのインタラクションの詳細を確認できます:
+
+- ユーザーがそのアクションを実行した回数や、そのページにおける上位アクション全体の分析での位置づけ。
+- そのアクションでフラストレーション シグナルが発生している場合 (例: ボタンへのレイジ クリック)、関連するフラストレーション シグナルも確認できます。
+
+このビューから **Start a Funnel** ボタンをクリックして、ユーザーの離脱を特定することもできます。
+
+{{< img src="real_user_monitoring/session_replay/heatmaps/heatmaps-clickmap-actions.png" alt="アクション例と、そのアクションから取得できる情報の例。" style="width:50%;">}}
+
+## Scroll maps
+
+Scroll maps は、特定のページにおけるスクロール アクティビティの集計を表示します。Scroll maps を使うと、ページの平均的なファースト ビュー (average fold) がどこに位置するかや、どれだけのユーザーが特定の深さまでスクロールしたかを確認できます。Scroll map 上のフローティングの青いバーを、評価したい深さまでドラッグできます。
+
+{{< img src="real_user_monitoring/session_replay/heatmaps/heatmaps-scrollmap.png" alt="サンプル E コマース アプリケーションの 寝具 ページの Scroll map" style="width:100%;">}}
+
+Scroll map の左側のパネルには、ハイ レベル な インサイトとクエリ結果への直接リンクがあります。たとえば、特定のパーセンタイルを越えてスクロールしたビューの一覧へのリンクなどです。インサイト パネルの下には、ページのミニ マップと、詳細な スクロール データを表示する分布 グラフがあり、どこで最も大きな離脱が発生しているかの特定に役立ちます。
+
+{{< img src="real_user_monitoring/session_replay/heatmaps/heatmaps-minimap.png" alt="スクロール データのインサイト向けクエリのスクリーン ショット" style="width:50%;">}}
+
+## Snapshots
+
+Snapshot は、特定の時点における Session Replay の状態です。Snapshot を変更すると、選択した Snapshot に応じて異なる結果が表示されます。ヒート マップの Snapshot として特定の Snapshot を選択するには、**Change Snapshot** ボタンを使用できます。
+
+背景 Snapshot を選択する手順:
+
+1. ヒート マップのビューで、**Change Snapshot** ボタンをクリックします。
+
+ {{< img src="real_user_monitoring/session_replay/heatmaps/heatmaps-change-snapshot-button.png" alt="ヒート マップの背景 Snapshot を変更するには Change Snapshot ボタンをクリックします。" style="width:100%;">}}
+1. 右側のアクション イベントをクリックして、ヒート マップ用に別の Snapshot を選択します。
+
+ {{< img src="real_user_monitoring/session_replay/heatmaps/heatmaps-list-all-events.png" alt="Session Replay のアクション イベント一覧。" style="width:100%;">}}
+
+1. セッションに [アクションが含まれていない](#the-view-that-i-selected-is-not-showing-the-initial-content) 場合は、**Choose Another Replay** をクリックしてリプレイの一覧に戻れます。
+1. **Select Snapshot** ボタンをクリックすると、一時停止している時点の Snapshot をヒート マップに適用します。
+
+## 次のステップ
+
+ヒート マップを分析したら、関連データを探索してユーザー アクションを理解しましょう。[Analytics Explorer][4] にピボットするか、関連する [Session Replay][1] を視聴して、セッション全体の文脈の中でユーザー アクションを視覚的に確認できます。
+
+## トラブル シューティング
+
+### 特定のビューのヒート マップを見ていますが、想定外のページが表示されます。
+
+ヒート マップは RUM のビュー名に基づきます。RUM アプリケーションの構成によっては、多くのページが同じビュー名の下にグループ化され始めたり、特定のビュー名を持つようになったりすることがあります。
+
+### 選択したビューで初期コンテンツが表示されません。
+
+ヒート マップは Session Replay データで生成されます。Datadog のインテリジェントなアルゴリズムは、ページの初期状態に最も一致し、かつ最新のリプレイを選択します。場合によっては、適切なリプレイが見つからないことがあります。ヒート マップの Snapshot を切り替えるには、**Change Snapshot** ボタンを使用してリプレイの異なる状態を移動し、目的の状態を見つけてください。閲覧中のリプレイに目的の Snapshot が含まれていない場合は、**Choose Another Replay** ボタンで同じビューの別のリプレイを選択できます。
+
+{{< img src="real_user_monitoring/session_replay/heatmaps/heatmaps-change-the-snapshot.mp4" alt="Change Snapshot をクリックして異なる背景を選択します。" video=true >}}
+
+### ヒート マップの横のアクション リストで、ヒート マップ内に表示されていない要素を示すアイコンが見えます。
+
+アイコンのツール チップには element is not visible と表示されます。これは、その要素がページ上の一般的なアクションではあるものの、ヒート マップの Snapshot では表示されていないことを意味します。その要素を確認するには、右上の **Change Snapshot** をクリックし、その要素が存在する Snapshot に切り替えてください。
+
+{{< img src="real_user_monitoring/session_replay/heatmaps/heatmaps-hidden-elements.png" alt="ヒート マップのアクション リスト内の非表示要素。" style="width:100%;">}}
+
+### **ヒート マップの作成を試みると、「No Replay Data」状態が表示されます。**
+
+これは、現在の検索フィルターに一致し、ヒート マップの背景として使用できる Session Replay が Datadog に見つからなかったことを意味します。[Browser SDK][6] でセッションの記録を開始したばかりの場合、Session Replay が閲覧可能になるまで数分かかることがあります。
+
+### ヒート マップの作成を試みると、「Not enough data to generate a heatmap」状態が表示されます。
+
+これは、現在選択されているリプレイにユーザー アクションを一致させられなかったことを意味します。次のようなさまざまな理由が考えられます:
+
+- アプリケーションが最新の SDK バージョン (>= 4.20.0) を使用していない。
+- ページが最近大きく変更された。
+
+### ページ上のユーザー情報がすべて空である。
+
+ユーザー情報は既定では収集されません。ヒート マップは、セッション データで利用可能なユーザー情報を使用して、行動に関する関連インサイトを表示します。
+
+## 参考資料
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /ja/real_user_monitoring/session_replay/
+[2]: https://app.datadoghq.com/rum/heatmap/
+[3]: https://app.datadoghq.com/rum/performance-monitoring
+[4]: /ja/real_user_monitoring/explorer/#view-by-application
+[5]: https://app.datadoghq.com/rum/sessions
+[6]: https://github.com/DataDog/browser-sdk/blob/main/packages/rum/package.json
\ No newline at end of file
diff --git a/content/ko/containers/docker/integrations.md b/content/ko/containers/docker/integrations.md
index caff4f9bc91d8..bb6fbb8c06d53 100644
--- a/content/ko/containers/docker/integrations.md
+++ b/content/ko/containers/docker/integrations.md
@@ -1,6 +1,7 @@
---
aliases:
- /ko/agent/docker/integrations
+description: Autodiscovery를 사용하여 Docker 컨테이너에서 실행되는 애플리케이션에 모니터링 통합을 구성하세요
further_reading:
- link: /agent/docker/log/
tag: 설명서
@@ -17,73 +18,99 @@ further_reading:
- link: /agent/docker/tag/
tag: 설명서
text: 컨테이너에서 내보내는 모든 데이터에 태그 할당
-title: 도커 통합 자동 탐지
+title: Docker 및 통합
---
+이 페이지에서는 Datadog의 _Autodiscovery_ 기능을 사용하여 Docker 인프라용 통합을 설치하고 구성하는 방법을 다룹니다. Autodiscovery를 사용하면 `%%host%%`와 같은 [변수][1]를 사용하여 구성 설정을 동적으로 채울 수 있습니다.
+
+Autodiscovery 작동 방식에 관한 자세한 설명은 [컨테이너 시작하기: Autodiscovery][2]를 참고하세요. 특정 컨테이너를 Autodiscovery에서 제외하거나 준비되지 않은 포드를 허용하는 등 고급 Autodiscovery 옵션은 [컨테이너 검색 관리][3]를 참고하세요.
+
+Kubernetes 사용자는 [Kubernetes 및 통합][4]을 참고하세요.
+
-이 페이지에서는 도커와의 통합을 위해 자동 탐지를 어떻게 설정해야 하는지를 다룹니다 . 쿠버네티스를 사용하는 경우 [쿠버네티스 통합 자동 탐지 설명서][1]을 참조하세요.
+## 통합 설정
-자동 탐지의 목표는 지정된 컨테이너에 대해 에이전트 검사를 실행할 때 Datadog 통합 설정을 적용하는 것입니다. 이에 대한 자세한 내용은 호스트에서 에이전트를 실행할 때의 [에이전트 통합 설정][2]을 참조하세요.
+일부 통합에는 액세스 토큰 생성이나 Datadog Agent에 대한 읽기 권한 부여와 같은 설정 단계가 필요합니다. 통합 문서에 있는 **Setup** 섹션을 참고하세요.
-자동 탐지와의 통합을 설정하려면 다음 매개 변수를 사용합니다:
+### 커뮤니티 통합
+Datadog Agent와 함께 제공되지 않는 통합을 사용하려면 원하는 통합을 포함하는 사용자 지정 이미지를 빌드해야 합니다. 자세한 내용은 [커뮤니티 통합 사용][5]을 참고하세요.
-| 파라미터 | 필수 | 설명 |
-|----------------------|----------|---------------------------------------------------------------------------------------------------|
-| `` | 예 | Datadog 통합 이름 |
-| `` | 예 | 지정된 Datadog-``에 대한 `init_config:` 섹션 설정 |
-| `` | 예 | 지정된 Datadog-``에 대한 `instances:` 섹션 설정 |
+## 설정
-**참고**: ``는 Datadog 에이전트 7.36에 도입된 자동 탐지 v2에 필요하지 않습니다.
+일반적으로 사용되는 일부 통합에는 Autodiscovery의 기본 구성이 포함되어 있습니다. 자동 구성된 통합 목록과 해당 기본 구성 파일에 관한 자세한 내용은 [Autodiscovery 자동 구성][6]을 참고하세요. 이 목록에 있는 통합을 사용하며 기본 설정으로 충분한 경우, 추가 설정은 필요하지 않습니다.
-아래 섹션의 각 탭은 지정된 컨테이너에 통합 템플릿을 적용하는 다른 방법을 보여줍니다. 사용 가능한 방법은 다음과 같습니다:
+다른 구성이 필요할 경우:
-* [도커 라벨](?tab=docker#configuration)
-* [에이전트 내에서 마운트 된 설정 파일](?tab=file#configuration)
-* [키-값 저장소](?tab=keyvaluestore#configuration)
+1. 사용 사례에 맞는 구성 방법(Docker 레이블, 로컬 파일, 키-값 저장소)을 선택하세요.
+2. 선택한 방법의 템플릿 형식을 참조하세요. 각 형식에는 ``와 같은 자리 표시자가 포함되어 있습니다.
+3. 이러한 플레이스홀더에 대한 [값을 입력합니다](#placeholder-values).
-**참고**: 지원되는 일부 통합은 [Ceph][4], [Varnish][5], [Postfix][6], [Cassandra Nodetools][7] 및 [Gunicorn][8]과 같은 파일 시스템 액세스 또는 프로세스 트리 데이터가 필요하기 때문에 표준 자동 탐지와 함께 작동하지 않습니다. 이러한 통합에 대해 자동 탐지를 실행하려면 컨테이너에서 공식 Prometheus 익스포터를 사용한 다음 에이전트에서 자동 탐지를 사용하여 컨테이너를 찾고 엔드포인트를 쿼리하세요.
+{{< tabs >}}
+{{% tab "Labels" %}}
-## 설정
+#### Dockerfile
-{{< tabs >}}
-{{% tab "Docker (AD v2)" %}}
+Datadog Agent v7.36 이상:
-**참고**: AD Annotations v2는 통합 설정을 단순화하기 위해 Datadog 에이전트 7.36에 도입되었습니다. 이전 버전의 Datadog 에이전트인 경우 AD Annotations v1을 사용합니다.
+```yaml
+LABEL "com.datadoghq.ad.checks"='{"": {"instances": [], "logs": []}}'
+```
-도커 컨테이너를 통해 자동 탐지를 자동으로 실행하려면 컨테이너화된 에이전트에 `/var/run/docker.sock` 를 마운트합니다. Windows에서는 `\\.\pipe\docker_engine` 을 마운트합니다.
+이전 Agent 버전:
-통합 템플릿은 도커 라벨로 저장될 수 있습니다. 자동 탐지를 사용하면 에이전트가 도커에서 실행 중인지를 탐지하고 모든 라벨에서 통합 템플릿을 자동으로 검색합니다. 자동 탐지에서는 라벨이 다음과 같이 표시될 것으로 예상합니다:
+```yaml
+LABEL "com.datadoghq.ad.check_names"='[]'
+LABEL "com.datadoghq.ad.init_configs"='[]'
+LABEL "com.datadoghq.ad.instances"='[]'
+LABEL "com.datadoghq.ad.logs"='[]'
+```
+
+#### docker-compose.yaml
-**도커파일**:
+Datadog Agent v7.36 이상:
```yaml
-LABEL "com.datadoghq.ad.checks"='{"": {"instances": []}}'
+labels:
+ com.datadoghq.ad.checks: '{"": {"instances": [], "logs": []}}'
```
-**docker-compose.yaml**:
+이전 Agent 버전:
```yaml
labels:
- com.datadoghq.ad.checks: '{"": {"instances": []}}'
+ com.datadoghq.ad.check_names: '[]'
+ com.datadoghq.ad.init_configs: '[]'
+ com.datadoghq.ad.instances: '[]'
+ com.datadoghq.ad.logs: '[]'
```
-**`docker run`, `nerdctl run`, 또는 `podman run` 명령 사용**:
+#### docker run, nerdctl run, podman run 사용
+
+Datadog Agent v7.36 이상:
```shell
--l com.datadoghq.ad.checks="{\"\": {\"instances\": []}}"
+docker run -l com.datadoghq.ad.checks="{\"\": {\"instances\": [], \"logs\": []}}"
+```
+
+이전 Agent 버전:
+
+```shell
+docker run -l com.datadoghq.ad.check_names='[]' -l com.datadoghq.ad.init_configs='[]' -l com.datadoghq.ad.instances='[]' -l com.datadoghq.ad.logs='[]'
```
**참고**: 이러한 라벨을 설정하는 동안 JSON에서 벗어날 수 있습니다. 예:
```shell
-docker run --label "com.datadoghq.ad.checks="{\"apache\": {\"instances\": [{\"apache_status_url\":\"http://%%host%%/server-status?auto2\"}]}}"
+docker run -l "com.datadoghq.ad.checks="{\"apache\": {\"instances\": [{\"apache_status_url\":\"http://%%host%%/server-status?auto2\"}]}}"
```
-**도커 스웜**:
+#### Docker Swarm
+Docker Cloud에서 Swarm 모드를 사용하는 경우 이미지에 레이블을 적용해야 합니다.
-도커 클라우드(Docker Cloud)에서 스웜 모드를 사용한다면 라벨을 이미지에 적용해야 합니다.
+Datadog Agent v7.36 이상:
```yaml
version: "1.0"
@@ -92,52 +119,11 @@ services:
project:
image: ''
labels:
- com.datadoghq.ad.checks: '{"": {"instances": []}}'
-
-```
-
-**참고**: 자동 탐지를 설정할 때 Datadog은 컨테이너화된 환경 전체에서 텔레메트리를 통합하기 위해 도커 라벨을 사용할 것을 권장합니다. 자세한 내용은 [통합 서비스 태깅][1] 설명서를 참조하세요.
-
-
-[1]: /ko/getting_started/tagging/unified_service_tagging/?tab=docker
-{{% /tab %}}
-{{% tab "Docker (AD v1)" %}}
-
-Docker 컨테이너에서 자동적으로 자동탐지를 활성화하려면 `/var/run/docker.sock`을 컨테이너화 Agent에 마운트하세요. Windows의 경우에는 `\\.\pipe\docker_engine`를 마운트하세요.
-
-통합 템플릿은 도커 라벨로 저장될 수 있습니다. 자동 탐지를 사용하면 에이전트가 도커에서 실행 중인지를 탐지하고 모든 라벨에서 통합 템플릿을 자동으로 검색합니다. 자동 탐지에서는 라벨이 다음과 같이 표시될 것으로 예상합니다:
-
-**도커파일**:
-
-```yaml
-LABEL "com.datadoghq.ad.check_names"='[]'
-LABEL "com.datadoghq.ad.init_configs"='[]'
-LABEL "com.datadoghq.ad.instances"='[]'
-```
-
-**docker-compose.yaml**:
-
-```yaml
-labels:
- com.datadoghq.ad.check_names: '[]'
- com.datadoghq.ad.init_configs: '[]'
- com.datadoghq.ad.instances: '[]'
-```
-
-**`docker run`, `nerdctl run`, 또는 `podman run` 명령 사용**:
-
-```shell
--l com.datadoghq.ad.check_names='[]' -l com.datadoghq.ad.init_configs='[]' -l com.datadoghq.ad.instances='[]'
-```
+ com.datadoghq.ad.checks: '{"": {"instances": [], "logs": []}}'
-**참고**: 이러한 라벨을 설정하는 동안 JSON에서 벗어날 수 있습니다. 예:
-```shell
-docker run --label "com.datadoghq.ad.check_names=[\"redisdb\"]" --label "com.datadoghq.ad.init_configs=[{}]" --label "com.datadoghq.ad.instances=[{\"host\":\"%%host%%\",\"port\":6379}]" --label "com.datadoghq.ad.logs=[{\"source\":\"redis\"}]" --name redis redis
```
-**도커 스웜**:
-
-도커 클라우드(Docker Cloud)에서 스웜 모드를 사용한다면 라벨을 이미지에 적용해야 합니다.
+이전 Agent 버전:
```yaml
version: "1.0"
@@ -149,51 +135,53 @@ services:
com.datadoghq.ad.check_names: '[]'
com.datadoghq.ad.init_configs: '[]'
com.datadoghq.ad.instances: '[]'
+ com.datadoghq.ad.logs: '[]'
```
-**참고**: 자동 탐지를 설정할 때 Datadog은 컨테이너화된 환경 전체에서 텔레메트리를 통합하기 위해 도커 라벨을 사용할 것을 권장합니다. 자세한 내용은 [통합 서비스 태깅][1] 설명서를 참조하세요.
-
-
-[1]: /ko/getting_started/tagging/unified_service_tagging/?tab=docker
{{% /tab %}}
-{{% tab "File" %}}
-
-템플릿을 로컬 파일로 저장하고 컨테이너화된 에이전트 내부에 마운트 할 경우 외부 서비스나 특정 오케스트레이션 플랫폼이 필요하지 않습니다. 단점은 템플릿을 변경, 추가 또는 제거할 때마다 에이전트 컨테이너를 재시작해야 한다는 것입니다. 에이전트는 마운트 된 `/conf.d` 디렉토리에서 자동 탐지 템플릿을 찾습니다.
+{{% tab "Local file" %}}
-에이전트 v6.2.0(및 v5.24.0) 이후 기본 템플릿은 모니터링되는 소프트웨어를 자동으로 감지하는 대신 해당 소프트웨어의 기본 포트를 사용합니다. 다른 포트를 사용해야 하는 경우, [도커 컨테이너 라벨](?tab=docker-labels)에서 사용자 지정 자동 탐지 템플릿을 사용하세요.
+Autodiscovery 템플릿을 마운트된 `/conf.d` 디렉터리 내에 로컬 파일로 저장할 수 있습니다. 템플릿을 변경, 추가 또는 제거할 때마다 Agent 컨테이너를 다시 시작해야 합니다.
-이러한 통합 템플릿은 기본적인 경우를 위한 것입니다. 추가 옵션 활성화를 위해 사용자 지정 Datadog 통합 설정이 필요하다면 다른 컨테이너 식별자 또는 템플릿 변수 인덱싱을 사용하거나 자체 자동 설정 파일을 작성하세요:
-
-1. 호스트에 `conf.d/