diff --git a/content/es/agent/configuration/agent-fips-proxy.md b/content/es/agent/configuration/agent-fips-proxy.md index f594a405d6bbd..7673ed7500d11 100644 --- a/content/es/agent/configuration/agent-fips-proxy.md +++ b/content/es/agent/configuration/agent-fips-proxy.md @@ -4,7 +4,7 @@ algolia: tags: - fips - proxy fips - - cumplimiento + - conformidad - fedramp - govcloud alias: @@ -19,33 +19,33 @@ further_reading: text: Monitorizar cargas de trabajo altamente reguladas con el Agent de Datadog habilitado por FIPS kind: Guía -title: Cumplimiento de estándares FIPS por parte de Datadog +title: Conformidad de Datadog con los estándares FIPS --- {{< site-region region="us,us3,us5,eu,ap1" >}} -
El Datadog Agent FIPS Proxy solo está disponible en la región US1-FED.
+
El proxy de FIPS del Datadog Agent sólo está disponible en la región US1-FED.
{{< /site-region >}} -El Datadog Agent FIPS Proxy garantiza que en la comunicación entre el Datadog Agent y Datadog se utiliza cifrado conforme a FIPS. +El proxy de FIPS del Datadog Agent garantiza que en la comunicación entre el Datadog Agent y Datadog se utilice un cifrado compatible con FIPS. -El Datadog Agent FIPS Proxy es un componente distribuido por separado que se despliega en el mismo host que el Datadog Agent. El proxy actúa como intermediario entre el Agent y Datadog: el Agent se comunica con el Datadog Agent FIPS Proxy, que cifra las cargas útiles utilizando una criptografía validada por FIPS 140-2 y las retransmite a Datadog. El Datadog Agent y el Agent FIPS Proxy deben configurarse en tándem para que se puedan comunicar. +El proxy de FIPS del Datadog Agent es un componente distribuido por separado que se implementa en el mismo host que el Datadog Agent. El proxy actúa como intermediario entre el Agent y el consumo de Datadog. El Agent se comunica con el proxy de FIPS del Datadog Agent, que cifra las cargas útiles utilizando una criptografía validada por FIPS 140-2 y las retransmite a Datadog. El Datadog Agent y el proxy de FIPS del Agent deben configurarse en tándem para que se puedan comunicar entre sí. ## Plataformas compatibles y limitaciones -La conformidad de Datadog Agent FIPS Proxy con los estándares se basa en el uso del [certificado n.º 4282 del Programa Estadounidense de Validación de Módulos Criptográficos][1], validado por FIPS 140-2. Consulta la [política de seguridad][2] correspondiente para obtener información sobre las restricciones y los entornos operativos validados. +La conformidad del proxy de FIPS del Datadog Agent con los estándares se basa en el uso del [certificado n.º 4282 del Programa Estadounidense de Validación de Módulos Criptográficos][1], validado por FIPS 140-2. Consulta la [política de seguridad][2] correspondiente para obtener información sobre las restricciones y los entornos operativos validados. **Es responsabilidad del usuario garantizar que el funcionamiento del entorno cumple con la política de seguridad y las directrices generales de FIPS.** Plataformas compatibles (64 bits x86): ||| -| ---  | ----------- | +| --- | ----------- | | Equipos sin sistema operativo y máquinas virtuales | RHEL >= 7
Debian >= 8
Ubuntu >= 14.04
SUSE >= 12 (beta)| | Nube y contenedores | Amazon ECS
AWS EKS (Helm)| -**Nota**: La arquitectura arm64 se puede utilizar en beta. +**Nota**: La arquitectura arm64 está disponible en fase beta. -Productos compatibles (Agent 7.45+): +Productos compatibles (Agent v7.45 y posteriores): - Métricas - Logs @@ -59,15 +59,15 @@ Productos compatibles (Agent 7.45+): El proxy de FIPS de Datadog Agent **no** admite lo siguiente: -- La monitorización sin servidor -- La comunicación entre el Cluster Agent y el Node Agent +- La monitorización serverless +- La comunicación entre el Cluster Agent y Agents del nodo - Las integraciones con el Agent - La comunicación saliente a cualquier otro punto que no sea GovCloud ## Requisitos previos - Rango de puertos TCP disponible: 9803 a 9818 -- Versión de Datadog Agent 7.41 o posterior +- Versión de Datadog Agent 7.41 o posteriores ## Instalar el Agent con compatibilidad con FIPS @@ -76,81 +76,81 @@ El proxy de FIPS de Datadog Agent **no** admite lo siguiente: ### Instalar el Agent en un nuevo host -Para instalar el Datadog Agent con el Datadog Agent FIPS Proxy, añade `DD_FIPS_MODE=1` a las instrucciones de instalación en un solo paso que encontrarás en el artículo sobre la [integración con el Datadog Agent][1]. Por ejemplo: +Para instalar el Datadog Agent con el proxy de FIPS de Datadog Agent, añade `DD_FIPS_MODE=1` a las instrucciones de instalación en un solo paso que encontrarás en el artículo sobre la [integración con el Datadog Agent][1]. Por ejemplo: ```shell DD_API_KEY= \ DD_SITE="ddog-gov.com" \ DD_FIPS_MODE=1 \ bash -c "$(curl -L \ -   https://s3.amazonaws.com/dd-agent/scripts/install_script_agent7.sh)" + https://s3.amazonaws.com/dd-agent/scripts/install_script_agent7.sh)" ``` -Al establecer la variable de entorno `DD_FIPS_MODE`, se instala el paquete de FIPS junto con el Agent y se configura el Agent para que se utilice el proxy. La configuración ha terminado si usas este método, pero deberías [verificar la instalación](#verify-your-installation). +Al establecer la variable de entorno `DD_FIPS_MODE`, se instala el paquete de FIPS junto con el Agent y se configura el Agent para que utilice el proxy. Si utilizas este método, la configuración ha terminado, pero deberías [verificar la instalación](#verify-your-installation). -### Añadir el Datadog Agent FIPS Proxy a un Agent +### Añadir el proxy de FIPS de Datadog Agent a un Agent existente -Sigue los pasos que se indican a continuación para añadir el Datadog Agent FIPS Proxy a una instalación existente del Agent. +Sigue los pasos que se indican a continuación para añadir el proxy de FIPS de Datadog Agent a una instalación existente del Agent. -#### Instalar el paquete de Datadog Agent FIPS Proxy +#### Instalar el paquete del proxy de FIPS de Datadog Agent -1. Ejecuta los siguientes comandos para instalar el proxy: +1. Ejecuta los siguientes comandos para instalar el proxy de FIPS de Datadog Agent: -   Debian: -   ```shell -   apt-get update && apt-get install datadog-fips-proxy -   ``` -   RHEL y Fedora: -   ```shell -   yum makecache && yum install datadog-fips-proxy -   ``` -   SLES: -   ```shell -   zypper refresh datadog && zypper install datadog-fips-proxy -   ``` + Debian: + ```shell + apt-get update && apt-get install datadog-fips-proxy + ``` + RHEL y Fedora: + ```shell + yum makecache && yum install datadog-fips-proxy + ``` + SLES: + ```shell + zypper refresh datadog && zypper install datadog-fips-proxy + ``` 1. La primera vez que realices una actualización, copia el archivo de configuración de ejemplo en la ubicación apropiada y reinicia el proxy. No necesitas copiar la configuración en actualizaciones posteriores, a menos que haya cambios significativos en la configuración de proxy ascendente: -   ```shell -   sudo cp /etc/datadog-fips-proxy/datadog-fips-proxy.cfg.example \ -      /etc/datadog-fips-proxy/datadog-fips-proxy.cfg -   sudo chown dd-agent:dd-agent \ -      /etc/datadog-fips-proxy/datadog-fips-proxy.cfg -   sudo chmod 640 /etc/datadog-fips-proxy/datadog-fips-proxy.cfg -   sudo systemctl restart datadog-fips-proxy -   ``` + ```shell + sudo cp /etc/datadog-fips-proxy/datadog-fips-proxy.cfg.example \ + /etc/datadog-fips-proxy/datadog-fips-proxy.cfg + sudo chown dd-agent:dd-agent \ + /etc/datadog-fips-proxy/datadog-fips-proxy.cfg + sudo chmod 640 /etc/datadog-fips-proxy/datadog-fips-proxy.cfg + sudo systemctl restart datadog-fips-proxy + ``` #### Configurar el Agent para utilizar el proxy de FIPS de Datadog Agent -El paquete de Datadog Agent FIPS Proxy viene preconfigurado para su uso con el centro de datos US1-FED. Si quieres actualizar un Datadog Agent existente, **debes** configurar el Agent para que se utilice el proxy. +El paquete del proxy de FIPS de Datadog Agent viene preconfigurado para su uso con el centro de datos US1-FED. Si quieres actualizar un Datadog Agent existente, **debes** configurar el Agent para que utilice el proxy. -Para eso, dale a `fips.enabled` el valor `true` y a `fips.https` el valor `false` en el [archivo de configuración del Agent][2]: +Para eso, dale a `fips.enabled` el valor `true`, y a `fips.https`, el valor `false`, en el [archivo de configuración del Agent][2]: ```yaml fips: -  enabled: true -  https: false + enabled: true + https: false ``` -El ajuste `fips` se puede usar en las versiones de Agent 7.41 y posteriores. Cuando está activado, Datadog Agent redirige todas sus comunicaciones a Datadog Agent FIPS Proxy en los productos compatibles. Este ajuste ignora las opciones de URL personalizadas, como `dd_url`. +El parámetro `fips` se puede utilizar en las versiones del Agent 7.41 y posteriores. Cuando está activado, Datadog Agent redirige todas sus comunicaciones al proxy de FIPS de Datadog Agent en los productos compatibles. Este parámetro ignora las opciones de URL personalizadas, como `dd_url`. -El ajuste `https` tiene el valor `false` porque el Agent utiliza HTTP para comunicarse con el proxy. El Datadog Agent FIPS Proxy se ejecuta en el mismo host que el Agent y, para proteger la comunicación, se emplea el sistema de seguridad del host. +El parámetro `https` tiene el valor `false`, ya que utiliza el Agent utiliza HTTP para comunicarse con el proxy. El proxy de FIPS de Datadog Agent se ejecuta en el mismo host que el Agent y, para proteger la comunicación, se emplea el sistema de seguridad del host. **Proteger y reforzar el host es tu responsabilidad.** -
El valor predeterminado de fips.enabled es false en el Agent. Debe usarse true para garantizar que todas las comunicaciones se reenvían a través del Datadog Agent FIPS Proxy.

Si fips.enabled no tiene el valor true, el Agent no es compatible con FIPS.
+
El parámetro predeterminado fips.enabled es false en el Agent. Debe tener el valor true para garantizar que todas las comunicaciones se reenvían a través del proxy de FIPS de Datadog Agent.

Si fips.enabled no tiene el valor true, el Agent no es compatible con FIPS.
### Verifica tu instalación -Verifica que métricas, trazas (traces), y logs están correctamente reportados en la app. +Verifica qué métricas, trazas (traces), y logs están correctamente reportados en la aplicación. -Para métricas, ejecuta el comando de diagnóstico de conectividad y comprueba que todos los checks pasen: +Para las métricas, ejecuta el comando de diagnóstico de conectividad y asegúrate de que todos los checks se aprueben: ```shell sudo -u dd-agent datadog-agent diagnose --include connectivity-datadog-core-endpoints -# Para la versión de Agent anterior a 7.48, ejecuta el siguiente comando: +# Para el Agent v7.48 o posteriores, ejecuta el siguiente comando: # sudo -u dd-agent datadog-agent diagnose datadog-connectivity ``` -Si no ves métricas, trazas o logs reportadas en la aplicación, consulta la sección [Troubleshooting (solucionar problemas)](#troubleshooting-a-bare-metal-or-vm-installation). +Si no ves métricas, trazas o logs reportados en la aplicación, consulta la sección [Solucionar problemas](#troubleshooting-a-bare-metal-or-vm-installation). ### Ver logs @@ -160,7 +160,7 @@ sudo journalctl -u datadog-fips-proxy #### Configuración de logs de journald -Si utilizas [Log Management (Gestión de logs)][3] y deseas enviar los logs de Datadog Agent FIPS Proxy a Datadog, configura el Datadog Agent para leer logs desde journald. +Si utilizas [Log Management][3] y quieres enviar los logs del proxy de FIPS del Datadog Agent a Datadog, configura el Datadog Agent para leer logs desde journald. 1. En el [configuration file (archivo de configuración)][2] de Agent, establece `logs_enabled` en `verdadero` para activar Logs Agent. En el [configuration directory (directorio de configuración)][4], crea un archivo en `fips_proxy.d/conf.yaml` con el siguiente contenido: diff --git a/content/fr/agent/logs/proxy.md b/content/fr/agent/logs/proxy.md index 7c29848cdfda9..39f89993e21cc 100644 --- a/content/fr/agent/logs/proxy.md +++ b/content/fr/agent/logs/proxy.md @@ -92,7 +92,7 @@ logs_config: HAProxy doit être installé sur un host connecté à Datadog. Utilisez le fichier de configuration suivant si vous ne l'avez pas déjà configuré. -{{< site-region region="us" >}} +{{% site-region region="us" %}} ```conf # Configuration de base @@ -108,7 +108,7 @@ defaults option redispatch timeout client 5s timeout server 5s - timeout connect 5 + timeout connect 5s # Cela déclare un accès aux statistiques HAProxy sur le port 3833. # Vous n'avez pas besoin d'identifiants pour afficher cette page et vous pouvez # désactiver l'accès une fois la configuration terminée. @@ -130,7 +130,7 @@ resolvers my-dns hold valid 10s hold obsolete 60s # Cela déclare l'endpoint auquel vos Agents se connectent pour -# envoyer les logs (p.ex., la valeur de logs.config.logs_dd_url) +# envoyer les logs (p. ex., la valeur de logs.config.logs_dd_url) frontend logs_frontend bind *:10514 mode tcp @@ -155,8 +155,8 @@ Si le téléchargement fonctionne, le fichier est stocké à l'emplacement suiva Une fois la configuration de HAProxy effectuée, vous pouvez recharger ou redémarrer le service. **Nous vous conseillons de configurer une tâche `cron` qui recharge HAProxy toutes les 10 minutes** (par exemple avec la commande `service haproxy reload`) pour forcer l'actualisation du cache DNS de HAProxy si `app.datadoghq.com` bascule vers une autre IP. -{{< /site-region >}} -{{< site-region region="eu" >}} +{{% /site-region %}} +{{% site-region region="eu" %}} ```conf # Configuration de base @@ -241,7 +241,7 @@ logs_config: Dans cet exemple, le fichier `nginx.conf` peut être utilisé pour transmettre le trafic à Datadog en passant par un proxy. Avec cette configuration, le dernier bloc du serveur incorpore le protocole TLS pour garantir le chiffrement des logs internes en texte brut entre votre proxy et l'endpoint de l'API Datadog vers lequel les logs sont envoyés : -{{< site-region region="us" >}} +{{% site-region region="us" %}} ```conf user nginx; @@ -261,8 +261,8 @@ stream { } ``` -{{< /site-region >}} -{{< site-region region="eu" >}} +{{% /site-region %}} +{{% site-region region="eu" %}} ```conf user nginx; @@ -282,7 +282,7 @@ stream { } ``` -{{< /site-region >}} +{{% /site-region %}} {{% /tab %}} {{< /tabs >}} @@ -292,4 +292,4 @@ stream { {{< partial name="whats-next/whats-next.html" >}} [1]: /fr/agent/logs/log_transport?tab=https -[2]: /fr/agent/proxy/ \ No newline at end of file +[2]: /fr/agent/configuration/proxy/ \ No newline at end of file diff --git a/content/fr/getting_started/tagging/using_tags.md b/content/fr/getting_started/tagging/using_tags.md index fea42ff5ca055..946c0c2b98a25 100644 --- a/content/fr/getting_started/tagging/using_tags.md +++ b/content/fr/getting_started/tagging/using_tags.md @@ -1,38 +1,44 @@ --- -title: Utiliser les tags -kind: documentation aliases: - - /fr/tagging/using_tags/ +- /fr/tagging/using_tags/ +description: Découvrez comment utiliser des tags dans les solutions Datadog. further_reading: - - link: /getting_started/tagging/ - tag: Documentation - text: Débuter avec les tags - - link: /getting_started/tagging/assigning_tags/ - tag: Documentation - text: Apprendre à assigner des tags - - link: https://www.datadoghq.com/blog/tagging-best-practices/ - tag: Blog - text: Bonnes pratiques en matière de tagging pour votre infrastructure et vos applications +- link: https://www.datadoghq.com/blog/tagging-best-practices/ + tag: Blog + text: Bonnes pratiques en matière de tagging pour votre infrastructure et vos applications +- link: /getting_started/tagging/ + tag: Documentation + text: Débuter avec les tags +- link: /getting_started/tagging/assigning_tags/ + tag: Documentation + text: Apprendre à assigner des tags +kind: documentation +title: Utiliser des tags --- -Après avoir [assigné des tags][1], utilisez-les pour filtrer et regrouper vos données au sein de la plateforme Datadog. Les tags vous permettent d'inclure et d'exclure des données. Lorsque vous choisissez d'inclure ou d'exclure plusieurs tags : + +## Présentation + +Après avoir [assigné des tags][1], utilisez-les pour filtrer et regrouper vos données au sein de la plateforme Datadog. Les tags vous permettent d'inclure et d'exclure des données. + +Lorsque vous souhaitez inclure ou exclure plusieurs tags : * la fonction Include utilise la logique `AND` ; * la fonction Exclude utilise la logique `OR`. ## Événements -Le [flux d'événements][2] affiche tous les événements de votre environnement au cours de l'intervalle spécifié. Utilisez des tags pour affiner la liste d'événements et étudier un sous-ensemble d'événements. Saisissez `tags:` suivi du nom d'un tag pour afficher tous les événements générés par un host, une [intégration][3] ou un service qui possèdent ce tag. Dans l'exemple ci-dessous, l'expression `tags:service:coffee-house` permet de rechercher le tag `service:coffee-house`. Pour effectuer une recherche inclusive avec plusieurs tags, séparez chaque tag par l'opérateur OR : `tags:service:coffee-house OR host:coffeehouseprod`. Pour effectuer une recherche exclusive avec plusieurs tags, séparez chaque tag par une virgule : `tags:service:coffee-house,host:coffeehouseprod.` +L'[Events Explorer][2] affiche les événements de votre environnement au cours de l'intervalle spécifié. Utilisez des tags pour affiner la liste d'événements et étudier un sous-ensemble d'événements. Saisissez `tags:` suivi du nom d'un tag pour afficher tous les événements générés par un host, une [intégration][3] ou un service qui possèdent ce tag. Par exemple, l'expression `tags:service:coffee-house` permet de rechercher le tag `service:coffee-house`. -{{< img src="tagging/using_tags/eventtags.png" alt="Liste d'événements et tags" style="width:80%;">}} +Pour effectuer une recherche inclusive avec plusieurs tags, utilisez des parenthèses et séparez chaque tag par l'opérateur OR : `tags:(service:coffee-house OR host:coffeehouseprod)`. Pour effectuer une recherche exclusive avec plusieurs tags, séparez chaque tag par l'opérateur AND : `tags:(service:coffee-house AND host:coffeehouseprod)`. ## Dashboards {{< tabs >}} {{% tab "Assignation" %}} -Utilisez des tags pour filtrer les métriques à afficher dans un [graphique de dashboard][1] ou pour créer des groupes agrégés de métriques à afficher. Pour filtrer les métriques à afficher, saisissez les tags dans la zone de texte **from**. Les données de la métrique choisie s'afficheront alors pour toutes les sources qui possèdent ce tag (à savoir, `service:coffee-house` dans l'exemple ci-dessous). +Utilisez des tags pour filtrer les métriques à afficher dans un [graphique de dashboard][1] ou pour créer des groupes agrégés de métriques à afficher. Pour filtrer les métriques à afficher, saisissez les tags dans la zone de texte **from**. Cette métrique s'affiche alors pour toutes les sources qui possèdent ce tag (à savoir, `service:web-store` dans l'exemple ci-dessous). -{{< img src="tagging/using_tags/dashboardtags_1.png" alt="Tags dans des dashboards avec la zone de texte from" style="width:80%;">}} +{{< img src="tagging/using_tags/dashboards_tags_example.png" alt="Ajoutez un tag dans le champ from pour filtrer les métriques affichées dans des dashboards. Pour cet exemple, le filtre service:web-store est appliqué à la métrique." style="width:80%;">}} Le filtrage avancé des valeurs de tag peut également inclure des filtres booléens. La syntaxe booléenne suivante est prise en charge : @@ -44,24 +50,23 @@ Le filtrage avancé des valeurs de tag peut également inclure des filtres bool Utilisez `AND` ou `OR` pour examiner une métrique en fonction de tags spécifiques : -{{< img src="tagging/using_tags/dashboard_boolean_1.png" alt="Filtre booléen avec AND/OR" style="width:80%;">}} +{{< img src="tagging/using_tags/dashboard_advanced_tags_AND_OR.png" alt="Filtre booléen avec les opérateurs AND/OR" style="width:80%;">}} Utilisez `IN` ou `NOT IN` pour filtrer rapidement une métrique en fonction de tags spécifiques : -{{< img src="tagging/using_tags/dashboards_boolean_2.png" alt="Filtre booléen avec IN/NOT IN" style="width:80%;">}} +{{< img src="tagging/using_tags/dashboard_advanced_tags_NOT_IN.png" alt="Filtre booléen avec les opérateurs IN/NOT IN" style="width:80%;">}} -Pour créer un groupe agrégé à l'aide de tags, saisissez la clé du tag dans la zone de texte **avg by**. Par exemple, si vous disposez d'un graphique de séries temporelles présentant une métrique taguée avec la clé `service`, comme `service:coffee-house`, saisissez `service` dans la zone de texte **avg by** pour afficher une ligne pour chaque valeur de tag `service`. Chaque ligne représente la valeur moyenne de la métrique pour l'ensemble des sources qui partagent la valeur de tag `service`. +Pour créer un groupe agrégé à l'aide de tags, saisissez la clé du tag dans la zone de texte **avg by**. Par exemple, si vous disposez d'un graphique de série temporelle présentant une métrique taguée avec la clé `service`, comme `service:web-store`, saisissez `service` dans la zone de texte **avg by** pour afficher une ligne pour chaque valeur de tag `service`. Chaque ligne représente la valeur moyenne de la métrique pour l'ensemble des sources qui partagent la valeur de tag `service`. -{{< img src="tagging/using_tags/dashboardtags.png" alt="Tags dans des dashboards avec la zone de texte avg by" style="width:80%;">}} +{{< img src="tagging/using_tags/dashboard_group_by_tags.png" alt="Tags dans des dashboards avec la zone de texte avg by" style="width:80%;">}} -Les tags peuvent également être utilisés pour superposer des événements sur un dashboard, comme dans le [flux d'événements][2]. -Saisissez `tags:` suivi du nom du tag. Les événements correspondants sont superposés sous la forme de barres verticales dans le graphique. L'exemple ci-dessous utilise l'expression `tags:service:coffee-house`. +Les tags peuvent également servir à superposer des événements sur un dashboard, comme dans l'[Events Explorer][2]. Les événements correspondants sont superposés sous la forme de barres verticales dans le graphique. L'exemple ci-dessous utilise l'expression `service:web-store`. -{{< img src="tagging/using_tags/dashboardeventtags.png" alt="Superposition d'événements dans des dashboards" style="width:80%;">}} +{{< img src="tagging/using_tags/dashboard_event_overlays.png" alt="Utiliser des tags pour superposer des événements dans des dashboards" style="width:80%;">}} Utilisez des [template variables][3] pour activer facilement le tag **from** sur les graphiques de votre dashboard. Dans l'exemple ci-dessous, `service` est utilisé pour représenter la clé de tag `service`. Ajoutez la template variable `$service` dans la zone de texte **from** de votre requête de graphique pour l'utiliser. -{{< img src="tagging/using_tags/dashboardtemplatevariables.png" alt="Template variables dashboard" style="width:80%;">}} +{{< img src="tagging/using_tags/dashboard_dynamic_template_variables.png" alt="Template variables dans un dashboard" style="width:80%;">}} [1]: /fr/dashboards/ [2]: /fr/events/ @@ -69,17 +74,17 @@ Utilisez des [template variables][3] pour activer facilement le tag **from** sur {{% /tab %}} {{% tab "Exemples" %}} -Vous trouverez ci-dessous un exemple de tags avec l'éditeur de graphiques pour séries temporelles. Aucun tag n'a été appliqué dans la première capture d'écran. L'utilisation moyenne de processeur est donc affichée pour l'ensemble des hosts : +Vous trouverez ci-dessous un exemple de tags avec l'éditeur de graphiques pour séries temporelles. Aucun tag n'a été appliqué dans la première capture d'écran. L'utilisation moyenne du CPU est donc affichée pour l'ensemble des hosts : -{{< img src="tagging/using_tags/Tags_1.png" alt="Tags_1" style="width:75%;">}} +{{< img src="tagging/using_tags/dashboard_timeseries_graph_editor_no_tags.png" alt="Éditeur de graphiques pour séries temporelles, sans aucun tag défini" style="width:75%;">}} -Les informations de l'éditeur sont ensuite mises à jour afin d'inclure un tag (`region:eastus`) dans la zone de texte **from**. Cela permet à Datadog d'afficher l'utilisation de processeur sur l'ensemble de la région Est des États-Unis. Le tag `region` est utilisé à titre d'exemple : vous pouvez utiliser n'importe quel tag arbitraire transmis à votre plateforme Datadog, comme `application`, `service`, `environment`, etc. +Les informations de l'éditeur sont ensuite mises à jour afin d'inclure un tag (`region:eastus`) dans la zone de texte **from**. Cela permet à Datadog d'afficher l'utilisation du CPU sur l'ensemble de la région Est des États-Unis. Le tag `region` est utilisé à titre d'exemple : vous pouvez utiliser n'importe quel tag arbitraire transmis à votre plateforme Datadog, comme `application`, `service` ou `environment`. -{{< img src="tagging/using_tags/Tags_2.png" alt="Tags_2" style="width:75%;">}} +{{< img src="tagging/using_tags/dashboard_timeseries_graph_editor_from_tag.png" alt="Éditeur de graphiques pour séries temporelles avec le tag « region:us-east-1 »" style="width:75%;">}} -Enfin, le deuxième champ vide (la zone de texte **avg by**) est utilisé pour afficher une ligne de série temporelle pour chaque `host`. Le processeur du serveur est affiché pour chaque host exécuté dans la région Est des États-Unis. +Enfin, le deuxième champ vide (la zone de texte **avg by**) est utilisé pour afficher une ligne de série temporelle pour chaque `host`. Le CPU du serveur est affiché pour chaque host exécuté dans la région Est des États-Unis. -{{< img src="tagging/using_tags/Tags_3.png" alt="Tags_3" style="width:75%;">}} +{{< img src="tagging/using_tags/dashboard_timeseries_graph_editor_sumby_tag.png" alt="Éditeur de graphiques pour séries temporelles avec le tag « region:us-east-1 » et un regroupement basé sur host" style="width:75%;">}} Vous pouvez ajouter d'autres tags pour réduire davantage la portée, afin d'étudier par exemple les hosts dans `region:eastus` et `env:production`. Les tags peuvent être utilisés pour de nombreuses fonctionnalités de Datadog et appliqués à l'ensemble des éléments de base (métriques, traces et logs). @@ -126,45 +131,22 @@ La page des live processes propose les champs de filtrage et de regroupement sui ## Monitors -{{< tabs >}} -{{% tab "Gérer les monitors" %}} +Pour filtrer des monitors et des [downtimes de monitor][31] en fonction des [tags qui leur sont assignés][32], utilisez la barre de recherche ou les cases des facettes. Vous devez utiliser le format suivant dans la barre de recherche : `tag::`. Indiquez par exemple `tag:service:coffee-house`. Pour exclure les monitors associés à un tag spécifique de votre recherche, utilisez `-` (par exemple : `tag:-service:coffee-house`). -Pour filtrer des monitors en fonction des [tags qui leur sont assignés][1], utilisez la barre de recherche ou les cases des facettes. Vous devez utiliser le format suivant dans la barre de recherche : `tag::`. Indiquez par exemple `tag:service:coffee-house`. Pour exclure les monitors associés à un tag spécifique de votre recherche, utilisez `-` (par exemple : `tag:-service:coffee-house`). **Remarque** : les tags de monitor ne fonctionnent pas de la même façon que les tags de métrique. +{{< img src="/tagging/using_tags/manage_monitor_tags.png" alt="Filtrer des monitors dans la barre de recherche avec des tags" style="width:80%;">}} -{{< img src="tagging/using_tags/managemonitorstags.png" alt="Gérer les tags de monitor" style="width:80%;">}} - -[1]: /fr/getting_started/tagging/assigning_tags/ -{{% /tab %}} - -{{% tab "Nouveau monitor" %}} - -Lorsque vous créez un [monitor][1], utilisez les tags de métrique dans : +**Remarque** : les tags de monitor ne fonctionnent pas de la même façon que les tags de métrique. Pour en savoir plus, consultez la rubrique [Tags de monitor][30]. +Lorsque vous créez un monitor, utilisez des *tags de métrique* dans : * la zone de texte **from**, afin de limiter la portée du monitor et d'inclure uniquement les métriques possédant les tags indiqués ; - * la zone de texte **excluding**, afin d'exclure les métriques correspondantes de la portée du monitor ; - * la zone de texte **avg by**, afin de transformer le monitor en un monitor à alertes multiples pour chaque valeur de tag. -{{< img src="tagging/using_tags/newmonitortags.png" alt="Tags nouveau monitor" style="width:80%;">}} - -[1]: /fr/monitors/create/types/ -{{% /tab %}} -{{% tab "Gérer les downtimes" %}} - -Pour filtrer les [downtimes][1] en fonction d'un tag de monitor, saisissez le nom du tag dans la barre de recherche, par exemple `service:coffee-house`. - -{{< img src="tagging/using_tags/managedowntimetags.png" alt="Gérer les tags de monitor" style="width:80%;">}} - -[1]: /fr/monitors/notify/downtimes/ -{{% /tab %}} -{{< /tabs >}} - ## Métriques -Utilisez les tags dans [Metrics Explorer][8] pour filtrer les métriques en fonction de tags ou pour afficher plusieurs graphiques selon une clé de tag. L'exemple ci-dessous représente une métrique avec l'expression `service:coffee-house` et affiche un graphique par `host`. +Utilisez des tags dans le [Metrics Explorer][8] pour filtrer les métriques en fonction de tags ou pour afficher plusieurs graphiques selon une clé de tag. L'exemple ci-dessous représente une métrique filtrée selon `service:web-store`. -{{< img src="tagging/using_tags/metricsexplorertags.png" alt="Gérer les tags de monitor" style="width:80%;">}} +{{< img src="tagging/using_tags/metrics_explorer.png" alt="Un graphique de métrique filtré sur un tag spécifique" style="width:80%;">}} ## Intégrations @@ -231,14 +213,14 @@ Consultez la documentation Google Cloud pour en savoir plus sur la [création et ## APM {{< tabs >}} -{{% tab "Analytics" %}} +{{% tab "Trace Explorer" %}} -Pour [les recherches de traces][1], filtrez les traces avec des tags à l'aide de la barre de recherche ou des cases des facettes. Vous devez utiliser le format suivant dans la barre de recherche : `:`. Indiquez par exemple `service:coffee-house`. Pour effectuer une recherche avancée, consultez la page [sur les recherches de traces][2]. +Depuis le [Trace Explorer][1], vous pouvez filtrer les traces avec des tags à l'aide de la barre de recherche ou les cases des facettes. Vous devez utiliser le format suivant dans la barre de recherche : `:`. Indiquez par exemple `service:coffee-house`. Pour effectuer une recherche avancée, consultez la section [Syntaxe de requête][2]. -{{< img src="tagging/using_tags/tracesearchtags.png" alt="Tags recherche de traces" style="width:80%;">}} +{{< img src="tagging/using_tags/trace_explorer.png" alt="Tags dans le Trace Explorer" style="width:80%;">}} -[1]: /fr/tracing/app_analytics/search/ -[2]: /fr/tracing/app_analytics/search/#search-bar +[1]: /fr/tracing/trace_explorer/search/ +[2]: /fr/tracing/trace_explorer/query_syntax/ {{% /tab %}} {{% tab "Service Map" %}} @@ -267,7 +249,7 @@ Pour exclure des tags, utilisez `` afin de modifier le texte, puis ajoutez le ## Logs -Pour [les recherches][10], [les analyses][11], [les patterns][12] et le [Live Tailing][13] de logs, filtrez les logs avec des tags à l'aide de la barre de recherche ou des cases des facettes. Vous devez utiliser le format suivant dans la barre de recherche : `:`. Indiquez par exemple `service:coffee-house`. Pour effectuer une recherche avancée, consultez la page [sur les recherches de logs][10]. +Pour [les recherches][10], [les analyses][11], [les patterns][12] et le [Live Tailing][13] de logs, filtrez les logs avec des tags à l'aide de la barre de recherche ou les cases des facettes. Vous devez utiliser le format suivant dans la barre de recherche : `:`. Indiquez par exemple `service:coffee-house`. Pour effectuer une recherche avancée, consultez la section [Rechercher des logs][10]. {{< tabs >}} {{% tab "Recherche" %}} @@ -296,16 +278,55 @@ Les tags permettent également de filtrer un [pipeline][14] de logs. Dans l'exem {{< img src="tagging/using_tags/logpipelinetags.png" alt="Tags de pipeline" style="width:80%;">}} +## RUM et Session Replay + +Le [RUM Explorer][15] représente les événements provenant de votre environnement sur une période donnée. + +Pour filtrer les données des événements RUM en fonction de tags, utilisez la barre de recherche ou les cases de facettes. Vous devez utiliser le format suivant dans la barre de recherche : `:`. Indiquez par exemple `service:shopist`. Pour effectuer une recherche avancée, consultez la section [Rechercher des événements RUM][16]. + +{{< img src="tagging/using_tags/rumtags.png" alt="Tags RUM" style="width:80%;">}} + +## Synthetics + +{{< tabs >}} +{{% tab "Tests Synthetic" %}} + +La page [Synthetic Tests][1] répertorie la liste de vos tests Synthetic. + +Pour filtrer des tests en fonction de tags, utilisez la barre de recherche ou les cases de facettes. Vous devez utiliser le format suivant dans la barre de recherche : `:`. Indiquez par exemple `tag:mini-website`. Pour effectuer une recherche avancée, consultez la section [Rechercher et gérer des tests Synthetic][2]. + +{{< img src="tagging/using_tags/syntheticstags.png" alt="Tags Synthetic" style="width:80%;">}} + + +[1]: https://app.datadoghq.com/synthetics/tests +[2]: /fr/synthetics/search/ +{{% /tab %}} +{{% tab "Explorer" %}} + +La vue [Synthetic Monitoring & Testing Results Explorer][1] présente vos exécutions de test et lots d'exécutions au sein d'un [pipeline de CI][2]. + +Pour filtrer des exécutions de test en fonctions de tags, utilisez la barre de recherche ou les cases de facettes. Vous devez utiliser le format suivant dans la barre de recherche : `:`. Indiquez par exemple `@ci.provider.name:github`. Pour effectuer une recherche avancée, consultez la section [Rechercher des lots de tests][3]. + +{{< img src="tagging/using_tags/syntheticscitags.png" alt="Tags Synthetics et CI" style="width:80%;">}} + + +[1]: https://app.datadoghq.com/synthetics/explorer/ +[2]: /fr/continuous_testing/cicd_integrations +[3]: /fr/continuous_testing/explorer/search/ +{{% /tab %}} +{{< /tabs >}} ## Service Level Objectives {{< tabs >}} {{% tab "Gérer vos SLO" %}} -Pour filtrer des SLO en fonction des [tags qui leur sont assignés][1], utilisez la barre de recherche ou les cases des facettes. Vous devez utiliser le format suivant dans la barre de recherche : `:` (par exemple : `journey:add_item`). Pour exclure les SLO associés à un tag spécifique de votre recherche, utilisez `-` (par exemple : `-journey:add_item`). **Remarque** : les tags de SLO sont différents et distincts des tags de métrique ou de monitor utilisés dans les métriques ou les monitors qui composent un SLO. +Pour filtrer des SLO en fonction des [tags qui leur sont assignés][1], utilisez la barre de recherche ou les cases des facettes. Vous devez utiliser le format suivant dans la barre de recherche : `:`. Indiquez par exemple `journey:add_item`. Pour exclure les SLO associées à un tag spécifique de votre recherche, utilisez `-` (par exemple : `-journey:add_item`). {{< img src="tagging/using_tags/manage_slo_tags.png" alt="Tags de SLO" style="width:80%;">}} +Les tags de SLO ne fonctionnent pas de la même façon que les tags appliqués aux métriques ou monitors sous-jacents d'un SLO. + [1]: /fr/getting_started/tagging/assigning_tags/?tab=servicelevelobjectives#ui {{% /tab %}} @@ -316,9 +337,7 @@ Lorsque vous créez un [SLO basé sur des métriques][1], utilisez les tags de m * La zone de texte **from** permet de limiter le contexte de la métrique à ces tags uniquement. * La zone de texte **sum by** permet de créer un SLO groupé basé sur des métriques qui affiche un pourcentage de statut ainsi que la marge d'erreur restante pour le SLO global et pour chaque valeur de tag. -{{< img src="tagging/using_tags/metric_based_slo_tags.png" alt="Tags de SLO basé sur des métriques" style="width:80%;">}} - -[1]: /fr/monitors/service_level_objectives/metric/ +[1]: /fr/service_management/service_level_objectives/metric/ {{% /tab %}} {{% tab "SLO basés sur des monitors" %}} @@ -326,36 +345,67 @@ Lorsque vous créez un SLO [basé sur des monitors][1] à partir d'un seul [moni {{< img src="tagging/using_tags/monitor_based_slo_tags.png" alt="Tags de SLO basé sur des monitors" style="width:80%;">}} -[1]: /fr/monitors/service_level_objectives/monitor/ +[1]: /fr/service_management/service_level_objectives/monitor/ [2]: /fr/getting_started/tagging/using_tags/?tab=newmonitor#monitors {{% /tab %}} {{< /tabs >}} +## CI Visibility + +{{< tabs >}} +{{% tab "Exécutions de test" %}} + +La vue [CI Visibility Explorer][101] affiche vos exécutions de test dans un pipeline de CI. + +Pour filtrer des exécutions de test en fonction de tags, utilisez la barre de recherche ou les cases de facettes. Vous devez utiliser le format suivant dans la barre de recherche : `:`. Indiquez par exemple `@test.status:failed`. Pour effectuer une recherche avancée, consultez la section [Rechercher et gérer des tests CI][102]. + +{{< img src="/continuous_integration/test_runs.png" alt="Exécutions de test dans le CI Visibility Explorer" style="width:80%;">}} + +[101]: https://app.datadoghq.com/ci/test-runs +[102]: /fr/tests/search/ + +{{% /tab %}} +{{% tab "Exécutions de pipeline" %}} + +La vue [CI Visibility Explorer][101] affiche vos exécutions de pipeline de CI. + +Pour filtrer des exécutions de pipeline en fonctions de tags, utilisez la barre de recherche ou les cases de facettes. Vous devez utiliser le format suivant dans la barre de recherche : `:`. Indiquez par exemple `@ci.provider.name:gitlab`. Pour effectuer une recherche avancée, consultez la section [Rechercher des lots de tests][102]. + +{{< img src="/continuous_integration/pipeline_executions.png" alt="Exécutions de pipeline dans le CI Visibility Explorer" style="width:80%;">}} + +[101]: https://app.datadoghq.com/ci/pipeline-executions +[102]: /fr/continuous_testing/explorer/search/ + +{{% /tab %}} +{{< /tabs >}} + ## Développeurs -Les tags peuvent être utilisés de diverses façons avec l'[API][15]. Cliquez sur les liens ci-dessous pour accéder aux rubriques indiquées : - -* [Planifier le downtime d'un monitor][16] -* [Interroger le flux d'événements][17] -* [Rechercher des hosts][18] -* Intégrations pour [AWS][19] et [Google Cloud][20] -* [Interroger les points de séries temporelles][21] -* [Récupérer tous les détails d'un monitor][22] -* [Désactiver un monitor][23] -* [Rechercher des monitors][22] -* [Rechercher des groupes de monitors][22] -* [Créer un screenboard][24] -* [Créer un timeboard][24] -* [Créer un SLO][25] -* [Récupérer les détails d'un SLO][26] -* [Mettre à jour un SLO][27] +Il existe diverses façons d'exploiter les tags avec l'[API][17]. + +Consultez la liste de liens ci-dessous pour accéder aux rubriques correspondantes : + +* [Planifier un downtime de monitor][18] +* [Interroger l'Events Explorer][19] +* [Rechercher des hosts][20] +* Intégrations pour [AWS][21] et [Google Cloud][22] +* [Interroger les points de séries temporelles][23] +* [Récupérer tous les détails d'un monitor][24] +* [Désactiver un monitor][25] +* [Rechercher des monitors][24] +* [Rechercher des groupes de monitors][24] +* [Créer un screenboard][26] +* [Créer un timeboard][26] +* [Créer un SLO][27] +* [Récupérer les détails d'un SLO][28] +* [Mettre à jour un SLO][29] ## Pour aller plus loin {{< partial name="whats-next/whats-next.html" >}} [1]: /fr/getting_started/tagging/assigning_tags/ -[2]: /fr/events/ +[2]: /fr/service_management/events/explorer [3]: /fr/integrations/ [4]: /fr/infrastructure/hostmap/ [5]: /fr/infrastructure/ @@ -368,16 +418,21 @@ Les tags peuvent être utilisés de diverses façons avec l'[API][15]. Cliquez s [12]: /fr/logs/explorer/patterns/ [13]: /fr/logs/live_tail/ [14]: /fr/logs/log_configuration/pipelines -[15]: /fr/api/ -[16]: /fr/api/v1/downtimes/#schedule-a-downtime -[17]: /fr/api/v1/events/#query-the-event-stream -[18]: /fr/api/v1/hosts/ -[19]: /fr/api/v1/aws-integration/ -[20]: /fr/api/v1/gcp-integration/ -[21]: /fr/api/v1/metrics/#query-timeseries-points -[22]: /fr/api/v1/monitors/#get-all-monitor-details -[23]: /fr/api/v1/monitors/#mute-a-monitor -[24]: /fr/api/v1/dashboards/#create-a-new-dashboard -[25]: /fr/api/v1/service-level-objectives/#create-a-slo-object -[26]: /fr/api/v1/service-level-objectives/#get-a-slos-details -[27]: /fr/api/v1/service-level-objectives/#update-a-slo \ No newline at end of file +[15]: /fr/real_user_monitoring/explorer/ +[16]: /fr/real_user_monitoring/explorer/search/ +[17]: /fr/api/ +[18]: /fr/api/v1/downtimes/#schedule-a-downtime +[19]: /fr/api/v1/events/#query-the-event-stream +[20]: /fr/api/v1/hosts/ +[21]: /fr/api/v1/aws-integration/ +[22]: /fr/api/v1/gcp-integration/ +[23]: /fr/api/v1/metrics/#query-timeseries-points +[24]: /fr/api/v1/monitors/#get-all-monitor-details +[25]: /fr/api/v1/monitors/#mute-a-monitor +[26]: /fr/api/v1/dashboards/#create-a-new-dashboard +[27]: /fr/api/v1/service-level-objectives/#create-a-slo-object +[28]: /fr/api/v1/service-level-objectives/#get-a-slos-details +[29]: /fr/api/v1/service-level-objectives/#update-a-slo +[30]: /fr/monitors/manage/#monitor-tags +[31]: /fr/monitors/downtimes/ +[32]: /fr/getting_started/tagging/assigning_tags?tab=monitors \ No newline at end of file diff --git a/content/fr/glossary/terms/agent.md b/content/fr/glossary/terms/agent.md new file mode 100644 index 0000000000000..a6bc893ea74fc --- /dev/null +++ b/content/fr/glossary/terms/agent.md @@ -0,0 +1,8 @@ +--- +core_product: +- datadog agent +synonyms: +- Agent Datadog +title: Agent +--- +L'Agent Datadog est un logiciel open source qui s'exécute sur vos hosts. Il recueille les événements et les métriques des hosts et les envoie à la plateforme Datadog. Il peut s'exécuter sur vos hosts locaux (Windows ou macOS), sur des environnements conteneurisés (Docker ou Kubernetes) ou encore sur des centres de données sur site. Pour en savoir plus, consultez la documentation pertinente. \ No newline at end of file diff --git a/content/fr/glossary/terms/amazon_elastic_kubernetes_service.md b/content/fr/glossary/terms/amazon_elastic_kubernetes_service.md index 1c0a38001559e..8be424372960a 100644 --- a/content/fr/glossary/terms/amazon_elastic_kubernetes_service.md +++ b/content/fr/glossary/terms/amazon_elastic_kubernetes_service.md @@ -1,4 +1,6 @@ --- +core_product: +- infrastructure monitoring title: Amazon Elastic Kubernetes Service (EKS) --- EKS est un service Kubernetes géré. \ No newline at end of file diff --git a/content/fr/glossary/terms/analytics.md b/content/fr/glossary/terms/analytics.md new file mode 100644 index 0000000000000..c1f5af155316d --- /dev/null +++ b/content/fr/glossary/terms/analytics.md @@ -0,0 +1,6 @@ +--- +core_product: +- log management +title: analytics +--- +L'analyse de logs consiste à interroger, regrouper et visualiser des logs dans le but d'explorer leurs données et d'obtenir des informations exploitables. \ No newline at end of file diff --git a/content/fr/glossary/terms/annotation.md b/content/fr/glossary/terms/annotation.md index a3c63c3f0992e..ab3d4da9c6258 100644 --- a/content/fr/glossary/terms/annotation.md +++ b/content/fr/glossary/terms/annotation.md @@ -1,4 +1,6 @@ --- +core_product: +- infrastructure monitoring title: Annotation --- Dans Kubernetes, les annotations sont des mappages clé/valeur pouvant être utilisés pour associer des métadonnées aux objets Kubernetes. \ No newline at end of file diff --git a/content/fr/glossary/terms/arn.md b/content/fr/glossary/terms/arn.md index 17034490a7895..ffa40f0bda6f1 100644 --- a/content/fr/glossary/terms/arn.md +++ b/content/fr/glossary/terms/arn.md @@ -1,4 +1,6 @@ --- +core_product: +- infrastructure monitoring title: Amazon Resource Name (ARN) --- Un ARN correspond à une chaîne qui identifie de façon unique une ressource AWS. Consultez la [documentation relative à AWS][1] pour en savoir plus. diff --git a/content/fr/glossary/terms/autodiscovery.md b/content/fr/glossary/terms/autodiscovery.md new file mode 100644 index 0000000000000..933d018f5dbc8 --- /dev/null +++ b/content/fr/glossary/terms/autodiscovery.md @@ -0,0 +1,6 @@ +--- +core_product: +- datadog agent +title: Autodiscovery +--- +La fonctionnalité Autodiscovery Datadog identifie automatiquement les services en cours d'exécution sur des conteneurs. Elle vous permet de définir des modèles de configuration pour les checks d'Agent et de spécifier les conteneurs auxquels chaque check s'applique. \ No newline at end of file diff --git a/content/fr/glossary/terms/configmap.md b/content/fr/glossary/terms/configmap.md new file mode 100644 index 0000000000000..0ce291b6b4c94 --- /dev/null +++ b/content/fr/glossary/terms/configmap.md @@ -0,0 +1,6 @@ +--- +core_product: +- infrastructure monitoring +title: ConfigMap +--- +Une ConfigMap est un objet d'API qui stocke des données sous la forme de paires key-value. Les ConfigMaps peuvent être transmises à des pods sous la forme de variables d'environnement, d'arguments de ligne de commande ou de fichiers de configuration au sein d'un volume. \ No newline at end of file diff --git a/content/fr/glossary/terms/container_runtime.md b/content/fr/glossary/terms/container_runtime.md index 9fc1744a6c8ae..bbe2adb6cded3 100644 --- a/content/fr/glossary/terms/container_runtime.md +++ b/content/fr/glossary/terms/container_runtime.md @@ -1,4 +1,6 @@ --- +core_product: +- infrastructure monitoring title: runtime de conteneur --- Un runtime de conteneur correspond à la partie du moteur de conteneur qui monte le conteneur et arrête/lance la conteneurisation. \ No newline at end of file diff --git a/content/fr/glossary/terms/containerd.md b/content/fr/glossary/terms/containerd.md new file mode 100644 index 0000000000000..dd314730011e7 --- /dev/null +++ b/content/fr/glossary/terms/containerd.md @@ -0,0 +1,6 @@ +--- +core_product: +- infrastructure monitoring +title: containerd +--- +Containerd est un runtime de conteneurs. \ No newline at end of file diff --git a/content/fr/glossary/terms/cri.md b/content/fr/glossary/terms/cri.md index 2dd87b69da831..914c6532337ab 100644 --- a/content/fr/glossary/terms/cri.md +++ b/content/fr/glossary/terms/cri.md @@ -1,4 +1,6 @@ --- +core_product: +- infrastructure monitoring title: Container Runtime Interface (CRI) --- L'interface CRI permet à un kubelet d'utiliser différents runtimes de conteneur. \ No newline at end of file diff --git a/content/fr/glossary/terms/datadog.md b/content/fr/glossary/terms/datadog.md new file mode 100644 index 0000000000000..5944380060f11 --- /dev/null +++ b/content/fr/glossary/terms/datadog.md @@ -0,0 +1,6 @@ +--- +core_product: +- datadog agent +title: datadog.yaml +--- +Le fichier `datadog.yaml` constitue le principal fichier de configuration de l'Agent. Il vous permet d'activer et de désactiver un vaste choix de fonctionnalités. Pour en savoir plus, consultez la documentation pertinente. \ No newline at end of file diff --git a/content/fr/glossary/terms/delay.md b/content/fr/glossary/terms/delay.md index e5d73239f5003..4c162f98b2a65 100644 --- a/content/fr/glossary/terms/delay.md +++ b/content/fr/glossary/terms/delay.md @@ -1,5 +1,6 @@ --- +core_product: +- alerts title: délai --- -Un délai d'évaluation indique au monitor qu'il doit attendre un nombre spécifié de secondes avant de commencer l'évaluation. -Pour en savoir plus, consultez la documentation. \ No newline at end of file +Un délai d'évaluation définit la durée en secondes pendant laquelle un monitor doit patienter avant d'initier son processus d'évaluation. Pour en savoir plus, consultez la rubrique Conditions d'alerte avancées. \ No newline at end of file diff --git a/content/fr/glossary/terms/dogstatsd.md b/content/fr/glossary/terms/dogstatsd.md new file mode 100644 index 0000000000000..acb09ce2057af --- /dev/null +++ b/content/fr/glossary/terms/dogstatsd.md @@ -0,0 +1,8 @@ +--- +core_product: +- datadog agent +title: DogStatsD +--- +Le terme DogStatsD est utilisé pour désigner deux notions : le protocole basé sur StatsD et l'application de transmission de métriques qui implémente ce protocole. Le protocole DogStatsD est une extension du protocole StatsD, avec quelques modifications spécifiques à la plateforme Datadog. L'application DogStatsD est un service léger intégré à l'Agent qui est utilisé pour l'envoi de métriques. + +Consultez la documentation DogStatsD pour en savoir plus. \ No newline at end of file diff --git a/content/fr/glossary/terms/explorer.md b/content/fr/glossary/terms/explorer.md index 129d5529db73e..de2d0bba5ccf9 100644 --- a/content/fr/glossary/terms/explorer.md +++ b/content/fr/glossary/terms/explorer.md @@ -1,5 +1,11 @@ --- title: explorer --- -L'Events Explorer est une page de Datadog où les utilisateurs peuvent consulter et agréger les événements. L'Events Explorer affiche les événements les plus récents générés par l'infrastructure et les services de l'utilisateur, notamment pour les déploiements de code, la santé des services, les modifications apportées à la configuration ou les alertes de surveillance. -Pour en savoir plus, consultez la documentation. \ No newline at end of file +L'Events Explorer est une page de Datadog où vous pouvez consulter et agréger les événements. L'Events Explorer affiche les événements les plus récents générés par l'infrastructure et les services de l'utilisateur, notamment pour les déploiements de code, la santé des services, les modifications apportées à la configuration ou les alertes de surveillance. +Pour en savoir plus, consultez la [documentation relative à lʼEvents Explorer][3]. + +Le Trace Explorer est une page de Datadog où vous pouvez [consulter et créer des analyses][1] sur 100 % des traces ingérées pendant 15 minutes, et sur toutes les [spans indexées][2] pendant 15 jours. + +[1]: /fr/tracing/trace_explorer/ +[2]: /fr/glossary/#indexed +[3]: /fr/events/explorer/ \ No newline at end of file diff --git a/content/fr/glossary/terms/flow.md b/content/fr/glossary/terms/flow.md new file mode 100644 index 0000000000000..8b72da3ed5110 --- /dev/null +++ b/content/fr/glossary/terms/flow.md @@ -0,0 +1,8 @@ +--- +core_product: +- network performance monitoring +title: flux +--- +En réseautique, un flux désigne le chemin parcouru par une communication, d'un endpoint à un autre. La [Network Map][1] de Datadog vous permet de visualiser le flux des données réseau. Pour en savoir plus, consultez la documentation pertinente. + +[1]: /fr/network_monitoring/performance/network_map/ \ No newline at end of file diff --git a/content/fr/glossary/terms/global_variable.md b/content/fr/glossary/terms/global_variable.md new file mode 100644 index 0000000000000..6482645a79361 --- /dev/null +++ b/content/fr/glossary/terms/global_variable.md @@ -0,0 +1,6 @@ +--- +core_product: +- synthetic monitoring +title: variable globale +--- +Dans le cadre de la surveillance Synthetic, une variable globale désigne une variable qui est accessible durant tous les tests Synthetic d'un utilisateur. Pour en savoir plus, consultez la documentation pertinente. \ No newline at end of file diff --git a/content/fr/glossary/terms/horizontalpodautoscaler.md b/content/fr/glossary/terms/horizontalpodautoscaler.md index f96fc366eb9d3..99e064dc024cc 100644 --- a/content/fr/glossary/terms/horizontalpodautoscaler.md +++ b/content/fr/glossary/terms/horizontalpodautoscaler.md @@ -1,4 +1,6 @@ --- +core_product: +- infrastructure monitoring title: Autoscaler de pods horizontaux (HPA) --- Dans Kubernetes, un HPA permet de déployer automatiquement un nombre supplémentaire de pods pour répondre à la demande. \ No newline at end of file diff --git a/content/fr/glossary/terms/node_agent.md b/content/fr/glossary/terms/node_agent.md new file mode 100644 index 0000000000000..e229f801ecac9 --- /dev/null +++ b/content/fr/glossary/terms/node_agent.md @@ -0,0 +1,6 @@ +--- +core_product: +- datadog agent +title: Agent de nœud +--- +L'Agent de nœud correspond à la version de l'Agent Datadog qui s'exécute sur un host. \ No newline at end of file diff --git a/content/fr/glossary/terms/secret_(Kubernetes).md b/content/fr/glossary/terms/secret_(Kubernetes).md index 97819e520efba..a748aefa7308c 100644 --- a/content/fr/glossary/terms/secret_(Kubernetes).md +++ b/content/fr/glossary/terms/secret_(Kubernetes).md @@ -1,4 +1,6 @@ --- +core_product: +- infrastructure monitoring title: Secrets (Kubernetes) --- Dans Kubernetes, un secret est un objet qui peut être utilisé pour stocker des données sensibles telles que des mots de passe, des tokens et des clés. \ No newline at end of file diff --git a/content/fr/integrations/azure.md b/content/fr/integrations/azure.md index 292c5db033eed..713a2b7917f51 100644 --- a/content/fr/integrations/azure.md +++ b/content/fr/integrations/azure.md @@ -3,9 +3,12 @@ aliases: - /fr/guides/azure/ - /fr/integrations/azure_storage/ categories: -- cloud - azure +- cloud +- iot - log collection +- network +- notifications dependencies: [] description: Recueillez des métriques à partir d'instances et de nombreux services Azure. @@ -31,15 +34,36 @@ further_reading: - link: https://www.datadoghq.com/blog/azure-container-apps/ tag: Blog text: Surveiller Azure Container Apps avec Datadog +- link: https://www.datadoghq.com/blog/azure-pipelines-ci-visibility/ + tag: Blog + text: Surveiller des pipelines Azure avec la solution CI Visibility Datadog - link: https://www.datadoghq.com/blog/azure-government-monitoring-datadog/ tag: Blog text: Surveiller Azure Government avec Datadog +- link: https://www.datadoghq.com/blog/monitor-enterprise-azure-environments-with-datadog/ + tag: Blog + text: Activer en quelques minutes la surveillance d'environnements Azure professionnels + avec Datadog +- link: https://docs.datadoghq.com/integrations/guide/azure-architecture-and-configuration/ + tag: Documentation + text: Architecture et configuration de l'intégration Azure - link: https://docs.datadoghq.com/integrations/guide/azure-portal/ tag: Documentation text: Datadog sur le portail Azure - link: https://docs.datadoghq.com/agent/faq/why-should-i-install-the-agent-on-my-cloud-instances/ tag: Documentation text: Pourquoi installer l'Agent Datadog sur mes instances cloud ? +- link: https://www.datadoghq.com/blog/monitor-azure-openai-with-datadog/ + tag: Blog + text: Surveiller Azure OpenAI avec Datadog +- link: https://www.datadoghq.com/blog/datadog-aks-cluster-extension/ + tag: Blog + text: Simplifier la surveillance des conteneurs Azure grâce à l'extension AKS Cluster + Datadog +- link: https://www.datadoghq.com/blog/azure-integration-configuration/ + tag: Blog + text: Personnaliser les configurations d'observabilité de toutes vos intégrations + Azure depuis une interface unique git_integration_title: azure has_logo: true integration_id: azure @@ -49,7 +73,29 @@ is_public: true kind: integration manifest_version: '1.0' monitors: + '[Azure App Gateway] Backend Hosts': assets/monitors/app_gateway_backend_hosts.json + '[Azure App Gateway] CPU Utilization': assets/monitors/app_gateway_cpu_utilization.json + '[Azure App Gateway] Failed Requests': assets/monitors/app_gateway_failed_requests.json + '[Azure App Gateway] Response HTTP Status Anomaly': assets/monitors/app_gateway_http_status_anomalies.json + '[Azure App Service] App Service Errors': assets/monitors/app_service_app_service_errors.json + '[Azure App Service] App Service Plan CPU Utilization': assets/monitors/app_service_cpu.json + '[Azure App Service] App Service Plan Memory Utilization': assets/monitors/app_service_memory.json + '[Azure App Service] Connections': assets/monitors/app_service_connections.json + '[Azure App Service] Function App Errors': assets/monitors/app_service_function_app_errors.json + '[Azure App Service] Requests': assets/monitors/app_service_requests.json + '[Azure App Service] Response Time': assets/monitors/app_service_response_times.json + '[Azure SQL Database] CPU Utilization': assets/monitors/sql_db_cpu_percent.json + '[Azure SQL Database] DTU Consumption': assets/monitors/sql_db_dtu_consumption_percent.json + '[Azure SQL Database] Deadlock Anomalies': assets/monitors/sql_db_deadlock_anomalies.json + '[Azure SQL Database] Failed Connections': assets/monitors/sql_db_connections_failed.json + '[Azure SQL Database] Georeplication Link Status ': assets/monitors/sql_db_replication_links.json + '[Azure SQL Database] Storage Utilization': assets/monitors/sql_db_storage_percent.json + '[Azure VM] CPU Utilization Monitor': assets/monitors/vm_cpu_utilization.json + '[Azure VM] Resource Health Status Monitor': assets/monitors/vm_resource_health_status.json + '[Azure] API Rate Limit': assets/monitors/rate_limits.json '[Azure] Integration Errors': assets/monitors/integration_errors.json + '[Azure] Resource Quotas': assets/monitors/resource_quotas.json + '[Azure] Service Health Events': assets/monitors/service_health_events.json name: azure public_title: Intégration Datadog/Microsoft Azure short_description: Recueillez des métriques à partir d'instances et de nombreux services @@ -57,883 +103,111 @@ short_description: Recueillez des métriques à partir d'instances et de nombreu version: '1.0' --- + ## Présentation L'intégration Azure de Datadog permet de recueillir des métriques et des logs à partir de votre environnement Azure. Les options de configuration disponibles varient selon le site Datadog que votre organisation utilise : -**Tous les sites** : tous les sites Datadog peuvent utiliser le processus d'inscription d'application afin de mettre en place la collecte des métriques. Ils peuvent également tous configurer un Event Hub de façon à envoyer les logs de la plateforme Azure. -**US3 :** si votre organisation utilise le site Datadog US3, vous pouvez tirer profit de l'intégration native Azure pour simplifier la gestion et la collecte des données de votre environnement Azure. Nous vous recommandons d'utiliser dès que possible cette méthode. Il vous suffit de configurer une ressource Datadog dans Azure afin d'associer vos abonnements Azure à votre organisation Datadog. Il n'est alors pas nécessaire d'utiliser le processus d'inscription d'application pour la collecte des métriques ni de configurer un Event Hub pour l'envoi des logs. +**Tous les sites** : tous les sites Datadog peuvent utiliser le processus d'inscription d'application afin de mettre en place la collecte des métriques. Ils peuvent également tous configurer un Event Hub de façon à envoyer les logs de la plateforme Azure. _Dans la mesure où l'intégration Azure permet de surveiller la région chinoise d'Azure, toute utilisation des services Datadog en Chine occidentale (ou en connexion avec des environnements se situant au sein de la Chine occidentale) est sujette à l'avertissement figurant à la section [Emplacements de service restreints][1] (en anglais) de notre site Web._ -{{< site-region region="us,eu,us5,gov" >}} -
Sélectionnez le site US3 dans le volet latéral de cette page ou modifiez le sélecteur de site pour vérifier que vous consultez bien la version de cette documentation dédiée au site US3.
-{{< /site-region >}} +**US3** : si votre organisation utilise le site Datadog US3, vous pouvez tirer profit de l'intégration native Azure pour simplifier la gestion et la collecte des données de votre environnement Azure. Il est recommandé d'utiliser dès que possible cette méthode. Il vous suffit de créer une ressource Datadog dans Azure afin d'associer vos abonnements Azure à votre organisation Datadog. Il n'est alors pas nécessaire d'utiliser le processus d'inscription d'application pour la collecte des métriques ni de configurer un Event Hub pour l'envoi des logs. -Connectez-vous à Microsoft Azure pour : -- Obtenir des métriques sur des machines virtuelles Azure sans avoir nécessairement à installer l'Agent Datadog. -- Recueillir les métriques d'Azure Monitor standard pour tous les services Azure : Application Gateway, App Service (Web et Mobile), Batch, Event Hubs, IoT Hub, Logic Apps, Cache pour Redis, batterie de serveurs (plan App Service), SQL Database, pools élastiques SQL, groupes de machines virtuelles identiques, et bien d'autres. -- Appliquer un tag à vos métriques Azure comportant des informations spécifiques à Azure à propos de la ressource associée, comme la région, le groupe de ressources ou des tags Azure personnalisés. -- Récupérer des métriques générées par Datadog afin d'obtenir des insights uniques sur votre environnement Azure. -- Corréler dans votre organisation Datadog les données de vos applications Azure pour l'ensemble des logs, métriques, traces APM, activités utilisateur, etc. +Associez Microsoft Azure pour : +- Obtenir des métriques sur des machines virtuelles Azure sans avoir nécessairement à installer l'Agent Datadog +- Recueillir des métriques Azure Monitor standard pour tous les services Azure : Application Gateway, App Service (Web et mobile), Batch Service, Event Hubs, IoT Hub, Logic App, Redis Cache, Server Farm (plan App Service), SQL Database, SQL Elastic Pool, Virtual Machine Scale Set, et bien d'autres encore +- Ajouter à vos métriques Azure des tags contenant des informations à propos de la ressource associée, comme la région, le groupe de ressources et les tags définis dans votre environnement Azure +- Récupérer des métriques générées par Datadog, afin d'obtenir des informations exploitables uniques sur votre environnement Azure +- Mettre en corrélation des données de vos applications Azure au sein de votre organisation Datadogpour vos logs, vos métriques, le tracing APM ou encore l'activité utilisateur
-L'intégration Azure de Datadog est conçue pour recueillir toutes les métriques en provenance d'Azure Monitor. Datadog s'efforce de mettre régulièrement à jour sa documentation afin d'inclure chaque sous-intégration. Toutefois, les métriques et les services proposés par les différents services cloud étant en permanente évolution, il est possible que la liste ne soit pas à jour.
Les métriques azure.*.status et azure.*.count sont générées par Datadog à partir d'Azure Resource Health. Pour en savoir plus, consultez la page Statut et métriques count Azure. +L'intégration Azure de Datadog est conçue pour recueillir toutes les métriques en provenance d'Azure Monitor. Datadog s'efforce de mettre régulièrement à jour sa documentation afin d'inclure chaque sous-intégration. Toutefois, les métriques et les services proposés par les différents services cloud étant en permanente évolution, il est possible que la liste ne soit pas actuelle.
Les métriques azure.*.status et azure.*.count sont générées par Datadog à partir d'Azure Resource Health. Pour en savoir plus, consultez la section Métrique count et status Azure.
| Intégration | Description | |---------------------------------|-----------------------------------------------------------------------------------------------------------| -| [Analysis Services][1] | Un service qui fournit des modèles de données dans le cloud. | -| [Gestion des API][2] | Un service pour publier, sécuriser, transformer, maintenir et surveiller les API. | -| [App Service][3] | Un service de déploiement et de mise à l'échelle d'applications Web, mobiles, API et de logique métier | -| [App Service Environment][4] | Un service qui fournit un environnement pour l'exécution sécurisée de vos applications App Service à grande échelle. | -| [Plan App Service][5] | Un ensemble de ressources de calcul nécessaires à l'exécution d'une application Web. | -| [Application Gateway][6] | Un équilibreur de charge du trafic Web qui vous permet de gérer le trafic vers vos applications Web. | -| [Automation][7] | Un service conçu pour faciliter la gestion de la configuration et l'automatisation au sein de vos environnements. | -| [Batch Service][8] | Un planificateur et processeur de tâches gérés | -| [Cognitive Services][9] | Un ensemble d'API, de SDK et de services mis à votre disposition pour vous permettre de créer des applications sans connaissances en intelligence artificielle ou en science des données. | -| [Container Instances][10] | Un service qui vous permet de déployer des conteneurs sans avoir à provisionner ou gérer l'infrastructure sous-jacente. | -| [Container Service][11] | Un cluster Kubernetes, DC/OS ou Docker Swarm prêt pour la production. | -| [Cosmos DB][12] | Un service de base de données qui prend en charge les bases de données clé-valeur, de documents, en colonnes et graphiques. | -| [Customer Insights][13] | Permet aux organisations de consolider divers jeux de données pour bénéficier d'une vue globale sur leurs clients. | -| [Data Explorer][14] | Un service d'exploration de données rapide et hautement évolutif. | -| [Data Factory][15] | Un service qui permet de composer des services de stockage, de déplacement et de traitement des données au sein de pipelines de données automatisés. | -| [Data Lake Analytics][16] | Un service d'analyse qui simplifie le traitement des tâches de Big Data. | -| [Data Lake Store][17] | Une solution Data Lake sans limite qui améliore l'analytique Big Data. | -| [Database for MariaDB][18] | Un service qui fournit une version communautaire entièrement gérée et prête à l'emploi de MariaDB. | -| [Event Grid][19] | Un service pour gérer le routage des événements qui permet une consommation d'événements uniforme à l'aide d'un modèle pub/sub. | -| [Event Hubs][20] | Un service géré de flux de données à grande échelle | -| [ExpressRoute][21] | Un service pour étendre vos réseaux sur site dans le cloud. | -| [Pare-feu][22] | Un service de sécurité réseau basé sur le cloud pour protéger les ressources de votre réseau virtuel Azure. | -| [Functions][23] | Un service conçu pour exécuter du code sans serveur en réponse à un événement. | -| [HDInsights][24] | Un service cloud conçu pour traiter d'importants volumes de données. | -| [IoT Hub][25] | Connexion, surveillance et gestion de milliards de ressources IoT | -| [Key Vault][26] | Un service conçu pour protéger et gérer les clés de chiffrement et les secrets utilisés par les services et applications cloud. | -| [Load Balancer][27] | Permet de mettre à l'échelle vos applications et d'assurer la haute disponibilité de vos services. | -| [Logic Apps][28] | Conception de solutions d'intégration puissantes | -| [Machine Learning][29] | Service de machine learning pour l'entreprise permettant d'accélérer la création et le déploiement de modèles | -| [Network Interfaces][30] | Permet à une machine virtuelle de communiquer avec des ressources Internet, Azure et locales. | -| [Notification Hubs][31] | Un moteur de notifications Push qui vous permet d'envoyer des notifications vers n'importe quelle plateforme depuis n'importe quel backend. | -| [Adresse IP publique][32] | Une ressource qui permet d'assurer une connectivité entrante et une connectivité sortante à partir d'Internet. | -| [Coffre Recovery Services][33] | Une entité qui stocke les sauvegardes et les points de récupération créés au fil du temps. | -| [Redis Cache][34] | Cache de données géré | -| [Relay][35] | Permet l'exposition sécurisée des services exécutés dans votre réseau d'entreprise sur le cloud public. | -| [Recherche cognitive][36] | Un service de recherche basé sur le cloud qui fournit des outils permettant d'ajouter une expérience de recherche riche. | -| Stockage | Stockage d'[objets blob][37], de [fichiers][38], de [files d'attente][39] et de [tables][40]. | -| [Stream Analytics][41] | Un moteur de traitement d'événements pour analyser d'importants volumes de données diffusées à partir d'appareils. | -| [SQL Database][42] | Base de données relationnelle fortement évolutive dans le cloud | -| [Pool élastique SQL Database][43] | Gestion des performances de plusieurs bases de données | -| [Utilisation et quotas][44] | Surveillance de votre utilisation d'Azure. | -| [Machine virtuelle][45] | Service de gestion de machines virtuelles | -| [Virtual Machine Scale Sets][46] | Déploiement, gestion et mise à l'échelle automatique d'un groupe de machines virtuelles identiques | -| [Réseau virtuel][47] | Permet aux ressources Azure de communiquer entre elles, avec Internet et avec les réseaux sur site en toute sécurité. | +| [Analysis Services][2] | Un service qui fournit des modèles de données dans le cloud. | +| [Gestion des API][3] | Un service pour publier, sécuriser, transformer, maintenir et surveiller les API. | +| [App Service][4] | Un service de déploiement et de mise à l'échelle d'applications Web, mobiles, API et de logique métier. | +| [App Service Environment][5] | Un service qui fournit un environnement pour l'exécution sécurisée de vos applications App Service à grande échelle. | +| [Plan App Service][6] | Un ensemble de ressources de calcul nécessaires à l'exécution d'une application Web. | +| [Application Gateway][7] | Un équilibreur de charge du trafic Web qui vous permet de gérer le trafic vers vos applications Web. | +| [Automation][8] | Un service conçu pour faciliter la gestion de la configuration et l'automatisation au sein de vos environnements. | +| [Batch Service][9] | Un planificateur et processeur de tâches gérés. | +| [Cognitive Services][10] | Un ensemble d'API, de SDK et de services mis à votre disposition pour vous permettre de créer des applications sans connaissances en intelligence artificielle ou en science des données. | +| [Container Instances][11] | Un service qui vous permet de déployer des conteneurs sans avoir à provisionner ou gérer l'infrastructure sous-jacente. | +| [Container Service][12] | Un cluster Kubernetes, DC/OS ou Docker Swarm prêt pour la production. | +| [Cosmos DB][13] | Un service de base de données qui prend en charge les bases de données clé-valeur, de documents, en colonnes et graphiques. | +| [Customer Insights][14] | Permet aux organisations de consolider divers jeux de données pour bénéficier d'une vue globale sur leurs clients. | +| [Data Explorer][15] | Un service d'exploration de données rapide et hautement évolutif. | +| [Data Factory][16] | Un service qui permet de composer des services de stockage, de déplacement et de traitement des données au sein de pipelines de données automatisés. | +| [Data Lake Analytics][17] | Un service d'analyse qui simplifie le traitement des tâches de Big Data. | +| [Data Lake Store][18] | Une solution Data Lake sans limites qui améliore l'analytique Big Data. | +| [Database for MariaDB][19] | Un service qui fournit une version communautaire entièrement gérée et prête à l'emploi de MariaDB. | +| [Event Grid][20] | Un service pour gérer le routage des événements qui permet une consommation d'événements uniforme à l'aide d'un modèle pub/sub. | +| [Event Hubs][21] | Un service géré de flux de données à grande échelle. | +| [ExpressRoute][22] | Un service pour étendre vos réseaux sur site dans le cloud. | +| [Pare-feu][23] | Un service de sécurité réseau basé sur le cloud pour protéger les ressources de votre réseau virtuel Azure. | +| [Functions][24] | Un service conçu pour exécuter du code sans serveur en réponse à un événement. | +| [HDInsights][25] | Un service cloud conçu pour traiter d'importants volumes de données. | +| [IoT Hub][26] | Connexion, surveillance et gestion de milliards de ressources IoT. | +| [Key Vault][27] | Un service conçu pour protéger et gérer les clés de chiffrement et les secrets utilisés par les services et applications cloud. | +| [Load Balancer][28] | Mise à l'échelle de vos applications et haute disponibilité pour vos services. | +| [Logic Apps][29] | Conception de solutions d'intégration puissantes. | +| [Machine Learning][30] | Service de machine learning pour l'entreprise permettant d'accélérer la création et le déploiement de modèles | +| [Network Interfaces][31] | Permet à une machine virtuelle de communiquer avec des ressources Internet, Azure et locales. | +| [Notification Hubs][32] | Un moteur de notifications Push qui vous permet d'envoyer des notifications vers n'importe quelle plateforme depuis n'importe quel backend. | +| [Adresse IP publique][33] | Une ressource qui permet d'assurer une connectivité entrante et une connectivité sortante à partir d'Internet. | +| [Coffre Recovery Services][34] | Une entité qui stocke les sauvegardes et les points de récupération créés au fil du temps. | +| [Redis Cache][35] | Cache de données géré. | +| [Relay][36] | Permet l'exposition sécurisée des services exécutés dans votre réseau d'entreprise sur le cloud public. | +| [Recherche cognitive][37] | Un service de recherche basé sur le cloud qui fournit des outils permettant d'ajouter une expérience de recherche riche. | +| Stockage | Stockage d'[objets blob][38], de [fichiers][39], de [files d'attente][40] et de [tables][41]. | +| [Stream Analytics][42] | Un moteur de traitement d'événements pour analyser d'importants volumes de données diffusées à partir d'appareils. | +| [SQL Database][43] | Base de données relationnelle fortement évolutive dans le cloud. | +| [Pool élastique SQL Database][44] | Gestion des performances de plusieurs bases de données. | +| [Synapse Analytics][45] | Service d'analyse proposant à la fois des fonctionnalités d'intégration de données, d'entreposage de données à l'échelle de votre entreprise et d'analyse Big Data. | +| [Utilisation et quotas][46] | Surveillance de votre utilisation d'Azure. | +| [Machine virtuelle][47] | Service de gestion de machines virtuelles. | +| [Groupe de machines virtuelles identiques][48] | Déploiement, gestion et mise à l'échelle automatique d'un groupe de machines virtuelles identiques. | +| [Réseau virtuel][49] | Permet aux ressources Azure de communiquer entre elles, avec Internet et avec les réseaux sur site en toute sécurité. | ## Configuration -{{< site-region region="us,eu,gov,us5" >}} - -**Remarque** : les instructions de configuration sont différentes pour l'intégration native Azure (disponible pour les clients utilisant le site Datadog US3). Si vous utilisez l'intégration native Azure, [modifiez le sélecteur de site][60] pour afficher les instructions propres au site US3. Pour en savoir plus, consultez la rubrique [Présentation][61]. - -### Installation - -Intégrez votre compte Microsoft Azure à Datadog à l'aide de l'outil d'interface de ligne de commande Azure ou du portail Azure. Cette méthode d'intégration fonctionne automatiquement sur tous les clouds Azure : Public, Chine, Allemagne et Government. - -Suivez les instructions ci-dessous afin que Datadog détecte automatiquement le type de cloud que vous utilisez pour terminer l'intégration. - -#### Intégration via l'interface de ligne de commande Azure - -Afin d'intégrer Datadog à Azure à l'aide de l'interface de ligne de commande Azure, assurez-vous que [celle-ci est bien installée][44]. - -{{< tabs >}} -{{% tab "CLI Azure v2.0" %}} - -Commencez par vous connecter au compte Azure que vous souhaitez intégrer à Datadog : - -```text -az login -``` - -Exécutez la commande « account show » : - -```text -az account show -``` - -Saisissez la valeur `Tenant ID` générée dans le [carré d'intégration Azure de Datadog][1], sous **Tenant name/ID**. - -Créez une application en tant que service principal à l'aide du format : - -```text -az ad sp create-for-rbac --role "Monitoring Reader" --scopes /subscriptions/{id_abonnement} -``` - -- Cette commande accorde au service principal le rôle `monitoring reader` pour l'abonnement que vous souhaitez surveiller. -- La valeur `appID` générée à partir de cette commande doit être saisie dans le [carré d'intégration Azure de Datadog][1], sous **Client ID**. -- Ajoutez `--name ` pour utiliser un nom personnalisé. Autrement, Azure générera un nom unique. Le nom n'est pas utilisé dans le processus de configuration. -- Ajoutez `--password ` pour utiliser un mot de passe personnalisé. Autrement, Azure générera un mot de passe unique. Ce mot de passe doit être saisi dans le [carré d'intégration Datadog/Azure][1], sous **Client Secret**. - - -[1]: https://app.datadoghq.com/account/settings#integrations/azure -{{% /tab %}} -{{% tab "CLI Azure v1.0" %}} - -Commencez par vous connecter au compte Azure que vous souhaitez intégrer à Datadog : - -```text -azure login -``` - -Exécutez la commande « account show » : - -```text -az account show -``` - -Saisissez la valeur `Tenant ID` générée dans le [carré d'intégration Azure de Datadog][1], sous **Tenant name/ID**. - -Créez un nom et un mot de passe : - -```text -azure ad sp create -n -p -``` - -- Le `` n'est PAS utilisé et est seulement requis dans le cadre du processus de configuration. -- Le `` choisi doit être saisi dans le [carré d'intégration Azure de Datadog][1], sous **Client Secret**. -- La valeur `Object Id` renvoyée par cette commande est utilisée pour `` dans la prochaine commande. - -Créez une application en tant que service principal à l'aide du format : - -```text -azure role assignment create --objectId -o "Monitoring Reader" -c /subscriptions// -``` - -- Cette commande accorde au service principal le rôle `monitoring reader` pour l'abonnement que vous souhaitez surveiller. -- La valeur `Service Principal Name` générée à partir de cette commande doit être saisie dans le [carré d'intégration Azure de Datadog][1], sous **Client ID**. -- `` correspond à l'abonnement Azure que vous souhaitez surveiller et est représenté par `ID` dans `azure account show` ou sur le portail. - - -[1]: https://app.datadoghq.com/account/settings#integrations/azure -{{% /tab %}} -{{% tab "CLI Azure antérieures à la v1.0" %}} - -Commencez par vous connecter au compte Azure que vous souhaitez intégrer à Datadog : - -```text -azure login -``` - -Exécutez la commande « account show » : - -```text -az account show -``` - -Saisissez la valeur `Tenant ID` générée dans le [carré d'intégration Azure de Datadog][1], sous **Tenant name/ID**. - -Créez un nom, home-page, identifier-uris et mot de passe : - -```text -azure ad app create --name "" --home-page "" --identifier-uris "" --password "" -``` - -- Les valeurs `name`, `home-page` et `identifier-uris` ne sont PAS utilisées et sont seulement requises dans le cadre du processus de configuration. -- Le `password` que vous choisissez doit être saisi dans le [carré d'intégration Azure de Datadog][1], sous **Client Secret**. -- La valeur `AppId` renvoyée par cette commande est utilisée dans la prochaine commande et doit être saisie dans le [carré d'intégration Azure de Datadog][1], sous **Client ID**. - -Créez un service principal avec : - -Pour les interfaces de ligne de commande Azure < 0.10.2 : - -```text -azure ad sp create {app-id} -``` - -Pour les interfaces de ligne de commande Azure >= 0.10.2 : - -```text -azure ad sp create -a {app-id} -``` - -- La valeur `Object Id` renvoyée par cette commande est utilisée pour `` dans la prochaine commande. - -Créez une application Active Directory à l'aide du format : - -```text -azure role assignment create --objectId --roleName "Monitoring Reader" --subscription -``` - -- Cette commande accorde au service principal le rôle `monitoring reader` pour l'abonnement que vous souhaitez surveiller. -- `` correspond à l'abonnement Azure que vous souhaitez surveiller et est représenté par `ID` dans `azure account show` ou sur le portail. - - -[1]: https://app.datadoghq.com/account/settings#integrations/azure -{{% /tab %}} -{{< /tabs >}} - -#### Intégration via le portail Azure - -1. [Créez une inscription d'application](#creer-l-inscription-d-application) dans votre Active Directory et envoyez les bons identifiants à Datadog. -2. [Donnez à l'application une autorisation de lecture](#accorder-un-acces-en-lecture-a-l-application) pour tous les abonnements que vous souhaitez surveiller. - -##### Créer l'inscription d'application - -1. Sous **Azure Active Directory**, accédez à **App Registrations** et cliquez sur **New application registration** : -2. Saisissez les informations suivantes et cliquez sur le bouton **Create**. Le nom et l'URL de connexion ne sont pas utilisés et sont seulement requis dans le cadre du processus de configuration. - - - Name : `Datadog Auth` - - Supported Account Types : `Accounts in this organizational directory only (Datadog)` - - Redirect URI : {{< region-param key="dd_full_site" code="true" >}} - -{{< img src="integrations/azure/Azure_create_ad.png" alt="Création de l'app Azure" popup="true" style="width:80%;" >}} - -##### Accorder un accès en lecture à l'application - -1. Accédez à la section **Subscriptions** en utilisant la barre de recherche ou depuis la barre latérale de gauche : - - {{< img src="integrations/azure/subscriptions_icon.png" alt="Icône des abonnements" popup="true" style="width:25%">}} - -2. Cliquez sur l'abonnement que vous souhaitez surveiller. -3. Sélectionnez **Access control (IAM)** dans le menu d'abonnement et cliquez sur **Add** -> **Add role assignment** : - - {{< img src="integrations/azure/azure-add-role.png" alt="Add Role Assignment" popup="true" style="width:80%">}} - -4. Pour **Role**, sélectionnez **Monitoring Reader**. Sous **Select**, choisissez le nom de l'application que vous avez créée : - - {{< img src="integrations/azure/azure-select-role-app.png" alt="Sélection du rôle et de l'app" popup="true" style="width:60%">}} - -5. Cliquez sur **Save**. -6. Répétez ce processus pour tout autre abonnement que vous souhaitez surveiller à l'aide de Datadog. **Remarque** : les utilisateurs d'Azure Lighthouse peuvent ajouter les abonnements des locataires clients. - -**Remarque** : les diagnostics doivent être activés pour que les machines virtuelles déployées avec ARM puissent recueillir des métriques. Consultez la section [Activer les diagnostics][45]. - -##### Terminer l'intégration - -1. Sous **App Registrations**, sélectionnez l'application que vous avez créée, copiez les valeurs **Application ID** et **Tenant ID**, puis collez-les dans le [carré d'intégration Azure de Datadog][46], sous **Client ID** et **Tenant ID**. -2. Pour cette même application, accédez à **Manage** -> **Certificates and secrets**. -3. Ajoutez un nouveau **Client Secret** intitulé `datadogClientSecret`, sélectionnez un intervalle pour **Expires**, puis cliquez sur **Add** : - - {{< img src="integrations/azure/Azure_client_secret.png" alt="Secret client Azure" popup="true" style="width:80%">}} - -4. Une fois la valeur de la clé indiquée, collez-la dans le [carré d'intégration Azure de Datadog][46], sous **Client Secret**, puis cliquez sur **Install Integration** ou **Update Configuration**. - -**Remarque** : les modifications apportées à la configuration Azure peuvent mettre jusqu'à 20 minutes à être appliquées dans Datadog. - -### Configuration - -Pour limiter la collecte de ressources pour des hosts Azure, ouvrez le carré d'intégration Azure, accédez à l'onglet **Configuration**, puis ouvrez **App Registrations**. Saisissez ensuite la liste des tags dans la zone de texte sous **Metric Collection Filters**. - -Cette liste de tags au format `:` est séparée par des virgules. Elle définit un filtre utilisé pour la collecte des métriques. Des wildcards, tels que `?` (pour un seul caractère) et `*` (pour plusieurs caractères), peuvent également être utilisés. - -Seules les VM qui correspondent à l'un des tags définis sont importées dans Datadog. Les autres VM sont ignorées. Ajoutez `!` devant un tag pour exclure la VM correspondant à ce tag. Exemple : - -```text -datadog:monitored,env:production,!env:staging,instance-type:c1.* -``` - -### Surveiller le statut de l'intégration - -Une fois l'intégration configurée, Datadog commence à appeler en continu les API Azure pour recueillir les données de surveillance critiques de votre environnement Azure. Ces appels renvoient parfois des erreurs (si les identifiants fournis ont expiré, par exemple). Ces erreurs peuvent empêcher Datadog de recueillir les données de surveillance. - -En cas d'erreurs critiques, l'intégration Azure génère des événements dans l'Events Explorer de Datadog et les republie toutes les cinq minutes. Vous pouvez configurer un monitor d'événement pour qu'il se déclenche lors de la détection de ces événements et envoie une notification à l'équipe appropriée. - -Datadog fournit un monitor conseillé que vous pouvez utiliser comme modèle pour commencer. Pour utiliser le monitor conseillé : - -1. Dans Datadog, accédez à **Monitors** -> **New Monitor** et sélectionnez l'onglet [Recommended Monitors][58]. -2. Sélectionnez le monitor conseillé nommé `[Azure] Integration Errors`. -3. Apportez les modifications voulues à la requête de recherche ou aux conditions d'alerte. Par défaut, le monitor se déclenche à chaque fois qu'une nouvelle erreur est détectée et se résout si l'erreur en question n'a pas été détectée au cours des 15 dernières minutes. -4. Modifiez les messages pour la notification initiale et les notifications suivantes selon vos besoins. Notez que les événements eux-mêmes contiennent des informations pertinentes qui seront automatiquement incluses dans la notification, notamment des informations détaillées concernant le contexte, l'erreur renvoyée et les actions courantes pour y remédier. -5. [Configurez les notifications][59] de sorte qu'elles soient envoyées via les canaux privilégiés (e-mail, Slack, PagerDuty ou autres) afin de garantir que votre équipe soit prévenue en cas de problèmes liés à la collecte des données Azure. - -### Collecte de métriques - -Une fois le carré d'intégration configuré, les métriques sont recueillies par un crawler. Pour recueillir des métriques supplémentaires, déployez l'Agent Datadog sur vos machines virtuelles : - -#### Installation de l'Agent - -Vous pouvez utiliser l'extension Azure pour installer l'Agent Datadog sur les machines virtuelles Windows, Linux x64 et Linux ARM. - -1. Dans le [portail Azure][47], accédez à votre **machine virtuelle**, cliquez sur **Settings** > **Extensions** > **Add**, puis sélectionnez **Datadog Agent**. -2. Cliquez sur **Create**, saisissez votre [clé d'API Datadog][48] et cliquez sur **OK**. - -Pour effectuer l'installation de l'Agent en fonction du système d'exploitation ou de l'outil CI/CD, consultez les [instructions d'installation de l'Agent Datadog][49]. - -**Remarque** : lors de l'installation de l'Agent Datadog avec l'extension Azure, les contrôleurs de domaine ne sont pas pris en charge. - -#### Validation - -Vous devrez peut-être patienter quelques minutes avant que les métriques des applications apparaissent sous le nouvel abonnement. - -Accédez au [dashboard par défaut des machines virtuelles Azure][50] pour visualiser les données de votre infrastructure, qui s'ajoutent automatiquement au dashboard. - -{{< img src="integrations/azure/azure_vm_screenboard.png" alt="Screenboard de machines virtuelles Azure" popup="true" style="width:70%">}} - -### Collecte de logs - -**Remarque** : les instructions de configuration sont différentes pour l'intégration native Azure (disponible pour les clients utilisant le site Datadog US3). Si vous utilisez l'intégration native Azure, [modifiez le sélecteur de site][60] pour afficher les instructions propres au site US3. Pour en savoir plus, consultez la rubrique [Présentation][61]. - -Pour envoyer les logs depuis Azure vers Datadog, la meilleure approche consiste à utiliser l'Agent ou un DaemonSet. Si cela n'est pas possible pour certaines ressources, nous vous conseillons de créer un pipeline de transfert de logs à l'aide d'un Event Hub Azure pour recueillir [les logs de la plate-forme Azure][57]. Si une ressource ne prend pas en charge la diffusion des logs de la plate-forme Azure vers un Event Hub, vous pouvez les transférer via le service Stockage Blob Azure. - -{{< tabs >}} - -{{% tab "Installation automatisée" %}} - -Pour commencer, cliquez sur le bouton ci-dessous et remplissez le formulaire sur le portail Azure. Les ressources Azure requises pour la transmission des logs d'activité à votre compte Datadog seront déployées pour vous. - -[![Déployer sur Azure][1]](https://portal.azure.com/#create/Microsoft.Template/uri/https%3A%2F%2Fraw.githubusercontent.com%2FDataDog%2Fdatadog-serverless-functions%2Fmaster%2Fazure%2Fdeploy-to-azure%2Fparent_template.json) - -Datadog met également à votre disposition deux scripts automatisés. - -Le premier script crée et configure les ressources Azure requises pour que les logs d'activité soient diffusés vers votre compte Datadog. Ces ressources incluent les paramètres de diagnostic des logs d'activité, les fonctions Azure, les espaces de nommage d'Event Hub et l'Event Hub. - -Le second script est une option plus générique qui déploie uniquement l'Event Hub et les fonctions Azure, sans aucun paramètre de diagnostic. Il peut être utilisé pour configurer les sources de diffusion. Dans les deux cas, les Event Hubs peuvent être utilisés par d'autres sources de diffusion. - -**Exemple :** - -Si vous souhaitez diffuser à la fois les logs d'activité et les logs de ressource provenant de `westus`, exécutez le premier script en spécifiant le paramètre facultatif `-ResourceGroupLocation westus` (les logs d'activité sont une source au niveau de l'abonnement, vous pouvez donc leur créer un pipeline dans n'importe quelle région). Une fois le script déployé, vous pouvez envoyer les logs de ressource via le même Event Hub en ajoutant les paramètres de diagnostic à vos ressources dans `westus`. - -**Remarques :** - -L'intégration ne recueille pas d'événement. - -#### Envoyer des logs d'activité depuis Azure vers Datadog - -*Étape 1 :** dans le portail Azure, accédez à votre **Cloud Shell**. - -{{< img src="integrations/azure/azure_cloud_shell.png" alt="cloud shell azure" popup="true" style="width:100%">}} - -**Étape 2 :** exécutez la commande ci-dessous pour télécharger le script d'automatisation dans votre environnement Cloud Shell. - -{{< code-block lang="powershell" filename="Logs d'activité Étape 1" >}} - -(New-Object System.Net.WebClient).DownloadFile("https://raw.githubusercontent.com/DataDog/datadog-serverless-functions/master/azure/eventhub_log_forwarder/activity_logs_deploy.ps1", "activity_logs_deploy.ps1") - -{{< /code-block >}} - -Vous pouvez également [afficher le contenu du script][2]. - -**Étape 3 :** invoquez le script en exécutant la commande ci-dessous, en ayant remplacé **``** par votre [token d'API Datadog][3] et **``** par votre ID d'abonnement Azure. Vous pouvez également ajouter des paramètres facultatifs supplémentaires pour configurer votre déploiement. Consultez la rubrique [Paramètres facultatifs](#parametres-facultatifs). - -{{< code-block lang="powershell" filename="Logs d'activité Étape 2" >}} - -./activity_logs_deploy.ps1 -ApiKey -SubscriptionId - -{{< /code-block >}} - -#### Envoyer des logs de la plate-forme Azure à Datadog - -Une solution générique pour envoyer des logs de plateforme Azure, y compris les logs de ressource, consiste à déployer uniquement l'Event Hub et le forwarder de logs. -Une fois ce pipeline déployé, vous pouvez créer des paramètres de diagnostic pour chaque source de logs et les configurer pour qu'elles diffusent leur contenu vers Datadog. - -*Étape 1 :** dans le portail Azure, accédez à votre **Cloud Shell**. - -**Étape 2 :** exécutez la commande ci-dessous pour télécharger le script d'automatisation dans votre environnement Cloud Shell. - -{{< code-block lang="powershell" filename="Logs de plateforme Étape 1" >}} - -(New-Object System.Net.WebClient).DownloadFile("https://raw.githubusercontent.com/DataDog/datadog-serverless-functions/master/azure/eventhub_log_forwarder/resource_deploy.ps1", "resource_deploy.ps1") - -{{< /code-block >}} - -Vous pouvez également [afficher le contenu du script][4]. - -**Étape 3 :** invoquez le script en exécutant la commande ci-dessous, en ayant remplacé **``** par votre [token d'API Datadog][3] et **``** par votre ID d'abonnement Azure. Vous pouvez également ajouter des paramètres facultatifs supplémentaires pour configurer votre déploiement. Consultez la rubrique [Paramètres facultatifs](#parametres-facultatifs). - -{{< code-block lang="powershell" filename="Logs de plateforme Étape 2" >}} - -./resource_deploy.ps1 -ApiKey -SubscriptionId - -{{< /code-block >}} - -**Étape 4 :** créez des paramètres de diagnostic pour toutes les ressources Azure qui envoient des logs à Datadog. Configurez ces paramètres de diagnostic de façon à initier la diffusion des logs vers l'Event Hub que vous venez de créer. - -**Remarque :** les ressources peuvent diffuser des logs uniquement aux Event Hubs qui se trouvent dans la même région Azure. Vous devez donc répéter l'étape 2 pour chaque région à partir de laquelle vous souhaitez diffuser des logs de ressource. - -**Remarque :** les valeurs Ressource-Groupe-Emplacement sont ajoutées au nom par défaut de chaque ressource Azure déployée pour le pipeline de logs de plateforme. Exemple : `datadog-eventhub-westus`. Toutefois, vous pouvez modifier cette convention en remplaçant ce paramètre. - -#### Paramètres facultatifs - -**Remarque :** lorsque vous personnalisez les paramètres, assurez-vous que le nom de chacune de vos ressources personnalisées est unique. Vérifiez que le nom de la ressource ne figure pas déjà dans votre liste de ressources Azure. - -| -Flag `` | Description | -|---------------------------------------------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------| -| -DatadogSite `` | Personnalisez votre instance Datadog en ajoutant ce flag avec comme paramètre un autre site Datadog. Votre site Datadog est {{< region-param key="dd_site" code="true" >}}. | -| -Environment `` | Gérez le stockage des clouds Azure indépendants en ajoutant ce flag comme paramètre. Vous pouvez également utiliser les options `AzureChinaCloud`, `AzureGermanCloud` et `AzureUSGovernment`. | -| -ResourceGroupLocation `` | Vous pouvez sélectionner la région dans laquelle votre groupe de ressources et vos ressources Azure sont déployés en ajoutant ce flag avec la nouvelle région Azure. | -| -ResourceGroupName `` | Personnalisez le nom de votre groupe de ressources Azure en ajoutant ce flag avec un paramètre mis à jour. | -| -EventhubNamespace `` | Personnalisez l'espace de nommage de votre Event Hub Azure en ajoutant ce flag avec un paramètre mis à jour. Par défaut, `datadog-ns-` est généré. | -| -EventhubName `` | Personnalisez le nom de votre Event Hub Azure en ajoutant ce flag avec un paramètre mis à jour. | -| -FunctionAppName `` | Personnalisez le nom de votre application de fonctions Azure en ajoutant ce flag avec un paramètre mis à jour. Par défaut, `datadog-functionapp-` est généré. | -| -FunctionName `` | Personnalisez le nom de votre fonction Azure en utilisant ce flag avec un paramètre mis à jour. | -| -DiagnosticSettingName `` | Personnalisez le nom de votre paramètre de diagnostic Azure en ajoutant ce flag avec un paramètre mis à jour. **Ce flag sert uniquement à envoyer des logs d'activité pertinents.** | - -Si l'installation échoue, consultez la [section Dépannage](#depannage) pour résoudre rapidement les erreurs courantes. - -[1]: https://aka.ms/deploytoazurebutton -[2]: https://github.com/DataDog/datadog-serverless-functions/blob/master/azure/eventhub_log_forwarder/activity_logs_deploy.ps1 -[3]: https://app.datadoghq.com/organization-settings/api-keys -[4]: https://github.com/DataDog/datadog-serverless-functions/blob/master/azure/eventhub_log_forwarder/resource_deploy.ps1 -{{% /tab %}} - -{{% tab "Installation manuelle" %}} - -Pour envoyer des logs depuis Azure vers Datadog, suivez cette méthode globale : - -1. Créez un [Event Hub Azure][1]. -2. Configurez la fonction Datadog/Azure [avec un déclencheur Event Hub][2] pour transmettre les logs à Datadog. -3. Configurez vos services Azure de façon à ce que leurs logs soient envoyés au Event Hub à l'aide d'un nouveau [paramètre de diagnostic][3]. - -Les instructions qui suivent permettent d'effectuer une première configuration basique à l'aide du portail Azure. Toutes ces étapes peuvent être effectuées via l'interface de ligne de commande, Powershell ou des modèles de ressources. Pour ce faire, référez-vous à la documentation Azure. - -#### Event Hub Azure - -Créez un [Event Hub Azure][1] : - -Créez un espace de nommage ou ajoutez un nouvel Event Hub à un espace de nommage existant en suivant les instructions ci-dessous. - -1. Dans le portail Azure, accédez à la vue d'ensemble **Event Hubs** et cliquez sur **Create**. -2. Indiquez le nom, le niveau tarifaire, l'abonnement et le groupe de ressources. -3. Sélectionnez une région. **Remarque** : l'Event Hub doit se trouver dans la même région que la ressource dont les logs doivent être transférés. Pour les logs d'activité ou toute autre source de logs propres à l'ensemble du compte, la région n'a pas d'importance. -4. Sélectionnez les options de votre choix pour les unités de débit, les zones de disponibilité et l'inflation automatique. -5. Cliquez sur **Create**. - -Ajoutez un Event Hub à votre espace de nommage Event Hub. - -1. Dans le portail Azure, créez un espace de nommage ou accédez à un espace de nommage existant. -2. Cliquez sur **+ Event Hub**. -3. Sélectionnez les options de votre choix pour le nom, le nombre de partitions et la rétention des messages. -4. Cliquez sur **Create**. - -#### Fonction Azure Datadog - -Configurez la fonction Datadog/Azure [avec un déclencheur Event Hub][2] pour transmettre les logs à Datadog : - -Créez une application de fonctions ou utilisez une application de fonctions existante et passez à la section suivante. - -1. Dans le portail Azure, accédez à la vue d'ensemble **Function Apps** et cliquez sur **Create**. -2. Sélectionnez un abonnement, un groupe de ressources et une région, puis nommez votre application de fonctions. -3. Définissez **Publish sur Code, Runtime stack sur Node.js et Version sur 16 LTS**. -4. Sélectionnez un système d'exploitation et un type de plan. -5. Cliquez sur **Next:Hosting**. -6. Sélectionnez un compte de stockage. -7. Vérifiez les informations, puis créez votre application de fonctions. -8. Attendez que votre déploiement se termine. - -Ajoutez une nouvelle fonction à votre application de fonctions en utilisant le modèle de déclencheur Event Hub. - -1. Sélectionnez une application de fonctions nouvelle ou existante dans la liste des applications de fonctions. -2. Sélectionnez **Functions** dans le menu de fonctions et cliquez sur **Create**. -3. Sélectionnez un [déclencheur Event Hub Azure][2] dans le menu de modèles. -4. Sous **Event Hub connection**, sélectionnez votre espace de nommage et votre Event Hub. -5. Cliquez sur **Create**. - -Pointez votre déclencheur Event Hub vers Datadog. - -1. Sélectionnez votre nouveau déclencheur Event Hub dans la vue des fonctions. -2. Cliquez sur **Code + Test** dans le menu latéral pour les développeurs. -3. Ajoutez le [code de la fonction Datadog/Azure][4] à votre fichier index.js. -4. Ajoutez votre clé d'API en créant une variable d'environnement `DD_API_KEY` dans l'onglet de configuration de votre application de fonctions, ou copiez-la dans le code de la fonction en remplaçant `` à la ligne 22. -5. Si vous n'utilisez pas le site Datadog US1, définissez votre [site Datadog][5] avec une variable d'environnement `DD_SITE` dans l'onglet de configuration de votre application de fonctions, ou copiez le paramètre de site dans le code de la fonction à la ligne 23. -6. Enregistrez la fonction. -7. Cliquez sur **Integration**, puis sur **Azure Event Hubs** sous le déclencheur et vérifiez les paramètres suivants : - a. Event Parameter Name doit être défini sur `eventHubMessages`. - b. Event Hub Cardinality doit être défini sur `Many`. - c. Event Hub Data Type doit être vide. -8. Cliquez sur **Save**. -9. Vérifiez que votre configuration est valide en exécutant la fonction et en recherchant le message de test dans le [Log Explorer de Datadog][6]. -**Remarque** : l'événement de log de test doit être dans un format JSON valide. - -#### Logs d'activité - -1. Dans le portail Azure, accédez à la section **Activity Log**. -2. Cliquez sur **Diagnostic Settings**. -3. Cliquez sur **Add diagnostic setting**. -4. Dans la section réservée aux catégories, sélectionnez les catégories de logs à envoyer à Datadog. -5. Dans la section réservée à la destination, sélectionnez **Stream to an event hub**. -6. Définissez l'espace de nommage et le nom de l'Event Hub. Ces derniers doivent correspondre à l'espace de nommage et au nom de l'Event Hub que vous avez utilisés pour créer votre déclencheur Event Hub. -7. Définissez la clé d'accès partagé. Celle-ci doit être configurée avec un accès en envoi ou en gestion. -8. Cliquez sur **Save**. -9. Vérifiez que les logs de cette ressource sont présents dans le [Log Explorer de Datadog][6] pour confirmer que votre configuration est valide. - -#### Logs de ressource - -Configurez vos services Azure de façon à ce que leurs logs soient envoyés au Event Hub à l'aide d'un nouveau [paramètre de diagnostic][3]. - -1. Dans le portail Azure, accédez à la ressource dont les logs doivent être envoyés à Datadog. -2. Dans la section relative à la surveillance du volet de la ressource, cliquez sur **Diagnostic settings**. -3. Cliquez sur **Add diagnostic setting**. -4. Dans la section réservée aux catégories, sélectionnez les catégories de logs à envoyer à Datadog. -5. Dans la section réservée à la destination, sélectionnez **Stream to an event hub**. -6. Définissez l'espace de nommage et le nom de l'Event Hub. Ces derniers doivent correspondre à l'espace de nommage et au nom de l'Event Hub que vous avez utilisés pour créer votre déclencheur Event Hub. -7. Définissez la clé d'accès partagé. Celle-ci doit être configurée avec un accès en envoi ou en gestion. -8. Cliquez sur **Save**. -9. Vérifiez que les logs de cette ressource sont présents dans le [Log Explorer de Datadog][6] pour confirmer que votre configuration est valide. - - -[1]: https://docs.microsoft.com/en-us/azure/event-hubs/event-hubs-create -[2]: https://docs.microsoft.com/en-us/azure/azure-functions/functions-bindings-event-hubs-trigger -[3]: https://docs.microsoft.com/en-us/azure/azure-monitor/platform/diagnostic-settings -[4]: https://github.com/DataDog/datadog-serverless-functions/blob/master/azure/activity_logs_monitoring/index.js -[5]: https://docs.datadoghq.com/fr/getting_started/site/ -[6]: https://app.datadoghq.com/logs -{{% /tab %}} - -{{% tab "Stockage Blob" %}} - -Pour recueillir des logs à partir de l'ensemble de vos Azure App Services, suivez cette méthode globale : - -1. Configurez [Stockage Blob Azure][1] depuis le [portail Azure][2], l'[Explorateur Stockage Azure][3], l'[interface de ligne de commande Azure][4] ou [Powershell][5]. -2. [Configurez la fonction Datadog/Azure](#creer-une-fonction-stockage-blob-azure) chargée de transmettre les logs depuis votre stockage blob vers Datadog. -3. [Configurez vos Azure App Services de façon à transférer leurs logs à Stockage Blob][6]. - -#### Créer une fonction Stockage Blob Azure - -Si vous n'avez jamais utilisé de fonction Azure, consultez l'article [Bien démarrer avec Azure Functions][7] pour découvrir comment créer votre première fonction. - -1. Dans le [portail Azure][2], accédez à la vue d'ensemble **Function Apps** et cliquez sur **Create**. -2. Sélectionnez un abonnement, un groupe de ressources et une région, puis nommez vos applications de fonctions. -3. Définissez **Publish sur Code, Runtime stack sur Node.js et Version sur 16 LTS**. -4. Sélectionnez le système d'exploitation **Windows** et un type de plan. -5. Cliquez sur **Next:Hosting**. -6. Sélectionnez un compte de stockage. -7. Vérifiez les informations, puis créez votre fonction. -8. Une fois le déploiement terminé, sélectionnez votre nouvelle fonction dans la liste des applications de fonctions. -9. Choisissez de générer votre fonction **In-portal** et utilisez le modèle de déclencheur de Stockage Blob (sous **More templates…**). Si besoin, installez l'extension `Microsoft.Azure.WebJobs.Extensions.EventHubs`. -10. Sélectionnez ou ajoutez la **connexion du compte de stockage** et cliquez sur **Create**. -11. Créez un fichier `index.js` et ajoutez le [code de la fonction Datadog/Azure][8] (remplacez `` par votre [clé d'API Datadog][9]). -12. Enregistrez la fonction. -13. Pour la section **Integrate**, définissez **Blob Parameter Name** sur `blobContent` et cliquez sur **Save**. -14. Vérifiez que vos logs apparaissent dans le [Log Explorer Datadog][10] pour confirmer que votre configuration est valide. - - -[1]: https://azure.microsoft.com/en-us/services/storage/blobs/ -[2]: https://docs.microsoft.com/en-us/azure/storage/blobs/storage-quickstart-blobs-portal -[3]: https://docs.microsoft.com/en-us/azure/storage/blobs/storage-quickstart-blobs-storage-explorer -[4]: https://docs.microsoft.com/en-us/azure/storage/blobs/storage-quickstart-blobs-cli -[5]: https://docs.microsoft.com/en-us/azure/storage/blobs/storage-quickstart-blobs-powershell -[6]: https://docs.microsoft.com/en-us/learn/modules/store-app-data-with-azure-blob-storage/ -[7]: https://docs.microsoft.com/en-us/azure/azure-functions/functions-create-first-azure-function -[8]: https://github.com/DataDog/datadog-serverless-functions/blob/master/azure/blobs_logs_monitoring/index.js -[9]: https://app.datadoghq.com/organization-settings/api-keys -[10]: https://app.datadoghq.com/logs -{{% /tab %}} -{{< /tabs >}} - -[44]: https://azure.microsoft.com/en-us/documentation/articles/xplat-cli-install -[45]: https://docs.datadoghq.com/fr/integrations/guide/azure-troubleshooting/#enable-diagnostics -[46]: https://app.datadoghq.com/account/settings#integrations/azure -[47]: https://portal.azure.com -[48]: https://app.datadoghq.com/organization-settings/api-keys -[49]: https://app.datadoghq.com/account/settings#agent -[50]: https://app.datadoghq.com/screen/integration/azure_vm -[52]: https://docs.datadoghq.com/fr/events/ -[57]: https://docs.microsoft.com/en-us/azure/azure-monitor/platform/platform-logs-overview -[58]: https://app.datadoghq.com/monitors/recommended -[59]: /fr/monitors/notify/#notify-your-team -[60]: https://docs.datadoghq.com/fr/integrations/azure/?site=us3 -[61]: https://docs.datadoghq.com/fr/integrations/azure/?tab=azurecliv20#overview -{{< /site-region >}} - -{{< site-region region="us3" >}} - -### Prérequis - -#### Autorisations requises - -Pour configurer l'intégration native Azure, vous devez bénéficier d'un accès **Owner** pour chacun des abonnements Azure que vous souhaitez associer, et d'un accès **Admin** pour l'organisation Datadog que vous leur associez. Vérifiez que c'est bien le cas avant de commencer la configuration. - -#### Configuration SSO - -_(Facultatif)_ Vous pouvez configurez l'[authentification unique (SSO)](#configuration-du-sso-saml) lors de la création d'une organisation dans Azure. Le SSO peut également est configuré ultérieurement. Pour effectuer la configuration dès la création initiale, commencez par créer une application de galerie professionnelle Datadog. - -### Installation {#installation-us3} - -Pour configurer l'intégration Azure, il est nécessaire de créer une ressource Datadog dans Azure. Ces ressources représentent la connexion ou le lien entre une organisation Datadog et un abonnement Azure. Vous devez créer une ressource Datadog pour chaque abonnement que vous souhaitez surveiller avec Datadog. - -Deux options s'offrent à vous lors de la création d'une ressource Datadog dans Azure : - -1. Associer un abonnement à une organisation Datadog existante. Il s'agit de la méthode la plus courante. Cela vous permet de configurer votre organisation Datadog afin de surveiller un abonnement Azure qui n'a pas encore été lié. Cette action n'a aucun impact sur votre offre Datadog. - -2. Créer une nouvelle organisation Datadog. Ce processus est moins courant. Utilisez cette option si vous n'avez pas encore d'organisation Datadog et que vous souhaitez souscrire un abonnement payant via la Place de marché Azure. Ce flux crée une organisation Datadog, permet de sélectionner une offre et lie l'abonnement Azure associé afin qu'il puisse être surveillé. - -**Remarque** : aucun essai n'est proposé via l'option **Create a new Datadog organization** dans Azure. Pour commencer un essai gratuit, [créez une organisation Datadog d'essai sur notre site US3][6], puis liez les abonnements que vous souhaitez surveiller. - -Une fois que vous avez créé une ressource Datadog, la collecte des données commence pour l'abonnement associé. Consultez notre [guide][7] pour savoir comment utiliser cette ressource pour configurer, gérer et déployer Datadog. - -#### Gestion automatique - -Les instructions présentées sur cette page indiquent comment configurer l'intégration native Azure via le portail Azure. Si vous préférez utiliser des options automatiques, vous pouvez également consulter les ressources suivantes : - -- [Azure CLI pour Datadog][62] - -- [Fournisseur Terraform Azure pour Datadog][63] (veillez à inclure le [bloc d'attribution de rôle][64]) - -Si vous souhaitez surveiller de nombreux abonnements avec l'intégration native Azure, nous vous recommandons d'utiliser Terraform pour créer les ressources Datadog. Pour savoir comment configurer Terraform pour plusieurs abonnements, consultez cet article de blog dédié au [déploiement sur plusieurs abonnements Azure avec Terraform][65]. - -[62]: https://docs.microsoft.com/en-us/cli/azure/datadog?view=azure-cli-latest -[63]: https://registry.terraform.io/providers/hashicorp/azurerm/latest/docs/resources/datadog_monitors -[64]: https://registry.terraform.io/providers/hashicorp/azurerm/latest/docs/resources/datadog_monitors#role-assignment -[65]: https://medium.com/codex/deploying-to-multiple-azure-subscriptions-using-terraform-81249a58a600 - -#### Créer une ressource Datadog - -Pour commencer à surveiller un abonnement Azure, accédez à la [page Service de Datadog dans Azure][8], puis sélectionnez l'option permettant de créer une ressource Datadog : -{{< img src="integrations/azure/azure-us3-dd-service.png" alt="Service Datadog US3 Azure" responsive="true" style="width:90%;">}} - -Choisissez **Link Azure subscription to an existing Datadog organization** ou **Create a new Datadog organization**. Associer un abonnement est l'action la plus courante. Cela vous permet de configurer la surveillance pour un abonnement Azure qui n'a pas encore été lié. Ne choisissez le flux **Create** que si vous n'êtes pas encore client Datadog et que vous souhaitez souscrire un abonnement payant. - -{{< img src="integrations/azure/azure-us3-create-dd-resource1.png" alt="Créer une ressource Datadog US3 Azure" responsive="true" style="width:90%;">}} - -**Remarque** : les coûts associés aux nouvelles organisations Datadog créées via le portail Azure sont automatiquement intégrés à la facturation Azure. Les données d'utilisation associées seront prises en compte pour le calcul de l'[Engagement de consommation Microsoft Azure (MACC)][1], le cas échéant. - -### Configuration {#configuration-us3} - -{{< tabs >}} -{{% tab "Association" %}} - -#### Éléments de base {#association-elements-de-base} - -Après avoir choisi d'associer une organisation Datadog existante, le portail affiche un formulaire permettant de créer la ressource Datadog : -{{< img src="integrations/azure/azure-us3-link-sub.png" alt="Associer un abonnement Azure à une organisation Datadog existante" responsive="true" style="width:90%;">}} - -Renseignez les champs suivants : - -| Propriété | Description | -|----------------------|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| -| Subscription | L'abonnement Azure à surveiller avec Datadog. La ressource Datadog figurera dans cet abonnement. Vous devez disposer d'un accès propriétaire. | -| Resource group | Créez un groupe de ressources ou utilisez un groupe existant. Un [groupe de ressources][1] est un conteneur avec des ressources connexes pour une solution Azure. | -| Resource name | Attribuez un nom à la ressource Datadog. Voici le format recommandé : `nom_abonnement-nom_org_datadog`. | -| Emplacement | La région est West US 2. Il s'agit de la région dans laquelle le site US3 de Datadog est hébergé dans Azure. Comme tous les [sites Datadog][2], le site US3 est entièrement SaaS et prend en charge la surveillance de toutes les régions Azure, ainsi que d'autres fournisseurs de cloud et des hosts sur site. | -| Datadog organization | Une fois l'étape d'authentification terminée, le nom de l'organisation Datadog est défini sur celui de l'organisation Datadog liée, et le site Datadog est défini sur US3. | - -Cliquez sur **Link to Datadog organization** pour ouvrir une fenêtre d'authentification Datadog, puis connectez-vous à Datadog. - -Par défaut, Azure associe votre organisation Datadog actuelle à votre ressource Datadog. Si vous souhaitez associer une autre organisation, sélectionnez-la dans la fenêtre d'authentification : - -{{< img src="integrations/azure/azure-us3-select-org.png" alt="Sélectionner l'organisation Datadog US3 Azure" responsive="true" style="width:90%;">}} - -Une fois le fllux oauth terminé, vérifiez que le nom de votre organisation Datadog est correct. - -Après avoir terminé la configuration de base, cliquez sur l'option **Next: Metrics and logs**. - - -[1]: https://docs.microsoft.com/en-us/azure/azure-resource-manager/management/overview#resource-groups -[2]: https://docs.datadoghq.com/fr/getting_started/site/ -{{% /tab %}} -{{% tab "Création" %}} - -#### Éléments de base {#creation-elements-de-base} - -Après avoir choisi de créer une organisation Datadog, le portail affiche un formulaire permettant de créer la ressource et l'organisation Datadog : -{{< img src="integrations/azure/azure-us3-create-dd-resource2.png" alt="Créer une ressource Datadog US3 Azure" responsive="true" style="width:90%;">}} - -Renseignez les champs suivants : - -| Propriété | Description | -|----------------------|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| -| Subscription | L'abonnement Azure à surveiller avec Datadog. La ressource Datadog figurera dans cet abonnement. Vous devez disposer d'un accès propriétaire. | -| Resource group | Créez un groupe de ressources ou utilisez un groupe existant. Un [groupe de ressources][1] est un conteneur avec des ressources connexes pour une solution Azure. | -| Resource name | Le nom de la ressource Datadog. Ce nom est attribué à la nouvelle organisation Datadog. | -| Emplacement | La région est West US 2. Il s'agit de la région dans laquelle le site US3 de Datadog est hébergé dans Azure. Comme tous les [sites Datadog][2], le site US3 est entièrement SaaS et prend en charge la surveillance de toutes les régions Azure, ainsi que d'autres fournisseurs de cloud et des hosts sur site. | -| Datadog organization | Le nom de l'organisation Datadog correspond au nom de la ressource. Le site Datadog est défini sur US3. | -| Pricing plan | La liste des offres tarifaires Datadog disponibles. Si vous utilisez une offre exclusive, celle-ci figure dans cette liste déroulante. | -| Billing term | La facturation s'effectue mensuellement. | - -[1]: https://docs.microsoft.com/en-us/azure/azure-resource-manager/management/overview#resource-groups -[2]: https://docs.datadoghq.com/fr/getting_started/site/ -{{% /tab %}} - -{{< /tabs >}} - -#### Section Metrics and logs - -##### Collecte de métriques - -Par défaut, les métriques de toutes les ressources Azure incluses dans l'abonnement sont automatiquement recueillies. Pour envoyer toutes les métriques à Datadog, aucune action supplémentaire n'est requise. - -###### Règles de tag pour l'envoi de métriques - -Vous avez la possibilité de restreindre la collecte de métriques pour les VM Azure et les plans App Service. Pour ce faire, utilisez les tags Azure associés à vos ressources. - -- Les machines virtuelles, les groupes de machines virtuelles identiques et les plans App Service qui possèdent des tags `include` envoient des métriques à Datadog. -- À l'inverse, les machines virtuelles, les groupes de machines virtuelles identiques et les plans App Service qui possèdent des tags `exclude` n'envoient pas de métriques à Datadog. -- En cas de conflit entre des règles d'inclusion et d'exclusion, la règle d'exclusion est prioritaire. -- Il n'est pas possible de limiter la collecte de métriques pour d'autres ressources. - -##### Collecte de logs - -Trois types de logs peuvent être envoyés par Azure à Datadog. - -Les **logs au niveau de l'abonnement** fournissent des informations clés sur les opérations réalisées sur vos ressources dans le [plan de contrôle][2]. Les modifications apportées aux événements Service Health sont également incluses. Utilisez le log d'activité pour déterminer la nature des opérations d'écriture (PUT, POST et DELETE), la personne à leur origine et leur date. - -Pour envoyer les logs au niveau de l'abonnement à Datadog, sélectionnez **Send subscription activity logs**. Si vous ne sélectionnez pas cette option, aucun log au niveau de l'abonnement ne sera envoyé à Datadog. - -Les **logs de ressource Azure** fournissent des informations clés sur les opérations réalisées sur les ressources Azure dans le [plan de données][2]. Les opérations du plan de données consistent par exemple à récupérer un secret à partir d'un coffre de clés ou à transmettre une requête à une base de données. Le contenu de ces logs de ressources varie en fonction du service Azure et du type de ressource. - -Pour envoyer des logs de ressource Azure à Datadog, sélectionnez **Send Azure resource logs for all defined resources**. Les types de logs de ressource Azure sont répertoriés dans les [catégories de logs de ressource d'Azure Monitor][4]. Si vous sélectionnez cette option, tous les logs de ressource seront envoyés à Datadog, y compris pour les nouvelles ressources créées dans l'abonnement. - -Il est possible de filtrer l'ensemble des ressources Azure transmettant des logs à Datadog à l'aide de tags de ressource Azure. - -###### Règles de tag pour l'envoi de logs - -- Les ressources Azure qui possèdent des tags `include` envoient des logs à Datadog. -- Les ressources Azure qui possèdent des tags `exclude` n'envoient pas de logs à Datadog. -- En cas de conflit entre des règles d'inclusion et d'exclusion, la règle d'exclusion est prioritaire. - -Par exemple, avec la règle de tag de la capture d'écran ci-dessous, seuls les machines virtuelles, groupes de machines virtuelles identiques et plans App Service avec le tag `Datadog = True` envoient des métriques et des logs à Datadog. - -{{< img src="integrations/azure/azure-us3-create-dd-resource3.png" alt="Créer des logs de ressource Datadog US3 Azure" responsive="true" style="width:90%;">}} - -Les **logs Azure Active Directory (Azure AD)** contiennent l'historique des activités de connexion ainsi qu'une piste d'audit des modifications apportées dans Azure AD pour un client donné. Pour envoyer ces logs à Datadog, commencez par créer une ressource Datadog. Après avoir créé une ressource Datadog dans Azure, suivez la procédure de configuration indiquée dans le guide [Datadog sur le portail Azure][10]. - -Après avoir terminé la configuration des métriques et logs, sélectionnez l'option **Next: Security**. - -#### Securité - -Grâce à la solution [Cloud Security Posture Management][13] (CSPM), vous pouvez évaluer et visualiser facilement la posture de sécurité actuelle et historique de votre environnement cloud, automatiser la collecte de preuves pour l'audit et détecter les problèmes de configuration susceptibles de rendre votre organisation vulnérable face à d'éventuelles attaques. - -Pour activer la solution CSPM, sélectionnez **Enable Datadog Cloud Security Posture Management**. Cela active la solution CSPM pour tous les abonnements associés à la ressource Datadog. - -Après avoir terminé la configuration de la solution CSPM, sélectionnez l'option **Next: Single sign-on**. - -#### Authentification unique - -(Facultatif) Si vous utilisez le fournisseur d'identité Azure Active Directory, activez l'authentification unique depuis le portail Azure vers Datadog. - -Si vous associez la ressource Datadog à une organisation Datadog existante, vous ne pouvez pas configurer l'authentification unique lors de cette étape. Vous devez d'abord créer la ressource Datadog. Pour en savoir plus, consultez la section [Reconfigurer l'authentification unique][3]. - -{{< img src="integrations/azure/azure-us3-create-dd-resource4.png" alt="Configurer l'authentification unique US3 Azure" responsive="true" style="width:90%;">}} - -Pour effectuer l'authentification unique via Azure Active Directory, cochez la case **Enable single sign-on through Azure Active Directory**. - -Le portail Azure récupère la ou les applications Datadog pertinentes depuis Azure Active Directory. Les apps d'entreprise Datadog créées avant de commencer le processus de création de la ressource Datadog sont répertoriées. - -Sélectionnez l'application Datadog à utiliser. Si vous n'avez pas encore créé d'application, consultez la section de la documentation relative à la [création d'une app de galerie Azure AD](#configuration-du-sso-saml). - -{{< img src="integrations/azure/azure-us3-create-dd-resource5.png" alt="Activer l'authentification unique US3 Azure" responsive="true" style="width:90%;">}} - -Sélectionnez l'option **Next: Tags**. - -#### Tags {#tags-us3} - -(Facultatif) Configurer des tags personnalisés pour votre nouvelle ressource Datadog. Attribuez-leur un nom et des paires de valeurs pour les appliquer à la ressource Datadog. - -{{< img src="integrations/azure/azure-us3-create-dd-resource6.png" alt="Ajouter des tags à la ressource Datadog US3 Azure" responsive="true" style="width:90%;">}} - -Après avoir ajouté les tags, sélectionnez l'option **Next: Review + create**. - -#### Vérification et création - -Vérifiez vos paramètres et les conditions d'utilisation. Une fois le processus de validation terminé, cliquez sur **Create**. Azure déploie alors la ressource Datadog. Cette dernière lie l'abonnement à votre compte Datadog et active un certain nombre de fonctionnalités pour la gestion continue de l'intégration. Vous trouverez de plus amples détails et des instructions dans notre [guide sur la gestion de Datadog sur le portail Azure][9]. - -{{< img src="integrations/azure/azure-us3-create-dd-resource7.png" alt="Validation des paramètres de la ressource Datadog US3 Azure" responsive="true" style="width:90%;">}} - -Une fois le déploiement terminé, sélectionnez **Go to Resource** pour afficher votre ressource Datadog. - -{{< img src="integrations/azure/azure-us3-deploy-complete.png" alt="Déploiement Datadog terminé US3 Azure" responsive="true" style="width:90%;">}} - -### Accéder à Datadog - -Maintenant que votre ressource Datadog est créée, accédez à l'organisation Datadog associée. La méthode à suivre varie selon que vous avez créé une nouvelle organisation ou associé une organisation existante. - -{{< tabs >}} -{{% tab "Création" %}} - -#### Avec le SSO - -Si vous avez créé une nouvelle organisation Datadog en ayant pris soin de configurer le SSO, utilisez le lien dans le volet de la ressource Datadog pour vous identifier. Il s'agit d'un lien SAML qui vous permet de vous connecter directement à votre organisation Datadog depuis la ressource Datadog dans Azure. - -{{< img src="integrations/azure/azure-us3-access-dd.png" alt="Accéder à Datadog US3 Azure" responsive="true" style="width:90%;">}} - -#### Sans le SSO - -Si vous avez créé une organisation Datadog sans configurer le SSO, utilisez le lien de l'organisation Datadog situé dans le volet de vue d'ensemble pour configurer votre mot de passe Datadog. Une fois votre mot de passe configuré, vous pouvez utiliser le lien, qui correspond à une [URL Datadog standard][1]. - - -[1]: http://us3.datadoghq.com -{{% /tab %}} -{{% tab "Association" %}} - -Si vous avez associé une organisation Datadog existante, la méthode d'accès à votre organisation demeure inchangée. - -{{% /tab %}} -{{< /tabs >}} - -### Surveiller le statut de l'intégration - -Une fois l'intégration configurée, Datadog commence à appeler en continu les API Azure pour recueillir les données de surveillance critiques de votre environnement Azure. Ces appels renvoient parfois des erreurs (si les identifiants fournis ont expiré, par exemple). Ces erreurs peuvent empêcher Datadog de recueillir les données de surveillance. - -En cas d'erreurs critiques, l'intégration Azure génère des événements dans l'Events Explorer de Datadog et les republie toutes les cinq minutes. Vous pouvez configurer un monitor d'événement pour qu'il se déclenche lors de la détection de ces événements et envoie une notification à l'équipe appropriée. - -Datadog fournit un monitor conseillé que vous pouvez utiliser comme modèle pour commencer. Pour utiliser le monitor conseillé : - -1. Dans Datadog, accédez à **Monitors** -> **New Monitor** et sélectionnez l'onglet [Recommended Monitors][11]. -2. Sélectionnez le monitor conseillé nommé `[Azure] Integration Errors`. -3. Apportez les modifications voulues à la requête de recherche ou aux conditions d'alerte. Par défaut, le monitor se déclenche à chaque fois qu'une nouvelle erreur est détectée et se résout si l'erreur en question n'a pas été détectée au cours des 15 dernières minutes. -4. Modifiez les messages pour la notification initiale et les notifications suivantes selon vos besoins. Notez que les événements eux-mêmes contiennent des informations pertinentes qui seront automatiquement incluses dans la notification, notamment des informations détaillées concernant le contexte, l'erreur renvoyée et les actions courantes pour y remédier. -5. [Configurez les notifications][12] de sorte qu'elles soient envoyées via les canaux privilégiés (e-mail, Slack, PagerDuty ou autres) afin de garantir que votre équipe soit prévenue en cas de problèmes liés à la collecte des données Azure. - -### Configuration du SSO SAML - -Pour utiliser l'authentification unique (SSO) Security Assertion Markup Language (SAML) dans la ressource Datadog, vous devez configurer une application d'entreprise. - -Pour ajouter une application d'entreprise, il est nécessaire d'avoir un rôle d'administrateur global, d'administrateur d'application dans le cloud, d'administrateur d'application ou de propriétaire du service principal. - -Suivez les étapes ci-dessous pour configurer une application d'entreprise : -1. Accédez au portail Azure et sélectionnez **Azure Active Directory**. -2. Dans le volet de gauche, sélectionnez **Enterprise applications**. -3. Sélectionnez **New Application**. -4. Sous la section **Add from the gallery**, recherchez Datadog. Sélectionnez le résultat de recherche, puis cliquez sur **Add**. - - {{< img src="integrations/azure/azure-us3-dd-sso-add-app.png" alt="Ajouter l'application Datadog depuis la galerie" responsive="true" style="width:90%;">}} - -5. Une fois l'application créée, accédez à **Properties** dans le volet latéral. Configurez **User assignment required?** sur No, puis cliquez sur **Save**. - - {{< img src="integrations/azure/azure-us3-dd-sso-app-prop.png" alt="User assignment required - définir sur No" responsive="true" style="width:90%;">}} - -6. Accédez à **Single sign-on** dans le volet latéral, puis sélectionnez SAML. - - {{< img src="integrations/azure/azure-us3-dd-sso.png" alt="SSO - SAML" responsive="true" style="width:90%;">}} - -7. Sélectionnez **Yes** pour enregistrer vos réglages d'authentification unique. +### Configuration automatique - {{< img src="integrations/azure/azure-us3-basic-saml.png" alt="Configuration SAML basique US3 Azure" responsive="true" style="width:90%;">}} +_Tous les sites :_ +Consultez le [guide sur la gestion automatisée de l'intégration Azure standard][50] pour découvrir comment configurer automatiquement l'intégration Datadog standard avec Azure. Vous pouvez configurer cette intégration via Terraform ou avec la CLI Azure, déployer l'Agent Datadog en natif dans Azure à l'aide de l'extension Datadog Azure VM et exécuter des scripts automatisés afin d'activer la collecte de logs. -8. La configuration de l'authentification unique est désormais terminée. +_US3 :_ +Consultez le [guide sur la gestion automatisée de l'intégration Azure native][51] pour découvrir comment utiliser Terraform afin de configurer l'intégration Azure native de Datadog à l'aide de la ressource Datadog dans Azure. -[1]: https://docs.microsoft.com/en-us/azure/marketplace/azure-consumption-commitment-benefit -[2]: https://docs.microsoft.com/en-us/azure/azure-resource-manager/management/control-plane-and-data-plane -[3]: https://docs.microsoft.com/en-us/azure/partner-solutions/datadog/manage#reconfigure-single-sign-on -[4]: https://docs.microsoft.com/en-us/azure/azure-monitor/essentials/resource-logs-categories -[5]: https://docs.microsoft.com/en-us/cli/azure/datadog?view=azure-cli-latest -[6]: https://us3.datadoghq.com/signup -[7]: https://docs.datadoghq.com/fr/integrations/guide/azure-portal/ -[8]: https://portal.azure.com/#blade/HubsExtension/BrowseResource/resourceType/Microsoft.Datadog%2Fmonitors -[9]: https://docs.datadoghq.com/fr/integrations/guide/azure-portal/ -[10]: https://docs.datadoghq.com/fr/integrations/guide/azure-portal/#azure-active-directory-logs -[11]: https://app.datadoghq.com/monitors/recommended -[12]: /fr/monitors/notify/#notify-your-team -[13]: https://docs.datadoghq.com/fr/security_platform/cspm/ -{{< /site-region >}} +### Configuration manuelle -#### Implémentation +_Tous les sites :_ +Consultez le [guide sur la configuration manuelle de l'intégration Azure standard][52] pour découvrir comment configurer manuellement l'intégration Datadog avec Azure via le portail Azure ou avec la CLI Azure, et comment déployer directement l'Agent Datadog dans Azure avec l'extension VM ou l'extension AKS Cluster. -##### Archivage des logs +_US3 :_ +Consultez le [guide sur la configuration manuelle de l'intégration Azure native][53] pour découvrir comment configurer manuellement l'intégration Azure native avec Datadog. Pour ce faire, vous devez créer la ressource Datadog dans Azure, déployer directement l'Agent Datadog dans Azure avec l'extension VM ou l'extension AKS Cluster, puis, si vous le souhaitez, configurer l'authentification SSO. -L'archivage de logs dans Stockage Blob Azure nécessite une inscription d'application même si vous utilisez l'intégration native Azure. Pour archiver des logs dans Stockage Blob Azure, choisissez `US` dans le menu `site` disponible à droite de cette page de documentation et suivez les instructions pour configurer l'intégration à l'aide d'une inscription d'application. Il n'est pas nécessaire d'attribuer le rôle `Monitoring Reader` aux inscriptions d'application créées à des fins d'archivage. +## Collecte de logs -Après avoir configuré une inscription d'application, vous pouvez [créer une archive de logs][48] à enregistrer dans Stockage Blob Azure. +_Tous les sites :_ +Consultez la section [Envoyer des logs Azure à Datadog][54] pour découvrir comment envoyer vos logs Azure à Datadog. Vous pouvez choisir d'activer manuellement ou automatiquement la collecte de logs à l'aide de la fonction Datadog/Azure et d'un Event Hub Azure. Il est également possible d'utiliser une fonction de stockage de blob Azure pour recueillir les logs provenant de tous vos App Services Azure. -**Remarque** : si votre compartiment de stockage se trouve dans un abonnement surveillé via l'intégration native Azure, un avertissement indique dans le carré d'intégration Azure que l'inscription d'application est redondante. Vous pouvez ignorer cet avertissement. +_US3 :_ +Consultez la section [Envoyer des logs Azure avec la ressource Datadog][55] pour découvrir comment envoyer à Datadog les logs relatifs au niveau d'abonnement, à la ressource Azure et à Azure Active Directory. ## Données collectées ### Métriques -Toutes les métriques Azure Monitor standard, ainsi que des [métriques uniques générées par Datadog][49], sont recueillies. +Toutes les métriques Azure Monitor standard, ainsi que des [métriques uniques générées par Datadog][56], sont recueillies. Pour obtenir la liste détaillée des métriques, sélectionnez le service Azure pertinent dans la [section Présentation](#presentation). ### Événements -L'intégration Azure recueille automatiquement les événements Azure Service Health. Pour les visualiser dans Datadog, accédez à l'[Events Explorer][50] et appliquez un filtre basé sur l'espace de nommage `Azure Service Health`. +L'intégration Azure recueille automatiquement les événements Azure Service Health. Pour les visualiser dans Datadog, accédez à l'[Events Explorer][57] et appliquez un filtre basé sur l'espace de nommage `Azure Service Health`. ### Checks de service @@ -941,7 +215,7 @@ L'intégration Azure n'inclut aucun check de service. ### Tags -Les métriques, événements et checks de service des intégrations Azure reçoivent les tags suivants : +En plus des tags définis dans vos environnements Azure, les tags suivants sont appliqués aux métriques, événements et checks de service de l'intégration Azure : | Intégration | Espace de nommage | Clés de tag Datadog | |-----------------------------------------|---------------------------------------------|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| @@ -955,63 +229,70 @@ Les métriques, événements et checks de service des intégrations Azure reçoi ## Dépannage -Consultez le guide [Dépannage d'Azure][51]. +Consultez la section [Dépannage Azure][58]. -Besoin d'aide ? Contactez l'[assistance Datadog][52]. +Besoin d'aide ? Contactez l'[assistance Datadog][59]. ## Pour aller plus loin {{< partial name="whats-next/whats-next.html" >}} -[1]: https://docs.datadoghq.com/fr/integrations/azure_analysis_services/ -[2]: https://docs.datadoghq.com/fr/integrations/azure_api_management/ -[3]: https://docs.datadoghq.com/fr/integrations/azure_app_services/ -[4]: https://docs.datadoghq.com/fr/integrations/azure_app_service_environment/ -[5]: https://docs.datadoghq.com/fr/integrations/azure_app_service_plan/ -[6]: https://docs.datadoghq.com/fr/integrations/azure_application_gateway/ -[7]: https://docs.datadoghq.com/fr/integrations/azure_automation/ -[8]: https://docs.datadoghq.com/fr/integrations/azure_batch/ -[9]: https://docs.datadoghq.com/fr/integrations/azure_cognitive_services/ -[10]: https://docs.datadoghq.com/fr/integrations/azure_container_instances/ -[11]: https://docs.datadoghq.com/fr/integrations/azure_container_service/ -[12]: https://docs.datadoghq.com/fr/integrations/azure_cosmosdb/ -[13]: https://docs.datadoghq.com/fr/integrations/azure_customer_insights/ -[14]: https://docs.datadoghq.com/fr/integrations/azure_data_explorer/ -[15]: https://docs.datadoghq.com/fr/integrations/azure_data_factory/ -[16]: https://docs.datadoghq.com/fr/integrations/azure_data_lake_analytics/ -[17]: https://docs.datadoghq.com/fr/integrations/azure_data_lake_store/ -[18]: https://docs.datadoghq.com/fr/integrations/azure_db_for_mariadb/ -[19]: https://docs.datadoghq.com/fr/integrations/azure_event_grid/ -[20]: https://docs.datadoghq.com/fr/integrations/azure_event_hub/ -[21]: https://docs.datadoghq.com/fr/integrations/azure_express_route/ -[22]: https://docs.datadoghq.com/fr/integrations/azure_firewall/ -[23]: https://docs.datadoghq.com/fr/integrations/azure_functions/ -[24]: https://docs.datadoghq.com/fr/integrations/azure_hd_insight/ -[25]: https://docs.datadoghq.com/fr/integrations/azure_iot_hub/ -[26]: https://docs.datadoghq.com/fr/integrations/azure_key_vault/ -[27]: https://docs.datadoghq.com/fr/integrations/azure_load_balancer/ -[28]: https://docs.datadoghq.com/fr/integrations/azure_logic_app/ -[29]: https://docs.datadoghq.com/fr/integrations/azure_machine_learning_services/ -[30]: https://docs.datadoghq.com/fr/integrations/azure_network_interface/ -[31]: https://docs.datadoghq.com/fr/integrations/azure_notification_hubs/ -[32]: https://docs.datadoghq.com/fr/integrations/azure_public_ip_address/ -[33]: https://docs.datadoghq.com/fr/integrations/azure_recovery_service_vault/ -[34]: https://docs.datadoghq.com/fr/integrations/azure_redis_cache/ -[35]: https://docs.datadoghq.com/fr/integrations/azure_relay/ -[36]: https://docs.datadoghq.com/fr/integrations/azure_search/ -[37]: https://docs.datadoghq.com/fr/integrations/azure_blob_storage/ -[38]: https://docs.datadoghq.com/fr/integrations/azure_file_storage/ -[39]: https://docs.datadoghq.com/fr/integrations/azure_queue_storage/ -[40]: https://docs.datadoghq.com/fr/integrations/azure_table_storage/ -[41]: https://docs.datadoghq.com/fr/integrations/azure_stream_analytics/ -[42]: https://docs.datadoghq.com/fr/integrations/azure_sql_database/ -[43]: https://docs.datadoghq.com/fr/integrations/azure_sql_elastic_pool/ -[44]: https://docs.datadoghq.com/fr/integrations/azure_usage_and_quotas/ -[45]: https://docs.datadoghq.com/fr/integrations/azure_vm/ -[46]: https://docs.datadoghq.com/fr/integrations/azure_vm_scale_set/ -[47]: https://docs.datadoghq.com/fr/integrations/azure_virtual_networks/ -[48]: https://docs.datadoghq.com/fr/logs/log_configuration/archives/?tab=azurestorage#configure-an-archive' -[49]: https://www.datadoghq.com/blog/datadog-generated-metrics-azure/ -[50]: https://app.datadoghq.com/event/explorer -[51]: https://docs.datadoghq.com/fr/integrations/guide/azure-troubleshooting/ -[52]: https://docs.datadoghq.com/fr/help/ \ No newline at end of file +[1]: https://www.datadoghq.com/legal/restricted-service-locations/ +[2]: https://docs.datadoghq.com/fr/integrations/azure_analysis_services/ +[3]: https://docs.datadoghq.com/fr/integrations/azure_api_management/ +[4]: https://docs.datadoghq.com/fr/integrations/azure_app_services/ +[5]: https://docs.datadoghq.com/fr/integrations/azure_app_service_environment/ +[6]: https://docs.datadoghq.com/fr/integrations/azure_app_service_plan/ +[7]: https://docs.datadoghq.com/fr/integrations/azure_application_gateway/ +[8]: https://docs.datadoghq.com/fr/integrations/azure_automation/ +[9]: https://docs.datadoghq.com/fr/integrations/azure_batch/ +[10]: https://docs.datadoghq.com/fr/integrations/azure_cognitive_services/ +[11]: https://docs.datadoghq.com/fr/integrations/azure_container_instances/ +[12]: https://docs.datadoghq.com/fr/integrations/azure_container_service/ +[13]: https://docs.datadoghq.com/fr/integrations/azure_cosmosdb/ +[14]: https://docs.datadoghq.com/fr/integrations/azure_customer_insights/ +[15]: https://docs.datadoghq.com/fr/integrations/azure_data_explorer/ +[16]: https://docs.datadoghq.com/fr/integrations/azure_data_factory/ +[17]: https://docs.datadoghq.com/fr/integrations/azure_data_lake_analytics/ +[18]: https://docs.datadoghq.com/fr/integrations/azure_data_lake_store/ +[19]: https://docs.datadoghq.com/fr/integrations/azure_db_for_mariadb/ +[20]: https://docs.datadoghq.com/fr/integrations/azure_event_grid/ +[21]: https://docs.datadoghq.com/fr/integrations/azure_event_hub/ +[22]: https://docs.datadoghq.com/fr/integrations/azure_express_route/ +[23]: https://docs.datadoghq.com/fr/integrations/azure_firewall/ +[24]: https://docs.datadoghq.com/fr/integrations/azure_functions/ +[25]: https://docs.datadoghq.com/fr/integrations/azure_hd_insight/ +[26]: https://docs.datadoghq.com/fr/integrations/azure_iot_hub/ +[27]: https://docs.datadoghq.com/fr/integrations/azure_key_vault/ +[28]: https://docs.datadoghq.com/fr/integrations/azure_load_balancer/ +[29]: https://docs.datadoghq.com/fr/integrations/azure_logic_app/ +[30]: https://docs.datadoghq.com/fr/integrations/azure_machine_learning_services/ +[31]: https://docs.datadoghq.com/fr/integrations/azure_network_interface/ +[32]: https://docs.datadoghq.com/fr/integrations/azure_notification_hubs/ +[33]: https://docs.datadoghq.com/fr/integrations/azure_public_ip_address/ +[34]: https://docs.datadoghq.com/fr/integrations/azure_recovery_service_vault/ +[35]: https://docs.datadoghq.com/fr/integrations/azure_redis_cache/ +[36]: https://docs.datadoghq.com/fr/integrations/azure_relay/ +[37]: https://docs.datadoghq.com/fr/integrations/azure_search/ +[38]: https://docs.datadoghq.com/fr/integrations/azure_blob_storage/ +[39]: https://docs.datadoghq.com/fr/integrations/azure_file_storage/ +[40]: https://docs.datadoghq.com/fr/integrations/azure_queue_storage/ +[41]: https://docs.datadoghq.com/fr/integrations/azure_table_storage/ +[42]: https://docs.datadoghq.com/fr/integrations/azure_stream_analytics/ +[43]: https://docs.datadoghq.com/fr/integrations/azure_sql_database/ +[44]: https://docs.datadoghq.com/fr/integrations/azure_sql_elastic_pool/ +[45]: https://docs.datadoghq.com/fr/integrations/azure_synapse/ +[46]: https://docs.datadoghq.com/fr/integrations/azure_usage_and_quotas/ +[47]: https://docs.datadoghq.com/fr/integrations/azure_vm/ +[48]: https://docs.datadoghq.com/fr/integrations/azure_vm_scale_set/ +[49]: https://docs.datadoghq.com/fr/integrations/azure_virtual_networks/ +[50]: https://docs.datadoghq.com/fr/integrations/guide/azure-programmatic-management/ +[51]: https://docs.datadoghq.com/fr/integrations/guide/azure-native-programmatic-management/ +[52]: https://docs.datadoghq.com/fr/integrations/guide/azure-manual-setup/ +[53]: https://docs.datadoghq.com/fr/integrations/guide/azure-native-manual-setup/ +[54]: https://docs.datadoghq.com/fr/logs/guide/azure-logging-guide/ +[55]: https://docs.datadoghq.com/fr/logs/guide/azure-native-logging-guide/ +[56]: https://www.datadoghq.com/blog/datadog-generated-metrics-azure/ +[57]: https://app.datadoghq.com/event/explorer +[58]: https://docs.datadoghq.com/fr/integrations/guide/azure-troubleshooting/ +[59]: https://docs.datadoghq.com/fr/help/ \ No newline at end of file diff --git a/content/fr/logs/guide/control-sensitive-logs-data.md b/content/fr/logs/guide/control-sensitive-logs-data.md index ce76b398b32ed..cc2e3abc135e3 100644 --- a/content/fr/logs/guide/control-sensitive-logs-data.md +++ b/content/fr/logs/guide/control-sensitive-logs-data.md @@ -14,7 +14,7 @@ further_reading: - link: https://www.datadoghq.com/blog/compliance-governance-transparency-with-datadog-audit-trail/ tag: Blog text: Concevoir une stratégie de conformité, gouvernance et transparence pour toutes - vos équipes avec les journaux d'audit Datadog + vos équipes avec le journal d'audit Datadog kind: guide title: Contrôler les données de logs sensibles --- @@ -70,7 +70,7 @@ Utilisez des règles prêtes à l'emploi ou personnalisées pour [identifier et ### Arrêter l'indexation de logs sensibles -Si vous n'utilisez pas le scanner de données sensibles, déterminez si vous souhaitez empêcher tous les nouveaux logs contenant des données sensibles d'être indexés. Vous devrez toujours traiter les logs contenant des données sensibles déjà indexés dans Datadog. +Si vous n'utilisez pas le scanner de données sensibles, déterminez si vous souhaitez empêcher tous les nouveaux logs contenant des données sensibles d'être indexés. Vous devrez dans tous les cas traiter les logs contenant des données sensibles déjà indexés dans Datadog. * Recherchez les index qui contiennent des logs avec des données sensibles. * Pour chaque index, ajoutez un filtre d'exclusion en fonction de la requête de recherche des données sensibles. @@ -122,7 +122,7 @@ Si vous avez des questions concernant la conformité des logs ou si vous avez be {{< partial name="whats-next/whats-next.html" >}} [1]: /fr/logs/guide/logs-rbac/ -[2]: /fr/account_management/org_settings/sensitive_data_detection/ +[2]: /fr/sensitive_data_scanner/ [3]: /fr/account_management/org_settings/ [4]: /fr/logs/search_syntax/ [5]: /fr/logs/indexes diff --git a/content/fr/logs/guide/remap-custom-severity-to-official-log-status.md b/content/fr/logs/guide/remap-custom-severity-to-official-log-status.md new file mode 100644 index 0000000000000..fac03c9757e52 --- /dev/null +++ b/content/fr/logs/guide/remap-custom-severity-to-official-log-status.md @@ -0,0 +1,69 @@ +--- +aliases: +- /fr/logs/faq/comment-remapper-des-valeurs-de-gravite-personnalisees-pour-le-statut-officiel-des-logs +further_reading: +- link: logs/log_collection/#custom-log-collection + tag: Documentation + text: En savoir plus sur la collecte de logs avec lʼAgent +- link: /logs/log_configuration/processors + tag: Documentation + text: Apprendre à traiter vos logs +- link: /logs/log_configuration/parsing + tag: Documentation + text: En savoir plus sur le parsing +kind: guide +title: Remapper les valeurs de gravité personnalisées pour le statut officiel des + logs +--- + +Par défaut, le [remappeur de statuts de log][1] s'appuie sur les [normes de gravité Syslog][2]. +Il est cependant possible que vous vouliez remapper d'autres systèmes ayant des valeurs de gravité différentes pour le statut officiel des logs. +Ceci est possible grâce au [processeur de catégories][3] qui définit un mappage entre vos valeurs personnalisées et les valeurs attendues. + +Cette page décrit la marche à suivre en sʼappuyant sur deux exemples : Les niveaux de Bunyan et les logs d'accès Web. + +## Logs d'accès Web + +Le code d'état de la demande peut être utilisé pour déterminer l'état des logs. Les intégrations Datadog font appel au mapping suivant : + +* 2xx: OK +* 3xx: Notice +* 4xx: Warning +* 5xx: Error + +Supposons que le code d'état de votre log soit stocké dans l'attribut `http.status_code`. +Ajoutez un processeur de catégorie dans votre pipeline qui crée un nouvel attribut pour refléter le mappage ci-dessus : + +{{< img src="logs/guide/category_processor.png" alt="Processeur de catégorie " >}} + +Ajoutez ensuite un remappeur d'état qui utilise l'attribut nouvellement créé : + +{{< img src="logs/guide/log_status_remapper.png" alt="remappeur de statuts de log" >}} + +## Niveaux Bunyan + +Les niveaux Bunyan sont similaires à ceux de Syslog, mais leurs valeurs sont multipliées par 10. + +* 10 = TRACE +* 20 = DEBUG +* 30 = INFO +* 40 = WARN +* 50 = ERROR +* 60 = FATAL + +Supposons que le niveau bunyan soit stocké dans l'attribut `bunyan_level`. +Ajoutez un processeur de catégorie dans votre pipeline qui crée un nouvel attribut pour refléter le mappage ci-dessus : + +{{< img src="logs/guide/category_processor_bunyan.png" alt="Processeur de catégorie bunyan" >}} + +Ajoutez ensuite un remappeur d'état qui utilise l'attribut nouvellement créé : + +{{< img src="logs/guide/status_remapper_bunyan.png" alt="remappeur de statuts de log bunyan" >}} + +## Pour aller plus loin + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /fr/logs/log_configuration/processors/#log-status-remapper +[2]: https://en.wikipedia.org/wiki/Syslog#Severity_level +[3]: /fr/logs/log_configuration/processors/#category-processor \ No newline at end of file diff --git a/content/fr/monitors/guide/monitor-for-value-within-a-range.md b/content/fr/monitors/guide/monitor-for-value-within-a-range.md index ce8221a4aa2c4..5d220e21c3a5f 100644 --- a/content/fr/monitors/guide/monitor-for-value-within-a-range.md +++ b/content/fr/monitors/guide/monitor-for-value-within-a-range.md @@ -1,7 +1,8 @@ --- -title: Surveillance de plages kind: guide +title: Surveillance de plages --- + ## Présentation Pour les monitors qui prennent en charge l'envoi d'alertes lorsqu'une valeur donnée dépasse un certain seuil, il est également possible d'envoyer une notification lorsqu'une valeur donnée est comprise ou non dans une plage spécifique. @@ -19,14 +20,14 @@ Mathématiquement parlant, la différence entre la valeur de la métrique et le - Pour recevoir une notification lorsque la valeur n'est pas comprise dans la plage, le monitor doit avoir pour condition `abs(6-a) - 2 > 0`. - Pour recevoir une notification lorsque la valeur est comprise dans la plage, le monitor doit avoir pour condition `2 - abs(6-a) > 0`. -{{< img src="monitors/faq/monitor_range.png" alt="monitor de métrique basé sur une plage" >}} +{{< img src="monitors/faq/monitor_range.png" alt="monitor de métrique basé sur une plage" >}} ### Raisonnement théorique Une plage est définie par l'expression `x > a > y`, où `a` correspond à la métrique concernée. -- Pour recevoir une notification lorsque la valeur est comprise dans la plage, le monitor doit avoir pour condition `abs((x-y/2) - a) - (x-y)/2 > 0`. -- Pour recevoir une notification lorsque la valeur n'est pas comprise dans la plage, le monitor doit avoir pour condition `(x-y)/2 - abs((x-y/2) - a) > 0`. +- Pour recevoir une notification lorsque la valeur nʼest pas comprise dans la plage, le monitor doit avoir pour condition `abs((x-y/2) - a) - (x-y)/2 > 0`. +- Pour recevoir une notification lorsque la valeur est comprise dans la plage, le monitor doit avoir pour condition `(x-y)/2 - abs((x-y/2) - a) > 0`. ## Dépannage diff --git a/content/fr/tracing/trace_collection/library_config/cpp.md b/content/fr/tracing/trace_collection/library_config/cpp.md new file mode 100644 index 0000000000000..7e51e96c928ac --- /dev/null +++ b/content/fr/tracing/trace_collection/library_config/cpp.md @@ -0,0 +1,164 @@ +--- +code_lang: cpp +code_lang_weight: 50 +further_reading: +- link: https://github.com/DataDog/dd-opentracing-cpp + tag: Github + text: Code source +- link: /tracing/glossary/ + tag: Documentation + text: Explorer vos services, ressources et traces +- link: /tracing/trace_collection/trace_context_propagation/cpp/ + tag: Documentation + text: Propager le contexte de traces +kind: documentation +title: Configurer la bibliothèque de traçage C++ +type: multi-code-lang +--- + +Après avoir configuré la bibliothèque de tracing avec votre code ainsi que l'Agent de façon à recueillir des données APM, vous pouvez ajuster sa configuration selon vos besoins, notamment en configurant le [tagging de service unifié][1]. + +Il est conseillé d'utiliser `DD_SERVICE`, `DD_ENV` et `DD_VERSION` pour définir les paramètres `env`, `service` et `version` pour vos services. Consultez la documentation sur le [tagging de service unifié][1] pour en savoir plus sur les valeurs à configurer pour les variables d'environnement. + +## Variables d'environnement +Pour configurer le traceur à l'aide de variables d'environnement, définissez-les avant le lancement de l'application instrumentée. + +`DD_SERVICE` +: **Depuis** : v0.1.0
+Définit le nom de service. + +`DD_ENV` +: **Depuis** : v0.1.0
+**Exemple** : `prod`, `pre-prod` ou `staging`
+Ajoute le tag `env` avec la valeur spécifiée à toutes les spans générées. + +`DD_VERSION` +: **Depuis** : v0.1.0
+**Exemple** : `1.2.3`, `6c44da20`, `2020.02.13`
+Définit la version du service. + +`DD_TAGS` +: **Depuis** : v0.1.0
+**Exemple** : `team:intake,layer:api,foo:bar`
+Un liste séparée par des virgules de paires `key:value` à ajouter à toutes les spans générées. + +`DD_AGENT_HOST` +: **Depuis** : v0.1.0
+**Valeur par défaut** : `localhost`
+Définit le host vers lequel les traces sont envoyées (le host qui exécute l'Agent). Il peut s'agir d'un hostname ou d'une adresse IP. Ce paramètre est ignoré si `DD_TRACE_AGENT_URL` est défini. + +`DD_TRACE_AGENT_PORT` +: **Depuis** : v0.1.0
+**Valeur par défaut** : `8126`
+Définit le port sur lequel les traces sont envoyées (le port sur lequel lʼAgent détecte les connexions). Ignoré si `DD_TRACE_AGENT_URL` est défini. Si la [configuration de lʼAgent][3] définit `receiver_port` ou `DD_APM_RECEIVER_PORT` sur une valeur autre que la valeur par défaut `8126`, alors `DD_TRACE_AGENT_PORT` ou `DD_TRACE_AGENT_URL` doit correspondre à cette valeur. + +`DD_TRACE_AGENT_URL` +: **Depuis** : v0.1.0
+**Valeur par défaut** : `http://:` si définis, ou `http://localhost:8126`. +**Exemples** :
+URL HTTP : `http://localhost:8126`
+Socket de domaine Unix : `unix:///var/run/datadog/apm.socket`

+Définit lʼendpoint de l'URL où les traces sont envoyées. Remplace `DD_AGENT_HOST` et `DD_TRACE_AGENT_PORT` si défini. Cette URL prend en charge les schémas d'adresses HTTP, HTTPS et Unix.
+Si la [configuration de lʼAgent ][3] définit `receiver_port` ou `DD_APM_RECEIVER_PORT` sur une valeur autre que la valeur par défaut `8126`, alors `DD_TRACE_AGENT_PORT` ou `DD_TRACE_AGENT_URL` doit correspondre à cette valeur. + +`DD_TRACE_RATE_LIMIT` +: **Depuis** : 0.1.0
+**Valeur par défaut** : `200`
+Nombre maximum dʼenvoi de traces autorisé par seconde. + +`DD_TRACE_SAMPLE_RATE` +: **Depuis** : 0.1.0
+**Valeur par défaut** : Le taux par défaut de lʼAgent Datadog ou `1.0`.
+Définit le taux d'échantillonnage pour toutes les traces générées. La valeur doit être comprise entre `0.0` et `1.0` (inclus). Par défaut, le taux d'échantillonnage est délégué à lʼAgent Datadog. Si aucun taux d'échantillonnage n'est défini par lʼAgent Datadog, la valeur par défaut est `1.0`. + +`DD_TRACE_SAMPLING_RULES` +: **Depuis** : v0.1.0
+**Valeur par défaut** : `null`
+**Exemples :**
+Définir le taux d'échantillonnage sur 20 % : `[{"sample_rate": 0.2}]`
+Définir le taux d'échantillonnage de spans sur 50 % pour le service `my-service` et le nom de l'opération `http.request`, jusqu'à 50 traces par seconde : `'[{"service": "my-service", "name": "http.request", "sample_rate":0.5, "max_per_second": 50}]'`

+Un tableau d'objets JSON. Chaque objet doit avoir un `sample_rate`, et les champs `name` et `service` sont facultatif. La valeur de `sample_rate` doit être comprise entre 0.0 et 1.0 (inclus). Les règles sont appliquées dans un ordre configuré pour déterminer la fréquence d'échantillonnage de la trace.
+Pour en savoir plus, consultez la section [Mécanismes d'ingestion][2].
+ +`DD_SPAN_SAMPLING_RULES` +: **Version** : v0.1.0
+**Valeur par défaut** : `null`
+Un tableau d'objets JSON. Les règles sont appliquées dans un ordre configuré pour déterminer la fréquence d'échantillonnage de la span. La valeur de `sample_rate` doit être comprise entre `0.0` et `1.0` (inclus). + +`DD_SPAN_SAMPLING_RULES_FILE` +: **Depuis** : 0.1.0
+Dirige vers un fichier JSON qui contient les règles d'échantillonnage de la span. Consultez `DD_SPAN_SAMPLING_RULES` pour obtenir le format des règles. + +`DD_PROPAGATION_STYLE` +: **Depuis** : 0.1.0
+Liste séparée par des virgules des styles de propagation à utiliser lors de l'extraction et de l'injection du contexte de tracing.
+Lorsque plusieurs valeurs sont données, l'ordre de la correspondance est basé sur l'ordre des valeurs. + +`DD_TRACE_PROPAGATION_STYLE_INJECT` +: **Depuis** : v0.1.6
+**Valeur par défaut** : `datadog,tracecontext`
+**Valeurs acceptées** : `datadog`, `tracecontext`, `b3`
+Liste séparée par des virgules des styles de propagation à utiliser lors de l'injection du contexte de tracing. +Lorsque plusieurs valeurs sont données, l'ordre de la correspondance est basé sur l'ordre des valeurs. + +`DD_TRACE_PROPAGATION_STYLE_EXTRACT` +: **Depuis** : v0.1.6
+**Valeur par défaut** : `datadog,tracecontext`
+**Valeurs acceptées** : `datadog`, `tracecontext`, `b3`
+Liste séparée par des virgules des styles de propagation à utiliser lors de l'extraction du contexte de tracing. +Lorsque plusieurs valeurs sont données, l'ordre de la correspondance est basé sur l'ordre des valeurs. + +`DD_TRACE_ENABLED` +: **Depuis** : 0.1.0
+**Valeur par défaut** : `true`
+Envoyer ou non des traces à lʼAgent Datadog.
+Lorsque la valeur est `false`, la bibliothèque cesse d'envoyer des traces à lʼAgent Datadog. Cependant, la bibliothèque continue à générer des traces, à transmettre des données télémétriques et à rechercher des mises à jour de la configuration à distance. + +`DD_TRACE_REPORT_HOSTNAME` +: **Depuis** : 0.1.0
+**Valeur par défaut** : `false`
+Ajoute le tag `hostname` avec le résultat de `gethostname`. + +`DD_TRACE_STARTUP_LOGS` +: **Depuis** : 0.1.0
+**Valeur par défaut** : `true`
+Enregistrez la configuration du traceur une fois quʼil est entièrement initialisé.
+ +`DD_TRACE_128_BIT_TRACEID_GENERATION_ENABLED` +: **Depuis** : 0.1.6
+**Valeur par défaut** : `true`
+Si la valeur est `true`, le traceur génère des ID de trace de 128 bits.
+Si la valeur est `false`, le traceur génère des ID de trace historiques de 64 bit. + +`DD_INSTRUMENTATION_TELEMETRY_ENABLED` +: **Depuis** : 0.1.12
+**Valeur par défaut** : `true`
+Datadog peut collecter des [informations environnementales et de diagnostics sur votre système][4] afin d'améliorer le produit. Lorsque la valeur est `false`, les données de télémétrie ne sont pas collectées. + +`DD_REMOTE_CONFIGURATION_ENABLED` +: **Depuis** : 0.2.0
+**Valeur par défaut** : `true`
+Active la capacité qui permet de configurer et de modifier à distance le comportement du traceur.
+Lorsque la valeur est `false`, cette fonction est désactivée.
+Pour obtenir plus d'informations, consultez la section [Configuration à distance][5]. + +`DD_REMOTE_CONFIG_POLL_INTERVAL_SECONDS` +: **Depuis** : 0.2.0
+**Valeur par défaut** : `5`
+Définit la fréquence, en secondes, à laquelle lʼAgent Datadog est interrogé sur les mises à jour de la configuration à distance. + +`DD_TRACE_DELEGATE_SAMPLING` +: **Version** : 0.2.0
+**Valeur par défaut** : `false`
+Si la valeur est `true`, délègue la décision d'échantillonnage de trace à un service enfant et favorise la décision résultante à la sienne, le cas échéant. + + +## Pour aller plus loin + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /fr/getting_started/tagging/unified_service_tagging/ +[2]: /fr/tracing/trace_pipeline/ingestion_mechanisms/ +[3]: /fr/agent/configuration/network/#configure-ports +[4]: /fr/tracing/configure_data_security#telemetry-collection +[5]: /fr/agent/remote_config \ No newline at end of file diff --git a/content/fr/tracing/trace_pipeline/metrics.md b/content/fr/tracing/trace_pipeline/metrics.md new file mode 100644 index 0000000000000..63497d14ee997 --- /dev/null +++ b/content/fr/tracing/trace_pipeline/metrics.md @@ -0,0 +1,91 @@ +--- +aliases: +- /fr/tracing/trace_retention_and_ingestion/usage_metrics/ +- /fr/tracing/trace_retention/usage_metrics/ +- /fr/tracing/trace_ingestion/usage_metrics/ +description: Apprenez à surveiller votre utilisation dʼAPM. +further_reading: +- link: /tracing/trace_pipeline/ingestion_controls/ + tag: Documentation + text: Ingestion de traces +- link: /tracing/trace_pipeline/trace_retention/ + tag: Documentation + text: Rétention des traces +kind: documentation +title: Métriques d'utilisation +--- + +## Présentation + +Les pages de configuration dans lʼapp suivantes vous permettent de définir des volumes ingérés et indexés pour APM : +- Utilisez la **[page de contrôle de l'ingestion][1]** pour contrôler le volume des spans ingérées. +- Utilisez la **[page des filtres de rétention][2]** pour contrôler le nombre de spans indexées. + +Les deux pages sont alimentées par des **métriques dʼutilisation**. + +Les métriques suivantes sont disponibles dans votre compte : + + - `datadog.estimated_usage.apm.ingested_bytes` (dimension facturée) + - `datadog.estimated_usage.apm.ingested_spans` + - `datadog.estimated_usage.apm.ingested_traces` + - `datadog.estimated_usage.apm.indexed_spans` (dimension facturée) + + +Exploitez ces métriques dans des dashboards et des monitors pour visualiser et contrôler votre utilisation. Deux dashboards prêts à l'emploi sont créés avec ces métriques. Ces dashboards permettent +de surveiller votre utilisation dʼAPM ainsi que le volume de vos spans ingérées et indexées. + +Datadog propose des spans indéxées et ingérées pour toutes les offres dʼAPM. Pour en savoir plus, référez-vous à la [page de tarification][3] ou à certains de nos [scénarios d'exemples de tarification][4]. + +### Volume de spans ingérées + +Les métriques suivantes sont associés à l'utilisation des spans ingérées : + + - `datadog.estimated_usage.apm.ingested_bytes` + - `datadog.estimated_usage.apm.ingested_spans` + - `datadog.estimated_usage.apm.ingested_traces` + +Contrôlez l'utilisation avec `datadog.estimated_usage.apm.ingested_bytes`. L'ingestion est mesurée en volume, et non en nombre de spans ou de traces. Cette métrique possède les tags `env` et `service` afin que vous puissiez repérer les environnements et les services qui contribuent au volume d'ingestion. + +Cette métrique possède également le tag `ingestion_reason`, qui indique quels [mécanismes d'ingestion][5] sont responsables de l'envoi de spans à Datadog. Ces mécanismes sont imbriqués dans les bibliothèques de tracing de lʼAgent Datadog. Pour en savoir plus sur cette dimension, référez-vous au [dashboard Ingestion Reasons][6]. + +La métrique `datadog.estimated_usage.apm.ingested_traces` mesure le nombre de requêtes échantillonnées par seconde, et ne compte que les traces échantillonnées par le mécanisme [d’échantillonnage en amont][7]. Cette métrique possède également les tags `env` et `service` afin que vous puissiez repérer les services qui lancent le plus grand nombre de traces. + +### Spans indexées + +Utilisez la métrique `datadog.estimated_usage.apm.indexed_spans` pour contrôler le nombre de spans indexées par [les filtres de rétention basés sur les tags][2]. + +Cette métrique possède les tags `env` et `service`, ce qui vous permet de repérer les environnements et les services qui contribuent à l'utilisation de l'indexation. + +## Dashboard pour lʼutilisation estimée des traces APM + +Le [dashboard APM Traces Usage][8] contient plusieurs groupes de widgets affichant des indicateurs clés de performance de haut niveau et des informations supplémentaires sur l'utilisation. + +{{< img src="tracing/trace_indexing_and_ingestion/usage_metrics/dashboard_apm_usage.png" style="width:100%;" alt="Dashboard APM Estimated Usage" >}} + +Dans ce dashboard, vous trouverez des informations sur : + +- Lʼutilisation globale des métriques +- Lʼinfrastructure avec APM activé, comprenant les hosts, Fargate et AWS Lambda +- Les volumes d'ingestion séparés par `service`, `env` et `ingestion_reason` +- Les volumes dʼindexation séparés par `service` et `env` + +## Dashboard APM Ingestion Reasons + +Le [dashboard APM Ingestion Reasons][6] fournit des informations sur chaque source de volume d'ingestion. Chaque utilisation de la métrique d'ingestion est taguée avec une dimension `ingestion_reason`, afin que vous puissiez voir quelles options de configuration (configuration de lʼAgent Datadog ou configuration de la bibliothèque de tracing) et quels produits (tels que RUM ou Synthetic Testing) génèrent le plus de données APM. + +{{< img src="tracing/trace_indexing_and_ingestion/usage_metrics/dashboard_ingestion_reasons.png" style="width:100%;" alt="Dashboard APM Ingestion Reasons" >}} + +Pour chaque motif d'ingestion, vous pouvez découvrir quels sont les environnements et les services qui contribuent le plus au volume global. + +## Pour aller plus loin + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /fr/tracing/trace_pipeline/ingestion_controls +[2]: /fr/tracing/trace_pipeline/trace_retention/#retention-filters +[3]: https://www.datadoghq.com/pricing/?product=apm#apm +[4]: /fr/account_management/billing/apm_tracing_profiler/ +[5]: /fr/tracing/trace_pipeline/ingestion_mechanisms/ +[6]: https://app.datadoghq.com/dash/integration/apm_ingestion_reasons +[7]: /fr/tracing/trace_pipeline/ingestion_mechanisms/#head-based-sampling +[8]: https://app.datadoghq.com/dash/integration/apm_estimated_usage \ No newline at end of file diff --git a/content/ja/account_management/_index.md b/content/ja/account_management/_index.md index bb4bff6d2c8c2..f8f6153c3d1c8 100644 --- a/content/ja/account_management/_index.md +++ b/content/ja/account_management/_index.md @@ -2,6 +2,9 @@ aliases: - /ja/guides/billing - /ja/account_management/settings +cascade: + algolia: + rank: 70 description: Datadog アカウントと組織を管理する kind: documentation title: アカウントの管理 @@ -16,7 +19,7 @@ Datadog の個人設定ページでは、組織内の他のユーザーへの表 ### プロファイル -自分の情報が Datadog 内で組織の他のメンバーにどのように表示されるかはプロファイルによって決まります。ここで自分の名前、メールアドレス、肩書きを設定または更新します。 +自分の情報が Datadog 内で組織の他のメンバーにどのように表示されるかはプロファイルによって決まります。**Personal Settings** ページ内の [Profile タブ][11]から自分の名前、メールアドレス、肩書きを設定または更新します。 写真を更新するためには、[Gravatar][1] でアカウントを作成し、自分のメールアドレスと関連付けます。 @@ -24,20 +27,37 @@ Google 認証を使用して Datadog にログインする場合、メールア ### 設定 -**Personal Settings** ページの [**Preferences** タブ][3]で、自分のタイムゾーン、デスクトップ通知、メール講読を設定できます。メールのサブスクリプションで、次のレポートにアクセスできます。 +{{% site-region region="us,us3,us5,eu,ap1" %}} +**Personal Settings** ページ内の [Preferences タブ][3]から、タイムゾーン、ビジュアルアクセシビリティの環境設定、メールサブスクリプションを管理することができます。 + +#### メールサブスクリプション + +メールサブスクリプションでは、以下のレポートにアクセスできます。 * 1 日のダイジェスト * 週間ダイジェスト -メールダイジェストが自分に関連しているかどうかわからない場合は、各メールサブスクリプションの横にある **Example** リンクをクリックして例を表示してください。**Unsubscribe From All** ボタンを使用して、すべてのメールサブスクリプションからすばやく退会することもできます。 +メールダイジェストが自分に関連しているかどうかわからない場合は、各メールサブスクリプションの横にある **Example** リンクをクリックして例を表示することができます。**Unsubscribe From All** ボタンを使用して、すべてのメールサブスクリプションから退会することもできます。 +{{% /site-region %}} + + +{{% site-region region="gov" %}} +**Personal Settings** ページ内の [**Preferences** タブ][3]から、タイムゾーンおよびビジュアルアクセシビリティの環境設定を管理することができます。 +{{% /site-region %}} + +#### ビジュアルアクセシビリティ + +ビジュアルアクセシビリティの環境設定には、 色覚障害、視力低下、明るい色への過敏性に対応するための 5 つの設定があります。アクセシブルカラー設定を選択すると、Datadog は、クラシックカラーパレットを使用するすべてのグラフを、視覚的ニーズに合わせたアクセシブルカラーに変換します。 -### Organizations +**注**: ビジュアルアクセシビリティの環境設定は、ブラウザにローカルに保存されます。別のブラウザを使用するか、キャッシュをクリアすると、環境設定はデフォルト設定になります。 -**Personal Settings** の **Organizations** ページには、自分が関連付けられているすべての組織が一覧表示されます。このページから組織を切り替えることができます。なお、組織の切り替えは左側のナビゲーションのアカウントメニューにカーソルを合わせることでも行えます。 +### 組織を更新する + +**Personal Settings** の [Organizations タブ][12]には、自分が関連付けられているすべての組織が一覧表示されます。このページから組織を切り替えることができます。なお、組織の切り替えは左側のナビゲーションのアカウントメニューにカーソルを合わせることでも行えます。 **注**: 組織を退出すると、組織の管理者が招待するまで参加し直すことはできません。 -既存の組織に参加するには、管理者から招待される必要があります。招待されると、`You've been invited to join <組織名>` という件名のメールが送信されます。メールの **Join Account** ボタンをクリックします。 +既存の組織に参加するには、管理者から招待される必要があります。招待された後、"You've been invited to join " という件名のメールが届きます。メールの **Join Account** ボタンをクリックします。 組織の管理者の方は、以下ののドキュメントをご参考になさってください。 @@ -49,7 +69,16 @@ Google 認証を使用して Datadog にログインする場合、メールア ### セキュリティ -**Personal Settings** の **Application Keys** タブでは、アプリケーションキーを管理できます。キーをコピーするには、**Copy Key** アイコンが右側に表示されるまでキーにカーソルを合わせてクリックします。特定のキーをクリックして、その名前を編集したり、作成された日時を表示したり、キーの所有者のプロファイルを表示したり、コピーしたり、取り消したりすることもできます。 +#### アプリケーションキー + +**Personal Settings** の [Application Keys タブ][13]では、アプリケーションキーを管理できます。キーをコピーするには、**Copy Key** アイコンが右側に表示されるまでキーにカーソルを合わせてクリックします。特定のキーをクリックして、その名前を編集したり、作成された日時を表示したり、キーの所有者のプロファイルを表示したり、コピーしたり、取り消したりすることもできます。 + +#### Apps + +**Personal Settings** の [Apps タブ][14]では、組織のメンバーがインストールまたは作成したアプリを管理できます。検索文字列を使用してアプリをフィルタリングしたり、チェックボックスを使用して有効または無効のアプリのみを表示するように選択できます。 + +アプリにカーソルを合わせると、アプリ一覧の右側に有効または無効にするオプションが表示されます。 + ## 外観 Datadog をダークモードで表示するには、サイドバーにあるアバターの上にマウスを置くか、`Ctrl+Opt+D` / `Ctrl+Alt+D` を押します。 @@ -66,11 +95,15 @@ Datadog の組織アカウントを無効にするには、[Datadog サポート [1]: https://gravatar.com [2]: https://support.google.com/accounts/answer/19870?hl=en -[3]: https://app.datadoghq.com/account/preferences +[3]: https://app.datadoghq.com/personal-settings/preferences [4]: /ja/account_management/users/ [5]: /ja/account_management/saml/ [6]: /ja/account_management/org_settings/#change-your-organization-name [7]: /ja/account_management/multi_organization/ [8]: /ja/account_management/org_settings/ [9]: /ja/integrations/github/ -[10]: /ja/help/ \ No newline at end of file +[10]: /ja/help/ +[11]: https://app.datadoghq.com/personal-settings/profile +[12]: https://app.datadoghq.com/personal-settings/organizations +[13]: https://app.datadoghq.com/personal-settings/application-keys +[14]: https://app.datadoghq.com/personal-settings/apps \ No newline at end of file diff --git a/content/ja/account_management/billing/_index.md b/content/ja/account_management/billing/_index.md index 1740abe847a61..acbca51fadd8c 100644 --- a/content/ja/account_management/billing/_index.md +++ b/content/ja/account_management/billing/_index.md @@ -13,7 +13,7 @@ Datadog は、ホストとカスタムメトリクスの数を毎時間測定し ホストとは、Datadog で監視する実際のまたは仮想の OS インスタンスで、サーバー、VM、ノード (Kubernetes の場合)、App Service Plan インスタンス (Azure App Service の場合)、または Heroku dyno (Heroku プラットフォームの場合) などがあります。Datadog Agent がインストールされているすべてのインスタンスのほか、Datadog インテグレーションを使用して監視されているすべての Amazon EC2、Google Cloud、Azure、vSphere VM がホストになり得ます。Agent がインストールされている EC2 や VM は、1 つのインスタンスとしてカウントされます (二重課金はありません)。 -報告を行っていないホスト ([インフラストラクチャーリスト][2]でステータスが `???`) は、課金の対象になりません。そのようなホストが[インフラストラクチャーリスト][2]から除外されるまで、最大 2 時間かかることがあります。Datadog は、これらのホスト (有料アカウント) の履歴データを保持します。ホスト名またはタグがわかれば、メトリクスをダッシュボードでグラフ化できます。 +報告を行っていないホスト ([インフラストラクチャーリスト][2]でステータスが `INACTIVE`) は、課金の対象になりません。そのようなホストが[インフラストラクチャーリスト][2]から除外されるまで、最大 2 時間かかることがあります。Datadog は、これらのホスト (有料アカウント) の履歴データを保持します。ホスト名またはタグがわかれば、メトリクスをダッシュボードでグラフ化できます。 ### コンテナ @@ -35,9 +35,13 @@ IoT のご請求に関する詳細については、[Datadog 料金ページ][7] ## プランの詳細 +**支払い方法**を管理し、**サブスクリプションの詳細**を表示するには、Datadog 管理者ユーザーである必要があります。 + +あるいは、Billing Read (`billing_read`) および Billing Edit (`billing_edit`) [権限][8]を持つロールは、このデータにアクセスすることができます。 + ### 支払い方法の管理 -[**Payment Method**][8] セクションには、支払い方法の詳細が記載されています。 +[**Payment Method**][9] セクションには、支払い方法の詳細が記載されています。 {{< img src="account_management/billing/PaymentMethodOverview.png" alt="プランページの支払い方法" style="width:90%;" >}} @@ -47,7 +51,7 @@ IoT のご請求に関する詳細については、[Datadog 料金ページ][7] ### 請求先情報の管理 -請求先情報は、[**Billing Contact Details**][8] セクションで確認することができます。 +請求先情報は、[**Billing Contact Details**][9] セクションで確認することができます。 {{< img src="account_management/billing/BillingContactDetailsOverview.png" alt="プランページの請求先情報" style="width:90%;" >}} @@ -59,7 +63,7 @@ IoT のご請求に関する詳細については、[Datadog 料金ページ][7] ### サブスクリプションの詳細を表示する -[Subscription Details][8] セクションには、コミットされたすべての製品の数量、契約価格、オンデマンド価格が記載されています。 +[Subscription Details][9] セクションには、コミットされたすべての製品の数量、契約価格、オンデマンド価格が記載されています。 {{< img src="/account_management/billing/subscription_details.png" alt="Account Plan & Usage ページで Subscription Details セクションをハイライトしています" style="width:90%;" >}} @@ -73,13 +77,13 @@ IoT のご請求に関する詳細については、[Datadog 料金ページ][7] ### クレジットカード -クレジットカード払いの場合は、[管理者][9]に [Billing History][10] で前月の領収書が発行されます。請求書のコピーについては、[Datadog の請求担当][11]にメールでお問い合わせください。 +クレジットカード払いの場合は、[管理者][10]に [Billing History][11] で前月の領収書が発行されます。請求書のコピーについては、[Datadog の請求担当][13]にメールでお問い合わせください。 詳細については、[クレジットカード請求][12]を参照してください。 ### 請求 -小切手、ACH、または電信送金でお支払いの場合、請求書は毎月 10 営業日近くに請求先のメールアドレスにメールで送信されます。追加のコピーをリクエストするには、[Datadog の請求担当][11]にメールを送信してください。支払い先の詳細は請求書に記載されています。 +小切手、ACH、または電信送金でお支払いの場合、請求書は毎月 10 営業日近くに請求先のメールアドレスにメールで送信されます。追加のコピーをリクエストするには、[Datadog の請求担当][13]にメールを送信してください。支払い先の詳細は請求書に記載されています。 ## お問い合わせ @@ -112,6 +116,7 @@ IoT のご請求に関する詳細については、[Datadog 料金ページ][7] {{< /whatsnext >}} + [1]: https://app.datadoghq.com/account/usage/hourly [2]: /ja/infrastructure/ [3]: /ja/agent/ @@ -119,8 +124,9 @@ IoT のご請求に関する詳細については、[Datadog 料金ページ][7] [5]: /ja/account_management/billing/serverless [6]: https://www.datadoghq.com/pricing/?product=serverless#serverless [7]: https://www.datadoghq.com/pricing/ -[8]: https://app.datadoghq.com/billing/plan -[9]: /ja/account_management/rbac/#datadog-default-roles -[10]: https://app.datadoghq.com/account/billing_history -[11]: mailto:billing@datadoghq.com -[12]: /ja/account_management/billing/credit_card/ \ No newline at end of file +[8]: /ja/account_management/rbac/permissions/#billing-and-usage +[9]: https://app.datadoghq.com/billing/plan +[10]: /ja/account_management/rbac/#datadog-default-roles +[11]: https://app.datadoghq.com/account/billing_history +[12]: /ja/account_management/billing/credit_card/ +[13]: mailto:billing@datadoghq.com \ No newline at end of file diff --git a/content/ja/account_management/scim/_index.md b/content/ja/account_management/scim/_index.md new file mode 100644 index 0000000000000..46838ce850829 --- /dev/null +++ b/content/ja/account_management/scim/_index.md @@ -0,0 +1,65 @@ +--- +algolia: + tags: + - scim + - アイデンティティプロバイダー + - IdP +further_reading: +- link: /account_management/scim/azure/ + tag: ドキュメント + text: Azure Active Directory を使用した SCIM の構成 +- link: observability_pipelines/architecture/preventing_data_loss + tag: ドキュメント + text: Okta を使用した SCIM の構成 +kind: ドキュメント +title: SCIM によるユーザープロビジョニング +--- + +## 概要 + +SCIM (System for Cross-domain Identity Management) は、ユーザープロビジョニングの自動化を可能にするオープンスタンダードです。SCIM を使用すると、組織のアイデンティティプロバイダー (IdP) と同期して、Datadog 組織のユーザーを自動的にプロビジョニングおよびデプロビジョニングすることができます。 + +### サポートされる機能 + +- Datadog にユーザーを作成する (初回ログイン時にメール確認が必要です。[メール確認][1]を参照してください) +- アクセスが不要になったユーザーを Datadog から削除する +- アイデンティティプロバイダーと Datadog 間のユーザー属性の同期を維持する +- Datadog へのシングルサインオン (推奨) + +Datadog では、Azure Active Directory (Azure AD) と Okta アイデンティティプロバイダーを使用した SCIM がサポートされています。SCIM を構成するには、お使いの IdP のドキュメントを参照してください。 +- [Azure AD][2] +- [Okta][3] + +### 前提条件 + +Datadog の SCIM は、Enterprise プランに含まれる高度な機能です。 + +このドキュメントは、組織がアイデンティティプロバイダーを使用してユーザーアイデンティティを管理していることを前提としています。 + +Datadog では、SCIM の構成時にサービスアカウントのアプリケーションキーを使用して、アクセスの中断を回避することを強くお勧めします。詳細については、[SCIM でサービスアカウントを使用する][4]を参照してください。 + +SAML と SCIM を併用する場合、Datadog は、アクセスの不一致を避けるために、SAML のジャストインタイム (JIT) プロビジョニングを無効にすることを強く推奨します。SCIM だけでユーザープロビジョニングを管理します。 + +## SCIM でサービスアカウントを使用する + +SCIM を有効にするには、[アプリケーションキー][5]を使用してアイデンティティプロバイダーと Datadog アカウント間の接続を保護する必要があります。各アプリケーションキーは特定のユーザーまたはサービスアカウントによって制御されます。 + +SCIM を有効化するためにユーザーに紐付けられているアプリケーションキーを使用し、そのユーザーが組織を離れた場合、そのユーザーの Datadog アカウントはデプロビジョニングされます。ユーザー固有のアプリケーションキーは失効し、SCIM インテグレーションは永久に切断され、組織内のユーザーは Datadog にアクセスできなくなります。 + +データへのアクセスを失わないために、Datadog は SCIM 専用の[サービスアカウント][6]を作成することを強く推奨します。そのサービスアカウント内で、SCIM インテグレーションで使用するアプリケーションキーを作成します。 + +## メール確認 + +SCIM で新規ユーザーを作成すると、そのユーザーにメールが送信されます。初めてアクセスする場合は、メールで共有された招待リンクからログインする必要があります。リンクは 2 日間有効です。有効期限が切れた場合は、[ユーザー設定ページ][7]に移動し、ユーザーを選択して招待リンクを再送信してください。 + +## その他の参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ja/account_management/scim/#email-verification +[2]: /ja/account_management/scim/azure +[3]: /ja/account_management/scim/okta +[4]: /ja/account_management/scim/#using-a-service-account-with-scim +[5]: /ja/account_management/api-app-keys +[6]: /ja/account_management/org_settings/service_accounts +[7]: https://app.datadoghq.com/organization-settings/users \ No newline at end of file diff --git a/content/ja/agent/basic_agent_usage/centos.md b/content/ja/agent/basic_agent_usage/centos.md index b9fc5fa49a58c..0434fe06ae12a 100644 --- a/content/ja/agent/basic_agent_usage/centos.md +++ b/content/ja/agent/basic_agent_usage/centos.md @@ -14,12 +14,12 @@ further_reading: - link: /agent/basic_agent_usage/#agent-architecture tag: Documentation text: Agent のアーキテクチャを詳しく見る -- link: /agent/guide/network#configure-ports +- link: /agent/configuration/network#configure-ports tag: Documentation text: インバウンドポートの構成 kind: documentation platform: CentOS -title: CentOS (および Rocky/Alma Linux) の基本的な Agent の使い方 +title: CentOS、Rocky、Alma Linux の基本的な Agent の使い方 --- ## 概要 @@ -116,7 +116,58 @@ Agent の構成ファイルおよびフォルダーの場所 {{% /tab %}} {{< /tabs >}} -## トラブルシューティング +## Agent のアンインストール + +{{< tabs >}} +{{% tab "Agent v6 & v7" %}} + + +```shell +sudo yum remove datadog-agent +``` + +このコマンドでは、Agent は削除されますが以下は削除されません。 +* `datadog.yaml` コンフィギュレーションファイル +* `/etc/datadog-agent` コンフィギュレーションフォルダ内のユーザー作成ファイル +* `/opt/datadog-agent` フォルダ内のユーザー作成ファイル +* `dd-agent` ユーザー +* Datadog ログファイル + +以上の要素も削除したい場合は、Agent 削除後に次のコマンドを実行します。 + +```shell +sudo userdel dd-agent \ +&& sudo rm -rf /opt/datadog-agent/ \ +&& sudo rm -rf /etc/datadog-agent/ \ +&& sudo rm -rf /var/log/datadog/ +``` +{{% /tab %}} + +{{% tab "Agent v5" %}} +```shell +sudo yum remove datadog-agent +``` + +このコマンドでは、Agent は削除されますが以下は削除されません。 + +* `datadog.yaml` コンフィギュレーションファイル +* `/etc/dd-agent` コンフィギュレーションフォルダ内のユーザー作成ファイル +* `/opt/datadog-agent` フォルダ内のユーザー作成ファイル +* `dd-agent` ユーザー +* Datadog ログファイル + +以上の要素も削除したい場合は、Agent 削除後に次のコマンドを実行します。 + +```shell +sudo userdel dd-agent \ +&& sudo rm -rf /opt/datadog-agent/ \ +&& sudo rm -rf /etc/dd-agent/ \ +&& sudo rm -rf /var/log/datadog/ +``` +{{% /tab %}} +{{< /tabs >}} + +## ヘルプ [Agent のトラブルシューティングに関するドキュメント][2]を参照してください。 diff --git a/content/ja/agent/basic_agent_usage/ubuntu.md b/content/ja/agent/basic_agent_usage/ubuntu.md index 167eb9799cf7f..1b8cb9706c83d 100644 --- a/content/ja/agent/basic_agent_usage/ubuntu.md +++ b/content/ja/agent/basic_agent_usage/ubuntu.md @@ -24,9 +24,9 @@ title: Ubuntu 用 Agent の基本的な使用方法 ## 概要 -このページでは、Ubuntu 用 Datadog Agent の基本的な機能について説明します。Agent をまだインストールしていない場合は、[Datadog Agent インテグレーションに関するドキュメント][1]で手順を参照してください。 +このページでは、Ubuntu 向けに Datadog Agent の基本的な機能の概要を説明します。 -64-bit x86 および Arm v8 アーキテクチャ用のパッケージをご用意しています。その他のアーキテクチャについては、ソースインストールをご利用ください。 +Agent をインストールするには、[インストール手順][1]を参照してください。64-bit x86 および Arm v8 アーキテクチャ用のパッケージをご用意しています。その他のアーキテクチャについては、ソースインストールをご利用ください。 **注**: Ubuntu 14.04 以降は、64 ビット x86 アーキテクチャでサポートされています。Ubuntu 16.04 以降は、64 ビット Arm v8 アーキテクチャでサポートされています。 diff --git a/content/ja/coscreen/troubleshooting.md b/content/ja/coscreen/troubleshooting.md index 393fe420a9e0a..8d44e38c2126e 100644 --- a/content/ja/coscreen/troubleshooting.md +++ b/content/ja/coscreen/troubleshooting.md @@ -4,6 +4,14 @@ kind: ガイド title: CoScreen の最適化およびトラブルシューティング --- +### CoScreen、Zoom、その他のツールで Bluetooth ヘッドセットのマイクを入力として使用すると、音質が低下するのはなぜですか? + +Bluetooth ヘッドセットを使用している場合、ヘッドセットのマイクがオーディオ入力デバイスとして選択されていると、再生品質が低下することがあります。CoScreen セッション中にオーディオを再生 (例えば、YouTube ビデオを再生) すると、このことに気づくかもしれません。これは、Bluetooth ヘッドセットが別の Bluetooth プロファイルの使用に切り替えたために起こる可能性があります。 + +オーディオ再生のみの場合、Bluetooth ヘッドセットは通常 [A2DP プロファイル][2]を使用し、これは高音質に最適化されていますが、マイクの使用はサポートしていません。ヘッドセットマイクをオーディオ入力として選択すると (例えば、CoScreen セッションまたは Zoom 会議中)、ヘッドセットは別のプロファイル、通常は [HFP][3] または [HSP][4] に切り替わります。これはマイクの使用をサポートしていますが、音質は低下します。ほとんどの Bluetooth ヘッドセットは一度に 1 つのプロファイルしか使用できません。 + +この問題を避けるには、ノートパソコンの内蔵マイクなど、別のオーディオ入力を使うことができます。高音質を取り戻すには、アプリケーションを再起動する必要があるかもしれません。 + ### 画面共有の品質やリモートコントロールのレイテンシーを最適化するにはどうすればよいですか? あなたとあなたの周りの人々が共有するウィンドウの品質の背後にあるいくつかの重要な要因に影響を与えることができます。 @@ -37,11 +45,15 @@ UI がグレーアウトした参加フェーズで止まっているのに、"U {{< img src="coscreen/assign-to-none.png" alt="macOS のドックのスクリーンショット。CoScreen を右クリックするとメニューが表示され、'Options' にカーソルを合わせると、2 つ目のメニューが表示されます。'Assign To' で、ユーザーは 'None' を選択しています。" style="width:60%;" >}} -### Windows 10 でのトラブルシューティング +### Windows でのトラブルシューティング + +#### CoScreen は Windows の管理者モードでどのように動作しますか? + +CoScreen を管理者モードで実行し、同じく管理者モードで起動されたアプリを共有する場合、すべてのリモートユーザーは共有されたウィンドウを操作することができます。しかし、非管理者モードで CoScreen を実行し、管理者モードで起動されたアプリを共有する場合、リモートユーザーはそのウィンドウを操作できません。 #### CoScreen の UI が小さく表示される -Windows 10 コンピューターで CoScreen UI が他のアプリより小さく表示される場合、ディスプレイ設定で構成されたスケーリング係数と CoScreen との相互作用が関係しています。画面のスケーリングと解像度を下げることで、エクスペリエンスを改善することができます。 +Windows コンピューターで CoScreen UI が他のアプリより小さく表示される場合、ディスプレイ設定で構成されたスケーリング係数と CoScreen との相互作用が関係しています。画面のスケーリングと解像度を下げることで、エクスペリエンスを改善することができます。 #### 私の声が聞き取りにくい、またはロボットみたいだ @@ -49,4 +61,7 @@ Windows 10 コンピューターで CoScreen UI が他のアプリより小さ {{< img src="coscreen/windows_screenshot.png" alt="Realtek Audio Console の Windows ダイアログのスクリーンショット。'Voice Recognition' のトグルはオフに設定されています。" style="width:70%;" >}} -[1]: https://packetlosstest.com/ \ No newline at end of file +[1]: https://packetlosstest.com/ +[2]: https://www.bluetooth.com/specifications/specs/advanced-audio-distribution-profile-1-4/ +[3]: https://www.bluetooth.com/specifications/specs/hands-free-profile/ +[4]: https://www.bluetooth.com/specifications/specs/headset-profile-1-2/ \ No newline at end of file diff --git a/content/ja/dashboards/widgets/_index.md b/content/ja/dashboards/widgets/_index.md index 42edec5d06cdb..f501365f3d127 100644 --- a/content/ja/dashboards/widgets/_index.md +++ b/content/ja/dashboards/widgets/_index.md @@ -102,7 +102,7 @@ img="dashboards/widgets/icons/run-workflow_light_small.svg">}} Run Workflow{{< / {{< nextlink href="/dashboards/widgets/slo" img="dashboards/widgets/icons/slo-summary_light_large.png">}} サービスレベル目標 (SLO) サマリー{{< /nextlink >}} {{< nextlink href="/dashboards/widgets/slo_list" - img="dashboards/widgets/icons/slo-list_light_large.png">}} サービスレベル目標 (SLO) リスト{{< /nextlink >}} + img="dashboards/widgets/icons/slo-list_light_large.png">}} サービスレベル目標 (SLO){{< /nextlink >}} {{< /whatsnext >}} ## 全画面 diff --git a/content/ja/database_monitoring/setup_mysql/aurora.md b/content/ja/database_monitoring/setup_mysql/aurora.md index 8d5c2a312fa81..d7a5ba4a3a718 100644 --- a/content/ja/database_monitoring/setup_mysql/aurora.md +++ b/content/ja/database_monitoring/setup_mysql/aurora.md @@ -349,7 +349,7 @@ Cluster Agent は自動的にこのコンフィギュレーションを登録し ## RDS インテグレーションをインストール -AWS からより包括的なデータベースメトリクスを収集するには、[RDS インテグレーション][8]をインストールします (オプション)。 +DBM でデータベースのテレメトリーとともに CPU などの AWS からのインフラストラクチャーメトリクスを確認するには、[RDS インテグレーション][8]をインストールします (オプション)。 ## トラブルシューティング diff --git a/content/ja/database_monitoring/setup_mysql/rds.md b/content/ja/database_monitoring/setup_mysql/rds.md index 19a262ea1ffdc..418d34c4cbb79 100644 --- a/content/ja/database_monitoring/setup_mysql/rds.md +++ b/content/ja/database_monitoring/setup_mysql/rds.md @@ -341,7 +341,7 @@ Cluster Agent は自動的にこのコンフィギュレーションを登録し ## RDS インテグレーションをインストール -AWS からより包括的なデータベースメトリクスを収集するには、[RDS インテグレーション][8]をインストールします (オプション)。 +DBM でデータベースのテレメトリーと一緒に CPU などの AWS からのインフラストラクチャーメトリクスを見るには、[RDS インテグレーション][8]をインストールします (オプション)。 ## トラブルシューティング diff --git a/content/ja/database_monitoring/setup_postgres/aurora.md b/content/ja/database_monitoring/setup_postgres/aurora.md index f4e59ef34cdb4..f4d4de035d0c6 100644 --- a/content/ja/database_monitoring/setup_postgres/aurora.md +++ b/content/ja/database_monitoring/setup_postgres/aurora.md @@ -401,7 +401,8 @@ Cluster Agent は自動的にこのコンフィギュレーションを登録し {{% dbm-postgres-agent-config-examples %}} ## RDS インテグレーションをインストール -AWS からより包括的なデータベースメトリクスを収集するには、[RDS インテグレーション][11]をインストールします (オプション)。 +DBM でデータベースのテレメトリーとともに CPU などの AWS からのインフラストラクチャーメトリクスを直接確認するには、[RDS インテグレーション][11]をインストールします (オプション)。 + ## トラブルシューティング diff --git a/content/ja/database_monitoring/setup_sql_server/azure.md b/content/ja/database_monitoring/setup_sql_server/azure.md index b1d97ac19cf25..a1b0a62473bab 100644 --- a/content/ja/database_monitoring/setup_sql_server/azure.md +++ b/content/ja/database_monitoring/setup_sql_server/azure.md @@ -129,8 +129,9 @@ GRANT VIEW ANY DEFINITION to datadog; Azure はホストへの直接アクセスを許可しないため、Datadog Agent は SQL Server ホストと通信可能な別のホストにインストールする必要があります。Agent のインストールと実行には、いくつかのオプションがあります。 {{< tabs >}} -{{% tab "Windows ホスト" %}} -SQL Server テレメトリーの収集を開始するには、まず [Datadog Agent をインストール][1]します。 +{{% tab "Windows Host" %}} + +Oracle テレメトリーの収集を開始するには、まず [Datadog Agent をインストール][1]します。 SQL Server Agent のコンフィギュレーションファイル `C:\ProgramData\Datadog\conf.d\sqlserver.d\conf.yaml` を作成します。使用可能なすべての構成オプションは、[サンプルコンフィギュレーションファイル][2]を参照してください。 diff --git a/content/ja/developers/integrations/create-an-integration-dashboard.md b/content/ja/developers/integrations/create-an-integration-dashboard.md index 9d23542919b8b..18eec5994d20d 100644 --- a/content/ja/developers/integrations/create-an-integration-dashboard.md +++ b/content/ja/developers/integrations/create-an-integration-dashboard.md @@ -19,7 +19,7 @@ Datadog インテグレーションを作成するには、[Agent インテグ ### ダッシュボードの作成 -Datadog で [**Dashboards** > **Dashboard List**][12] に移動し、**+ New Dashboard** をクリックします。 +Datadog の [**Dashboard List**][12] から、**+ New Dashboard** をクリックします。 {{< img src="dashboards/create_dashboard.png" alt="インテグレーション用のダッシュボードの作成" width="80%">}} diff --git a/content/ja/developers/service_checks/_index.md b/content/ja/developers/service_checks/_index.md index 3a5b4fbb6ee7b..eadfadfc976b0 100644 --- a/content/ja/developers/service_checks/_index.md +++ b/content/ja/developers/service_checks/_index.md @@ -38,13 +38,11 @@ title: Service Check ### チェック内容のサマリー -**Monitors** > **Check Summary** をクリックし、[チェック内容のサマリー][1]ページを表示します。 +[Check Summary][1] ページには、過去 1 日間にインフラストラクチャー全体で報告されたすべてのチェックが一覧表示されます。チェックを選択すると、そのチェックに関連するステータスとタグに関する洞察が表示されます。 {{< img src="developers/service_checks/check_summary.png" alt="チェック内容のサマリー" >}} -これは、インフラストラクチャー全体の前日のチェックとステータス報告のリストです。チェックの 1 つを選択すると、関連付けられたタグごとに個別チェックの数が表示されます。 - -### スクリーンボード +### シグナルの詳細を取得する スクリーンボードの**チェックステータス**ウィジェットを使用して、サービスチェックを視覚化できます。 @@ -63,8 +61,7 @@ title: Service Check ## サービスチェックモニター -サービスチェックは、メトリクスのように時間をかけてグラフ化できなくても、モニターすることは可能です。 -**Monitors** > **New Monitor** で、**Service Check** を選択します。 +サービスチェックをメトリクスのように時系列でグラフ化できなくても、[Service Check Monitor][3] で監視することができます。 {{< img src="developers/service_checks/service_check_monitor.png" alt="チェックモニター" >}} @@ -80,6 +77,6 @@ title: Service Check [1]: https://app.datadoghq.com/check/summary [2]: https://app.datadoghq.com/dashboard -[3]: https://app.datadoghq.com/monitors#create/custom +[3]: https://app.datadoghq.com/monitors/create/custom [4]: /ja/monitors/notify/ [5]: /ja/monitors/types/service_check/ \ No newline at end of file diff --git a/content/ja/getting_started/agent/_index.md b/content/ja/getting_started/agent/_index.md index 66927f2c7c4e6..879f9601888fd 100644 --- a/content/ja/getting_started/agent/_index.md +++ b/content/ja/getting_started/agent/_index.md @@ -30,7 +30,7 @@ Agent は、15~20 秒ごとに 75~100 のシステムレベルメトリク ### Agent のオーバーヘッド -Agent が占有するスペースとリソースの量は、構成と Agent が送信するように構成されているデータによって異なります。初期状態では、平均して約 0.08% の CPU 使用率と、約 830MB から 880MB のディスクスペースが見込まれます。 +Agent が占有するスペースとリソースの量は、構成と Agent が送信するように構成されているデータによって異なります。初期状態では、平均して約 0.08% の CPU 使用率と、約 880MB から 1.3GB のディスクスペースが見込まれます。 これらのベンチマークについて詳しくは、[Agent Overhead][2] を参照してください。 @@ -100,7 +100,7 @@ Agent は 15 秒ごとにホストデータを収集し、環境全体で何が ### インストール -Datadog UI で、**Integrations > Agent** に移動し、Ubuntu を選択して、Ubuntu 用の Agent インストールページに移動します。Datadog Agent をホストにインストールするには、そのページにある 1 行のインストールコマンド (以下に示す例) を使用し、[Datadog API キー][16]で更新します。 +Datadog UI で [Agent Installation ページ][18]に移動し、**Ubuntu** をクリックします。ホストに Datadog Agent をインストールするには、そのページから 1 行のインストールコマンド (下図の例) を使用し、[Datadog API キー][16]で更新します。 Ubuntu の 1 行インストールコマンドの例: @@ -108,7 +108,7 @@ Ubuntu の 1 行インストールコマンドの例: DD_API_KEY= DD_SITE="{{< region-param key="dd_site" >}}" bash -c "$(curl -L https://s3.amazonaws.com/dd-agent/scripts/install_script_agent7.sh)" ``` -最新のインストール方法については、お使いの OS のアプリ内 [Agent インストールページ][18]をご覧ください。 +[Agent Installation ページ][18]を使用して、お使いのオペレーティングシステムの最新のインストール手順を参照してください。 ### 検証 @@ -139,7 +139,7 @@ Agent (v7.36.1) #### イベント -Datadog UI で、**Service Mgmt > Event Management** のイベント管理ページにアクセスしてください。Agent が起動または再起動すると、Agent は Datadog にイベントを送信します。Agent が正常にインストールされると、以下のメッセージが表示されます。 +Datadog UI で [Events Explorer ページ][20]に移動します。Agent が起動または再起動されると、Agent は Datadog にイベントを送信します。Agent が正常にインストールされると、以下のメッセージが表示されます。 ```text Datadog agent (v. 7.XX.X) started on @@ -155,11 +155,11 @@ Agent は、以下のサービスチェックを行うように設定されて - `datadog.agent.check_status`: Agent チェックが Datadog にメトリクスを送信できない場合は、`CRITICAL` を返します。それ以外の場合は、`OK` を返します。 -これらのチェックは、Datadog プラットフォームで使用することで、モニターやダッシュボードを通じて Agent のステータスを一目で視覚化することができます。詳しくは、[サービスチェックの概要][20]を参照してください。 +これらのチェックは、Datadog プラットフォームで使用することで、モニターやダッシュボードを通じて Agent のステータスを一目で視覚化することができます。詳しくは、[サービスチェックの概要][21]を参照してください。 #### メトリクス -Datadog UI で、メトリクスサマリーページ **Metrics > Summary** に移動し、メトリクス `datadog.agent.started` または メトリクス `datadog.agent.running` を検索してください。これらのメトリクスがすぐに表示されない場合、Agent が Datadog プラットフォームにデータを送信するのに数分かかることがあります。 +Datadog UI で、[Metrics Summary ページ][22]に移動し、メトリクス `datadog.agent.started` または メトリクス `datadog.agent.running` を検索してください。これらのメトリクスがすぐに表示されない場合、Agent が Datadog プラットフォームにデータを送信するのに数分かかることがあります。 いずれかのメトリクスをクリックすると、Metric パネルが開きます。このパネルには、これらのメトリクスがどこから収集されたか、および関連するタグに関する追加のメタデータが表示されます。このチュートリアルでは今のところ、このホストにはタグが構成されていないため、`version` や `host` など、Datadog がメトリクスに割り当てるデフォルトのタグだけが表示されるはずです。タグを追加する方法については、次の Agent コンフィギュレーションファイルのセクションを参照してください。 @@ -171,7 +171,7 @@ Agent の主なコンフィギュレーションファイルは `datadog.yaml` - [Datadog API キー][16]。Agent のデータを組織と関連付けるために使用されます。 - Datadog サイト ({{< region-param key="dd_site" code="true" >}}) -使用可能なすべての構成オプションの詳細については、[サンプル `config_template.yaml` ファイル][21]を参照してください。 +使用可能なすべての構成オプションの詳細については、[サンプル `config_template.yaml` ファイル][23]を参照してください。 Agent のコンフィギュレーションファイルを調整することで、タグを含む他の Datadog の機能を利用することができます。 @@ -179,9 +179,9 @@ Agent のコンフィギュレーションファイルを調整することで タグは、メトリクスとイベントにメタデータの追加レイヤーを追加します。これにより、Datadog の視覚化において、データのスコープと比較ができるようになります。複数のホストから Datadog にデータが送信された場合、この情報をタグ付けすることで、最も視覚化したいデータにスコープを絞ることができます。 -例えば、異なるチームから収集したデータを持っていて、チーム・アルファのメトリクスだけを見たい場合、特定のホストに `team:alpha` または `team:bravo` タグを付けると、`team:alpha` タグが付いているメトリクスにフィルターがかかるようになります。タグ付けの詳細については、[タグの使用を開始する][22]を参照してください。 +例えば、異なるチームから収集したデータを持っていて、チーム・アルファのメトリクスだけを見たい場合、特定のホストに `team:alpha` または `team:bravo` タグを付けると、`team:alpha` タグが付いているメトリクスにフィルターがかかるようになります。タグ付けの詳細については、[タグの使用を開始する][24]を参照してください。 -1. Agent の[メインコンフィギュレーションファイル][23]を探します。Ubuntu の場合、ファイルの場所は `/etc/datadog-agent/datadog.yaml` です。 +1. Agent の[メインコンフィギュレーションファイル][25]を探します。Ubuntu の場合、ファイルの場所は `/etc/datadog-agent/datadog.yaml` です。 2. `datadog.yaml` ファイルで、`tags` パラメーターを探します。ホストレベルのタグを `datadog.yaml` 構成で設定すると、このホストから転送される全てのメトリクス、トレース、ログにタグを適用することができます。 @@ -218,19 +218,19 @@ Agent のコンフィギュレーションファイルを調整することで - test:agent_walkthrough ``` -4. Agent の [restart コマンド][24]を実行して、Agent を再起動します。Ubuntu の restart コマンド: +4. Agent の [restart コマンド][26]を実行して、Agent を再起動します。Ubuntu の restart コマンド: ```shell sudo service datadog-agent restart ``` -5. 数分後、再び **Metrics > Summary** に移動し、メトリクス `datadog.agent.started` をクリックします。デフォルトの `host` と `version` タグに加えて、`team` タグや追加した個人用タグも表示されます。また、ページ上部にある `Tag` フィールドでメトリクスをフィルターすることもできます。 +5. 数分後、再び [Metrics Summary ページ][22]に移動し、メトリクス `datadog.agent.started` をクリックします。デフォルトの `host` と `version` タグに加えて、`team` タグや追加した個人用タグも表示されます。また、ページ上部にある `Tag` フィールドでメトリクスをフィルターすることもできます。 -6. **Service Mgmt > Event Management** で、最新の Agent イベントとともに表示されるカスタムタグを見つけます。 +6. [Events Explorer ページ][20]で、最新の Agent イベントとともに表示されるカスタムタグを見つけます。 #### その他の構成オプション -[ログ][25]、[トレース][26]、[プロセス][27]のデータ収集は、Agent コンフィギュレーションファイルから有効にすることができます。これらは、デフォルトで有効になっている機能ではありません。例えば、コンフィギュレーションファイルで、`logs_enabled` パラメーターが false に設定されていることに注目してください。 +[ログ][27]、[トレース][28]、[プロセス][29]のデータ収集は、Agent コンフィギュレーションファイルから有効にすることができます。これらは、デフォルトで有効になっている機能ではありません。例えば、コンフィギュレーションファイルで、`logs_enabled` パラメーターは false に設定されています。 ```yaml ################################## @@ -245,23 +245,23 @@ Agent のコンフィギュレーションファイルを調整することで ``` Agent コンフィギュレーションファイルを通じて構成可能なその他の Datadog 機能は以下の通りです。 -- [OTLP トレース取り込み][28]を有効にする -- [ログ収集のカスタマイズ][29]で機密データをフィルターまたはスクラブする -- [DogStatsD][30] によるカスタムデータの構成 +- [OTLP トレース取り込み][30]を有効にする +- [ログ収集のカスタマイズ][31]で機密データをフィルターまたはスクラブする +- [DogStatsD][32] によるカスタムデータの構成 セットアップ中、ドキュメントが `datadog.yaml` ファイルまたは Agent コンフィギュレーションファイルに言及している場合、このファイルを構成する必要があります。 ## コマンド -Agent を[起動][32]、[停止][33] または [再起動][24]する方法については、[Agent のコマンド][31]を参照してください。 +Agent を[起動][34]、[停止][35] または [再起動][26]する方法については、[Agent のコマンド][33]を参照してください。 ## トラブルシューティング Agent のトラブルシューティングに関するヘルプ -- [Agent のトラブルシューティング][34]を参照してください。 -- [Agent のログファイル][35]を確認してください。 -- [Datadog のサポートチーム][36]までお問合せください。 +- [Agent のトラブルシューティング][36]を参照してください。 +- [Agent のログファイル][37]を確認してください。 +- [Datadog のサポートチーム][38]までお問い合わせください。 ## その他の参考資料 @@ -297,20 +297,22 @@ Agent のトラブルシューティングに関するヘルプ [17]: /ja/agent/basic_agent_usage/?tab=agentv6v7 [18]: https://app.datadoghq.com/account/settings/agent/latest [19]: /ja/agent/configuration/agent-commands/#agent-status-and-information -[20]: /ja/developers/service_checks/#visualize-your-service-check-in-datadog -[21]: https://github.com/DataDog/datadog-agent/blob/master/pkg/config/config_template.yaml -[22]: /ja/getting_started/tagging/ -[23]: /ja/agent/configuration/agent-configuration-files/#agent-main-configuration-file -[24]: /ja/agent/configuration/agent-commands/#restart-the-agent -[25]: /ja/logs/ -[26]: /ja/tracing/ -[27]: /ja/infrastructure/process/?tab=linuxwindows#introduction -[28]: /ja/opentelemetry/otlp_ingest_in_the_agent/?tab=host -[29]: /ja/agent/logs/advanced_log_collection/ -[30]: /ja/developers/dogstatsd/?tab=hostagent -[31]: /ja/agent/configuration/agent-commands/ -[32]: /ja/agent/configuration/agent-commands/#start-the-agent -[33]: /ja/agent/configuration/agent-commands/#stop-the-agent -[34]: /ja/agent/troubleshooting/ -[35]: /ja/agent/configuration/agent-log-files/ -[36]: /ja/help/ \ No newline at end of file +[20]: https://app.datadoghq.com/event/explorer +[21]: /ja/developers/service_checks/#visualize-your-service-check-in-datadog +[22]: https://app.datadoghq.com/metric/summary +[23]: https://github.com/DataDog/datadog-agent/blob/master/pkg/config/config_template.yaml +[24]: /ja/getting_started/tagging/ +[25]: /ja/agent/configuration/agent-configuration-files/#agent-main-configuration-file +[26]: /ja/agent/configuration/agent-commands/#restart-the-agent +[27]: /ja/logs/ +[28]: /ja/tracing/ +[29]: /ja/infrastructure/process/?tab=linuxwindows#introduction +[30]: /ja/opentelemetry/otlp_ingest_in_the_agent/?tab=host +[31]: /ja/agent/logs/advanced_log_collection/ +[32]: /ja/developers/dogstatsd/?tab=hostagent +[33]: /ja/agent/configuration/agent-commands/ +[34]: /ja/agent/configuration/agent-commands/#start-the-agent +[35]: /ja/agent/configuration/agent-commands/#stop-the-agent +[36]: /ja/agent/troubleshooting/ +[37]: /ja/agent/configuration/agent-log-files/ +[38]: /ja/help/ \ No newline at end of file diff --git a/content/ja/getting_started/ci_visibility/_index.md b/content/ja/getting_started/ci_visibility/_index.md new file mode 100644 index 0000000000000..a8ed37d9350fb --- /dev/null +++ b/content/ja/getting_started/ci_visibility/_index.md @@ -0,0 +1,164 @@ +--- +algolia: + tags: + - pipeline visibility + - usm + - CI パイプライン +further_reading: +- link: https://www.datadoghq.com/blog/monitor-ci-pipelines/ + tag: ブログ + text: Datadog によるすべての CI パイプラインの監視 +- link: https://www.datadoghq.com/blog/best-practices-for-ci-cd-monitoring/ + tag: ブログ + text: CI/CD モニタリングのベストプラクティス +- link: /continuous_integration/pipelines + tag: ドキュメント + text: CI Pipeline Visibility について +- link: /monitors/types/ci + tag: ドキュメント + text: CI Pipeline Monitors について +kind: ドキュメント +title: CI Visibility の概要 +--- + +## 概要 + +CI Visibility または CI Pipeline Visibility では、CI パイプラインの健全性を監視し、パイプライン実行のパフォーマンスをトレースとして視覚化できます。トレース内のスパンはパイプラインの異なるレベルを表します。 + +{{< img src="/getting_started/ci_visibility/pipelines_list.png" alt="Datadog CI Visibility の CI パイプラインのリスト表示" style="width:100%" >}} + +CI Visibility では、CI ジョブのログを転送し、それらをパイプラインと自動的に関連付けることができます。使用しているプロバイダーによって、CI Visibility の [**Settings** ページ][1]でジョブログの収集を有効にするか、またはプロバイダーの設定で Datadog とのインテグレーションを行うことができます。 + +`datadog-ci` CLI を使用して、パイプライン内で[トレースコマンド][2]や[カスタムタグとメジャーコマンド][3]を実行し、パイプラインのトレースにユーザー定義のテキストタグや数値タグを追加することもできます。 + +CI Visibility は DevOps およびプラットフォームエンジニアリング組織に包括的なモニタリング、分析、ボトルネックの特定と解決、リソース割り当ての最適化、CI コストの削減を提供します。 + +パフォーマンスメトリクス、ログ、アラートを統合することで、組織は開発速度を向上させ、パイプラインの信頼性を高め、クラウド環境およびセルフホスト環境におけるデータに基づいた意思決定を行うことができます。 + +## CI プロバイダーの設定 + +CI Visibility は、CI パイプラインのパフォーマンスと結果を追跡し、パイプラインが終了した後に結果を表示します。 + +パイプラインメトリクスの送信を開始するには、以下の Datadog がサポートする CI プロバイダーのいずれかのドキュメントを参照してください。 + +{{< partial name="continuous_integration/ci-pipelines-getting-started.html" >}} + +
+ +CI プロバイダーがサポートされていない場合、プログラムを使用してパイプラインイベントを Datadog に送信できます。詳細は[パイプライン イベントを Datadog に送信するセクション](#send-pipeline-events-to-datadog)を参照してください。 + +選択した CI プロバイダーによっては、CI Visibility がパイプラインのすべてのレベル (ステージ、ジョブ、ステップ、コマンド) をサポートしていない場合があります。CI Visibility がどのように CI パイプラインを定義するかについては、[用語セクション][4]を参照してください。 + +## CI パイプラインデータの利用 + +パイプラインのメトリクス (キュー時間、継続時間、パーセンタイル、ステータスなど) にアクセスし、CI プロバイダー全体で収集されたデータを使用して重要な傾向とパターンを特定し始めます。 + +{{< img src="/getting_started/ci_visibility/pipelines_dashboard.png" alt="すぐに使えるダッシュボードで、CI Visibility のパイプライン、ジョブ、ステージから収集したデータを表示するウィジェット" style="width:100%" >}} + +[ダッシュボード][5]を作成してパイプラインで障害が発生しているポイントを視覚化することや、[すぐに使えるダッシュボード][6]で CI Visibility で収集したデータを入力したウィジェットを使用して、CI パイプライン、ステージ、ジョブの健全性とパフォーマンスを視覚化することができます。 + +## CI パイプラインの検索と管理 + +[**CI Pipeline List** ページ][7]は、デフォルトブランチの CI パイプラインのパフォーマンスと信頼性に関する包括的なビューを提供します。集計された統計、トレンド、およびパイプラインに関する情報にアクセスし、障害や回帰などの問題を特定して解決します。 + +トラブルシューティングを強化し、パイプライン管理プロセスを合理化するために、パイプラインをクリックしてインサイトにアクセスし、実行履歴をレビューし、ログや関連するテレメトリーデータにピボットします。詳細については、[CI パイプラインの検索と管理][8]を参照してください。 + +## CI Visibility Explorer で結果を確認 + +[CI Visibility Explorer][9] では、CI プロバイダーから収集したデータを使用してパイプラインスパンの視覚化やフィルタリングを行うことができます。各パイプライン実行は、ステージとジョブ情報を含むトレースとして報告されます。 + +{{< tabs >}} +{{% tab "パイプライン" %}} + +[**Software Delivery** > **CI Visibility** > **Executions**][101] に移動し、`Pipeline` を選択してパイプラインスパンの結果のフィルタリングを開始します。 + +{{< img src="/getting_started/ci_visibility/pipeline_view.png" alt="Shopist リポジトリでフィルタリングされた CI Visibility Explorer のパイプライン実行結果" style="width:100%" >}} + +[101]: https://app.datadoghq.com/ci/pipeline-executions?query=ci_level%3Apipeline + +{{% /tab %}} +{{% tab "ステージ" %}} + +[**Software Delivery** > **CI Visibility** > **Executions**][101] に移動し、`Stage` を選択してステージスパンの結果のフィルタリングを開始します。 + +{{< img src="/getting_started/ci_visibility/stage_view.png" alt="Shopist リポジトリでフィルタリングされた CI Visibility Explorer のステージ結果" style="width:100%" >}} + +[101]: https://app.datadoghq.com/ci/pipeline-executions?query=ci_level%3Astage + +{{% /tab %}} +{{% tab "ジョブ" %}} + +[**Software Delivery** > **CI Visibility** > **Executions**][101] に移動し、`Job` を選択してジョブスパンの結果のフィルタリングを開始します。 + +{{< img src="/getting_started/ci_visibility/job_view.png" alt="Shopist リポジトリでフィルタリングされた CI Visibility Explorer のジョブ結果" style="width:100%" >}} + +[101]: https://app.datadoghq.com/ci/pipeline-executions?query=ci_level%3Ajob + +{{% /tab %}} +{{% tab "ステップ" %}} + +[**Software Delivery** > **CI Visibility** > **Executions**][101] に移動し、`Step` を選択してステップスパンの結果のフィルタリングを開始します。 + +{{< img src="/getting_started/ci_visibility/step_view.png" alt="Shopist リポジトリでフィルタリングされた CI Visibility Explorer のステップ結果" style="width:100%" >}} + +[101]: https://app.datadoghq.com/ci/pipeline-executions?query=ci_level%3Astep + +{{% /tab %}} +{{< /tabs >}} + +[ファセット][9]を使用して検索クエリをカスタマイズし、パイプラインの各レベルで費やされた時間の変化を特定します。 + +パイプラインをクリックすると、**Pipeline Executions** セクションにリストされている個々のパイプライン実行にアクセスできます。パイプラインの実行をクリックすると、**Trace** タブでフレームグラフやスパンのリストを見ることができます。 + +{{< img src="/getting_started/ci_visibility/executions.png" alt="ステージングビルドおよびテストパイプラインのフレームグラフとして視覚化されたパイプライン実行結果" style="width:100%" >}} + +パイプラインのボトルネックを特定し、実行時間の割合が大きいものから小さいものへとランク付けされた個々のノードを調査できます。 + +Test Visibility を設定した後、パイプライン実行のサイドパネルの Test Runs タブで、テストのステータス (Failed、New Flaky、Passed、Skipped) を含む CI パイプラインで実行されたテストに関する情報にアクセスできます。詳細については、[Flaky Test Management ドキュメント][10]を参照してください。 + +パイプライン実行のサイドパネルの Logs タブで、クラウドおよびセルフホスト型ランナー全体のパイプラインまたはジョブのログにアクセスし、ランナーに関する情報を確認できます。 + +[サポートされているプロバイダー][11]を使用している場合、インフラストラクチャーのメトリクスと GitLab ジョブを関連付け、GitLab ジョブのホスト、システム、ホストタグ、ホストメトリクスの情報にアクセスできます。詳細については、[Datadog で GitLab ジョブとインフラストラクチャーメトリクスを相関させる][12]を参照してください。 + +## パイプラインイベントを Datadog に送信 + +他のパイプラインプロバイダーやカスタムパイプラインの場合、[CI Visibility Pipelines API][16] を使用してパイプラインイベントを Datadog にプログラムで送信できます。詳細については、[パイプラインデータモデルと実行タイプ][13]を参照してください。 + +リクエストには、パイプライン実行のトリガーとなったコミットの以下の Git 情報 (リポジトリ URL、コミット SHA、および作者のメール) を含めてください。 + +## CI パイプラインモニターを作成 + +[CI モニター][14]を使用して、CI パイプラインで障害が発生したり、期間のしきい値を超えたりしたときに、パイプラインの健全性やパフォーマンスの低下を組織の関連チームに警告します。 + +{{< img src="/getting_started/ci_visibility/avg_duration_monitor.png" alt="テストとデプロイカートパイプラインの平均継続時間が過去 1 日で 5 分を超えたときにトリガーするように構成された CI パイプラインモニター" style="width:100%" >}} + +過去 1 日の平均継続時間が 5 分のしきい値を超えたときに CI パイプラインに警告を出すモニターを設定するには、以下の手順に従います。 + +1. [**Monitors** > **New Monitor**][15] に移動し、**CI** を選択します。 +1. CI パイプラインの一般的なモニタータイプを選択して開始します。たとえば、パイプラインの実行時間が長すぎる場合に警告をトリガーする `Long Running Pipeline` や、ジョブの失敗に対して警告をトリガーする `Failed Job` を選択するか、独自の検索クエリをカスタマイズします。この例では、`@ci.pipeline.name:test_and_deploy_cart` を入力し、`Duration (@duration)` の平均を選択します。 +1. `Evaluate the query over the` セクションで、**last 1 day** を選択します。 +1. 評価された値がしきい値を**超えたとき**に警告をトリガーするように警告条件を設定し、`Alert threshold > 300000000000` のように警告や注意のしきい値を指定します。 +1. `Notify your team` セクションで、モニターの通知設定を構成します。 +1. モニターの権限を設定します。 +1. **Create** をクリックします。 + +## その他の参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/ci/settings +[2]: /ja/continuous_integration/pipelines/custom_commands/ +[3]: /ja/continuous_integration/pipelines/custom_tags_and_measures/ +[4]: /ja/continuous_integration/pipelines/?tab=githubactions#terminology +[5]: /ja/dashboards/ +[6]: https://app.datadoghq.com/dash/integration/30516/ci-visibility---pipelines-dashboard +[7]: https://app.datadoghq.com/ci/pipelines +[8]: /ja/continuous_integration/search/ +[9]: /ja/continuous_integration/explorer?tab=pipelineexecutions +[10]: /ja/tests/guides/flaky_test_management/ +[11]: /ja/continuous_integration/pipelines/?tab=githubactions#supported-features +[12]: /ja/continuous_integration/guides/infrastructure_metrics_with_gitlab/ +[13]: /ja/continuous_integration/guides/pipeline_data_model/ +[14]: /ja/monitors/types/ci/?tab=pipelines +[15]: https://app.datadoghq.com/monitors/create +[16]: /ja/api/latest/ci-visibility-pipelines/ \ No newline at end of file diff --git a/content/ja/getting_started/intelligent_test_runner/_index.md b/content/ja/getting_started/intelligent_test_runner/_index.md new file mode 100644 index 0000000000000..5312fc67158e4 --- /dev/null +++ b/content/ja/getting_started/intelligent_test_runner/_index.md @@ -0,0 +1,161 @@ +--- +algolia: + tags: + - intelligent test runner + - CI テスト + - CI テスト + - 不安定なテスト + - 不安定なテスト +further_reading: +- link: https://www.datadoghq.com/blog/streamline-ci-testing-with-datadog-intelligent-test-runner/ + tag: ブログ + text: Datadog Intelligent Test Runner による CI テストの効率化 +- link: /intelligent_test_runner/ + tag: ドキュメント + text: Intelligent Test Runner について +- link: /tests/code_coverage/ + tag: ドキュメント + text: コードカバレッジについて +kind: ドキュメント +title: Intelligent Test Runner の概要 +--- + +## 概要 + +[Intelligent Test Runner][1] は、最近のコード変更によって影響を受けない無関連なテストをインテリジェントに除外することにより、組織のテスト影響分析を合理化します。 + +[Test Visibility][2] により、開発チームはテストサービス用に Intelligent Test Runner を構成し、除外すべきブランチ (たとえばデフォルトブランチ) を設定し、追跡すべきファイルを定義できます (追跡されたファイルの変更時にはすべてのテストの完全な実行がトリガーされます)。 + +{{< img src="/continuous_integration/itr_test_selection_diagram.png" alt="Intelligent Test Runner のコンポーネントのベン図: 追跡ファイル、除外ブランチ、およびスキップされたテスト" caption="Intelligent Test Runner が追跡ファイル、除外ブランチ、および通過したテストを使用して除外テストを定義する方法を示すベン図" style="width:65%" >}} + +テストサービスに Intelligent Test Runner を構成し有効化することで、CI 環境全体の信頼性とパフォーマンスを維持しつつ、不要なテスト時間を削減し、CI のテスト効率を向上させ、コストを削減します。 + +Intelligent Test Runner は [コードカバレッジデータ][5]を使用してテストをスキップすべきかどうかを判断します。詳細は [Datadog の Intelligent Test Runner の仕組み][10]を参照してください。 + +## Intelligent Test Runner のセットアップ + +Intelligent Test Runner をセットアップするためには、お使いのプログラミング言語に関する以下のドキュメントを参照してください。 + +{{< partial name="continuous_integration/ci-itr-setup.html" >}} + +
+ +## Intelligent Test Runner の有効化 + +Intelligent Test Runner を有効にするには + +1. [**Software Delivery** > **Test Visibility** > **Settings**][3] に移動します。 +1. **Test Services** タブで、サービスの `Intelligent Test Runner` 列で **Configure** をクリックします。 + +{{< img src="/getting_started/intelligent_test_runner/enable_settings.png" alt="Test Service Settings ページでテストサービスに Intelligent Test Runner を有効にする" style="width:100%" >}} + +`Intelligent Test Runner Activation Write` 権限が必要です。詳細は [Datadog のロール権限についてのドキュメント][4]を参照してください。 + +クリティカルブランチ (たとえばデフォルトブランチなど) で Intelligent Test Runner を無効にすることで、包括的なテストカバレッジが確保されますが、機能や開発ブランチでそれを有効にすることで、テストの効率を最大限に高めることができます。 + +## Intelligent Test Runner の構成 + +Intelligent Test Runner を構成して、特定のテストがスキップされないようにすることができます。これらのテストは*スキップできないテスト*と呼ばれ、[コードカバレッジデータ][5]にかかわらず実行されます。 + +Intelligent Test Runner を構成するには + +1. **Status** トグルをクリックして Intelligent Test Runner を有効にします。 +1. 除外するブランチ (通常はリポジトリのデフォルトブランチ) を指定します。Intelligent Test Runner は、これらのブランチのテストをスキップしません。 +1. 追跡するファイルディレクトリとファイルを指定します (たとえば `documentation/content/**` や `domains/shopist/apps/api/BUILD.bazel` など) 。Intelligent Test Runner は、これらの追跡ファイルが変更された場合、すべての CI テストを実行します。 +1. **Save Settings** をクリックします。 + +{{< img src="/getting_started/intelligent_test_runner/configure_itr.png" alt="Intelligent Test Runner を有効にし、Intelligent Test Runner が除外するブランチを提供し、変更があった場合にテストを実行するために Intelligent Test Runner が追跡するファイルを追加する" style="width:100%" >}} + +テストサービスで Intelligent Test Runner を構成した後、デフォルトブランチでテストスイートの実行を行います。これにより、将来のコミットで無関係なテストを正確にスキップできる基準が確立されます。 + +## Intelligent Test Runner のデータを活用する + +Intelligent Test Runner を有効にすることで収集されたデータを探索し、テストのスキップによる時間節約や、組織における Intelligent Test Runner の利用状況などを分析して、CI の効率を向上させましょう。 + +{{< img src="/getting_started/intelligent_test_runner/dashboard.png" alt="テストがスキップされたことによる時間節約と、組織の Intelligent Test Runner の使用状況についての情報を表示する、すぐに使えるダッシュボード" style="width:100%" >}} + +[ダッシュボード][6]を作成してテストのメトリクスを視覚化することも、Intelligent Test Runner が収集したデータを利用したウィジェットを含む[すぐに使えるダッシュボード][7]を使用して、利用パターンや傾向から改善点を特定することもできます。 + +## Test Visibility Explorer で結果を検証する + +[Test Visibility Explorer][8] では、Test Visibility と Intelligent Test Runner から収集したデータを用いて視覚化の作成やテストスパンのフィルタリングが可能です。Intelligent Test Runner がアクティブな場合は、各テストセッションやコミットで節約された時間が表示され、期間バーが紫色に変わります。これはアクティブなテストスキップを示します。 + +{{< tabs >}} +{{% tab "セッション" %}} + +[**Software Delivery** > **Test Visibility** > **Test Runs**][101] に移動し、`Session` を選択してテストセッションスパンの結果のフィルタリングを開始します。 + +{{< img src="/getting_started/intelligent_test_runner/itr_sessions.png" alt="Intelligent Test Runner によってスキップされたテストでフィルタリングされた Test Visibility Explorer のテストセッション結果" style="width:100%" >}} + +[101]: https://app.datadoghq.com/ci/test-runs?query=test_level%3Asession + +{{% /tab %}} +{{% tab "モジュール" %}} + +[**Software Delivery** > **Test Visibility** > **Test Runs**][101] に移動し、`Module` を選択して、テストモジュールスパンの結果のフィルタリングを開始します。 + +{{< img src="/getting_started/intelligent_test_runner/itr_modules.png" alt="Test Visibility Explorer で、Intelligent Test Runner によってスキップされたテストでフィルタリングされたテストモジュールの結果" style="width:100%" >}} + +[101]: https://app.datadoghq.com/ci/test-runs?query=test_level%3Amodule + +{{% /tab %}} +{{% tab "スイート" %}} + +[**Software Delivery** > **Test Visibility** > **Test Runs**][101] に移動し、`Suite` を選択して、テストスイートスパン結果のフィルタリングを開始します。 + +{{< img src="/getting_started/intelligent_test_runner/itr_suites.png" alt="Test Visibility Explorer で、Intelligent Test Runner がスキップしたテストにフィルタリングされたテストスイートの結果" style="width:100%" >}} + +[101]: https://app.datadoghq.com/ci/test-runs?query=test_level%3Asuite + +{{% /tab %}} +{{% tab "テスト" %}} + +[**Software Delivery** > **Test Visibility** > **Test Runs**][101] に移動し、`Test` を選択して、テストスパンの結果のフィルタリングを開始します。 + +{{< img src="/getting_started/intelligent_test_runner/itr_tests.png" alt="Test Visibility Explorer で、Intelligent Test Runner によってスキップされたテストでフィルタリングされたテスト結果" style="width:100%" >}} + +[101]: https://app.datadoghq.com/ci/test-runs?query=test_level%3Atest + +{{% /tab %}} +{{< /tabs >}} + +次のすぐに使える Intelligent Test Runner [ファセット][9]を使用して、検索クエリをカスタマイズします。 + +Code Coverage Enabled +: テストセッション中にコードカバレッジの追跡が活動していたかどうかを示します。 + +Skipped by ITR +: Intelligent Test Runner によってセッション中にスキップされたテストの数です。 + +Test Skipping Enabled +: テストセッションで Intelligent Test Runner が有効であったかどうかを示します。 + +Test Skipping Type +: Intelligent Test Runner がスキップするテストを決定するために使用される方法または基準です。 + +Tests Skipped +: テストセッション中に実行されなかったテストの総数。これには、スキップするように構成されたテストや、手動で除外されたテストが含まれる場合があります。 + +Time Saved +: Intelligent Test Runner の使用によってセッションで節約された時間の長さです。 + +たとえば、`Test Skipping Enabled` を持つテストセッションの実行をフィルタリングするには、検索クエリで `@test.itr.tests_skipping.enabled:true` を使用します。 + +{{< img src="/getting_started/intelligent_test_runner/session_run.png" alt="Intelligent Test Runner でテストスキップ機能が有効になっている最初のテストセッション実行を表示するサイドパネル" style="width:100%" >}} + +次に、テストセッションの実行をクリックし、テストセッションのサイドパネルの **Test Session Details** セクションで、Intelligent Test Runner によって節約された時間の量を確認します。 + +## その他の参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ja/intelligent_test_runner/ +[2]: /ja/tests/ +[3]: https://app.datadoghq.com/ci/settings/test-service +[4]: /ja/account_management/rbac/permissions/ +[5]: /ja/tests/code_coverage +[6]: /ja/dashboards/ +[7]: https://app.datadoghq.com/dash/integration/30941/ci-visibility---intelligent-test-runner +[8]: /ja/continuous_integration/explorer?tab=testruns +[9]: /ja/continuous_integration/explorer/facets/?tab=testruns +[10]: /ja/intelligent_test_runner/how_it_works/ \ No newline at end of file diff --git a/content/ja/getting_started/tagging/_index.md b/content/ja/getting_started/tagging/_index.md index 5a03c2403137a..ab51f51bf5927 100644 --- a/content/ja/getting_started/tagging/_index.md +++ b/content/ja/getting_started/tagging/_index.md @@ -102,7 +102,7 @@ Datadog では、タグを付ける際のベストプラクティスとして、 | [インテグレーション][15] | AWS、Google Cloud、Azure のメトリクスをオプションで制限。 | | [APM][16] | サービス、トレース、プロファイルをフィルターにかける。サービスマップを使って他のエリアに移動する。 | | [RUM & セッションリプレイ][17] | RUM エクスプローラーで、イベント検索、分析、パターン、リプレイ、問題をフィルターにかける。 | -| [Synthetic Monitoring & Continuous Testing][18] | Synthetic Monitoring & Continuous Testing Explorer を使用して、Synthetic テストや CI パイプラインで実行中のテストをフィルタリングおよびグループ化します。 | +| [Synthetic Monitoring & Continuous Testing][18] | Synthetic Monitoring & Testing Results Explorer を使用して、Synthetic テストや CI パイプラインで実行中のテストをフィルタリングおよびグループ化します。 | | [ノートブック][19] | グラフでのメトリクスの絞り込みおよびグループ化。 | | [ログ][20] | ログ検索、分析、パターン、Live Tail、パイプラインの絞り込み。 | | [SLO][21] | SLO、グループ化されたメトリクスベース SLO、グループ化されたモニターベース SLO の検索。 | diff --git a/content/ja/getting_started/test_visibility/_index.md b/content/ja/getting_started/test_visibility/_index.md new file mode 100644 index 0000000000000..c29b9c4395aa6 --- /dev/null +++ b/content/ja/getting_started/test_visibility/_index.md @@ -0,0 +1,187 @@ +--- +algolia: + tags: + - test visibility + - CI テスト + - CI テスト + - 不安定なテスト + - 不安定なテスト + - テスト実行 + - テスト実行 + - テストスパン + - テストスパン +further_reading: +- link: https://www.datadoghq.com/blog/ci-test-visibility-with-rum/ + tag: ブログ + text: CI Test Visibility と RUM を使ったエンドツーエンドのテストのトラブルシューティング +- link: /tests/ + tag: ドキュメント + text: Test Visibility について +- link: /tests/guides/flaky_test_management + tag: ドキュメント + text: 不安定なテストの管理について +- link: /tests/developer_workflows + tag: ドキュメント + text: Datadog における開発者のワークフロー強化について +kind: ドキュメント +title: Test Visibility の概要 +--- + +## 概要 + +[Test Visibility][1] は、テストの姿勢をより深く理解し、不安定なテストをもたらすコミットを特定し、パフォーマンスの低下を識別し、複雑なテスト失敗をトラブルシューティングするのに役立ちます。 + +{{< img src="getting_started/test_visibility/list.png" alt="Test Visibility におけるテストサービスの一覧" style="width:100%;" >}} + +テスト実行のパフォーマンスをトレースとして視覚化できます。トレース内のスパンは、テストの異なる部分の実行を表します。 + +Test Visibility は、テストのパフォーマンス、不安定さ、および失敗に関する洞察を提供することで、開発チームによる CI 環境全体におけるソフトウェアテストのデバッグ、最適化、および加速を支援します。Test Visibility は自動で各テストをインスツルメントし、[Intelligent Test Runner][2] を使用したインテリジェントなテスト選択を統合します。これにより、テストの効率が向上し、冗長性が削減されます。 + +過去のテストデータを用いて、チームはパフォーマンスの低下を把握し、機能ブランチとデフォルトブランチのテスト結果を比較し、パフォーマンスベンチマークを設定できます。Test Visibility の使用により、チームは[開発者のワークフロー][14]を改善し、品質の高いコード出力を維持できます。 + +## テストサービスのセットアップ + +Test Visibility は、CI テストのパフォーマンスと結果を追跡し、テスト実行の結果を表示します。 + +テストのインスツルメンテーションと実行を開始するために、以下の言語のドキュメントを参照してください。 + +{{< partial name="continuous_integration/ci-tests-setup.html" >}} + +
+ +Test Visibility は、どの CI プロバイダーとも互換性があり、CI Visibility でサポートされているプロバイダーに限定されません。サポートされている機能についての詳細は、[Test Visibility][3] をご覧ください。 + +## CI テストデータの活用 + +テストのメトリクス (実行回数、期間、期間分布、総合成功率、失敗率など) にアクセスし、CI パイプライン全体から収集したテストデータを使用して、重要なトレンドやパターンの特定を始めます。 + +{{< img src="getting_started/test_visibility/tests_dashboard.png" alt="Datadog のすぐに使える Test Visibility ダッシュボード" style="width:100%;" >}} + +[ダッシュボード][4]を作成して、テスト内で発生する不安定なテスト、パフォーマンスの低下、テストの失敗を監視することができます。または、Test Visibility で収集されたデータが入力されたウィジェットを含む[すぐに使えるダッシュボード][5]を利用して、CI テストセッション、モジュール、スイート、テストの健全性とパフォーマンスを視覚化することも可能です。 + +## 不安定なテストの管理 + +[不安定なテスト][6]とは、同じコミットに対して複数回のテスト実行で合格と不合格の両方のステータスを示すテストのことです。あるコードをコミットし CI で実行した際にテストが失敗し、再度 CI で実行した際に同じテストが合格する場合、そのテストは信頼性が低いとみなされ不安定とマークされます。 + +**Flaky Tests** セクションや [**Test List** ページ][7]のテストサービス一覧にある列から不安定なテストの情報にアクセスできます。 + +{{< img src="getting_started/test_visibility/commit_flaky_tests.png" alt="テスト実行のコミットセクションで無視できる不安定なテスト" style="width:100%;" >}} + +各ブランチについて、新たに発見された不安定なテストの数、そのテストによって不安定になったコミットの数、テストの総実行時間、ブランチの最新のコミットの詳細が一覧表示されます。 + +Average duration +: テストの平均実行時間です。 + +First flaked and Last flaked +: テストが最初におよび最も最近に不安定になった日とコミット SHA。 + +Commits flaked +: テストが不安定な挙動を示したコミットの数です。 + +Failure rate +: このテストが最初に不安定になって以来、失敗したテスト実行の割合です。 + +Trend +: 不安定なテストが修正されたのか、または現在も不安定状態が続いているかを示す視覚化されたデータです。 + +Test Visibility では、コミットの **Flaky Tests** セクションにおける不安定なテストのトレンドと影響を理解するのに役立つ以下のグラフが表示されます。 + +New Flaky Test Runs +: 新しい不安定なテストが検出される頻度です。 + +Known Flaky Test Runs +: 追跡されている不安定なテストに関連するすべてのテスト失敗。不安定なテストが「不安定になる」たびに表示されます。 + +不安定テストが誤って検出されたと判断したコミットの新しい不安定なテストを無視するには、**New Flaky** 値がドロップダウンオプションで提供されるテストをクリックし、**Ignore flaky tests** をクリックします。詳細については、[不安定なテストの管理][8]を参照してください。 + +## Test Visibility Explorer で結果を検証する + +Test Visibility Explorer では、テストから収集したデータを使用して視覚化を作成したり、テストスパンをフィルタリングしたりできます。各テスト実行は、テストリクエストによって生成された追加のスパンを含むトレースとして報告されます。 + +{{< tabs >}} +{{% tab "セッション" %}} + +[**Software Delivery** > **Test Visibility** > **Test Runs**][101] に移動し、`Session` を選択してテストセッションスパンの結果のフィルタリングを開始します。 + +{{< img src="/getting_started/test_visibility/session.png" alt="Shopist リポジトリでフィルタリングされた Test Visibility Explorer のテストセッション結果" style="width:100%" >}} + +[101]: https://app.datadoghq.com/ci/test-runs?query=test_level%3Asession + +{{% /tab %}}{{% tab "モジュール" %}} + +[**Software Delivery** > **Test Visibility** > **Test Runs**][101] に移動し、`Module` を選択して、テストモジュールスパンの結果のフィルタリングを開始します。 + +{{< img src="/getting_started/test_visibility/module.png" alt="Shopist リポジトリでフィルタリングされた Test Visibility Explorer のテストモジュールの結果" style="width:100%" >}} + +[101]: https://app.datadoghq.com/ci/test-runs?query=test_level%3Amodule + +{{% /tab %}}{{% tab "スイート" %}} + +[**Software Delivery** > **Test Visibility** > **Test Runs**][101] に移動し、`Suite` を選択して、テストスイートスパン結果のフィルタリングを開始します。 + +{{< img src="/getting_started/test_visibility/suite.png" alt="Shopist リポジトリでフィルタリングされた Test Visibility Explorer のテストスイートの結果" style="width:100%" >}} + +[101]: https://app.datadoghq.com/ci/test-runs?query=test_level%3Asuite + +{{% /tab %}}{{% tab "テスト" %}} + +[**Software Delivery** > **Test Visibility** > **Test Runs**][101] に移動し、`Test` を選択して、テストスパンの結果のフィルタリングを開始します。 + +{{< img src="/getting_started/test_visibility/test.png" alt="Shopist リポジトリでフィルタリングされた Test Visibility Explorer のテストの結果" style="width:100%" >}} + +[101]: https://app.datadoghq.com/ci/test-runs?query=test_level%3Atest + +{{% /tab %}} +{{< /tabs >}} + +[ファセット][9]を使用して検索クエリをカスタマイズし、テスト実行の各レベルで費やされた時間の変化を特定します。 + +**Test List** ページでテストをクリックすると、**Trace** タブでフレームグラフやスパンのリストを見ることができます。 + +{{< img src="/getting_started/test_visibility/failed_test_trace.png" alt="Test List ページで失敗したテスト実行のスタックトレース" style="width:100%" >}} + +テスト実行のボトルネックを特定し、実行時間の割合が最大から最小にランク付けされた個々のレベルを調べることができます。 + +## テストへのカスタム測定値の追加 + +CI Visibility Tests API エンドポイントを使用して、テストイベントをプログラムによって検索および管理できます。詳細については、[API ドキュメント][10]を参照してください。 + +CI テストから収集したデータを強化するために、テスト実行中に作成されるスパンに、プログラムによってタグや測定値 (メモリ使用量など) を直接追加できます。詳細については、[テストにカスタム測定値を追加する][11]を参照してください。 + +## CI モニターの作成 + +失敗が発生した場合や新しい不安定なテストが検出された場合に、テストパフォーマンスの回帰について組織内の関連チームに警告します。 + +{{< img src="/getting_started/test_visibility/test_monitor.png" alt="テストの失敗が 1 回を超えるとアラートを発生させる CI テストモニター" style="width:100%" >}} + +テストの失敗がしきい値である 1 回を超えたときに警告を発するモニターをセットアップするには + +1. [**Monitors** > **New Monitor**][12] に移動し、**CI** を選択します。 +1. CI テストに共通のモニタータイプを選択して開始します。たとえば、新しい不安定なテストがコードベースに追加されたときに警告を発する `New Flaky Test`、テスト失敗時に警告を発する `Test Failures`、テストのパフォーマンスが低下したときに警告を発する `Test Performance` を選択するか、独自の検索クエリをカスタマイズします。この例では、`main` ブランチでのテスト実行をフィルタリングするために `Branch (@git.branch)` ファセットを選択します。 +1. `Evaluate the query over the` セクションで、最後の 15 分を選択します。 +1. 評価値がしきい値を超えたときにトリガーされるようにアラート条件を設定し、`Alert threshold > 1` などのアラートしきい値や警告しきい値の値を指定します。 +1. モニター通知を定義します。 +1. モニターの権限を設定します。 +1. **Create** をクリックします。 + +詳細については、[CI モニターのドキュメント][13]を参照してください。 + +## その他の参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ja/tests/ +[2]: /ja/intelligent_test_runner/ +[3]: /ja/tests/#supported-features +[4]: /ja/dashboards/ +[5]: https://app.datadoghq.com/dash/integration/30897/ci-visibility---tests-dashboard +[6]: /ja/glossary/?product=ci-cd#flaky-test +[7]: https://app.datadoghq.com/ci/test-services +[8]: /ja/tests/guides/flaky_test_management +[8]: https://app.datadoghq.com/ci/test-runs +[9]: /ja/continuous_integration/explorer/facets/?tab=testruns +[10]: /ja/api/latest/ci-visibility-tests/ +[11]: /ja/tests/guides/add_custom_measures/ +[12]: https://app.datadoghq.com/monitors/create +[13]: /ja/monitors/types/ci/?tab=tests#track-new-flaky-tests +[14]: /ja/tests/developer_workflows \ No newline at end of file diff --git a/content/ja/infrastructure/_index.md b/content/ja/infrastructure/_index.md index 1cc059e82ae44..89568aa8db416 100644 --- a/content/ja/infrastructure/_index.md +++ b/content/ja/infrastructure/_index.md @@ -2,6 +2,12 @@ aliases: - /ja/graphing/infrastructure/ cascade: +- _target: + path: /infrastructure/resource_catalog/aws_iam_user.md + aliases: + - /security/cspm/custom_rules/aws_iam_user/ +- _target: + path: /infrastructure/**/* algolia: rank: 70 further_reading: @@ -15,6 +21,14 @@ kind: documentation title: インフラストラクチャー --- +{{< img src="infrastructure/Hostmap-compressed.mp4" alt="ホストマップを Nginx ホストにフィルターするビデオ" video="true">}} + +## 概要 + +インフラストラクチャーモニタリングには、ホスト、コンテナ、プロセスのパフォーマンスを視覚化、監視、測定する Datadog のコア機能が含まれています。 + +## コンポーネント + {{< whatsnext desc="このセクションには、以下のトピックがあります。">}} {{< nextlink href="/infrastructure/list" >}}インフラストラクチャーリスト - Datadog が監視しているすべてのホストの一覧を表示します。{{< /nextlink >}} {{< nextlink href="/infrastructure/hostmap" >}}ホストマップとコンテナマップ - カスタマイズされたグループ化、フィルター、色や形によって理解しやすくなったメトリクスによって、ホストを 1 つの画面にまとめて視覚化します。{{< /nextlink >}} diff --git a/content/ja/integrations/amazon_kafka.md b/content/ja/integrations/amazon_kafka.md index f1ed74adc57b1..5af00bbb6b1b8 100644 --- a/content/ja/integrations/amazon_kafka.md +++ b/content/ja/integrations/amazon_kafka.md @@ -32,7 +32,7 @@ draft: false git_integration_title: amazon_kafka integration_id: amazon-kafka integration_title: Amazon MSK (Agent) -integration_version: 4.6.0 +integration_version: 4.7.0 is_public: true kind: integration manifest_version: 2.0.0 diff --git a/content/ja/integrations/amazon_machine_learning.md b/content/ja/integrations/amazon_machine_learning.md index 7ef813ab9eafe..f7f486f693b89 100644 --- a/content/ja/integrations/amazon_machine_learning.md +++ b/content/ja/integrations/amazon_machine_learning.md @@ -10,6 +10,10 @@ dependencies: [] description: AWS Machine Learning の予測カウントおよび失敗数を追跡。 doc_link: https://docs.datadoghq.com/integrations/amazon_machine_learning/ draft: false +further_reading: +- link: https://www.datadoghq.com/blog/ml-model-monitoring-in-production-best-practices/ + tag: ブログ + text: 本番環境で ML モデルを監視するためのベストプラクティス git_integration_title: amazon_machine_learning has_logo: true integration_id: '' @@ -31,9 +35,9 @@ AWS Machine Learning は、どのレベルの開発者でも機械学習技術 このインテグレーションを有効にすると、Datadog にすべての Machine Learning メトリクスを表示できます。 -## 計画と使用 +## セットアップ -### インフラストラクチャーリスト +### インストール [Amazon Web Services インテグレーション][1]をまだセットアップしていない場合は、最初にセットアップします。 @@ -42,7 +46,7 @@ AWS Machine Learning は、どのレベルの開発者でも機械学習技術 1. [AWS インテグレーションページ][2]で、`Metric Collection` タブの下にある `ML` が有効になっていることを確認します。 2. [Datadog - AWS Machine Learning インテグレーション][3]をインストールします。 -### 収集データ +### ログ収集 #### ログの有効化 @@ -58,26 +62,29 @@ AWS Machine Learning から S3 バケットまたは CloudWatch のいずれか - [S3 バケットに手動トリガーを追加][5] - [CloudWatch ロググループに手動トリガーを追加][6] -## リアルユーザーモニタリング +## データ収集 -### データセキュリティ +### メトリクス {{< get-metrics-from-git "amazon_machine_learning" >}} AWS から取得される各メトリクスには、ホスト名やセキュリティ グループなど、AWS コンソールに表示されるのと同じタグが割り当てられます。 -### ヘルプ +### イベント AWS Machine Learning インテグレーションには、イベントは含まれません。 -### ヘルプ +### サービスチェック AWS Machine Learning インテグレーションには、サービスのチェック機能は含まれません。 -## ヘルプ +## トラブルシューティング ご不明な点は、[Datadog のサポートチーム][8]までお問合せください。 +## その他の参考資料 +{{< partial name="whats-next/whats-next.html" >}} + [1]: https://docs.datadoghq.com/ja/integrations/amazon_web_services/ [2]: https://app.datadoghq.com/integrations/amazon-web-services [3]: https://app.datadoghq.com/integrations/amazon-machine-learning diff --git a/content/ja/integrations/amazon_sagemaker.md b/content/ja/integrations/amazon_sagemaker.md index dceb5fcd26a1b..6ce2f258f865f 100644 --- a/content/ja/integrations/amazon_sagemaker.md +++ b/content/ja/integrations/amazon_sagemaker.md @@ -83,13 +83,13 @@ Datadog は、SageMaker のエンドポイントとジョブ向けにすぐに [SageMaker エンドポイントダッシュボード][8]を使用すると、追加構成なしで SageMaker エンドポイントの健全性とパフォーマンスの監視をすぐに開始できます。エラー、予想以上のレイテンシー、またはトラフィックの急増が発生しているエンドポイントを特定します。CPU、GPU、メモリ、およびディスクの使用量メトリクスを使用して、インスタンスタイプとスケーリングポリシーの選択を見直し、修正します。 -{{< img src="integrations/amazon_sagemaker/sagemaker_endpoints.png" alt="すぐに使える SageMaker エンドポイントダッシュボード" style="width:80%;">}} +{{< img src="integrations/amazon_sagemaker/sagemaker_endpoints_2.png" alt="すぐに使える SageMaker エンドポイントダッシュボード" style="width:80%;">}} ### SageMaker ジョブ [SageMaker ジョブダッシュボード][9]を使用すると、トレーニング、処理、または変換ジョブのリソース使用状況 (CPU、GPU、およびストレージのボトルネックの検出など) を把握できます。この情報を使用して、コンピュートインスタンスを最適化します。 -{{< img src="integrations/amazon_sagemaker/sagemaker_jobs.png" alt="すぐに使える SageMaker ジョブダッシュボード" style="width:80%;">}} +{{< img src="integrations/amazon_sagemaker/sagemaker_jobs_2.png" alt="すぐに使える SageMaker ジョブダッシュボード" style="width:80%;">}} ## その他の参考資料 diff --git a/content/ja/integrations/amazon_sqs.md b/content/ja/integrations/amazon_sqs.md index 777e2f9aa43d9..818fadcd8c427 100644 --- a/content/ja/integrations/amazon_sqs.md +++ b/content/ja/integrations/amazon_sqs.md @@ -1,32 +1,61 @@ --- -aliases: -- /ja/integrations/awssqs/ +app_id: amazon-sqs +app_uuid: 3a036cf4-b953-441a-ad13-a99f2b8a684e +assets: + integration: + auto_install: false + events: + creates_events: false + metrics: + check: + - aws.sqs.sent_message_size + metadata_path: metadata.csv + prefix: aws.sqs. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 102 + source_type_name: Amazon SQS + monitors: + sqs_message_processing_time: assets/monitors/sqs_message_processing_time.json + sqs_message_queue_anomaly: assets/monitors/sqs_message_queue_anomaly.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com categories: -- aws +- metrics - cloud - log collection dependencies: [] -description: キューサイズ、平均メッセージサイズ、メッセージ数などを追跡。 -doc_link: https://docs.datadoghq.com/integrations/amazon_sqs/ +display_on_public_website: true draft: false git_integration_title: amazon_sqs -has_logo: true integration_id: amazon-sqs -integration_title: Amazon Simple Queue Service (SQS) +integration_title: Amazon SQS integration_version: '' is_public: true kind: インテグレーション -manifest_version: '1.0' -monitors: - sqs_message_processing_time: assets/monitors/sqs_message_processing_time.json - sqs_message_queue_anomaly: assets/monitors/sqs_message_queue_anomaly.json +manifest_version: 2.0.0 name: amazon_sqs -public_title: Datadog-Amazon Simple Queue Service (SQS) インテグレーション -short_description: キューサイズ、平均メッセージサイズ、メッセージ数などを追跡。 -version: '1.0' +public_title: Amazon SQS +short_description: Amazon Simple Queue Service (SQS) は、高速、高信頼性、スケーラブルなフルマネージド型のメッセージキューサービスです。 +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Metrics + - Category::クラウド + - Category::ログの収集 + configuration: README.md#Setup + description: Amazon Simple Queue Service (SQS) は、高速、高信頼性、スケーラブルなフルマネージド型のメッセージキューサービスです。 + media: [] + overview: README.md#Overview + support: README.md#Support + title: Amazon SQS --- - + {{< img src="integrations/amazon_sqs/sqsdashboard.png" alt="SQS ダッシュボード" popup="true">}} ## 概要 @@ -35,9 +64,9 @@ Amazon Simple Queue Service (SQS) は、高速、高信頼性、スケーラブ このインテグレーションを有効にすると、Datadog にすべての SQS メトリクスを表示できます。 -## セットアップ +## 計画と使用 -### インストール +### インフラストラクチャーリスト [Amazon Web Services インテグレーション][1]をまだセットアップしていない場合は、最初にセットアップします。 @@ -53,7 +82,7 @@ Amazon Simple Queue Service (SQS) は、高速、高信頼性、スケーラブ 3. [Datadog - Amazon SQS インテグレーション][5]をインストールします。 -### ログの収集 +### 収集データ #### SQS ログの有効化 @@ -69,11 +98,11 @@ Amazon Simple Queue Service (SQS) は、高速、高信頼性、スケーラブ Amazon SQS ログを含む S3 バケットを選択してトリガーを構成し、イベントタイプを `Object Created (All)` に変更して、Add ボタンをクリックします。 {{< img src="integrations/amazon_s3/s3_lambda_trigger_configuration.png" alt="S3 Lambda トリガーコンフィギュレーション" popup="true" style="width:70%;">}} -完了したら、[Datadog ログエクスプローラー][8]を使用してログを確認します。 +トリガーが追加されたら、[Datadog ログエクスプローラー][8]を使用してログを確認します。 -## 収集データ +## リアルユーザーモニタリング -### メトリクス +### データセキュリティ {{< get-metrics-from-git "amazon_sqs" >}} @@ -87,7 +116,7 @@ Amazon SQS インテグレーションには、イベントは含まれません Amazon SQS インテグレーションには、サービスのチェック機能は含まれません。 -## すぐに使えるモニタリング +## すぐに使える監視 Amazon SQS インテグレーションは、パフォーマンスを監視し最適化するために、すぐに使える監視機能を提供します。 @@ -107,6 +136,6 @@ Amazon SQS インテグレーションは、パフォーマンスを監視し最 [7]: https://docs.datadoghq.com/ja/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function [8]: https://app.datadoghq.com/logs [9]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_sqs/amazon_sqs_metadata.csv -[10]: https://app.datadoghq.com/screen/integration/6/aws-sqs +[10]: https://app.datadoghq.com/dash/integration/6/aws-sqs [11]: https://app.datadoghq.com/monitors/recommended [12]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/azure_machine_learning_services.md b/content/ja/integrations/azure_machine_learning_services.md index ee9e139bf7921..192c1f6fddfe1 100644 --- a/content/ja/integrations/azure_machine_learning_services.md +++ b/content/ja/integrations/azure_machine_learning_services.md @@ -7,6 +7,10 @@ dependencies: [] description: Azure Machine Learning の主要メトリクスを追跡。 doc_link: https://docs.datadoghq.com/integrations/azure_machine_learning_services/ draft: false +further_reading: +- link: https://www.datadoghq.com/blog/ml-model-monitoring-in-production-best-practices/ + tag: ブログ + text: 本番環境で ML モデルを監視するためのベストプラクティス git_integration_title: azure_machine_learning_services has_logo: true integration_id: '' @@ -32,25 +36,28 @@ Azure Machine Learning からメトリクスを取得すると、以下のこと * 機械学習ノードの使用状況を監視。 * 対コストパフォーマンスの最適化。 -## 計画と使用 -### インフラストラクチャーリスト +## セットアップ +### インストール [Microsoft Azure インテグレーション][1]をまだセットアップしていない場合は、最初にセットアップします。それ以上のインストール手順はありません。 -## リアルユーザーモニタリング -### データセキュリティ +## データ収集 +### メトリクス {{< get-metrics-from-git "azure_machine_learning_services" >}} -### ヘルプ +### イベント Azure Machine Learning インテグレーションには、イベントは含まれません。 -### ヘルプ +### サービスチェック Azure Machine Learning インテグレーションには、サービスのチェック機能は含まれません。 -## ヘルプ +## トラブルシューティング ご不明な点は、[Datadog のサポートチーム][3]までお問合せください。 +## その他の参考資料 +{{< partial name="whats-next/whats-next.html" >}} + [1]: https://docs.datadoghq.com/ja/integrations/azure/ [2]: https://github.com/DataDog/dogweb/blob/prod/integration/azure_machine_learning_services/azure_machine_learning_services_metadata.csv [3]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/crest_data_systems_dell_emc_isilon.md b/content/ja/integrations/crest_data_systems_dell_emc_isilon.md index 9cfe722411b5f..1d9a212459f91 100644 --- a/content/ja/integrations/crest_data_systems_dell_emc_isilon.md +++ b/content/ja/integrations/crest_data_systems_dell_emc_isilon.md @@ -6,6 +6,7 @@ app_uuid: 1c1b7c48-0c7c-46f2-9f0c-f68c74419244 assets: dashboards: Crest Dell EMC Isilon - Cluster Information: assets/dashboards/dell_emc_isilon_cluster_information.json + Crest Dell EMC Isilon - Events: assets/dashboards/dell_emc_isilon_events.json Crest Dell EMC Isilon - File System: assets/dashboards/dell_emc_isilon_file_system.json Crest Dell EMC Isilon - Monitors Summary: assets/dashboards/dell_emc_isilon_monitors_summary.json Crest Dell EMC Isilon - Node Details: assets/dashboards/dell_emc_isilon_node_details.json @@ -127,6 +128,7 @@ tile: - サポートメール: datadog.integrations@crestdatasys.com - 営業メール: datadog-sales@crestdatasys.com - Web サイト: [crestdatasys.com][3] +- よくあるご質問: [Crest Data Datadog Marketplace インテグレーションのよくあるご質問][8] ### その他の参考資料 @@ -140,6 +142,10 @@ tile: [3]: https://www.crestdatasys.com/ [4]: https://www.dell.com/support/manuals/en-in/isilon-onefs/ifs_pub_administration_guide_cli/administrative-roles-and-privileges [5]: https://www.crestdatasys.com/datadog-integrations-readme/Dell_EMC_Isilon.pdf +[6]: https://docs.datadoghq.com/ja/agent/?tab=Linux +[7]: https://docs.datadoghq.com/ja/account_management/api-app-keys/ +[8]: https://www.crestdatasys.com/datadog-integrations-readme/Crest_Data_Datadog_Integrations_FAQ.pdf +[9]: https://docs.datadoghq.com/ja/agent/guide/agent-configuration-files/?tab=agentv6v7 --- このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。このアプリケーションを購入するには、こちらをクリックしてください。 \ No newline at end of file diff --git a/content/ja/integrations/crest_data_systems_netapp_eseries_santricity.md b/content/ja/integrations/crest_data_systems_netapp_eseries_santricity.md index c79497dcc592a..5d8e0a05b8b3f 100644 --- a/content/ja/integrations/crest_data_systems_netapp_eseries_santricity.md +++ b/content/ja/integrations/crest_data_systems_netapp_eseries_santricity.md @@ -121,12 +121,17 @@ tile: - サポートメール: datadog.integrations@crestdatasys.com - 営業メール: datadog-sales@crestdatasys.com - Web サイト: [crestdatasys.com][3] +- よくあるご質問: [Crest Data Datadog Marketplace インテグレーションのよくあるご質問][8] [1]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/?tab=agentv6v7#start-stop-and-restart-the-agent [2]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information [3]: https://www.crestdatasys.com/ [4]: https://docs.datadoghq.com/ja/agent/guide/agent-configuration-files/?tab=agentv6v7 [5]: https://www.crestdatasys.com/datadog-integrations-readme/NetApp_ESeries_SANtricity.pdf +[6]: https://docs.datadoghq.com/ja/agent/?tab=Linux +[7]: https://docs.datadoghq.com/ja/account_management/api-app-keys/ +[8]: https://www.crestdatasys.com/datadog-integrations-readme/Crest_Data_Datadog_Integrations_FAQ.pdf + --- このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。このアプリケーションを購入するには、こちらをクリックしてください。 \ No newline at end of file diff --git a/content/ja/integrations/gitlab.md b/content/ja/integrations/gitlab.md index c0841d951a6a9..e9ca67b790e37 100644 --- a/content/ja/integrations/gitlab.md +++ b/content/ja/integrations/gitlab.md @@ -44,7 +44,7 @@ draft: false git_integration_title: gitlab integration_id: gitlab integration_title: GitLab -integration_version: 7.2.0 +integration_version: 7.3.0 is_public: true kind: インテグレーション manifest_version: 2.0.0 diff --git a/content/ja/integrations/google_app_engine.md b/content/ja/integrations/google_app_engine.md index 046a7750a5ade..5e221911b3c48 100644 --- a/content/ja/integrations/google_app_engine.md +++ b/content/ja/integrations/google_app_engine.md @@ -42,11 +42,11 @@ Google App Engine インテグレーションをプロジェクトにインス Google App Engine のログは Google Cloud Logging で収集され、Cloud Pub/Sub トピックを通じて Dataflow ジョブに送信されます。まだの場合は、[Datadog Dataflow テンプレートでロギングをセットアップしてください][4]。 -これが完了したら、Google App Engine のログを Google Cloud Logging から Pub/Sub へエクスポートします。 +これが完了したら、Google App Engine のログを Google Cloud Logging から Pub/Sub トピックへエクスポートします。 1. [Google Cloud Logging のページ][5]に移動し、Google App Engine のログを絞り込みます。 2. **Create Export** をクリックし、シンクに名前を付けます。 -3. エクスポート先として「Cloud Pub/Sub」を選択し、エクスポート用に作成された Pub/Sub を選択します。**注**: この Pub/Sub は別のプロジェクト内に配置することもできます。 +3. 宛先として "Cloud Pub/Sub" を選択し、その目的で作成された Pub/Sub トピックを選択します。**注**: Pub/Sub トピックは別のプロジェクトに配置できます。 4. **作成**をクリックし、確認メッセージが表示されるまで待ちます。 ## リアルユーザーモニタリング diff --git a/content/ja/integrations/google_cloud_apis.md b/content/ja/integrations/google_cloud_apis.md index 733b4e3493d7f..66d21df80fb0f 100644 --- a/content/ja/integrations/google_cloud_apis.md +++ b/content/ja/integrations/google_cloud_apis.md @@ -38,11 +38,11 @@ Datadog Google Cloud Platform インテグレーションを使用して、Googl Google Cloud API のログは Google Cloud Logging で収集され、Cloud Pub/Sub トピックを通じて Dataflow ジョブに送信されます。まだの場合は、[Datadog Dataflow テンプレートでロギングをセットアップしてください][2]。 -これが完了したら、Google Cloud API のログを Google Cloud Logging から Pub/Sub へエクスポートします。 +これが完了したら、Google Cloud API のログを Google Cloud Logging から Pub/Sub トピックへエクスポートします。 1. [Google Cloud Logging のページ][3]に移動し、Google Cloud API のログを絞り込みます。 2. **Create Export** をクリックし、シンクに名前を付けます。 -3. エクスポート先として「Cloud Pub/Sub」を選択し、エクスポート用に作成された Pub/Sub を選択します。**注**: この Pub/Sub は別のプロジェクト内に配置することもできます。 +3. 宛先として "Cloud Pub/Sub" を選択し、その目的で作成された Pub/Sub トピックを選択します。**注**: Pub/Sub トピックは別のプロジェクトに配置できます。 4. **作成**をクリックし、確認メッセージが表示されるまで待ちます。 ## リアルユーザーモニタリング diff --git a/content/ja/integrations/google_cloud_audit_logs.md b/content/ja/integrations/google_cloud_audit_logs.md index afea05f18a807..81042437fdbd9 100644 --- a/content/ja/integrations/google_cloud_audit_logs.md +++ b/content/ja/integrations/google_cloud_audit_logs.md @@ -33,7 +33,7 @@ GCP 監査ログを監視すると、リソースにアクセスしているユ * **データアクセス監査ログ**: リソースごとに[個別に有効化][1]され、データアクセス監査ログには、リソースのコンフィギュレーションまたはメタデータを読み取る API 呼び出しと、ユーザー提供のリソースデータを作成、変更、または読み取るユーザー主導の API 呼び出しが含まれます。データアクセス監査ログには、パブリックに共有されているリソースに対するデータアクセス操作は記録されません。 * **ポリシー拒否監査ログ**: デフォルトで生成されるクラウドロギングレコードポリシー拒否監査ログは、セキュリティポリシー違反のために Google Cloud サービスがユーザーまたは[サービスアカウント][2]へのアクセスを拒否した場合に記録されます。 -これらのログは、pub/sub を使って標準の GCP ログ転送を介して転送できます。手順は[ここで文書化されています][3]。 +Google Cloud Platform インテグレーションページの[ログ収集手順][3]を使用して、これらのログを Pub/Sub トピック経由で転送できます。 詳細は、[監査ログを理解する][4]または[GCP 監査ログを監視するためのベストプラクティス][5]を参照してください。 diff --git a/content/ja/integrations/google_cloud_bigtable.md b/content/ja/integrations/google_cloud_bigtable.md index a6fce06f95f3a..fc6ea0dd0c5ed 100644 --- a/content/ja/integrations/google_cloud_bigtable.md +++ b/content/ja/integrations/google_cloud_bigtable.md @@ -39,11 +39,11 @@ Datadog Google Cloud Platform インテグレーションを使用して、Googl Google Bigtable のログは Google Cloud Logging で収集され、Cloud Pub/Sub トピックを通じて Dataflow ジョブに送信されます。まだの場合は、[Datadog Dataflow テンプレートでロギングをセットアップしてください][2]。 -これが完了したら、Google Bigtable のログを Google Cloud Logging から Pub/Sub へエクスポートします。 +これが完了したら、Google Bigtable のログを Google Cloud Logging から Pub/Sub トピックへエクスポートします。 1. [Google Cloud Logging のページ][3]に移動し、Google Bigtable のログを絞り込みます。 2. **Create Export** をクリックし、シンクに名前を付けます。 -3. エクスポート先として「Cloud Pub/Sub」を選択し、エクスポート用に作成された Pub/Sub を選択します。**注**: この Pub/Sub は別のプロジェクト内に配置することもできます。 +3. 宛先として "Cloud Pub/Sub" を選択し、その目的で作成された Pub/Sub トピックを選択します。**注**: Pub/Sub トピックは別のプロジェクトに配置できます。 4. **作成**をクリックし、確認メッセージが表示されるまで待ちます。 ## リアルユーザーモニタリング diff --git a/content/ja/integrations/google_cloud_composer.md b/content/ja/integrations/google_cloud_composer.md index 6fb1081a22e16..7cb588500998e 100644 --- a/content/ja/integrations/google_cloud_composer.md +++ b/content/ja/integrations/google_cloud_composer.md @@ -39,11 +39,11 @@ Datadog Google Cloud Platform インテグレーションを使用して、Googl Google Cloud Composer のログは Google Cloud Logging で収集され、Cloud Pub/Sub トピックを通じて Dataflow ジョブに送信されます。まだの場合は、[Datadog Dataflow テンプレートでロギングをセットアップしてください][2]。 -これが完了したら、Google Cloud Composer のログを Google Cloud Logging から Pub/Sub へエクスポートします。 +これが完了したら、Google Cloud Composer のログを Google Cloud Logging から Pub/Sub トピックへエクスポートします。 1. [Google Cloud Logging のページ][3]に移動し、Google Cloud Composer のログを絞り込みます。 2. **Create Export** をクリックし、シンクに名前を付けます。 -3. エクスポート先として「Cloud Pub/Sub」を選択し、エクスポート用に作成された Pub/Sub を選択します。**注**: この Pub/Sub は別のプロジェクト内に配置することもできます。 +3. 宛先として "Cloud Pub/Sub" を選択し、その目的で作成された Pub/Sub トピックを選択します。**注**: Pub/Sub トピックは別のプロジェクトに配置できます。 4. **作成**をクリックし、確認メッセージが表示されるまで待ちます。 ## リアルユーザーモニタリング diff --git a/content/ja/integrations/google_cloud_dataproc.md b/content/ja/integrations/google_cloud_dataproc.md index d0ac9060af2f5..4fb2d6a5964bb 100644 --- a/content/ja/integrations/google_cloud_dataproc.md +++ b/content/ja/integrations/google_cloud_dataproc.md @@ -38,11 +38,11 @@ Datadog Google Cloud Platform インテグレーションを使用して、Googl Google Cloud Dataproc のログは Google Cloud Logging で収集され、Cloud Pub/Sub トピックを通じて Dataflow ジョブに送信されます。まだの場合は、[Datadog Dataflow テンプレートでロギングをセットアップしてください][2]。 -これが完了したら、Google Cloud Dataproc のログを Google Cloud Logging から Pub/Sub へエクスポートします。 +これが完了したら、Google Cloud Dataproc のログを Google Cloud Logging から Pub/Sub トピックへエクスポートします。 1. [Google Cloud Logging のページ][3]に移動し、Google Cloud Dataproc のログを絞り込みます。 2. **Create Export** をクリックし、シンクに名前を付けます。 -3. エクスポート先として「Cloud Pub/Sub」を選択し、エクスポート用に作成された Pub/Sub を選択します。**注**: この Pub/Sub は別のプロジェクト内に配置することもできます。 +3. 宛先として "Cloud Pub/Sub" を選択し、その目的で作成された Pub/Sub トピックを選択します。**注**: Pub/Sub トピックは別のプロジェクトに配置できます。 4. **作成**をクリックし、確認メッセージが表示されるまで待ちます。 ## リアルユーザーモニタリング diff --git a/content/ja/integrations/google_cloud_datastore.md b/content/ja/integrations/google_cloud_datastore.md index 3a1751b7439cc..67b98df0aaa6f 100644 --- a/content/ja/integrations/google_cloud_datastore.md +++ b/content/ja/integrations/google_cloud_datastore.md @@ -43,11 +43,11 @@ Google Datastore からメトリクスを取得して、以下のことができ Google Cloud Datastore のログは Google Cloud Logging で収集され、Cloud Pub/Sub トピックを通じて Dataflow ジョブに送信されます。まだの場合は、[Datadog Dataflow テンプレートでロギングをセットアップしてください][2]。 -これが完了したら、Google Cloud Datastore のログを Google Cloud Logging から Pub/Sub へエクスポートします。 +これが完了したら、Google Cloud Datastore のログを Google Cloud Logging から Pub/Sub トピックへエクスポートします。 1. [Google Cloud Logging のページ][3]に移動し、Google Cloud Datastore のログを絞り込みます。 2. **Create Export** をクリックし、シンクに名前を付けます。 -3. エクスポート先として「Cloud Pub/Sub」を選択し、エクスポート用に作成された Pub/Sub を選択します。**注**: この Pub/Sub は別のプロジェクト内に配置することもできます。 +3. 宛先として "Cloud Pub/Sub" を選択し、その目的で作成された Pub/Sub トピックを選択します。**注**: Pub/Sub トピックは別のプロジェクトに配置できます。 4. **作成**をクリックし、確認メッセージが表示されるまで待ちます。 ## リアルユーザーモニタリング diff --git a/content/ja/integrations/google_cloud_filestore.md b/content/ja/integrations/google_cloud_filestore.md index f804b2704923f..cd152f5fe009a 100644 --- a/content/ja/integrations/google_cloud_filestore.md +++ b/content/ja/integrations/google_cloud_filestore.md @@ -39,11 +39,11 @@ Datadog Google Cloud Platform インテグレーションを使用して、Googl Google Cloud Filestore のログは Google Cloud Logging で収集され、Cloud Pub/Sub トピックを通じて Dataflow ジョブに送信されます。まだの場合は、[Datadog Dataflow テンプレートでロギングをセットアップしてください][2]。 -これが完了したら、Google Cloud Filestore のログを Google Cloud Logging から Pub/Sub へエクスポートします。 +これが完了したら、Google Cloud Filestore のログを Google Cloud Logging から Pub/Sub トピックへエクスポートします。 1. [Google Cloud Logging のページ][3]に移動し、Google Cloud Filestore のログを絞り込みます。 2. **Create Export** をクリックし、シンクに名前を付けます。 -3. エクスポート先として「Cloud Pub/Sub」を選択し、エクスポート用に作成された Pub/Sub を選択します。**注**: この Pub/Sub は別のプロジェクト内に配置することもできます。 +3. 宛先として "Cloud Pub/Sub" を選択し、その目的で作成された Pub/Sub トピックを選択します。**注**: Pub/Sub トピックは別のプロジェクトに配置できます。 4. **作成**をクリックし、確認メッセージが表示されるまで待ちます。 ## リアルユーザーモニタリング diff --git a/content/ja/integrations/guide/aws-cloudwatch-metric-streams-with-kinesis-data-firehose.md b/content/ja/integrations/guide/aws-cloudwatch-metric-streams-with-kinesis-data-firehose.md index 52fe512ac2db7..60f14884f5d13 100644 --- a/content/ja/integrations/guide/aws-cloudwatch-metric-streams-with-kinesis-data-firehose.md +++ b/content/ja/integrations/guide/aws-cloudwatch-metric-streams-with-kinesis-data-firehose.md @@ -138,7 +138,7 @@ Metric Stream リソースが正常に作成されたことを確認したら、 [AWS コンソール](?tab=awsconsole#installation)からストリーミングを設定した場合: 1. 配信ストリームにリンクしている CloudWatch Metric Stream を削除します。 -2. ストリームの設定中に作成された S3 バケット、Firehose、ストリームに関連付けられた IAM ロールおよびその他のすべてのリソースを削除します。 +2. ストリームに関連付けられた S3 および Firehose IAM ロールを含め、ストリームのセットアップ中に作成されたすべてのリソースを削除します。 リソースが削除されたら、Datadog が変更を認識するまで 5 分ほど待ちます。完了を確認するには、Datadog の [AWS インテグレーションページ][4]の **Metric Collection** タブを開き、指定した AWS アカウントの **CloudWatch Metric Streams** に無効にしたリージョンが表示されていないことを確認します。 diff --git a/content/ja/integrations/langchain.md b/content/ja/integrations/langchain.md new file mode 100644 index 0000000000000..248323a681669 --- /dev/null +++ b/content/ja/integrations/langchain.md @@ -0,0 +1,179 @@ +--- +app_id: langchain +app_uuid: 7993851f-d36b-40f3-8425-92080f3b9d61 +assets: + dashboards: + LangChain Overview Dashboard: assets/dashboards/overview_dashboard.json + integration: + auto_install: true + configuration: {} + events: + creates_events: false + metrics: + check: langchain.request.duration + metadata_path: metadata.csv + prefix: langchain. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10372 + source_type_name: LangChain + monitors: + Error Rate: assets/monitors/error_rate.json + Request Latency: assets/monitors/request_duration.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com (日本語対応) + support_email: help@datadoghq.com +categories: +- ai/ml +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/langchain/README.md +display_on_public_website: true +draft: false +git_integration_title: langchain +integration_id: langchain +integration_title: LangChain +integration_version: '' +is_public: true +kind: インテグレーション +manifest_version: 2.0.0 +name: langchain +public_title: LangChain +short_description: 'LangChain の使用を最適化します: プロンプトサンプリング、パフォーマンスとコストのメトリクス。' +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::AI/ML + - Submitted Data Type::Metrics + - Submitted Data Type::Logs + - Submitted Data Type::Traces + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + configuration: README.md#Setup + description: 'LangChain の使用を最適化します: プロンプトサンプリング、パフォーマンスとコストのメトリクス。' + media: [] + overview: README.md#Overview + support: README.md#Support + title: LangChain +--- + + + + +## 概要 + +Datadog のメトリクス、APM、ログを使用して、[LangChain][1] Python ライブラリのリクエストから、コストの見積もり、プロンプトとコンプリーションのサンプリング、エラー追跡、パフォーマンスメトリクスなどを取得します。 + +## 計画と使用 + +### インフラストラクチャーリスト + +1. Datadog Agent で APM と StatsD を有効化します。例えば、Docker で: + +``` +docker run -d --cgroupns host \ + --pid host \ + -v /var/run/docker.sock:/var/run/docker.sock:ro \ + -v /proc/:/host/proc/:ro \ + -v /sys/fs/cgroup/:/host/sys/fs/cgroup:ro \ + -e DD_API_KEY= \ + -p 127.0.0.1:8126:8126/tcp \ + -p 127.0.0.1:8125:8125/udp \ + -e DD_DOGSTATSD_NON_LOCAL_TRAFFIC=true \ + -e DD_APM_ENABLED=true \ + gcr.io/datadoghq/agent:latest +``` + +2. Datadog APM Python ライブラリをインストールします。 + +``` +pip install ddtrace>=1.17 +``` + + +3. LangChain Python アプリケーションのコマンドに `ddtrace-run` のプレフィックスを付けます。 + +``` +DD_SERVICE="my-service" DD_ENV="staging" DD_API_KEY= ddtrace-run python .py +``` + +**注**: Agent がデフォルト以外のホスト名やポートを使用している場合、`DD_AGENT_HOST`、`DD_TRACE_AGENT_PORT`、`DD_DOGSTATSD_PORT` も必ず設定してください。 + +より高度な使い方については、[APM Python ライブラリドキュメント][2]を参照してください。 + + +### ブラウザトラブルシューティング + +利用可能なすべての構成オプションについては、[APM Python ライブラリドキュメント][3]を参照してください。 + + +#### ログプロンプトとコンプリーションサンプリング + +ログのプロンプトとコンプリーションサンプリングを有効にするには、環境変数 `DD_LANGCHAIN_LOGS_ENABLED=1` を設定します。デフォルトでは、トレースされたリクエストの 10% がプロンプトとコンプリーションを含むログを出力します。 + +ログのサンプルレートを調整するには、[APM ライブラリのドキュメント][3]を参照してください。 + +**注**: ログを送信するには、`ddtrace-run` を実行する際に `DD_API_KEY` を指定する必要があります。 + + +### 検証 + +APM Python ライブラリを使用して Agent と通信できることを確認します。 + +``` +ddtrace-run --info +``` + +次の出力が表示されるはずです。 + +``` + Agent error: None +``` + +#### デバッグロギング + +`ddtrace-run` に `--debug` フラグを渡すと、デバッグロギングが有効になります。 + +``` +ddtrace-run --debug +``` + +データ送信時のエラーを表示します。 + +``` +ERROR:ddtrace.internal.writer.writer:failed to send, dropping 1 traces to intake at http://localhost:8126/v0.5/traces after 3 retries ([Errno 61] Connection refused) +WARNING:ddtrace.vendor.dogstatsd:Error submitting packet: [Errno 61] Connection refused, dropping the packet and closing the socket +DEBUG:ddtrace.contrib._trace_utils_llm.py:sent 2 logs to 'http-intake.logs.datadoghq.com' +``` + +## リアルユーザーモニタリング + +### データセキュリティ +{{< get-metrics-from-git "langchain" >}} + + +### ヘルプ + +LangChain インテグレーションには、イベントは含まれません。 + +### ヘルプ + +LangChain インテグレーションには、サービスのチェック機能は含まれません。 + + +## ヘルプ + +ご不明な点は、[Datadog のサポートチーム][5]までお問い合わせください。 + + +[1]: https://docs.langchain.com/docs/ +[2]: https://ddtrace.readthedocs.io/en/stable/installation_quickstart.html +[3]: https://ddtrace.readthedocs.io/en/stable/integrations.html#langchain +[4]: https://github.com/DataDog/integrations-core/blob/master/langchain/metadata.csv +[5]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/mailgun.md b/content/ja/integrations/mailgun.md index fce2536d14025..73feff30e86d3 100644 --- a/content/ja/integrations/mailgun.md +++ b/content/ja/integrations/mailgun.md @@ -15,6 +15,7 @@ assets: prefix: mailgun. service_checks: metadata_path: assets/service_checks.json + source_type_id: 623 source_type_name: Mailgun author: homepage: https://www.datadoghq.com @@ -22,9 +23,8 @@ author: sales_email: info@datadoghq.com (日本語対応) support_email: help@datadoghq.com categories: -- web - ログの収集 -- メトリクス +- モニター dependencies: [] description: Datadog で Mailgun のメール配信とエンゲージメントの統計情報を監視します。 display_on_public_website: true @@ -46,7 +46,6 @@ team: web-integrations tile: changelog: CHANGELOG.md classifier_tags: - - Category::Web - Category::Log Collection - Category::Metrics configuration: README.md#Setup @@ -58,11 +57,19 @@ tile: version: '1.0' --- + ## 概要 -Mailgun のメール配信およびエンゲージメントのメトリクスとログを収集します。 +Mailgun は API ベースのメール配信プラットフォームで、これにより以下のことが可能になります。 -## セットアップ +- 大規模なメールマーケティングアプリケーションを構築し、管理する。 +- トランザクションメッセージを送信し、追跡する。 +- 無効なメールアドレスをリストから削除する。 +- 配信率を向上させ、コンバージョン率を高める。 + +Datadog とインテグレーションすることで、メール配信やエンゲージメントのメトリクスやログを収集し、Mailgun サービスのパフォーマンスを追跡することができます。 + +## 計画と使用 ### ドメインの追加と確認 @@ -102,25 +109,25 @@ Mailgun にサインアップすると、プライマリアカウントの API 7. ステップ 1 で生成した URL を **URL** に貼り付けます。 8. **Create Webhook** をクリックします。 -## 収集データ +## リアルユーザーモニタリング -### メトリクス +### データセキュリティ {{< get-metrics-from-git "mailgun" >}} -### ログ管理 +### ワークフローの自動化 Mailgun のイベントは、ソース `mailgun` の下にログとして表示されます。 -### イベント +### ヘルプ Mailgun インテグレーションには、イベントは含まれません。 -### サービスのチェック +### ヘルプ Mailgun インテグレーションには、サービスのチェック機能は含まれません。 -## トラブルシューティング +## ヘルプ ご不明な点は、[Datadog のサポートチーム][6]までお問合せください。 diff --git a/content/ja/integrations/microsoft_defender_for_cloud.md b/content/ja/integrations/microsoft_defender_for_cloud.md new file mode 100644 index 0000000000000..155c8896a4b48 --- /dev/null +++ b/content/ja/integrations/microsoft_defender_for_cloud.md @@ -0,0 +1,116 @@ +--- +app_id: microsoft-defender-for-cloud +app_uuid: e9e9981e-c97a-4395-a98b-b39b2adf1bb6 +assets: + dashboards: + MicrosoftDefenderforCloud-Overview: assets/dashboards/MicrosoftDefenderforCloud-Overview_dashboard.json + integration: + auto_install: false + events: + creates_events: false + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10376 + source_type_name: Microsoft Defender for Cloud +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com (日本語対応) + support_email: help@datadoghq.com +categories: +- azure +- クラウド +- ログの収集 +- security +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: microsoft_defender_for_cloud +integration_id: microsoft-defender-for-cloud +integration_title: Microsoft Defender for Cloud +integration_version: '' +is_public: true +kind: インテグレーション +manifest_version: 2.0.0 +name: microsoft_defender_for_cloud +public_title: Microsoft Defender for Cloud +short_description: Microsoft Defender for Cloud を監視 +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Azure + - Category::Cloud + - Category::Log Collection + - Category::Security + configuration: README.md#Setup + description: Microsoft Defender for Cloud を監視 + media: [] + overview: README.md#Overview + support: README.md#Support + title: Microsoft Defender for Cloud +--- + + + + +## 概要 + +Microsoft Defender for Cloud][1] のログとアラートを収集します。 + +Defender for Cloud は、Microsoft Azure アプリケーションを監視し、クラウドセキュリティポスチャ管理 (CSPM) を通じて Azure セキュリティリスクを把握し、サーバー、コンテナ、ストレージ、データベース (CWPP) の Azure クラウドワークロードを保護するクラウドネイティブアプリケーション保護プラットフォーム (CNAPP) です。 + +Datadog Cloud SIEM を有効にすると、すぐに使えるセキュリティルールを使用して、他のセキュリティインフラストラクチャーと一緒に Azure 環境を監視できます。 + +## 計画と使用 + +### インフラストラクチャーリスト + +このインテグレーションでは、Datadog Azure インテグレーションが有効になっている必要があります。イベントハブを使用して Azure 経由で Datadog にログを転送します。インテグレーションには、ログフォワーダーのバージョンが少なくとも `1.0.1` 以降であることが必要です。 + +### ブラウザトラブルシューティング + +イベントハブに[ログを継続的にエクスポートする][2]ように Defender for Cloud を構成します。Datadog 内で追加の構成は必要ありません。 + +### 検証 + +Defender for Cloud でサンプルのアラートを生成するには、[Microsoft からのこの指示][3]に従ってください。 + +Defender for Cloud のログは、ログ管理で `source:microsoft-defender-for-cloud` を使ってアクセスできます。 + +Datadog Cloud SIEM を使用している場合は、Microsoft Defender for Cloud の検出ルールが有効になっていることを確認します。 +1. Datadog のメニューで、**Security** > **Configuration** に進み、**Cloud SIEM** を展開します。 +1. "Detection Rules" を選択します。右側の **Group By** セレクタをクリックし、**Source** を選択して検出ルールをソース別にグループ化します。 +1. 下にスクロールして、**Azure** というセクションを展開します。リストをスクロールして、Microsoft Defender for Cloud ルールを見つけます。ルールがオンになっていることを確認します。 + + +## リアルユーザーモニタリング + +### データセキュリティ + +Microsoft Defender for Cloud には、メトリクスは含まれません。 + +### ヘルプ + +Microsoft Defender for Cloud には、サービスのチェック機能は含まれません。 + +### ヘルプ + +Microsoft Defender for Cloud には、イベントは含まれません。 + +## ヘルプ + +Cloud SIEM が Defender for Cloud アラートを受信していることを確認するには、以下の手順に従ってください。 +1. Datadog のメニューで、**Security** > **Configuration** に進み、**Cloud SIEM** を展開します。 +1. **Log Sources** を選択し、**Azure** までスクロールします。 +1. Microsoft Defender for Cloud が **Installed** として表示されているかどうかを確認します。 +1. カラムチャートを見て、ログが受信されていることを確認します。 +1. ログを受信している場合は、**Logs** > **Search** に移動し、`source:microsoft-defender-for-cloud` を検索します。ログが表示されるタイムウィンドウを変更する必要があるかもしれません。 +1. ログを点検し、適切に形成されていることを確認します。 + +それでも問題が解決しない場合は、[Datadog サポート][4]にお問い合わせください。 + +[1]: https://learn.microsoft.com/en-us/azure/defender-for-cloud/defender-for-cloud-introduction +[2]: https://learn.microsoft.com/en-us/azure/defender-for-cloud/continuous-export?tabs=azure-portal +[3]: https://learn.microsoft.com/en-us/azure/defender-for-cloud/alert-validation +[4]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/otel.md b/content/ja/integrations/otel.md index 89d363e49a56b..2c2cea5a7d4fd 100644 --- a/content/ja/integrations/otel.md +++ b/content/ja/integrations/otel.md @@ -6,6 +6,7 @@ assets: OpenTelemetry Collector Metrics Dashboard: assets/dashboards/otel_collector_metrics_dashboard.json OpenTelemetry Dashboard: assets/dashboards/otel_host_metrics_dashboard.json integration: + auto_install: true configuration: {} events: creates_events: false @@ -17,7 +18,10 @@ assets: prefix: otel. service_checks: metadata_path: assets/service_checks.json + source_type_id: 312 source_type_name: OTel + monitors: + OpenTelemetry Refused Spans: assets/monitors/otel_refused_spans.json author: homepage: https://www.datadoghq.com name: Datadog @@ -62,6 +66,7 @@ tile: title: OpenTelemetry --- + ## OpenTelemetry コレクター ## 概要 @@ -72,14 +77,14 @@ OpenTelemetry コレクターは、ベンダーに依存しない Agent プロ ホストメトリクスは OpenTelemetry ホストメトリクスのデフォルトダッシュボードに表示されますが、OpenTelemetry コレクターを使用して任意のメトリクスを Datadog に送信することができます。ホストメトリクスレシーバーで生成されるような `system.*` や `process.*` 以下のメトリクスは、Datadog Agent からのメトリクスと衝突しないように、`otel.system.*` や `otel.process.*` に名前変更されています。さらに、OpenTelemetry コレクターのメトリクスは、OpenTelemetry コレクターメトリクスのデフォルトダッシュボードに表示されます。 -## セットアップ +## 計画と使用 -### インストール +### インフラストラクチャーリスト [OpenTelemetry コレクターのドキュメント][3]に従って `opentelemetry-collector-contrib` ディストリビューションをインストールするか、Datadog Exporter を含むその他のディストリビューションを使用してください。 このセットアップでテレメトリーデータを Datadog にエクスポートするには、Datadog Agent は**必要ありません**。Datadog Agent を使用する場合は、[Datadog Agent における OTLP の取り込み][2]を参照してください。 -### コンフィギュレーション +### ブラウザトラブルシューティング OpenTelemetry コレクターからテレメトリーデータを Datadog にエクスポートするには、Datadog エクスポーターをお使いのメトリクスおよびトレースパイプラインに追加します。 この時必要な設定は [API キー][4]のみです。 @@ -135,21 +140,21 @@ Exporter started. {"component_kind": "exporter", "component_type": "datadog", Everything is ready. Begin running and processing data. ``` -## 収集データ +## リアルユーザーモニタリング -### メトリクス +### データセキュリティ {{< get-metrics-from-git "otel" >}} -### サービスのチェック +### ヘルプ OpenTelemetry コレクターには、サービスのチェック機能は含まれません。 -### イベント +### ヘルプ OpenTelemetry コレクターには、イベントは含まれません。 -## トラブルシューティング +## ヘルプ ご不明な点は、[Datadog のサポートチーム][8]までお問合せください。 diff --git a/content/ja/integrations/purefa.md b/content/ja/integrations/purefa.md index 21cfab32efb8a..e839feb31f26f 100644 --- a/content/ja/integrations/purefa.md +++ b/content/ja/integrations/purefa.md @@ -6,6 +6,7 @@ assets: purefa_overview: assets/dashboards/purefa_overview.json purefa_overview_legacy: assets/dashboards/purefa_overview_legacy.json integration: + auto_install: true configuration: spec: assets/configuration/spec.yaml events: @@ -16,6 +17,7 @@ assets: prefix: purefa. service_checks: metadata_path: assets/service_checks.json + source_type_id: 10256 source_type_name: PureFA author: homepage: https://purestorage.com @@ -23,7 +25,7 @@ author: sales_email: sales@purestorage.com support_email: pure-observability@purestorage.com categories: -- data store +- data stores - OS & システム dependencies: - https://github.com/DataDog/integrations-extras/blob/master/purefa/README.md @@ -32,7 +34,7 @@ draft: false git_integration_title: purefa integration_id: purefa integration_title: Pure Storage FlashArray -integration_version: 1.1.1 +integration_version: 1.2.0 is_public: true kind: integration manifest_version: 2.0.0 @@ -46,7 +48,7 @@ supported_os: tile: changelog: CHANGELOG.md classifier_tags: - - Category::Data Store + - Category::Data Stores - Category::OS & System - Offering::Integration - Supported OS::Linux @@ -69,6 +71,7 @@ tile: title: Pure Storage FlashArray --- + ## 概要 @@ -85,24 +88,24 @@ tile: - Python 3 - Pure Storage OpenMetrics エクスポーターは、コンテナ環境でインストールされ、実行されます。インストール方法は、[GitHub リポジトリ][3]を参照してください。 -## セットアップ +## 計画と使用 ホストで実行されている Agent 用にこのチェックをインストールおよび構成する場合は、以下の手順に従ってください。コンテナ環境の場合は、オートディスカバリーのインテグレーションテンプレートのガイドを参照してこの手順を行ってください。 -### インストール +### インフラストラクチャーリスト 1. [Datadog Agent をダウンロードして起動][2]します。 2. Pure FlashArray インテグレーションを手動でインストールします。環境に応じた詳細は、[コミュニティインテグレーションを利用する][4]を参照してください。 -#### ホスト +#### メトリクスベース SLO -ホスト上で動作している Agent に対してこのチェックを構成するには、`datadog-agent integration install -t datadog-purefa==` を実行します。 +ホスト上で動作している Agent に対してこのチェックを構成するには、`sudo -u dd-agent -- datadog-agent integration install -t datadog-purefa==` を実行します。 注: `` は、Datadog Integration Extras の [CHANGELOG.md][5] 内に記載されています。 - * 例: `datadog-agent integration install -t datadog-purefa==1.1.0` + * 例: `sudo -u dd-agent -- datadog-agent integration install -t datadog-purefa==1.2.0` -### コンフィギュレーション +### ブラウザトラブルシューティング 1. FlashArray に Read-Only ロールのローカルユーザーを作成し、このユーザー用の API トークンを生成します。 ![API キーの生成][6] @@ -182,7 +185,7 @@ instances: PureFA Agent Check の将来のバージョンでは、Pure Storage Prometheus エクスポーターからのメトリクス名は削除されます。 -### トラブルシューティング +### ヘルプ #### ダッシュボードにアレイが表示されない @@ -204,28 +207,28 @@ min_collection_interval: 120 ``` -## 収集データ +## リアルユーザーモニタリング -### メトリクス +### データセキュリティ {{< get-metrics-from-git "purefa" >}} -### イベント +### ヘルプ PureFA インテグレーションには、イベントは含まれません。 -### サービスのチェック +### ヘルプ このインテグレーションによって提供されるサービスチェックのリストについては、[service_checks.json][13] を参照してください。 -## サポート +## Agent サポートまたは機能リクエストをご希望の場合は、以下の方法で Pure Storage にお問い合わせください。 * メール: pure-observability@purestorage.com * Slack: [Pure Storage Code// Observability Channel][14] [1]: https://www.purestorage.com/products.html -[2]: https://app.datadoghq.com/account/settings#agent +[2]: https://app.datadoghq.com/account/settings/agent/latest [3]: https://github.com/PureStorage-OpenConnect/pure-fa-openmetrics-exporter [4]: https://docs.datadoghq.com/ja/agent/guide/community-integrations-installation-with-docker-agent [5]: https://github.com/DataDog/integrations-extras/blob/master/purefa/CHANGELOG.md diff --git a/content/ja/integrations/purefb.md b/content/ja/integrations/purefb.md index ebcfda16ce80a..6e69f9cb81f68 100644 --- a/content/ja/integrations/purefb.md +++ b/content/ja/integrations/purefb.md @@ -5,6 +5,7 @@ assets: dashboards: purefb_overview: assets/dashboards/purefb_overview.json integration: + auto_install: true configuration: spec: assets/configuration/spec.yaml events: @@ -15,6 +16,7 @@ assets: prefix: purefb. service_checks: metadata_path: assets/service_checks.json + source_type_id: 10269 source_type_name: PureFB author: homepage: https://purestorage.com @@ -22,7 +24,7 @@ author: sales_email: sales@purestorage.com support_email: pure-observability@purestorage.com categories: -- data store +- data stores - OS & システム dependencies: - https://github.com/DataDog/integrations-extras/blob/master/purefb/README.md @@ -31,7 +33,7 @@ draft: false git_integration_title: purefb integration_id: purefb integration_title: Pure Storage FlashBlade -integration_version: 1.0.2 +integration_version: 1.0.4 is_public: true kind: integration manifest_version: 2.0.0 @@ -45,7 +47,7 @@ supported_os: tile: changelog: CHANGELOG.md classifier_tags: - - Category::Data Store + - Category::Data Stores - Category::OS & System - Offering::Integration - Supported OS::Linux @@ -68,6 +70,7 @@ tile: title: Pure Storage FlashBlade --- + ## 概要 @@ -85,22 +88,22 @@ tile: - Python 3 - Pure Storage FlashBlade OpenMetrics エクスポーターは、コンテナ環境でインストールされ、実行されます。インストール方法は、[Pure Storage GitHub リポジトリ][3]を参照してください。 -## セットアップ +## 計画と使用 ホストで実行されている Agent 用にこのチェックをインストールおよび構成する場合は、以下の手順に従ってください。コンテナ環境の場合は、[オートディスカバリーのインテグレーションテンプレート][4]のガイドを参照してこの手順を行ってください。 -### インストール +### インフラストラクチャーリスト 1. [Datadog Agent をダウンロードして起動][2]します。 2. Pure FlashBlade インテグレーションを手動でインストールします。環境に応じた詳細は、[コミュニティインテグレーションを利用する][5]を参照してください。 -#### ホスト +#### メトリクスベース SLO -ホスト上で動作している Agent に対してこのチェックを構成するには、`datadog-agent integration install -t datadog-purefb==1.0.2` を実行します。 +ホスト上で動作している Agent に対してこのチェックを構成するには、`datadog-agent integration install -t datadog-purefb==1.0.4` を実行します。 -### コンフィギュレーション +### ブラウザトラブルシューティング 1. FlashBlade に Read-Only ロールのユーザーを作成し、このユーザー用の API トークンを生成します。 @@ -149,7 +152,7 @@ instances: [Agent の status サブコマンドを実行][8]し、Checks セクションの `purefb` を探します。 -### トラブルシューティング +### ヘルプ #### ダッシュボードにアレイが表示されない @@ -177,28 +180,28 @@ min_collection_interval: 600 ``` -## 収集データ +## リアルユーザーモニタリング -### メトリクス +### データセキュリティ {{< get-metrics-from-git "purefb" >}} -### イベント +### ヘルプ PureFB インテグレーションには、イベントは含まれません。 -### サービスのチェック +### ヘルプ このインテグレーションによって提供されるサービスチェックのリストについては、[service_checks.json][10] を参照してください。 -## サポート +## Agent サポートまたは機能リクエストをご希望の場合は、以下の方法で Pure Storage にお問い合わせください。 * メール: pure-observability@purestorage.com * Slack: [Pure Storage Code// Observability Channel][11] [1]: https://www.purestorage.com/products.html -[2]: https://app.datadoghq.com/account/settings#agent +[2]: https://app.datadoghq.com/account/settings/agent/latest [3]: https://github.com/PureStorage-OpenConnect/pure-fb-openmetrics-exporter [4]: https://docs.datadoghq.com/ja/agent/kubernetes/integrations/ [5]: https://docs.datadoghq.com/ja/agent/guide/community-integrations-installation-with-docker-agent diff --git a/content/ja/integrations/rapdev_hpux_agent.md b/content/ja/integrations/rapdev_hpux_agent.md index a3df639ef135c..676a7d7418db0 100644 --- a/content/ja/integrations/rapdev_hpux_agent.md +++ b/content/ja/integrations/rapdev_hpux_agent.md @@ -5,6 +5,7 @@ app_id: rapdev-hpux-agent app_uuid: 5e611b0d-a099-4823-a4ba-e42b1012b3b5 assets: integration: + auto_install: false configuration: {} events: creates_events: false @@ -14,6 +15,7 @@ assets: prefix: rapdev.hpux_agent. service_checks: metadata_path: assets/service_checks.json + source_type_id: 10185 source_type_name: RapDev Solaris Agent author: homepage: https://www.rapdev.io @@ -53,6 +55,7 @@ tile: classifier_tags: - Category::Marketplace - Offering::Integration + - Submitted Data Type::Metrics configuration: README.md#Setup description: hppa および itanium の HP-UX 11.31 メトリクスを提供するシステム Agent media: @@ -71,6 +74,7 @@ tile: uninstallation: README.md#Uninstallation --- + ## 概要 @@ -80,7 +84,7 @@ HP-UX Agent は、Datadog インフラストラクチャーリストをサポー HP-UX Agent は、ネイティブ Agent と同じ URL とポートを使用します。HP-UX Agent は現在、コアインフラストラクチャーメトリクス、プロセスチェック、ログ追跡をサポートしています。カスタム Agent チェック、インテグレーション、またはサービスチェックはサポートしていません。 -## サポート +## Agent サポートまたは機能リクエストをご希望の場合は、以下のチャンネルから RapDev.io にお問い合わせください。 diff --git a/content/ja/integrations/rapdev_servicenow.md b/content/ja/integrations/rapdev_servicenow.md index b3a6146c8f822..7a480cdb9275b 100644 --- a/content/ja/integrations/rapdev_servicenow.md +++ b/content/ja/integrations/rapdev_servicenow.md @@ -8,18 +8,22 @@ assets: RapDev ServiceNow: assets/dashboards/servicenow.json RapDev ServiceNow ITSM: assets/dashboards/servicenow_itsm.json integration: + auto_install: false configuration: spec: assets/configuration/spec.yaml events: creates_events: true metrics: - check: rapdev.servicenow.incident + check: rapdev.servicenow.record metadata_path: metadata.csv prefix: rapdev.servicenow. service_checks: metadata_path: assets/service_checks.json + source_type_id: 10184 source_type_name: RapDev ServiceNow logs: {} + monitors: + ServiceNow Pending Approval: assets/monitors/servicenow_pending_approval_monitor.json author: homepage: https://www.rapdev.io name: RapDev @@ -53,7 +57,7 @@ pricing: unit_label: ServiceNow インスタンス unit_price: 1000 public_title: ServiceNow Performance Monitoring -short_description: ServiceNow インスタンスのパフォーマンスと ITSM インシデントを監視する +short_description: ServiceNow インスタンスのパフォーマンスと ITSM レコードを監視する supported_os: - linux - windows @@ -68,26 +72,37 @@ tile: - Supported OS::Linux - Supported OS::Windows - Supported OS::macOS + - Submitted Data Type::Metrics configuration: README.md#Setup - description: ServiceNow インスタンスのパフォーマンスと ITSM インシデントを監視する + description: ServiceNow インスタンスのパフォーマンスと ITSM レコードを監視する media: - caption: ServiceNow インスタンスパフォーマンスダッシュボード image_url: images/1.png media_type: image - - caption: ServiceNow ITSM ダッシュボード + - caption: ServiceNow ITSM ダッシュボードのレコード統計 1 / 2 image_url: images/2.png media_type: image + - caption: ServiceNow ITSM ダッシュボードのレコード統計 2 / 2 + image_url: images/3.png + media_type: image + - caption: ServiceNow ITSM ダッシュボードの SLA 統計 + image_url: images/4.png + media_type: image + - caption: ServiceNow ITSM ダッシュボードのテーブル接続統計 + image_url: images/5.png + media_type: image overview: README.md#Overview support: README.md#Support title: ServiceNow Performance Monitoring uninstallation: README.md#Uninstallation --- + ## 概要 -ServiceNow Performance Monitoring インテグレーションは、トランザクション、ジョブ、データベース、キャッシュメトリクスに関する豊富な洞察を使用して、ServiceNow インスタンスの状態とパフォーマンスを監視します。このインテグレーションにより、未解決の ITSM インシデントも追跡され、SLA とビジネスに影響を与えるインシデントの年齢の両方に関する実用的なデータポイントが提供されます。 +ServiceNow Performance Monitoring インテグレーションは、トランザクション、ジョブ、データベース、キャッシュメトリクスに関する豊富な洞察を使用して、ServiceNow インスタンスの状態とパフォーマンスを監視します。このインテグレーションにより、未解決の ITSM レコードも追跡され、SLA とビジネスに影響を与えるレコードの年齢の両方に関する実用的なデータポイントが提供されます。 -## サポート +## Agent サポートまたは機能リクエストをご希望の場合は、以下のチャンネルから RapDev.io にお問い合わせください。 - メール: support@rapdev.io diff --git a/content/ja/integrations/rapdev_solaris_agent.md b/content/ja/integrations/rapdev_solaris_agent.md index 524da8b69a720..3047f7243e113 100644 --- a/content/ja/integrations/rapdev_solaris_agent.md +++ b/content/ja/integrations/rapdev_solaris_agent.md @@ -5,6 +5,7 @@ app_id: rapdev-solaris-agent app_uuid: a994f2cf-1f77-4e74-803d-fb833455e224 assets: integration: + auto_install: false configuration: {} events: creates_events: false @@ -14,6 +15,7 @@ assets: prefix: rapdev.solaris_agent. service_checks: metadata_path: assets/service_checks.json + source_type_id: 10135 source_type_name: RapDev Solaris Agent author: homepage: https://www.rapdev.io @@ -55,6 +57,7 @@ tile: - Category::Marketplace - Category::Oracle - Offering::Integration + - Submitted Data Type::Metrics configuration: README.md#Setup description: sparc と i86pc の Solaris 10 および 11 のメトリクスを提供する Agent media: @@ -73,6 +76,7 @@ tile: uninstallation: README.md#Uninstallation --- + ## 概要 @@ -82,7 +86,7 @@ Solaris Agent は、Datadog インフラストラクチャーリストをサポ Solaris Agent は、ネイティブ Agent と同じ URL とポートを使用します。Solaris Agent は、コアインフラストラクチャーメトリクス、プロセスチェック、ログ追跡をサポートしています。インテグレーションまたはサービスチェックはサポートしていません。 -## サポート +## Agent サポートまたは機能リクエストをご希望の場合は、以下のチャンネルから RapDev.io にお問い合わせください。 diff --git a/content/ja/integrations/rapdev_zoom.md b/content/ja/integrations/rapdev_zoom.md index 316be2134e15c..0ea7759488e30 100644 --- a/content/ja/integrations/rapdev_zoom.md +++ b/content/ja/integrations/rapdev_zoom.md @@ -12,6 +12,7 @@ assets: RapDev Zoom Rooms Dashboard: assets/dashboards/rapdev_zoom_rooms_dashboard.json RapDev Zoom User Details: assets/dashboards/rapdev_zoom_user_details.json integration: + auto_install: false configuration: spec: assets/configuration/spec.yaml events: @@ -22,6 +23,7 @@ assets: prefix: rapdev.zoom. service_checks: metadata_path: assets/service_checks.json + source_type_id: 10150 source_type_name: RapDev Zoom logs: {} monitors: @@ -76,6 +78,7 @@ tile: - Category::Cloud - Category::Collaboration - Offering::Integration + - Submitted Data Type::Metrics configuration: README.md#Setup description: Zoom アカウントを監視し、ライセンスを最適化します media: @@ -100,27 +103,28 @@ tile: uninstallation: README.md#Uninstallation --- + ## 概要 Zoom インテグレーションにより、ミーティング、Rooms、ユーザー、ネットワーク分析、そしてジオロケーションの概要を監視することで、世界中のあらゆる場所で勤務する従業員に最適な利用体験を提供することができます。インテグレーションには、完全カスタマイズが可能な 4 つのダッシュボードが事前構築されており、重要な情報を表面化できます。さらに、エンジニア、IT責任者、マネージャー、そして管理職レベルのすべてのユーザーに普遍的に利用価値のあるビジュアルを提供するよう設計されています。 -### アラート設定 +### ログ管理 1. Zoom Room に問題があります 2. Zoom Room のコンポーネントに問題があります -### ダッシュボード +### ライブラリ 1. RapDev Zoom ミーティング概要 2. RapDev Zoom Rooms ダッシュボード 3. RapDev Zoom ミーティング品質 4. RapDev Zoom ユーザー詳細 5. RapDev Zoom ジオ概要 -6. RapDev Zoom 電話概要 +6. RapDev Zoom Phones 概要 -## サポート +## Agent サポートまたは機能リクエストをご希望の場合は、以下のチャンネルから RapDev.io にお問い合わせください。 - サポート: support@rapdev.io diff --git a/content/ja/integrations/redmine.md b/content/ja/integrations/redmine.md index b9d6746bdbd6e..e8a51b9cc52d7 100644 --- a/content/ja/integrations/redmine.md +++ b/content/ja/integrations/redmine.md @@ -1,8 +1,8 @@ --- categories: - - Collaboration - - issue tracking -ddtype: crawler +- collaboration +- developer tools +- issue tracking dependencies: [] description: Redmine のアップデートを Datadog のイベントストリームで表示、検索、議論。 doc_link: https://docs.datadoghq.com/integrations/redmine/ @@ -11,6 +11,7 @@ git_integration_title: redmine has_logo: true integration_id: redmine integration_title: Redmine +integration_version: '' is_public: true kind: インテグレーション manifest_version: '1.0' @@ -19,39 +20,42 @@ public_title: Datadog-Redmine インテグレーション short_description: Redmine のアップデートを Datadog のイベントストリームで表示、検索、議論。 version: '1.0' --- + + ## 概要 -Datadog で Redmine のアクティビティをキャプチャして、以下のことができます。 +Redmine はオープンソースのプロジェクト管理 Web アプリケーションです。Redmine のアクティビティを Datadog でキャプチャすることで、以下のことが可能になります。 - 開発サイクルを追跡できます。 - Datadog イベントストリームに未解決の問題を表示できます。 - プロジェクトについてチームで議論できます。 -Redmine 構成に必要な項目は、目的のアクティビティフィードの完全な URL だけです (複数の URL を追加できます)。 +Redmine 構成に必要な項目は、目的のアクティビティフィードの完全な URL です。複数の URL を追加できます。 -## セットアップ +## 計画と使用 -### インストール +### インフラストラクチャーリスト インテグレーションを構成するには、[Redmine インテグレーションタイル][1]を参照してください。 -## 収集データ +## リアルユーザーモニタリング -### メトリクス +### データセキュリティ Redmine インテグレーションには、メトリクスは含まれません。 -### イベント +### ヘルプ -Redmine インテグレーションには、イベントは含まれません。 +作成された問題はすべて Datadog 内でイベントとして表示されます。インテグレーションをインストールして構成した後、[Events Explorer][2] で `source:redmine` を検索すると、Redmine のアクティビティフィードで問題を確認することができます。 -### サービスのチェック +### ヘルプ Redmine インテグレーションには、サービスのチェック機能は含まれません。 -## トラブルシューティング +## ヘルプ -ご不明な点は、[Datadog のサポートチーム][2]までお問合せください。 +ご不明な点は、[Datadog のサポートチーム][3]までお問合せください。 -[1]: https://app.datadoghq.com/account/settings#integrations/redmine -[2]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file +[1]: https://app.datadoghq.com/integrations/redmine +[2]: https://docs.datadoghq.com/ja/service_management/events/explorer/ +[3]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/redpanda.md b/content/ja/integrations/redpanda.md index 64b2cd41b6237..06e272df43d10 100644 --- a/content/ja/integrations/redpanda.md +++ b/content/ja/integrations/redpanda.md @@ -5,6 +5,7 @@ assets: dashboards: Redpanda Overview: assets/dashboards/overview.json integration: + auto_install: true configuration: spec: assets/configuration/spec.yaml events: @@ -15,17 +16,18 @@ assets: prefix: redpanda. service_checks: metadata_path: assets/service_checks.json + source_type_id: 10232 source_type_name: Redpanda logs: source: redpanda author: homepage: https://github.com/DataDog/integrations-extras name: Redpanda - sales_email: support@vectorized.io - support_email: support@vectorized.io + sales_email: support@redpanda.com + support_email: support@redpanda.com categories: - ログの収集 -- メッセージング +- メッセージキュー dependencies: - https://github.com/DataDog/integrations-extras/blob/master/redpanda/README.md display_on_public_website: true @@ -33,7 +35,7 @@ draft: false git_integration_title: redpanda integration_id: redpanda integration_title: Redpanda -integration_version: 1.1.1 +integration_version: 2.0.0 is_public: true kind: integration manifest_version: 2.0.0 @@ -48,7 +50,7 @@ tile: changelog: CHANGELOG.md classifier_tags: - Category::Log Collection - - Category::Messaging + - Category::Message Queues - Supported OS::Linux - Supported OS::Windows - Supported OS::macOS @@ -60,6 +62,7 @@ tile: title: Redpanda --- + ## 概要 @@ -67,22 +70,22 @@ Redpanda は、ミッションクリティカルなワークロードのため Datadog と [Redpanda][1] を接続し、主要なメトリクスを表示したり、特定のユーザーニーズに基づいて追加のメトリクスグループを追加することができます。 -## セットアップ +## 計画と使用 -### インストール +### インフラストラクチャーリスト 1. [Datadog Agent をダウンロードして起動][2]します。 2. Redpanda インテグレーションを手動でインストールします。環境に応じた詳細は、[コミュニティインテグレーションを利用する][3]を参照してください。 {{< tabs >}} -{{% tab "Host" %}} +{{% tab "ホスト" %}} -#### ホスト +#### メトリクスベース SLO ホスト上で動作している Agent に対してこのチェックを構成するには、`datadog-agent integration install -t datadog-redpanda==` を実行します。 {{% /tab %}} -{{% tab "Containerized" %}} +{{% tab "コンテナ化" %}} #### コンテナ化 @@ -95,7 +98,7 @@ Agent のアップデート版をビルドするには ```dockerfile FROM gcr.io/datadoghq/agent:latest -ARG INTEGRATION_VERSION=1.0.0 +ARG INTEGRATION_VERSION=2.0.0 RUN agent integration install -r -t datadog-redpanda==${INTEGRATION_VERSION} ``` @@ -121,12 +124,12 @@ helm upgrade -f values.yaml datadog/datadog {{% /tab %}} {{< /tabs >}} -### コンフィギュレーション +### ブラウザトラブルシューティング {{< tabs >}} -{{% tab "Host" %}} +{{% tab "ホスト" %}} -#### ホスト +#### メトリクスベース SLO ##### メトリクスの収集 @@ -136,7 +139,7 @@ Redpanda のパフォーマンスデータの収集を開始するには 2. [Agent を再起動します][3]。 -##### ログの収集 +##### 収集データ デフォルトでは、Datadog Agent でログを収集することは無効になっています。ログ収集は、Agent v6.0+ で利用可能です。 @@ -163,7 +166,7 @@ Redpanda のパフォーマンスデータの収集を開始するには [2]: https://github.com/DataDog/integrations-extras/blob/master/redpanda/datadog_checks/redpanda/data/conf.yaml.example [3]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#start-stop-and-restart-the-agent {{% /tab %}} -{{% tab "Containerized" %}} +{{% tab "コンテナ化" %}} #### コンテナ化 @@ -173,7 +176,7 @@ Redpanda のパフォーマンスデータの収集を開始するには メトリクスは、Datadog のサーバーに自動的に収集されます。詳細は、[オートディスカバリーインテグレーションテンプレート][1]を参照してください。 -##### ログの収集 +##### 収集データ デフォルトでは、Datadog Agent でログ収集は無効になっています。ログ収集は、Agent v6.0+ で利用可能です。 @@ -184,7 +187,7 @@ Redpanda のパフォーマンスデータの収集を開始するには | `` | `{"source": "redpanda", "service": "redpanda_cluster"}` | [1]: https://docs.datadoghq.com/ja/agent/kubernetes/integrations/ -[2]: https://app.datadoghq.com/account/settings#agent +[2]: https://app.datadoghq.com/account/settings/agent/latest {{% /tab %}} {{< /tabs >}} @@ -192,27 +195,27 @@ Redpanda のパフォーマンスデータの収集を開始するには [Agent のステータスサブコマンドを実行][4]し、Checks セクションで `redpanda` を探します。 -## 収集データ +## リアルユーザーモニタリング -### メトリクス +### データセキュリティ {{< get-metrics-from-git "redpanda" >}} -### イベント +### ヘルプ Redpanda インテグレーションには、イベントは含まれません。 -### サービスのチェック +### ヘルプ {{< get-service-checks-from-git "redpanda" >}} -## トラブルシューティング +## ヘルプ -ご不明な点は、[Datadog のサポートチーム][5]までお問合せください。 +ご不明な点は、[Datadog のサポートチーム][5]までお問い合わせください。 -[1]: https://vectorized.io -[2]: https://app.datadoghq.com/account/settings#agent +[1]: https://redpanda.com +[2]: https://app.datadoghq.com/account/settings/agent/latest [3]: https://docs.datadoghq.com/ja/agent/guide/community-integrations-installation-with-docker-agent [4]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information [5]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/rollbar_license.md b/content/ja/integrations/rollbar_license.md index d2eaf76a76bd0..c12bbe9a09478 100644 --- a/content/ja/integrations/rollbar_license.md +++ b/content/ja/integrations/rollbar_license.md @@ -30,10 +30,10 @@ pricing: includes_assets: true metric: datadog.marketplace.rollbar.rollbar product_id: rollbar - short_description: 10 万件/月の例外をリアルタイムで追跡。 + short_description: 月に 50 万件の例外をリアルタイムで追跡します。 tag: event unit_label: 50 万イベント - unit_price: 100 + unit_price: 350 public_title: Rollbar short_description: リアルタイムでエラーをプロアクティブに発見します。 supported_os: @@ -75,6 +75,7 @@ tile: uninstallation: README.md#Uninstallation --- + ## 概要 @@ -97,7 +98,7 @@ Datadog、GitHub、GitHub Enterprise Server、Atlassian、Google Cloud、Terrafo 厳しい業界標準に完全準拠し、お客様を支援する機能を構築しています。 -## サポート +## Agent ご質問・お問い合わせは、[こちら][4]までお気軽にどうぞ。 diff --git a/content/ja/integrations/rum_ios.md b/content/ja/integrations/rum_ios.md index ce7a03cf1050e..9b904d7e45c6b 100644 --- a/content/ja/integrations/rum_ios.md +++ b/content/ja/integrations/rum_ios.md @@ -1,6 +1,7 @@ --- app_id: rum-ios app_uuid: 53933f32-091c-4b8d-83a5-bd53ac9eacdb +assets: {} author: homepage: https://www.datadoghq.com name: Datadog @@ -41,6 +42,7 @@ tile: title: iOS --- + ## 概要 @@ -63,7 +65,7 @@ iOS アプリケーションのエンドツーエンドの健全性を監視し - クライアントサイドとサーバーサイドのメトリクス、トレース、ログを統合し、クラッシュのデバッグを高速化 - フロントエンドとバックエンドのチーム向けに、フルスタックモニタリングを単一プラットフォームで実現 -## セットアップ +## 計画と使用 ### RUM イベントの収集 @@ -77,9 +79,9 @@ iOS アプリケーションのトレースを Datadog に送信し始めるに iOS アプリケーションのログを Datadog に転送し始めるには、[iOS ログ収集][5]をご覧ください。 -## 収集データ +## リアルユーザーモニタリング -### メトリクス +### データセキュリティ iOS インテグレーションには、メトリクスは含まれていません。RUM アプリケーションからカスタムメトリクスを生成するには、[メトリクスの生成][6]を参照してください。 @@ -91,7 +93,7 @@ iOS インテグレーションには、メトリクスは含まれていませ iOS インテグレーションには、サービスのチェック機能は含まれません。 -## トラブルシューティング +## ヘルプ ご不明な点は、[Datadog のサポートチーム][8]までお問い合わせください。 diff --git a/content/ja/integrations/salesforce_commerce_cloud.md b/content/ja/integrations/salesforce_commerce_cloud.md index dc88533912472..c06416016ce46 100644 --- a/content/ja/integrations/salesforce_commerce_cloud.md +++ b/content/ja/integrations/salesforce_commerce_cloud.md @@ -9,6 +9,7 @@ assets: creates_events: false service_checks: metadata_path: assets/service_checks.json + source_type_id: 616 source_type_name: Salesforce Commerce Cloud author: homepage: https://www.datadoghq.com @@ -43,23 +44,24 @@ tile: title: Salesforce Commerce Cloud --- + ## 概要 Salesforce Commerce Cloud は、マルチテナント型のクラウドベースのコマースプラットフォームです。Salesforce Commerce Cloud と Datadog をインテグレーションし、[Datadog Logs][1] を使ってログを表示・パースします。 -## セットアップ +## 計画と使用 -### インストール +### インフラストラクチャーリスト インストールは必要ありません。 -### コンフィギュレーション +### ブラウザトラブルシューティング Datadog がログデータをインポートするためのアクセスを Salesforce Commerce Cloud に許可するよう構成するには、API クライアントを作成する必要があります。そして、その API クライアントを Datadog に登録します。 #### API クライアントの作成 -1. [Commerce Cloud のクライアント作成手順][2]の手順に従います。`Token Endpoint Auth Method` フィールドで、`private_key_jwt` を選択します。`Access Token Format` フィールドでは、`UUID` を選択します。**注**: このインテグレーションは、`https://account.demandware.com/` にあるメインのアカウントマネージャーインスタンスを使用してプロビジョニングされた API クライアントのみをサポートします。 -2. API クライアント ID とシークレットを控えておいてください。これらは以降の手順で必要になります。 +1. [Commerce Cloud のクライアント作成手順][2]の手順に従います。`Token Endpoint Auth Method` フィールドで、`private_key_jwt` を選択します。`Access Token Format` フィールドでは、`JWT` を選択します。**注**: このインテグレーションは、`https://account.demandware.com/` にあるメインのアカウントマネージャーインスタンスを使用してプロビジョニングされた API クライアントのみをサポートします。 +2. API クライアント ID とシークレット (ユーザー名とパスワードとも呼ばれます) を控えておいてください。これらは以降の手順で必要になります。 3. Business Manager インターフェイスの **Administration > Organization > WebDAV Client Permissions** の下に、以下の JSON を追加します。適切な場所にクライアント ID を挿入していることを確認してください。 ```json @@ -92,25 +94,25 @@ Datadog がログデータをインポートするためのアクセスを Sales SFCC Log Center は、Datadog とは異なるログデータを表現します。例えば、大きなスタックトレースを持ついくつかのエラーログは、SFCC Log Center では 2 つのログイベントに分割され、Datadog ではスタックトレースの詳細が省略されます。この結果、2 つのシステム間でログイベントの総カウントに不一致が生じます。 -## 収集データ +## リアルユーザーモニタリング -### メトリクス +### データセキュリティ Salesforce Commerce Cloud インテグレーションには、メトリクスは含まれません。 -### ログ管理 +### ワークフローの自動化 Salesforce Commerce Cloud インテグレーションは、Commerce Cloud インスタンスへの webdav 接続を介してログを収集します。 -### サービスのチェック +### ヘルプ Salesforce Commerce Cloud インテグレーションには、サービスのチェック機能は含まれません。 -## トラブルシューティング +## ヘルプ ご不明な点は、[Datadog のサポートチーム][4]までお問合せください。 [1]: /ja/logs/ -[2]: https://documentation.b2c.commercecloud.salesforce.com/DOC3/index.jsp?topic=%2Fcom.demandware.dochelp%2Fcontent%2Fb2c_commerce%2Ftopics%2Faccount_manager%2Fb2c_account_manager_overview.html +[2]: https://help.salesforce.com/s/articleView?id=cc.b2c_account_manager_add_api_client_id.htm&type=5 [3]: https://app.datadoghq.com/account/settings#integrations/salesforce-commerce-cloud [4]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/salesforce_marketing_cloud.md b/content/ja/integrations/salesforce_marketing_cloud.md index 7de38147cf947..ef27781c5c7c2 100644 --- a/content/ja/integrations/salesforce_marketing_cloud.md +++ b/content/ja/integrations/salesforce_marketing_cloud.md @@ -21,17 +21,20 @@ team: web-integrations version: '1.0' --- + ## 概要 -Salesforce Marketing Cloud は、クラウドベースのマーケティングプラットフォームです。Salesforce Marketing Cloud と Datadog をインテグレーションし、[Datadog Logs][1] を使ってログを表示・パースします。 +Salesforce Marketing Cloud は、モバイル、ソーシャル、オンライン、およびメールプラットフォームを通じたマーケティングのための自動化および分析ツールとサービスを備えたクラウドベースのマーケティングプラットフォームです。 -## セットアップ +Salesforce Marketing Cloud と Datadog のインテグレーションは、[Datadog Logs][1] を使用してログの表示とパースを行うために使われます。 -### インストール +## 計画と使用 + +### インフラストラクチャーリスト インストールは必要ありません。 -### コンフィギュレーション +### ブラウザトラブルシューティング Salesforce Marketing Cloud から Datadog にイベントを送信するように構成するためには、Salesforce Marketing Cloud Setup ページでコールバック URL を作成し、サブスクリプションを作成する必要があります。 @@ -58,21 +61,21 @@ Salesforce Marketing Cloud から Datadog にイベントを送信するよう 3. 受信したいイベントをすべて選択し、フィルターを追加します。 4. **Subscribe** をクリックします。イベントが Datadog に送信されます。 -## 収集データ +## リアルユーザーモニタリング -### メトリクス +### データセキュリティ Salesforce Marketing Cloud インテグレーションには、メトリクスは含まれません。 -### ログ管理 +### ワークフローの自動化 Salesforce Marketing Cloud インテグレーションでは、[サブスクリプション設定](#subscription-setup)で選択したイベントからログイベントが収集されます。 -### サービスのチェック +### ヘルプ Salesforce Marketing Cloud インテグレーションには、サービスのチェック機能は含まれません。 -## トラブルシューティング +## ヘルプ ご不明な点は、[Datadog のサポートチーム][2]までお問合せください。 diff --git a/content/ja/integrations/segment.md b/content/ja/integrations/segment.md index baf20a2704b31..41e7ec78cc708 100644 --- a/content/ja/integrations/segment.md +++ b/content/ja/integrations/segment.md @@ -1,11 +1,15 @@ --- categories: - クラウド -- notification +- notifications dependencies: [] description: Segment インテグレーションは、配信先ワークスペースのイベント配信メトリクスを収集 doc_link: https://docs.datadoghq.com/integrations/segment/ draft: false +further_reading: +- link: https://www.datadoghq.com/blog/monitor-segment-datadog/ + tag: ブログ + text: Segment と Datadog を使用して顧客データインフラストラクチャーを監視する git_integration_title: segment has_logo: true integration_id: '' @@ -21,40 +25,47 @@ team: web-integrations version: '1.0' --- + ## 概要 -Segment と接続して、以下のことができます。 +Segment は、ファーストパーティの顧客データのクリーニング、収集、制御を容易にする顧客データインフラストラクチャーです。Segment は、Web サイトやモバイルアプリなどのソースからデータを収集し、1 つまたは複数の宛先 (例えば、Google Analytics や Amazon Redshift) にルーティングします。 +Datadog のすぐに使えるダッシュボードとモニターを使用することで、次のことが可能になります。 - クラウドモードの配信先のイベント配信メトリクスを視覚化できます。 - Datadog のタグシステムを使用してデータを分析できます (ワークスペースや配信先でメトリクスを細分するなど)。 +- 配信の問題に対してアラートを自動化し、重要なデータパイプラインがダウンしたときに通知を受けるようにします。 **注**: これらのメトリクスは、Snowflake や Amplitude などの宛先への配信を目的としており、インスツルメントされたアプリケーションからセグメントへの配信を目的としていません。 -## セットアップ +## 計画と使用 -### インストール +### インフラストラクチャーリスト [インテグレーションタイル][1]に移動し、`Add WorkSpace` リンクをクリックして Oauth2 フローを開始することで、Datadog にワークスペースへの `workspace:read` アクセス権を付与します。 Datadog にワークスペースへのアクセスを付与するセグメントのユーザーには、`workspace owner` の役割がある必要があります。 -## 収集データ +## リアルユーザーモニタリング -### メトリクス +### データセキュリティ {{< get-metrics-from-git "segment" >}} -### イベント +### ヘルプ Segment インテグレーションには、イベントは含まれません。 -### サービスのチェック +### ヘルプ Segment インテグレーションには、サービスのチェック機能は含まれません。 -## トラブルシューティング +## ヘルプ ご不明な点は、[Datadog のサポートチーム][3]までお問合せください。 -[1]: https://app.datadoghq.com/account/settings#integrations/segment +## その他の参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/integrations/segment [2]: https://github.com/DataDog/dogweb/blob/prod/integration/segment/segment_metadata.csv [3]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/sendgrid.md b/content/ja/integrations/sendgrid.md index f3e4ed228e82f..beae6468328d5 100644 --- a/content/ja/integrations/sendgrid.md +++ b/content/ja/integrations/sendgrid.md @@ -15,6 +15,7 @@ assets: prefix: sendgrid.emails. service_checks: metadata_path: assets/service_checks.json + source_type_id: 620 source_type_name: SendGrid author: homepage: https://www.datadoghq.com @@ -22,8 +23,7 @@ author: sales_email: info@datadoghq.com (日本語対応) support_email: help@datadoghq.com categories: -- web -- メトリクス +- モニター - ログの収集 dependencies: [] display_on_public_website: true @@ -48,7 +48,6 @@ tile: - Supported OS::Linux - Supported OS::Windows - Supported OS::macOS - - Category::Web - Category::Metrics - Category::Log Collection configuration: README.md#Setup @@ -59,11 +58,14 @@ tile: title: SendGrid --- + +{{< img src="integrations/sendgrid/sendgrid_dashboard_overview.png" alt="Datadog の Sendgrid ダッシュボード" popup="true">}} + ## 概要 -SendGrid のメール配信およびエンゲージメントのメトリクスとログを収集します。 +Twilio SendGrid は、企業がトランザクションメールやマーケティングメールの送信に使用するメールプラットフォームです。このインテグレーションを使用して、SendGrid のメール配信とエンゲージメントのメトリクスとログを収集します。 -## セットアップ +## 計画と使用 ### SendGrid の API キーを生成する @@ -74,7 +76,7 @@ SendGrid のメール配信およびエンゲージメントのメトリクス 5. _API Key Name_ を記入します。**Full Access**、またはアクセス制限のある場合は、**Stats** - **Read Access** および **User Account** - **Read Access** を選択します。 6. API キーを安全な場所にコピーします。API キーは、Datadog のユーザーインターフェイスで SendGrid インテグレーションを設定する際に必要になります。 -### コンフィギュレーション +### ブラウザトラブルシューティング #### メトリクスの送信 @@ -94,27 +96,27 @@ SendGrid のメール配信およびエンゲージメントのメトリクス 7. **Authorization Method** を _None_ に設定したままにします。 8. 受け取る配信やエンゲージメントイベントの内容を選択します。 9. **Event Webhook Status** を有効にします。 -10. **保存**をクリックします。 +10. **Save** をクリックします。 -## 収集データ +## リアルユーザーモニタリング -### メトリクス +### データセキュリティ {{< get-metrics-from-git "sendgrid" >}} -### ログ管理 +### ワークフローの自動化 Sendgrid の配信とエンゲージメントイベントは、ソース `sendgrid` の下にログとして表示されます。 -### イベント +### ヘルプ SendGrid インテグレーションには、イベントは含まれません。 -### サービスのチェック +### ヘルプ SendGrid インテグレーションには、サービスのチェック機能は含まれません。 -## トラブルシューティング +## ヘルプ ご不明な点は、[Datadog のサポートチーム][4]までお問合せください。 diff --git a/content/ja/integrations/sigsci.md b/content/ja/integrations/sigsci.md index f6506fb476439..d0f507bd10c49 100644 --- a/content/ja/integrations/sigsci.md +++ b/content/ja/integrations/sigsci.md @@ -5,6 +5,7 @@ assets: dashboards: sigsci: assets/dashboards/overview.json integration: + auto_install: true configuration: {} events: creates_events: true @@ -14,6 +15,7 @@ assets: prefix: sigsci. service_checks: metadata_path: assets/service_checks.json + source_type_id: 10037 source_type_name: Signal Sciences monitors: Excessive blocked http requests: assets/monitors/excessiveblockedHTTP.json @@ -57,6 +59,7 @@ tile: title: Signal Sciences --- + ## 概要 Signal Sciences のメトリクスとイベントを Datadog に送信することで、アプリケーション、API、マイクロサービスなどに対する攻撃や悪用をリアルタイムに監視できます。また、Signal Sciences が正しく機能し、トラフィックを検査していることを確認できます。 @@ -92,11 +95,11 @@ Signal Sciences からメトリクスとイベントをリアルタイムに取 - Signal Sciences エージェントのステータスに関するアラートを表示できます。 -## セットアップ +## 計画と使用 Signal Sciences-Datadog インテグレーションを使用するには、Signal Sciences ユーザーである必要があります。Signal Sciences の詳細については、 を参照してください。 -### 構成 +### ブラウザトラブルシューティング #### メトリクスの収集 @@ -140,21 +143,21 @@ Signal Sciences-Datadog インテグレーションを使用するには、Signa 詳細については、[Datadog Signal Sciences インテグレーション][7]を参照してください。 -## 収集データ +## リアルユーザーモニタリング -### メトリクス +### データセキュリティ {{< get-metrics-from-git "sigsci" >}} -### イベント +### ヘルプ -すべての Signal Sciences イベントが [Datadog のイベントストリーム][9]に送信されます +Signal Sciences で IP アドレスにフラグが立てられると、イベントが作成され、[Datadog イベントストリーム][9]に送信されます。 -### サービスのチェック +### ヘルプ Signal Sciences インテグレーションには、サービスのチェック機能は含まれません。 -## トラブルシューティング +## ヘルプ ご不明な点は、[Datadog のサポートチーム][10]までお問合せください。 diff --git a/content/ja/integrations/snmp_aruba.md b/content/ja/integrations/snmp_aruba.md new file mode 100644 index 0000000000000..1aafdae5416cb --- /dev/null +++ b/content/ja/integrations/snmp_aruba.md @@ -0,0 +1,91 @@ +--- +app_id: snmp-aruba +app_uuid: 39ecfe88-b733-43f6-b8c5-99450430b776 +assets: + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10354 + source_type_name: Aruba +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com (日本語対応) + support_email: help@datadoghq.com +categories: +- notifications +- ネットワーク +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/snmp_aruba/README.md +display_on_public_website: true +draft: false +git_integration_title: snmp_aruba +integration_id: snmp-aruba +integration_title: Aruba +integration_version: '' +is_public: true +kind: インテグレーション +manifest_version: 2.0.0 +name: snmp_aruba +public_title: Aruba +short_description: Aruba ネットワークデバイスから SNMP メトリクスを収集します。 +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::Notifications + - Category::Network + configuration: README.md#Setup + description: Aruba ネットワークデバイスから SNMP メトリクスを収集します。 + media: [] + overview: README.md#Overview + support: README.md#Support + title: Aruba +--- + + + + +## 概要 + +Aruba Networks は Hewlett Packard Enterprise のワイヤレスネットワーキングの子会社で、有線、ワイヤレス、SD-WAN ソリューションを提供しています。Aruba インテグレーションを構成し、Aruba スイッチやアクセスポイントなどのデバイスから SNMP メトリクスを収集します。 + +監視対象となるメトリクスの詳細については、[収集される SNMP データ][1]のセクションを参照してください。 + +## セットアップ + +SNMP インテグレーションをインストールして構成するには、[ネットワークデバイスモニタリング][2]のドキュメントを参照してください。 + +## データ収集 + +### メトリクス + +監視対象となるメトリクスの詳細については、[収集される SNMP データ][1]のセクションを参照してください。 + +## トラブルシューティング + +ご不明な点は、[Datadog のサポートチーム][3]までお問合せください。 + +## その他の参考資料 + +お役に立つドキュメント、リンクや記事: + +* [Datadog での SNMP モニタリング][4] + + + +[1]: https://docs.datadoghq.com/ja/network_performance_monitoring/devices/data +[2]: https://docs.datadoghq.com/ja/network_performance_monitoring/devices/setup +[3]: https://docs.datadoghq.com/ja/help/ +[4]: https://www.datadoghq.com/blog/monitor-snmp-with-datadog/ \ No newline at end of file diff --git a/content/ja/integrations/stripe.md b/content/ja/integrations/stripe.md index 9723fa37a31e8..aa7fa412ed4e8 100644 --- a/content/ja/integrations/stripe.md +++ b/content/ja/integrations/stripe.md @@ -9,6 +9,7 @@ assets: creates_events: false service_checks: metadata_path: assets/service_checks.json + source_type_id: 624 source_type_name: Stripe author: homepage: https://www.datadoghq.com @@ -16,7 +17,6 @@ author: sales_email: info@datadoghq.com (日本語対応) support_email: help@datadoghq.com categories: -- web - ログの収集 dependencies: [] display_on_public_website: true @@ -35,7 +35,6 @@ supported_os: [] tile: changelog: CHANGELOG.md classifier_tags: - - Category::Web - Category::Log Collection configuration: README.md#Setup description: Stripe からアカウントのイベント変更に関するログを受け取ることができます。 @@ -45,15 +44,16 @@ tile: title: Stripe --- + ## 概要 -Datadog を Stripe アカウントと接続し、アカウント内のイベント変更に関するログを受信します。 +Stripe は、あらゆる規模のインターネットビジネス向けにオンライン決済処理と商取引ソリューションを提供する API スイートです。Datadog を Stripe アカウントに接続すると、アカウントのイベント変更に関するログを受け取ることができます。 -## セットアップ +## 計画と使用 -### コンフィギュレーション +### ブラウザトラブルシューティング -#### ログ管理 +#### ワークフローの自動化 1. Datadog の [Stripe インテグレーションタイル][1]の **Configuration** タブ内に生成された URL をコピーします。 2. Stripe アカウントの [Webhooks][2] ページにアクセスします。 @@ -64,25 +64,25 @@ Datadog を Stripe アカウントと接続し、アカウント内のイベン 7. **Add endpoint** をクリックします。 -## 収集データ +## リアルユーザーモニタリング -### メトリクス +### データセキュリティ Stripe インテグレーションには、メトリクスは含まれません。 -### ログ管理 +### ワークフローの自動化 Stripe のイベントは、`stripe` ソースの下にログとして表示されます。 -### イベント +### ヘルプ Stripe インテグレーションには、イベントは含まれません。 -### サービスのチェック +### ヘルプ Stripe インテグレーションには、サービスのチェック機能は含まれません。 -## トラブルシューティング +## ヘルプ ご不明な点は、[Datadog のサポートチーム][3]までお問合せください。 diff --git a/content/ja/integrations/terraform.md b/content/ja/integrations/terraform.md index c993a43e3e137..e91510c19b038 100644 --- a/content/ja/integrations/terraform.md +++ b/content/ja/integrations/terraform.md @@ -3,11 +3,13 @@ app_id: terraform app_uuid: 05198ed5-6fe5-417b-8711-e124718e9715 assets: integration: + auto_install: true configuration: {} events: creates_events: false service_checks: metadata_path: assets/service_checks.json + source_type_id: 10153 source_type_name: terraform author: homepage: https://www.datadoghq.com @@ -24,13 +26,13 @@ display_on_public_website: true draft: false git_integration_title: terraform integration_id: terraform -integration_title: terraform +integration_title: Terraform integration_version: '' is_public: true kind: integration manifest_version: 2.0.0 name: terraform -public_title: terraform +public_title: Terraform short_description: Terraform を使用して Datadog アカウントを管理する supported_os: - linux @@ -50,24 +52,25 @@ tile: media: [] overview: README.md#Overview support: README.md#Support - title: terraform + title: Terraform --- + ## 概要 Datadog Terraform プロバイダーは Terraform コンフィギュレーションを介して Datadog API とのやり取りを可能にします。このコンフィギュレーションによって、ダッシュボード、モニター、ログコンフィギュレーションといった Datadog のリソースを管理することができます。 -## セットアップ +## 計画と使用 -### インストール +### インフラストラクチャーリスト Datadog Terraform プロバイダーは [Terraform レジストリ][1]を介して利用することができます。 -### コンフィギュレーション +### ブラウザトラブルシューティング -1. [Terraform のインストール][2] +1. [Terraform をインストールします][2]。 2. Terraform のコンフィギュレーションファイルを含むディレクトリを作成します。例: `terraform_config/` 3. `terraform_config/` ディレクトリに、以下の内容の `main.tf` ファイルを作成します。 ``` @@ -86,12 +89,17 @@ Datadog Terraform プロバイダーは [Terraform レジストリ][1]を介し } ``` + **注**: Datadog US1 サイトを使用していない場合は、`api_url` [オプションパラメーター][3]を [Datadog サイト][4]に設定する必要があります。ページの右側にあるドキュメントサイトセレクタが正しい Datadog サイトに設定されていることを確認してから、`api_url` パラメーターの値として以下の URL を使用してください。 + + ``` + https://api.{{< region-param key="dd_site" code="true" >}}/ + ``` 4. `terraform init` を実行します。これにより、Terraform での利用のためにディレクトリが初期化され、Datadog プロバイダーがプルされます。 5. `terraform_config/` ディレクトリ内に任意の `.tf` ファイルを作成し、Datadog リソースの作成を開始します。 -## モニターの作成 +## ノートブックの更新 -この例では、[ライブプロセスモニター][3]を作成する `monitor.tf` ファイルを示します。 +この例では、[ライブプロセスモニター][5]を作成する `monitor.tf` ファイルを示します。 ``` # monitor.tf @@ -121,7 +129,7 @@ Datadog Terraform プロバイダーは [Terraform レジストリ][1]を介し pip install datadog ``` -詳しくは、[Datadog Python ライブラリ][4]をご覧ください。 +詳しくは、[Datadog Python ライブラリ][6]をご覧ください。 `terraform apply` イベントを送信します: @@ -135,26 +143,28 @@ Datadog Terraform プロバイダーは [Terraform レジストリ][1]を介し dogwrap -n "terraform destroy" -k $DD_API_KEY --submit_mode all --tags="source:terraform" "terraform destroy -no-color" ``` -## 収集データ +## リアルユーザーモニタリング -### メトリクス +### データセキュリティ Terraform には、メトリクスは含まれません。 -### サービスのチェック +### ヘルプ Terraform には、サービスのチェック機能は含まれません。 -### イベント +### ヘルプ Terraform には、イベントは含まれません。 -## トラブルシューティング +## ヘルプ -ご不明な点は、[Datadog のサポートチーム][5]までお問合せください。 +ご不明な点は、[Datadog のサポートチーム][7]までお問い合わせください。 [1]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs [2]: https://learn.hashicorp.com/tutorials/terraform/install-cli -[3]: https://docs.datadoghq.com/ja/monitors/types/process/ -[4]: https://github.com/DataDog/datadogpy -[5]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file +[3]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs#optional +[4]: https://docs.datadoghq.com/ja/getting_started/site/ +[5]: https://docs.datadoghq.com/ja/monitors/types/process/ +[6]: https://github.com/DataDog/datadogpy +[7]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/vault.md b/content/ja/integrations/vault.md index a36b279b9df90..b86588592cff7 100644 --- a/content/ja/integrations/vault.md +++ b/content/ja/integrations/vault.md @@ -6,6 +6,7 @@ assets: Vault - Overview: assets/dashboards/vault_overview_legacy.json Vault - Overview (OpenMetricsV2): assets/dashboards/vault_overview.json integration: + auto_install: true configuration: spec: assets/configuration/spec.yaml events: @@ -14,8 +15,11 @@ assets: check: vault.is_leader metadata_path: metadata.csv prefix: vault. + process_signatures: + - vault server service_checks: metadata_path: assets/service_checks.json + source_type_id: 10059 source_type_name: Vault logs: source: vault @@ -40,7 +44,7 @@ draft: false git_integration_title: vault integration_id: vault integration_title: Vault -integration_version: 3.4.0 +integration_version: 4.1.0 is_public: true kind: インテグレーション manifest_version: 2.0.0 @@ -67,87 +71,91 @@ tile: title: Vault --- + ## 概要 このチェックは、[Vault][1] クラスターの健全性とリーダーの変更を監視します。 -## セットアップ +## 計画と使用 -### インストール +### インフラストラクチャーリスト Vault チェックは [Datadog Agent][2] パッケージに含まれています。 -#### 前提条件 -1. [Vault コンフィギュレーションで Prometheus メトリクス][3]が有効になっていることを確認します。 +バージョン 3.4.0 以降、この OpenMetrics ベースのインテグレーションには、*最新*モード (`use_openmetrics`: true) と*レガシー*モード (`use_openmetrics`: false) があります。すべての最新機能を利用するために、Datadog は最新モードを有効にすることを推奨します。*最新*モードには Python 3 が必要です。詳しくは、[OpenMetrics ベースのインテグレーションにおける最新バージョニングとレガシーバージョニング][3]を参照してください。 -2. Vault チェックが正しく機能するには、Vault メトリクス (Vault 1.3.0+) への未認証アクセスを有効にするか、Vault クライアントトークンを指定する必要があります。 +1. [Vault 構成で Prometheus メトリクス][4]が有効になっていることを確認します。 - **未認証アクセスを有効にするには**、Vault の [`unauthenticated_metrics_access`][4] コンフィギュレーションを `true` に設定します。これにより、`/v1/sys/metrics` エンドポイントへの未認証アクセスが許可されます。 + +2. Vault チェックが正しく機能するには、Vault メトリクスへの未認証アクセスを有効にする (Vault バージョン 1.3.0 以降を使用) か、Vault クライアントトークンを提供する必要があります。 + + * 未認証アクセスを有効にするには、Vault の [`unauthenticated_metrics_access`][5] 構成を `true` に設定します。これにより、`/v1/sys/metrics` エンドポイントへの未認証アクセスが許可されます。 **注**: `/sys/metrics` エンドポイントでメトリクスを収集するには Vault v1.1.0 以降が必要です。 - **Vault クライアントトークンを使用するには**、以下の例を参照してください。JWT 認証方法を使用した例ですが、他の[認証方法][5]を使用することもできます。 + * Vault クライアントトークンを使用するには、以下の例を参照してください。JWT 認証方法を使用した例ですが、追加の[認証方法][6]を使用することもできます。 Vault インテグレーションには以下の機能が必要です。 - `metrics_policy.hcl` のコンテンツ: - ```text - path "sys/metrics*" { - capabilities = ["read", "list"] - } - ``` +* `metrics_policy.hcl` のコンテンツ: -セットアップポリシーとロール: + ```text + path "sys/metrics*" { + capabilities = ["read", "list"] + } + ``` - ```text - $ vault policy write metrics /path/to/metrics_policy.hcl - $ vault auth enable jwt - $ vault write auth/jwt/config jwt_supported_algs=RS256 jwt_validation_pubkeys=@ - $ vault write auth/jwt/role/datadog role_type=jwt bound_audiences= user_claim=name token_policies=metrics - $ vault agent -config=/path/to/agent_config.hcl - ``` +* セットアップポリシーとロール: -`agent_config.hcl` のコンテンツ: + ```text + $ vault policy write metrics /path/to/metrics_policy.hcl + $ vault auth enable jwt + $ vault write auth/jwt/config jwt_supported_algs=RS256 jwt_validation_pubkeys=@ + $ vault write auth/jwt/role/datadog role_type=jwt bound_audiences= user_claim=name token_policies=metrics + $ vault agent -config=/path/to/agent_config.hcl + ``` - ``` - exit_after_auth = true - pid_file = "/tmp/agent_pid" - - auto_auth { - method "jwt" { - config = { - path = "" - role = "datadog" - } - } - - sink "file" { - config = { - path = "" - } - } - } - - vault { - address = "http://0.0.0.0:8200" - } - ``` +* `agent_config.hcl` のコンテンツ: + + ``` + exit_after_auth = true + pid_file = "/tmp/agent_pid" + + auto_auth { + method "jwt" { + config = { + path = "" + role = "datadog" + } + } + + sink "file" { + config = { + path = "" + } + } + } + + vault { + address = "http://0.0.0.0:8200" + } + ``` -### コンフィギュレーション +### ブラウザトラブルシューティング {{< tabs >}} -{{% tab "Host" %}} +{{% tab "ホスト" %}} -#### ホスト +#### メトリクスベース SLO -ホストで実行中の Agent に対してこのチェックを構成するには: +ホストで実行中の Agent に対してこのチェックを構成するには 1. vault のパフォーマンスデータの収集を開始するには、[Agent のコンフィギュレーションディレクトリ][1]のルートにある `conf.d/` フォルダーの `vault.d/conf.yaml` ファイルを編集します。使用可能なすべてのコンフィギュレーションオプションの詳細については、[サンプル vault.d/conf.yaml][2] を参照してください。 - トークンなしでインテグレーションを実行するためのコンフィギュレーション (vault コンフィギュレーション `unauthenticated_metrics_access` が true に設定されている場合): + トークンなしでインテグレーションを実行するための構成 (Vault 構成 `unauthenticated_metrics_access` が true に設定されている場合): ```yaml init_config: @@ -193,7 +201,7 @@ Vault インテグレーションには以下の機能が必要です。 [2]: https://github.com/DataDog/integrations-core/blob/master/vault/datadog_checks/vault/data/conf.yaml.example [3]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#start-stop-restart-the-agent {{% /tab %}} -{{% tab "Containerized" %}} +{{% tab "コンテナ化" %}} #### コンテナ化 @@ -201,13 +209,13 @@ Vault インテグレーションには以下の機能が必要です。 | パラメーター | 値 | | -------------------- | ---------------------------------------- | -| `<インテグレーション名>` | `vault` | -| `<初期コンフィギュレーション>` | 空白または `{}` | -| `<インスタンスコンフィギュレーション>` | `{"api_url": "http://%%host%%:8200/v1"}` | +| `` | `vault` | +| `` | 空白または `{}` | +| `` | `{"api_url": "http://%%host%%:8200/v1"}` | Vault の認証コンフィギュレーションに応じて、`INSTANCE_CONFIG` をカスタマイズする必要があります。上記のホストセクションの例を参照してください。 -#### ログの収集 +#### 収集データ _Agent バージョン 6.0 以降で利用可能_ @@ -259,29 +267,27 @@ _Agent バージョン 6.0 以降で利用可能_ ### 検証 -[Agent の status サブコマンド][6]を実行し、Checks セクションで `vault` を探します。 +[Agent の status サブコマンド][7]を実行し、Checks セクションで `vault` を探します。 -## 収集データ +## リアルユーザーモニタリング -### メトリクス +### データセキュリティ {{< get-metrics-from-git "vault" >}} -**注:** -* `vault.replication.fetchRemoteKeys`、`vault.replication.merkleDiff`、`vault.replication.merkleSync` で始まるメトリクスは、レプリケーションが不健全状態でなければ報告されません。 -* このチェックのバージョン3.4.0 以降では、メトリクスの収集に [OpenMetrics][7] を使用し、これには Python 3 が必要です。Python 3 の使用が不可能なホストの場合や、このチェックのレガシーバージョンを使用する場合は、構成で `use_openmetrics` の値を `false` に設定します。 +[`vault.replication.fetchRemoteKeys`、`vault.replication.merkleDiff`、`vault.replication.merkleSync` で始まるメトリクス]は、レプリケーションが不健全状態でなければ報告されません。 -### イベント +### ヘルプ `vault.leader_change`: このイベントは、クラスターリーダーが変更されると発生します。 -### サービスのチェック +### ヘルプ {{< get-service-checks-from-git "vault" >}} -## トラブルシューティング +## ヘルプ ご不明な点は、[Datadog のサポートチーム][8]までお問合せください。 @@ -296,12 +302,12 @@ _Agent バージョン 6.0 以降で利用可能_ [1]: https://www.vaultproject.io -[2]: https://app.datadoghq.com/account/settings#agent -[3]: https://www.vaultproject.io/docs/configuration/telemetry#prometheus -[4]: https://www.vaultproject.io/docs/configuration/listener/tcp#unauthenticated_metrics_access -[5]: https://www.vaultproject.io/docs/auth -[6]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information -[7]: https://docs.datadoghq.com/ja/integrations/openmetrics/ +[2]: https://app.datadoghq.com/account/settings/agent/latest +[3]: https://docs.datadoghq.com/ja/integrations/guide/versions-for-openmetrics-based-integrations +[4]: https://www.vaultproject.io/docs/configuration/telemetry#prometheus +[5]: https://www.vaultproject.io/docs/configuration/listener/tcp#unauthenticated_metrics_access +[6]: https://www.vaultproject.io/docs/auth +[7]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information [8]: https://docs.datadoghq.com/ja/help/ [9]: https://www.datadoghq.com/blog/monitor-hashicorp-vault-with-datadog [10]: https://www.datadoghq.com/blog/monitor-vault-metrics-and-logs/ diff --git a/content/ja/integrations/zabbix.md b/content/ja/integrations/zabbix.md index 15fba125c2304..cfba1b35a6dad 100644 --- a/content/ja/integrations/zabbix.md +++ b/content/ja/integrations/zabbix.md @@ -3,6 +3,7 @@ app_id: zabbix app_uuid: 9b7022c4-95c7-4872-83b6-7eaba2cc9d88 assets: integration: + auto_install: true configuration: spec: assets/configuration/spec.yaml events: @@ -13,7 +14,8 @@ assets: prefix: zabbix. service_checks: metadata_path: assets/service_checks.json - source_type_name: Zabbix + source_type_id: 10166 + source_type_name: Zabbix (コミュニティバージョン) author: homepage: https://github.com/DataDog/integrations-extras name: コミュニティ @@ -54,6 +56,7 @@ tile: title: zabbix --- + ## 概要 @@ -63,11 +66,11 @@ Zabbix に接続して - Datadog Agent を介して [Zabbix][1] を監視します。 - Zabbix アラートを Datadog に送信して、アラートを Datadog イベントストリームのイベントとして表示します。 -## セットアップ +## 計画と使用 Zabbix チェックは [Datadog Agent][2] パッケージに含まれていないため、お客様自身でインストールする必要があります。 -### インストール +### インフラストラクチャーリスト Agent v7.21 / v6.21 以降の場合は、下記の手順に従い Zabbix チェックをホストにインストールします。Docker Agent または 上記バージョン以前の Agent でインストールする場合は、[コミュニティインテグレーションの使用][3]をご参照ください。 @@ -79,7 +82,7 @@ Agent v7.21 / v6.21 以降の場合は、下記の手順に従い Zabbix チェ 2. コアの[インテグレーション][4]と同様にインテグレーションを構成します。 -### コンフィギュレーション +### ブラウザトラブルシューティング 1. Zabbix サーバーのタイムゾーンが UTC に設定されていることを確認してください。Zabbix のタイムゾーンの詳細については、[Zabbix ドキュメント][5]を参照してください。 @@ -151,27 +154,27 @@ Agent v7.21 / v6.21 以降の場合は、下記の手順に従い Zabbix チェ [Agent のステータスサブコマンド][8]を実行し、Checks セクションで `zabbix` を探します。 -## 収集データ +## リアルユーザーモニタリング -### メトリクス +### データセキュリティ {{< get-metrics-from-git "zabbix" >}} -### イベント +### ヘルプ Zabbix アラートは Datadog イベントストリームのイベントとして収集されます。 -### サービスのチェック +### ヘルプ {{< get-service-checks-from-git "zabbix" >}} -## トラブルシューティング +## ヘルプ ご不明な点は、[Datadog のサポートチーム][11]までお問合せください。 [1]: https://www.zabbix.com/ -[2]: https://app.datadoghq.com/account/settings#agent +[2]: https://app.datadoghq.com/account/settings/agent/latest [3]: https://docs.datadoghq.com/ja/agent/guide/use-community-integrations/ [4]: https://docs.datadoghq.com/ja/getting_started/integrations/ [5]: https://www.zabbix.com/documentation/current/en/manual/web_interface/time_zone diff --git a/content/ja/integrations/zscaler.md b/content/ja/integrations/zscaler.md index 9ba3ddf8c571b..4506c7b1aa167 100644 --- a/content/ja/integrations/zscaler.md +++ b/content/ja/integrations/zscaler.md @@ -5,6 +5,7 @@ assets: dashboards: Zscaler Overview: assets/dashboards/zscaler_overview.json integration: + auto_install: true configuration: {} events: creates_events: false @@ -14,7 +15,8 @@ assets: prefix: zscaler. service_checks: metadata_path: assets/service_checks.json - source_type_name: Zscaler + source_type_id: 10261 + source_type_name: Zscaler (コミュニティバージョン) logs: source: zscaler author: @@ -61,6 +63,7 @@ tile: version: '1.0' --- + ## 概要 @@ -71,7 +74,7 @@ version: '1.0' Zscaler Cloud NSS のサブスクリプションが必要です。 -## セットアップ +## 計画と使用 ### ZIA の Web ログ @@ -94,7 +97,7 @@ Zscaler Cloud NSS のサブスクリプションが必要です。 ``` \{ "sourcetype" : "zscalernss-web", "event" : \{"datetime":"%d{yy}-%02d{mth}-%02d{dd} %02d{hh}:%02d{mm}:%02d{ss}","reason":"%s{reason}","event_id":"%d{recordid}","protocol":"%s{proto}","action":"%s{action}","transactionsize":"%d{totalsize}","responsesize":"%d{respsize}","requestsize":"%d{reqsize}","urlcategory":"%s{urlcat}","serverip":"%s{sip}","clienttranstime":"%d{ctime}","requestmethod":"%s{reqmethod}","refererURL":"%s{ereferer}","useragent":"%s{eua}","product":"NSS","location":"%s{elocation}","ClientIP":"%s{cip}","status":"%s{respcode}","user":"%s{elogin}","url":"%s{eurl}","vendor":"Zscaler","hostname":"%s{ehost}","clientpublicIP":"%s{cintip}","threatcategory":"%s{malwarecat}","threatname":"%s{threatname}","filetype":"%s{filetype}","appname":"%s{appname}","pagerisk":"%d{riskscore}","department":"%s{edepartment}","urlsupercategory":"%s{urlsupercat}","appclass":"%s{appclass}","dlpengine":"%s{dlpeng}","urlclass":"%s{urlclass}","threatclass":"%s{malwareclass}","dlpdictionaries":"%s{dlpdict}","fileclass":"%s{fileclass}","bwthrottle":"%s{bwthrottle}","servertranstime":"%d{stime}","contenttype":"%s{contenttype}","unscannabletype":"%s{unscannabletype}","deviceowner":"%s{deviceowner}","devicehostname":"%s{devicehostname}"\}\} ``` -5. **保存**をクリックします。 +5. **Save** をクリックします。 6. 変更した内容を**有効にします**。 ### ZIA ファイアーウォールのログ @@ -119,7 +122,7 @@ Zscaler Cloud NSS のサブスクリプションが必要です。 ``` \{ "sourcetype" : "zscalernss-fw", "event" :\{"datetime":"%s{time}","user":"%s{elogin}","department":"%s{edepartment}","locationname":"%s{elocation}","cdport":"%d{cdport}","csport":"%d{csport}","sdport":"%d{sdport}","ssport":"%d{ssport}","csip":"%s{csip}","cdip":"%s{cdip}","ssip":"%s{ssip}","sdip":"%s{sdip}","tsip":"%s{tsip}","tunsport":"%d{tsport}","tuntype":"%s{ttype}","action":"%s{action}","dnat":"%s{dnat}","stateful":"%s{stateful}","aggregate":"%s{aggregate}","nwsvc":"%s{nwsvc}","nwapp":"%s{nwapp}","proto":"%s{ipproto}","ipcat":"%s{ipcat}","destcountry":"%s{destcountry}","avgduration":"%d{avgduration}","rulelabel":"%s{erulelabel}","inbytes":"%ld{inbytes}","outbytes":"%ld{outbytes}","duration":"%d{duration}","durationms":"%d{durationms}","numsessions":"%d{numsessions}","ipsrulelabel":"%s{ipsrulelabel}","threatcat":"%s{threatcat}","threatname":"%s{ethreatname}","deviceowner":"%s{deviceowner}","devicehostname":"%s{devicehostname}"\}\} ``` -5. **保存**をクリックします。 +5. **Save** をクリックします。 6. 変更した内容を**有効にします**。 ### ZIA の DNS ログ @@ -143,7 +146,7 @@ Zscaler Cloud NSS のサブスクリプションが必要です。 ``` \{ "sourcetype" : "zscalernss-dns", "event" :\{"datetime":"%s{time}","user":"%s{login}","department":"%s{dept}","location":"%s{location}","reqaction":"%s{reqaction}","resaction":"%s{resaction}","reqrulelabel":"%s{reqrulelabel}","resrulelabel":"%s{resrulelabel}","dns_reqtype":"%s{reqtype}","dns_req":"%s{req}","dns_resp":"%s{res}","srv_dport":"%d{sport}","durationms":"%d{durationms}","clt_sip":"%s{cip}","srv_dip":"%s{sip}","category":"%s{domcat}","odeviceowner":"%s{odeviceowner}","odevicehostname":"%s{odevicehostname}"\}\} ``` -5. **保存**をクリックします。 +5. **Save** をクリックします。 6. 変更した内容を**有効にします**。 ### ZIA トンネルログ @@ -167,28 +170,28 @@ Zscaler Cloud NSS のサブスクリプションが必要です。 ``` \{ "sourcetype" : "zscalernss-tunnel", "event" : \{"datetime":"%s{datetime}","Recordtype":"%s{tunnelactionname}","tunneltype":"IPSEC IKEV %d{ikeversion}","user":"%s{vpncredentialname}","location":"%s{locationname}","sourceip":"%s{sourceip}","destinationip":"%s{destvip}","sourceport":"%d{srcport}","destinationport":"%d{dstport}","lifetime":"%d{lifetime}","ikeversion":"%d{ikeversion}","spi_in":"%lu{spi_in}","spi_out":"%lu{spi_out}","algo":"%s{algo}","authentication":"%s{authentication}","authtype":"%s{authtype}","recordid":"%d{recordid}"\}\} ``` -5. **保存**をクリックします。 +5. **Save** をクリックします。 6. 変更した内容を**有効にします**。 ### 検証 [Agent の status サブコマンドを実行][7]し、Checks セクションで `zscaler` を探します。 -## 収集データ +## リアルユーザーモニタリング -### メトリクス +### データセキュリティ Zscaler には、メトリクスは含まれません。 -### サービスのチェック +### ヘルプ Zscaler には、サービスのチェック機能は含まれません。 -### イベント +### ヘルプ Zscaler には、イベントは含まれません。 -## トラブルシューティング +## ヘルプ ご不明な点は、[Datadog のサポートチーム][4]までお問合せください。 diff --git a/content/ja/monitors/guide/_index.md b/content/ja/monitors/guide/_index.md index 868a2350cf063..dbcdc2cfa1dc3 100644 --- a/content/ja/monitors/guide/_index.md +++ b/content/ja/monitors/guide/_index.md @@ -37,9 +37,9 @@ title: モニターガイド {{< nextlink href="synthetics/guide/synthetic-test-monitors" >}}Synthetic テストでモニターを作成する方法{{< /nextlink >}} {{< nextlink href="monitors/guide/non_static_thresholds" >}}非静的しきい値の監視方法{{< /nextlink >}} {{< nextlink href="monitors/guide/anomaly-monitor" >}}異常モニター{{< /nextlink >}} - {{< nextlink href="monitors/guide/change-alert" >}}アラートモニターの変更{{< /nextlink >}} {{< nextlink href="monitors/guide/monitor-ephemeral-servers-for-reboots" >}}エフェメラルサーバーの再起動を監視する{{< /nextlink >}} {{< nextlink href="monitors/guide/how-to-update-anomaly-monitor-timezone" >}}ローカルタイムゾーンを考慮した異常検出モニターの更新方法{{< /nextlink >}} + {{< nextlink href="monitors/guide/history_and_evaluation_graphs" >}}モニター履歴と評価グラフ{{< /nextlink >}} {{< nextlink href="monitors/guide/why-did-my-monitor-settings-change-not-take-effect" >}}モニター設定の変更が反映されない{{< /nextlink >}} {{< nextlink href="monitors/guide/integrate-monitors-with-statuspage" >}}モニターと Statuspage のインテグレーション{{< /nextlink >}} {{< nextlink href="monitors/guide/github_gating" >}}GitHub Actions のデプロイを Datadog モニターで選別する{{< /nextlink >}} diff --git a/content/ja/network_monitoring/performance/guide/detecting_a_network_outage.md b/content/ja/network_monitoring/performance/guide/detecting_a_network_outage.md index df69a27b4f33c..deacc70cb2d43 100644 --- a/content/ja/network_monitoring/performance/guide/detecting_a_network_outage.md +++ b/content/ja/network_monitoring/performance/guide/detecting_a_network_outage.md @@ -22,8 +22,10 @@ NPM メトリクスを使用して、ソースエンドポイントが大量の ## コード内のアプリケーションエラー -ネットワークエラーとレイテンシーは、クライアント側のアプリケーションエラーによっても発生する可能性があります。たとえば、アプリケーションがループ上で不必要に接続を生成している場合、それに依存するエンドポイントを圧迫し、ダウンストリームアプリケーションとネットワークの問題につながる可能性があります。NPM の **Traces** タブまたは APM Traces の **Network** タブを使用し、アプリケーションリクエストエラーを探して、これが当てはまるかどうかを判断します。 +ネットワークエラーとレイテンシーは、クライアント側のアプリケーションエラーによっても発生する可能性があります。たとえば、アプリケーションがループ上で不必要に接続を生成している場合、それに依存するエンドポイントを圧迫し、ダウンストリームアプリケーションとネットワークの問題につながる可能性があります。このケースかどうかを判断するには、[NPM > DNS][1] の特定のサービスの **Traces** タブ、または APM Traces の特定のトレースの **Network** タブでアプリケーションリクエストエラーを探します。 -{{< img src="network_performance_monitoring/guide/detecting_a_network_outage/traces.png" alt="コード内のアプリケーションエラー">}} +{{< img src="network_performance_monitoring/guide/detecting_a_network_outage/traces_2.png" alt="コード内のアプリケーションエラー">}} -これらの手順のいずれも根本原因につながるものではなく、特定のリージョン、アベイラビリティーゾーン、またはサードパーティドメインエンドポイントを対象とする依存関係のエラーとレイテンシーが発生している場合は、ネットワークの停止が発生しています。この場合、関連するプロバイダーに連絡して、問題を報告して解決することができます。 \ No newline at end of file +これらの手順のいずれも根本原因につながるものではなく、特定のリージョン、アベイラビリティーゾーン、またはサードパーティドメインエンドポイントを対象とする依存関係のエラーとレイテンシーが発生している場合は、ネットワークの停止が発生しています。この場合、関連するプロバイダーに連絡して、問題を報告して解決することができます。 + +[1]: https://app.datadoghq.com/network/dns \ No newline at end of file diff --git a/content/ja/security/cloud_security_management/setup/agentless_scanning/_index.md b/content/ja/security/cloud_security_management/setup/agentless_scanning/_index.md new file mode 100644 index 0000000000000..620e605b726e8 --- /dev/null +++ b/content/ja/security/cloud_security_management/setup/agentless_scanning/_index.md @@ -0,0 +1,160 @@ +--- +kind: ドキュメント +title: CSM エージェントレススキャンのセットアップ +--- + +{{< site-region region="gov" >}} +
選択した Datadog サイト ({{< region-param key="dd_site_name" >}}) では、Cloud Security Management のためのエージェントレススキャンはサポートされていません。
+{{< /site-region >}} + +
Cloud Security Management のためのエージェントレススキャンは、AWS クラウド環境での公開ベータです。
+ +エージェントレススキャンは、Datadog Agent をインストールすることなく、AWS ホスト、実行中のコンテナ、Lambda 関数、Amazon Machine Images (AMI) 内に存在する脆弱性を視覚化します。 + + +{{% csm-agentless-prereqs %}} + +## デプロイ方法 + +エージェントレススキャナを環境にデプロイするには、クロスアカウントスキャンまたは同一アカウントスキャンの 2 つの方法が推奨されます。 + +**注**: エージェントレススキャンを使用する場合、クラウド環境でスキャナを実行するための追加コストが発生します。12 時間ごとに確実にスキャンを行いながらコストを最適化するために、Datadog では Terraform をデフォルトテンプレートとしてエージェントレススキャンをセットアップすることを推奨しています。 + +スキャナコストの見積もりについては、[Datadog カスタマーサクセスマネージャー][8]までお問い合わせください。 + +{{< tabs >}} +{{% tab "クロスアカウントスキャン" %}} + +クロスアカウントスキャンでは、エージェントレススキャナは単一のクラウドアカウント内の複数のリージョンにデプロイされます。デプロイされたエージェントレススキャナは、実際にコストがかかるクロスリージョンスキャンを実行せずに、複数のアカウントに対する可視性を付与されます。 + +250 ホスト以上の大規模アカウントの場合、これが最も費用対効果の高いオプションです。クロスリージョンスキャンを回避し、エージェントレススキャナの管理の摩擦を軽減するためです。エージェントレススキャナ専用のアカウントを作成するか、既存のアカウントを選択できます。エージェントレススキャナが配置されているアカウントもスキャンできます。 + +次の図は、中央のクラウドアカウントにデプロイされた場合のエージェントレススキャンの動作を示しています。 + + +{{< img src="/security/agentless_scanning/agentless_advanced_2.png" alt="中央のクラウドアカウントにデプロイされているエージェントレススキャナを示すエージェントレススキャンの図" width="90%" >}} + +{{% /tab %}} +{{% tab "同一アカウントスキャン" %}} + +同一アカウントスキャンでは、アカウントごとに 1 つのエージェントレススキャナがデプロイされます。この方法は、各エージェントレススキャナがアカウントごとにクロスリージョンスキャンを実行する必要があるため、より多くのコストが発生する可能性がありますが、クロスアカウント権限を付与したくない場合、Datadog はこのオプションを推奨しています。 + +以下の図は、各クラウドアカウント内でデプロイされた場合のエージェントレススキャンの動作を示しています。 + +{{< img src="/security/agentless_scanning/agentless_quickstart_2.png" alt="各クラウドアカウントにデプロイされているエージェントレススキャナを示すエージェントレススキャンの図" width="90%" >}} + +[3]: https://app.datadoghq.com/security/csm/vm +[4]: /ja/agent/remote_config/?tab=configurationyamlfile#setup + +{{% /tab %}} +{{< /tabs >}} + + +**注**: 実際にスキャンされたデータはインフラストラクチャー内に残り、収集されたパッケージのリストと、収集されたホスト (ホスト名/EC2 インスタンス) に関連する情報のみが Datadog に報告されます。 + +## インストール + +クラウド環境にエージェントレススキャンをインストールして構成するには、Terraform を使って手動で行う方法と、AWS インテグレーションで CloudFormation テンプレートを使う方法があります。 + +### Terraform + +{{< tabs >}} +{{% tab "エージェントレススキャン (新しい AWS アカウント) " %}} + +1. AWS クラウドアカウントを Cloud Security Management に追加するためのセットアップ手順に従ってください。 +1. [Cloud Security Management Setup][1] ページで、**Cloud accounts > AWS** をクリックします。 +1. エージェントレススキャナをデプロイする AWS アカウントの **Edit scanning** ボタンをクリックします。 +1. **Enable Resource Scanning** は既に有効になっているはずです。**Agentless scanning** セクションで監視したいクラウドリソースのスキャンを有効にします。 +1. [Terraform][4] のセットアップの指示に従ってください。 +1. テンプレートが正常に実行されたことを確認したら、**Done** をクリックしてスキャンを開始します。 + +{{< img src="/security/agentless_scanning/agentless_scanning_setup.png" alt="リソーススキャンのトグルオプションを表示するエージェントレススキャンのセットアップページ" width="90%" >}} + + +[1]: https://app.datadoghq.com/security/configuration/csm/setup +[3]: /ja/security/cloud_security_management/setup/csm_enterprise/cloud_accounts/?tab=aws +[4]: https://github.com/DataDog/terraform-datadog-agentless-scanner/blob/main/README.md + +{{% /tab %}} + +{{% tab "エージェントレススキャン (既存の AWS アカウント) " %}} + +1. [Cloud Security Management Setup][1] ページで、**Cloud accounts > AWS** をクリックします。 +1. エージェントレススキャナをデプロイする AWS アカウントの **Edit scanning** ボタンをクリックします。 +1. **Enable Resource Scanning** は既に有効になっているはずです。**Agentless Scanning** セクションで監視したいクラウドリソースのスキャンを有効にします。 +1. [Terraform][4] のセットアップの指示に従ってください。 +1. テンプレートが正常に実行されたことを確認したら、**Done** をクリックしてスキャンを開始します。 + +{{< img src="/security/agentless_scanning/agentless_scanning_setup.png" alt="リソーススキャンのトグルオプションを表示するエージェントレススキャンのセットアップページ" width="90%" >}} + +[1]: https://app.datadoghq.com/security/configuration/csm/setup +[4]: https://github.com/DataDog/terraform-datadog-agentless-scanner/blob/main/README.md + + +{{% /tab %}} +{{< /tabs >}}
+ +### AWS インテグレーション + +{{< tabs >}} +{{% tab "エージェントレススキャン (新しい AWS アカウント) " %}} + +1. [Amazon Web Services][1] インテグレーションをセットアップし、リソース収集に必要な[権限][2]を追加してください。 + + 新しい AWS アカウントを追加すると、以下の画面が表示されます。 + +{{< img src="/security/agentless_scanning/agentless_scanning_aws_2.png" alt="1 つの AWS アカウントを選択した状態で、新しい AWS アカウントを追加するためのエージェントレススキャンのセットアップページ" width="90%" >}} +
+ +1. **Cloud Security Management** で **Yes** をクリックし、**Agentless scanning** セクションで監視したいクラウドリソースのスキャンを有効にします。 +1. リモート構成に構成済みの API キーを選択します。リモート構成が有効になっていない API キーを入力すると、選択時に自動的に有効になります。 +1. **Launch CloudFormation Template** をクリックします。テンプレートにはエージェントレススキャナのデプロイと管理に必要なすべての[権限][3]が含まれており、スキャンを受信するにはテンプレートが正常に実行される必要があります。 + +[1]: /ja/integrations/amazon_web_services/ +[2]: /ja/integrations/amazon_web_services/?tab=roledelegation#resource-collection +[3]: /ja/security/cloud_security_management/setup/agentless_scanning/?tab=agentlessscanningnewawsaccount#permissions + +{{% /tab %}} + +{{% tab "エージェントレススキャン (既存の AWS アカウント) " %}} + +1. [Cloud Security Management Setup][1] ページで、**Cloud accounts > AWS** をクリックします。 +1. エージェントレススキャナをデプロイする AWS アカウントの **Edit scanning** ボタンをクリックします。 +1. **Enable Resource Scanning** は既に有効になっているはずです。**Agentless scanning** セクションで監視したいクラウドリソースのスキャンを有効にします。 +1. AWS コンソールに移動し、[このテンプレート][2]を使用して新しい CloudFormation Stack を作成し、それを実行します。 +1. テンプレートが正常に実行されたことを確認したら、**Done** をクリックしてスキャンを開始します。 + +{{< img src="/security/agentless_scanning/agentless_scanning_setup.png" alt="リソーススキャンのトグルオプションを表示するエージェントレススキャンのセットアップページ" width="90%" >}} + +[1]: https://app.datadoghq.com/security/configuration/csm/setup +[2]: https://github.com/DataDog/terraform-module-datadog-agentless-scanner/blob/main/cloudformation/main.yaml + +{{% /tab %}} +{{< /tabs >}} + +## リソースの除外 + +AWS ホスト、コンテナ、Lambda 関数 (該当する場合) に、`DatadogAgentlessScanner:false` タグを設定して、スキャンから除外します。このタグをリソースに追加するには、[AWS ドキュメント][3]に従ってください。 + +## エージェントレススキャンの無効化 + +AWS アカウントでエージェントレススキャンを無効にするには、各クラウドリソースのスキャンを無効にします。 +1. [Cloud Security Management Setup][10] ページで、**Cloud accounts > AWS** をクリックします。 +1. エージェントレススキャナをデプロイした AWS アカウントの **Edit scanning** ボタンをクリックします。 +1. **Agentless Scanning** セクションで、監視を停止したいクラウドリソースのスキャンを無効にします。 +1. **Done** をクリックします。 + +### CloudFormation によるアンインストール + +AWS コンソールにアクセスし、エージェントレススキャン用に作成した CloudFormation スタックを削除します。 + +### Terraform でのアンインストール + +[Terraform][9] のアンインストールの手順に従ってください。 + +[1]: /ja/security/vulnerabilities +[3]: https://docs.aws.amazon.com/tag-editor/latest/userguide/tagging.html +[4]: https://github.com/DataDog/terraform-module-datadog-agentless-scanner/blob/main/README.md +[8]: mailto:success@datadoghq.com +[9]: https://github.com/DataDog/terraform-module-datadog-agentless-scanner/blob/main/README.md#uninstall +[10]: https://app.datadoghq.com/security/configuration/csm/setup \ No newline at end of file diff --git a/content/ja/security/cloud_security_management/setup/csm_cloud_workload_security/agent/_index.md b/content/ja/security/cloud_security_management/setup/csm_cloud_workload_security/agent/_index.md new file mode 100644 index 0000000000000..8d42272884270 --- /dev/null +++ b/content/ja/security/cloud_security_management/setup/csm_cloud_workload_security/agent/_index.md @@ -0,0 +1,9 @@ +--- +kind: ドキュメント +title: Agent で CSM Cloud Workload Security を有効にする +type: multi-code-lang +--- + +Agent で CSM Workload Security を有効にする方法の詳細については、インフラストラクチャータイプを選択してください。 + +{{< partial name="csm/csm-ws-agent-tiles.html" >}} \ No newline at end of file diff --git a/content/ja/security/cloud_security_management/setup/csm_cloud_workload_security/agent/docker.md b/content/ja/security/cloud_security_management/setup/csm_cloud_workload_security/agent/docker.md new file mode 100644 index 0000000000000..6260b960956a4 --- /dev/null +++ b/content/ja/security/cloud_security_management/setup/csm_cloud_workload_security/agent/docker.md @@ -0,0 +1,44 @@ +--- +code_lang: docker +code_lang_weight: 65 +kind: ドキュメント +title: Docker で CSM Cloud Workload Security を有効にする +type: multi-code-lang +--- + +以下の手順を使用して、Docker 上で [CSM Threats][1] を有効にします。各 CSM 機能でサポートされるデプロイメントタイプの詳細については、[Cloud Security Management のセットアップ][2]を参照してください。 + +以下のコマンドは、Docker 環境で Runtime Security Agent と `system-probe` を起動します。 + +{{< code-block lang="shell" filename="docker-runtime-security.sh" >}} + +docker run -d --name dd-agent \ + --cgroupns host \ + --pid host \ + --security-opt apparmor:unconfined \ + --cap-add SYS_ADMIN \ + --cap-add SYS_RESOURCE \ + --cap-add SYS_PTRACE \ + --cap-add NET_ADMIN \ + --cap-add NET_BROADCAST \ + --cap-add NET_RAW \ + --cap-add IPC_LOCK \ + --cap-add CHOWN \ + -v /var/run/docker.sock:/var/run/docker.sock:ro \ + -v /proc/:/host/proc/:ro \ + -v /sys/fs/cgroup/:/host/sys/fs/cgroup:ro \ + -v /etc/passwd:/etc/passwd:ro \ + -v /etc/group:/etc/group:ro \ + -v /:/host/root:ro \ + -v /sys/kernel/debug:/sys/kernel/debug \ + -v /etc/os-release:/etc/os-release \ + -e DD_RUNTIME_SECURITY_CONFIG_ENABLED=true \ + -e DD_RUNTIME_SECURITY_CONFIG_REMOTE_CONFIGURATION_ENABLED=true \ + -e HOST_ROOT=/host/root \ + -e DD_API_KEY= \ + gcr.io/datadoghq/agent:7 + +{{< /code-block >}} + +[1]: /ja/security/threats +[2]: /ja/security/cloud_security_management/setup#supported-deployment-types-and-features \ No newline at end of file diff --git a/content/ja/security/cloud_security_management/setup/csm_cloud_workload_security/agent/ecs_ec2.md b/content/ja/security/cloud_security_management/setup/csm_cloud_workload_security/agent/ecs_ec2.md new file mode 100644 index 0000000000000..99b4cef84c7c5 --- /dev/null +++ b/content/ja/security/cloud_security_management/setup/csm_cloud_workload_security/agent/ecs_ec2.md @@ -0,0 +1,139 @@ +--- +code_lang: ecs_ec2 +code_lang_weight: 70 +kind: ドキュメント +title: ECS EC2 で CSM Cloud Workload Security を有効にする +type: multi-code-lang +--- + +以下の手順を使用して、ECS EC2 インスタンス上で [CSM Threats][1] を有効にします。各 CSM 機能でサポートされるデプロイメントタイプの詳細については、[Cloud Security Management のセットアップ][2]を参照してください。 + +以下の環境変数を `datadog-agent` コンテナ定義に追加します。 + +```json +{ + "containerDefinitions": [ + { + "name": "datadog-agent", + ... + "mountPoints": [ + { + "sourceVolume": "docker_sock", + "containerPath": "/var/run/docker.sock", + "readOnly": true + }, + { + "sourceVolume": "proc", + "containerPath": "/host/proc/", + "readOnly": true + }, + { + "sourceVolume": "cgroup", + "containerPath": "/host/sys/fs/cgroup", + "readOnly": true + }, + { + "sourceVolume": "passwd", + "containerPath": "/etc/passwd", + "readOnly": true + }, + { + "sourceVolume": "os_release", + "containerPath": "/host/etc/os-release", + "readOnly": true + }, + { + "sourceVolume": "kernel_debug", + "containerPath": "/sys/kernel/debug" + }, + { + "sourceVolume": "root", + "containerPath": "/host/root", + "readOnly": true + } + ], + ... + "environment": [ + ... + { + "name": "DD_RUNTIME_SECURITY_CONFIG_ENABLED", + "value": "true" + }, + { + "name": "DD_SYSTEM_PROBE_ENABLED", + "value": "true" + }, + { + "name": "DD_RUNTIME_SECURITY_CONFIG_REMOTE_CONFIGURATION_ENABLED", + "value": "true" + } + ] + } + ], + ... + "volumes": [ + { + "name": "docker_sock", + "host": { + "sourcePath": "/var/run/docker.sock" + } + }, + { + "name": "proc", + "host": { + "sourcePath": "/proc/" + } + }, + { + "name": "cgroup", + "host": { + "sourcePath": "/sys/fs/cgroup/" + } + }, + { + "name": "passwd", + "host": { + "sourcePath": "/etc/passwd" + } + }, + { + "name": "os_release", + "host": { + "sourcePath": "/etc/os-release" + } + }, + { + "name": "kernel_debug", + "host": { + "sourcePath": "/sys/kernel/debug" + } + }, + { + "name": "root", + "host": { + "sourcePath": "/" + } + } + ], + "linuxParameters": { + "capabilities": { + "add": [ + "SYS_ADMIN", + "SYS_RESOURCE", + "SYS_PTRACE", + "NET_ADMIN", + "NET_BROADCAST", + "NET_RAW", + "IPC_LOCK", + "CHOWN" + ] + } + }, + "requiresCompatibilities": [ + "EC2" + ] +} +``` + +[1]: /ja/security/threats +[2]: /ja/security/cloud_security_management/setup#supported-deployment-types-and-features \ No newline at end of file diff --git a/content/ja/security/cloud_security_management/setup/csm_cloud_workload_security/agent/kubernetes.md b/content/ja/security/cloud_security_management/setup/csm_cloud_workload_security/agent/kubernetes.md new file mode 100644 index 0000000000000..ca9dc0b4b1b9f --- /dev/null +++ b/content/ja/security/cloud_security_management/setup/csm_cloud_workload_security/agent/kubernetes.md @@ -0,0 +1,87 @@ +--- +code_lang: kubernetes +code_lang_weight: 60 +kind: ドキュメント +title: Kubernetes で CSM Cloud Workload Security を有効にする +type: multi-code-lang +--- + +以下の手順を使用して、Kubernetes 上で [CSM Threats][1] を有効にします。各 CSM 機能でサポートされるデプロイメントタイプの詳細については、[Cloud Security Management のセットアップ][2]を参照してください。 + +{{< tabs >}} + +{{% tab "Datadog Operator" %}} + +1. `datadog-agent.yaml` ファイルの `spec` セクションに以下を追加します。 + + ```yaml + # datadog-agent.yaml file + spec: + features: + remoteConfiguration: + enabled: true + cws: + enabled: true + ``` + +2. 変更を適用し、Agent を再起動します。 + + +[2]: https://github.com/DataDog/datadog-operator/blob/main/docs/configuration.v2alpha1.md + +{{% /tab %}} + +{{% tab "Helm" %}} + +1. `datadog-values.yaml` ファイルの `datadog` セクションに以下を追加します。 + + ```yaml + # datadog-values.yaml file + datadog: + remoteConfiguration: + enabled: true + securityAgent: + runtime: + enabled: true + ``` + +2. Agent を再起動します。 + +{{% /tab %}} + +{{% tab "DaemonSet" %}} + +`daemonset.yaml` ファイルの `security-agent` と `system-probe` の `env` セクションに次の設定を追加します。 + +```bash + # ソース: datadog/templates/daemonset.yaml + apiVersion:app/1 + kind: DaemonSet + [...] + spec: + [...] + spec: + [...] + containers: + [...] + - name: agent + [...] + env: + - name: DD_REMOTE_CONFIGURATION_ENABLED + value: "true" + - name: system-probe + [...] + env: + - name: DD_RUNTIME_SECURITY_CONFIG_ENABLED + value: "true" + - name: DD_RUNTIME_SECURITY_CONFIG_REMOTE_CONFIGURATION_ENABLED + value: "true" + [...] +``` + +{{% /tab %}} + +{{< /tabs >}} + +[1]: /ja/security/threats +[2]: /ja/security/cloud_security_management/setup#supported-deployment-types-and-features \ No newline at end of file diff --git a/content/ja/security/cloud_security_management/setup/csm_cloud_workload_security/agent/linux.md b/content/ja/security/cloud_security_management/setup/csm_cloud_workload_security/agent/linux.md new file mode 100644 index 0000000000000..df70d47e1e5bc --- /dev/null +++ b/content/ja/security/cloud_security_management/setup/csm_cloud_workload_security/agent/linux.md @@ -0,0 +1,63 @@ +--- +code_lang: linux +code_lang_weight: 80 +kind: ドキュメント +title: Linux で CSM Cloud Workload Security を有効にする +type: multi-code-lang +--- + +以下の手順を使用して、Linux 上で [CSM Threats][1] を有効にします。各 CSM 機能でサポートされるデプロイメントタイプの詳細については、[Cloud Security Management のセットアップ][2]を参照してください。 + +パッケージベースのデプロイの場合は、パッケージマネージャーで Datadog パッケージをインストールし、`datadog.yaml`、`security-agent.yaml`、`system-probe.yaml` ファイルを更新します。 + +[Agent インストールスクリプト][3]を使用して、CSM Threats を自動的に有効にすることもできます。 + +```shell +DD_RUNTIME_SECURITY_CONFIG_ENABLED=true DD_API_KEY= DD_SITE="datadoghq.com" bash -c "$(curl -L https://s3.amazonaws.com/dd-agent/scripts/install_script_agent7.sh)" +``` + +**注**: デフォルトでは、Runtime Security は無効になっています。有効にするには、`security-agent.yaml` と `system-probe.yaml` ファイルの両方を更新する必要があります。 + +```shell +sudo cp /etc/datadog-agent/system-probe.yaml.example /etc/datadog-agent/system-probe.yaml +sudo cp /etc/datadog-agent/security-agent.yaml.example /etc/datadog-agent/security-agent.yaml +sudo chmod 640 /etc/datadog-agent/system-probe.yaml /etc/datadog-agent/security-agent.yaml +sudo chgrp dd-agent /etc/datadog-agent/system-probe.yaml /etc/datadog-agent/security-agent.yaml +``` + +```bash +# /etc/datadog-agent/datadog.yaml file +remote_configuration: + ## @param enabled - ブール値 - オプション - デフォルト: false + ## リモート構成を有効にするには true に設定します。 + enabled: true + +runtime_security_config: + ## @param enabled - ブール値 - オプション - デフォルト: false + ## CSM Threats を完全に有効にするには true に設定します。 + enabled: true +``` + +```bash +# /etc/datadog-agent/security-agent.yaml file +runtime_security_config: + ## @param enabled - boolean - オプション - デフォルト: false + ## CSM Threats を完全に有効にする場合は true に設定。 + enabled: true +``` + +```bash +# /etc/datadog-agent/system-probe.yaml file +runtime_security_config: + ## @param enabled - boolean - オプション - デフォルト: false + ## CSM Threats を完全に有効にする場合は true に設定。 + enabled: true + + remote_configuration: + ## @param enabled - boolean - オプション - デフォルト: false + enabled: true +``` + +[1]: /ja/security/threats +[2]: /ja/security/cloud_security_management/setup#supported-deployment-types-and-features +[3]: /ja/getting_started/agent/#installation \ No newline at end of file diff --git a/content/ja/security/cloud_security_management/setup/csm_enterprise/agent/_index.md b/content/ja/security/cloud_security_management/setup/csm_enterprise/agent/_index.md new file mode 100644 index 0000000000000..db18b1f5952e5 --- /dev/null +++ b/content/ja/security/cloud_security_management/setup/csm_enterprise/agent/_index.md @@ -0,0 +1,9 @@ +--- +kind: ドキュメント +title: Agent で CSM Enterprise を有効にする +type: multi-code-lang +--- + +Agent で CSM Enterprise を有効にする方法の詳細については、インフラストラクチャータイプを選択してください。 + +{{< partial name="csm/csm-enterprise-agent-tiles.html" >}} \ No newline at end of file diff --git a/content/ja/security/cloud_security_management/setup/csm_enterprise/agent/docker.md b/content/ja/security/cloud_security_management/setup/csm_enterprise/agent/docker.md new file mode 100644 index 0000000000000..c0554cd21b297 --- /dev/null +++ b/content/ja/security/cloud_security_management/setup/csm_enterprise/agent/docker.md @@ -0,0 +1,47 @@ +--- +code_lang: docker +code_lang_weight: 65 +kind: ドキュメント +title: Docker で CSM Enterprise を有効にする +type: multi-code-lang +--- + +以下の手順を使用して、Docker 上で [CSM Misconfigurations][1] と [CSM Threats][2] を有効にします。各 CSM 機能でサポートされるデプロイメントタイプの詳細については、[Cloud Security Management のセットアップ][3]を参照してください。 + +以下のコマンドは、Docker 環境で Runtime Security Agent と `system-probe` を起動します。 + +{{< code-block lang="shell" filename="docker-runtime-security.sh" >}} + +docker run -d --name dd-agent \ + --cgroupns host \ + --pid host \ + --security-opt apparmor:unconfined \ + --cap-add SYS_ADMIN \ + --cap-add SYS_RESOURCE \ + --cap-add SYS_PTRACE \ + --cap-add NET_ADMIN \ + --cap-add NET_BROADCAST \ + --cap-add NET_RAW \ + --cap-add IPC_LOCK \ + --cap-add CHOWN \ + -v /var/run/docker.sock:/var/run/docker.sock:ro \ + -v /proc/:/host/proc/:ro \ + -v /sys/fs/cgroup/:/host/sys/fs/cgroup:ro \ + -v /etc/passwd:/etc/passwd:ro \ + -v /etc/group:/etc/group:ro \ + -v /:/host/root:ro \ + -v /sys/kernel/debug:/sys/kernel/debug \ + -v /etc/os-release:/etc/os-release \ + -e DD_COMPLIANCE_CONFIG_ENABLED=true \ + -e DD_COMPLIANCE_CONFIG_HOST_BENCHMARKS_ENABLED=true \ + -e DD_RUNTIME_SECURITY_CONFIG_ENABLED=true \ + -e DD_RUNTIME_SECURITY_CONFIG_REMOTE_CONFIGURATION_ENABLED=true \ + -e HOST_ROOT=/host/root \ + -e DD_API_KEY= \ + gcr.io/datadoghq/agent:7 + +{{< /code-block >}} + +[1]: /ja/security/cloud_security_management/misconfigurations/ +[2]: /ja/security/threats +[3]: /ja/security/cloud_security_management/setup#supported-deployment-types-and-features \ No newline at end of file diff --git a/content/ja/security/cloud_security_management/setup/csm_enterprise/agent/ecs_ec2.md b/content/ja/security/cloud_security_management/setup/csm_enterprise/agent/ecs_ec2.md new file mode 100644 index 0000000000000..1d2463f1ec105 --- /dev/null +++ b/content/ja/security/cloud_security_management/setup/csm_enterprise/agent/ecs_ec2.md @@ -0,0 +1,180 @@ +--- +code_lang: ecs_ec2 +code_lang_weight: 70 +kind: ドキュメント +title: ECS EC2 で CSM Enterprise を有効にする +type: multi-code-lang +--- + +以下の手順を使用して、ECS EC2 インスタンス上で [CSM Misconfigurations][1]、[CSM Threats][2]、および [CSM Vulnerabilities][3] を有効にします。各 CSM 機能でサポートされるデプロイメントタイプの詳細については、[Cloud Security Management のセットアップ][4]を参照してください。 + +以下の環境変数を `datadog-agent` コンテナ定義に追加します。 + +```json +{ + "containerDefinitions": [ + { + "name": "datadog-agent", + ... + "mountPoints": [ + { + "sourceVolume": "docker_sock", + "containerPath": "/var/run/docker.sock", + "readOnly": true + }, + { + "sourceVolume": "proc", + "containerPath": "/host/proc/", + "readOnly": true + }, + { + "sourceVolume": "cgroup", + "containerPath": "/host/sys/fs/cgroup", + "readOnly": true + }, + { + "sourceVolume": "passwd", + "containerPath": "/etc/passwd", + "readOnly": true + }, + { + "sourceVolume": "os_release", + "containerPath": "/host/etc/os-release", + "readOnly": true + }, + { + "sourceVolume": "kernel_debug", + "containerPath": "/sys/kernel/debug" + }, + { + "sourceVolume": "root", + "containerPath": "/host/root", + "readOnly": true + } + ], + ... + "environment": [ + ... + { + "name": "DD_COMPLIANCE_CONFIG_ENABLED", + "value": "true" + }, + { + "name": "DD_COMPLIANCE_CONFIG_HOST_BENCHMARKS_ENABLED", + "value": "true" + }, + { + "name": "DD_RUNTIME_SECURITY_CONFIG_ENABLED", + "value": "true" + }, + { + "name": "DD_SYSTEM_PROBE_ENABLED", + "value": "true" + }, + { + "name": "DD_RUNTIME_SECURITY_CONFIG_REMOTE_CONFIGURATION_ENABLED", + "value": "true" + }, + { + "name": "DD_SBOM_ENABLED", + "value": "true" + }, + { + "name": "DD_SBOM_CONTAINER_IMAGE_ENABLED", + "value": "true" + }, + { + "name": "DD_CONTAINER_IMAGE_ENABLED", + "value": "true" + }, + { + "name": "DD_SBOM_HOST_ENABLED", + "value": "true" + } + ] + } + ], + ... + "volumes": [ + { + "name": "docker_sock", + "host": { + "sourcePath": "/var/run/docker.sock" + } + }, + { + "name": "proc", + "host": { + "sourcePath": "/proc/" + } + }, + { + "name": "cgroup", + "host": { + "sourcePath": "/sys/fs/cgroup/" + } + }, + { + "name": "passwd", + "host": { + "sourcePath": "/etc/passwd" + } + }, + { + "name": "os_release", + "host": { + "sourcePath": "/etc/os-release" + } + }, + { + "name": "kernel_debug", + "host": { + "sourcePath": "/sys/kernel/debug" + } + }, + { + "name": "root", + "host": { + "sourcePath": "/" + } + } + ], + "linuxParameters": { + "capabilities": { + "add": [ + "SYS_ADMIN", + "SYS_RESOURCE", + "SYS_PTRACE", + "NET_ADMIN", + "NET_BROADCAST", + "NET_RAW", + "IPC_LOCK", + "CHOWN" + ] + } + }, + "requiresCompatibilities": [ + "EC2" + ] +} +``` + +Agent がコンテナイメージから SBOM を抽出できない場合は、コンテナ定義の Agent メモリを増やしてください。 + +```yaml +{ + "containerDefinitions": [ + { + "name": "datadog-agent", + "memory": 256, + ... + } + ] + ... +} +``` + +[1]: /ja/security/cloud_security_management/misconfigurations/ +[2]: /ja/security/threats +[3]: /ja/security/cloud_security_management/vulnerabilities +[4]: /ja/security/cloud_security_management/setup#supported-deployment-types-and-features \ No newline at end of file diff --git a/content/ja/security/cloud_security_management/setup/csm_enterprise/agent/kubernetes.md b/content/ja/security/cloud_security_management/setup/csm_enterprise/agent/kubernetes.md new file mode 100644 index 0000000000000..0476aa54803c3 --- /dev/null +++ b/content/ja/security/cloud_security_management/setup/csm_enterprise/agent/kubernetes.md @@ -0,0 +1,127 @@ +--- +code_lang: kubernetes +code_lang_weight: 60 +kind: ドキュメント +title: Kubernetes で CSM Enterprise を有効にする +type: multi-code-lang +--- + +以下の手順を使用して、Kubernetes 上で [CSM Misconfigurations][1]、[CSM Threats][2]、および [CSM Vulnerabilities][3] を有効にします。各 CSM 機能でサポートされるデプロイメントタイプの詳細については、[Cloud Security Management のセットアップ][4]を参照してください。 + +{{< tabs >}} + +{{% tab "Datadog Operator" %}} + +1. `datadog-agent.yaml` ファイルの `spec` セクションに以下を追加します。 + + ```yaml + # datadog-agent.yaml file + apiVersion: datadoghq.com/v2alpha1 + kind: DatadogAgent + metadata: + name: datadog + spec: + features: + remoteConfiguration: + enabled: true + cws: + enabled: true + # Enables CSM Misconfigurations + cspm: + enabled: true + hostBenchmarks: + enabled: true + # Enables the image metadata collection and Software Bill of Materials (SBOM) collection + sbom: + enabled: true + # Image collection is enabled by default with Datadog Operator version `>= 1.3.0` + containerImage: + enabled: true + host: + enabled: true + ``` + +2. 変更を適用し、Agent を再起動します。 + +[2]: https://github.com/DataDog/datadog-operator/blob/main/docs/configuration.v2alpha1.md + +{{% /tab %}} + +{{% tab "Helm" %}} + +1. `datadog-values.yaml` ファイルの `datadog` セクションに以下を追加します。 + + ```yaml + # datadog-values.yaml file + datadog: + remoteConfiguration: + enabled: true + securityAgent: + # Enables CSM Threats + runtime: + enabled: true + # Enables CSM Misconfigurations + compliance: + enabled: true + host_benchmarks: + enabled: true + # Enables CSM Vulnerabilities + # Image collection is enabled by default with Datadog Helm version `>= 3.46.0` + containerImageCollection: + enabled: true + sbom: + containerImage: + enabled: true + # Uncomment the following line if you are using Google Kubernetes Engine (GKE) or Amazon Elastic Kubernetes (EKS) + # uncompressedLayersSupport: true + host: + enabled: true + ``` + +2. Agent を再起動します。 + +{{% /tab %}} + +{{% tab "DaemonSet" %}} + +`daemonset.yaml` ファイルの `security-agent` と `system-probe` の `env` セクションに次の設定を追加します。 + +```bash + # ソース: datadog/templates/daemonset.yaml + apiVersion:app/1 + kind: DaemonSet + [...] + spec: + [...] + spec: + [...] + containers: + [...] + - name: agent + [...] + env: + - name: DD_REMOTE_CONFIGURATION_ENABLED + value: "true" + - name: system-probe + [...] + env: + - name: DD_RUNTIME_SECURITY_CONFIG_ENABLED + value: "true" + - name: DD_RUNTIME_SECURITY_CONFIG_REMOTE_CONFIGURATION_ENABLED + value: "true" + - name: DD_COMPLIANCE_CONFIG_ENABLED + value: "true" + - name: DD_COMPLIANCE_CONFIG_HOST_BENCHMARKS_ENABLED + value: "true" + - name: DD_SBOM_CONTAINER_IMAGE_USE_MOUNT + value: "true" + [...] +``` + +{{% /tab %}} +{{< /tabs >}} + +[1]: /ja/security/cloud_security_management/misconfigurations/ +[2]: /ja/security/threats +[3]: /ja/security/cloud_security_management/vulnerabilities +[4]: /ja/security/cloud_security_management/setup#supported-deployment-types-and-features \ No newline at end of file diff --git a/content/ja/security/cloud_security_management/setup/csm_enterprise/cloud_accounts/_index.md b/content/ja/security/cloud_security_management/setup/csm_enterprise/cloud_accounts/_index.md new file mode 100644 index 0000000000000..1d62d6a96e4bc --- /dev/null +++ b/content/ja/security/cloud_security_management/setup/csm_enterprise/cloud_accounts/_index.md @@ -0,0 +1,82 @@ +--- +kind: ドキュメント +title: クラウドアカウントに対して CSM Enterprise を有効にする +--- + +以下の手順を使用して、クラウドアカウントに対して [CSM Misconfigurations][2] と [CSM Identity Risks][3] を有効にします。各 CSM 機能でサポートされるデプロイメントタイプの詳細については、[Cloud Security Management のセットアップ][9]を参照してください。 + +## リソーススキャンを有効にする + +クラウドアカウントのリソーススキャンを有効にするには、まずインテグレーションを設定し、各 AWS アカウント、Azure サブスクリプション、および Google Cloud プロジェクトで CSM を有効にする必要があります。 + +{{< tabs >}} +{{% tab "AWS" %}} + +{{% csm-setup-aws %}} + +{{% /tab %}} + +{{% tab "Azure" %}} + +{{% csm-setup-azure %}} + +{{% /tab %}} + +{{% tab "Google Cloud" %}} + +{{% csm-setup-google-cloud %}} + +{{% /tab %}} + +{{< /tabs >}} + +## CloudTrail ログの転送をセットアップする + +### Datadog AWS インテグレーションのセットアップ + +[Amazon Web Services インテグレーション][18]をまだセットアップしていない場合は、セットアップします。 + +### AWS CloudTrail のログを有効にする + +ログが S3 バケットに送信されるように、AWS CloudTrail ロギングを有効にします。 + +1. [CloudTrail ダッシュボード][19]の **Create Trail** をクリックします。 +2. トレイルの名前を入力します。 +3. 新しい S3 バケットを作成するか、既存の S3 バケットを使用して CloudTrail のログを保存します。 +4. 新しい AWS KMS キーを作成するか、既存の AWS KMS キーを使用します。**Next** をクリックします。 +5. イベントタイプはデフォルトの管理読み書きイベントにしておくか、Datadog に送信したい追加イベントタイプを選択してください。 +6. **Next** をクリックします。 +7. 確認後、**Create trail** をクリックします。 + +### AWS CloudTrail のログを Datadog に送信する + +Datadog Forwarder の Lambda 関数にトリガーを設定し、S3 バケットに保存されている CloudTrail ログを Datadog に送信してモニタリングします。 + +1. AWS インテグレーションのセットアップ時に作成した [Datadog Forwarder Lambda][20] にアクセスします。 +2. **Add trigger** をクリックします。 +3. トリガーに **S3** を選択します。 +4. AWS CloudTrail のログを収集するために使用する S3 バケットを選択します。 +5. イベントタイプで、**All object create events** を選択します。 +6. **Add** をクリックします。 +7. Datadog の[ログエクスプローラー][21]で CloudTrail のログをご覧ください。 + +[1]: /ja/security/threats +[2]: /ja/security/cloud_security_management/misconfigurations/ +[3]: /ja/security/cloud_security_management/identity_risks +[4]: /ja/security/cloud_security_management/vulnerabilities +[5]: https://app.datadoghq.com/security/configuration/csm/setup +[6]: /ja/agent/remote_config +[7]: /ja/agent/remote_config/?tab=environmentvariable#enabling-remote-configuration +[8]: /ja/security/cloud_security_management/setup +[9]: /ja/security/cloud_security_management/setup#supported-deployment-types-and-features +[11]: https://www.cisa.gov/sbom +[12]: /ja/security/cloud_security_management +[14]: /ja/agent +[15]: /ja/security/cloud_security_management/troubleshooting +[16]: https://kubernetes.io/docs/tasks/administer-cluster/migrating-from-dockershim/find-out-runtime-you-use/ +[17]: /ja/containers/kubernetes/installation/?tab=helm +[18]: /ja/integrations/amazon_web_services/ +[19]: https://console.aws.amazon.com/cloudtrail/home +[20]: https://console.aws.amazon.com/lambda/home +[21]: https://app.datadoghq.com/logs?query=service%3Acloudtrail +[22]: /ja/security/cloud_security_management/setup/csm_enterprise/cloud_accounts \ No newline at end of file diff --git a/content/ja/security/cloud_security_management/setup/csm_pro/agent/_index.md b/content/ja/security/cloud_security_management/setup/csm_pro/agent/_index.md new file mode 100644 index 0000000000000..418da7810930f --- /dev/null +++ b/content/ja/security/cloud_security_management/setup/csm_pro/agent/_index.md @@ -0,0 +1,14 @@ +--- +kind: ドキュメント +title: Agent で CSM Pro を有効にする +type: multi-code-lang +--- + +Agent で CSM Pro をセットアップして、[CSM Vulnerabilities][2] 用にコンテナイメージのメタデータ収集と [Software Bill of Materials (SBOM)][1] 収集を有効にします。これにより、コンテナイメージ内のライブラリをスキャンして脆弱性を検出することができます。脆弱性は 1 時間ごとに評価され、コンテナに対してスキャンされます。 + +Agent で CSM Pro を有効にする方法の詳細については、インフラストラクチャータイプを選択してください。 + +{{< partial name="csm/csm-pro-agent-tiles.html" >}} + +[1]: https://www.cisa.gov/sbom +[2]: /ja/security/cloud_security_management/vulnerabilities \ No newline at end of file diff --git a/content/ja/security/cloud_security_management/setup/csm_pro/agent/kubernetes.md b/content/ja/security/cloud_security_management/setup/csm_pro/agent/kubernetes.md new file mode 100644 index 0000000000000..cae5e655af254 --- /dev/null +++ b/content/ja/security/cloud_security_management/setup/csm_pro/agent/kubernetes.md @@ -0,0 +1,69 @@ +--- +code_lang: kubernetes +code_lang_weight: 60 +kind: ドキュメント +title: Kubernetes で CSM Pro を有効にする +type: multi-code-lang +--- + +以下の手順では、[CSM Vulnerabilities 用の Datadog Agent でコンテナイメージのメタデータ収集と [Software Bill of Materials (SBOM)][1] 収集を有効にします。これにより、コンテナイメージ内のライブラリをスキャンして脆弱性を検出することができます。脆弱性は 1 時間ごとに評価され、コンテナに対してスキャンされます。 + +各 CSM 機能でサポートされるデプロイメントタイプの詳細については、[Cloud Security Management のセットアップ][3]を参照してください。 + +{{< tabs >}} + +{{% tab "Datadog Operator" %}} + +1. `datadog-agent.yaml` ファイルの `spec` セクションに以下を追加します。 + + ```yaml + apiVersion: datadoghq.com/v2alpha1 + kind: DatadogAgent + metadata: + name: datadog + spec: + features: + # ... + sbom: + enabled: true + # Image collection is enabled by default with Datadog Operator version `>= 1.3.0` + containerImage: + enabled: true + # Enables Kubernetes Security Posture Management for CSM Misconfigurations + cspm: + enabled: true + ``` + +2. 変更を適用し、Agent を再起動します。 + +{{% /tab %}} + +{{% tab "Helm" %}} + +1. `datadog-values.yaml` ファイルの `datadog` セクションに以下を追加します。 + + ```yaml + datadog: + # Image collection is enabled by default with Datadog Helm version `>= 3.46.0` + containerImageCollection: + enabled: true + sbom: + containerImage: + enabled: true + # Uncomment the following line if you are using Google Kubernetes Engine (GKE) or Amazon Elastic Kubernetes (EKS) + # uncompressedLayersSupport: true + securityAgent: + # Enables Kubernetes Security Posture Management for CSM Misconfigurations + compliance: + enabled: true + ``` + +2. Agent を再起動します。 + +{{% /tab %}} + +{{< /tabs >}} + +[1]: https://www.cisa.gov/sbom +[2]: /ja/security/cloud_security_management/vulnerabilities +[3]: /ja/security/cloud_security_management/setup#supported-deployment-types-and-features \ No newline at end of file diff --git a/content/ja/security/cloud_security_management/setup/csm_pro/agent/linux.md b/content/ja/security/cloud_security_management/setup/csm_pro/agent/linux.md new file mode 100644 index 0000000000000..7751d3c404473 --- /dev/null +++ b/content/ja/security/cloud_security_management/setup/csm_pro/agent/linux.md @@ -0,0 +1,28 @@ +--- +code_lang: linux +code_lang_weight: 75 +kind: ドキュメント +title: Linux で CSM Pro を有効にする +type: multi-code-lang +--- + +以下の手順を使用して、[CSM Vulnerabilities][2] 用に Datadog Agent でコンテナイメージのメタデータ収集と [Software Bill of Materials (SBOM)][1] 収集を有効にします。これにより、コンテナイメージ内のライブラリをスキャンして脆弱性を検出することができます。脆弱性は 1 時間ごとに評価され、コンテナに対してスキャンされます。 + +各 CSM 機能でサポートされるデプロイメントタイプの詳細については、[Cloud Security Management のセットアップ][3]を参照してください。 + +1. `datadog.yaml` コンフィギュレーションファイルに以下を追加します。 + + ```yaml + sbom: + enabled: true + container_image: + enabled: true + container_image: + enabled: true + ``` + +2. Agent を再起動します。 + +[1]: https://www.cisa.gov/sbom +[2]: /ja/security/cloud_security_management/vulnerabilities +[3]: /ja/security/cloud_security_management/setup#supported-deployment-types-and-features \ No newline at end of file diff --git a/content/ja/security/cloud_security_management/setup/csm_pro/cloud_accounts/_index.md b/content/ja/security/cloud_security_management/setup/csm_pro/cloud_accounts/_index.md new file mode 100644 index 0000000000000..342ff0a65382a --- /dev/null +++ b/content/ja/security/cloud_security_management/setup/csm_pro/cloud_accounts/_index.md @@ -0,0 +1,30 @@ +--- +kind: ドキュメント +title: クラウドアカウントに対して CSM Pro を有効にする +--- + +以下の手順を使用して、クラウドアカウントに対して [CSM Misconfigurations][1] を有効にします。各 CSM 機能でサポートされるデプロイメントタイプの詳細については、[Cloud Security Management のセットアップ][2]を参照してください。 + +{{< tabs >}} +{{% tab "AWS" %}} + +{{% csm-setup-aws %}} + +{{% /tab %}} + +{{% tab "Azure" %}} + +{{% csm-setup-azure %}} + +{{% /tab %}} + +{{% tab "Google Cloud" %}} + +{{% csm-setup-google-cloud %}} + +{{% /tab %}} + +{{< /tabs >}} + +[1]: /ja/security/cloud_security_management/misconfigurations/ +[2]: /ja/security/cloud_security_management/setup#supported-deployment-types-and-features \ No newline at end of file diff --git a/content/ja/synthetics/_index.md b/content/ja/synthetics/_index.md index 7e0a1328c07c0..54b268fd468f2 100644 --- a/content/ja/synthetics/_index.md +++ b/content/ja/synthetics/_index.md @@ -84,7 +84,7 @@ API テスト、マルチステップ API テスト、ブラウザテスト、 {{< img src="synthetics/dashboards/test_dashboard.png" alt="Synthetic Monitoring & Continuous Testing サマリーダッシュボード" style="width:100%;">}} -## Synthetic Monitoring & Continuous Testing Explorer を使用する +## Synthetic Monitoring & Testing Results Explorer を使用する Synthetic テストの実行や、CI/CD パイプラインで実行されているテストのバッチに対して、[検索クエリおよび視覚化][20]を作成します。 diff --git a/content/ja/tests/early_flake_detection/_index.md b/content/ja/tests/early_flake_detection/_index.md new file mode 100644 index 0000000000000..abc0b53d6ec9b --- /dev/null +++ b/content/ja/tests/early_flake_detection/_index.md @@ -0,0 +1,102 @@ +--- +description: デフォルトブランチに影響を与える前に、Early Flake Detection を使用して不安定性を検出します。 +further_reading: +- link: /tests + tag: ドキュメント + text: Test Visibility について +- link: /tests/guides/flaky_test_management + tag: ドキュメント + text: 不安定なテストの管理について +- link: /quality_gates + tag: ドキュメント + text: Quality Gates について +kind: ドキュメント +title: Early Flake Detection +--- + +{{< site-region region="gov" >}} +
選択したサイト ({{< region-param key="dd_site_name" >}}) では現在 Early Flake Detection は利用できません。
+{{< /site-region >}} + +{{< callout url="#" btn_hidden="true" >}} +Early Flake Detection は公開ベータ版です。 +{{< /callout >}} + +## 概要 + +Early Flake Detection は、開発サイクルの早い段階で[不安定なテスト][3]を特定することでコード品質を向上させる、テストの不安定性に対する Datadog のソリューションです。不安定なテストについては、[不安定なテストの管理][9]を参照してください。 + +新しく追加されたテストを複数回実行することで、Datadog はこれらのテストがデフォルトブランチにマージされる前に不安定性を検出することができます。ある調査では、この方法で最大で [75% の不安定なテスト][1]を特定できることが示されています。 + +Known Tests +: Datadog のバックエンドは、特定のテストサービスに対して固有のテストを保存します。テストセッションが実行される前に、Datadog ライブラリはこれらの既知のテストのリストをフェッチします。 + +Detection of New Tests +: テストが既知のテストリストにない場合、そのテストは**新しい**と見なされ、自動的に 10 回まで再試行されます。 + +Flakiness Identification +: テストを複数回実行することで、レースコンディションなどの問題を発見することができます。テストの試行のいずれかが失敗した場合、そのテストは自動的に不安定なテストとしてタグ付けされます。 + +テストを複数回実行することで、不安定性の原因となるランダムな状態を明らかにできる可能性が高まります。Early Flake Detection は、安定した信頼性の高いテストだけがメインブランチに統合されるようにします。 + +フィーチャーブランチのマージは、[Quality Gate][2] でブロックすることができます。詳細については、[Quality Gates ドキュメント][8]を参照してください。 + +## 計画と使用 + +Early Flake Detection を実装する前に、開発環境の [Test Visibility][5] を構成する必要があります。Datadog Agent を使用してデータをレポートする場合は、v6.40 または 7.40 以降を使用してください。 + +### ブラウザトラブルシューティング + +Datadog ライブラリを Test Visibility 用に設定したら、[Test Service Settings ページ][6]から Early Flake Detection を構成します。 + +{{< img src="continuous_integration/early_flake_detection_test_settings.png" alt="テストサービス設定の Early Flake Detection" style="width:100%" >}} + +1. [**Software Delivery** > **Test Visibility** > **Settings**][6] に移動します。 +1. テストサービスの Early Flake Detection 列の **Configure** をクリックします。 +1. トグルをクリックして Early Flake Detection を有効にし、[**Excluded Branches from Early Flake Detection**](#manage-excluded-branches) のリストを追加または変更します。 + +{{< img src="continuous_integration/early_flake_detection_configuration_modal.png" alt="Early Flake Detection を有効にして、テストサービス構成で除外ブランチを定義する" style="width:60%" >}} + +## 除外ブランチの管理 + +除外ブランチでは、Early Flake Detection によってテストが再試行されません。これらのブランチで実行されるテストは、Early Flake Detection の対象として新しいテストとは見なされません。 + +{{< img src="continuous_integration/early_flake_detection_commits.png" alt="コミットでの Early Flake Detection の動作方法" style="width:60%" >}} + +[Test Service Settings ページ][6]で除外ブランチのリストを管理し、特定のワークフローやブランチ構造に合わせて機能を調整できます。 + +## Test Visibility Explorer で結果を探索する + +以下のファセットを使用して、[Test Visibility Explorer][10] で Early Flake Detection と新規テストを実行するセッションを照会できます。 + +* **Test Session**: Early Flake Detection を実行しているテストセッションでは、`@test.early_flake.enabled` タグが `true` に設定されています。 +* **New Tests**: 新しいテストでは、`@test.is_new` タグが `true` に設定され、このテストの再試行では `@test.is_retry` タグが `true` に設定されます。 + +## トラブルシューティング + +Early Flake Detection に問題があると思われる場合は、[Test Service Settings ページ][6]に移動して、テストサービスを探し、**Configure** をクリックします。トグルをクリックして、Early Flake Detection を無効にします。 + +### 新しいテストが再試行されない理由 + +これには以下のような原因が考えられます。 + +* このテストはすでに `staging`、`main`、または `preprod` などの除外されたブランチで実行されています。 +* このテストの実行時間が 5 分を超えています。非常に遅いテストに Early Flake Detection を適用しないメカニズムがあります。これらのテストを再試行すると、CI パイプラインに大きな遅延が発生する可能性があるためです。 + +### 新しくないテストが再試行された場合 + +Datadog ライブラリが既知のテストの完全なリストを取得できない場合、新しくないテストを再試行することがあります。このエラーが CI パイプラインを遅くしないようにする仕組みがありますが、発生した場合は [Datadog サポート][7]に連絡してください。 + +## その他の参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://2020.splashcon.org/details/splash-2020-oopsla/78/A-Large-Scale-Longitudinal-Study-of-Flaky-Tests +[2]: /ja/quality_gates/ +[3]: /ja/glossary/#flaky-test +[5]: /ja/tests +[6]: https://app.datadoghq.com/ci/settings/test-service +[7]: /ja/help/ +[8]: /ja/quality_gates/setup +[9]: /ja/tests/guides/flaky_test_management +[10]: /ja/continuous_integration/explorer?tab=testruns \ No newline at end of file diff --git a/content/ja/tracing/guide/alert_anomalies_p99_database.md b/content/ja/tracing/guide/alert_anomalies_p99_database.md index f2aabd9d5afad..606f5a8e5a024 100644 --- a/content/ja/tracing/guide/alert_anomalies_p99_database.md +++ b/content/ja/tracing/guide/alert_anomalies_p99_database.md @@ -18,7 +18,7 @@ title: データベースサービスの異常な p99 レイテンシーに関 _所要時間 3 分_ -{{< img src="tracing/guide/alert_anomalies_p99_database/alert_anomalies_full.mp4" video="true" alt="モニターの継続的なアラート設定" style="width:90%;">}} +{{< img src="tracing/guide/alert_anomalies_p99_database/alert_anomalies_cropped.mp4" video="true" alt="進行中のアラートがあるモニター表示" style="width:90%;">}} Datadog では、ユーザー自身で継続的にサービスの健全性を監視する代わりに、APM を使用して健全性を追跡するようにモニターを設定できます。ここでは、異常検知モニターを使用します。[異常検知][1]とは、傾向や、季節的な曜日や時間帯のパターンを考慮しながら、メトリクスの挙動が過去のものとは異なる場合、これを認識できるアルゴリズム機能です。異常検知は、しきい値ベースのアラート設定では監視することが困難または不可能な強い傾向や反復パターンを持つメトリクスに適しています。 @@ -29,7 +29,7 @@ Datadog では、ユーザー自身で継続的にサービスの健全性を監 [サービス][5]を選択すると、次のステップを設定できるようになり、新しいモニターの追跡対象となるメトリクスのパフォーマンスを示すグラフがページ上部に表示されます。 - {{< img src="tracing/guide/alert_anomalies_p99_database/alert_anomalies_2.png" alt="モニターの継続的なアラート設定" style="width:90%;">}} + {{< img src="tracing/guide/alert_anomalies_p99_database/alert_anomalies_2_cropped.png" alt="進行中のアラートがあるモニター表示" style="width:90%;">}} 3. ***Anomaly Alert* を選択**し、*For* オプションに「p99 latency」を選択します。 @@ -54,7 +54,7 @@ Datadog では、ユーザー自身で継続的にサービスの健全性を監 7. ***Edit* タブから *Status* タブに切り替えます**。 - {{< img src="tracing/guide/alert_anomalies_p99_database/alert_anomalies_4.png" alt="モニターの継続的なアラート設定" style="width:90%;">}} + {{< img src="tracing/guide/alert_anomalies_p99_database/alert_anomalies_4_cropped.png" alt="進行中のアラートがあるモニター表示" style="width:90%;">}} このタブでは、モニターの現在の状況の確認やミュート設定、トリガーされたアラートの詳細調査をします。 @@ -62,11 +62,11 @@ Datadog では、ユーザー自身で継続的にサービスの健全性を監 このウィンドウでは、サービスに設定された他のモニターや推奨設定の提案モニターに加え、**新しいモニターが表示されます**。 - {{< img src="tracing/guide/alert_anomalies_p99_database/alert_anomalies_5.png" alt="モニターの継続的なアラート設定" style="width:90%;">}} + {{< img src="tracing/guide/alert_anomalies_p99_database/alert_anomalies_5_cropped.png" alt="進行中のアラートがあるモニター表示" style="width:90%;">}} モニターを作成するにつれ、追加するサービス、メトリクス、イベントと、これらに設定する複雑な条件がさらに出てきます。モニターはそれぞれ、サービスに接続されているため、サービス詳細画面および [Service Map][9] からアクセスできます。 - {{< img src="tracing/guide/alert_anomalies_p99_database/alert_anomalies_6.png" alt="サービスマップ" style="width:90%;">}} + {{< img src="tracing/guide/alert_anomalies_p99_database/alert_anomalies_6_cropped.png" alt="サービスマップ" style="width:90%;">}} マップ上の各サービスの色分けは、緑色はすべてのモニターが正常、黄色は 2 つ以上のモニターで警告があるがアラートはなし、赤は 2 つ以上のモニターでアラートあり、灰色はモニター設定なし、という状態を示しています。 diff --git a/content/ja/tracing/services/services_map.md b/content/ja/tracing/services/services_map.md index a5e15e7c58e80..6097006820bde 100644 --- a/content/ja/tracing/services/services_map.md +++ b/content/ja/tracing/services/services_map.md @@ -29,6 +29,10 @@ title: サービスマップ サービスマップでは、サービスとその正常性を概要的に確認できます。ノイズを除去し、問題のある領域を特定することができます。このビューから、Datadog で収集された他のテレメトリに直接アクセスすることも可能です。 +## サービスの依存関係の特定 + +サービスマップは、異なる環境も含めたサービスの依存関係の全体像を提供します。例えば、サービスが `prod` 環境にしかデプロイされていなくても、マップは `staging` (および他の環境) のサービスとの接続を明らかにします。 + ## チームまたはアプリケーションによるグループ化 サービスマップはチームやアプリケーションごとにグループ化でき、サービスの所有権やアプリケーションの依存関係を明確に把握できます。これにより、複雑なマイクロサービスアーキテクチャをより詳細なレベルで視覚化できるため、組織が必要な情報にすばやく到達できるようになります。 diff --git a/content/ja/tracing/trace_collection/automatic_instrumentation/dd_libraries/nodejs.md b/content/ja/tracing/trace_collection/automatic_instrumentation/dd_libraries/nodejs.md new file mode 100644 index 0000000000000..3756d2e8444c2 --- /dev/null +++ b/content/ja/tracing/trace_collection/automatic_instrumentation/dd_libraries/nodejs.md @@ -0,0 +1,194 @@ +--- +aliases: +- /ja/tracing/nodejs/ +- /ja/tracing/languages/nodejs/ +- /ja/tracing/languages/javascript/ +- /ja/tracing/setup/javascript/ +- /ja/agent/apm/nodejs/ +- /ja/tracing/setup/nodejs +- /ja/tracing/setup_overview/nodejs +- /ja/tracing/setup_overview/setup/nodejs +- /ja/tracing/trace_collection/dd_libraries/nodejs/ +code_lang: nodejs +code_lang_weight: 30 +further_reading: +- link: https://github.com/DataDog/dd-trace-js + tag: GitHub + text: ソースコード +- link: https://datadog.github.io/dd-trace-js + tag: ドキュメント + text: API ドキュメント +- link: tracing/trace_collection/otel_instrumentation/java/ + tag: APM の UI を利用する + text: サービス、リソース、トレースを調査する +- link: tracing/trace_collection/otel_instrumentation/ + tag: 高度な使用方法 + text: 高度な使用方法 +kind: ドキュメント +title: Node.js アプリケーションのトレース +type: multi-code-lang +--- +## 互換性要件 + +最新の Node.js トレーサーは、バージョン `>=14` に対応しています。Datadog の Node.js バージョンとフレームワークのサポート一覧 (レガシーバージョンとメンテナンスバージョンを含む) については、[互換性要件][1]ページをご覧ください。 + +## はじめに + +作業を始める前に、[Agent のインストールと構成][13]が済んでいることを確認してください。 + +### アプリケーションをインスツルメントする + +Datadog Agent をインストールして構成したら、次はアプリケーションに直接トレーシングライブラリを追加してインスツルメントします。[互換性情報][1]の詳細をお読みください。 + +Agent のインストールが完了したら、以下の手順で Datadog のトレーシングライブラリを Node.js アプリケーションに追加します。 + +1. Node.js 14 以降に対応する npm を使用して Datadog Tracing ライブラリをインストールします。 + + ```sh + npm install dd-trace --save + ``` + 発売終了済みの Node.js バージョン 12 をトレースしたい場合は、以下を実行して `dd-trace` のバージョン 2.x をインストールしてください。 + ``` + npm install dd-trace@latest-node12 + ``` + ディストリビューションタグおよび Node.js のランタイムばージョンサポートについて詳しくは、[互換性要件][1] ページを参照してください。 + ライブラリの以前のメジャーバージョン (0.x、1.x、2.x) から別のメジャーバージョン (2.x、3.x) にアップグレードする場合は、[移行ガイド][5]を読み、変更点を評価するようにしてください。 + +2. コードまたはコマンドライン引数を使用して、トレーサーをインポートして初期化します。Node.js トレースライブラリは、他のモジュールの**前**にインポートして初期化する必要があります。 + + セットアップが完了した後、Web リクエストの URL ルートの欠落、スパンの切断または欠落など、完全なトレースを受信していない場合は、**ステップ 2 が正しく行われたことを確認してください**。最初に初期化されるトレースライブラリは、トレーサーが自動インスツルメンテーションに必要なすべてのライブラリに適切にパッチを適用するために必要です。 + + TypeScript、Webpack、Babel などのトランスパイラーを使用する場合は、トレーサーライブラリを外部ファイルにインポートして初期化し、アプリケーションをビルドするときにそのファイル全体をインポートします。 + +### コードにトレーサーを追加する + +#### JavaScript + +```javascript +// の行は、インスツルメントされたいずれのモジュールのインポートより前である必要があります。 +const tracer = require('dd-trace').init(); +``` + +#### TypeScript とバンドラー + +EcmaScript モジュール構文をサポートする TypeScript およびバンドラーの場合、正しいロード順序を維持するために、別のファイルでトレーサーを初期化します。 + +```typescript +// server.ts +import './tracer'; // インスツルメントされたいずれのモジュールのインポートより前である必要があります。 + +// tracer.ts +import tracer from 'dd-trace'; +tracer.init(); // ホイストを避けるため異なるファイルで初期化。 +export default tracer; +``` + +デフォルトのコンフィギュレーションで十分な場合、またはすべてのコンフィギュレーションが環境変数を介して行われる場合は、`dd-trace/init` を使用することもできます。これは 1 つのステップでロードおよび初期化されます。 + +```typescript +import 'dd-trace/init'; +``` + +### コマンドライン引数を介したトレーサーの追加 + +Node.js の `--require` オプションを使用して、トレーサーを 1 回のステップでロードして初期化します。 + +```sh +node --require dd-trace/init app.js +``` + +**注:** このアプローチでは、トレーサーのすべてのコンフィギュレーションに環境変数を使用する必要があります。 + +### バンドル + +`dd-trace` は Node.js アプリケーションがモジュールをロードする際に行う `require()` 呼び出しを傍受することで動作します。これには、ファイルシステムにアクセスするための `fs` モジュールのような Node.js に組み込まれているモジュールや、`pg` データベースモジュールのような NPM レジストリからインストールされたモジュールが含まれます。 + +バンドラーはアプリケーションがディスク上のファイルに対して行う `require()` 呼び出しをすべてクロールします。`require()` の呼び出しをカスタムコードに置き換え、その結果の JavaScript を 1 つの "バンドルされた" ファイルにまとめます。`require('fs')` のような組み込みモジュールがロードされたとき、その呼び出しは結果として生成されるバンドルにそのまま残ります。 + +`dd-trace` のような APM ツールはこの時点で機能しなくなります。組み込みモジュールの呼び出しは引き続き傍受できますが、サードパーティライブラリの呼び出しは傍受しません。つまり、`dd-trace` アプリをバンドラーでバンドルすると、ディスクアクセス (`fs` 経由) とアウトバウンド HTTP リクエスト (`http` 経由) の情報はキャプチャしますが、サードパーティライブラリの呼び出しは省略する可能性が高くなります。例: +- `express` フレームワークの受信リクエストルート情報を抽出する。 +- データベースクライアント `mysql` に対して実行されるクエリを表示する。 + +一般的な回避策は、APM がインスツルメンテーションする必要のあるすべてのサードパーティモジュールを、バンドラーの "外部" として扱うことです。この設定では、インスツルメンテーションされたモジュールはディスク上に残り、`require()` でロードされ続け、インスツルメンテーションされていないモジュールはバンドルされます。しかし、これでは余計なファイルがたくさんあるビルドになってしまい、バンドルする意味がなくなってしまいます。 + +Datadog では、カスタムビルトバンドラープラグインを推奨しています。このプラグインは、バンドラーに動作を指示したり、中間コードを挿入したり、"翻訳された" `require()` 呼び出しを傍受したりすることができます。その結果、より多くのパッケージがバンドルされた JavaScript ファイルに含まれるようになります。 + +**注**: アプリケーションによっては、100% のモジュールをバンドルすることができますが、ネイティブモジュールはまだバンドルの外部に残しておく必要があります。 + +#### Esbuild サポート + +このライブラリは esbuild プラグインの形で実験的な esbuild サポートを提供し、少なくとも Node.js v16.17 または v18.7 が必要です。プラグインを使用するには、`dd-trace@3+` がインストールされていることを確認し、バンドルをビルドするときに `dd-trace/esbuild` モジュールを要求します。 + +以下は esbuild で `dd-trace` を使う例です。 + +```javascript +const ddPlugin = require('dd-trace/esbuild') +const esbuild = require('esbuild') + +esbuild.build({ + entryPoints: ['app.js'], + bundle: true, + outfile: 'out.js', + plugins: [ddPlugin], + platform: 'node', // 組み込みモジュールの使用を可能にします + target: ['node16'], + external: [ + // esbuild はネイティブモジュールをバンドルできません + '@datadog/native-metrics', + + // プロファイリングを使用する場合は必須です + '@datadog/pprof', + + // Datadog のセキュリティ機能を使用する場合は必須です + '@datadog/native-appsec', + '@datadog/native-iast-taint-tracking', + '@datadog/native-iast-rewriter', + + // ビルドステップで graphql エラーが発生した場合は必須です + 'graphql/language/visitor', + 'graphql/language/printer', + 'graphql/utilities' + ] +}).catch((err) => { + console.error(err) + process.exit(1) +}) +``` + +**注**: トレーサーでは、コンパイルされた C++ コードであるネイティブモジュール (通常、拡張機能が `.node` で終わる) を使用するため、 `external` リストにエントリを追加する必要があります。現在、Node.js トレーサーで使用されているネイティブモジュールは `@datadog` プレフィックス付きパッケージの中にあります。このため、バンドルしたアプリケーションと共に `node_modules/` ディレクトリも配布する必要があります。 ディレクトリには、バンドル内に含まれるべき多くの不要なパッケージがあるため、`node_modules/` ディレクトリ全体を配布する必要はありません。 + +必要なネイティブモジュール (とその依存関係) だけを含む、より小さな `node_modules/` ディレクトリを生成するには、まず必要なパッケージのバージョンを決定し、それらをインストールするための一時ディレクトリを作成し、そこから結果の `node_modules/` ディレクトリをコピーします。例: + +```sh +cd path/to/project +npm ls @datadog/native-metrics +# dd-trace@5.4.3-pre ./dd-trace-js +# └── @datadog/native-metrics@2.0.0 +$ npm ls @datadog/pprof +# dd-trace@5.4.3-pre ./dd-trace-js +# └── @datadog/pprof@5.0.0 +mkdir temp && cd temp +npm init -y +npm install @datadog/native-metrics@2.0.0 @datadog/pprof@5.0.0 +cp -R ./node_modules path/to/bundle +``` + +この段階で、バンドル (アプリケーションコードと依存関係の大部分) と、ネイティブモジュールとその依存関係を含む `node_modules/` ディレクトリをデプロイできるはずです。 + +## ブラウザトラブルシューティング + +必要に応じて、統合サービスタグ付けの設定など、アプリケーションパフォーマンスのテレメトリーデータを送信するためのトレースライブラリーを構成します。詳しくは、[ライブラリの構成][4]を参照してください。 + +初期化のオプションについては、[トレーサー設定][3]をお読みください。 + +## その他の参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ja/tracing/compatibility_requirements/nodejs +[2]: https://app.datadoghq.com/apm/service-setup +[3]: https://datadog.github.io/dd-trace-js/#tracer-settings +[4]: /ja/tracing/trace_collection/library_config/nodejs/ +[5]: https://github.com/DataDog/dd-trace-js/blob/master/MIGRATING.md +[11]: /ja/tracing/trace_collection/library_injection_local/ +[13]: /ja/tracing/trace_collection/automatic_instrumentation/?tab=datadoglibraries#install-and-configure-the-agent \ No newline at end of file diff --git a/content/ja/watchdog/faulty_deployment_detection.md b/content/ja/watchdog/faulty_deployment_detection.md index cb4f413d5db87..82222d7e4957d 100644 --- a/content/ja/watchdog/faulty_deployment_detection.md +++ b/content/ja/watchdog/faulty_deployment_detection.md @@ -5,11 +5,11 @@ title: デプロイメント不良の自動検出 ## 概要 -デプロイメント不良の自動検出により、欠陥のあるコードのデプロイメントを数分以内に検出し、平均検出時間 (MTTD) を短縮します。コードが本番環境にデプロイされるたびに、Watchdog は新しいコードバージョンのパフォーマンスを以前のバージョンと比較し、デプロイで発生した新しいタイプのエラーやエラー率の上昇を検出します。Watchdog が新しいデプロイメントに欠陥があると判断した場合、影響を受けるサービスの詳細が APM サービスページと、影響を受けるエンドポイントのリソースページに表示されます。 +デプロイメント不良の自動検出により、欠陥のあるコードのデプロイメントを数分以内に検出し、平均検出時間 (MTTD) を短縮します。コードがデプロイされるたびに、Watchdog は新しいコードバージョンのパフォーマンスを以前のバージョンと比較し、デプロイで発生した新しいタイプのエラーやエラー率の上昇を検出します。Watchdog が新しいデプロイメントに欠陥があると判断した場合、影響を受けるサービスの詳細が APM サービスページと、影響を受けるエンドポイントのリソースページにも表示されます。 Watchdog が現在アクティブなバージョンに不具合があることを検出した場合、サービス詳細ページの上部にピンク色のバナーが表示されます。これは下のスクリーンショットで確認できます。画面下部の Deployments テーブルは、そのサービスのデプロイメントの履歴を表示しており、Watchdog が過去に不具合を発見したバージョンも示しています。 -{{< img src="watchdog/faulty_deployment_redesigned.png" alt="APM サービスページ。上部にピンク色のバナー、下部にデプロイメントのテーブルが表示されます" >}} +{{< img src="watchdog/faulty_deployment_redesigned_cropped.png" alt="APM サービスページ。上部にピンク色のバナー、下部にデプロイメントのテーブルが表示されます" >}} バナーの **View Details** をクリックすると、欠陥のあるデプロイメントに関する追加情報が表示されたスライドアウトパネルが開きます。このビューには、欠陥のあるデプロイメントに関する次のような詳細情報が表示されます。 @@ -20,7 +20,7 @@ Watchdog が現在アクティブなバージョンに不具合があること このビューは、Deployments テーブルの任意のバージョンをクリックしてアクセスすることもできます。以下のスクリーンショットはこの詳細表示の例で、エラータイプ `db.utils.OperationalError` が ` /inventory` エンドポイントに影響し、HTTP ステータスコード `(500)` が表示されていることを示しています。 -{{< img src="watchdog/faulty_deployment_details_redesigned.png" alt="欠陥のあるデプロイメントの追跡詳細パネル" >}} +{{< img src="watchdog/faulty_deployment_details_redesigned_cropped.png" alt="欠陥のあるデプロイメントの追跡詳細パネル" >}} 欠陥のあるデプロイメントが検出されると、Watchdog はこれを[イベントエクスプローラー][2]にイベントとして追加します。このようなイベントで自動的に通知されるようにモニターを設定することができます。これを行うには、[New Monitors][3] ページに移動して、**Events** を選択し、モニターを定義する検索クエリに `tags:deployment_analysis` を含めます。 @@ -28,7 +28,7 @@ Watchdog が現在アクティブなバージョンに不具合があること 各デプロイは繰り返し分析されます。同じ欠陥のあるデプロイの再アラートを防ぐために、Datadog ではモニターの回復時間を 60 分に設定することを推奨しています。 -{{< img src="watchdog/faulty_deployment_suggested_monitors_redesigned.png" alt="APM サービスページと Suggested Monitors ボタン" >}} +{{< img src="watchdog/faulty_deployment_suggested_monitors_redesigned_cropped.png" alt="APM サービスページと Suggested Monitors ボタン" >}} ### エラーがあるにもかかわらず、新しいデプロイメントに欠陥のフラグが立たないのはなぜですか? diff --git a/content/ko/account_management/_index.md b/content/ko/account_management/_index.md index 874fa2b527c2f..78c58ec86405d 100644 --- a/content/ko/account_management/_index.md +++ b/content/ko/account_management/_index.md @@ -19,7 +19,7 @@ Datadog의 개인 설정 페이지를 사용하면 조직에서 다른 사람들 ### 프로필 -사용자의 프로필은 조직에 소속된 다른 사람들이 Datadog에서 어떻게 알아보는지를 결정합니다. 이름, 이메일 주소, 직함을 여기에서 설정하거나 갱신하세요. +사용자의 프로필은 조직에 소속된 다른 사람들이 Datadog에서 고객님을 인지하는 방식입니다. 이름, 이메일 주소, 직함을 **개인 설정** 페이지의 [프로필 탭][11]에서 설정하거나 갱신하세요. 사진을 업데이트하려면 [Gravatar][1] 계정을 만든 다음 이메일 주소와 연동하세요. @@ -28,30 +28,36 @@ Google Authentication을 사용해 Datadog에 로그인하는 경우 이메일 ### 선호 사항 {{% site-region region="us,us3,us5,eu,ap1" %}} -**Personal Settings** 페이지 내 [**Preferences** 탭][1]에서 시간대, 데스크톱 알림 및 이메일 구독을 설정할 수 있습니다. 이메일 구독을 통해 다음 보고서에 액세스할 수 있습니다. +**개인 설정** 페이지의 [기본 설정 탭][3]에서 시간대, 시각 접근성 설정, 이메일 구독을 관리할 수 있습니다. + +#### 이메일 구독 + +이메일을 구독하면 다음 보고서에 접근할 수 있습니다. * 일간 다이제스트 * 주간 다이제스트 -이메일 다이제스트가 관련성이 있는지 잘 모르겠다면 각 이메일 구독 옆의 **Example** 링크를 클릭해 예시를 살펴보세요. 또 **Unsubscribe From All** 버튼을 선택해 이메일 구독 모두를 빠르게 해제할 수 있습니다. - -[1]: https://app.datadoghq.com/account/preferences +이메일 다이제스트가 관련성이 있는지 확실하지 않다면 각 이메일 구독 옆의 **예시** 링크를 클릭해 예시를 살펴보세요. 또 **모든 구독 해제** 버튼을 선택해 이메일 구독을 모두 해제할 수 있습니다. {{% /site-region %}} + {{% site-region region="gov" %}} +**개인 설정** 페이지의 [**기본 설정** 탭][3]에서 시간대, 시각 접근성 설정을 관리할 수 있습니다. +{{% /site-region %}} -**Personal Settings** 페이지 내 [**Preferences** 탭][1]에서 시간대, 데스크톱 알림을 설정할 수 있습니다. +#### 시각 접근성 -[1]: https://app.datadoghq.com/account/preferences -{{% /site-region %}} +시각 접근성 환경설정에는 색약, 저시력, 밝은 색 민감도를 해결해 드리는 5가지 설정이 있습니다. 컬러 접근성 설정을 선택하면 Datadog은 클래식 색상표를 사용하는 모든 그래프를 고객님의 시각적 요구 사항에 맞는 컬러 접근성 설정으로 변환합니다. + +**참고**: 시각 접근성 환경설정은 브라우저에 로컬 저장됩니다. 다른 브라우저를 사용하거나 캐시를 삭제하면 기본 설정이 적용됩니다. ### 조직 -**Personal Settings**의 **Organizations** 페이지는 사용자가 소속된 모든 조직을 목록으로 보여줍니다. 이 페이지에서 조직 간에 전환하거나, 왼쪽 내비게이션의 계정 메뉴 위에 커서를 올리세요. +**개인 설정**의 [조직 탭][12]은 사용자가 소속된 모든 조직의 목록을 표시합니다. 본 페이지에서 조직 간 전환하거나, 왼쪽 내비게이션의 계정 메뉴 위에 커서를 올려 전환합니다. **참조**: 더 이상 조직 소속이 아닌 경우, 조직 관리자가 초대하지 않는 이상 다시 조직에 참여할 수 없습니다. -기존 조직에 참여하려면 관리자가 초대를 해야 합니다. 초대를 받았다면 `You've been invited to join `라는 제목의 이메일이 발송됩니다. 이메일에서 **Join Account** 버튼을 클릭하세요. +기존 조직에 참여하려면 관리자가 초대해야 합니다. 초대를 받았다면 '에 참여하도록 초대받았습니다'라는 제목의 이메일이 발송됩니다. 이메일의 **계정 참여** 버튼을 클릭합니다. 사용자가 조직 관리자인 경우 다음의 추가 설명서를 확인하시기 바랍니다. @@ -63,12 +69,21 @@ Google Authentication을 사용해 Datadog에 로그인하는 경우 이메일 ### 보안 -**Personal Settings**의 **Application Keys** 탭에서는 애플리케이션 키를 관리할 수 있습니다. 키를 복사하려면 오른쪽에 **Copy Key** 아이콘이 나타날 때까지 커서를 올려두었다가 클릭하세요. 또, 특정 키를 클릭하여 이름 수정, 생성일시 확인, 키 소유자의 프로필 조회, 복사, 권한 취소를 할 수 있습니다. -## Appearance +#### 애플리케이션 키 + +**개인 설정**의 [애플리케이션 키 탭][13]에서는 애플리케이션 키를 관리할 수 있습니다. 키를 복사하려면 오른쪽에 **키 복사하기** 아이콘이 나타날 때까지 커서를 올렸다가 클릭하세요. 특정 키를 클릭하여 이름 수정, 생성일시 확인, 키 소유자의 프로필 조회, 복사, 권한 취소를 할 수 있습니다. + +#### 앱 + +**개인 설정**의 [앱 탭][14]에서는 조직 구성원이 설치 또는 생성한 앱을 관리할 수 있습니다. 검색 문자열로 앱을 필터링하거나 체크박스를 사용해 활성화 또는 비활성화된 앱만 확인하도록 선택할 수 있습니다. + +앱 위로 마우스를 올리면 앱 목록의 오른쪽에 활성화 또는 비활성화 옵션이 표시됩니다. + +## 디스플레이 사이드바의 아바타 위에 커서를 두거나 `Ctrl+Opt+D` / `Ctrl+Alt+D` 키를 누르면 Datadog를 어두운 모드로 볼 수 있습니다. -컴퓨터의 외형에 맞게 조정하려면 *System* 옵션을 선택하세요. 이는 Datadog의 외형을 OS 수준에서 설정한 테마와 자동으로 일치시킵니다. +컴퓨터 디스플레이 설정에 맞게 조정하려면 *System* 옵션을 선택하세요. 이는 Datadog의 디스플레이를 OS 수준에서 설정한 테마와 자동으로 일치시킵니다. ## GitHub로 연결 @@ -80,11 +95,15 @@ Datadog 조직 계정을 비활성화하려면 [Datadog 지원팀][10]에 문의 [1]: https://gravatar.com [2]: https://support.google.com/accounts/answer/19870?hl=en -[3]: https://app.datadoghq.com/account/preferences +[3]: https://app.datadoghq.com/personal-settings/preferences [4]: /ko/account_management/users/ [5]: /ko/account_management/saml/ [6]: /ko/account_management/org_settings/#change-your-organization-name [7]: /ko/account_management/multi_organization/ [8]: /ko/account_management/org_settings/ [9]: /ko/integrations/github/ -[10]: /ko/help/ \ No newline at end of file +[10]: /ko/help/ +[11]: https://app.datadoghq.com/personal-settings/profile +[12]: https://app.datadoghq.com/personal-settings/organizations +[13]: https://app.datadoghq.com/personal-settings/application-keys +[14]: https://app.datadoghq.com/personal-settings/apps \ No newline at end of file diff --git a/content/ko/data_streams/dotnet.md b/content/ko/data_streams/dotnet.md index e67df186573f5..13864829e62b7 100644 --- a/content/ko/data_streams/dotnet.md +++ b/content/ko/data_streams/dotnet.md @@ -11,18 +11,28 @@ title: .NET용 데이터 스트림 모니터링 설정 데이터 스트림 모니터링을 시작하려면 Datadog 에이전트와 .NET 라이브러리 라이브러리 최신 버전이 필요합니다. * [Datadog 에이전트 v7.34.0 이상][1] -* .NET Tracer v2.28.0 이상([.NET Core][2], [.NET Framework][3]) +* .NET Tracer([.NET Core][2], [.NET Framework][3]) + * Kafka 및 RabbitMQ: v2.28.0 이상 + * Amazon SQS: v2.48.0 ### 설치 .NET에서는 자동 계측을 사용해 데이터 스트림 모니터링에 필요한 추가 메타 데이터를 삽입하거나 추출해 엔드 투 엔드 대기 시간과 대기열과 서비스 간 관계를 측정합니다. 데이터 스트림 모니터링을 사용하려면 Kafka나 RabbitMQ을 통해 메시지를 보내는 서비스(또는 메시지를 받는 서비스)에서 `DD_DATA_STREAMS_ENABLED` 환경 변수를 `true`로 설정합니다. -예를 들면 다음과 같습니다. +예시: ```yaml environment: - DD_DATA_STREAMS_ENABLED: "true" ``` +### 지원되는 라이브러리 +데이터 스트림 모니터링은 [confluent-kafka 라이브러리][4]를 지원합니다. + +### SQS 파이프라인 모니터링 +데이터 스트림 모니터링은 하나의 [메시지 속성][5]을 사용하여 SQS 큐를 통해 메시지 경로를 추적합니다. Amazon SQS는 메시지당 허용되는 메시지 속성이 최대 10개로 제한되어 있으므로 데이터 파이프라인을 통해 스트리밍되는 모든 메시지는 9개 이하의 메시지 속성이 설정되어 있어야 합니다. 나머지 속성은 데이터 스트림 모니터링에서 허용됩니다. + [1]: /ko/agent [2]: /ko/tracing/trace_collection/dd_libraries/dotnet-core -[3]: /ko/tracing/trace_collection/dd_libraries/dotnet-framework \ No newline at end of file +[3]: /ko/tracing/trace_collection/dd_libraries/dotnet-framework +[4]: https://pypi.org/project/confluent-kafka/ +[5]: https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-message-metadata.html \ No newline at end of file diff --git a/content/ko/developers/guide/data-collection-resolution-retention.md b/content/ko/developers/guide/data-collection-resolution-retention.md index 195eeccf02da0..06d758ddff54a 100644 --- a/content/ko/developers/guide/data-collection-resolution-retention.md +++ b/content/ko/developers/guide/data-collection-resolution-retention.md @@ -5,59 +5,60 @@ algolia: aliases: - /ko/developers/faq/data-collection-resolution-retention/ disable_sidebar: true -kind: 가이드 +kind: 지침 title: Datadog 데이터 수집, 해결 및 보존 --- 아래에서 Datadog 데이터 수집, 해결 및 보존에 대한 요약을 확인하세요: -| 제품 카테고리 | 소스 | 수집 방법 | 수집 간격 | 최소한의 해결 | 기본 보존 | -|---------------------------|--------------------------------------------------|--------------------------------------------------------------------------------------------------------------------------------------|------------------------------------------------------------------------------------------------|-----------------------|--------------------------------------------------------------------------------------------------------------------| -| 경고 | 서비스 수준 목표(Service Level Objectives) | Datadog 모니터, Datadog 신서틱(Synthetic) 모니터링 또는 메트릭 (인프라스트럭처, APM 트레이스, 커스텀) | 데이터 소스 종속성 | 데이터 소스 종속성 | 7일, 30일 또는 90일(SLO 설정에서 사용자가 선택) | -| APM | 오류 추적 | APM 스팬 (샘플링되지 않음) | 2분 | 60초 | 15일 | -| APM | 인덱싱된 스팬 (샘플링되지 않음) | Datadog 에이전트 + 트레이싱 라이브러리 | 10초 | 1 밀리초 | 계획 | -| APM | 프로필 | Datadog 에이전트 + 트레이싱 라이브러리 | 60초 | 60초 | 7일 | -| APM | 프로필 메트릭 | Datadog 에이전트 + 트레이싱 라이브러리 | 60초 | 60초 | 1개월 | -| APM | 서비스/리소스 통계 및 스팬 요약 | Datadog 에이전트 + 트레이싱 라이브러리 | 10 초 | 10초 | 30일 | -| APM | 트레이스 (샘플링됨) | Datadog 에이전트 + 트레이싱 라이브러리 | 10초 | 1 밀리초 | 조회한 트레이스는 30일 동안 장기 보관됩니다. 자세한 내용을 확인하려면 [Trace Storage][1]를 참조하세요. | -| APM | 트레이스 메트릭 (샘플링 안됨) | Datadog 에이전트 + 트레이싱 라이브러리 | 10초 | 1초 | 15개월 | -| ASM | 의심스러운 요청 | Datadog 에이전트 + 트레이싱 라이브러리 | 10초 | 1 밀리초 | 90일. 15일 동안 기본 트레이스가 남아 있습니다. | -| CI Visibility | 테스트 스팬 | Datadog 에이전트 + 트레이싱 라이브러리 | 60초 | 1 밀리초 | 90일. 기본 플레임그래프는 30일 동안 보관됩니다. | -| CI Visibility | Flaky 테스트 | CI 가시성 테스트 스팬(span) | 데이터 소스 종속성 | 1 밀리초 | 테스트가 마지막으로 실패한 후 1개월 | -| CI Visibility | 파이프라인 스팬(span) | 웹훅, Datadog 에이전트 + 플러그인 | 데이터 소스 종속성 | 1 밀리초 | 15개월. 기본 플레임그래프는 30일 동안 보관됩니다. | -| 클라우드 | Alibaba | API 크롤러 | 10분 ([기본값][2]) | 1분 | 15개월 | -| 클라우드 | AWS | API 크롤러 | 10분 ([기본값][2]) | 1분 | 15개월 | -| 클라우드 | Azure | API 크롤러 | 2분 ([기본값][2]) | 1분 | 15개월 | -| 클라우드 | Google 클라우드 | API 크롤러 | 5분 ([기본값][2]) | 1분 | 15개월 | -| 클라우드 비용 관리 | AWS | 비용과 사용량에 관한 리포트 | 1시간 | 1일 | 15개월 | -| 클라우드 비용 관리 | Azure | 비용 내보내기 | 1시간 | 1일 | 15개월 | -| 클라우드 비용 관리 | Google 클라우드 | 세부 사용 비용 내보내기 | 1시간 | 1일 | 15개월 | -| Sensitive Data Scanner | 보안 시그널 | Datadog 클라우드 보안 정보와 이벤트 관리(SIEM) | 실시간 | 1 밀리초 | 15개월 | -| 설정 | 발견한 점 | Datadog 클라우드 보안 관리 설정 오류 | 리소스 유형에 따라 15분에서 4시간 | 1분 | 15개월 | -| CSM 위협 | 신호 | Datadog 클라우드 보안 관리 위협 | 실시간 | 1 밀리초 | 15개월 | -| Okta | 쿼리 메트릭 | Datadog 에이전트 + 활성화된 통합 | 10초 | 1초 | 3개월 | -| 데이터 보안 | 쿼리 샘플 | Datadog 에이전트 + 활성화된 통합 | 1분 | n/a | 15일 | -| Node.js | Node.js | 인시던트 데이터 | n/a | n/a | n/a | -| 인프라스트럭처 | 에이전트 통합 | Datadog 에이전트 + 활성화된 통합 | 15초 | 1초 | 15개월 | -| 인프라스트럭처 | 커스텀 메트릭 (에이전트 검사) | Datadog 에이전트 + 커스텀 에이전트 검사 | 15초 | 1초 | 15개월 | -| 인프라스트럭처 | 커스텀 메트릭 (API) | Datadog API에 직접 게시 | 실시간 | 1초 | 15개월 | -| 인프라스트럭처 | 커스텀 메트릭 (StatsD) | Datadog 에이전트 (기본 제공된 statsD 컬렉터) | 15초 | 1초 | 15개월 | -| 인프라스트럭처 | Python | Datadog 에이전트, 통합 또는 API | 실시간 | 1초 | 15개월 | -| 인프라스트럭처 | 실시간 컨테이너 | Datadog 에이전트 + 활성화된 도커 통합 또는 Datadog 컨테이너 에이전트 | 2초 | 1초 | 36시간 | -| 인프라스트럭처 | 실시간 프로세스 | Datadog 에이전트 + 프로세스 에이전트 | 2초 | 1초 | 36시간 | -| 분포 | 이벤트 | 시스템 프로브 | 30초 | 1분 | 14일 | -| 서비스 계정 | 시스템 메트릭 | Datadog 에이전트 | 15초 | 1초 | 15개월 | -| Google | Google | Datadog 에이전트 + 로그, 타사 로그 컬렉터 또는 API | 실시간 | 1 밀리초 | 계획 | -| 실제 사용자 모니터링 | Python | RUM SDK | 2분 | 60초 | 30일
보기, 오류, 사용자 작업 이벤트의 경우 지원 팀에 문의하여 90일까지 무료로 연장할 수 있습니다. | -| 트러블슈팅 | Python | RUM SDK | 실시간 | 1 밀리초 | 세션, 보기, 작업 및 오류 이벤트의 경우 30일
리소스 및 장기 작업 이벤트의 경우 15일. | -| Python | 세션 재생 | RUM SDK | 실시간 | 1 밀리초 | 30일 | -| 서비스 관리 | Go | 워크플로우 실행 | 사용자 설정 가능 | n/a | 워크플로우 인스턴스 입력 및 출력 데이터의 경우 30일 | -| 신서틱(Synthetic) 모니터링 | API 테스트 메트릭 | Datadog 신서틱(Synthetic) 모니터링 애플리케이션 | 사용자 정의 | 1분 | 15개월 | -| 신서틱(Synthetic) 모니터링 | API 테스트 결과 | Datadog 신서틱(Synthetic) 모니터링 애플리케이션 | 사용자 정의 | 1분 | 사용자가 UI에 표시한 결과: 15개월
사용자가 UI에 표시하지 않은 결과: 2개월 | -| Synthetic 모니터링 | 브라우저 테스트 메트릭 | Datadog 신서틱(Synthetic) 모니터링 애플리케이션 | 사용자 정의 | 5분 | 15개월 | -| Sensitive Data Scanner | 브라우저 테스트 결과 | Datadog 신서틱(Synthetic) 모니터링 애플리케이션 | 사용자 정의 | 5분 | 사용자가 UI에 표시한 결과: 15개월
사용자가 UI에 표시하지 않은 결과: 2개월 | -| Python | 일괄 처리 | Datadog 신서틱(Synthetic) 모니터링 애플리케이션 ([신서틱 트리거 API 엔드포인트][3] 또는 [신서틱(Synthetic) CI CLI][4]로의 호출을 통해) | [신서틱 트리거 API 엔드포인트][3] 또는 [신서틱(Synthetic) CI CLI][4]에 대한 호출에 따라 달라집니다. | n/a | 15일 | -| USM | RED 메트릭 | Datadog 에이전트 | 30초 | 30초 | 15개월 | +| 제품 카테고리 | 소스 | 수집 방법 | 수집 간격 | 최소한의 해결 | 기본 보존 | +|-------------------------------------|--------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------|------------------------------------------------------------------------------------------------|-----------------------|--------------------------------------------------------------------------------------------------------------------------------| +| APM | 오류 추적 | APM 스팬 (샘플링되지 않음) | 2분 | 60초 | 15일 | +| APM | 인덱싱된 스팬 (샘플링되지 않음) | Datadog 에이전트 + 트레이싱 라이브러리 | 10초 | 1 밀리초 | 계획 | +| APM | 프로파일 | Datadog 에이전트 + 트레이싱 라이브러리 | 60초 | 60초 | 7일 | +| APM | 프로필 메트릭 | Datadog 에이전트 + 트레이싱 라이브러리 | 60초 | 60초 | 1개월 | +| APM | 서비스/리소스 통계 및 스팬 요약 | Datadog 에이전트 + 트레이싱 라이브러리 | 10초 | 10초 | 30일 | +| APM | 트레이스 (샘플링됨) | Datadog 에이전트 + 트레이싱 라이브러리 | 10 초 | 1 밀리초 | 조회한 트레이스는 30일 동안 장기 보관됩니다. 자세한 내용을 확인하려면 [Trace Storage][1]를 참조하세요. | +| APM | 트레이스 메트릭 (샘플링 안됨) | Datadog 에이전트 + 트레이싱 라이브러리 | 10초 | 1초 | 15개월 | +| ASM | 의심스러운 요청 | Datadog 에이전트 + 트레이싱 라이브러리 | 10초 | 1 밀리초 | 90일. 15일 동안 기본 트레이스가 남아 있습니다. | +| CI Visibility | 테스트 스팬 | Datadog 에이전트 + 트레이싱 라이브러리 | 60초 | 1 밀리초 | 90일. 기본 플레임그래프는 30일 동안 보관됩니다. | +| CI Visibility | Flaky 테스트 | CI 가시성 테스트 스팬(span) | 데이터 소스 종속성 | 1 밀리초 | 테스트가 마지막으로 실패한 후 1개월 | +| CI Visibility | 파이프라인 스팬(span) | 웹훅, Datadog 에이전트 + 플러그인 | 데이터 소스 종속성 | 1 밀리초 | 15개월. 기본 플레임그래프는 30일 동안 보관됩니다. | +| 클라우드 | Alibaba | API 크롤러 | 10분 ([기본값][2]) | 1분 | 15개월 | +| 클라우드 | AWS | API 크롤러 | 10분 ([기본값][2]) | 1분 | 15개월 | +| 클라우드 | Azure | API 크롤러 | 2분 ([기본값][2]) | 1분 | 15개월 | +| 클라우드 | Google Cloud | API 크롤러 | 5분 ([기본값][2]) | 1분 | 15개월 | +| 클라우드 비용 관리 | AWS | 비용과 사용량에 관한 리포트 | 1시간 | 1일 | 15개월 | +| 클라우드 비용 관리 | Azure | 비용 내보내기 | 1시간 | 1일 | 15개월 | +| 클라우드 비용 관리 | Google Cloud | 세부 사용 비용 내보내기 | 1시간 | 1일 | 15개월 | +| 클라우드 SIEM | 보안 신호 | Datadog 클라우드 보안 정보와 이벤트 관리(SIEM) | 실시간 | 1 밀리초 | 15개월 | +| 클라우드 보안 관리 | 발견한 점 | Datadog 클라우드 보안 관리 설정 오류 | 리소스 유형에 따라 15분에서 4시간 | 1분 | 15개월 | +| CSM 위협 | 신호 | Datadog 클라우드 보안 관리 위협 | 실시간 | 1 밀리초 | 15개월 | +| 데이터베이스 모니터링 | 쿼리 메트릭 | Datadog 에이전트 + 활성화된 통합 | 10초 | 1초 | 3개월 | +| Okta | 쿼리 샘플 | Datadog 에이전트 + 활성화된 통합 | 1분 | n/a | 15일 | +| 인시던트 관리 | 인시던트 관리 | 인시던트 데이터 | n/a | n/a | n/a | +| 인프라스트럭처 | 에이전트 통합 | Datadog 에이전트 + 활성화된 통합 | 15초 | 1초 | 15개월 | +| 인프라스트럭처 | 커스텀 메트릭 (에이전트 검사) | Datadog 에이전트 + 커스텀 에이전트 검사 | 15초 | 1초 | 15개월 | +| 인프라스트럭처 | 커스텀 메트릭 (API) | Datadog API에 직접 게시 | 실시간 | 1초 | 15개월 | +| 인프라스트럭처 | 커스텀 메트릭 (StatsD) | Datadog 에이전트 (기본 제공된 statsD 컬렉터) | 15초 | 1초 | 15개월 | +| 인프라스트럭처 | 이벤트 | Datadog 에이전트, 통합 또는 API | 실시간 | 1초 | 15개월 | +| 인프라스트럭처 | 실시간 컨테이너 | Datadog 에이전트 + 활성화된 도커 통합 또는 Datadog 컨테이너 에이전트 | 2초 | 1초 | 36시간 | +| 인프라스트럭처 | 실시간 프로세스 | Datadog 에이전트 + 프로세스 에이전트 | 2초 | 1초 | 36시간 | +| 인프라스트럭처 | 네트워크 성능 모니터링 | 시스템 프로브 | 30초 | 1분 | 14일 | +| 분포 | 시스템 메트릭 | Datadog 에이전트 | 15초 | 1초 | 15개월 | +| 로그 | 로그 | Datadog 에이전트 + 로그, 타사 로그 컬렉터 또는 API | 실시간 | 1 밀리초 | 계획 | +| 실제 사용자 모니터링(RUM) | 오류 추적 | RUM SDK | 2분 | 60초 | 30일
보기, 오류, 사용자 작업 이벤트의 경우 지원 팀에 문의하여 90일까지 무료로 연장할 수 있습니다. | +| 실제 사용자 모니터링 | 실제 사용자 모니터링(RUM) | RUM SDK | 실시간 | 1 밀리초 | 세션, 보기, 작업 및 오류 이벤트의 경우 30일
리소스 및 장기 작업 이벤트의 경우 15일. | +| 트러블슈팅 | 세션 재생 | RUM SDK | 실시간 | 1 밀리초 | 30일 | +| 서비스 관리 | 워크플로 자동화 | 워크플로우 실행 | 사용자 설정 가능 | n/a | 워크플로우 인스턴스 입력 및 출력 데이터의 경우 30일 | +| 서비스 관리 | 서비스 수준 목표(SLO) | Datadog 모니터, Datadog 신서틱(Synthetic) 모니터링 또는 메트릭 (인프라스트럭처, APM 트레이스, 커스텀) | 데이터 소스 종속성 | 데이터 소스 종속성 | 모니터링 기반 SLO의 경우 3개월, 메트릭 기반 및 타임슬라이스 SLO의 경우 메트릭 보존 기간과 일치(기본값 15개월) | +| 소프트웨어 구성 분석(SCA) | GitHub 앱 | 소스 코드 | n/a | n/a | 15개월 | +| 신서틱(Synthetic) 모니터링 | API 테스트 메트릭 | Datadog 신서틱(Synthetic) 모니터링 애플리케이션 | 사용자 정의 | 1분 | 15개월 | +| Synthetic 모니터링 | API 테스트 결과 | Datadog 신서틱(Synthetic) 모니터링 애플리케이션 | 사용자 정의 | 1분 | 사용자가 UI에 표시한 결과: 15개월
사용자가 UI에 표시하지 않은 결과: 2개월 | +| Sensitive Data Scanner | 브라우저 테스트 메트릭 | Datadog 신서틱(Synthetic) 모니터링 애플리케이션 | 사용자 정의 | 5분 | 15개월 | +| Python | 브라우저 테스트 결과 | Datadog 신서틱(Synthetic) 모니터링 애플리케이션 | 사용자 정의 | 5분 | 사용자가 UI에 표시한 결과: 15개월
사용자가 UI에 표시하지 않은 결과: 2개월 | +| 합성 모니터링 | 일괄 처리 | Datadog 신서틱(Synthetic) 모니터링 애플리케이션 ([신서틱 트리거 API 엔드포인트][3] 또는 [신서틱(Synthetic) CI CLI][4]로의 호출을 통해) | [신서틱 트리거 API 엔드포인트][3] 또는 [신서틱(Synthetic) CI CLI][4]에 대한 호출에 따라 달라집니다. | n/a | 15일 | +| USM | RED 메트릭 | Datadog 에이전트 | 30초 | 30초 | 15개월 | [1]: /ko/tracing/guide/trace_sampling_and_storage/?tab=java#trace-storage [2]: /ko/integrations/guide/cloud-metric-delay/#faster-metrics diff --git a/content/ko/integrations/_index.md b/content/ko/integrations/_index.md index 8531ee5e356a6..f43c690086683 100644 --- a/content/ko/integrations/_index.md +++ b/content/ko/integrations/_index.md @@ -59,7 +59,7 @@ cascade: algolia: category: 설명서 rank: 60 - subcategory: 가이드 + subcategory: 통합 tags: - event viewer aliases: @@ -100,6 +100,23 @@ cascade: path: /integrations/feed.md aliases: - /integrations/rss/ +- _target: + path: /integrations/java.md + aliases: + - /agent/faq/jmx_integrations/ + - /agent/faq/docker-jmx/ +- _target: + path: /integrations/amazon_elb.md + aliases: + - /integrations/awselb +- _target: + path: /integrations/elastic.md + aliases: + - /integrations/awses +- _target: + path: /integrations/amazon_s3.md + aliases: + - /integrations/awss3 description: 모든 시스템, 앱, 서비스에서 데이터를 수집하세요. disable_sidebar: true kind: 설명서 diff --git a/content/ko/integrations/amazon_event_bridge.md b/content/ko/integrations/amazon_event_bridge.md index a07a61e3bca39..9be2adb7e046a 100644 --- a/content/ko/integrations/amazon_event_bridge.md +++ b/content/ko/integrations/amazon_event_bridge.md @@ -1,7 +1,7 @@ --- categories: - aws -- cloud +- 클라우드 - 알림 dependencies: [] description: 핵심 Amazon EventBridge 메트릭을 추적하세요. @@ -13,7 +13,7 @@ integration_id: '' integration_title: Amazon EventBridge integration_version: '' is_public: true -kind: integration +kind: 통합 manifest_version: '1.0' name: amazon_event_bridge public_title: Datadog-Amazon EventBridge 통합 @@ -22,6 +22,10 @@ version: '1.0' --- +{{< site-region region="gov" >}} +
정부 사이트용 Datadog는 Amazon EventBridge를 지원하지 않습니다.
+{{< /site-region >}} + ## 개요 Datadog와 Amazon EventBridge 통합은 다음 기능을 제공합니다. @@ -30,12 +34,13 @@ Datadog와 Amazon EventBridge 통합은 다음 기능을 제공합니다. - Datadog 알림 이벤트를 원하는 이벤트 버스로 전송합니다. - AWS 내에서 이벤트 버스에 트리거를 설정하여 Kinesis, 람다 등과 같은 서비스로 트리거를 설정하세요. - 알림 이벤트 내의 정보를 사용하여 자동 수정 파이프라인 및 런북을 실행하고, 분석 쿼리 등을 실행합니다. +- 본 통합은 GovCloud에서 지원되지 않습니다. -{{< img src="integrations/amazon_event_bridge/aws_event_bridge.png" alt="Amazon EventBridge" >}} +{{< img src="integrations/amazon_event_bridge/eventbridge_monitor_notification.png" alt="EventBridge로 전송되는 모니터링 알림" >}} ## 설정 -이미 하지 않은 경우 먼저 [Amazon Web Services 통합][1]을 설정하세요. +아직 설정하지 않은 경우 먼저 [Amazon Web Services 통합][1]을 설정하세요. ### 설치 @@ -44,7 +49,7 @@ Datadog와 Amazon EventBridge 통합은 다음 기능을 제공합니다. `events:CreateEventBus` 3. Amazon EventBridge 통합은 자동으로 기본 AWS 통합을 사용해 설치됩니다. -### 설정 +### 구성 `events:CreateEventBus` 및 `events:PutPartnerEvents` 권한이 있어야 이벤트 버스에 알림을 보낼 수 있습니다. 이 권한이 설정되어 있지 않은 경우 [Datadog IAM 권한 설명서][2]를 참조하여 설정 전에 권한을 활성화하세요. @@ -79,7 +84,7 @@ Amazon EventBridge 통합을 포함해 Datadog에서 모니터와 스냅샷에 {{< wistia uezo3fh61j >}} -## 수집한 데이터 +## 수집한 데이터 ### 메트릭 @@ -89,7 +94,7 @@ Amazon EventBridge 통합은 메트릭을 포함하지 않습니다. Amazon EventBridge 통합은 이벤트를 포함하지 않습니다. -### 서비스 검사 +### 서비스 점검 Amazon EventBridge 통합은 서비스 점검을 포함하지 않습니다. diff --git a/content/ko/integrations/guide/powered-down-azure-vm-on-infrastructure-list.md b/content/ko/integrations/guide/powered-down-azure-vm-on-infrastructure-list.md new file mode 100644 index 0000000000000..b494815c62b3d --- /dev/null +++ b/content/ko/integrations/guide/powered-down-azure-vm-on-infrastructure-list.md @@ -0,0 +1,25 @@ +--- +aliases: +- /ko/integrations/faq/my-Azure-vm-is-powered-down-why-is-it-still-listed-in-my-infrastructure-list +further_reading: +- link: /account_management/billing/azure/ + tag: FAQ + text: Azure 통합 요금 청구 +- link: /account_management/billing/azure/#azure-vm-exclusion + tag: 설명서 + text: 태그로 Azure VM 필터링 +kind: 가이드 +title: 인프라스트럭처 목록에서 Azure VM 전원 끄기 +--- + +Azure에서 VM의 전원을 꺼도 Azure 통합에서 해당 VM의 `azure.vm.status` 메트릭을 계속 수집합니다. 이 메트릭은 `status:running`, `status:not_running`, 또는 `status:unknown`로 태그됩니다. + +이는 의도된 동작이나, 이 때문에 인프라스트럭처 목록에 VM이 계속 남아있게 됩니다. VM이 이 메트릭만 보고할 경우에는 요금이 청구되는 호스트 수에 속하지 않습니다. 요금 청구와 관련한 자세한 내용은 Datadog [요금 청구 섹션][1]을 참고하세요. + +Azure VM을 제거하면 3시간 내에 인프라스트럭처 목록에서 제거됩니다. + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ko/account_management/billing/ \ No newline at end of file diff --git a/content/ko/logs/guide/azure-native-logging-guide.md b/content/ko/logs/guide/azure-native-logging-guide.md new file mode 100644 index 0000000000000..bd4bedcd2cff7 --- /dev/null +++ b/content/ko/logs/guide/azure-native-logging-guide.md @@ -0,0 +1,67 @@ +--- +further_reading: +- link: /logs/explorer/ + tag: 설명서 + text: 로그 탐색 방법 알아보기 +kind: 설명서 +title: Azure 로그를 Datadog 리소스로 전송 +--- + +{{< site-region region="us3" >}} + +## 개요 + +이 가이드를 사용해 [Azure의 Datadog 리소스]를 통해 Azure 구독에서 Datadog로 바로 로그를 관리할 수 있습니다. Azure 로그 세 가지 종류를 수집하고 관리할 수 있습니다. 아래 섹션에서 자세한 내용을 살펴보세요. + + - [활동 로그](#activity-logs) + - [Azure 리소스 로그](#azure-resource-logs) + - [Azure Active Directory(Azure AD) 로그](#azure-active-directory-azure-ad-logs) + +**참고**: Datadog US 3 사이트에 있는 Datadog 조직에서만 Azure의 Datadog 리소스를 사용할 수 있습니다. 다른 [Datadog 사이트][5]를 이용하는 경우 [Azure 로그를 Datadog로 전송][6] 가이드에 안내된 구성 옵션을 참고하세요. + +## 활동 로그 + +[컨트롤 플레인][1에서 리소스 작업에 관한 인사이트를 얻을 수 있습니다. 서비스 상태 이벤트 업데이트도 포함되어 있습니다. 활동 로그로 쓰기 작업(`PUT`, `POST`, `DELETE`)의 대상, 사용자, 시기를 결정할 수 있습니다. + +활동 로그를 Datadog으로 전송하려면 **구독 활동 로그 전송하기**를 선택하세요. 이 옵션을 선택해야 활동 로그가 Datadog로 전송됩니다. + +## Azure 리소스 로그 + +[데이터 플레인][1]을 통해 Azure 리소스 로그에서 운영 인사이트를 얻을 수 있습니다. 예를 들어 데이터 플레인을 사용해 키 볼트에서 비밀을 가져오거나 데이터베이스에 요청을 보낼 수 있습니다. 리소스 로그의 내용은 Azure 서비스 및 리소스 유형에 따라 달라집니다. + +Azure 리소스 로그를 Datadog으로 전송하려면 **Send Azure resource logs for all defined resources**를 선택하세요. [Azure 모니터링 리소스 로그 카테고리][2]에서 Azure 리소스 로그 유형의 전체 목록을 볼 수 있습니다. 이 옵션을 선택하면 연결된 구독에서 생성한 신규 리소스 전체를 포함해 모든 리소스 로그를 Datadog으로 전송합니다. + +옵션으로 Azure 리소스 태그를 사용하여 Datadog으로 로그를 전송하는 Azure 리소스 세트를 필터링할 수 있습니다. + +### 로그 전송 태그 규칙 + +- `include` 태그로 Datadog에 로그를 전송하는 Azure 리소스입니다. +- `include` 태그로 Datadog에 로그를 전송하지 않는 Azure 리소스입니다. +- 포함 규칙과 제외 규칙이 충돌하는 경우 제외 규칙이 우선 적용됩니다. + +예를 들어, 아래 스크린샷은 Datadog로 메트릭을 전송하는 가상 머신, 가상 머신 스케일 세트, `Datadog = True`로 태그된 앱 서비스 플랜만을 보여줍니다. + +{{< img src="integrations/azure/azure-us3-create-dd-resource3.png" alt="Azure US3에서 Datadog 리소스 로그 생성" responsive="true" style="width:90%;">}} + +## Azure Active Directory(Azure AD) 로그 + +Azure AD 로그에는 로그인 활동과 특정 테넌트용으로 Azure AD에 적용한 변경 사항의 감사 트레일 내역이 포함되어 있습니다. 이 로그를 Datdog로 보내려면 먼저 Datadog 리소스 생성 절차를 완료해야 합니다. Azure에 Datadog 리소스가 생기면 [Azure Portal 내 Datadog][3] 가이드에 안내된 설정 단계를 따르세요. + +[1]: https://docs.microsoft.com/en-us/azure/azure-resource-manager/management/control-plane-and-data-plane +[2]: https://docs.microsoft.com/en-us/azure/azure-monitor/essentials/resource-logs-categories +[3]: https://docs.datadoghq.com/ko/integrations/guide/azure-portal/#azure-active-directory-logs +[4]: https://portal.azure.com/#blade/HubsExtension/BrowseResource/resourceType/Microsoft.Datadog%2Fmonitors +[5]: /ko/getting_started/site/ +[6]: /ko/logs/guide/azure-logging-guide +[7]: https://learn.microsoft.com/en-us/azure/partner-solutions/datadog/ +{{< /site-region >}} + +{{< site-region region="us,eu,us5,gov,ap1" >}} + +
Datadog US3 사이트를 이용하는 조직에서만 Azure의 Datadog 리소스를 사용할 수 있습니다. 다른 Datadog 사이트를 이용하는 경우 Azure 로그를 Datadog로 전송가이드에 안내된 구성 옵션을 참고하세요. Datadog US 3 사이트를 이용하는 경우에는 이 페이지 우측에 있는 사이트 선택기를 변경하세요.
+ +{{< /site-region >}} + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/ko/logs/guide/custom-log-file-with-heightened-read-permissions.md b/content/ko/logs/guide/custom-log-file-with-heightened-read-permissions.md new file mode 100644 index 0000000000000..f8a44a5225d87 --- /dev/null +++ b/content/ko/logs/guide/custom-log-file-with-heightened-read-permissions.md @@ -0,0 +1,34 @@ +--- +aliases: +- /ko/logs/faq/i-have-a-custom-log-file-with-heightened-read-permissions +further_reading: +- link: /logs/log_collection/ + tag: 설명서 + text: 로그 수집 방법 알아보기 +- link: /logs/explorer/ + tag: 설명서 + text: 로그 탐색 방법 알아보기 +- link: /glossary/#tail + tag: 설정 + text: '"tail" 관련 용어 항목' +kind: guide +title: 상위 읽기 권한으로 커스텀 로그 파일에서 로그 전송하기 +--- + +*syslog*나 *journald*와 같은 시스템 로그 파일을 비롯한 일부 로그 파일에는 상위 읽기 권한이 필요합니다. Datadog 에이전트는 *sudo*나 *admin* 액세스가 없기 때문에 이와 같은 로그 파일을 수집하지 못합니다. + +이 문제를 해결하는 데에는 세 가지 방법이 있습니다. + +* (추천하지 않음) 에이전트에 루트 액세스를 부여해 해당 파일에 테일링을 할 수 있습니다. Datadog에서는 이 방법을 사용하는 것을 권고하지 않습니다. +* 에이전트가 접근할 수 있도록 파일 권한을 변경합니다. 에이전트에 디렉터리에서 실행 및 읽기 권한과 파일 읽기 권한을 부여합니다. 다음 명령을 사용해 이 권한을 부여할 수 있습니다(에이전트 사용자 외 다른 사용자도 사용 가능). + * chmod 755 `` + * chmod 644 `` +* 루트 액세스가 있는 오픈 소스 로그 관리 도구(예: Rsyslog, NXLog 등)를 구성해 해당 로그를 Datadog 플랫폼으로 바로 전송하거나 실행 중인 Datadog 에이전트로 로컬 전송합니다. 지침을 보려면 [Rsyslog][1], [Syslog-ng][2], [NXlog][3], [FluentD][4], 또는 [Logstash][5] 전용 설명서를 참고하세요. + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ko/integrations/rsyslog/ +[2]: /ko/integrations/syslog_ng/ +[3]: /ko/integrations/nxlog/ +[4]: /ko/integrations/fluentd/#log-collection +[5]: /ko/integrations/logstash/#log-collection \ No newline at end of file diff --git a/content/ko/monitors/_index.md b/content/ko/monitors/_index.md index 569b73bb729dd..9d19b9e56bae0 100644 --- a/content/ko/monitors/_index.md +++ b/content/ko/monitors/_index.md @@ -8,6 +8,10 @@ aliases: cascade: algolia: rank: 70 + tags: + - 알림 + - 경고 + - 모니터링 description: 모니터를 생성하고, 중요한 경우 팀에 알리고, 경고 플랫폼을 사용하여 모니터를 관리하세요. disable_sidebar: true further_reading: @@ -18,7 +22,7 @@ further_reading: tag: 블로그 text: '모니터링 101: 중요한 사항에 대한 경고' - link: /api/v1/monitors/ - tag: Documentation + tag: 설명서 text: Datadog 모니터 API - link: https://www.datadoghq.com/blog/datadog-github-deployment-protection-rules/ tag: 블로그 @@ -30,7 +34,7 @@ further_reading: tag: 블로그 text: AWS용 권장 모니터로 사전 설정된 알림을 활성화하세요 kind: 설명서 -title: 경고 +title: 모니터링 --- ## 개요 @@ -41,46 +45,51 @@ title: 경고 **참고**: [Apple App Store][2] 및 [Google Play Store][3]에서 사용할 수 있는 [Datadog Mobile App][1]을 사용하여 모바일 장치에서 모니터를 보고 검색하세요. -## 모니터 생성 +## 모니터링 생성 Datadog에서 모니터를 생성하려면 다음과 같이 하세요. -1. **Monitors** > **New Monitor**로 이동합니다. -2. 경고하려는 텔레메트리 종류에 해당하는 모니터 유형을 선택합니다. 전체 목록은 [모니터 유형][4]을 참조하세요. -3. [모니터 설정][5]: 메트릭, 이벤트, 로그, 통합 가용성, 네트워크 엔드포인트 등에 대해 경고합니다. +1. [**모니터링** > **신규 모니터링**][4]으로 이동합니다. +1. 경고하려는 텔레메트리 종류에 해당하는 모니터링 유형을 선택합니다. 전체 목록을 확인하려면 [모니터링 유형][5]을 참조하세요. +1. [모니터링 설정][6]: 메트릭, 이벤트, 로그, 통합 가용성, 네트워크 엔드포인트 등에 대해 경고합니다. {{< img src="/monitors/create.png" alt="모니터 생성" style="width:90%;">}} -프로그래밍 방식으로 모니터를 생성하려면 [Datadog API][6] 또는 [커뮤니티에서 관리하는 라이브러리][7]를 참조하세요. +프로그래밍 방식으로 모니터링을 생성하려면 [Datadog API][7] 또는 [커뮤니티 관리 라이브러리][8]를 참조하세요. ## 모니터 내보내기 및 가져오기 +모니터링을 내보내는 방법 +1. [**모니터링 관리**][9] 페이지에서 내보내려는 모니터링을 클릭합니다. +1. 모니터링 상태 페이지가 표시됩니다. +1. 설정 톱니바퀴(오른쪽 상단)를 클릭하고 메뉴에서 **내보내기**를 선택합니다. -모니터의 상태 페이지에서 모니터 정의가 포함된 JSON 파일을 다운로드할 수 있습니다. 설정 톱니바퀴(오른쪽 상단)를 클릭하고 메뉴에서 **Export**를 선택합니다. - -기본 탐색에서 *Monitors --> New Monitor --> Import*를 선택하여 Datadog으로 [JSON 모니터 정의를 가져옵니다][8]. +모니터링을 불러오는 방법 +1. [**모니터링** > **신규 모니터링**][4]으로 이동합니다. +1. 페이지 상단의 [**JSON에서 가져오기**][10]를 클릭합니다. +1. JSON 모니터링 정의를 추가하고 **저장**을 클릭합니다. ## 팀에 알리기 {{< img src="/monitors/notify.png" alt="모니터가 경고할 때 알리기" style="width:90%;">}} -[Monitor Notifications][9]: 모니터를 생성할 때 알림을 설정하여 팀에 문제를 알립니다. 올바른 사람에게 알림을 전달하고, 템플릿 변수를 활용하여 상세정보를 포함하고, 이메일 또는 Slack으로 경고를 보낼 때 스냅샷을 첨부합니다. 애플리케이션 점검 중에 경고를 음소거하려면 [다운타임][10]을 생성하세요. +[모니터링 알림][11]: 모니터링을 생성할 때 알림을 설정하여 팀에 문제를 알립니다. 적합한 팀원에게 알림을 전달하고, 템플릿 변수를 활용하여 상세정보를 포함합니다. 이메일 또는 Slack으로 경고를 보낼 때 스냅샷을 첨부합니다. 애플리케이션 점검 중에 경고를 음소거하려면 [다운타임][12]을 생성합니다. -## 모니터 관리 +## 모니터링 관리 {{< img src="/monitors/manage.png" alt="모든 모니터 경고 관리" style="width:90%;">}} -[Manage Monitors][11]: 모니터를 같은 위치에서 편집, 복제, 삭제, 음소거 및 해결합니다. 고급 패싯 검색을 사용하여 우선순위가 높은 알림에 집중합니다. Monitor Status 페이지에서 실시간으로 모니터 상세정보 및 경고를 탐색합니다. +[모니터링 관리][13]: 모니터링을 동일한 위치에서 편집, 복제, 삭제, 음소거 및 해결합니다. 고급 패싯 검색을 사용하여 우선순위가 높은 알림에 집중합니다. 모니터링 상태 페이지에서 실시간으로 모니터링 상세정보 및 경고를 탐색합니다. -## 태그 정책으로 모니터 태그 제어 +## 태그 정책으로 모니터링 태그 제어 -[모니터 태그 정책][12]은 Datadog 모니터의 태그 및 태그 값에 대한 데이터 유효성 검사를 시행합니다. 다음 규칙 중 하나를 추가하여 예기치 않은 태그가 있는 모니터가 생성되는 것을 방지하세요. +[모니터링 태그 정책][14]은 Datadog 모니터링의 태그 및 태그 값에 대한 데이터 유효성 검사를 시행합니다. 다음 규칙 중 하나를 추가하여 예기치 않은 태그가 있는 모니터링이 생성되는 것을 방지합니다. - 필수 값을 가진 태그가 필요한 경우 - 태그만 필요한 경우 - 필수 값을 가진 부수적인 태그 ## 모바일 장치에서 모니터 보기 및 검색 -[Mobile-Friendly Monitors on iOS and Android][12]: [Apple App Store][2] 및 [Google Play Store][3]에서 사용 가능한 [Datadog Mobile App][1]을 이용해 iOS 또는 Android 장치에서 모니터를 보기, 음소거 및 음소거 해제합니다. 실시간으로 모니터를 필터링하려면 검색창에 쿼리를 작성하세요. [Monitor Saved Views][13]를 사용하여 모바일에서 몇 번의 탭으로 모니터 모음에 액세스할 수도 있습니다. +[iOS 및 Android의 모바일 친화 모니터링][15]: [Apple App Store][2] 및 [Google Play Store][3]에서 사용 가능한 [Datadog Mobile App][1]을 이용해 iOS 또는 Android 장치에서 모니터링을 확인, 음소거 및 음소거 해제합니다. 실시간으로 모니터를 필터링하려면 검색창에 쿼리를 작성하세요. [저장된 모니터링 보기][16]를 사용하여 모바일에서 몇 번의 탭으로 모니터링 컬렉션에 접근할 수 있습니다. {{< img src="monitors/monitors_mobile.png" style="width:100%; background:none; border:none; box-shadow:none;" alt="Mobile App에서 모니터">}} @@ -99,14 +108,16 @@ Datadog에서 모니터를 생성하려면 다음과 같이 하세요. [1]: /ko/mobile [2]: https://apps.apple.com/app/datadog/id1391380318 [3]: https://play.google.com/store/apps/details?id=com.datadog.app -[4]: /ko/monitors/types/ -[5]: /ko/monitors/configuration -[6]: /ko/api/latest/monitors/ -[7]: /ko/developers/community/libraries/#managing-monitors -[8]: https://app.datadoghq.com/monitors#create/import -[9]: /ko/monitors/notify -[10]: /ko/monitors/downtimes -[11]: /ko/monitors/manage -[12]: /ko/monitors/settings/ -[13]: /ko/service_management/mobile/?tab=ios#monitors -[14]: /ko/monitors/manage/search/#saved-view \ No newline at end of file +[4]: https://app.datadoghq.com/monitors/create +[5]: /ko/monitors/types/ +[6]: /ko/monitors/configuration +[7]: /ko/api/latest/monitors/ +[8]: /ko/developers/community/libraries/#managing-monitors +[9]: https://app.datadoghq.com/monitors/manage +[10]: https://app.datadoghq.com/monitors/create/import +[11]: /ko/monitors/notify +[12]: /ko/monitors/downtimes +[13]: /ko/monitors/manage +[14]: /ko/monitors/settings/ +[15]: /ko/service_management/mobile/?tab=ios#monitors +[16]: /ko/monitors/manage/search/#saved-view \ No newline at end of file diff --git a/content/ko/opentelemetry/guide/otlp_histogram_heatmaps.md b/content/ko/opentelemetry/guide/otlp_histogram_heatmaps.md new file mode 100644 index 0000000000000..dfcd6415182b6 --- /dev/null +++ b/content/ko/opentelemetry/guide/otlp_histogram_heatmaps.md @@ -0,0 +1,96 @@ +--- +further_reading: +- link: /metrics/open_telemetry/otlp_metric_types + tag: 설명서 + text: 노트북 +- link: /opentelemetry/ + tag: 설명서 + text: Datadog의 OpenTelemetry 지원 +kind: guide +title: OTLP 히스토그램을 히트맵으로 시각화 +--- + +## 개요 + +OTLP(OpenTelemetry Protocol)는 OTLP 히스토그램 전송을 지원합니다. OTLP 히스토그램은 합계, 개수, 최솟값, 최댓값과 같은 집계 통계를 제공하여 측정 세트를 압축한 메트릭 유형입니다. 또한 이와 같은 측정 수치 중 사용자가 구성할 수 버킷에 해당하는 개수는 얼마나 되는지 측정합니다. + +이 데이터 유형은 Datadog에서 [히트맵][5]으로 시각화할 수 있습니다. 이 페이지의 다음 단계를 따르세요. + +**참고**: 관련 OTLP 지수 히스토그램 유형은 분산으로 전환되기 때문에 히트맵으로 표시할 수 있습니다. [전용 분산 페이지][4]에서 분산에 대해 자세히 알아보세요. + +## 설정 + +이 가이드에서는 [OpenTelemetry 메트릭을 Datadog로 전송하는 설정][1]이 되어 있다고 가정합니다. + +### OpenTelemetry SDK 구성 + +OpenTelemetry SDK로 메트릭을 생성중인 경우 다음 단계를 따라 구성하세요. + +1. [OTLP 히스토그램을 전송하는 SDK를 델타 시간성으로 구성][2]하세요. 이렇게 하면 히트맵 위젯에서 최솟값과 최댓값을 사용할 수 있습니다. +2. 내 집계에서 [기본 버킷 경계][3]를 재정의할 것인지 결정하세요. **참고**: 각 추가 버킷을 별도의 커스텀 메트릭으로 취급합니다. + +다른 소스에서 오는 메트릭의 경우 최솟값과 최댓값 필드가 설정된 OTLP 히스토그램 형식인지 확인해야 합니다. + +### Datadog Exporter 또는 Datadog 에이전트 구성 + +Datadog Exporter나 Datadog 에이전트에서 히스토그램 모드를 설정하고 집계 메트릭을 활성화하세요. + +{{< tabs >}} +{{% tab "Datadog Exporter(OpenTelemetry Collector)" %}} + +Datadog Exporter의 `collector.yaml` 파일에서 히스토그램 모드를 `counters`로 구성하고 `send_aggregation_metrics` 플래그로 집계 메트릭을 활성화하세요. + +```yaml +exporters: + datadog: + metrics: + histograms: + mode: counters + send_aggregation_metrics: true +``` + +**참고**: `send_aggregation_metrics`의 경우 Datadog Exporter v0.75.0부터 사용할 수 있습니다. 이전 버전을 사용 중일 경우에는 대신 `send_count_sum_metrics`을 사용하세요. 이전 버전에서는 최솟값과 최댓값이 누락되어 있습니다. + +{{% /tab %}} +{{% tab "Datadog 에이전트" %}} + +`otlp_config` 섹션에서 히스토그램 모드를 `counters`로 구성하고 `send_aggregation_metrics` 플래그로 집계 메트릭을 활성화하세요. + +```yaml +otlp_config: + metrics: + histograms: + mode: counters + send_aggregation_metrics: true +``` + +**참고**: `send_aggregation_metrics`의 경우 Datadog 에이전트 v6.45.0/v7.45.0부터 사용할 수 있습니다. 이전 버전을 사용 중일 경우에는 대신 `send_count_sum_metrics`을 사용하세요. 이전 버전에서는 최솟값과 최댓값이 누락되어 있습니다. + +{{% /tab %}} +{{< /tabs >}} + + +### 히트맵 위젯 구성 + +[히트맵 위젯][5]은 Datadog Exporter나 Datadg 에이전트에서 생성한 `.bucket` 메트릭 세트를 사용하며, 각 위젯이 다른 히스토그램 버킷을 나타냅니다. 히스토그램을 히트맵으로 시각화하려면 다음을 따르세요. + +1. `.bucket`를 시각화할 메트릭으로 선택하세요. +2. `distributions of` 메뉴에서 `pre-binned data`를 선택하세요. + +이제 OTLP 히스토그램을 히트맵 위젯에서 볼 수 있습니다. + +## OpenMetric 호환 + +[Datadog 에이전트 OpenMetrics 점검][6]은 사전 범주화 데이터 히트맵 위젯 옵션과도 호환됩니다. OpenTelemetry로 전환할 필요 없이 바로 OpenMetrics 점검으로 메트릭을 전송하고 싶을 경우 인스턴스에서 `collect_histogram_buckets`와 `non_cumulative_histogram_buckets` 플래그를 활성화하여 데이터가 호환 가능한 상태로 Datadog로 전송되도록 해야 합니다. + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + + +[1]: /ko/opentelemetry/otel_metrics +[2]: /ko/opentelemetry/guide/otlp_delta_temporality +[3]: https://opentelemetry.io/docs/reference/specification/metrics/sdk/#explicit-bucket-histogram-aggregation +[4]: /ko/metrics/distributions +[5]: /ko/dashboards/widgets/heatmap +[6]: /ko/integrations/openmetrics \ No newline at end of file diff --git a/content/ko/real_user_monitoring/guide/understanding-the-rum-event-hierarchy.md b/content/ko/real_user_monitoring/guide/understanding-the-rum-event-hierarchy.md new file mode 100644 index 0000000000000..42cfe4d891209 --- /dev/null +++ b/content/ko/real_user_monitoring/guide/understanding-the-rum-event-hierarchy.md @@ -0,0 +1,114 @@ +--- +further_reading: +- link: /real_user_monitoring/explorer/ + tag: 설명서 + text: RUM 탐색기에 대해 자세히 알아보기 +- link: /real_user_monitoring/ + tag: 설명서 + text: RUM 데이터 가시화에 대해 알아보기 +kind: 가이드 +title: RUM 이벤트 계층 이해 +--- + +## 개요 + +이 가이드에서는 RUM에서 수집하는 여러 [데이터 유형][1]을 알아보고 각 이벤트 유형의 계층을 설명합니다. + +{{< img src="real_user_monitoring/guide/understanding-rum-event-hierarchy/rum-session-hierarchy-overview.png" alt="RUM 이벤트 계층 다이어그램, 여러 보기를 포함하고 있는 단일 세션" style="width:50%;">}} + +## 세션 +RUM 데이터는 사용자 세션과 신서틱 세션을 모두 포함하고 있고, 이는 이벤트 계층에서 상위를 차지합니다. 세션이란 고유한 사용자 여정을 뜻하는데, 여기에는 사용자가 트리거한 모든 항목이 포함되어 있습니다(예: 확인한 페이지, 보기, 클릭, 스크롤, 오류). 세션은 연속 활동으로 네 시간까지 이어지거나 [15분 동안 활동이 없으면][2] 만료될 수 있습니다. 한 세션에 전체 여정이 모두 포함되어 있기 때문에 사용자에게 연결된 [속성][3] 전체가 해당 세션과 연결됩니다. 예를 들어 `action count`와 같은 기본 속성을 쿼리하고 싶을 경우 [사용자 속성][4]과 같은 커스텀 속성을 추가할 수 있습니다. + +#### 검색 예시: 사용자의 모든 세션 목록 보기 + +특정 사용자의 세션 목록 전체를 불러오고 싶으면 이벤트 유형 드롭다운에서 **Sessions**를 선택한 후 세션 상태와 사용자로 쿼리를 검색하세요. + +{{< img src="real_user_monitoring/guide/understanding-rum-event-hierarchy/rum-sample-search-all-session-user-1.png" alt="사용자 'Lee Davis'의 모든 세션 목록을 보여주는 검색 예시" style="width:80%;">}} + +각 세션에는 고유 `session.id`가 부여됩니다. + +## 보기 +세션에는 사용자가 애플리케이션에서 페이지(Browser RUM), 스크린, 또는 스크린 세그먼트(Mobile RUM)를 이동할 때마다 보기 이벤트가 생성됩니다. + +각 보기에서는 URL 텍스트와 같은 다양한 보기 전용 속성 및 데이터와 페이지 로드 타임과 같은 타이밍 메트릭을 수집합니다. 특정 보기를 쿼리할 때 디바이스, 운영 체제, 또는 사용자 정보와 같은 기본 수준 속성을 추가할 수 있습니다. 그러나 이벤트 전용 속성은 보기 전용이어야 합니다. 이벤트만 보려면 아래 이미지와 같이 이벤트 선택기를 조정하세요. + +{{< img src="real_user_monitoring/guide/understanding-rum-event-hierarchy/rum-switch-views.png" alt="RUM 보기" style="width:80%;">}} + +`session.id`와 마찬가지로 각 보기에는 고유한 `view.id`가 할당됩니다. + +### 활동, 오류, 리소스, 긴 작업 + +SDK는 보기 내에 동일한 계층 수준에 속하는 세부 이벤트를 생성합니다. 그러나 각 이벤트는 고유하며 서로 다른 속성과 특징을 가지고 있습니다. + +### 작업 + +활동이란 페이지에서 사용자가 한 활동을 뜻합니다. 브라우저에서는 모든 클릭 활동이 자동으로 수집됩니다. 모바일 환경에서는 탭, 밀기, 스크롤과 같은 활동이 수집됩니다. 이와 같은 기본 활동 외에도 서식 완성 및 비즈니스 거래와 같은 [커스텀 활동][5]도 전송할 수 있습니다. + +#### 검색 예시: 오류로 이어진 상위 활동 목록 + +이 예시에서는 사용자가 "카트에 추가" 버튼을 클릭하여 오류가 발생한 활동 모두를 검색하는 쿼리를 보여줍니다. + +{{< img src="real_user_monitoring/guide/understanding-rum-event-hierarchy/rum-actions-all-add-to-cart-1.png" alt="오류로 이어진 '카트에 추가' 활동을 보여주는 검색 예시" style="width:80%;">}} + +### Errors + +RUM을 사용해 사용자 세션 중 [프론트엔드 오류][6]를 수집할 수 있습니다. 기본적으로 브라우저 SDK에서는 처리하지 않은 예외나 콘솔 오류에 대해 오류 이벤트를 생성합니다. 또 RUM `addError` API로 커스텀 오류를 수집할 수 있습니다([브라우저][7]와 [모바일][8]에서 모두 사용 가능). 모바일 앱의 경우에는 오류가 세션 종료로 이어졌는지(크래시)도 확인할 수 있습니다. + +RUM과 Error Tracking 모두에서 오류를 확인할 수 있습니다. 소스 오류와 커스텀 오류는 Error Tracking에서 처리되고 콘솔 오류는 RUM에서만 처리됩니다. + +#### 검색 예시: 애플리케이션에서 발생한 크래시 목록 전체 보기 + +이 예시에서는 오류 이벤트 내에서 특정 애플리케이션의 "HomeViewController" 페이지에서 발생한 모든 크래시 목록을 띄우는 쿼리를 보여줍니다. + +{{< img src="real_user_monitoring/guide/understanding-rum-event-hierarchy/rum-sample-search-checkoutviewcontroller.png" alt="페이지에서 발생한 모든 크래시를 보여주는 검색 예시" style="width:80%;">}} + +### 리소스 +애플리케이션에서 네트워크 공급자로 보내는 외부 요청(예: XHR, JS 로딩, 이미지, 또는 글꼴)을 포함한 리소스도 보기에서 수집됩니다. 보기에서 수집되기 때문에 애플리케이션에서 로드되는 리소스 모두를 쿼리하거나 단일 보기에서 발생한 리소스로 범위를 좁혀서 쿼리할 수 있습니다. + +#### 검색 예시: `/cart` 보기에서 로딩된 모든 이미지 목록, 이미지 크기로 필터링됨 + +이 예시는 이벤트 유형 드롭다운에서 **Resources**를 선택한 후 카트 보기에서 로딩한 이미지 중 1000 킬로바이트 이상인 이미지 목록을 쿼리한 것입니다. + +{{< img src="real_user_monitoring/guide/understanding-rum-event-hierarchy/rum-resources.png" alt="카트 보기에서 로딩된 이미지 중 1000 킬로바이트 이상인 이미지 목록을 검색한 예시" style="width:80%;">}} + +### 긴 작업 +긴 작업이란 UI 스레드가 특정 시간 동안 차단된 작업을 뜻합니다. 예를 들어 모바일 환경에서 스크린이 300 밀리초 이상 차단되어 화면이 멈춘 경우 긴 작업이라고 합니다. + +#### 검색 예시: 500ms를 초과해 화면이 멈춘 긴 작업 전체 목록 + +이 예시에서는 이벤트 유형 드롭다운에서 **Long Tasks**를 선택한 후 시간을 지정했습니다. + +{{< img src="real_user_monitoring/guide/understanding-rum-event-hierarchy/rum-long-tasks.png" alt="500 밀리초를 초과해 화면이 멈춘 긴 작업 전체를 검색한 예시" style="width:80%;">}} + +## 트러블슈팅 + +### 쿼리를 썼는데도 아무런 데이터가 나타나지 않음 + +{{< img src="real_user_monitoring/guide/understanding-rum-event-hierarchy/rum-no-data-appears-3.png" alt="쿼리를 쓴 후 아무런 데이터가 나타나지 않는 예시" style="width:80%;">}} + +쿼리를 쓴 후 아무런 데이터가 나타나지 않는 경우 검색 창에 있는 내용과 이벤트 선택기가 일치하는지 확인하세요. 위 예시에서는 이벤트 선택기가 **views** 내에서 검색하도록 설정되어 있는데 검색 창에는 **action** 속성만 포함되어 있는 것을 확인할 수 있습니다. 활동 관련 데이터를 보려면 보기 선택기를 활동으로 바꿔야 합니다. 그래도 데이터가 보이지 않으면 시간대 선택기를 확인하여 데이터에 맞는 시간대를 선택했는지 확인하세요. + +{{< img src="real_user_monitoring/guide/understanding-rum-event-hierarchy/rum-data-now-appears.png" alt="보기와 시간대 선택기로 쿼리 업데이트하기 예시" style="width:80%;">}} + +### 다른 이벤트 유형과 중첩된 이벤트 유형 쿼리하기 + +특정 활동을 쿼리하고 싶을 경우 상위 이벤트 유형을 사용할 수 있으나 동일하거나 하위 수준에 있는 이벤트는 사용할 수 없습니다. 예를 들어 활동은 보기 아래에 중첩되어 있고 활동과 오류는 동일한 계층 체인입니다. 따라서 특정 페이지에서 발생한 모든 활동과 오류를 쿼리할 수 있으나 특정 오류 유형을 가진 활동을 쿼리할 수는 없습니다. + +#### 검색 예시: `/`에서 발생한 상위 활동 10개 + +이 검색 예시에서는 활동 이벤트 유형 내에서 상위 목록 보기 이름을 적용해 `/`(홈페이지)에서 발생한 상위 활동 10개를 보여줍니다. + +{{< img src="real_user_monitoring/guide/understanding-rum-event-hierarchy/rum-top-ten-actions.png" alt="홈페이지에서 발생한 상위 활동 10개를 보여주는 검색 예시" style="width:80%;">}} + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ko/real_user_monitoring/browser/data_collected +[2]: /ko/account_management/billing/rum/#when-does-a-session-expire +[3]: /ko/real_user_monitoring/browser/data_collected/#event-specific-metrics-and-attributes +[4]: /ko/real_user_monitoring/browser/data_collected/#user-attributes +[5]: /ko/real_user_monitoring/guide/send-rum-custom-actions/?tab=npm +[6]: /ko/real_user_monitoring/browser/collecting_browser_errors/?tab=npm +[7]: /ko/real_user_monitoring/browser/collecting_browser_errors/?tab=npm#collect-errors-manually +[8]: /ko/real_user_monitoring/mobile_and_tv_monitoring/advanced_configuration/ios/?tab=swift#custom-errors \ No newline at end of file diff --git a/content/ko/tracing/guide/alert_anomalies_p99_database.md b/content/ko/tracing/guide/alert_anomalies_p99_database.md index 38e985b1d41f2..6395a2771a53a 100644 --- a/content/ko/tracing/guide/alert_anomalies_p99_database.md +++ b/content/ko/tracing/guide/alert_anomalies_p99_database.md @@ -12,13 +12,13 @@ further_reading: - link: /tracing/guide/ tag: '' text: 모든 가이드 -kind: 가이드 +kind: 지침 title: 데이터베이스 서비스의 비정상 p99 대기 시간 경보 --- _완료하는 데 걸리는 시간 3분_ -{{< img src="tracing/guide/alert_anomalies_p99_database/alert_anomalies_full.mp4" video="true" alt="진행 중인 경보를 보여주는 모니터 보기" style="width:90%;">}} +{{< img src="tracing/guide/alert_anomalies_p99_database/alert_anomalies_cropped.mp4" video="true" alt="진행 중인 알람이 표시된 모니터링 보기" style="width:90%;">}} Datadog에서는 계속해서 직접 모니터링을 할 필요 없이 APM으로 서비스 상태를 점검하고 모니터링하도록 설정할 수 있습니다. 이 예시에서는 이상 징후 탐지 모니터를 살펴보겠습니다. [이상 징후 탐지][1]는 메트릭이 과거와 다르게 작동하는 것을 파악하도록 도와주는 알고리듬 기능입니다. 이상 징후를 탐지하는 데에는 계정 추세, 시즌별 요일 추세, 하루 시간별 패턴 등이 이용됩니다. 추세가 강하고 패턴이 반복되며 임계값 기반 경보만으로 모니터링이 어렵거나 불가능한 메트릭에 적합합니다. @@ -29,7 +29,7 @@ Datadog에서는 계속해서 직접 모니터링을 할 필요 없이 APM으로 [서비스][5]를 선택하고 나면 다음 단계 설정을 할 수 있게 되고 새 모니터가 추적하는 메트릭 성능이 페이지 상단에 나타납니다. - {{< img src="tracing/guide/alert_anomalies_p99_database/alert_anomalies_2.png" alt="진행 중인 경보를 보여주는 모니터 보기" style="width:90%;">}} + {{< img src="tracing/guide/alert_anomalies_p99_database/alert_anomalies_2_cropped.png" alt="진행 중인 알람이 표시된 모니터링 보기" style="width:90%;">}} 3. **Anomaly Alert**를 선택하고 *For* 옵션 아래에서 p99 latency를 선택합니다. @@ -54,7 +54,7 @@ Datadog에서는 계속해서 직접 모니터링을 할 필요 없이 APM으로 7. ***Edit* 탭에서 *Status* 탭으로 전환하세요**. - {{< img src="tracing/guide/alert_anomalies_p99_database/alert_anomalies_4.png" alt="진행 중인 경보를 보여주는 모니터 보기" style="width:90%;">}} + {{< img src="tracing/guide/alert_anomalies_p99_database/alert_anomalies_4_cropped.png" alt="진행 중인 알람이 표시된 모니터링 보기" style="width:90%;">}} 여기에서는 내 모니터의 현재 상태를 확인하고 음소거하거나 경보 트리거 세부 사항을 탐색할 수 있습니다. @@ -62,11 +62,11 @@ Datadog에서는 계속해서 직접 모니터링을 할 필요 없이 APM으로 여기에서 서비스에 설정된 다른 모니터와 설정 추천하는 모니터와 함께 **새 모니터를 볼 수 있습니다**. - {{< img src="tracing/guide/alert_anomalies_p99_database/alert_anomalies_5.png" alt="진행 중인 경보를 보여주는 모니터 보기" style="width:90%;">}} + {{< img src="tracing/guide/alert_anomalies_p99_database/alert_anomalies_5_cropped.png" alt="진행 중인 알람이 표시된 모니터링 보기" style="width:90%;">}} 모니터를 생성하면 포함할 서비스, 메트릭, 이벤트가 늘어나고 그에 설정할 조건도 더 복잡해 집니다. 각 모니터는 서비스와 연결되어 있고 Service 페이지와 [Service Map][9]에서 액세스할 수 있습니다. - {{< img src="tracing/guide/alert_anomalies_p99_database/alert_anomalies_6.png" alt="Service Map" style="width:90%;">}} + {{< img src="tracing/guide/alert_anomalies_p99_database/alert_anomalies_6_cropped.png" alt="서비스 맵" style="width:90%;">}} 맵에 있는 각 서비스에 있는 초록색 원은 각 모니터가 모두 조용하다는 뜻이고, 노란색은 모니터 1개 이상이 경고 상태이나 경보 상태는 아니라는 뜻이며, 빨간색은 모니터 1개 이상이 경보 상태라는 뜻이고, 회색은 서비스에 설정된 모니터가 없다는 뜻입니다.