diff --git a/content/es/account_management/scim/okta.md b/content/es/account_management/scim/okta.md index 94686242b90..4b8aa92fdcd 100644 --- a/content/es/account_management/scim/okta.md +++ b/content/es/account_management/scim/okta.md @@ -15,6 +15,10 @@ further_reading: title: Configurar SCIM con Okta --- +
+SCIM está disponible con los planes Infrastructure Pro e Infrastructure Enterprise. +
+ Consulta las siguientes instrucciones para sincronizar tus usuarios de Datadog con Okta mediante SCIM. Para conocer las capacidades y limitaciones de esta característica, consulta [SCIM][1]. @@ -60,10 +64,6 @@ Al utilizar SAML y SCIM conjuntamente, Datadog recomienda encarecidamente deshab ## Configurar el suministro automático de equipos -{{< callout url="/help/" header="false" >}} -La característica Managed Teams (Equipos gestionados) está desactivada de forma predeterminada. Ponte en contacto con el servicio de asistencia para solicitar acceso. -{{< /callout >}} - Con [Managed Teams][6] (Equipos gestionados), tú controlas el suministro principal de un equipo de Datadog (su nombre, identificador y miembros) a través del proveedor de identidad. El proceso de configuración difiere en función de si el equipo ya existe en Datadog. **Nota:** Los usuarios deben existir en Datadog antes de poder añadirlos a un equipo. Por lo tanto, debes asignar usuarios a la aplicación de Datadog en Okta para asegurarte de que se creen en Datadog a través de SCIM. Asigna la aplicación de Datadog a tu grupo de Okta para asegurarte de que todos los miembros del equipo se creen en Datadog automáticamente. @@ -105,7 +105,7 @@ Este procedimiento te permite gestionar la pertenencia de un equipo en Datadog e 1. En tu aplicación de Datadog en Okta, navega hasta la pestaña **Push Groups** (Enviar grupos). 1. Haz clic en el botón **Push Groups** (Enviar grupos). Se abre la interfaz de grupos enviados. -1. Selecciona el grupo de Okta que deseas desvincular de su equipo de Datadog. +1. Selecciona el grupo de Okta que deseas desvincular de tu equipo de Datadog. 1. En la columna **Match result & push action** (Resultado de coincidencia y acción de envío), selecciona la acción **Unlink Pushed Group** (Desvincular grupo enviado). Aparece un cuadro de diálogo. 1. Selecciona **Leave the group in the target app** (Dejar el grupo en la aplicación de destino). 1. Haz clic en **Unlink** (Desvincular). diff --git a/content/es/api/latest/cloud-network-monitoring/_index.md b/content/es/api/latest/cloud-network-monitoring/_index.md new file mode 100644 index 00000000000..959afd88c08 --- /dev/null +++ b/content/es/api/latest/cloud-network-monitoring/_index.md @@ -0,0 +1,3 @@ +--- +title: Cloud Network Monitoring +--- diff --git a/content/es/api/latest/observability-pipelines/_index.md b/content/es/api/latest/observability-pipelines/_index.md new file mode 100644 index 00000000000..02254e1454c --- /dev/null +++ b/content/es/api/latest/observability-pipelines/_index.md @@ -0,0 +1,3 @@ +--- +title: Observability Pipelines +--- diff --git a/content/es/database_monitoring/recommendations.md b/content/es/database_monitoring/recommendations.md index 293b71cde10..3c8d41c4cf1 100644 --- a/content/es/database_monitoring/recommendations.md +++ b/content/es/database_monitoring/recommendations.md @@ -26,8 +26,8 @@ Datadog analiza métricas y los datos de muestra de DBM para identificar los pro | **Alto número de filas** | La consulta devuelve un gran número de filas en su conjunto de resultados. | | | | | | | **Consulta de larga duración** | La consulta tiene duraciones que han superado un umbral de 30 segundos. | | | | | | | **Poco espacio en disco** | La instancia de base de datos se está quedando sin espacio en disco.

**Nota**: Solo disponible en Amazon RDS. | | | | | | -| **Índice faltante** | El plan de ejecución de la consulta realiza escaneos secuenciales costosos. Cuando se detecta, Datadog recomienda utilizar un índice para agilizar la consulta. | | | | | | -| **Índice no utilizado** | El índice no se ha utilizado recientemente en ningún plan de ejecución. | | | | | | +| **Índice faltante** | El plan de ejecución de la consulta realiza escaneos secuenciales costosos. Cuando se detecta, Datadog recomienda utilizar un índice para agilizar la consulta. | | | | | | +| **Índice no utilizado** | El índice no se ha utilizado recientemente en ningún plan de ejecución. | | | | | | ## Referencias adicionales diff --git a/content/es/getting_started/application_security/_index.md b/content/es/getting_started/application_security/_index.md deleted file mode 100644 index 43f8026465a..00000000000 --- a/content/es/getting_started/application_security/_index.md +++ /dev/null @@ -1,133 +0,0 @@ ---- -title: Empezando con la gestión de la seguridad de las aplicaciones -aliases: -- /es/security/security_monitoring/getting_started/ -further_reading: -- link: /security/application_security/terms - tag: Documentación - text: Términos y conceptos de seguridad de las aplicaciones -- link: /security/application_security/how-appsec-works - tag: Documentación - text: Cómo funciona la gestión de la seguridad de las aplicaciones -- link: /security/application_security/enabling/ - tag: Documentación - text: Activación de ASM -- link: "https://dtdg.co/fe" - tag: Habilitar los fundamentos - text: Participa en una sesión interactiva para mejorar tu seguridad y la detección de amenazas. -- link: /getting_started/application_security/software_composition_analysis - tag: Guía - text: Empezando con el análisis de composición de software -- link: "https://securitylabs.datadoghq.com/" - tag: Laboratorios de seguridad - text: Investigación sobre seguridad, informes, consejos y vídeos de Datadog ---- - -## Información general - -Datadog Application Security Management (ASM) ayuda a proteger tus aplicaciones web y API en producción. ASM proporciona visibilidad de las vulnerabilidades a nivel de aplicación en tus servicios y te protege en tiempo real de ataques y atacantes que pretenden explotar estas vulnerabilidades. - -Esta guía te mostrará las prácticas recomendadas para poner en marcha tu equipo con ASM. - -## Identifica servicios con riesgos para la seguridad - - -**Identifica servicios vulnerables o expuestos a ataques** que se beneficiarían de ASM. En la página [**Service Catalog > Security** (Catálogo de servicios > Seguridad),][1] visualiza y selecciona los servicios que desees habilitar. - -{{< img src="getting_started/appsec/ASM_activation_service_selection_v2.png" alt="Vista de la página de servicios ASM que muestra las vulnerabilidades clasificadas por la columna de solicitudes sospechosas." style="width:100%;" >}} -  - -Estas informaciones de seguridad se detectan a partir de los datos notificados por APM. Las informaciones ayudan a priorizar tus esfuerzos de seguridad. ASM identifica, prioriza y ayuda a remediar todos los riesgos de seguridad en tus servicios. - -**Nota**: Si no se informa de vulnerabilidades o solicitudes sospechosas, asegúrate de que tus servicios están utilizando una versión reciente de la biblioteca del rastreador de Datadog. En el [Catálogo de servicios de seguridad][2], abre el panel lateral de cualquier servicio y consulta su **Configuración de rastreo**. - - -{{< img src="getting_started/appsec/ASM_Tracing_Configuration.png" alt="Pestaña de configuración del rastreador en el catálogo de servicios APM que destaca la versión de Datadog Agent y la biblioteca del rastreador de Datadog que utilizan tus servicios." style="width:100%;" >}} - - -## Activar ASM - -### Activa ASM con las instrucciones de la aplicación - -En la [página de inicio de ASM,][18] sigue las instrucciones para empezar. Esto incluye: -- Selección guiada de servicios que se beneficiarían de ASM. -- Configuración de bibliotecas del rastreador de Datadog mediante una variable del entorno. -- Reinicio de tus servicios.
- -1. Haz clic en **Empezar con ASM**. -2. Selecciona **Iniciar** para detectar vulnerabilidades en bibliotecas de código abierto (Análisis de composición del software), encontrar y corregir vulnerabilidades a nivel de código (Seguridad de código), y encontrar y activar la detección de amenazas en tus servicios (Gestión de amenazas). -3. Sigue las instrucciones para empezar a utilizar ASM. - - {{< img src="getting_started/appsec/asm_sca_setup.png" alt="Página de configuración del Análisis de composición del software." style="width:100%;" >}} -  - - -### Activar ASM mediante configuración remota -#### Requisitos previos: -- Datadog Agent v7.42.0 o superior instalado en tus hosts o contenedores. -- Las versiones del rastreador de Datadog son [compatibles con la configuración remota][16]. - -#### Configura la configuración remota (si aún no está activada) - Sigue los pasos para activar la [configuración remota][17] en tu interfaz de usuario de Datadog. Esto incluye: - 1. Activa la función de configuración remota para tu organización. - 2. Añade la función de configuración remota a una clave API existente o crea una nueva. - 3. Actualiza la configuración de tu Datadog Agent para utilizar la clave API con capacidad de configuración remota. - - Si deseas más información, consulta [Parámetros de configuración remota][21]. - -### Prueba ASM -Una vez activado, ASM identifica inmediatamente las vulnerabilidades de las aplicaciones y detecta ataques y atacantes dirigidos a tus servicios. - -1. **Validar vulnerabilidades**: navega hasta [la pestaña Vulnerabilidades][14], clasifica y corrige las vulnerabilidades. -2. **Validar ataques**: envía patrones de ataque para activar una regla de prueba de detección. Desde tu terminal, ejecuta el siguiente script: - - {{< code-block lang="sh" >}} - for ((i=1;i<=250;i++)); do - # Dirígete a las rutas de servicios existentes - curl https://your-application-url/ -A - 'dd-test-scanner-log'; -  - # Dirígete a las rutas de servicios no existentes - curl https://your-application-url/ -A - 'dd-test-scanner-loguear'; - done{{< /code-block >}} - -3. Ve a [Explorador de señales de seguridad][6] para ver la señal que se genera al cabo de unos segundos. - -## Informes y notificaciones - -1. Configura [reglas de notificación][23] para recibir alertas a través de Slack, Jira, correo electrónico, etc. -3. Suscríbete a los informes semanales [compendio de amenazas][22] para iniciar la investigación y corrección de las amenazas a la seguridad más importantes descubiertas en los últimos siete días. - - -¿Te interesan las prácticas recomendadas para ir más allá? Consulta la [Guía de inicio rápido del producto][19]. - -## Leer más - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: https://app.datadoghq.com/services?&lens=Security -[2]: https://app.datadoghq.com/services?hostGroup=%2A&lens=Security -[3]: /security/application_security/threats/library_configuration/#configuring-a-client-ip-header -[4]: /security/application_security/how-appsec-works/ -[5]: /security/application_security/threats/add-user-info/ -[6]: https://app.datadoghq.com/security?query=%40workflow.rule.type%3A%22Application%20Security%22&column=time&order=desc&product=appsec&view=signal&viz=stream&start=1674824351640&end=1675429151640&paused=false -[7]: https://app.datadoghq.com/security/appsec -[8]: https://app.datadoghq.com/security/appsec/traces -[9]: /security/application_security/threats/library_configuration/#exclude-specific-parameters-from-triggering-detections -[10]: https://app.datadoghq.com/security/appsec/reports-configuration -[11]: https://app.datadoghq.com/security/configuration/notification-rules -[12]: /security/notifications/rules/ -[13]: /security/application_security/risk_management -[14]: https://app.datadoghq.com/security/appsec/vm?&group=vulnerability -[15]: https://docs.datadoghq.com/agent/guide/how_remote_config_works/?tab=configurationyamlfile#overview -[16]: https://docs.datadoghq.com/fr/security/application_security/enabling/compatibility/ -[17]: https://app.datadoghq.com/organization-settings/remote-config -[18]: https://app.datadoghq.com/security/appsec/landing -[19]: https://app.datadoghq.com/security/configuration/asm/onboarding -[20]: /getting_started/application_security/#setup-asm -[21]: /agent/remote_config?tab=configurationyamlfile#setup -[22]: https://app.datadoghq.com/security/configuration/reports -[23]: https://app.datadoghq.com/security/configuration/notification-rules - - diff --git a/content/es/getting_started/cloud_security_management/_index.md b/content/es/getting_started/cloud_security_management/_index.md deleted file mode 100644 index bb52ee71e70..00000000000 --- a/content/es/getting_started/cloud_security_management/_index.md +++ /dev/null @@ -1,89 +0,0 @@ ---- -further_reading: -- link: /security/cloud_security_management/ - tag: Documentación - text: Cloud Security Management -- link: /infraestructura/catálogo_de_recursos/esquema/ - tag: Documentación - text: Referencia del esquema de recursos en la nube -- link: https://www.datadoghq.com/blog/automate-end-to-end-processes-with-datadog-workflows/ - tag: Blog - text: Automatizar procesos integrales con flujos de trabajo de Datadog -- link: https://www.datadoghq.com/blog/csm-at-datadog/ - tag: Blog - text: Cómo utilizamos Datadog CSM para mejorar la seguridad en nuestra infraestructura - en la nube -- link: https://www.datadoghq.com/blog/detecting-leaked-credentials/ - tag: Blog - text: Cómo detectamos y notificamos a los usuarios la filtración de credenciales - de Datadog -- link: https://dtdg.co/fe - tag: Habilitar los fundamentos - text: Participar en una sesión interactiva para mejorar la seguridad y la detección - de amenazas -- link: https://securitylabs.datadoghq.com/ - tag: Laboratorios de seguridad - text: Investigación sobre seguridad, informes, consejos y vídeos de Datadog -title: Empezando con Cloud Security Management ---- - -## Información general - -[Datadog Cloud Security Management][1] (CSM) ofrece detección de amenazas en tiempo real y auditorías de configuración continuas en toda tu infraestructura en la nube. CSM incluye [Misconfigurations][2] y [Threats][3], funciones que se basan en datos de observabilidad. - -Esta guía te mostrará las prácticas recomendadas para poner en marcha tu equipo con CSM. - -## Fase 1: Despliegue - -1. Instala el [Datadog Agent (versión 7.46 o superior)][4]. -2. [Habilita CSM en tus recursos en la nube e infraestructura][5]: - - **Amenazas de CSM**: Kubernetes Docker y host. - - **Configuraciones erróneas de CSM**: AWS, Azure, GCP, Kubernetes e instrucciones Docker. - - **Riesgos de identidad de CSM**: Habilita la recopilación de recursos AWS y el reenvío de logs de Cloudtrail. - - **Vulnerabilidades de CSM**: Análisis de imágenes de contenedor e instrucciones de análisis de host en Kubernetes, instancias ECS EC2 e instalaciones basadas en host. -3. Consulta la [página de inicio de CSM][13] para obtener información general sobre los riesgos y amenazas de tu organización. -4. Echa un vistazo a las [más de 500 reglas de detección de Threats y Misconfigurations que vienen listas para utilizar][14]. -5. Consulta las [señales de seguridad][15] y revisa los [hallazgos de CSM Misconfigurations][16]. -6. Revisa y corrige los [riesgos de identidad][28] en la página [Riesgos de identidad][29]. -7. Puedes ver las vulnerabilidades de los contenedores en la página [Imágenes de contenedor][25] y una lista consolidada de vulnerabilidades en la página [Vulnerabilidad de la infraestructura][30]. -8. Configura [reglas de notificación][17] y recibe alertas mediante Slack, Jira, correo electrónico y más. - -## Fase 2: Personalización - -1. Configura [reglas de supresión de CSM Threats][18] para reducir el ruido. -2. Crea reglas de detección personalizadas para [CSM Misconfigurations][19] y [CSM Threats][20]. - -## Fase 3: Informes y dashboards - -1. Evalúa el estado de tu organización con los [informes de cumplimiento][21]. -2. Utiliza los dashboards que ya vienen preparados o [crea el tuyo][22] a fin de agilizar las investigaciones, la generación de informes y la monitorización. -3. Suscríbete a los informes semanales de [resumen de seguridad][31] para comenzar a investigar y corregir los problemas de seguridad más importantes que se han descubierto en los últimos siete días. - -## Leer más - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: /es/security/cloud_security_management/ -[2]: /es/security/cloud_security_management/misconfigurations/ -[3]: /es/security/threats/ -[4]: https://app.datadoghq.com/account/settings/agent/latest -[5]: /es/security/cloud_security_management/setup -[13]: https://app.datadoghq.com/security/csm -[14]: /es/security/default_rules/#cat-cloud-security-management -[15]: /es/security/cloud_security_management/misconfigurations/signals_explorer/ -[16]: /es/security/cloud_security_management/misconfigurations/findings/ -[17]: https://app.datadoghq.com/security/configuration/notification-rules -[18]: /es/security/cloud_security_management/guide/tuning-rules/ -[19]: /es/security/cloud_security_management/misconfigurations/custom_rules -[20]: /es/security/threats/agent_expressions -[21]: /es/security/cloud_security_management/misconfigurations/frameworks_and_benchmarks -[22]: /es/dashboards/#overview -[23]: /es/security/cloud_security_management/setup/csm_pro?tab=aws#configure-csm-for-container-vulnerabilities -[24]: /es/security/cloud_security_management/setup/csm_enterprise?tab=aws#configure-csm-for-vulnerabilities -[25]: https://app.datadoghq.com/containers/images -[26]: /es/integrations/amazon_web_services/?tab=roledelegation#cloud-security-posture-management -[27]: /es/integrations/amazon_cloudtrail/#send-logs-to-datadog -[28]: /es/security/cloud_security_management/identity_risks/ -[29]: https://app.datadoghq.com/security/identities -[30]: https://app.datadoghq.com/security/infra-vulnerability -[31]: https://app.datadoghq.com/security/configuration/reports \ No newline at end of file diff --git a/content/es/getting_started/cloud_siem/_index.md b/content/es/getting_started/security/cloud_siem.md similarity index 98% rename from content/es/getting_started/cloud_siem/_index.md rename to content/es/getting_started/security/cloud_siem.md index dde3b155e4b..7b54402c0ec 100644 --- a/content/es/getting_started/cloud_siem/_index.md +++ b/content/es/getting_started/security/cloud_siem.md @@ -7,6 +7,7 @@ aliases: - /es/security_platform/getting_started/ - /es/security_platform/cloud_siem/getting_started/ - /es/security/cloud_siem/getting_started/ +- /es/getting_started/cloud_siem further_reading: - link: https://learn.datadoghq.com/courses/intro-to-cloud-siem tag: Centro de aprendizaje @@ -32,8 +33,8 @@ further_reading: text: Más información sobre las variables de notificación para personalizar las notificaciones - link: https://dtdg.co/fe - tag: Habilitar los fundamentos - text: Participar en una sesión interactiva para mejorar la seguridad y la detección + tag: Habilitación de los fundamentos + text: Participar en una sesión interactiva para mejorar tu seguridad y la detección de amenazas - link: https://securitylabs.datadoghq.com/ tag: Laboratorios de seguridad @@ -114,7 +115,7 @@ Después de mover el índice a la primera posición, revisa la configuración y 1. Configura [reglas de supresión][23] para reducir el ruido. 2. Crea [reglas de detección personalizadas][24]. Lee las [prácticas recomendadas para crear reglas de detección][25]. -## Para leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/integrations/amazon_billing.md b/content/es/integrations/amazon_billing.md new file mode 100644 index 00000000000..0e93766d7da --- /dev/null +++ b/content/es/integrations/amazon_billing.md @@ -0,0 +1,132 @@ +--- +"app_id": "amazon-billing" +"app_uuid": "9409f423-8c1f-4a82-8632-1be74d52c028" +"assets": + "dashboards": + "aws_billing": "assets/dashboards/amazon_billing_overview.json" + "integration": + "auto_install": false + "events": + "creates_events": false + "metrics": + "check": + - "aws.billing.estimated_charges" + "metadata_path": "assets/metrics/metric-spec.yaml" + "prefix": "aws.billing" + "service_checks": + "metadata_path": "assets/service_checks.json" + "source_type_id": !!int "158" + "source_type_name": "Amazon Billing" +"author": + "homepage": "https://www.datadoghq.com" + "name": "Datadog" + "sales_email": "info@datadoghq.com" + "support_email": "help@datadoghq.com" +"categories": +- "aws" +- "metrics" +- "cloud" +- "cost management" +"custom_kind": "integración" +"dependencies": [] +"display_on_public_website": true +"draft": false +"git_integration_title": "amazon_billing" +"integration_id": "amazon-billing" +"integration_title": "AWS Billing and Cost Management" +"integration_version": "" +"is_public": true +"manifest_version": "2.0.0" +"name": "amazon_billing" +"public_title": "AWS Billing and Cost Management" +"short_description": "AWS Billing te permite hacer un seguimiento de tus predicciones y costes de facturación de AWS." +"supported_os": [] +"tile": + "changelog": "CHANGELOG.md" + "classifier_tags": + - "Category::AWS" + - "Category::Metrics" + - "Category::Cloud" + - "Category::Cost Management" + - "Offering::Integration" + "configuration": "README.md#Setup" + "description": "AWS Billing te permite hacer un seguimiento de tus predicciones y costes de facturación de AWS." + "media": [] + "overview": "README.md#Overview" + "support": "README.md#Support" + "title": "AWS Billing and Cost Management" +--- + + +## Información general + +AWS Billing and Cost Management muestra tus cargos estimados y métricas de presupuesto. + +Active esta integración para ver tus métricas de AWS Billing and Cost Management en Datadog. + +**Nota**: Esta integración requiere que el permiso `budgets:ViewBudget` esté completamente habilitado. Las métricas de facturación deben estar habilitadas en la consola de AWS. Para obtener más información sobre la configuración de AWS, consulta [la documentación de la integración de Amazon Web Services][1]. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración de Amazon Web Services][1]. + +### Recopilación de métricas + +1. En la [página de la integración de AWS][2], asegúrate de que `Billing` está activada en la pestaña `Metric Collection`. +2. Instala la [integración de Datadog y AWS Billing][3]. + +### Recopilación de logs + +#### Activar logging + +Configura AWS Billing para enviar logs a un bucket de S3 o a CloudWatch. + +**Nota**: Si vas a loguear en un bucket de S3, asegúrate de que `amazon_billing` está configurado como _Target prefix_ (Prefijo de destino). + +#### Enviar logs a Datadog + +1. Si aún no lo has hecho, configura la [función de Lambda de Datadog Forwarder][4]. +2. Una vez instalada la función de Lambda, añade manualmente un activador en el bucket de S3 o grupo de logs de CloudWatch que contenga tus logs de AWS Billing en la consola de AWS: + + - [Añadir un activador manual en el bucket de S3][5] + - [Añadir un activador manual en el grupo de logs de CloudWatch][6] + +## Monitorización del uso de CloudWatch + +Después de configurar tus permisos de AWS para añadir el permiso `budgets:ViewBudget`, puedes monitorizar la facturación de CloudWatch con esta integración. + +Las métricas de AWS Billing están disponibles aproximadamente una vez cada 4 horas. Es posible que tengas que esperar 4 horas para que Datadog recopile las métricas. + +Una vez que las métricas estén disponibles, consulta `aws.billing.estimated_charges` y `aws.billing.forecasted_charges`. Puedes utilizar estas métricas para realizar un seguimiento del uso de CloudWatch al filtrar el contexto hasta `service:amazoncloudwatch`. Puedes desglosar el gasto de cada cuenta de AWS mediante `max:account_id`. + +La métrica `aws.billing.estimated_charges` es lo que AWS cree que es la factura CloudWatch hasta el momento para el mes en curso. Este valor se pone en 0 al principio de cada mes. La métrica `aws.billing.forecasted_charges` es tu factura de CloudWatch estimada para final de mes basada en el consumo actual. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "amazon_billing" >}} + + +### Eventos + +La integración de AWS Billing and Cost Management no incluye ningún evento. + +### Checks de servicios + +La integración de AWS Billing and Cost Management no incluye ningún check de servicio. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8]. + +[1]: https://docs.datadoghq.com/integrations/amazon_web_services/ +[2]: https://app.datadoghq.com/integrations/amazon-web-services +[3]: https://app.datadoghq.com/integrations/amazon-billing +[4]: https://docs.datadoghq.com/logs/guide/forwarder/ +[5]: https://docs.datadoghq.com/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-s3-buckets +[6]: https://docs.datadoghq.com/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-cloudwatch-log-group +[7]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_billing/assets/metrics/metric-spec.yaml +[8]: https://docs.datadoghq.com/help/ + diff --git a/content/es/integrations/amazon_codewhisperer.md b/content/es/integrations/amazon_codewhisperer.md index 95b1b7f3b11..4e7942cb72c 100644 --- a/content/es/integrations/amazon_codewhisperer.md +++ b/content/es/integrations/amazon_codewhisperer.md @@ -11,7 +11,7 @@ assets: metrics: check: - aws.codewhisperer.invocations - metadata_path: metadata.csv + metadata_path: assets/metrics/metric-spec.yaml prefix: aws.codewhisperer. service_checks: metadata_path: assets/service_checks.json @@ -101,5 +101,5 @@ La integración de Amazon CodeWhisperer no incluye ningún check de servicio. [1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ [2]: https://app.datadoghq.com/integrations/amazon-web-services [3]: https://app.datadoghq.com/integrations/amazon-codewhisperer -[4]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_codewhisperer/metadata.csv +[4]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_codewhisperer/assets/metrics/metric-spec.yaml [5]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_es.md b/content/es/integrations/amazon_es.md new file mode 100644 index 00000000000..c151d2a53fa --- /dev/null +++ b/content/es/integrations/amazon_es.md @@ -0,0 +1,119 @@ +--- +"app_id": "amazon-es" +"app_uuid": "c00f4e38-7cc5-42ae-9ea1-519776f5f350" +"assets": + "dashboards": + "aws_es": "assets/dashboards/amazon_es_overview.json" + "integration": + "auto_install": false + "events": + "creates_events": false + "metrics": + "check": + - "aws.es.cpuutilization" + "metadata_path": "assets/metrics/metric-spec.yaml" + "prefix": "aws.es." + "service_checks": + "metadata_path": "assets/service_checks.json" + "source_type_id": !!int "148" + "source_type_name": "Amazon ES" +"author": + "homepage": "https://www.datadoghq.com" + "name": "Datadog" + "sales_email": "info@datadoghq.com" + "support_email": "help@datadoghq.com" +"categories": +- "aws" +- "metrics" +"custom_kind": "integración" +"dependencies": [] +"display_on_public_website": true +"draft": false +"git_integration_title": "amazon_es" +"integration_id": "amazon-es" +"integration_title": "Amazon OpenSearch Service" +"integration_version": "" +"is_public": true +"manifest_version": "2.0.0" +"name": "amazon_es" +"public_title": "Amazon OpenSearch Service" +"short_description": "Amazon OpenSearch Service facilita el despliegue y el funcionamiento de OpenSearch." +"supported_os": [] +"tile": + "changelog": "CHANGELOG.md" + "classifier_tags": + - "Category::AWS" + - "Category::Metrics" + - "Offering::Integration" + "configuration": "README.md#Setup" + "description": "Amazon OpenSearch Service facilita el despliegue y el funcionamiento de OpenSearch." + "media": [] + "overview": "README.md#Overview" + "support": "README.md#Support" + "title": "Amazon OpenSearch Service" +--- + + +## Información general + +Amazon OpenSearch Service es un servicio administrado que facilita el despliegue, el funcionamiento y el escalado de clústeres de OpenSearch en la nube de AWS. OpenSearch es un motor de análisis y búsqueda de código abierto para casos de uso como análisis de logs, monitorización de aplicaciones en tiempo real y análisis de secuencias de clics. + +Habilita esta integración para ver en Datadog todas tus etiquetas (tags) personalizadas de OpenSearch Service. Ten en cuenta que esta integración es para Amazon AWS OpenSearch Service y NO para una instancia independiente de Elasticsearch alojada fuera de Amazon AWS. (Para dichas instancias, utiliza en su lugar la [integración de Elasticsearch][1]). + +Nota: Esta integración requiere que los permisos 'es:ListTags', 'es:ListDomainNames' y 'es:DescribeElasticsearchDomains' estén totalmente habilitados. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura primero la [integración de Amazon Web Services][2]. + +### Recopilación de métricas + +1. En la [página de la integración de AWS][3], asegúrate de que `ES` está habilitado en la pestaña `Metric Collection`. +2. Instala la [integración de Datadog y Amazon OpenSearch Service][4]. + +### Recopilación de logs + +#### Activar logging + +Configura Amazon OpenSearch Service para enviar logs a un bucket de S3 o a CloudWatch. + +**Nota**: Si vas a loguear en un bucket de S3, asegúrate de que `amazon_elasticsearch` está configurado como _Target prefix_ (Prefijo de destino). + +#### Enviar logs a Datadog + +1. Si aún no lo has hecho, configura la [función de Lambda de Datadog Forwarder][5]. +2. Una vez instalada la función de Lambda, añade manualmente un activador en el bucket de S3 o en el grupo de logs de CloudWatch que contiene tus logs de Amazon Elasticsearch en la consola de AWS: + + - [Añadir un activador manual en el bucket de S3][6] + - [Añadir un activador manual en el grupo de logs de CloudWatch][7] + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "amazon_es" >}} + + +### Eventos + +La integración de Amazon OpenSearch Service no incluye ningún evento. + +### Checks de servicios + +La integración de Amazon OpenSearch Service no incluye ningún check de servicio. + +## Solucionar problemas + +¿Necesitas ayuda? [Consulta el servicio de asistencia de Datadog][9]. + +[1]: https://docs.datadoghq.com/integrations/elastic +[2]: https://docs.datadoghq.com/integrations/amazon_web_services/ +[3]: https://app.datadoghq.com/integrations/amazon-web-services +[4]: https://app.datadoghq.com/integrations/amazon-es +[5]: https://docs.datadoghq.com/logs/guide/forwarder/ +[6]: https://docs.datadoghq.com/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-s3-buckets +[7]: https://docs.datadoghq.com/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#manually-set-up-triggers +[8]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_es/assets/metrics/metric-spec.yaml +[9]: https://docs.datadoghq.com/help/ + diff --git a/content/es/integrations/amazon_event_bridge.md b/content/es/integrations/amazon_event_bridge.md index bcd93dc63d5..22ab1dd4592 100644 --- a/content/es/integrations/amazon_event_bridge.md +++ b/content/es/integrations/amazon_event_bridge.md @@ -3,7 +3,7 @@ categories: - AWS - nube - notificaciones -custom_kind: integration +custom_kind: integración dependencies: [] description: Un bus de eventos serverless que procesa eventos de servicios AWS, SaaS y tus aplicaciones casi en tiempo real. @@ -84,10 +84,6 @@ Configura nuevos canales de salida de notificaciones para monitores y snapshots La lista completa de los recursos que puedes elegir como destino está disponible en el [sitio web AWS][10]. -A continuación encontrarás un ejemplo de cómo enviar un snapshot para activar este proceso. Una vez activado, puedes especificar la recepción de acciones en AWS. - -{{< wistia uezo3fh61j >}} - ## Datos recopilados ### Métricas @@ -104,7 +100,7 @@ La integración Amazon EventBridge no incluye checks de servicios. ## Solucionar problemas -¿Necesitas ayuda? Contacta con el [equipo de asistencia de Datadog][11]. +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][11]. [1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ [2]: https://docs.datadoghq.com/es/api/latest/aws-integration/#create-an-amazon-eventbridge-source diff --git a/content/es/integrations/amazon_globalaccelerator.md b/content/es/integrations/amazon_globalaccelerator.md index 3b5a2def11c..7f141999c1e 100644 --- a/content/es/integrations/amazon_globalaccelerator.md +++ b/content/es/integrations/amazon_globalaccelerator.md @@ -9,7 +9,7 @@ assets: metrics: check: - aws.globalaccelerator.processed_bytes_in - metadata_path: metadata.csv + metadata_path: assets/metrics/metric-spec.yaml prefix: aws.globalaccelerator. service_checks: metadata_path: assets/service_checks.json @@ -96,5 +96,5 @@ AWS Global Accelerator no incluye ningún evento. [1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ [2]: https://app.datadoghq.com/integrations/amazon-web-services [3]: https://app.datadoghq.com/integrations/amazon-globalaccelerator -[4]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_globalaccelerator/metadata.csv +[4]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_globalaccelerator/assets/metrics/metric-spec.yaml [5]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_mediaconvert.md b/content/es/integrations/amazon_mediaconvert.md index 690a598fffc..da3c84dddd3 100644 --- a/content/es/integrations/amazon_mediaconvert.md +++ b/content/es/integrations/amazon_mediaconvert.md @@ -9,7 +9,7 @@ assets: metrics: check: - aws.mediaconvert.hdoutput_duration - metadata_path: metadata.csv + metadata_path: assets/metrics/metric-spec.yaml prefix: aws.mediaconvert. service_checks: metadata_path: assets/service_checks.json @@ -115,5 +115,5 @@ La integración de AWS Elemental MediaConvert no incluye ningún check de servic [4]: https://docs.datadoghq.com/es/logs/guide/forwarder/ [5]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-s3-buckets [6]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-cloudwatch-log-group -[7]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_mediaconvert/amazon_mediaconvert_metadata.csv +[7]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_mediaconvert/assets/metrics/metric-spec.yaml [8]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_medialive.md b/content/es/integrations/amazon_medialive.md index a22e31d3d3f..f2826c2beb6 100644 --- a/content/es/integrations/amazon_medialive.md +++ b/content/es/integrations/amazon_medialive.md @@ -9,7 +9,7 @@ assets: metrics: check: - aws.medialive.active_alerts - metadata_path: metadata.csv + metadata_path: assets/metrics/metric-spec.yaml prefix: aws.medialive. service_checks: metadata_path: assets/service_checks.json @@ -95,5 +95,5 @@ La integración de MediaLive no incluye ningún check de servicio. [1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ [2]: https://app.datadoghq.com/integrations/amazon-web-services [3]: https://app.datadoghq.com/integrations/amazon-medialive -[4]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_medialive/amazon_medialive_metadata.csv +[4]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_medialive/assets/metrics/metric-spec.yaml [5]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/amazon_network_monitor.md b/content/es/integrations/amazon_network_monitor.md index 52eee5f9d5b..5d5f7cd85f6 100644 --- a/content/es/integrations/amazon_network_monitor.md +++ b/content/es/integrations/amazon_network_monitor.md @@ -9,7 +9,7 @@ assets: metrics: check: - aws.networkmonitor.health_indicator - metadata_path: metadata.csv + metadata_path: assets/metrics/metric-spec.yaml prefix: aws.networkmonitor. service_checks: metadata_path: assets/service_checks.json @@ -101,6 +101,6 @@ Más enlaces, artículos y documentación útiles: [1]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ [2]: https://app.datadoghq.com/integrations/amazon-network-monitor -[3]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_network_monitor/metadata.csv +[3]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_network_monitor/assets/metrics/metric-spec.yaml [4]: https://docs.datadoghq.com/es/help/ [5]: https://www.datadoghq.com/blog/amazon-cloudwatch-network-monitor-datadog/ \ No newline at end of file diff --git a/content/es/integrations/amazon_privatelink.md b/content/es/integrations/amazon_privatelink.md index 6acfc4ddaa8..d09fc88ac04 100644 --- a/content/es/integrations/amazon_privatelink.md +++ b/content/es/integrations/amazon_privatelink.md @@ -11,7 +11,7 @@ assets: metrics: check: - aws.privatelinkendpoints.active_connections - metadata_path: metadata.csv + metadata_path: assets/metrics/metric-spec.yaml prefix: aws.privatelink service_checks: metadata_path: assets/service_checks.json @@ -111,6 +111,6 @@ Más enlaces, artículos y documentación útiles: [2]: https://docs.datadoghq.com/es/integrations/amazon_web_services/ [3]: https://app.datadoghq.com/integrations/amazon-web-services [4]: https://app.datadoghq.com/integrations/amazon-privatelink -[5]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_privatelink/amazon_privatelink_metadata.csv +[5]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_privatelink/assets/metrics/metric-spec.yaml [6]: https://docs.datadoghq.com/es/help/ [7]: https://www.datadoghq.com/architecture/connect-to-datadog-over-aws-privatelink/ \ No newline at end of file diff --git a/content/es/integrations/embrace_mobile.md b/content/es/integrations/embrace_mobile.md index e17504a029c..930e9148922 100644 --- a/content/es/integrations/embrace_mobile.md +++ b/content/es/integrations/embrace_mobile.md @@ -33,7 +33,7 @@ categories: - métricas - mobile - la red -custom_kind: integration +custom_kind: integración dependencies: - https://github.com/DataDog/integrations-extras/blob/master/embrace_mobile/README.md display_on_public_website: true @@ -58,23 +58,14 @@ tile: - Categoría::Metricas - Categoría::Móvil - Categoría::Red - - Oferta::Extensión de la interfaz de usuario - - Sistema operativo compatible::Linux - - Sistema operativo compatible::Windows - - Sistema operativo compatible::macOS + - Offering::Integration + - Tipo de datos enviados::Métricas + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS configuration: README.md#Configuración description: Observabilidad móvil para iOS, Android, React Native y Unity media: - - caption: Monitoriza los datos de fallos y de red de Embrace directamente desde - Datadog añadiendo widgets. - image_url: images/datadog_dashboard.jpg - media_type: imagen - - caption: Investiga los fallos accediendo a las trazas (traces) de stack tecnológico - de cada sesión de usuario afectada, junto con los detalles de la aplicación - y la sesión. Para obtener más contexto, navega directamente a la repetición - completa de una sesión de usuario en Embrace. - image_url: images/datadog_side_panel.jpg - media_type: imagen - caption: Las repeticiones de sesiones de usuarios de Embrace proporcionan todos los detalles técnicos y de comportamiento de cada sesión de usuario en una visualización basada en el tiempo. Identifica al instante la causa original, sin tener que @@ -98,7 +89,7 @@ tile: title: Embrace móvil --- - + ## Información general @@ -116,12 +107,10 @@ los detalles completos de cada sesión de usuario afectada, sin tener que reprod 1. Inicia una prueba gratuita y sigue la [documentación de Embrace][2]. **Antes de ver métricas en Datadog, necesitas seguir esta documentación.** 1. Una vez finalizada la configuración de la integración Embrace, vuelve a Datadog para conectar ambas plataformas. 1. Autentícate y conecta tu cuenta de Embrace a Datadog iniciando sesión con tus credenciales. -1. Crea un nuevo dashboard en Datadog. Selecciona el widget de Embrace para visualizar los datos de Embrace con métricas de fallos o de red. -1. Haz clic en "Details" (Detalles) para profundizar en Embrace desde Datadog. -## Asistencia +## Ayuda -¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][3]. +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][3]. [1]: https://embrace.io [2]: https://embrace.io/docs/ diff --git a/content/es/integrations/guide/azure-status-metric.md b/content/es/integrations/guide/azure-status-metric.md deleted file mode 100644 index b8498c77c89..00000000000 --- a/content/es/integrations/guide/azure-status-metric.md +++ /dev/null @@ -1,80 +0,0 @@ ---- -aliases: -- /es/integrations/faq/azure-vm-status-is-not-reporting -- /es/integrations/faq/azure-status-metric -title: Métricas de recuento y estado de Azure ---- - -## Información general - -Datadog genera dos métricas adicionales para cada recurso monitorizado con la [integración de Azure][1]: `azure.*.status` y `azure.*.count`. Por ejemplo, las máquinas virtuales de Azure monitorizadas por Datadog reportan `azure.vm.status` y `azure.vm.count`. Estas dos métricas cubren información similar. - -La métrica `azure.*.count` es una mejora con respecto a `azure.*.status`, que está obsoleta. - -## Métrica de recuento - -La métrica `azure.*.count` proporciona dos datos fundamentales: - -- La cantidad de recursos de ese tipo. -- El estado de cada recurso según Azure. - -La métrica `azure.*.count` se crea en el mismo espacio de nombres que las demás métricas para ese tipo de recurso, por ejemplo: `azure.network_loadbalancers.count`. Incluye las mismas etiquetas (tags) de metadatos que las demás métricas en ese espacio de nombres, además de una etiqueta adicional para `status`. - -### Casos de uso - -Usa la métrica `azure.*.count` para: - -- Crear una vista de la cantidad de máquinas virtuales desglosadas por su estado a lo largo del tiempo al graficar `azure.vm.count` sobre todo y sumar por `status`. -- Crear widgets de consulta en los dashboards para mostrar la cantidad de un tipo de recurso determinado. Usa las etiquetas disponibles para delimitar el recuento a una agregación relevante, como región, grupo de recursos, tipo o estado. -- Crear monitores para recibir alertas sobre el estado de diferentes recursos de Azure. - -**Nota**: En algunos casos, la configuración de visualización predeterminada puede hacer que parezca que los recursos se cuentan dos veces de manera intermitente en gráficos o widgets de consulta. Esto no afecta a los monitores o widgets que tienen un estado específico. -Puedes reducir este efecto al desactivar la [interpolación][2] en gráficos o widgets de consulta mediante la opción Interpolation > none (Interpolación > ninguna) o el uso de `.fill(null)`. - -Para la mayoría de los tipos de recursos, los posibles estados son: - -- Running (En ejecución) -- Unavailable (No disponible) -- Unknown (Desconocido) -- Degraded (Degradado) -- Failed (Fallido) - -Las máquinas virtuales tienen estados más detallados, incluido: - -- Running (En ejecución) -- Stopped_deallocated -- Stopped (Detenido) -- Unknown (Desconocido) -- Unavailable (No disponible) -- Degraded (Degradado) -- Failed (Fallido) - -Si ves el estado `query_failed`, debes habilitar el [proveedor de Resource Health](#troubleshooting) en Azure. - -## Métrica de estado - -La métrica `azure.*.status` es la solución anterior para este mismo tipo de información. Brinda informa sobre la cantidad de recursos disponibles para cada tipo de recurso de Azure. - -### Diferencias - -Las diferencias clave entre las métricas `.status` y `.count`: - -- `azure.*.count` incluye todos los recursos que existen en la cuenta de Azure, mientras que `azure.*.status` solo informa la cantidad de recursos disponibles. -- `azure.*.count` incluye una etiqueta `status`, que informa el estado de disponibilidad específico del recurso, mientras que `azure.*.status` solo incluye las etiquetas estándar para el tipo de recurso. -- `azure.*.count` incluye mejoras en la precisión y fiabilidad del valor de la métrica. - -## Solucionar problemas - -Si tu integración de Azure informa métricas pero no `azure.*.status`, o `azure.*.count` devuelve `status:query_failed`, tu suscripción de Azure debe registrar el proveedor de Azure Resource Health. - -Uso de la interfaz de línea de comandos de Azure: -```bash -azure login # Inicia sesión en el usuario de Azure asociado con tu cuenta de Datadog -azure config mode arm -azure provider register Microsoft.ResourceHealth -``` - -La métrica `azure.*.status` se debería mostrar en Datadog dentro de 5 a 10 minutos. - -[1]: /es/integrations/azure/ -[2]: /es/metrics/guide/interpolation-the-fill-modifier-explained/ \ No newline at end of file diff --git a/content/es/logs/error_tracking/default_grouping.md b/content/es/logs/error_tracking/default_grouping.md deleted file mode 100644 index cd35cefe558..00000000000 --- a/content/es/logs/error_tracking/default_grouping.md +++ /dev/null @@ -1,6 +0,0 @@ ---- -description: Comprender cómo se agrupan los errores en incidencias. -title: Agrupación predeterminada ---- - -{{< include-markdown "error_tracking/error_grouping" >}} \ No newline at end of file diff --git a/content/es/metrics/nested_queries.md b/content/es/metrics/nested_queries.md index 4326fd5d6ca..e7522eccc10 100644 --- a/content/es/metrics/nested_queries.md +++ b/content/es/metrics/nested_queries.md @@ -8,10 +8,6 @@ title: Consultas anidadas ## Información general -{{< callout url="#" btn_hidden="true" header="Únete a la vista previa">}} - Esta función está en vista previa. Para activar esta función, ponte en contacto con el asesor de clientes. -{{< /callout >}} - Por defecto, toda consulta de métrica en Datadog consta de dos capas de agregación. Las consultas anidadas permiten reutilizar los resultados de una consulta anterior en otra posterior. {{< img src="metrics/nested_queries/nested-queries-example-video.mp4" alt="Cómo configurar las consultas anidadas en la interfaz de usuario" video=true style="width:100%" >}} diff --git a/content/es/real_user_monitoring/error_tracking/custom_grouping.md b/content/es/real_user_monitoring/error_tracking/custom_grouping.md deleted file mode 100644 index 39152f054ac..00000000000 --- a/content/es/real_user_monitoring/error_tracking/custom_grouping.md +++ /dev/null @@ -1,6 +0,0 @@ ---- -description: Personaliza cómo se agrupan los tramos (spans) con errores en incidencias. -title: Agrupación personalizada ---- - -{{< include-markdown "error_tracking/error_grouping" >}} \ No newline at end of file diff --git a/content/es/real_user_monitoring/error_tracking/default_grouping.md b/content/es/real_user_monitoring/error_tracking/default_grouping.md deleted file mode 100644 index b846b372cad..00000000000 --- a/content/es/real_user_monitoring/error_tracking/default_grouping.md +++ /dev/null @@ -1,6 +0,0 @@ ---- -description: Entiende cómo se agrupan los errores en problemas. -title: Agrupación por defecto ---- - -{{< include-markdown "error_tracking/error_grouping" >}} \ No newline at end of file diff --git a/content/es/tracing/error_tracking/custom_grouping.md b/content/es/tracing/error_tracking/custom_grouping.md deleted file mode 100644 index f5d630e2a31..00000000000 --- a/content/es/tracing/error_tracking/custom_grouping.md +++ /dev/null @@ -1,6 +0,0 @@ ---- -description: Personaliza cómo se agrupan los tramos (spans) de errores en problemas. -title: Agrupación personalizada ---- - -{{< include-markdown "error_tracking/error_grouping" >}} \ No newline at end of file diff --git a/content/es/tracing/error_tracking/default_grouping.md b/content/es/tracing/error_tracking/default_grouping.md deleted file mode 100644 index 01bd5db3154..00000000000 --- a/content/es/tracing/error_tracking/default_grouping.md +++ /dev/null @@ -1,6 +0,0 @@ ---- -description: Comprenda cómo se agrupan los errores en problemas. -title: Agrupación por defecto ---- - -{{< include-markdown "error_tracking/error_grouping" >}} \ No newline at end of file diff --git a/content/fr/api/latest/observability-pipelines/_index.md b/content/fr/api/latest/observability-pipelines/_index.md new file mode 100644 index 00000000000..02254e1454c --- /dev/null +++ b/content/fr/api/latest/observability-pipelines/_index.md @@ -0,0 +1,3 @@ +--- +title: Observability Pipelines +--- diff --git a/content/fr/error_tracking/custom_grouping.md b/content/fr/error_tracking/custom_grouping.md deleted file mode 100644 index 4055314454c..00000000000 --- a/content/fr/error_tracking/custom_grouping.md +++ /dev/null @@ -1,320 +0,0 @@ ---- -description: Personnalisez la façon dont les spans d'erreurs sont regroupés en questions. -title: Regroupement personnalisé ---- - -## Section Overview - -La solution Error Tracking regroupe intelligemment les erreurs similaires en problèmes à l'aide d'une [stratégie par défaut][5]. En utilisant les _empreintes personnalisées_, vous pouvez avoir un contrôle total sur vos décisions en matière de regroupement et personnaliser son comportement pour vos spans d'erreurs. - -Vous pouvez personnaliser le regroupement en fournissant une empreinte `error.fingerprint` pour l'erreur. L'empreinte est fournie dans un attribut ou un tag, en fonction de la source de l'erreur (consultez la section [Configuration](#configuration) pour en savoir plus). Bien que la valeur de `error.fingerprint` n'ait pas de prérequis en matière de format ni d'exigence, le contenu doit être une chaîne. - -Si `error.fingerprint` est fourni, le regroupement suit les règles suivantes : - -* Le regroupement personnalisé a la priorité sur la stratégie par défaut. -* Le regroupement personnalisé peut être appliqué uniquement à un sous-ensemble de vos erreurs et peut coexister avec la stratégie par défaut. -* Le contenu de `error.fingerprint` est utilisé tel quel, sans aucune modification. -* Les erreurs provenant du même service et ayant le même attribut `error.fingerprint` sont regroupées dans le même problème. -* Les erreurs présentant différents attributs `service` sont regroupées en différents problèmes. - -## Configuration - -### APM -Le regroupement personnalisé ne nécessite qu'un span d'erreur et un tag de span de chaîne `error.fingerprint`. - -Si vous ne collectez pas déjà des traces APM avec Datadog, consultez la [documentation relative à l'APM][1] pour configurer l'APM. - -#### Exemple - -Si vous envoyez déjà des spans d'APM, ajoutez un nouveau tag `error.fingerprint` à votre span d'erreur. - -Voici un exemple dans Python : - -```python -with tracer.trace("throws.an.error") as span: - span.set_tag('error.fingerprint', 'my-custom-grouping-material') - raise Exception("Something went wrong") -``` - -Les informations relatives à l'exception sont capturées et attachées à un span s'il y en a un d'actif au moment où l'exception est soulevée. -Dans ce cas, `my-custom-grouping-material` est utilisé pour regrouper ces spans d'erreurs en un seul problème -dans Error Tracking. - -### Log Management -Le regroupement personnalisé ne nécessite qu'un log d'erreur et un attribut de chaîne `error.fingerprint`. - -Si vous ne collectez pas déjà des logs avec Datadog, consultez la [documentation relative à Log Management][1] pour configurer des logs. - -Assurez-vous que le tag `source` (spécifiant la langue) est correctement configuré. - -#### Exemple - -Si vous journalisez déjà au format JSON, ajoutez un nouvel attribut `error.fingerprint` à votre log d'erreur. - -Voici un exemple de log au format JSON dans Python : - -```python -import logging -import json_log_formatter - -formatter = json_log_formatter.JSONFormatter() - -json_handler = logging.FileHandler(filename='/var/log/my-log.json') -json_handler.setFormatter(formatter) - -logger = logging.getLogger('my_json') -logger.addHandler(json_handler) -logger.setLevel(logging.INFO) - -logger.error('Error processing request', extra={'error.fingerprint': 'my-custom-grouping-material'}) -``` - -Dans ce cas, `my-custom-grouping-material` est utilisé pour regrouper ces logs d'erreurs en un seul problème -dans Error Tracking. - -#### Exemple mobile - -Dans les SDK mobiles de Datadog, vous pouvez ajouter une empreinte d'erreur personnalisée lors de l'enregistrement d'une erreur en ajoutant -un attribut prédéfini à l'appel de log : - -{{< tabs >}} -{{% tab "iOS" %}} -Pour utiliser le regroupement personnalisé, vous devez disposer du SDK Datadog iOS `2.8.1` ou d'une version plus récente. - -```swift -let errorFingerprint = "my-custom-grouping-material" -logger.error( - "My error message", - error: error, - attributes: [ - Logs.Attributes.errorFingerprint: errorFingerprint - ] -) -``` -{{% /tab %}} - -{{% tab "Android" %}} -Pour utiliser le regroupement personnalisé, vous devez disposer du SDK Datadog Android `2.7.0` ou d'une version plus récente. - -```kotlin -val errorFingerprint = "my-custom-grouping-material" -val attributes = mapOf(LogAttributes.ERROR_FINGERPRINT to errorFingerprint) -logger.e("My error message", error, attributes) -``` -{{% /tab %}} - -{{% tab "Flutter" %}} -Pour utiliser le regroupement personnalisé, vous devez disposer du SDK Datadog Flutter `2.4.0` ou d'une version plus récente. - -```dart -final errorFingerprint = "my-custom-grouping-material"; -logger.error( - 'My error message', - errorStackTrace: st, - attributes { - DatadogAttributes.errorFingerprint: "my-custom-grouping-material", - } -); -``` -{{% /tab %}} -{{< /tabs >}} - -Vous pouvez également ajouter ou ajuster l'empreinte dans le mappeur de log : - -{{< tabs >}} -{{% tab "iOS" %}} -Pour utiliser le regroupement personnalisé, vous devez disposer du SDK Datadog iOS `2.8.1` ou d'une version plus récente. - -```swift -let logsConfiguration = Logs.Configuration( - eventMapper: { log in - var log = log - log.error?.fingerprint = "my-custom-grouping-material" - return log - } -) -Logs.enable( - with: logsConfiguration -) -``` -{{% /tab %}} - -{{% tab "Android" %}} -Pour utiliser le regroupement personnalisé, vous devez disposer du SDK Datadog Android `2.7.0` ou d'une version plus récente. - -```kotlin -val mapper = object : EventMapper { - override fun map(event: LogEvent): LogEvent { - event.fingerprint = "my-custom-grouping-material" - return event - } -} -val logsConfiguration = LogsConfiguration.Builder() - .setEventMapper(mapper) - .build() -Logs.enable(logsConfiguration) -``` -{{% /tab %}} - -{{% tab "Flutter" %}} -Pour utiliser le regroupement personnalisé, vous devez disposer du SDK Datadog Flutter `2.4.0` ou d'une version plus récente. - -```dart -LogEvent? mapLogEvent(LogEvent event) { - event.error?.fingerprint = "my-custom-grouping-material"; - return event; -} - -final loggingConfiguration = DatadogLoggingConfiguration( - eventMapper: mapLogEvent, -); - -final configuration = DatadogConfiguration( - // ... - loggingConfiguration: loggingConfiguration, -); -``` -{{% /tab %}} -{{< /tabs >}} - -### RUM - -#### Exemple -Si vous ne collectez pas déjà des événements du RUM Browser avec Datadog, consultez la [documentation relative à la configuration de la surveillance du RUM Browser][3] ou la [documentation relative à la configuration de la surveillance de TV et RUM Mobile][4]. - -{{< tabs >}} -{{% tab "Browser" %}} -Pour utiliser le regroupement personnalisé, vous avez besoin du SDK Browser Datadog [v4.42.0 ou ultérieur][2], d'une [erreur du RUM Browser][1] et d'un attribut de chaîne supplémentaire. - -Si vous êtes déjà en train de [collecter les erreurs du navigateur][1], il est possible d'ajouter l'attribut en utilisant l'une ou l'autre des méthodes suivantes : - -* Ajouter un attribut `dd_fingerprint` à l'objet error : - -```javascript -import { datadogRum } from '@datadog/browser-rum'; -// Send a custom error with context -const error = new Error('Something went wrong'); -error.dd_fingerprint = 'my-custom-grouping-fingerprint' -datadogRum.addError(error); -``` - -* Ou utiliser le rappel `beforeSend` avec un attribut `error.fingerprint` : - -```javascript -DD_RUM.init({ - ... - beforeSend: () => { - if (event.type === 'error') { - event.error.fingerprint = 'my-custom-grouping-fingerprint' - } - }, -}) -``` - -Dans les deux cas, `my-custom-grouping-material` est utilisé pour regrouper les erreurs du RUM Browser en une seule question dans Error Tracking. - -[1]: /fr/real_user_monitoring/browser/collecting_browser_errors/ -[2]: https://github.com/DataDog/browser-sdk/releases/tag/v4.42.0 -{{% /tab %}} - -{{% tab "iOS" %}} -Pour utiliser le regroupement personnalisé, vous devez disposer du SDK Datadog iOS `2.8.1` ou d'une version plus récente. - -Pour ajouter une empreinte personnalisée lorsque vous signalez manuellement des erreurs, vous pouvez ajouter un attribut prédéfini lorsque vous appelez `addError` : - -```swift -RUMMonitor.shared().addError( - message: "My error message", - source: .source, - attributes: [ - RUM.Attributes.errorFingerprint: "my-custom-grouping-fingerprint" - ] -) -``` - -Vous pouvez également utiliser le mappeur `errorEventMapper` : - -```swift -var config = RUM.Configuration(applicationID: "rum-application-id") -config.errorEventMapper = { errorEvent in - var errorEvent = errorEvent - errorEvent.error.fingerprint = "my-custom-grouping-fingerprint" - return errorEvent -} -RUM.enable(with: config) -``` - -{{% /tab %}} - -{{% tab "Android" %}} -Pour utiliser le regroupement personnalisé, vous devez disposer du SDK Datadog Android `2.7.0` ou d'une version plus récente. - -Pour ajouter une empreinte personnalisée lorsque vous signalez manuellement des erreurs, vous pouvez ajouter un attribut prédéfini lorsque vous appelez `addError` : - -```kotlin -GlobalRumMonitor.get().addError( - "My error message", - RumErrorSource.SOURCE, - exception, - mapOf( - RumAttributes.ERROR_CUSTOM_FINGERPRINT to "my-custom-grouping-fingerprint" - ) -) -``` - -Vous pouvez également utiliser le mappeur `errorEventMapper` : - -```kotlin -val rumConfiguration = RumConfiguration.Builder("rum-application-id") - .setErrorEventMapper(object : EventMapper { - override fun map(event: ErrorEvent): ErrorEvent { - event.error.fingerprint = "my-custom-grouping-fingerprint" - return event - } - }).build() -RUM.enable(rumConfiguration) -``` - -{{% /tab %}} - -{{% tab "Flutter" %}} -Pour utiliser le regroupement personnalisé, vous devez disposer du SDK Datadog Flutter `2.4.0` ou d'une version plus récente. - -Pour ajouter une empreinte personnalisée lorsque vous signalez manuellement des erreurs, vous pouvez ajouter un attribut prédéfini lorsque vous appelez `addError` : - -```dart -final rum = DatadogSdk.instance.rum; -rum?.addErrorInfo("My error message", - RumErrorSource.source, - attributes: { - DatadogAttributes.errorFingerprint: 'my-custom-grouping-fingerprint', - }, -); -``` - -Vous pouvez également utiliser le mappeur `errorEventMapper` : - -```dart -RumErrorEvent? mapRumErrorEvent(RumErrorEvent event) { - event.error.fingerprint = "my-custom-grouping-fingerprint"; - return event; -} - -final rumConfiguration = DatadogRumConfiguration( - // ... - errorEventMapper: mapRumErrorEvent, -); - -final configuration = DatadogConfiguration( - // ... - rumConfiguration: rumConfiguration, -); -``` -{{% /tab %}} -{{< /tabs >}} - -[1]: /fr/tracing/ -[2]: /fr/logs/log_collection/ -[3]: /fr/real_user_monitoring/browser/ -[4]: /fr/real_user_monitoring/mobile_and_tv_monitoring/#get-started -[5]: /fr/error_tracking/default_grouping \ No newline at end of file diff --git a/content/fr/integrations/guide/azure-status-metric.md b/content/fr/integrations/guide/azure-status-metric.md deleted file mode 100644 index ba7ee2c98f6..00000000000 --- a/content/fr/integrations/guide/azure-status-metric.md +++ /dev/null @@ -1,80 +0,0 @@ ---- -aliases: -- /fr/integrations/faq/azure-vm-status-is-not-reporting -- /fr/integrations/faq/azure-status-metric - -title: Métrique count et status Azure ---- - -## Présentation - -Datadog génère deux métriques supplémentaires pour chaque ressource surveillée à l'aide de [l'intégration Azure][1] : `azure.*.status` et `azure.*.count`. Par exemple, les machines virtuelles Azure surveillées par Datadog génèrent les métriques `azure.vm.status` et `azure.vm.count`. Ces deux métriques transmettent des informations similaires. - -La métrique `azure.*.count` est une version améliorée de la métrique `azure.*.status`, qui est désormais obsolète. - -## Métrique count - -La métrique `azure.*.count` transmet deux informations essentielles : - -- Le nombre de ressources du type en question -- Le statut de chaque ressource transmis par Azure - -La métrique `azure.*.count` est créée dans le même espace de nommage que les autres métriques de ce type de ressource, par exemple `azure.network_loadbalancers.count`. Elle inclut les mêmes les tags de métadonnées que les autres métriques de cet espace de nommage, ainsi qu'un tag `status` supplémentaire. - -### Cas d'utilisation - -Grâce à la métrique `azure.*.count`, vous pouvez accomplir ce qui suit : - -- Créez une vue qui affiche le nombre de machines virtuelles réparties selon l'évolution de leur statut, en représentant `azure.vm.count` sur l'ensemble des données et en ajoutant le tag `status`. -- Créez des widgets de requête dans des dashboards pour afficher le nombre de ressources d'un type donné. Utilisez tous les tags disponibles, notamment la région, le groupe de ressources, le type ou le statut, pour visualiser uniquement une agrégation pertinente. -- Créez des monitors pour recevoir des alertes à propos du statut de différentes ressources Azure. - -**Remarque** : dans certains cas, les paramètres de visualisation par défaut peuvent ponctuellement sembler comptabiliser deux fois les ressources dans les graphiques ou les widgets de requête. Cela n'affecte pas les monitors ou les widgets filtrés sur un statut spécifique. Vous pouvez limiter ce comportement en désactivant l'[interpolation][2] dans les graphiques ou les widgets de requête. Pour ce faire, définissez l'interpolation sur « none » avec `.fill(null)`. - -La plupart des types de ressources peuvent posséder l'un des statuts suivants : - -- Running -- Unavailable -- Unknown -- Degraded -- Failed - -Les machines virtuelles possèdent des statuts plus détaillés. En voici quelques exemples : - -- Running -- Stopped_deallocated -- Stopped -- Unknown -- Unavailable -- Degraded -- Failed - -Si le statut `query_failed` s'affiche, vous devez activer le [fournisseur de ressources Health](#depannage) dans Azure. - -## Métrique status - -La métrique `azure.*.status` était auparavant utilisée pour transmettre les mêmes informations. Elle indique le nombre de ressources disponibles pour chaque type de ressource Azure. - -### Différences - -Voici les principales différences entre les métriques `.status` et `.count` : - -- La métrique `azure.*.count` inclut toutes les ressources du compte Azure, tandis que la métrique `azure.*.status` porte uniquement sur le nombre de ressources disponibles. -- La métrique `azure.*.count` inclut un tag `status` qui indique le statut de disponibilité spécifique de la ressource, tandis que la métrique `azure.*.status` inclut uniquement les tags standard pour le type de ressource. -- La métrique `azure.*.count` fournit de façon plus précise et fiable la valeur de la métrique. - -## Dépannage - -Si votre intégration Azure transmet des métriques, mais n'inclut pas la métrique `azure.*.status`, ou si le statut de la métrique `azure.*.count` est `status:query_failed`, cela signifie que vous devez enregistrer le fournisseur de ressources Azure Health dans votre abonnement Azure. - -Si vous utilisez l'interface de ligne de commande Azure : -```bash -azure login # Se connecter avec l'utilisateur Azure associé au compte Datadog -azure config mode arm -azure provider register Microsoft.ResourceHealth -``` - -La métrique `azure.*.status` devrait s'afficher dans Datadog après 5 à 10 minutes d'attente. - -[1]: /fr/integrations/azure/ -[2]: /fr/metrics/guide/interpolation-the-fill-modifier-explained/ \ No newline at end of file diff --git a/content/ja/account_management/scim/_index.md b/content/ja/account_management/scim/_index.md index 94312c60a2e..40c2aaf687b 100644 --- a/content/ja/account_management/scim/_index.md +++ b/content/ja/account_management/scim/_index.md @@ -31,8 +31,6 @@ SCIM (System for Cross-domain Identity Management) は、ユーザープロビ - Datadog へのシングルサインオン (推奨) - Managed Teams: IdP のグループから Datadog チームを作成し、Datadog チームのメンバーシップを IdP のグループメンバーシップと同期させます。 -**注:** Managed Teams を使用するには、Okta IdP を利用し、[サポート][8]に機能のアクセスをリクエストする必要があります。 - Datadog では、Microsoft Entra ID と Okta アイデンティティプロバイダーを使用した SCIM がサポートされています。SCIM を構成するには、お使いの IdP のドキュメントを参照してください。 - [Microsoft Entra ID][2] - [Okta][3] diff --git a/content/ja/actions/connections/_index.md b/content/ja/actions/connections/_index.md new file mode 100644 index 00000000000..bab37399341 --- /dev/null +++ b/content/ja/actions/connections/_index.md @@ -0,0 +1,220 @@ +--- +aliases: +- /ja/workflows/connections +- /ja/workflows/setup +- /ja/service_management/workflows/connections +- /ja/service_management/app_builder/connections +description: アクション用コネクション +disable_toc: false +further_reading: +- link: /getting_started/workflow_automation/ + tag: ドキュメント + text: Workflow Automation を始める +- link: /service_management/app_builder/ + tag: ドキュメント + text: App Builder ドキュメント +title: 接続 +--- + +{{< site-region region="gov" >}} +
選択された Datadog サイト ({{< region-param key="dd_site_name" >}}) では、Workflow Automation と App Builder はサポートされていません。
+{{< /site-region >}} + +アクションは外部のソフトウェアシステムと連携するため、対応するインテグレーションで Datadog アカウントを認証する必要がある場合があります。認証が必要なすべてのアクションが Datadog アカウントの ID を検証できて初めて、アプリやワークフローは正常に実行されます。Datadog に権限を付与する際は、セキュリティのベストプラクティスに従い、アプリまたはワークフローの実行に必要な権限のみを付与していることを確認してください。 + +アクションの認証方法は次の 2 種類があります: +- インテグレーションタイルで設定された認証情報と権限 +- コネクション認証情報 + +## インテグレーションタイル認証情報 + +以下の Datadog インテグレーションタイルで設定した認証情報とアカウント認証は、自動的にワークフローやアプリ内の対応するアクションに反映されます: + +- GitHub +- Jira +- Microsoft Teams +- Opsgenie +- PagerDuty +- Slack +- Statuspage + +[Datadog Integrations][6] の手順に従ってインテグレーションタイルを設定してください。 + +上記に必要なインテグレーションがない場合は、コネクション認証情報を設定してください。 + +## コネクション認証情報 + +コネクションは、インストール済みのインテグレーションを拡張してワークフローのステップ認証を制御できるようにします。[汎用アクション][8]や、インテグレーションタイルで認証が提供されていないアクションを認証するには、コネクション認証情報を使用してください。インテグレーションタイルで認証を行うインテグレーション一覧については、[インテグレーションタイル認証情報](#integration-tile-credentials)を参照してください。コネクション認証情報は、Workflow Automation と App Builder の両方でのみ使用できます。 + +コネクションは次のようなユースケースをサポートします: +- 必要なインテグレーションが組み込みの接続として提供されていない場合 +- カスタムアクションを認証したい場合 (例: HTTP アクションで独自のサービスを利用する) +- インテグレーションがサポートしていない権限 (AWS の書き込み権限など) が必要な場合 +- 特定のワークフローなどに対するアクセスを制限する、きめ細かなアクセス制御が必要な場合 + +### コネクションのセキュリティに関する考慮事項 + +コネクションを作成する前に、そのタスクの実行に必要な権限を考慮し、そのタスクを満たすために必要な最小限の権限のみを付与してください。また、このコネクションは実際に使う必要があるユーザーのみに制限するようにしてください。 + +可能であれば、ワークフローやアプリごとにきめ細かなコネクションを使用することをおすすめします。たとえば、Amazon S3 バケットに書き込むワークフローと、Amazon EC2 インスタンスを終了させるアプリがある場合、同じコネクションを両方で使わずに、スコープを制限した IAM ロールに対応する 2 つのコネクションをそれぞれ作成してください。 + +## コネクションを扱う + +### コネクションを閲覧する + +1. [Workflow Automation ページ][2]または [App Builder ページ][14]で **Connections** タブをクリックします。するとコネクションの一覧が表示されます。 +1. 一覧の各行をクリックすると、そのコネクションの詳細を閲覧できます。 + +### コネクションを作成する + +コネクションを作成するには、次の情報が必要です: +- 何に接続するか (例: 製品名、URL) +- どのように認証するか (例: API キー、ユーザー名/パスワード、OAuth) + +コネクションを作成する手順: +1. [Workflow Automation ページ][2]または [App Builder ページ][14]で **Connections** タブをクリックし、コネクションの一覧を開きます。 +1. 右上の **New Connection** ボタンをクリックすると、**New Connection** ダイアログボックスが表示されます。 +1. アイコンをクリックして、インテグレーションのスキーマを選択します。 +1. 必要なフィールドに入力します。
今後、コネクションをコネクショングループに追加する予定がある場合は、1 つ以上の[識別子タグ](#connection-identifier-tags)を追加してください。
+1. **Create** をクリックします。 + +または、ワークフローやアプリのページからコネクションを追加することも可能です: + + +{{< tabs >}} +{{% tab "Workflow Automation" %}} +1. [Workflow Automation 一覧][1]に移動します。 +1. 認証情報を追加する必要があるアクションを含むワークフローを選択します。ワークフロービルダーが表示されます。 +1. ワークフローのビジュアライゼーションで、認証情報を追加したいアクションをクリックします。右側のパネルにアクションの詳細が表示されます。 +1. **Configure** タブで **Connection** ドロップダウンを探し、**+** アイコンをクリックします。 +1. **New Connection** ダイアログボックスで、コネクションの名前を入力し、必要な認証情報を入力します。 +1. **Save** をクリックします。 + +[1]: https://app.datadoghq.com/workflow +{{% /tab %}} + +{{% tab "App Builder" %}} +1. [App Builder のアプリ一覧][1]に移動します。 +1. 認証情報を追加する必要があるアクションを含むアプリを選択します。アプリのキャンバスが表示されます。 +1. 右上の **Edit** をクリックします。 +1. 左側の **Data** セクションにある、認証情報を追加したいアクションをクリックします。左パネルにアクションの詳細が表示されます。 +1. **Connection** ドロップダウンを探して **+** アイコンをクリックします。 +1. **New Connection** ダイアログボックスで、コネクションの名前を入力し、必要な認証情報を入力します。 +1. **Save** をクリックします。 + +[1]: https://app.datadoghq.com/app-builder +{{% /tab %}} +{{< /tabs >}} + +下記は OpenAI 用の **New Connection** ダイアログボックスの例です。コネクションごとに必要な認証情報は異なります。OpenAI では、有効なコネクション名と API トークンが必要です。 + +{{< img src="service_management/new-connection-2.png" alt="OpenAI コネクション用の New Connection ダイアログボックス" >}} + +### コネクションを編集する + +1. [Workflow Automation ページ][2]または [App Builder ページ][14]で **Connections** タブをクリックし、コネクションの一覧を開きます。 +1. 編集したいコネクションにカーソルを合わせると、右側に **Edit**、**Permissions**、**Delete** アイコンが表示されます。 +1. 鉛筆アイコン (**Edit**) をクリックすると、ダイアログボックスが表示されます。 +1. 変更したいフィールドを更新します。 +1. **Save** をクリックします。 + +### コネクションを削除する + +1. [コネクションの一覧][3]に移動します。 +1. 削除したいコネクションにカーソルを合わせると、右側に **Edit**、**Permissions**、**Delete** アイコンが表示されます。 +1. ゴミ箱アイコン (**Delete**) をクリックすると、「Are you sure?」というメッセージが表示されます。 +1. **Delete** を選択します。 + +### コネクションの利用を制限する + +コネクションの利用制限方法については、[Workflow Automation][4] または [App Builder][15] の「アクセスと認証」をご参照ください。 + +## HTTP コネクション + +任意のサービスに接続する場合は、HTTP コネクションタイプを使用してください。認証オプションやセットアップ方法の詳細は、[HTTP アクション][10]を参照してください。 + +## コネクションの識別子タグ + +コネクションには識別用のタグを付けることができます。これらのタグ付けルールは [Datadog タグ][13]に準拠しますが、以下の追加要件があります: +- 識別子タグは `tag:value` 形式に従う必要があり、コロンを追加で含めることはできません。たとえば `env:staging:east` や `env` は無効です。 +- 識別子タグは文字で始まり、その後は以下が使用できます: + - 英数字 + - アンダースコア (_) + - ハイフン (-) + - スラッシュ (/) + - コロン (:) はちょうど 1 つ +- `default` はコネクションの識別子タグにおける予約済みの値であり、単独のタグキーとしてもタグ値としても使用できません。たとえば `default:yes` や `aws:default` は、いずれもコネクションタグとして無効です。 + +## コネクショングループ + +
: コネクショングループは Workflow Automation でのみ利用できます。App Builder では利用できません。
+ +ワークフローが入力に応じて正しいアカウントへ認証できるように、コネクションをグループ化できます。同じグループにまとめるには、同一のインテグレーションである必要があります (例:同じグループに GCP と AWS のコネクションを混在させることはできません) 。 + +コネクショングループのメンバーは、コネクションの識別子タグを使って定義します。たとえば `account_id` タグを持つ AWS アカウントで構成されたコネクショングループを作成できます。 + +グループ内の各コネクションは固有の識別子タグセットを持つ必要があり、ワークフローが実行時に正しいコネクションを動的に選択できるようにします。たとえば: +- `connectionA {account_id:123456789}` と `connectionB {account_id:987654321}` は同じグループにまとめられます。 +- `connectionA {account_id:123456789}` と `connectionC {account_id:123456789}` はタグの値が重複するため、同じグループにまとめられません。 + +### コネクショングループを作成する + +
: グループにコネクションを追加するには、そのコネクションに対するResolver 権限が必要です。
+ +コネクショングループを作成する手順: + +1. [接続リスト][3]に移動します。 +1. 左側で **Groups** をクリックします。 +1. **+ New Group** をクリックし、インテグレーションを選択します。 +1. グループ名を入力し、グループに含めたいコネクションがすべて持っている最大 3 つの **Identifier Tags** を入力します。 +1. **Confirm Group** でチェックボックスを使ってグループのメンバーを選択します。 +1. **Next, Confirm Access** をクリックし、グループのアクセスレベルを設定します。 +1. **Create** をクリックします。 + +### コネクショングループを使用する + +ワークフローでコネクショングループを使用するには、次の手順を行います: + +1. ワークフロー内で、コネクションが必要なアクションを選択します。 +1. **Connection** フィールドで、ドロップダウンから **Groups** 内の希望するコネクショングループを選択します。 +1. コネクショングループの **Identifiers** に必要な値を入力します。たとえば `env` という識別子タグでグループを定義しており、`prod` と `staging` の 2 つの環境がある場合は、そのいずれかの値 (またはそれに評価される式) を使用できます。 +1. ほかの必要なステップの値を入力し、**Save** をクリックしてワークフローを保存します。 + +**注**: コネクショングループ内のコネクションを使用するには、そのコネクションの [Resolver 権限][12]が必要です。ワークフローが Resolver 権限を持たないコネクションを使用しようとすると、`403 Forbidden` エラーで失敗します。この問題を解決するには、以下のいずれかを行います: +- Resolver 権限を持たないコネクションを参照しないようにワークフローを構成する。 +- Resolver 権限を持たないコネクションをコネクショングループから削除する。
: 複数のワークフローでコネクショングループを使用している場合、ほかのワークフローが依存しているコネクションを削除すると、そのワークフローが失敗します。
+ +### コネクショングループを更新する + +コネクショングループの編集権限があれば、以下の属性を更新できます: +- グループ名 +- 識別子タグ (空にすることはできませんが、完全に置き換えることは可能です) +- コネクション (グループが空になることも可能です) + +### コネクショングループを削除する + +コネクショングループを削除するには: + +1. 削除したいグループにカーソルを合わせ、**delete (trash can)** アイコンをクリックします。 +1. **Delete** をクリックします。 + +
: コネクショングループを削除すると、そのグループを使用しているワークフローに影響します。
+ +## 参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +
ご質問やご意見がある場合は、[Datadog Community Slack][11] の **#workflows** または **#app-builder** チャンネルにご参加ください。 + +[2]: https://app.datadoghq.com/workflow +[3]: https://app.datadoghq.com/workflow/connections +[4]: /ja/service_management/workflows/access/#restrict-connection-use +[6]: /ja/integrations/ +[8]: /ja/service_management/workflows/actions/ +[9]: https://app.datadoghq.com/workflow +[10]: /ja/actions/connections/http/ +[11]: https://datadoghq.slack.com/ +[12]: /ja/service_management/workflows/access/#restrict-access-on-a-specific-connection +[13]: /ja/getting_started/tagging/ +[14]: https://app.datadoghq.com/app-builder/ +[15]: /ja/service_management/app_builder/auth/ \ No newline at end of file diff --git a/content/ja/actions/datastore/_index.md b/content/ja/actions/datastore/_index.md new file mode 100644 index 00000000000..801a086fc61 --- /dev/null +++ b/content/ja/actions/datastore/_index.md @@ -0,0 +1,93 @@ +--- +aliases: +- /ja/service_management/workflows/datastore/ +- /ja/service_management/app_builder/datastore/ +disable_toc: false +further_reading: +- link: service_management/app_builder/build + tag: ドキュメント + text: アプリの構築 +- link: service_management/workflows/build + tag: ドキュメント + text: ワークフローの構築 +title: データストア +--- + +{{< callout url="https://docs.google.com/forms/d/1NvW3I0Ep-lQo4FbiSwOEjccoFsS9Ue2wYiYDmCxKDYg/viewform?edit_requested=true" btn_hidden="false" header="プレビューを試してみましょう!">}} +データストアはプレビュー版です。こちらのフォームからアクセスをリクエストしてください。 +{{< /callout >}} + +## 概要 + +Actions データストアは、Datadog の App Builder とワークフロー自動化製品内で拡張性のある構造化データストレージソリューションを提供します。これは CRUD (Create, Read, Update, Delete) 操作をサポートし、外部データベースを必要とせず永続的なデータを最適に保存するために、Datadog のエコシステムとシームレスに統合されます。 + +データストアにはアプリやワークフロー、あるいは Datadog アプリの UI を使用してアクセスできます。 + + +## 前提条件 + +Actions データストアを操作するには、Datadog アカウントに以下の[権限][6]が必要です (Datadog Standard Role に含まれています): + +* `actions_datastore_read` - Actions データストア内のデータを読み取る権限。 +* `actions_datastore_write` - データストア内のデータを追加、編集、削除するなど、データを変更する権限。 + +[Actions データストア UI][1] を使用する場合、Datadog Standard Role に含まれる以下の権限も必要です: + +* `actions_datastore_manage` - データストア自体の作成、更新、削除など、Actions データストアを管理する権限。 + + +## データストアを作成する + +データストアを作成するには: + +1. [Datastore ページ][1]に移動します。 +1. **+ New Datastore** をクリックします。 +1. データストアに **Name** (名前) 、**Primary Key** (主キー) 、任意で **Description** (説明) を入力します。Primary Key は、各行が固有の値を持つ列名である必要があります。 +1. _オプション_ で、データストアに初期データを読み込むには、以下のいずれかの方法で CSV ファイルをコピーします: + * UI にファイルをドラッグ&ドロップする。 + * **browse files** をクリックして、コンピュータ上のファイルを選択する。 + * コンピュータ上の CSV ファイルをコピーし、Ctrl/Cmd + V で貼り付ける。 + + CSV ファイルにはヘッダー行が含まれており、その中に Primary Key と一致する列が存在する必要があります。 +1. **Create** をクリックします。 +1. リストにデータストアを表示するには、**Refresh Results** をクリックします。 + +データストアにデータを追加した後、以下の操作ができます: + +* ヘッダーの **Search** ボックスを使用してデータストアを検索する。 +* 列名をクリックして、その列のデータでソートする。 + + +## データストアを編集する + +データストアを編集するには、[Datastore ページ][1]で該当のデータストアを探します。以下の操作が可能です: + +* 行を追加する場合は、**+ (プラス)** アイコンをクリックします。各フィールドの値を入力し、**Create** をクリックします。 +* 既存の行の主キー以外の値を編集するには、該当行にカーソルを合わせ、**Pencil (Edit)** アイコンをクリックします。変更したい値を編集し、**Save** をクリックします。 +* 既存の行を削除するには、該当行にカーソルを合わせ、**Trash (Delete)** アイコンをクリックします。確認画面で **Delete** をクリックします。 + + +## データストアを参照する + +ワークフローまたはアプリでデータストアの値を使用するには: + +1. [Datastore ページ][1]で目的のデータストアを探します。 +1. データストアのヘッダーにある **Copy Datastore UUID** ボタンをクリックします。 +1. この UUID を使用して、ワークフローまたはアプリでデータストアを参照します。[Delete item][2]、[Get item][3]、[List items][4]、あるいは [Put item][5] アクションを使用し、**Datastore ID** に UUID を指定してください。 + + +## データストアを削除する + +データストアを削除するには、削除したいデータストアのヘッダーにある **Trash (Delete Datastore)** アイコンをクリックし、**Confirm** をクリックして確定します。 + + +## 参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/app-builder/datastore +[2]: https://app.datadoghq.com/workflow/action-catalog#/com.datadoghq.dd.apps_datastore/com.datadoghq.dd.apps_datastore.deleteDatastoreItem +[3]: https://app.datadoghq.com/workflow/action-catalog#/com.datadoghq.dd.apps_datastore/com.datadoghq.dd.apps_datastore.getDatastoreItem +[4]: https://app.datadoghq.com/workflow/action-catalog#/com.datadoghq.dd.apps_datastore/com.datadoghq.dd.apps_datastore.listDatastoreItems +[5]: https://app.datadoghq.com/workflow/action-catalog#/com.datadoghq.dd.apps_datastore/com.datadoghq.dd.apps_datastore.putDatastoreItem +[6]: /ja/account_management/rbac/permissions/?tab=ui#app-builder--workflow-automation \ No newline at end of file diff --git a/content/ja/api/latest/action-connection/_index.md b/content/ja/api/latest/action-connection/_index.md new file mode 100644 index 00000000000..5e8129a2fbb --- /dev/null +++ b/content/ja/api/latest/action-connection/_index.md @@ -0,0 +1,3 @@ +--- +title: Action Connection +--- diff --git a/content/ja/api/latest/cloud-network-monitoring/_index.md b/content/ja/api/latest/cloud-network-monitoring/_index.md new file mode 100644 index 00000000000..ae3d43fe696 --- /dev/null +++ b/content/ja/api/latest/cloud-network-monitoring/_index.md @@ -0,0 +1,3 @@ +--- +title: クラウドネットワークモニタリング +--- diff --git a/content/ja/api/latest/csm-coverage-analysis/_index.md b/content/ja/api/latest/csm-coverage-analysis/_index.md new file mode 100644 index 00000000000..b91d32aa538 --- /dev/null +++ b/content/ja/api/latest/csm-coverage-analysis/_index.md @@ -0,0 +1,3 @@ +--- +title: CSM Coverage Analysis +--- diff --git a/content/ja/api/latest/observability-pipelines/_index.md b/content/ja/api/latest/observability-pipelines/_index.md new file mode 100644 index 00000000000..9ce73790f85 --- /dev/null +++ b/content/ja/api/latest/observability-pipelines/_index.md @@ -0,0 +1,3 @@ +--- +title: 可観測性パイプライン +--- diff --git a/content/ja/api/latest/rum-retention-filters/_index.md b/content/ja/api/latest/rum-retention-filters/_index.md new file mode 100644 index 00000000000..6d03b52793a --- /dev/null +++ b/content/ja/api/latest/rum-retention-filters/_index.md @@ -0,0 +1,3 @@ +--- +title: Rum Retention Filters +--- diff --git a/content/ja/cloud_cost_management/custom_allocation_rules/_index.md b/content/ja/cloud_cost_management/custom_allocation_rules/_index.md new file mode 100644 index 00000000000..50c2c1d6eaf --- /dev/null +++ b/content/ja/cloud_cost_management/custom_allocation_rules/_index.md @@ -0,0 +1,109 @@ +--- +description: カスタム割り当てルールに基づいてクラウドコストを割り当てます。 +further_reading: +- link: https://docs.datadoghq.com/cloud_cost_management/?tab=aws#overview + tag: ドキュメント + text: Cloud Cost Management +title: カスタム割り当てルール +--- + +## 概要 + +カスタムコスト割り当てを使用すると、選択したコストを関連するビジネスディメンションに紐付けることで、コストのショーバックやチャージバックを行うことができます。割り当てルールを設定した後は、どのコストがそのルールによって割り当てられたかをレポートで確認できます。 + +カスタムコスト割り当ては [Tag Pipelines][1] の後に実行され、ユーザー定義タグに基づくコスト割り当てを可能にします。コストは日次で割り当てられ、AWS、Google Cloud、Azure の Cloud Cost メトリクスに適用できます。 + +## ルールの作成 + +Cloud Cost の設定画面にある [Custom Allocation Rules セクション][2]にアクセスし、ルールを作成します。次の割り当て方法から選択できます。 + + +| 割り当て方法 | 説明 | 例 | +| ---------------- | ----------- | -------- | +| 均等 (Even) | コストは宛先タグに対して均等に割り当てられます。 | タグ付けされていないサポートコストが `teamA`、`teamB`、`teamC` に均等に割り当てられます。 | +| カスタムパーセンテージ (Custom Percentage) | コストは宛先タグごとに定義したカスタムパーセンテージに基づいて割り当てられます。 | タグ付けされていないサポートコストが、`teamA` に 60%、`teamB` に 30%、`teamC` に 10% の割合で割り当てられます。 | +| プロポーショナル (Proportional) | 宛先のコスト消費割合に応じてコストが割り当てられます。 | Amazon EC2 の総支出に占める割合に基づいて、タグ付けされていないサポートコストを `teamA`、`teamB`、`teamC` に割り当てます。| +| メトリクスベース (Dynamic by Metric) | 定義されたメトリクスの比率に基づいてコストが割り当てられます。 | Datadog のメトリクスクエリ `sum:postgresql.queries.time{*} by {user}.as_count()` によって定義されるクエリ実行時間の合計値をもとに、共有の PostgreSQL コストが各ユーザーに割り当てられます。 | + +## 割り当て方法 + +{{< tabs >}} + +{{% tab "均等割り当て" %}} + +均等割り当て戦略では、他のコストの状況に関係なく、コストが宛先タグに均等に割り当てられます。フィルターを適用して、請求のどの部分が割り当て比率を決定するかを絞り込むことができます。 + +{{< img src="cloud_cost/custom_allocation_rules/even_diagram.png" alt="均等割り当て戦略を示す図" style="width:60%;" >}} + +{{< img src="cloud_cost/custom_allocation_rules/even_ui.png" alt="Datadog 上での均等割り当て戦略の例" style="width:60%;" >}} + +{{% /tab %}} + +{{% tab "カスタムパーセンテージ割り当て" %}} +カスタムパーセンテージ戦略では、選択した宛先タグに対して静的なカスタムパーセンテージを定義できます。たとえば、宛先が 3 つ (`teamA`、`teamB`、`teamC`) ある場合、`teamA` に 60%、`teamB` に 30%、`teamC` に 10% といった配分が可能です。 + +{{< img src="cloud_cost/custom_allocation_rules/custom_percentage_diagram.png" alt="均等割り当て戦略を示す図" style="width:60%;" >}} + +{{< img src="cloud_cost/custom_allocation_rules/custom_percentage_ui.png" alt="Datadog 上での均等割り当て戦略の例" style="width:60%;" >}} + +{{% /tab %}} + +{{% tab "プロポーショナル割り当て" %}} + +宛先のコスト消費割合に基づいてコストが割り当てられます。均等割り当てと同様に、フィルターやパーティションを設定して割り当てをさらにカスタマイズできます。 + +{{< img src="cloud_cost/custom_allocation_rules/proportional_diagram.png" alt="プロポーショナル割り当て戦略を示す図" style="width:60%;" >}} + +{{< img src="cloud_cost/custom_allocation_rules/proportional_ui.png" alt="Datadog 上でのプロポーショナル割り当て戦略の例" style="width:60%;" >}} + +{{% /tab %}} + +{{% tab "メトリクスベースの割り当て" %}} + +メトリクスベースの割り当てを使用すると、Datadog の[メトリクスクエリ][3]に基づいてコストを分割できます。パフォーマンスメトリクスを用いて費用を割り当てることで、アプリケーションの使用状況パターンに応じた、より正確なコスト配分が可能になります。 + +たとえば、次の PostgreSQL メトリクスクエリ `sum:postgresql.queries.time{*} by {user}.as_count()` は、ユーザーごとのクエリ実行時間の合計を追跡します。その相対値を用いて、全 PostgreSQL コストのうち各ユーザーに割り当てる割合を決定します。 + +割り当てるコストの比率を決める際には、メトリクスを日次または月次で集計できます。ただし、コスト自体は日次で割り当てられます。 + +{{< img src="cloud_cost/custom_allocation_rules/dynamic_diagram.png" alt="メトリクスベースの割り当て戦略を示す図" style="width:60%;" >}} + +{{< img src="cloud_cost/custom_allocation_rules/dynamic_ui.png" alt="Datadog でのメトリクスベースの割り当て戦略の例" style="width:60%;" >}} + +[3]: /ja/metrics/#querying-metrics + +{{% /tab %}} + +{{< /tabs >}} + +## 割り当てに含めるコストを指定する +| 手順 | 必須 | 例 | +| ---- | ---- | ---- | +| コストプロバイダーを選択 | はい | AWS、Google Cloud、Azure | +| 割り当て対象となるコスト (ソース) を定義 | はい | `aws_product` に `support` が含まれ、`allocated_spend_type` が未タグ | +| 宛先を定義 | はい | `team` が `teamA`、`teamB`、`teamC` | +| フィルター基準 | Even と Proportional 戦略のみで適用可能 (オプション) | `aws_product` が `ec2` | +| コストを分割する基準 (Partition costs by) | Even、Proportional、Dynamic by Metric 戦略のみ適用可能 (オプション) | `environment` はすべての値 | +| 名前 | はい | allocate_untagged_support_costs | + +### パーティショニング (Partitioning) + +一部の割り当て戦略では、セグメントごとに割り当てを行うためにコストの比率をどのように分割するかを指定できます。たとえば、Proportional 戦略で `environment` をパーティションに設定して `staging` や `production` のタグを使う場合、それぞれの環境で割合が個別に計算されます。これにより、各パーティション内の特定の割合に基づいてコストが割り当てられるようになります。 + +{{< img src="cloud_cost/custom_allocation_rules/proportional_partition_diagram.png" alt="パーティショニングを使用した Proportional 割り当て戦略を示す図" style="width:90%;" >}} + +## ルールの管理 +ルールは Cloud Cost 設定ページの [Custom Allocation Rules セクション][2]で編集および削除できます。ルール名以外のすべての項目を再設定可能です。 + +ルールはリストに表示されている順序で適用されます。 + +## 割り当ての可視化 +カスタム割り当てルールの変更が反映されるまでには、最大 24 時間かかる場合があります。反映後は、Container Allocation を有効にしているすべてのコストに対して、Cloud Cost Management 全体で新しい割り当てを確認できます。カスタム割り当てされたコストには、どのルールで割り当てられたかを示す `allocated_by_rule` タグが付与されます。 + +{{< img src="cloud_cost/custom_allocation_rules/visualize_your_allocations.png" alt="Datadog 上で割り当て結果を可視化している例" style="width:90%;" >}} + +## 参考資料 +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ja/cloud_cost_management/tag_pipelines +[2]: https://app.datadoghq.com/cost/settings/custom-allocation-rules \ No newline at end of file diff --git a/content/ja/coterm/rules.md b/content/ja/coterm/rules.md new file mode 100644 index 00000000000..61815b25cf7 --- /dev/null +++ b/content/ja/coterm/rules.md @@ -0,0 +1,128 @@ +--- +further_reading: +- link: /coterm + tag: documentation + text: Datadog CoTerm +- link: /coterm/install + tag: documentation + text: Datadog CoTerm のインストール +- link: /coterm/usage + tag: documentation + text: CoTerm の使用方法 +title: CoTerm の構成ルール +--- + +特定のコマンドを傍受した際に CoTerm が実行するアクションは、`.ddcoterm/config.yaml` ファイルの `process_config` セクションに lints と rules を追加することで設定できます。 + +これらの lints と rules は [Lua][1] で記述されています。構文および詳細については [Lua のドキュメント][2]を参照してください。 + +## Lints + +{{< highlight yaml "hl_lines=5-8" >}} +process_config: + commands: + - command: "kubectl" + lints: + - | + if has_arg("scale") and flags.context == nil then + return string.format("kubectl のコンテキストが指定されていません (現在のコンテキスト: '%s')。`kubectl scale` 実行時は常にコンテキストを明示的に指定することを推奨します。", k8s_context) + end +{{< / highlight >}} + +各 `lints` の項目は文字列を返す Lua スニペットです。lints は順番に評価され、文字列が返された場合、その文字列がユーザーへの警告として表示されます: + +{{< img src="coterm/linter-warning.png" alt="コマンドラインインターフェイス。ユーザーが 'kubectl scale foo' を実行しています。出力には「CoTerm からの警告: kubectl のコンテキストが指定されていません (現在のコンテキスト: 'minikube')。'kubectl scale' を実行する際は常にコンテキストを明示的に指定することを推奨します。続行しますか? (y/n)」と表示されています。" style="width:70%;" >}} + +ユーザーはその後、続行または中止を選択できます。 + +## ルール + +{{< highlight yaml "hl_lines=5-18" >}} +process_config: + commands: + - command: "kubectl" + rules: + # `kubectl scale` を本番環境で実行する場合は記録し、承認を必須にする + - rule: | + local k8s_context = flags.context or k8s_current_context or "unknown" + local matches = has_arg("scale") and k8s_context:match("prod") + local user_message = "注意して実行してください。このコマンドは Kubernetes クラスター構成に影響を与える可能性があります。" + local approver_message = "承認する前に、ユーザーがロールバック手順を記載していることを確認してください。" + return matches, user_message, approver_message + actions: ["record", "logs", "process_info", "approval"] + # その他のすべての kubectl scale 実行については記録のみ行い、承認は不要。ユーザーや承認者へのメッセージも表示しない + - rule: has_arg("scale") + actions: ["record", "logs", "process_info"] + # それ以外の kubectl コマンドは実行にほぼオーバーヘッドなしで、そのまま実行 (記録や承認は行わない) + - rule: true + actions: [] +{{< / highlight >}} + +ルールは lints よりも強力です。`rules` の各項目では、1~3 個の値を返す Lua スニペットである `rule` と、CoTerm が実行するアクションを指定する `actions` を設定します。 + +### ルールの返り値 + +各 `rule` は `boolean, [string], [string]` の 1~3 つの値を返します。 + +1. (必須) ブール値: ルールがマッチしたかどうか。 +2. (オプション) ユーザー向けのメッセージ。ユーザーに追加の文脈を提供するためのもので、最初の戻り値が `true` の場合にのみ表示されます。 +3. (オプション) 承認者向けのメッセージ。最初の戻り値が `true` で、対応する `actions` フィールドに `approval` が含まれている場合、Datadog 上の承認リクエスト画面に表示されます。 + +### アクション + +`rule` が `true` を返した場合、CoTerm は以下のアクションを実行できます: + +- `record`: ターミナルセッションを記録して Datadog に送信します。 +- `logs`: Datadog ログを生成し、ターミナル出力を検索可能なスナップショットとして残します。 +- `process_info`: ターミナルセッション内で起動されたすべてのプロセスを記録し、各プロセスに対してイベントを生成します。 +- `approval`: コマンドを実行する前に承認を必須とします。 +- `incidents`: ユーザーが対応している [Datadog Incident][6] があれば、録画内容をそのインシデントに関連付けます。インシデントが複数ある場合は、どれに関連付けるかをユーザーに選択させます。 + +`rule` が `true` でも、コマンドの実行以外のアクションを取りたくない場合は、`actions: []` を設定してください。 + +### ルールの評価 + +ルールは順番に評価され、最初に `true` を返したルールで指定されたアクションだけが実行されます。それ以降のルールは評価されません。 + +## アクションの優先順位 + +CoTerm に実行させるアクションは複数の方法で指定できます。CoTerm は以下の優先順位に従って、どのアクションを実行するかを決定します。 + +1. **CLI フラグ**: `--save-level` や `--approval` のように CLI フラグでアクションを指定した場合、CoTerm はそれらのアクションだけを実行します。これはその他のすべての設定よりも優先されます。 +2. **Lua 設定ファイル**: CLI フラグによるアクション指定がない場合に、`.ddcoterm/config.yaml` の Lua ルールが `true` を返すと、最初に `true` を返したルールで指定されたアクションが実行されます。これは CLI フラグ以外のすべての設定を上書きします。 +3. **`process_config.default_actions`**: CLI フラグによる指定がなく、Lua ルールもマッチしない場合、`.ddcoterm/config.yaml` の `process_config.default_actions` に指定されているアクションがあれば実行します。 +4. **デフォルトアクション**: CLI フラグの指定もなく、Lua ルールもマッチせず、かつ `process_config.default_actions` が設定されていない場合、CoTerm は `["record", "logs", "process_info"]` を実行します。 + +## Lua 実行環境とヘルパー関数 + +すべての Lua スニペットはサンドボックス化された [Luau][3] ランタイムで実行されます。CoTerm は以下の変数や関数をランタイムに注入します: + +### グローバル変数 + +`executable` - 文字列 +: コマンドの実行ファイル名。
たとえば `kubectl foo bar` の場合、`executable` は `kubectl` になります。 + +`args` - 配列 +: コマンドの引数。
たとえば `kubectl foo --bar=baz` の場合、`args` は `["foo", "--bar=baz"]` になります。 + +`flags` - テーブル +: コマンドに含まれる `--` 形式のキーと値を保持する[テーブル][4]です。
たとえば `command foo --bar baz` や `command foo --bar=baz` であれば、`flags` には `bar` を `key`、`baz` を `value` とするエントリ (`flags.bar = baz`) が含まれます。 + +`k8s_current_context` - 文字列 +: `~./kube/config` の `current-context` に設定された値。見つからない場合は `k8s_current_context` は [nil][5] になります。 + +### ヘルパー関数 + +`has_arg()` +: 指定した文字列が引数に含まれている場合は `true` を返します。
たとえば `kubectl foo bar` で `has_arg("bar")` を呼び出すと `true` になります。 + +## 参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://en.wikipedia.org/wiki/Lua_(programming_language) +[2]: https://lua.org/docs.html +[3]: https://luau.org/ +[4]: https://www.lua.org/pil/2.5.html +[5]: https://www.lua.org/pil/2.1.html +[6]: /ja/service_management/incident_management/ \ No newline at end of file diff --git a/content/ja/error_tracking/custom_grouping.md b/content/ja/error_tracking/custom_grouping.md deleted file mode 100644 index fa7c1d93d75..00000000000 --- a/content/ja/error_tracking/custom_grouping.md +++ /dev/null @@ -1,317 +0,0 @@ ---- -description: エラースパンを問題としてグループ化する方法をカスタマイズします。 -title: カスタムグループ化 ---- - -## 概要 - -Error Tracking は、[デフォルトの戦略][5]を使って、類似のエラーを問題としてインテリジェントにグループ化します。_カスタムフィンガープリンティング_を使えば、グループ化の決定を完全に制御し、エラースパンに対するグループ化の動作をカスタマイズすることができます。 - -エラーの `error.fingerprint` を提供することで、グループ化をカスタマイズできます。フィンガープリントは、エラーソースに応じて属性またはタグ で提供されます (詳細は[セットアップ](#setup)を参照)。`error.fingerprint` の値には特定の形式や要件はありませんが、内容は文字列でなければなりません。 - -`error.fingerprint` が指定されている場合、グループ化の動作は次のルールに従います。 - -* カスタムグループ化がデフォルトの戦略よりも優先されます。 -* カスタムグループ化はエラーのサブセットにのみ適用可能で、デフォルトの戦略と共存できます。 -* `error.fingerprint` の内容は、修正なしでそのまま使用されます。 -* 同じサービスで発生し、同じ `error.fingerprint` 属性を持つエラーは、同じ問題としてグループ化されます。 -* `service` 属性が異なるエラーは、別の問題としてグループ化されます。 - -## セットアップ - -### APM -カスタムグループ化に必要なのは、1 つのエラースパンと、文字列で指定された 1 つの `error.fingerprint` スパンタグのみです。 - -まだ Datadog で APM トレースを収集していない場合は、[APM ドキュメント][1]を参照して APM をセットアップします。 - -#### 例 - -すでに APM スパンを送信している場合は、エラースパンに新しい `error.fingerprint` タグを追加します。 - -Python での例を次に示します。 - -```python -with tracer.trace("throws.an.error") as span: - span.set_tag('error.fingerprint', 'my-custom-grouping-material') - raise Exception("Something went wrong") -``` - -例外発生時点でアクティブなスパンが存在する場合は、例外情報が捕捉され、スパンにアタッチされます。 -この場合、エラー追跡でこれらのエラースパンを単一の問題としてグループ化するために `my-custom-grouping-material` が使用されます。 - -### Log Management -カスタムグループ化に必要なのは、1 つのエラーログと、文字列で指定された 1 つの `error.fingerprint` 属性のみです。 - -まだ Datadog でログを収集していない場合は、[ログ管理のドキュメント][2]を参照してログをセットアップします。 - -`source` タグ (言語の指定) が適切に構成されていることを確認します。 - -#### 例 - -すでに JSON 形式でログを記録している場合は、エラーログに新しい `error.fingerprint` 属性を追加してください。 - -Python で JSON 形式のロガーを作成する例を示します。 - -```python -import logging -import json_log_formatter - -formatter = json_log_formatter.JSONFormatter() - -json_handler = logging.FileHandler(filename='/var/log/my-log.json') -json_handler.setFormatter(formatter) - -logger = logging.getLogger('my_json') -logger.addHandler(json_handler) -logger.setLevel(logging.INFO) - -logger.error('Error processing request', extra={'error.fingerprint': 'my-custom-grouping-material'}) -``` - -この場合、`my-custom-grouping-material` を使用して、エラー追跡でこれらのエラーログを 1 つの問題にグループ化します。 - -#### モバイルの例 - -Datadog のモバイル SDK では、ログの呼び出しに事前定義済みの属性を追加することで、エラーをログに記録する際にカスタムのエラーフィンガープリントを追加することができます。 - -{{< tabs >}} -{{% tab "iOS" %}} -カスタムグループ化を使用するには、Datadog iOS SDK `2.8.1` 以上が必要です。 - -```swift -let errorFingerprint = "my-custom-grouping-material" -logger.error( - "My error message", - error: error, - attributes: [ - Logs.Attributes.errorFingerprint: errorFingerprint - ] -) -``` -{{% /tab %}} - -{{% tab "Android" %}} -カスタムグループ化を使用するには、Datadog Android SDK `2.7.0` 以上が必要です。 - -```kotlin -val errorFingerprint = "my-custom-grouping-material" -val attributes = mapOf(LogAttributes.ERROR_FINGERPRINT to errorFingerprint) -logger.e("My error message", error, attributes) -``` -{{% /tab %}} - -{{% tab "Flutter" %}} -カスタムグループ化を使用するには、Datadog Flutter SDK `2.4.0` 以上が必要です。 - -```dart -final errorFingerprint = "my-custom-grouping-material"; -logger.error( - 'My error message', - errorStackTrace: st, - attributes { - DatadogAttributes.errorFingerprint: "my-custom-grouping-material", - } -); -``` -{{% /tab %}} -{{< /tabs >}} - -または、ログマッパーでフィンガープリントを追加または調整することもできます。 - -{{< tabs >}} -{{% tab "iOS" %}} -カスタムグループ化を使用するには、Datadog iOS SDK `2.8.1` 以上が必要です。 - -```swift -let logsConfiguration = Logs.Configuration( - eventMapper: { log in - var log = log - log.error?.fingerprint = "my-custom-grouping-material" - return log - } -) -Logs.enable( - with: logsConfiguration -) -``` -{{% /tab %}} - -{{% tab "Android" %}} -カスタムグループ化を使用するには、Datadog Android SDK `2.7.0` 以上が必要です。 - -```kotlin -val mapper = object : EventMapper { - override fun map(event: LogEvent): LogEvent { - event.fingerprint = "my-custom-grouping-material" - return event - } -} -val logsConfiguration = LogsConfiguration.Builder() - .setEventMapper(mapper) - .build() -Logs.enable(logsConfiguration) -``` -{{% /tab %}} - -{{% tab "Flutter" %}} -カスタムグループ化を使用するには、Datadog Flutter SDK `2.4.0` 以上が必要です。 - -```dart -LogEvent? mapLogEvent(LogEvent event) { - event.error?.fingerprint = "my-custom-grouping-material"; - return event; -} - -final loggingConfiguration = DatadogLoggingConfiguration( - eventMapper: mapLogEvent, -); - -final configuration = DatadogConfiguration( - // ... - loggingConfiguration: loggingConfiguration, -); -``` -{{% /tab %}} -{{< /tabs >}} - -### RUM - -#### 例 -まだ Datadog でブラウザ RUM イベントを収集していない場合は、[RUM ブラウザモニタリングのセットアップドキュメント][3]または[RUM モバイルおよび TV モニタリングのセットアップドキュメント][4]を参照してください。 - -{{< tabs >}} -{{% tab "ブラウザ" %}} -カスタマイズグループ化を使用するには、Datadog ブラウザ SDK [v4.42.0 以降][2]、[ブラウザ RUM エラー][1]、および追加文字列属性が必要です。 - -すでに[ブラウザエラーを収集][1]している場合は、以下のどちらかで属性を追加することが可能です。 - -* エラーオブジェクトに `dd_fingerprint` 属性を追加する。 - -```javascript -import { datadogRum } from '@datadog/browser-rum'; -// カスタムエラーをコンテキスト付きで送信する -const error = new Error('Something went wrong'); -error.dd_fingerprint = 'my-custom-grouping-fingerprint' -datadogRum.addError(error); -``` - -* または、`beforeSend` コールバックに `error.fingerprint` 属性を付けて使用する。 - -```javascript -DD_RUM.init({ - ... - beforeSend: () => { - if (event.type === 'error') { - event.error.fingerprint = 'my-custom-grouping-fingerprint' - } - }, -}) -``` - -どちらの場合も、`my-custom-grouping-material` を使用して、エラー追跡でブラウザ RUM エラーを 1 つの問題にグループ化します。 - -[1]: /ja/real_user_monitoring/browser/collecting_browser_errors/ -[2]: https://github.com/DataDog/browser-sdk/releases/tag/v4.42.0 -{{% /tab %}} - -{{% tab "iOS" %}} -カスタムグループ化を使用するには、Datadog iOS SDK `2.8.1` 以上が必要です。 - -手動でエラーを報告する際にカスタムのフィンガープリントを追加するには、`addError` を呼び出す際に事前定義済みの属性を追加します。 - -```swift -RUMMonitor.shared().addError( - message: "My error message", - source: .source, - attributes: [ - RUM.Attributes.errorFingerprint: "my-custom-grouping-fingerprint" - ] -) -``` - -または、`errorEventMapper` を使用することもできます。 - -```swift -var config = RUM.Configuration(applicationID: "rum-application-id") -config.errorEventMapper = { errorEvent in - var errorEvent = errorEvent - errorEvent.error.fingerprint = "my-custom-grouping-fingerprint" - return errorEvent -} -RUM.enable(with: config) -``` - -{{% /tab %}} - -{{% tab "Android" %}} -カスタムグループ化を使用するには、Datadog Android SDK `2.7.0` 以上が必要です。 - -手動でエラーを報告する際にカスタムのフィンガープリントを追加するには、`addError` を呼び出す際に事前定義済みの属性を追加します。 - -```kotlin -GlobalRumMonitor.get().addError( - "My error message", - RumErrorSource.SOURCE, - exception, - mapOf( - RumAttributes.ERROR_CUSTOM_FINGERPRINT to "my-custom-grouping-fingerprint" - ) -) -``` - -または、`errorEventMapper` を使用することもできます。 - -```kotlin -val rumConfiguration = RumConfiguration.Builder("rum-application-id") - .setErrorEventMapper(object : EventMapper { - override fun map(event: ErrorEvent): ErrorEvent { - event.error.fingerprint = "my-custom-grouping-fingerprint" - return event - } - }).build() -RUM.enable(rumConfiguration) -``` - -{{% /tab %}} - -{{% tab "Flutter" %}} -カスタムグループ化を使用するには、Datadog Flutter SDK `2.4.0` 以上が必要です。 - -手動でエラーを報告する際にカスタムのフィンガープリントを追加するには、`addError` を呼び出す際に事前定義済みの属性を追加します。 - -```dart -final rum = DatadogSdk.instance.rum; -rum?.addErrorInfo("My error message", - RumErrorSource.source, - attributes: { - DatadogAttributes.errorFingerprint: 'my-custom-grouping-fingerprint', - }, -); -``` - -または、`errorEventMapper` を使用することもできます。 - -```dart -RumErrorEvent? mapRumErrorEvent(RumErrorEvent event) { - event.error.fingerprint = "my-custom-grouping-fingerprint"; - return event; -} - -final rumConfiguration = DatadogRumConfiguration( - // ... - errorEventMapper: mapRumErrorEvent, -); - -final configuration = DatadogConfiguration( - // ... - rumConfiguration: rumConfiguration, -); -``` -{{% /tab %}} -{{< /tabs >}} - -[1]: /ja/tracing/ -[2]: /ja/logs/log_collection/ -[3]: /ja/real_user_monitoring/browser/ -[4]: /ja/real_user_monitoring/mobile_and_tv_monitoring/#get-started -[5]: /ja/error_tracking/default_grouping \ No newline at end of file diff --git a/content/ja/error_tracking/default_grouping.md b/content/ja/error_tracking/default_grouping.md deleted file mode 100644 index 15af124d967..00000000000 --- a/content/ja/error_tracking/default_grouping.md +++ /dev/null @@ -1,19 +0,0 @@ ---- -description: エラーがどのように課題にグループ化されるかを理解します。 -title: デフォルトのグループ化 ---- - -## 概要 - -エラー追跡は、類似したエラーをインテリジェントに課題にグループ化します。このグループ化は、次のエラープロパティに基づいて行われます。 - -- `service`: エラーが発生したサービス。 -- `error.type` または `error.kind`: エラーの種類。 -- `error.message`: エラーの説明。 -- `error.stack`: 最上位に意味のあるスタックフレームのファイル名と関数名。 - -エラースタックトレースとは、エラーが投げられてから Datadog インスツルメンテーションで捕捉されるまでの間にエラーがたどるコードパスのことです。エラー追跡は、最上位のスタックフレーム (エラーの*場所*) を評価し、それを使ってエラーをグループ化します。 - -2 つのエラーでスタックフレームのプロパティが異なる場合、その 2 つのエラーは別々の課題にグループ化されます。たとえば、エラー追跡では、サービスまたはエラータイプを超えて課題をグループ化することはありません。 - -**注**: グループ化の精度を向上させるため、エラー追跡はバージョン、ID、日付などのスタックフレームの可変プロパティを削除します。 diff --git a/content/ja/getting_started/application_security/_index.md b/content/ja/getting_started/application_security/_index.md deleted file mode 100644 index 80d605ab6d6..00000000000 --- a/content/ja/getting_started/application_security/_index.md +++ /dev/null @@ -1,124 +0,0 @@ ---- -aliases: -- /ja/security/security_monitoring/getting_started/ -further_reading: -- link: /security/application_security/terms - tag: Documentation - text: Application Security の用語と概念 -- link: /security/application_security/how-appsec-works - tag: Documentation - text: Application Security Management の仕組み -- link: https://dtdg.co/fe - tag: Foundation Enablement - text: セキュリティと脅威検出を高めるインタラクティブなセッションに参加できます -- link: /getting_started/application_security/software_composition_analysis - tag: ガイド - text: Software Composition Analysis を始める -- link: https://securitylabs.datadoghq.com/ - tag: Security Labs - text: Datadog のセキュリティリサーチ、レポート、ヒント、ビデオ -title: Application Security Management を始める ---- - -## 概要 - -Datadog Application Security Management (ASM) は、本番環境における Web アプリケーションや API の安全性を確保します。ASM は、サービス内のアプリケーションレベルの脆弱性を視覚化し、これらの脆弱性を悪用しようとする攻撃や攻撃者からリアルタイムで保護します。 - -このガイドでは、ASM の導入と運用のためのベストプラクティスを説明します。 - -## セキュリティリスクのあるサービスの特定 - - -ASM を活用できる、**攻撃に対して脆弱なサービスまたは攻撃にさらされているサービスを特定します**。[**Service Catalog > Security ページ**][1]で、有効にしたいサービスを表示して選択します。 - -{{< img src="getting_started/appsec/ASM_activation_service_selection_v2.png" alt="Vulnerabilities を表示し、Suspicious requests 列でソートされた ASM Services ページビュー。" style="width:100%;" >}} - -これらのセキュリティに関する洞察は、APM によって報告されたデータから検出されます。このインサイトは、セキュリティ対策に優先順位をつけるのに役立ちます。ASM は、サービス上のすべてのセキュリティリスクを特定し、優先順位を付け、修復を支援します。 - -**注**: 脆弱性や不審なリクエストが報告されない場合、サービスが最新の Datadog トレーシングライブラリのバージョンを使用していることを確認してください。[Security Service Catalog][2] から、任意のサービスのサイドパネルを開き、その **Tracing Configuration** を見てください。 - - -{{< img src="getting_started/appsec/ASM_Tracing_Configuration.png" alt="APM Service Catalog ページビューの Tracer Configuration タブ。Datadog Agent、Datadog トレーシングライブラリのどのバージョンがサービスで使用されているかをハイライトしています。" style="width:100%;" >}} - - -## ASM の有効化 - -### アプリ内の指示で ASM を有効化 - -[ASM ランディングページ][18]で、指示に従ってセットアップを開始します。これには以下が含まれます。 -- ASM が有効であると思われるサービスの選定を指導します。 -- 環境変数で Datadog トレーシングライブラリを構成します。 -- サービスを再起動します。
- -1. **Get Started with ASM** をクリックします。 -2. オープンソースライブラリの脆弱性を検出する (Software Composition Analysis)、コードレベルの脆弱性を検出して修正する (Code Security)、サービスの脅威検出を発見して有効化する (Threat Management) ためには、**Get Started** を選択してください。 -3. ASM を使い始めるには、指示に従ってください。 - - {{< img src="getting_started/appsec/asm_sca_setup.png" alt="Software Composition Analysis セットアップページ。" style="width:100%;" >}} - - -### リモート構成で ASM を有効にする -#### 前提条件: -- Datadog Agent バージョン 7.42.0 以上がホストまたはコンテナにインストールされていること。 -- Datadog Tracer versions are [compatible with Remote Configuration][17]. - -#### リモート構成の設定 (まだ有効になっていない場合) -Datadog UI で[リモート構成][17]を有効にする手順に従ってください。これには以下が含まれます。 - 1. 組織のリモート構成機能を有効にします。 - 2. 既存の API キーにリモート構成機能を追加するか、新しい API キーを作成します。 - 3. Datadog Agent 構成を更新して、リモート構成機能で API キーを使用します。 - - 詳しくは[リモート構成の設定][21]をご覧ください。 - -### ASM のテスト -ASM を有効にすると、アプリケーションの脆弱性を即座に識別し、サービスを標的とする攻撃や攻撃者を検出します。 - -1. **脆弱性の検証**: [Vulnerabilities タブ][14]に移動し、脆弱性のトリアージと修復を行います。 -2. **攻撃の検証**: テスト検出ルールをトリガーする攻撃パターンを送信します。ターミナルから以下のスクリプトを実行します。 - - {{< code-block lang="sh" >}} - for ((i=1;i<=250;i++)); do - # 既存サービスのルートをターゲットにする - curl https://your-application-url/ -A - 'dd-test-scanner-log'; - # 既存サービス外のルートをターゲットにする - curl https://your-application-url/ -A - 'dd-test-scanner-log'; - done{{< /code-block >}} - -3. [セキュリティシグナルエクスプローラー][6]で、数秒後に発生するシグナルを確認してください。 - -## レポートと通知 - -1. [通知ルール][23]を設定して、Slack、Jira、メールなどを使用してアラートを受け取るようにします。 -3. 毎週の[脅威ダイジェスト][22]レポートを購読して、過去 7 日間に発見された最も重要なセキュリティ脅威の調査と対処を開始してください。 - - -さらなるベストプラクティスにご興味がおありですか?[製品内クイックスタートガイド][19]をご覧ください。 - -## 参考資料 - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: https://app.datadoghq.com/services?&lens=Security -[2]: https://app.datadoghq.com/services?hostGroup=%2A&lens=Security -[3]: /ja/security/application_security/threats/library_configuration/#configuring-a-client-ip-header -[4]: /ja/security/application_security/how-appsec-works/ -[5]: /ja/security/application_security/threats/add-user-info/ -[6]: https://app.datadoghq.com/security?query=%40workflow.rule.type%3A%22Application%20Security%22&column=time&order=desc&product=appsec&view=signal&viz=stream&start=1674824351640&end=1675429151640&paused=false -[7]: https://app.datadoghq.com/security/appsec -[8]: https://app.datadoghq.com/security/appsec/traces -[9]: /ja/security/application_security/threats/library_configuration/#exclude-specific-parameters-from-triggering-detections -[10]: https://app.datadoghq.com/security/appsec/reports-configuration -[11]: https://app.datadoghq.com/security/configuration/notification-rules -[12]: /ja/security/notifications/rules/ -[13]: /ja/security/application_security/risk_management -[14]: https://app.datadoghq.com/security/appsec/vm?&group=vulnerability -[15]: https://docs.datadoghq.com/ja/agent/guide/how_remote_config_works/?tab=configurationyamlfile#overview -[17]: https://app.datadoghq.com/organization-settings/remote-config -[18]: https://app.datadoghq.com/security/appsec/landing -[19]: https://app.datadoghq.com/security/configuration/asm/onboarding -[20]: /ja/getting_started/application_security/#setup-asm -[21]: /ja/agent/remote_config?tab=configurationyamlfile#setup -[22]: https://app.datadoghq.com/security/configuration/reports -[23]: https://app.datadoghq.com/security/configuration/notification-rules \ No newline at end of file diff --git a/content/ja/getting_started/cloud_security_management/_index.md b/content/ja/getting_started/cloud_security_management/_index.md deleted file mode 100644 index 1014c3f6efe..00000000000 --- a/content/ja/getting_started/cloud_security_management/_index.md +++ /dev/null @@ -1,87 +0,0 @@ ---- -further_reading: -- link: /security/cloud_security_management/ - tag: Documentation - text: クラウド セキュリティ マネジメント -- link: /infrastructure/resource_catalog/schema/ - tag: Documentation - text: Cloud Resources Schema リファレンス -- link: https://www.datadoghq.com/blog/automate-end-to-end-processes-with-datadog-workflows/ - tag: ブログ - text: Datadog Workflows でエンドツーエンドプロセスを自動化する -- link: https://www.datadoghq.com/blog/csm-at-datadog/ - tag: ブログ - text: Datadog CSM を使用してクラウドインフラストラクチャーのセキュリティポスチャを改善する方法 -- link: https://www.datadoghq.com/blog/detecting-leaked-credentials/ - tag: ブログ - text: 漏洩した Datadog 資格情報の検出とユーザーへの通知方法 -- link: https://www.datadoghq.com/blog/security-posture-csm/ - tag: ブログ - text: Cloud Security Management を使用してセキュリティポスチャの変更を報告する -- link: https://dtdg.co/fe - tag: Foundation Enablement - text: セキュリティと脅威検出を高めるインタラクティブなセッションに参加できます -- link: https://securitylabs.datadoghq.com/ - tag: Security Labs - text: Datadog のセキュリティリサーチ、レポート、ヒント、ビデオ -title: Cloud Security Management の概要 ---- - -## 概要 - -[Datadog Cloud Security Management][1] (CSM) は、クラウドインフラストラクチャー全体にわたって、リアルタイムの脅威検出と継続的な構成監査を提供します。観測可能性データを活用した CSM には、[Misconfigurations][2] と [Threats][3] が含まれています。 - -このガイドでは、CSM の導入と運用のためのベストプラクティスを説明します。 - -## フェーズ 1: デプロイメント - -1. [Datadog Agent (バージョン 7.46 以上)][4] をインストールします。 -2. [クラウドリソースとインフラストラクチャーに対して、CSM を有効にします][5]。 - - **CSM Threats**: Kubernetes、Docker、ホストベースのインストール。 - - **CSM Misconfigurations**: AWS、Azure、GCP、Kubernetes、Docker の手順。 - - **CSM Identity Risks**: AWS リソース収集と Cloudtrail ログ転送を有効にします。 - - **CSM Vulnerabilities**: Kubernetes、ECS EC2 インスタンス、ホストベースのインストール向けのコンテナイメージスキャンおよびホストスキャンの手順。 -3. [CSM ホームページ][13]をチェックして、組織のリスクと脅威の概要を把握します。 -4. [すぐに使える 500 以上の Threats と Misconfigurations の検出ルール][14]を確認します。 -5. [セキュリティシグナル][15]を探り、[CSM Misconfigurations の発見][16]を確認します。 -6. [Identity Risks][29] ページで、[アイデンティティのリスク][28]を見直し、是正します。 -7. コンテナの脆弱性は [Container Images][25] ページで、脆弱性の統合リストは [Infrastructure Vulnerability][30] ページで確認してください。 -8. [通知ルール][17]を設定し、Slack、Jira、メールなどを使ってアラートを受け取ります。 - -## フェーズ 2: カスタマイズ - -1. [CSM Threats 抑制ルール][18]を設定し、ノイズを低減します。 -2. [CSM Misconfigurations][19] と [CSM Threats][20] のカスタム検出ルールを作成します。 - -## フェーズ 3: レポートとダッシュボード - -1. [コンプライアンスレポート][21]を確認することで、組織の姿勢を評価します。 -2. すぐに使えるダッシュボードや、[独自に作成][22]したダッシュボードを使って、調査、報告、監視を迅速に行うことができます。 -3. 毎週の[セキュリティダイジェスト][31]レポートを購読して、過去 7 日間に発見された最も重要な新しいセキュリティ問題の調査と対処を開始してください。 - -## その他の参考資料 - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: /ja/security/cloud_security_management/ -[2]: /ja/security/cloud_security_management/misconfigurations/ -[3]: /ja/security/threats/ -[4]: https://app.datadoghq.com/account/settings/agent/latest -[5]: /ja/security/cloud_security_management/setup -[13]: https://app.datadoghq.com/security/csm -[14]: /ja/security/default_rules/#cat-cloud-security-management -[15]: /ja/security/cloud_security_management/misconfigurations/signals_explorer/ -[16]: /ja/security/cloud_security_management/misconfigurations/findings/ -[17]: https://app.datadoghq.com/security/configuration/notification-rules -[18]: /ja/security/cloud_security_management/guide/tuning-rules/ -[19]: /ja/security/cloud_security_management/misconfigurations/custom_rules -[20]: /ja/security/threats/agent_expressions -[21]: /ja/security/cloud_security_management/misconfigurations/frameworks_and_benchmarks -[22]: /ja/dashboards/#overview -[25]: https://app.datadoghq.com/containers/images -[26]: /ja/integrations/amazon_web_services/?tab=roledelegation#cloud-security-posture-management -[27]: /ja/integrations/amazon_cloudtrail/#send-logs-to-datadog -[28]: /ja/security/cloud_security_management/identity_risks/ -[29]: https://app.datadoghq.com/security/identities -[30]: https://app.datadoghq.com/security/infra-vulnerability -[31]: https://app.datadoghq.com/security/configuration/reports diff --git a/content/ja/getting_started/cloud_siem/_index.md b/content/ja/getting_started/cloud_siem/_index.md deleted file mode 100644 index 68ba08c033b..00000000000 --- a/content/ja/getting_started/cloud_siem/_index.md +++ /dev/null @@ -1,140 +0,0 @@ ---- -aliases: -- /ja/cloud-siem/getting_started/ -- /ja/security_monitoring/getting_started/ -- /ja/security_platform/security_monitoring/ -- /ja/security_platform/security_monitoring/getting_started -- /ja/security_platform/getting_started/ -- /ja/security_platform/cloud_siem/getting_started/ -- /ja/security/cloud_siem/getting_started/ -further_reading: -- link: https://learn.datadoghq.com/courses/intro-to-cloud-siem - tag: ラーニングセンター - text: Cloud SIEM 入門コース -- link: https://www.datadoghq.com/blog/automate-security-tasks-with-workflows-and-cloud-siem/ - tag: ブログ - text: Datadog Workflows と Cloud SIEM で、一般的なセキュリティタスクを自動化し、脅威の先を行く -- link: https://app.datadoghq.com/workflow/blueprints?selected_category=SECURITY - tag: App - text: Workflows のセキュリティ設計図で応答を自動化する -- link: /security/cloud_siem/guide/aws-config-guide-for-cloud-siem/ - tag: Documentation - text: Cloud SIEM の AWS 構成ガイド -- link: /security/cloud_siem/guide/google-cloud-config-guide-for-cloud-siem/ - tag: Documentation - text: Cloud SIEM のための Google Cloud 構成ガイド -- link: /security/cloud_siem/guide/azure-config-guide-for-cloud-siem/ - tag: Documentation - text: Cloud SIEM の Azure 構成ガイド -- link: /security/notifications/variables/ - tag: Documentation - text: 通知をカスタマイズするための通知変数について -- link: https://dtdg.co/fe - tag: Foundation Enablement - text: セキュリティと脅威検出を高めるインタラクティブなセッションに参加できます -- link: https://securitylabs.datadoghq.com/ - tag: Security Labs - text: Datadog の Security Labs でセキュリティ関連のトピックを読む -- link: https://www.datadoghq.com/blog/content-packs/ - tag: ブログ - text: Cloud SIEM Content Pack でセキュリティログの取り込みと監視が容易に -title: Cloud SIEM の概要 ---- - -## 概要 - -[Datadog Cloud SIEM][1] は、アプリケーションやインフラストラクチャーに対する脅威をリアルタイムに検出します。これらの脅威には、標的型攻撃、脅威情報が記載された IP がシステムと通信している場合、または安全でない構成が含まれる場合があります。検出されるとシグナルが生成され、チームに通知することができます。 - -このガイドでは、Cloud SIEM を使い始めるためのベストプラクティスを説明します。 - -## フェーズ 1: セットアップ - -1. [ログ取り込み][2]を構成して、ソースからログを収集します。[ログ管理のベストプラクティス][3]を確認してください。 - - [すぐに使えるインテグレーションパイプライン][4]を使って {{< translate key="integration_count" >}} 以上のインテグレーションのログを収集したり、[カスタムログパイプラインを作成][5]して以下を送信したりすることができます。 - - - [クラウド監査ログ][6]。 - - [ID プロバイダーログ][7] - - SaaS と Workspace のログ - - サードパーティセキュリティインテグレーション (例: Amazon GuardDuty) - -2. [Cloud SIEM][8] を有効にします。 -3. [コンテンツパック][9]を選択し、構成します。コンテンツパックは、重要なセキュリティログソースに対するすぐに使えるコンテンツを提供します。 -4. Cloud SIEM に分析させたい[追加のログソース][10]を選択し、構成します。 -5. **Activate** をクリックします。カスタム Cloud SIEM ログインデックス (`cloud-siem-xxxx`) が作成されます。 -6. Cloud SIEM のセットアップページで「Cloud SIEM index is not in first position」(Cloud SIEM インデックスが最初の位置にありません) という警告が表示された場合は、[Cloud SIEM インデックスの並び替え](#reorder-the-cloud-siem-index)セクションの手順に従ってください。 - -### Cloud SIEM インデックスの並び替え - -{{< img src="getting_started/cloud_siem/cloud-siem-setup-warning.png" alt="インデックス構成に注意が必要であることを示す黄色の警告ボックス" style="width:80%;">}} - -1. **Reorder index in Logs Configuration** をクリックします。 - -2. モーダルタイトルに「Move cloud-siem-xxxx to...」と表示され、インデックス列の `cloud-siem-xxxx` テキストが薄紫色になっていることを確認します。 - -{{< img src="getting_started/cloud_siem/move-index-modal.png" alt="cloud-siem-xxxx インデックスが最後のインデックスであることを示すインデックスのリストを表示する Move cloud-siem-xxxx モーダル" style="width:60%;">}} - -3. インデックスの新しい配置を選択するには、`cloud-siem-xxxx` を配置したいインデックスの一番上の行をクリックします。例えば、`cloud-siem-xxxx` インデックスを最初のインデックスにしたい場合、現在の最初のインデックスの*上*の行をクリックします。新しい位置は青い太い線でハイライトされます。 - -{{< img src="getting_started/cloud_siem/move-index-highlight.png" alt="最初のインデックスの上部に青い線を表示する Move cloud-SIEM-xxxx モーダル" style="width:65%;">}} - -4. テキストは選択された位置を確認します: "Select the new placement of your index: Position 1" (インデックスの新しい配置を選択: 位置 1)。**Move** をクリックします。 - -5. 警告テキストを確認します。変更内容に問題がなければ、**Reorder** をクリックします。 - -6. インデックスの順序を確認し、`cloud-siem-xxxx` インデックスが希望の位置にあることを確認します。インデックスを移動したい場合は、**Move to** アイコンをクリックし、手順 3 から 5 を実行します。 - -7. [Cloud SIEM セットアップページ][11]に戻ります。 - -Cloud SIEM インデックスは最初のインデックス位置にあるはずです。セットアップページでインデックス位置に関する警告がまだ表示される場合は、数分待ってからブラウザを更新します。 - -インデックスが最初のインデックス位置に移動したら、[コンテンツパック][11]と[その他のログソース][11]の設定とステータスを確認します。警告またはエラーが表示されたインテグレーションごとに、そのインテグレーションをクリックし、指示に従って修正します。 - -## フェーズ 2: シグナルの確認 - -1. [すぐに使える検出ルール][12]を確認し、お使いの環境における脅威の検出を開始します。検出ルールは、処理されたすべてのログに適用され、検出範囲を最大化します。詳細については、[検出ルール][13]のドキュメントを参照してください。 - -2. [セキュリティシグナル][14]を確認します。検出ルールで脅威が検出されると、セキュリティシグナルが生成されます。詳しくは、[セキュリティシグナル][15]のドキュメントをご覧ください。 - - - [通知ルールの設定][16]を行い、シグナルが発生した際にアラートを出します。Slack、Jira、メール、Webhook、および他のインテグレーションを使用してアラートを出すことができます。詳しくは[通知ルール][17]のドキュメントを参照してください。 - - 毎週の[脅威ダイジェスト][18]レポートを購読し、過去 7 日間に発見された最も重要なセキュリティ脅威の調査と対策を開始しましょう。 - -## フェーズ 3: 調査 - -1. より迅速な修復のために、[Investigator][19] を確認します。詳しくは [Investigator][20] のドキュメントをご覧ください。 -2. 調査、レポート、モニタリングには、[すぐに使えるダッシュボード][21]を使用するか、または[独自のダッシュボードを作成][22]します。 - -## フェーズ 4: カスタマイズ - -1. [抑制ルール][23]を設定し、ノイズを低減します。 -2. [カスタム検出ルール][24]を作成します。[検出ルールを作成するためのベストプラクティス][25]を確認します。 - -## その他の参考資料 - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: /ja/security/cloud_siem/ -[2]: https://app.datadoghq.com/security/configuration/siem/log-sources -[3]: /ja/logs/guide/best-practices-for-log-management/ -[4]: /ja/integrations/ -[5]: /ja/logs/log_configuration/pipelines/ -[6]: https://www.datadoghq.com/blog/monitoring-cloudtrail-logs/ -[7]: https://www.datadoghq.com/blog/how-to-monitor-authentication-logs/ -[8]: https://app.datadoghq.com/security/landing -[9]: https://app.datadoghq.com/security/content-packs -[10]: https://app.datadoghq.com/security/configuration/siem/log-sources -[11]: https://app.datadoghq.com/security/configuration/siem/setup -[12]: /ja/security/default_rules/#cat-cloud-siem-log-detection -[13]: /ja/security/detection_rules/ -[14]: https://app.datadoghq.com/security?query=%40workflow.rule.type%3A%28%22Log%20Detection%22%20OR%20%22Signal%20Correlation%22%29&column=time&order=desc&product=siem&view=signal&viz=stream&start=1676321431953&end=1676407831953&paused=false -[15]: /ja/security/cloud_siem/investigate_security_signals -[16]: https://app.datadoghq.com/security/configuration/notification-rules -[17]: /ja/security/notifications/rules/ -[18]: https://app.datadoghq.com/security/configuration/reports -[19]: https://app.datadoghq.com/security/investigator/ -[20]: /ja/security/cloud_siem/investigator -[21]: https://app.datadoghq.com/dashboard/lists/preset/100 -[22]: /ja/dashboards/#overview -[23]: /ja/security/cloud_siem/log_detection_rules/?tab=threshold#advanced-options -[24]: /ja/security/cloud_siem/log_detection_rules/ -[25]: https://www.datadoghq.com/blog/writing-datadog-security-detection-rules/ diff --git a/content/ja/integrations/amazon_event_bridge.md b/content/ja/integrations/amazon_event_bridge.md index 8a3eb6dd290..7889b997018 100644 --- a/content/ja/integrations/amazon_event_bridge.md +++ b/content/ja/integrations/amazon_event_bridge.md @@ -3,7 +3,7 @@ categories: - AWS - クラウド - notifications -custom_kind: integration +custom_kind: インテグレーション dependencies: [] description: AWS サービス、SaaS、アプリからのイベントをほぼリアルタイムに処理するサーバーレスイベントバス。 doc_link: https://docs.datadoghq.com/integrations/amazon_event_bridge/ @@ -82,10 +82,6 @@ Amazon EventBridge インテグレーションを使用して、Datadog のモ ターゲットにできるリソースの完全なリストは、[AWS ウェブサイト][10]にあります。 -このプロセスをトリガーするためにスナップショットを送信する方法の例を以下に示します。トリガーされると、AWS でアクション受信を指定できます。 - -{{< wistia uezo3fh61j >}} - ## 収集データ ### メトリクス @@ -114,4 +110,4 @@ Amazon EventBridge インテグレーションには、サービスのチェッ [8]: https://console.aws.amazon.com/events/ [9]: https://docs.datadoghq.com/ja/monitors/monitor_types/process/ [10]: https://docs.aws.amazon.com/eventbridge/latest/userguide/what-is-amazon-eventbridge.html -[11]: https://docs.datadoghq.com/ja/help/ +[11]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/embrace_mobile.md b/content/ja/integrations/embrace_mobile.md index ea570a57172..328b0ee358a 100644 --- a/content/ja/integrations/embrace_mobile.md +++ b/content/ja/integrations/embrace_mobile.md @@ -58,20 +58,14 @@ tile: - Category::Metrics - Category::Mobile - Category::Network - - Offering::UI Extension + - Offering::Integration + - Submitted Data Type::Metrics - Supported OS::Linux - Supported OS::Windows - Supported OS::macOS configuration: README.md#Setup description: iOS、Android、React Native、Unity のためのモバイル可観測性 media: - - caption: ウィジェットを追加して、Datadog から直接 Embrace のクラッシュおよびネットワーキングデータを監視。 - image_url: images/datadog_dashboard.jpg - media_type: image - - caption: 影響を受けたすべてのユーザーセッションから、すべてのスタックトレースにアクセスして、アプリおよびセッションの詳細情報と共にクラッシュを調査。さらに、Embrace - のユーザーセッションの完全なリプレイに直接アクセスし、詳しいコンテキストを把握できます。 - image_url: images/datadog_side_panel.jpg - media_type: image - caption: Embrace のユーザーセッションリプレイにより、ユーザーセッションの技術的および行動的詳細を時間単位で視覚化。問題を手動で再生しなくても、根本原因をすばやく認識できます。 image_url: images/embrace_session.jpg media_type: image @@ -100,8 +94,6 @@ tile: 1. 無料トライアルを開始し、[Embrace のドキュメント][2]に従ってください。**Datadog でメトリクスを見る前に、このドキュメントに従う必要があります**。 1. Embrace インテグレーションのセットアップが完了したら、Datadog に戻り両プラットフォームを接続します。 1. 認証情報を使用してログインし、Embrace アカウントを認証して Datadog に接続します。 -1. Datadog でダッシュボードを新規作成します。クラッシュまたはネットワーキングメトリクスを含む Embrace のデータを表示するには、Embrace ウィジェットを選択します。 -1. "Details" をクリックすると、Datadog から Embrace の詳細を確認できます。 ## サポート diff --git a/content/ja/integrations/guide/aws-terraform-setup.md b/content/ja/integrations/guide/aws-terraform-setup.md index cff83e0ff4e..bccd44a8559 100644 --- a/content/ja/integrations/guide/aws-terraform-setup.md +++ b/content/ja/integrations/guide/aws-terraform-setup.md @@ -11,158 +11,270 @@ title: AWS と Terraform のインテグレーション [Terraform][1] を使うと、Datadog IAM ロール、ポリシードキュメント、Datadog-AWS インテグレーションを 1 つの `terraform apply` コマンドで作成することが可能です。 - 1. [Datadog Terraform プロバイダー][2]を構成し、Terraform の構成で Datadog API と対話するように設定します。 -{{< site-region region="us,us3,us5,eu" >}} +**注**: Datadog Terraform Provider のバージョン `3.50.0` で `datadog_integration_aws_account` リソースは `datadog_integration_aws` リソースに置き換えられました。`datadog_integration_aws` リソースからアップグレードするには、[datadog_integration_aws リソースからのアップグレード][3]を参照してください。 +{{< site-region region="us,us3,us5,eu" >}} 2. 以下の例を基本テンプレートとして、Terraform のコンフィギュレーションファイルを設定します。変更を適用する前に、以下のパラメーターを確実に更新してください。 * `AWS_PERMISSIONS_LIST`: Datadog AWS インテグレーションが必要とする IAM ポリシー。現在のリストは、[Datadog AWS インテグレーション][1]のドキュメントで確認できます。 * `AWS_ACCOUNT_ID`: AWS アカウント ID。 - さらなる使用例やオプションパラメーターの全リスト、Datadog の追加リソースについては、Terraform レジストリの [Datadog AWS インテグレーションリソース][2]ページを参照してください。 - - ```hcl - data "aws_iam_policy_document" "datadog_aws_integration_assume_role" { - statement { - actions = ["sts:AssumeRole"] - - principals { - type = "AWS" - identifiers = ["arn:aws:iam::464622532012:root"] - } - condition { - test = "StringEquals" - variable = "sts:ExternalId" - - values = [ - "${datadog_integration_aws.sandbox.external_id}" - ] - } - } - } - - data "aws_iam_policy_document" "datadog_aws_integration" { - statement { - actions = [] - - resources = ["*"] - } - } - - resource "aws_iam_policy" "datadog_aws_integration" { - name = "DatadogAWSIntegrationPolicy" - policy = "${data.aws_iam_policy_document.datadog_aws_integration.json}" - } - - resource "aws_iam_role" "datadog_aws_integration" { - name = "DatadogAWSIntegrationRole" - description = "Role for Datadog AWS Integration" - assume_role_policy = "${data.aws_iam_policy_document.datadog_aws_integration_assume_role.json}" - } - - resource "aws_iam_role_policy_attachment" "datadog_aws_integration" { - role = "${aws_iam_role.datadog_aws_integration.name}" - policy_arn = "${aws_iam_policy.datadog_aws_integration.arn}" - } - - resource "aws_iam_role_policy_attachment" "datadog_aws_integration_security_audit" { - role = "${aws_iam_role.datadog_aws_integration.name}" - policy_arn = "arn:aws:iam::aws:policy/SecurityAudit" - } - - resource "datadog_integration_aws" "sandbox" { - account_id = "" - role_name = "DatadogAWSIntegrationRole" - } - ``` - - [1]: /integrations/amazon_web_services/?tab=manual#aws-iam-permissions - [2]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/integration_aws +さらなる使用例やオプションパラメーターの全リスト、Datadog の追加リソースについては、[Terraform Registry][2] を参照してください。 + +```hcl +data "aws_iam_policy_document" "datadog_aws_integration_assume_role" { + statement { + actions = ["sts:AssumeRole"] + principals { + type = "AWS" + identifiers = ["arn:aws:iam::464622532012:root"] + } + condition { + test = "StringEquals" + variable = "sts:ExternalId" + values = [ + "${datadog_integration_aws_account.datadog_integration.auth_config.aws_auth_config_role.external_id}" + ] + } + } +} + +data "aws_iam_policy_document" "datadog_aws_integration" { + statement { + actions = [] + resources = ["*"] + } +} + +resource "aws_iam_policy" "datadog_aws_integration" { + name = "DatadogAWSIntegrationPolicy" + policy = data.aws_iam_policy_document.datadog_aws_integration.json +} +resource "aws_iam_role" "datadog_aws_integration" { + name = "DatadogIntegrationRole" + description = "Datadog AWS インテグレーション用ロール" + assume_role_policy = data.aws_iam_policy_document.datadog_aws_integration_assume_role.json +} +resource "aws_iam_role_policy_attachment" "datadog_aws_integration" { + role = aws_iam_role.datadog_aws_integration.name + policy_arn = aws_iam_policy.datadog_aws_integration.arn +} +resource "aws_iam_role_policy_attachment" "datadog_aws_integration_security_audit" { + role = aws_iam_role.datadog_aws_integration.name + policy_arn = "arn:aws:iam::aws:policy/SecurityAudit" +} + +resource "datadog_integration_aws_account" "datadog_integration" { + account_tags = [] + aws_account_id = "" + aws_partition = "aws" + aws_regions { + include_all = true + } + auth_config { + aws_auth_config_role { + role_name = "DatadogIntegrationRole" + } + } + resources_config { + cloud_security_posture_management_collection = true + extended_collection = true + } + traces_config { + xray_services { + } + } + logs_config { + lambda_forwarder { + } + } + metrics_config { + namespace_filters { + } + } +} +``` + +[1]: /ja/integrations/amazon_web_services/?tab=manual#aws-iam-permissions +[2]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/integration_aws_account {{< /site-region >}} {{< site-region region="ap1" >}} - 2. 以下の例を基本テンプレートとして、Terraform のコンフィギュレーションファイルを設定します。変更を適用する前に、以下のパラメーターを確実に更新してください。 * `AWS_PERMISSIONS_LIST`: Datadog AWS インテグレーションが必要とする IAM ポリシー。現在のリストは、[Datadog AWS インテグレーション][1]のドキュメントで確認できます。 * `AWS_ACCOUNT_ID`: AWS アカウント ID。 - さらなる使用例やオプションパラメーターの全リスト、Datadog の追加リソースについては、[Terraform Registry][2] を参照してください。 - - ```hcl - data "aws_iam_policy_document" "datadog_aws_integration_assume_role" { - statement { - actions = ["sts:AssumeRole"] - - principals { - type = "AWS" - identifiers = ["arn:aws:iam::417141415827:root"] - } - condition { - test = "StringEquals" - variable = "sts:ExternalId" - - values = [ - "${datadog_integration_aws.sandbox.external_id}" - ] - } - } - } - - data "aws_iam_policy_document" "datadog_aws_integration" { - statement { - actions = [] - - resources = ["*"] - } - } - - resource "aws_iam_policy" "datadog_aws_integration" { - name = "DatadogAWSIntegrationPolicy" - policy = "${data.aws_iam_policy_document.datadog_aws_integration.json}" - } - - resource "aws_iam_role" "datadog_aws_integration" { - name = "DatadogAWSIntegrationRole" - description = "Role for Datadog AWS Integration" - assume_role_policy = "${data.aws_iam_policy_document.datadog_aws_integration_assume_role.json}" - } - - resource "aws_iam_role_policy_attachment" "datadog_aws_integration" { - role = "${aws_iam_role.datadog_aws_integration.name}" - policy_arn = "${aws_iam_policy.datadog_aws_integration.arn}" - } - - resource "datadog_integration_aws" "sandbox" { - account_id = "" - role_name = "DatadogAWSIntegrationRole" - } - ``` +さらなる使用例やオプションパラメーターの全リスト、Datadog の追加リソースについては、[Terraform Registry][2] を参照してください。 + +```hcl +data "aws_iam_policy_document" "datadog_aws_integration_assume_role" { + statement { + actions = ["sts:AssumeRole"] + principals { + type = "AWS" + identifiers = ["arn:aws:iam::417141415827:root"] + } + condition { + test = "StringEquals" + variable = "sts:ExternalId" + values = [ + "${datadog_integration_aws_account.datadog_integration.auth_config.aws_auth_config_role.external_id}" + ] + } + } +} + +data "aws_iam_policy_document" "datadog_aws_integration" { + statement { + actions = [] + resources = ["*"] + } +} + +resource "aws_iam_policy" "datadog_aws_integration" { + name = "DatadogAWSIntegrationPolicy" + policy = data.aws_iam_policy_document.datadog_aws_integration.json +} +resource "aws_iam_role" "datadog_aws_integration" { + name = "DatadogIntegrationRole" + description = "Datadog AWS インテグレーション用ロール" + assume_role_policy = data.aws_iam_policy_document.datadog_aws_integration_assume_role.json +} +resource "aws_iam_role_policy_attachment" "datadog_aws_integration" { + role = aws_iam_role.datadog_aws_integration.name + policy_arn = aws_iam_policy.datadog_aws_integration.arn +} +resource "aws_iam_role_policy_attachment" "datadog_aws_integration_security_audit" { + role = aws_iam_role.datadog_aws_integration.name + policy_arn = "arn:aws:iam::aws:policy/SecurityAudit" +} + +resource "datadog_integration_aws_account" "datadog_integration" { + account_tags = [] + aws_account_id = "" + aws_partition = "aws" + aws_regions { + include_all = true + } + auth_config { + aws_auth_config_role { + role_name = "DatadogIntegrationRole" + } + } + resources_config { + cloud_security_posture_management_collection = true + extended_collection = true + } + traces_config { + xray_services { + } + } + logs_config { + lambda_forwarder { + } + } + metrics_config { + namespace_filters { + } + } +} +``` [1]: /ja/integrations/amazon_web_services/?tab=manual#aws-iam-permissions [2]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/integration_aws {{< /site-region >}} {{< site-region region="gov" >}} +2. 以下の例を基本テンプレートとして、Terraform のコンフィギュレーションファイルを設定します。変更を適用する前に、以下のパラメーターを確実に更新してください。 + * `AWS_PERMISSIONS_LIST`: Datadog AWS インテグレーションが必要とする IAM ポリシー。現在のリストは、[Datadog AWS インテグレーション][1]のドキュメントで確認できます。 + * `AWS_ACCOUNT_ID`: AWS アカウント ID。 -2. アクセスキーを使用して Datadog AWS インテグレーションをインストールする場合、[AWS マニュアルセットアップガイド][3]で説明されているように、[必要な権限][1]とアクセスキーを持つ IAM ユーザーを作成したことを確認してください。以下の例のプレースホルダーにアクセスキー ID とシークレットアクセスキーを追加します。Terraform を使用して AWS ユーザーと関連するアクセスキーを設定する方法については、Terraform Registry の [AWS Provider][2] リソースを参照してください。 - - ``` - resource "datadog_integration_aws" "sandbox" { - access_key_id = "" - secret_access_key = "" - } - ``` +さらなる使用例やオプションパラメーターの全リスト、Datadog の追加リソースについては、[Terraform Registry][2] を参照してください。 + +```hcl +data "aws_iam_policy_document" "datadog_aws_integration_assume_role" { + statement { + actions = ["sts:AssumeRole"] + principals { + type = "AWS" + identifiers = ["arn:aws:iam::065115117704:root"] + } + condition { + test = "StringEquals" + variable = "sts:ExternalId" + values = [ + "${datadog_integration_aws_account.datadog_integration.auth_config.aws_auth_config_role.external_id}" + ] + } + } +} + +data "aws_iam_policy_document" "datadog_aws_integration" { + statement { + actions = [] + resources = ["*"] + } +} + +resource "aws_iam_policy" "datadog_aws_integration" { + name = "DatadogAWSIntegrationPolicy" + policy = data.aws_iam_policy_document.datadog_aws_integration.json +} +resource "aws_iam_role" "datadog_aws_integration" { + name = "DatadogIntegrationRole" + description = "Datadog AWS インテグレーション用ロール" + assume_role_policy = data.aws_iam_policy_document.datadog_aws_integration_assume_role.json +} +resource "aws_iam_role_policy_attachment" "datadog_aws_integration" { + role = aws_iam_role.datadog_aws_integration.name + policy_arn = aws_iam_policy.datadog_aws_integration.arn +} +resource "aws_iam_role_policy_attachment" "datadog_aws_integration_security_audit" { + role = aws_iam_role.datadog_aws_integration.name + policy_arn = "arn:aws:iam::aws:policy/SecurityAudit" +} + +resource "datadog_integration_aws_account" "datadog_integration" { + account_tags = [] + aws_account_id = "" + aws_partition = "aws" + aws_regions { + include_all = true + } + auth_config { + aws_auth_config_role { + role_name = "DatadogIntegrationRole" + } + } + resources_config { + cloud_security_posture_management_collection = true + extended_collection = true + } + traces_config { + xray_services { + } + } + logs_config { + lambda_forwarder { + } + } + metrics_config { + namespace_filters { + } + } +} +``` -[1]: /ja/integrations/guide/aws-manual-setup/?tab=accesskeysgovcloudorchinaonly#aws-integration-iam-policy -[2]: https://registry.terraform.io/providers/hashicorp/aws/latest/docs -[3]: /ja/integrations/guide/aws-manual-setup/?tab=accesskeysgovcloudorchinaonly#aws -{{< /site-region>}} +[1]: /ja/integrations/amazon_web_services/?tab=manual#aws-iam-permissions +[2]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/integration_aws +{{< /site-region >}} -3. `terraform apply` を実行します。データ収集が開始されるまで最大 10 分待ち、すぐに使える [AWS 概要ダッシュボード][5]を表示し、AWS サービスやインフラストラクチャーから送信されるメトリクスを確認します。 +3. `terraform apply` を実行してください。データの収集が始まるまで最大 10 分ほど待ってから、AWS のサービスやインフラストラクチャーから送信されるメトリクスを確認するために、標準で用意されている [AWS 概要ダッシュボード][4]をご覧ください。 {{< partial name="whats-next/whats-next.html" >}} [1]: https://www.terraform.io [2]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs -[5]: https://app.datadoghq.com/screen/integration/7/aws-overview +[3]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/integration_aws_account#upgrading-from-datadog_integration_aws-resources +[4]: https://app.datadoghq.com/screen/integration/7/aws-overview \ No newline at end of file diff --git a/content/ja/integrations/guide/azure-status-metric.md b/content/ja/integrations/guide/azure-status-metric.md deleted file mode 100644 index cb6ec37995b..00000000000 --- a/content/ja/integrations/guide/azure-status-metric.md +++ /dev/null @@ -1,80 +0,0 @@ ---- -aliases: -- /ja/integrations/faq/azure-vm-status-is-not-reporting -- /ja/integrations/faq/azure-status-metric -title: Azure のステータスとカウントメトリクス ---- - -## 概要 - -Datadog は、[Azure インテグレーション][1]で監視している各リソースに対して、`azure.*.status` と `azure.*.count` という 2 つの追加のメトリクスを生成します。例えば、Datadog で監視している Azure Virtual Machines は、`azure.vm.status` と `azure.vm.count` をレポートします。この 2 つのメトリクスは、同様の情報をカバーしています。 - -`zure.*.count` メトリクスは `azure.*.status` を改良したもので、非推奨となっています。 - -## カウントメトリクス - -`azure.*.count` メトリクスは、2 つの基本的な情報を提供します。 - -- そのタイプのリソースの数。 -- Azure から報告された各リソースのステータス。 - -`azure.*.count` メトリクスは、そのリソースタイプの他のメトリクスと同じネームスペースに作成されます (例: `azure.network_loadbalancers.count`)。そのネームスペース内の他のメトリクスと同じメタデータタグをすべて含み、さらに `status` のタグも追加されます。 - -### ユースケース - -`azure.*.count` メトリクスを使うと以下のことができます。 - -- すべてに対する `azure.vm.count` をグラフ化し、`status` で合計することで、時間経過に対する仮想マシンの数をステータス別に表示するビューを作成します。 -- ダッシュボードにクエリウィジェットを作成し、指定されたリソースタイプの数を表示します。利用可能なタグを使用して、地域、リソースグループ、種類、ステータスなど、関連する集計にカウントをスコープします。 -- さまざまな Azure リソースのステータスをアラートするためのモニターを作成します。 - -**注**: デフォルトの視覚化設定により、チャートやクエリウィジェットでリソースが断続的にダブルカウントされているように見える場合があります。これは、特定のステータスにスコープされたモニターまたはウィジェットには影響しません。 -Interpolation > none を設定してチャートやクエリウィジェットで[補間][2]をオフにするか、`.fill(null)` を使用すると、この効果を減らすことができます。 - -ほとんどのリソースタイプで、可能性のあるステータスは次のとおりです。 - -- Running -- Unavailable -- Unknown -- Degraded -- Failed - -仮想マシンには、より詳細なステータスがあります。 - -- Running -- Stopped_deallocated -- Stopped -- Unknown -- Unavailable -- Degraded -- Failed - -`query_failed` というステータスが表示された場合、Azure の [Resource Health プロバイダー](#troubleshooting)を有効化する必要があります。 - -## ステータスメトリクス - -`azure.*.status` メトリクスは、この同じ種類の情報に対する以前のソリューションです。これは、各 Azure リソースタイプの利用可能なリソースの数をレポートします。 - -### 相違点 - -`.status` と `.count` のメトリクスの主な違い: - -- `azure.*.count` は Azure アカウントに存在するすべてのリソースを含み、`azure.*.status` は利用可能なリソースの数のみを報告します。 -- `azure.*.count` には `status` タグが含まれ、リソースの特定の利用可能状態を報告します。一方 `azure.*.status` にはリソースタイプに応じた標準のタグだけが含まれます。 -- `azure.*.count` には、メトリクス値の精度と信頼性の向上が含まれています。 - -## トラブルシューティング - -Azure インテグレーションがメトリクスを報告しているが、`azure.*.status` を返していない、または `azure.*.count` が `status:query_failed` を返している場合、Azure サブスクリプションが Azure Resource Health プロバイダーを登録する必要があります。 - -Azure コマンドラインインターフェイスの使用: -```bash -azure login # Datadog アカウントに関連付けられた Azure ユーザーにログインします -azure config mode arm -azure provider register Microsoft.ResourceHealth -``` - -Datadog では 5~10 分以内に `azure.*.status` というメトリクスが表示されるはずです。 - -[1]: /ja/integrations/azure/ -[2]: /ja/metrics/guide/interpolation-the-fill-modifier-explained/ \ No newline at end of file diff --git a/content/ja/opentelemetry/config/environment_variable_support.md b/content/ja/opentelemetry/config/environment_variable_support.md new file mode 100644 index 00000000000..d24a019fcfb --- /dev/null +++ b/content/ja/opentelemetry/config/environment_variable_support.md @@ -0,0 +1,159 @@ +--- +aliases: +- /ja/opentelemetry/interoperability/environment_variable_support +further_reading: +- link: /tracing/trace_collection/library_config/dotnet-core + tag: ドキュメント + text: .NET Core SDK 設定 +- link: /tracing/trace_collection/library_config/dotnet-framework + tag: ドキュメント + text: .NET Framework SDK 設定 +- link: /tracing/trace_collection/library_config/go + tag: ドキュメント + text: Go SDK 設定 +- link: /tracing/trace_collection/library_config/java + tag: ドキュメント + text: Java SDK 設定 +- link: /tracing/trace_collection/library_config/nodejs + tag: ドキュメント + text: Node.js SDK 設定 +- link: /tracing/trace_collection/library_config/php + tag: ドキュメント + text: PHP SDK 設定 +- link: /tracing/trace_collection/library_config/python + tag: ドキュメント + text: Python SDK 設定 +- link: /tracing/trace_collection/library_config/ruby + tag: ドキュメント + text: Ruby SDK 設定 +title: Datadog SDK で OpenTelemetry の環境変数を使用する +--- + +"Datadog SDK は OpenTelemetry Tracing API を実装しており、OpenTelemetry の環境変数を使用してアプリケーションの Datadog トレーシングを設定できます。 既存の設定をほとんど変更せずにアプリケーションの OpenTelemetry SDK を Datadog SDK に置き換えることで、トレースと追加の Datadog テレメトリを受信できます。 +このページでは、Datadog がサポートしている OpenTelemetry SDK のオプションについて説明します。" + +
Datadog と OpenTelemetry の環境変数が両方設定されている場合、Datadog が優先されます。Datadog のデフォルト値も OpenTelemetry のデフォルト値より優先されます。デフォルト値や詳細については、該当するSDK 設定ページをご覧ください。
+ +## 一般的な SDK 設定 +Datadog SDK は、以下の一般的な OpenTelemetry SDK オプションをサポートしています。詳細については、関連する [OpenTelemetry ドキュメント][9]を参照してください。 + +`OTEL_SERVICE_NAME` +: ****Datadog の規則****: `DD_SERVICE`
+サービス名を設定します
+**注**: `OTEL_RESOURCE_ATTRIBUTES` で `service.name` が指定されている場合でも、`OTEL_SERVICE_NAME` が優先されます
+ +`OTEL_LOG_LEVEL` +: ****Datadog の規則****: `DD_LOG_LEVEL`
+SDK ロガーが使用するログレベルを設定します
+**注**: ログレベルを debug にすると、`DD_TRACE_DEBUG=true` と同じ扱いになります
+Node.js および PHP SDK では、`DD_TRACE_LOG_LEVEL` にマッピングされます
+Go SDK では、`OTEL_LOG_LEVEL` と `DD_TRACE_DEBUG` のマッピングに対応する値のみサポートされます:
+ - `info`|`false` + - `debug`|`true`
+**未サポート**: Python、.NET、Ruby、Go SDK
+ +`OTEL_PROPAGATORS` +: ****Datadog の規則****: `DD_TRACE_PROPAGATION_STYLE`
+コンマ区切りのリストとして使用する伝搬方式 (Propagators) を指定します
+**注**: 多くの Datadog SDK でサポートされる値は `tracecontext`、`b3`、`b3multi`、`none`、`datadog` のみです。Java SDK では `xray` もサポートされます
+同じ `Propagator` を重複登録しないよう、値は重複を取り除く必要があります
+ +`OTEL_TRACES_SAMPLER & OTEL_TRACES_SAMPLER_ARG` +: ****Datadog の規則****: `DD_TRACE_SAMPLE_RATE`
+`OTEL_TRACES_SAMPLER`: トレースで使用するサンプラー +`OTEL_TRACES_SAMPLER_ARG`: サンプラーの引数として使用される文字列
+**注**: `OTEL_TRACES_SAMPLER` が設定されている場合にのみ、その指定値が使用されます。各サンプラータイプは、それぞれ期待する入力 (あれば) を定義しています。無効または未知の入力があった場合はログに出力され、無視されます。その場合、実装は `OTEL_TRACES_SAMPLER_ARG` が設定されていない場合と同様に動作しなければなりません
+`OTEL_TRACES_SAMPLER` と `DD_TRACE_SAMPLE_RATE` のマッピング:
+ - `parentbased_always_on`|`1.0` + - `parentbased_always_off`|`0.0` + - `parentbased_traceidratio`|`${OTEL_TRACES_SAMPLER_ARG}` + - `always_on`|`1.0` + - `always_off`|`0.0` + - `traceidratio`|`${OTEL_TRACES_SAMPLER_ARG}` + +`OTEL_TRACES_EXPORTER` +: ****Datadog の規則****: `DD_TRACE_ENABLED=false`
+使用するトレースエクスポーターを指定します
+**注**: `none` のみが受け付けられます
+ +`OTEL_METRICS_EXPORTER` +: ****Datadog の規則****: `DD_RUNTIME_METRICS_ENABLED=false`
+使用するメトリクスエクスポーターを指定します
+**注**: `none` のみが受け付けられます
+ +`OTEL_RESOURCE_ATTRIBUTES` +: ****Datadog の規則****: `DD_TAGS`
+リソース属性として使用されるキーと値のペアです。詳細は[リソースのセマンティック規約][11]を参照してください
+**注**: 最初の 10 個のキー・バリューのペアのみが使用され、以降は破棄されます
+`deployment.environment` および `deployment.environment.name`は `DD_ENV` にマッピングされます
+`service.name` は `DD_SERVICE` 環境変数にマッピングされます
+`service.version` は `DD_VERSION` 環境変数にマッピングされます
+ + +`OTEL_SDK_DISABLED` +: ****Datadog の規則****: `!DD_TRACE_OTEL_ENABLED`
+すべてのシグナルに対して SDK を無効化します
+**注**: `OTEL_SDK_DISABLED` と `DD_TRACE_OTEL_ENABLED` のマッピング:
+ - `true`|`false` + - `false`|`true`
+**Ruby & Go SDK**: OpenTelemetry SDK はインポートおよび設定時に自動的に有効化されるため、この設定は該当しません。 + +## Java 固有の設定 +Datadog SDK は、以下の Java 固有の OpenTelemetry 設定オプションをサポートしています。詳細については [OpenTelemetry の Java エージェント設定][10]を参照してください。 + + +`OTEL_INSTRUMENTATION_COMMON_DEFAULT_ENABLED` +: ****Datadog の規則****: `!DD_INTEGRATIONS_ENABLED`
+エージェントのすべてのインスツルメンテーションを無効化するには `false` に設定します
+**注**: `OTEL_INSTRUMENTATION_COMMON_DEFAULT_ENABLED` と `DD_INTEGRATIONS_ENABLED` のマッピング:
+ - `true`|`false` + - `false`|`true` + +`OTEL_INSTRUMENTATION_[NAME]_ENABLED` +: **説明**: 指定した名前の OTel ドロップインインスツルメンテーションを有効/無効化します
+ +`OTEL_JAVAAGENT_CONFIGURATION_FILE` +: ****Datadog の規則****: `DD_TRACE_CONFIG`
+エージェントの設定を含む有効な Java プロパティファイルへのパス
+**注**: OTEL_JAVAAGENT_CONFIGURATION_FILE と DD_TRACE_CONFIG の両方が設定されている場合、通常の「Datadog 設定が OTel 設定を上書きする」というルールの例外として、両方のファイルから構成を適用します
+ +`OTEL_INSTRUMENTATION_HTTP_CLIENT_CAPTURE_REQUEST_HEADERS` +: ****Datadog の規則****: `DD_TRACE_REQUEST_HEADER_TAGS`
+HTTP ヘッダー名のカンマ区切りリスト。HTTP クライアントのインスツルメンテーションは、設定されたすべてのヘッダー名に対して HTTP リクエストヘッダーの値をキャプチャします
+**注**: OTel の環境変数で設定されたヘッダーのタグ付けは、Datadog の命名規則である `http.request.headers.` ではなく、`http.request.header.` の OTel 規則に従います
+ +`OTEL_INSTRUMENTATION_HTTP_CLIENT_CAPTURE_RESPONSE_HEADERS` +: ****Datadog の規則****: `DD_TRACE_RESPONSE_HEADER_TAGS`
+HTTP ヘッダー名のカンマ区切りリスト。HTTP クライアントのインスツルメンテーションは、設定されたすべてのヘッダー名に対して HTTP レスポンスヘッダーの値をキャプチャします
+**注**: OTel の環境変数で設定されたヘッダーのタグ付けは、Datadog の命名規則である `http.response.headers.` ではなく、`http.response.header.` の OTel 規則に従います
+ +`OTEL_INSTRUMENTATION_HTTP_SERVER_CAPTURE_REQUEST_HEADERS` +: ****Datadog の規則****: `DD_TRACE_REQUEST_HEADER_TAGS`
+HTTP ヘッダー名のカンマ区切りリスト。HTTP サーバーのインスツルメンテーションは、設定されたすべてのヘッダー名に対して HTTP リクエストヘッダーの値をキャプチャします
+**注**: OTel の環境変数で設定されたヘッダーのタグ付けは、Datadog の命名規則である `http.request.headers.` ではなく、`http.request.header.` の OTel 規則に従います
+ +`OTEL_INSTRUMENTATION_HTTP_SERVER_CAPTURE_RESPONSE_HEADERS` +: ****Datadog の規則****: `DD_TRACE_RESPONSE_HEADER_TAGS`
+HTTP ヘッダー名のカンマ区切りリスト。HTTP サーバーのインスツルメンテーションは、設定されたすべてのヘッダー名に対して HTTP レスポンスヘッダーの値をキャプチャします
+**注**: OTel の環境変数で設定されたヘッダーのタグ付けは、Datadog の命名規則である `http.response.headers.` ではなく、`http.response.header.` の OTel 規則に従います
+ +`OTEL_JAVAAGENT_EXTENSIONS` +: ****Datadog の規則****: `DD_TRACE_EXTENSIONS_PATH`
+拡張用の jar ファイルのパス、または jar ファイルを含むフォルダのパスをカンマ区切りで指定します。フォルダを指定した場合、そのフォルダにあるすべての jar ファイルが独立した拡張として扱われます
+ +## その他の参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ja/tracing/trace_collection/library_config/dotnet-core +[2]: /ja/tracing/trace_collection/library_config/dotnet-framework +[3]: /ja/tracing/trace_collection/library_config/go +[4]: /ja/tracing/trace_collection/library_config/java +[5]: /ja/tracing/trace_collection/library_config/nodejs +[6]: /ja/tracing/trace_collection/library_config/php +[7]: /ja/tracing/trace_collection/library_config/python +[8]: /ja/tracing/trace_collection/library_config/ruby +[9]: https://opentelemetry.io/docs/specs/otel/configuration/SDK-environment-variables/#general-SDK-configuration +[10]: https://opentelemetry.io/docs/zero-code/java/agent/configuration/#configuring-the-agent +[11]: https://opentelemetry.io/docs/specs/semconv/resource/#semantic-attributes-with-dedicated-environment-variable +[12]: /ja/tracing/trace_collection/library_config/_index \ No newline at end of file diff --git a/content/ja/opentelemetry/setup/collector_exporter/_index.md b/content/ja/opentelemetry/setup/collector_exporter/_index.md new file mode 100644 index 00000000000..429fbc5626e --- /dev/null +++ b/content/ja/opentelemetry/setup/collector_exporter/_index.md @@ -0,0 +1,298 @@ +--- +aliases: +- /ja/tracing/setup_overview/open_standards/otel_collector_datadog_exporter/ +- /ja/tracing/trace_collection/open_standards/otel_collector_datadog_exporter/ +- /ja/opentelemetry/otel_collector_datadog_exporter/ +- /ja/opentelemetry/collector_exporter/ +- /ja/opentelemetry/collector_exporter/otel_collector_datadog_exporter +description: OpenTelemetry のデータを OpenTelemetry Collector と Datadog Exporter に送信する +further_reading: +- link: tracing/glossary/ + tag: 外部サイト + text: Collectorドキュメント +- link: https://www.datadoghq.com/blog/ingest-opentelemetry-traces-metrics-with-datadog-exporter/ + tag: ブログ + text: OpenTelemetry コレクターを使用して Datadog エクスポーター経由で Datadog にメトリクス、トレース、ログを送信する +title: OpenTelemetry Collector をセットアップする +--- + +## 概要 + +OpenTelemetry Collector を使用すると、アプリケーションからのテレメトリーデータをベンダーに依存しない方法で収集、処理、エクスポートできます。[Datadog Exporter][1] と [Datadog Connector][29] を設定すると、Datadog Agent を使用せずにトレース、ログ、およびメトリクスを Datadog に送信できます。 + +- **Datadog Exporter**: OpenTelemetry SDK が生成するトレース、メトリクス、ログデータを Datadog (Datadog Agent 不要) に転送する +- **Datadog Connector**: 収集したスパンデータからトレースメトリクスを計算する + +{{< img src="/opentelemetry/setup/otel-collector.png" alt="図: コード内の OpenTelemetry SDK が OTLP を通じてデータを、Datadog Exporter を組み込んだ OpenTelemetry Collector が稼働するホストへ送信し、さらに Datadog の Observability Platform へ転送する様子を示す図。" style="width:100%;" >}} + +
このセットアップでサポートされる Datadog 機能を確認するには、機能の互換性テーブルFull OTel を参照してください。
+ +## インストールと設定 + +### 1 - OpenTelemetry Collector をダウンロードする + +OpenTelemetry Collector Contribute の最新リリースを[プロジェクトのリポジトリ][3]からダウンロードします。 + +### 2 - Datadog Exporter と Connector を設定する + +Datadog Exporter と Datadog Connector を使用するには、[OpenTelemetry Collector の設定][4]に組み込みます。 + +1. `collector.yaml` という名前の設定ファイルを作成します。 +1. 次のサンプルファイルを使用して始めることができます。 +1. Datadog の API キーを `DD_API_KEY` 環境変数として設定してください。 + +{{% otel-endpoint-note %}} + +```yaml +receivers: + otlp: + protocols: + http: + endpoint: 0.0.0.0:4318 + grpc: + endpoint: 0.0.0.0:4317 + # Datadogで正確なインフラストラクチャメトリクスを取得するには、hostmetrics レシーバーが必要です。 + hostmetrics: + collection_interval: 10s + scrapers: + paging: + metrics: + system.paging.utilization: + enabled: true + cpu: + metrics: + system.cpu.utilization: + enabled: true + disk: + filesystem: + metrics: + system.filesystem.utilization: + enabled: true + load: + memory: + network: + processes: + # prometheus レシーバーは、OpenTelemetry Collector ダッシュボードに必要なメトリクスをスクレイプします。 + prometheus: + config: + scrape_configs: + - job_name: 'otelcol' + scrape_interval: 10s + static_configs: + - targets: ['0.0.0.0:8888'] + + filelog: + include_file_path: true + poll_interval: 500ms + include: + - /var/log/**/*example*/*.log + +processors: + batch: + send_batch_max_size: 100 + send_batch_size: 10 + timeout: 10s + +connectors: + datadog/connector: + +exporters: + datadog/exporter: + api: + site: {{< region-param key="dd_site" >}} + key: ${env:DD_API_KEY} + +service: + pipelines: + metrics: + receivers: [hostmetrics, prometheus, otlp, datadog/connector] + processors: [batch] + exporters: [datadog/exporter] + traces: + receivers: [otlp] + processors: [batch] + exporters: [datadog/connector, datadog/exporter] + logs: + receivers: [otlp, filelog] + processors: [batch] + exporters: [datadog/exporter] +``` + +この基本的な設定では、HTTP および gRPC 経由で OTLP データを受信できるようになり、[バッチプロセッサ][5]が設定されます。 + +Datadog Exporter の設定オプションの完全なリストについては、[ドキュメント化されたサンプル設定ファイル][8]を参照してください。デプロイ方法によっては、`api::site` や `host_metadata` といった追加オプションが必要になる場合があります。 + +#### バッチプロセッサの設定 + +本番環境 (開発環境以外) では、バッチプロセッサが必要です。具体的な設定はワークロードや扱うシグナルタイプによって異なります。 + +Datadog のインテーク上限に合わせてバッチプロセッサを設定してください: + +- トレースインテーク: 3.2MB +- ログインテーク: [5MB 非圧縮][6] +- メトリクス V2 インテーク: [500KB または解凍後 5MB][7] + +バッチプロセッサでまとめるテレメトリーデータが多すぎる場合、`413 - Request Entity Too Large` エラーが発生することがあります。 + +### 3 - アプリケーションを設定する + +トレースのメタデータを充実させ、Datadog とのインテグレーションを円滑に行うには + +- **リソース検出システム**を使用する: 言語 SDK で提供されている場合、コンテナ情報をリソース属性としてアタッチします。例えば、Go の場合、[`WithContainer()`][9] リソースオプションを使用します。 + +- **[統合サービスタグ付け][10]**を適用する: 統合サービスタグ付けに適切なリソース属性をアプリケーションに構成していることを確認してください。これは、Datadog のテレメトリーを、サービス名、デプロイ環境、サービスバージョンなどのタグで結びつけます。アプリケーションはこれらのタグを OpenTelemetry のセマンティック規則 (`service.name`、`deployment.environment`、`service.version`) を使用して設定する必要があります。 + +### 4 - アプリケーションのロガーを設定する + +{{< img src="logs/log_collection/otel_collector_logs.png" alt="コレクター内の filelog レシーバーにデータを送信するホスト、コンテナ、アプリケーション、コレクター内の Datadog Exporter が Datadog バックエンドにデータを送信する様子を示した図" style="width:100%;">}} + +OpenTelemetry SDK のログ機能はまだ完全にはサポートされていません (詳細は [OpenTelemetry のドキュメント][11]でご利用の言語の項目を参照) 。Datadog では、アプリケーション用の標準的なロギングライブラリの使用を推奨しています。言語別の[ログ収集ドキュメント][12]に従い、アプリケーションに適切なロガーを設定してください。Datadog では、[カスタムパーシングルール][13]を回避するため、ロギングライブラリを JSON 出力するように強く推奨しています。 + +#### filelog レシーバーの構成 + +[演算子][14]を使って、filelog レシーバーを構成します。例えば、`checkoutservice` というサービスがあり、それが `/var/log/pods/services/checkout/0.log` にログを書き込んでいるとしたら、ログのサンプルは以下のようになります。 + +``` +{"level":"info","message":"order confirmation email sent to \"jack@example.com\"","service":"checkoutservice","span_id":"197492ff2b4e1c65","timestamp":"2022-10-10T22:17:14.841359661Z","trace_id":"e12c408e028299900d48a9dd29b0dc4c"} +``` + +filelog の構成例 + +``` +filelog: + include: + - /var/log/pods/**/*checkout*/*.log + start_at: end + poll_interval: 500ms + operators: + - id: parse_log + type: json_parser + parse_from: body + - id: trace + type: trace_parser + trace_id: + parse_from: attributes.trace_id + span_id: + parse_from: attributes.span_id + attributes: + ddtags: env:staging +``` + +- `include`: レシーバーが追跡するファイルのリスト +- `start_at: end`: 追記された新しいログを読み込む指定 +- `poll_internal`: ポーリングの頻度 +- 演算子: + - `json_parser`: JSON ログをパースします。デフォルトでは、filelog レシーバーは各ログ行をログレコードに変換し、それがログの[データモデル][15]の `body` となります。次に、`json_parser` が JSON の本文をデータモデルの属性に変換します。 + - `trace_parser`: ログから `trace_id` と `span_id` を抽出し、Datadog 内でログとトレースを関連付ける。 + +#### OTel の `service.name` 属性をログの `service` に再マップする + +Datadog Exporter バージョン 0.83.0 以降では、OTel ログの `service` フィールドは [OTel のセマンティック規約][25]である `service.name` を参照しています。ただし `service.name` は Datadog のログ前処理で使われる[サービス属性][26]のデフォルト項目には含まれていません。 + +ログの `service` フィールドを正しく反映させるためには、[log service remapper プロセッサ][27]を設定し、`service.name` をログの service 取り込み元として指定することができます。 + +{{% collapse-content title="オプション: Kubernetes を使用する" level="h4" %}} + +Kubernetes インフラクチャーに OpenTelemetry Collector と Datadog Exporter をデプロイする方法は複数存在します。filelog レシーバーを動作させるためには、[Agent/DaemonSet のデプロイメント][16]を推奨します。 + +コンテナ化された環境では、アプリケーションは通常 `stdout` や `stderr` にログを書き出し、Kubernetes がそれを標準的なパスに出力します。そのため、filelog レシーバーでそれらを取り込むには、ホストノード上のディレクトリを Collector にマウントする必要があります。下記はログ送信に必要なマウントを含む[拡張設定例][17]です。 + +``` +apiVersion: apps/v1 +metadata: + name: otel-agent + labels: + app: opentelemetry + component: otel-collector +spec: + template: + metadata: + labels: + app: opentelemetry + component: otel-collector + spec: + containers: + - name: collector + command: + - "/otelcol-contrib" + - "--config=/conf/otel-agent-config.yaml" + image: otel/opentelemetry-collector-contrib:0.71.0 + env: + - name: POD_IP + valueFrom: + fieldRef: + fieldPath: status.podIP + # k8s.pod.ip は k8sattributes でポッドを関連付けるために使用されます + - name: OTEL_RESOURCE_ATTRIBUTES + value: "k8s.pod.ip=$(POD_IP)" + ports: + - containerPort: 4318 # OpenTelemetry HTTP レシーバーのデフォルトポート + hostPort: 4318 + - containerPort: 4317 # OpenTelemetry gRPC レシーバーのデフォルトポート + hostPort: 4317 + - containerPort: 8888 # メトリクス取得用のデフォルトエンドポイント + volumeMounts: + - name: otel-agent-config-vol + mountPath: /conf + - name: varlogpods + mountPath: /var/log/pods + readOnly: true + - name: varlibdockercontainers + mountPath: /var/lib/docker/containers + readOnly: true + volumes: + - name: otel-agent-config-vol + configMap: + name: otel-agent-conf + items: + - key: otel-agent-config + path: otel-agent-config.yaml + # ノード上のログファイルディレクトリをマウント + - name: varlogpods + hostPath: + path: /var/log/pods + - name: varlibdockercontainers + hostPath: + path: /var/lib/docker/containers +``` + +{{% /collapse-content %}} + +## すぐに使える Datadog Exporter の構成 + +OpenTelemetry Collector Contrib プロジェクトの [`exporter/datadogexporter/examples` フォルダー][31]には、Datadog Exporter の標準的な設定例が掲載されています。完全な設定例としては [`ootb-ec2.yaml`][30] を参照してください。それぞれのコンポーネントを環境に合わせて設定してください。 + +{{< whatsnext desc=" " >}} + {{< nextlink href="/opentelemetry/collector_exporter/otlp_receiver/" >}}OTLP Receiver{{< /nextlink >}} + {{< nextlink href="/opentelemetry/collector_exporter/hostname_tagging/" >}}ホスト名とタグ{{< /nextlink >}} + {{< nextlink href="/opentelemetry/collector_exporter/collector_batch_memory/" >}}バッチとメモリ設定{{< /nextlink >}} +{{< /whatsnext >}} + +## 参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/exporter/datadogexporter +[3]: https://github.com/open-telemetry/opentelemetry-collector-releases/releases/latest +[4]: https://opentelemetry.io/docs/collector/configuration/ +[5]: https://github.com/open-telemetry/opentelemetry-collector/blob/main/processor/batchprocessor/README.md +[6]: /ja/api/latest/logs/ +[7]: /ja/api/latest/metrics/#submit-metrics +[8]: https://github.com/open-telemetry/opentelemetry-collector-contrib/blob/main/exporter/datadogexporter/examples/collector.yaml +[9]: https://pkg.go.dev/go.opentelemetry.io/otel/sdk/resource#WithContainer +[10]: /ja/getting_started/tagging/unified_service_tagging/ +[11]: https://opentelemetry.io/docs/instrumentation/ +[12]: /ja/logs/log_collection/?tab=host +[13]: /ja/logs/log_configuration/parsing/ +[14]: https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/pkg/stanza/docs/operators +[15]: https://opentelemetry.io/docs/reference/specification/logs/data-model/ +[16]: https://opentelemetry.io/docs/collector/deployment/#agent +[17]: https://github.com/open-telemetry/opentelemetry-collector-contrib/blob/main/exporter/datadogexporter/examples/k8s-chart/daemonset.yaml +[25]: https://opentelemetry.io/docs/specs/semconv/resource/#service +[26]: /ja/logs/log_configuration/pipelines/?tab=service#service-attribute +[27]: /ja/logs/log_configuration/processors/?tab=ui#service-remapper +[28]: /ja/opentelemetry/schema_semantics/hostname/ +[29]: https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/connector/datadogconnector +[30]: https://github.com/open-telemetry/opentelemetry-collector-contrib/blob/main/exporter/datadogexporter/examples/ootb-ec2.yaml +[31]: https://github.com/open-telemetry/opentelemetry-collector-contrib/blob/main/exporter/datadogexporter/examples/ +[32]: /ja/opentelemetry/compatibility/ \ No newline at end of file diff --git a/content/ja/real_user_monitoring/browser/monitoring_performance_vitals.md b/content/ja/real_user_monitoring/browser/monitoring_performance_vitals.md deleted file mode 100644 index 70c397c4951..00000000000 --- a/content/ja/real_user_monitoring/browser/monitoring_performance_vitals.md +++ /dev/null @@ -1,91 +0,0 @@ ---- -further_reading: -- link: https://learn.datadoghq.com/courses/core-web-vitals-lab - tag: ラーニングセンター - text: 'インタラクティブラボ: コアウェブバイタル' -- link: https://www.datadoghq.com/blog/real-user-monitoring-with-datadog/ - tag: ブログ - text: Real User Monitoring -- link: https://www.datadoghq.com/blog/core-web-vitals-monitoring-datadog-rum-synthetics/ - tag: ブログ - text: Datadog RUM および Synthetic モニタリングでウェブに関する主な指標を監視 -title: パフォーマンスバイタルの監視 ---- - -## 概要 - -{{< img src="real_user_monitoring/browser/vitals_performance/vitals-workflow.mp4" alt="RUM Vitals は、実際のユーザーのトラフィックに基づいてブラウザのパフォーマンス問題の根本原因を見つけるのに役立ちます。" video="true" >}} - -RUM Vitals は、実際のユーザーのトラフィックに基づいてブラウザのパフォーマンス問題の真の根本原因を見つけるのに役立ちます。 [Core Web Vitals][1] (CWV)、[Loading Time][2] (ページがユーザーの視点から完全にロードされるまでの時間を評価する Datadog のカスタムメトリクス) など、ブラウザのメトリクスをトラブルシューティングできます。関連するすべての情報を一箇所に集めて、ページの遅延の原因を特定します。 - -## 前提条件 - -この機能を最大限に活用するために、Datadog は以下の使用を推奨します。 - -- [RUM Browser SDK][3] バージョン 5.4.0 以上 -- 少なくとも一部のセッションで [Session Replay][4] を使用 - -## バイタルを選択 - -[Vitals ページ][5]に移動するか、[**Digital Experience > Performance Monitoring**][6] ページの "Vitals" タブをクリックします。 - -{{< img src="real_user_monitoring/browser/vitals_performance/vitals-page-selectors-1.png" alt="最も訪問されたページや特定のページのバイタルを確認できます。" style="width:100%;" >}} - -このビューから、レビューと最適化のためのページとバイタルを選択する方法は 2 つあります。 - -- 最も訪問されたページのリストから選択 -- 左側にビュー名を入力してページを選択 - -## フィルタリングと評価 - -ページとバイタルを選択すると、それらのパフォーマンスを説明するインサイトが表示されます。 - -ここから、以下のことができます。 - -- 右上で時間枠を変更 -- ドロップダウンボタンを使用して異なる属性でフィルタリング -- 右側の内訳からグループを選択してフィルタリング ("Show Filter Breakdown") -- バイタルを評価するパーセンタイルを選択 - -以下の例では、pc75 の評価は、表示される値が選択されたフィルター内のビューの 75 パーセンタイルであることを意味します。pc75 は、特定のページの CWV を評価するために使用される一般的なパーセンタイルです。 - -{{< img src="real_user_monitoring/browser/vitals_performance/vital-filter-and-evaluate-1.png" alt="選択したビューのバイタルをフィルタリングして評価します。" style="width:100%;" >}} - -## ユーザーの体験を視覚化 - -ページの次の部分では、ユーザーが実際に何を体験しているかを正確に視覚化するのに役立ちます。 - -選択した期間とトラフィックに基づいて、RUM Vitals は選択したバイタルがキャプチャされたときにユーザーがページで見る最も典型的な例をハイライトします。 [Session Replay][4] を使用している場合、ここでページのビジュアルが表示されます。 - -一部のバイタルでは、"See a different element" をクリックして調査するためにページの他のバージョンを選択することもできます。 - -{{< img src="real_user_monitoring/browser/vitals_performance/vitals-visualize.png" alt="異なる要素を選択して、ユーザーの体験をプレビューおよび視覚化します。" style="width:100%;" >}} - -## リソースとエラーのトラブルシューティング - -Troubleshooting セクションでは、バイタルのパフォーマンスに影響を与えた可能性のあるページ上のリソースとエラーを見ることができます。例えば、Largest Contentful Paint (LCP) では、LCP がトリガーされる前にロードされたリソースを見ることができます。LCP はページ上で最大の要素がロードされるまでの時間を示す指標であるため、以下を調査できます。 - -- それ以前に起こることが遅延やレンダリングの問題を引き起こしている可能性 -- 特に遅いまたは大きなリソースがパフォーマンスの問題に寄与している可能性 -- 繰り返し発生するエラーも問題を引き起こしている可能性 - -{{< img src="real_user_monitoring/browser/vitals_performance/vitals-troubleshoot.png" alt="Troubleshooting セクションは、バイタルのパフォーマンスに影響を与えた可能性のあるページ上のリソースとエラーを表示します。" style="width:100%;" >}} - -## イベントサンプルを見る - -ページのアクティビティ全体を文脈に合わせて確認するには、ウォーターフォールとイベントのタイムラインまでスクロールします。ウォーターフォールは、バイタルがキャプチャされるまでのイベントのタイムラインを示します。 - -以下に示すように、左上のドロップダウンを使用して別のサンプルイベントを選択し、ウォーターフォール内の任意のイベントをクリックしてサイドパネルを表示することができます。 - -{{< img src="real_user_monitoring/browser/vitals_performance/vitals-view-event-samples-1.png" alt="イベントサンプルを表示し、ページのアクティビティ全体を文脈に合わせて確認します。" style="width:100%;" >}} - -## その他の参考資料 - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: /ja/real_user_monitoring/browser/monitoring_page_performance/#event-timings-and-core-web-vitals -[2]: /ja/real_user_monitoring/browser/monitoring_page_performance/#how-loading-time-is-calculated -[3]: /ja/real_user_monitoring/browser/setup/ -[4]: /ja/real_user_monitoring/session_replay/ -[5]: https://app.datadoghq.com/rum/vitals -[6]: https://app.datadoghq.com/rum/performance-monitoring \ No newline at end of file diff --git a/content/ja/real_user_monitoring/correlate_with_other_telemetry/apm/_index.md b/content/ja/real_user_monitoring/correlate_with_other_telemetry/apm/_index.md new file mode 100644 index 00000000000..9fc186bd964 --- /dev/null +++ b/content/ja/real_user_monitoring/correlate_with_other_telemetry/apm/_index.md @@ -0,0 +1,703 @@ +--- +algolia: + tags: + - rum トレース +aliases: +- /ja/real_user_monitoring/connect_rum_and_traces +- /ja/real_user_monitoring/platform/connect_rum_and_traces/ +further_reading: +- link: https://www.datadoghq.com/blog/real-user-monitoring-with-datadog/ + tag: ブログ + text: リアルユーザーモニタリング +- link: https://www.datadoghq.com/blog/modern-frontend-monitoring/ + tag: ブログ + text: シングルページアプリケーションの監視を開始 +- link: /logs/guide/ease-troubleshooting-with-cross-product-correlation/ + tag: ガイド + text: クロスプロダクト相関で容易にトラブルシューティング +- link: /tracing/ + tag: ドキュメント + text: APM と分散型トレーシング +- link: /real_user_monitoring + tag: ドキュメント + text: RUM & セッションリプレイ +- link: https://www.datadoghq.com/blog/troubleshoot-with-session-replay-developer-tools/ + tag: ブログ + text: セッションリプレイブラウザ開発ツールによるトラブルシューティング +- link: https://www.datadoghq.com/blog/correlate-traces-datadog-rum-otel/ + tag: ブログ + text: Datadog RUM イベントと OpenTelemetry インスツルメンテーションされたアプリケーションのトレースを相関させる +title: RUM とトレースを関連付け +--- + +{{< img src="real_user_monitoring/connect_rum_and_traces/rum_trace_tab.png" alt="RUM とトレース" style="width:100%;">}} + +## 概要 + +APM と Real User Monitoring のインテグレーションにより、Web およびモバイルアプリケーションからのリクエストを対応するバックエンドトレースにリンクできます。この組み合わせにより、1 つのレンズを通してフロントエンドとバックエンドの完全なデータを確認できます。 + +RUM のフロントエンドデータに加えて、トレース ID 挿入のバックエンド、インフラストラクチャー、ログ情報を使用して、スタック内の問題を特定し、ユーザーに起こっていることを理解します。 + +iOS アプリケーションのトレースだけを Datadog に送信し始めるには、[iOS トレース収集][1]をご覧ください。 + +## 使用状況 + +### 前提条件 + +- RUM アプリケーションの対象となるサービスに [APM トレース][2]を設定していること。 +- サービスが HTTP サーバーを使用していること。 +- HTTP サーバーで、[分散型トレーシングをサポートするライブラリ](#supported-libraries)が使用されていること。 +- ご利用の SDK に応じて次の設定を行っていること。 + - **Browser SDK** の場合は、RUM エクスプローラーで XMLHttpRequest (XHR) または Fetch リソースを `allowedTracingUrls` に追加していること。 + - **Mobile SDK** の場合は、Native または XMLHttpRequest (XHR) を `firstPartyHosts` に追加していること。 +- `allowedTracingUrls` または `firstPartyHosts` へのリクエストに対応するトレースがあること。 + +### RUM の設定 + +**注:** RUM とトレースの構成では、RUM で APM の有料データを使用するため、APM の請求に影響を与える可能性があります。 + +{{< tabs >}} +{{% tab "ブラウザ RUM" %}} + +1. [RUM ブラウザモニタリング][1]を設定します。 + +2. RUM SDK を初期化します。ブラウザアプリケーションによって呼び出される内部のファーストパーティオリジンのリストを使用して、`allowedTracingUrls` 初期化パラメーターを設定します。 + + **npm インストール**の場合: + ```javascript + import { datadogRum } from '@datadog/browser-rum' + + datadogRum.init({ + clientToken: '', + applicationId: '', + site: 'datadoghq.com', + // service: 'my-web-application', + // env: 'production', + // version: '1.0.0', + allowedTracingUrls: ["https://api.example.com", /https:\/\/.*\.my-api-domain\.com/, (url) => url.startsWith("https://api.example.com")], + sessionSampleRate: 100, + sessionReplaySampleRate: 100, // if not specified, defaults to 100 + trackResources: true, + trackLongTasks: true, + trackUserInteractions: true, + }) + ``` + + **CDN インストール**の場合: + + ```javascript + window.DD_RUM.init({ + clientToken: '', + applicationId: '', + site: 'datadoghq.com', + // service: 'my-web-application', + // env: 'production', + // version: '1.0.0', + allowedTracingUrls: ["https://api.example.com", /https:\/\/.*\.my-api-domain\.com/, (url) => url.startsWith("https://api.example.com")], + sessionSampleRate: 100, + sessionReplaySampleRate: 100, // if not included, the default is 100 + trackResources: true, + trackLongTasks: true, + trackUserInteractions: true, + }) + ``` + + RUM をトレースに接続するには、`service` フィールドにブラウザアプリケーションを指定する必要があります。 + + `allowedTracingUrls` は完全な URL (`://[:]/[?][#]`) に一致します。次のタイプを指定できます。 + - `string`: 指定した値で始まるすべての URL に一致します。したがって、`https://api.example.com` は `https://api.example.com/v1/resource` に一致します。 + - `RegExp`: 指定された正規表現と URL で検証を実行します。 + - `function`: URL をパラメーターとして評価を実行します。戻り値の `boolean` が `true` に設定されていた場合は、一致することを示します。 + +3. _(オプション)_ `traceSampleRate` 初期化パラメーターを構成して、バックエンドトレースの定義されたパーセンテージを保持するように設定します。設定しない場合、ブラウザのリクエストから来るトレースの 100% が Datadog に送信されます。バックエンドトレースの 20% を保持する場合: + + ```javascript + import { datadogRum } from '@datadog/browser-rum' + + datadogRum.init({ + ...otherConfig, + traceSampleRate: 20 + }) + ``` + +**注**: `traceSampleRate` は RUM セッションのサンプリングには影響**しません**。バックエンドのトレースのみがサンプリングされます。 + +4. (オプション) `traceSampleRate` を設定している場合、バックエンドサービス側のサンプリング判定が適用されるように、初期化パラメーター `traceContextInjection` を `sampled` に設定してください (デフォルトは `all` です)。 + + 例えば、Browser SDK で `traceSampleRate` を 20% に設定した場合: + - `traceContextInjection` が `all` のとき、バックエンドトレースの **20%** が保持され、**80%** が破棄されます。 + + {{< img src="real_user_monitoring/connect_rum_and_traces/traceContextInjection_all-2.png" alt="traceContextInjection を all に設定した状態" style="width:90%;">}} + + - `traceContextInjection` を `sampled` に設定したとき、バックエンドトレースの **20%** は保持されますが、残りの **80%** に対してブラウザ SDK はサンプリング判定を**注入しません**。サンプリングの決定はサーバー側で行われ、トレーシングライブラリのヘッドベースサンプリング[構成][2]に基づきます。以下の例では、バックエンド側のサンプルレートが 40% に設定されているため、残りのバックエンドトレースのうち 32% が保持されます。 + + {{< img src="real_user_monitoring/connect_rum_and_traces/traceContextInjection_sampled-3.png" alt="traceContextInjection を sampled に設定した状態" style="width:90%;">}} + +
ブラウザ SDK の初期化後に生成されたリクエストには、エンドツーエンドのトレーシングを利用できます。初めの HTML 文書のエンドツーエンドトレースおよび始めのブラウザリクエストはサポートされません。
+ +[1]: /ja/real_user_monitoring/browser/ +[2]: /ja/tracing/trace_pipeline/ingestion_mechanisms/#head-based-sampling +{{% /tab %}} +{{% tab "Android RUM" %}} + +1. [RUM Android モニタリング][1]を設定します。 +2. [Android トレース収集][2]を設定します。 +3. モジュールレベルの `build.gradle` ファイルで、`dd-sdk-android-okhttp` ライブラリに Gradle 依存関係を追加します。 + + ```groovy + dependencies { + implementation "com.datadoghq:dd-sdk-android-okhttp:x.x.x" + } + ``` + +4. Android アプリケーションによって呼び出される内部のファーストパーティオリジンのリストを使用して、`OkHttpClient` インターセプターを構成します。 + ```kotlin + val tracedHosts = listOf("example.com", "example.eu") + + val okHttpClient = OkHttpClient.Builder() + .addInterceptor(DatadogInterceptor.Builder(tracedHosts).build()) + .addNetworkInterceptor(TracingInterceptor.Builder(tracedHosts).build()) + .eventListenerFactory(DatadogEventListener.Factory()) + .build() + ``` + + デフォルトでは、リストされたホストのすべてのサブドメインがトレースされます。たとえば、`example.com` を追加すると、`api.example.com` と `foo.example.com` のトレースも有効になります。 + +3. _(オプション)_ `traceSampler` パラメーターを構成して、バックエンドトレースの定義されたパーセンテージを保持するように設定します。設定しない場合、アプリケーションのリクエストから来るトレースの 20% が Datadog に送信されます。バックエンドトレースの 100% を保持する場合: + + ```kotlin + val tracedHosts = listOf("example.com") + + val okHttpClient = OkHttpClient.Builder() + .addInterceptor( + DatadogInterceptor.Builder(tracedHosts) + .setTraceSampler(RateBasedSampler(100f)) + .build() + ) + .build() + ``` + +**注**: +* `traceSampler` は RUM セッションのサンプリングには**影響しません**。サンプリング対象となるのはバックエンドトレースのみです。 +* Datadog の設定でカスタムトレーシングヘッダータイプを定義していて、かつ `GlobalTracer` に登録したトレーサーを使用している場合は、実際に使用しているトレーサーにも同じヘッダータイプが設定されていることを確認してください。 + +[1]: /ja/real_user_monitoring/android/ +[2]: /ja/tracing/trace_collection/dd_libraries/android/?tab=kotlin +{{% /tab %}} +{{% tab "iOS RUM" %}} + +1. [RUM iOS モニタリング][1]を設定します。 + +2. `urlSessionTracking` オプションと `firstPartyHostsTracing` パラメーターを指定して `RUM` を有効化してください。 + ```swift + RUM.enable( + with: RUM.Configuration( + applicationID: "", + urlSessionTracking: .init( + firstPartyHostsTracing: .trace( + hosts: [ + "example.com", + "api.yourdomain.com" + ] + ) + ) + ) + ) + ``` + +3. `URLSessionDataDelegate` プロトコルに準拠した `SessionDelegate` タイプ用に、URLSession のインスツルメンテーションを有効化してください。 + ```swift + URLSessionInstrumentation.enable( + with: .init( + delegateClass: .self + ) + ) + ``` + +4. [セットアップ][1]にあるように、URLSession を初期化します。 + ```swift + let session = URLSession( + configuration: ..., + delegate: (), + delegateQueue: ... + ) + ``` + + デフォルトでは、リストされたホストのすべてのサブドメインがトレースされます。たとえば、`example.com` を追加すると、`api.example.com` と `foo.example.com` のトレースも有効になります。 + + `URLSession` に `URLRequest` を指定した場合、トレース ID 挿入が機能します。`URL` オブジェクトを使用した場合、分散型トレーシングは機能しません。 + +5. (オプション) バックエンドトレースの特定の割合を保持するには、`sampleRate` パラメーターを設定します。設定しない場合、アプリケーションリクエストから送信されるトレースの 20% が Datadog に送られます。 + + バックエンドトレースの 100% を保持する場合: + ```swift + RUM.enable( + with: RUM.Configuration( + applicationID: "", + urlSessionTracking: .init( + firstPartyHostsTracing: .trace( + hosts: [ + "example.com", + "api.yourdomain.com" + ], + sampleRate: 100 + ) + ) + ) + ) + ``` +**注**: `sampleRate` は RUM セッションのサンプリングには**影響しません**。サンプリング対象となるのはバックエンドトレースのみです。 + +[1]: /ja/real_user_monitoring/ios/ +{{% /tab %}} +{{% tab "React Native RUM" %}} + +1. [RUM React Native モニタリング][1]を設定します。 + +2. `firstPartyHosts` の初期化パラメーターを設定して、React Native アプリケーションが呼び出す内部のファーストパーティオリジンのリストを定義します。 + ```javascript + const config = new DatadogProviderConfiguration( + // ... + ); + config.firstPartyHosts = ["example.com", "api.yourdomain.com"]; + ``` + + デフォルトでは、リストされたホストのすべてのサブドメインがトレースされます。たとえば、`example.com` を追加すると、`api.example.com` と `foo.example.com` のトレースも有効になります。 + +3. _(オプション)_ `resourceTracingSamplingRate` 初期化パラメーターを設定して、バックエンドトレースの定義されたパーセンテージを保持するように設定します。設定しない場合、アプリケーションのリクエストから来るトレースの 20% が Datadog に送信されます。 + + バックエンドトレースの 100% を保持する場合: + ```javascript + const config = new DatadogProviderConfiguration( + // ... + ); + config.resourceTracingSamplingRate = 100; + ``` + + **注**: `resourceTracingSamplingRate` は RUM セッションのサンプリングには影響**しません**。バックエンドのトレースのみがサンプリングされます。 + +[1]: /ja/real_user_monitoring/reactnative/ +{{% /tab %}} +{{% tab "Flutter RUM" %}} + +1. [RUM Flutter Monitoring][1] をセットアップしてください。 + +2. [Automatic Resource Tracking][2] の説明に従って、Datadog Tracking HTTP Client パッケージを含め、HTTP 追跡を有効にします。これには、Flutter アプリケーションによって呼び出される内部、ファーストパーティーのオリジンのリストを追加するために、初期化に対する以下の変更が含まれます。 + ```dart + final configuration = DatadogConfiguration( + // ... + // added configuration + firstPartyHosts: ['example.com', 'api.yourdomain.com'], + )..enableHttpTracking() + ``` + +[1]: /ja/real_user_monitoring/mobile_and_tv_monitoring/flutter/setup/ +[2]: /ja/real_user_monitoring/mobile_and_tv_monitoring/flutter/setup/#automatic-resource-tracking + +{{% /tab %}} + + +{{% tab "Roku RUM" %}} + +{{< site-region region="gov" >}} +
RUM for Roku は、US1-FED Datadog サイトではご利用いただけません。
+{{< /site-region >}} + +1. [RUM Roku モニタリング][1]を設定します。 + +2. ネットワークリクエストを行うには、`datadogroku_DdUrlTransfer` コンポーネントを使用します。 + ```brightscript + ddUrlTransfer = datadogroku_DdUrlTransfer(m.global.datadogRumAgent) + ddUrlTransfer.SetUrl(url) + ddUrlTransfer.EnablePeerVerification(false) + ddUrlTransfer.EnableHostVerification(false) + result = ddUrlTransfer.GetToString() + ``` + +[1]: /ja/real_user_monitoring/mobile_and_tv_monitoring/roku/setup/ + + +{{% /tab %}} +{{% tab "Kotlin Multiplatform RUM" %}} + +1. [RUM Kotlin Multiplatform Monitoring][1] をセットアップしてください。 +2. [Ktor インスツルメンテーション][2]をセットアップしてください。 + +3. Datadog Ktor Plugin の設定において、`tracedHosts` 初期化パラメーターを使用し、Kotlin Multiplatform アプリケーションが呼び出す内部 (ファーストパーティ) のドメインリストを定義してください。 + ```kotlin + val ktorClient = HttpClient { + install( + datadogKtorPlugin( + tracedHosts = mapOf( + "example.com" to setOf(TracingHeaderType.DATADOG), + "example.eu" to setOf(TracingHeaderType.DATADOG) + ), + traceSampleRate = 100f + ) + ) + } + ``` + + デフォルトでは、リストされたホストのすべてのサブドメインがトレースされます。たとえば、`example.com` を追加すると、`api.example.com` と `foo.example.com` のトレースも有効になります。 + +4. (オプション) バックエンドトレースの特定の割合を保持するには、`traceSampleRate` 初期化パラメーターを設定します。設定しない場合、アプリケーションリクエストから送信されるトレースの 20% が Datadog に送られます。 + + バックエンドトレースの 100% を保持する場合: + ```kotlin + val ktorClient = HttpClient { + install( + datadogKtorPlugin( + tracedHosts = mapOf( + "example.com" to setOf(TracingHeaderType.DATADOG), + "example.eu" to setOf(TracingHeaderType.DATADOG) + ), + traceSampleRate = 100f + ) + ) + } + ``` + + **注**: `traceSampleRate` は RUM セッションのサンプリングには**影響しません**。サンプリング対象となるのはバックエンドトレースのみです。 + +[1]: /ja/real_user_monitoring/mobile_and_tv_monitoring/kotlin_multiplatform/setup +[2]: /ja/real_user_monitoring/mobile_and_tv_monitoring/kotlin_multiplatform/setup?tab=rum#initialize-the-rum-ktor-plugin-to-track-network-events-made-with-ktor +{{% /tab %}} +{{< /tabs >}} + +### セットアップの検証 + +RUM との APM インテグレーションが構成されていることを検証するには、RUM をインストールした SDK に基づいて以下の手順に従ってください。 + + +{{< tabs >}} +{{% tab "ブラウザ" %}} + +1. アプリケーションのページにアクセスします。 +2. ブラウザの開発者ツールで、**Network** タブを開きます。 +3. 相関が期待されるリソースリクエストのリクエストヘッダーに [Datadog からの相関ヘッダー][1]が含まれていることを確認します。 + +[1]: /ja/real_user_monitoring/correlate_with_other_telemetry/apm?tab=browserrum#how-are-rum-resources-linked-to-traces + +{{% /tab %}} +{{% tab "Android" %}} + +1. Android Studio からアプリケーションを実行します。 +2. アプリケーションの画面にアクセスします。 +3. Android Studio の [Network Inspector][1] を開きます。 +4. RUM リソースのリクエストヘッダーをチェックし、[必要なヘッダーが SDK によって設定されている][2]ことを検証します。 + +[1]: https://developer.android.com/studio/debug/network-profiler#network-inspector-overview +[2]: https://docs.datadoghq.com/ja/real_user_monitoring/correlate_with_other_telemetry/apm?tab=androidrum#how-are-rum-resources-linked-to-traces + +{{% /tab %}} +{{% tab "iOS" %}} + +1. Xcode からアプリケーションを実行します。 +2. アプリケーションの画面にアクセスします。 +3. Xcode の [Network Connections and HTTP Traffic instrument][1] を開きます。 +4. RUM リソースのリクエストヘッダーをチェックし、[必要なヘッダーが SDK によって設定されている][2]ことを検証します。 + +[1]: https://developer.apple.com/documentation/foundation/url_loading_system/analyzing_http_traffic_with_instruments +[2]: https://docs.datadoghq.com/ja//real_user_monitoring/correlate_with_other_telemetry/apm/?tab=iosrum#how-are-rum-resources-linked-to-traces + +{{% /tab %}} +{{% tab "React Native" %}} + +1. Xcode (iOS) または Android Studio (Android) からアプリケーションを実行します。 +2. アプリケーションの画面にアクセスします。 +3. Xcode の [Network Connections and HTTP Traffic instrument][1] または Android Studio の [Network Inspector][2] を開きます。 +4. RUM リソースのリクエストヘッダーをチェックし、[必要なヘッダーが SDK によって設定されている][3]ことを検証します。 + +[1]: https://developer.apple.com/documentation/foundation/url_loading_system/analyzing_http_traffic_with_instruments +[2]: https://developer.android.com/studio/debug/network-profiler#network-inspector-overview +[3]: https://docs.datadoghq.com/ja/real_user_monitoring/correlate_with_other_telemetry/apm/?tab=reactnativerum#how-are-rum-resources-linked-to-traces + +{{% /tab %}} +{{% tab "Flutter" %}} + +1. 希望の IDE または `flutter run` を使ってアプリケーションを実行します。 +2. アプリケーションの画面にアクセスします。 +3. Flutter の [Dev Tools][1] を開き、[Network View][2] に移動します。 +4. RUM リソースのリクエストヘッダーをチェックし、[必要なヘッダーが SDK によって設定されている][3]ことを検証します。 + +[1]: https://docs.flutter.dev/tools/devtools/overview +[2]: https://docs.flutter.dev/tools/devtools/network +[3]: https://docs.datadoghq.com/ja/real_user_monitoring/correlate_with_other_telemetry/apm/?tab=reactnativerum#how-are-rum-resources-linked-to-traces + +{{% /tab %}} +{{% tab "Kotlin Multiplatform" %}} + +1. Xcode (iOS) または Android Studio (Android) からアプリケーションを実行します。 +2. アプリケーションの画面にアクセスします。 +3. Xcode の [Network Connections and HTTP Traffic instrument][1] または Android Studio の [Network Inspector][2] を開きます。 +4. RUM リソースのリクエストヘッダーをチェックし、[必要なヘッダーが SDK によって設定されている][3]ことを検証します。 + +[1]: https://developer.apple.com/documentation/foundation/url_loading_system/analyzing_http_traffic_with_instruments +[2]: https://developer.android.com/studio/debug/network-profiler#network-inspector-overview +[3]: /ja/real_user_monitoring/correlate_with_other_telemetry/apm/?tab=kotlinmultiplatformrum#how-are-rum-resources-linked-to-traces + +{{% /tab %}} +{{< /tabs >}} + +## サポートされるライブラリ + +サポートされているバックエンドライブラリは、ネットワークリクエストを受け取るサービス上に導入する必要があります。 + +| ライブラリ | 最小バージョン | +| ---------------- | --------------- | +| [Python][3] | [0.22.0][4] | +| [Go][5] | [1.10.0][6] | +| [Java][7] | [0.24.1][8] | +| [Ruby][9] | [0.20.0][10] | +| [JavaScript][11] | [0.10.0][12] | +| [PHP][13] | [0.33.0][14] | +| [.NET][15] | [1.18.2][16] | + + +## OpenTelemetry のサポート + +RUM は、OpenTelemetry ライブラリを使ってインスツルメントされたバックエンドとリソースを接続するため、複数のプロパゲータータイプをサポートしています。 + +既定の注入形式は `tracecontext` と `Datadog` です。 + +{{< tabs >}} +{{% tab "ブラウザ RUM" %}} + +**注**: Next.js/Vercel など、OpenTelemetry を使用するバックエンドフレームワークを使用している場合は、以下の手順に従ってください。 + +1. 上記に従い、RUM を APM に接続するためのセットアップを行います。 + +2. `allowedTracingUrls` を次のように変更します。 + ```javascript + import { datadogRum } from '@datadog/browser-rum' + + datadogRum.init({ + ...otherConfig, + allowedTracingUrls: [ + { match: "https://api.example.com", propagatorTypes: ["tracecontext"]} + ] + }) + ``` + `match` では、上記のようにシンプルな形式で使用した場合と同じパラメータータイプ (`string`、`RegExp`、`function`) を指定できます。 + + `propagatorTypes` には、使用したいプロパゲーターに対応する文字列をリストで指定します。 + - `datadog`: Datadog のプロパゲーター (`x-datadog-*`) + - `tracecontext`: [W3C Trace Context](https://www.w3.org/TR/trace-context/) (`traceparent`, `tracestate`) + - `b3`: [B3 シングルヘッダー](https://github.com/openzipkin/b3-propagation#single-header) (`b3`) + - `b3multi`: [B3 マルチヘッダー](https://github.com/openzipkin/b3-propagation#multiple-headers) (`X-B3-*`) + +{{% /tab %}} +{{% tab "iOS RUM" %}} + +1. 上記に従い、RUM を APM に接続するためのセットアップを行います。 + +2. 以下のように、`.trace(hosts:sampleRate:)` の代わりに `.traceWithHeaders(hostsWithHeaders:sampleRate:)` を使用してください: + ```swift + RUM.enable( + with: RUM.Configuration( + applicationID: "", + urlSessionTracking: .init( + firstPartyHostsTracing: .traceWithHeaders( + hostsWithHeaders: [ + "api.example.com": [.tracecontext] + ], + sampleRate: 100 + ) + ) + ) + ) + ``` + `.traceWithHeaders(hostsWithHeaders:sampleRate:)` は `Dictionary>` をパラメーターとして取り、キーがホスト、値がサポートされるトレーシングヘッダータイプのリストとなります。 + + `TracingHeaderType` は列挙型で、次のトレーシングヘッダータイプを表します。 + - `.datadog`: Datadog のプロパゲーター (`x-datadog-*`) + - `.tracecontext`: [W3C Trace Context](https://www.w3.org/TR/trace-context/) (`traceparent`) + - `.b3`: [B3 シングルヘッダー](https://github.com/openzipkin/b3-propagation#single-header) (`b3`) + - `.b3multi`: [B3 マルチヘッダー](https://github.com/openzipkin/b3-propagation#multiple-headers) (`X-B3-*`) +{{% /tab %}} + +{{% tab "Android RUM" %}} +1. 上記に従い、RUM を APM に接続するためのセットアップを行います。 + +2. 内部のファーストパーティオリジンのリストと、使用するトレーシングヘッダータイプを指定して、次のように `OkHttpClient` インターセプターを構成します。 + ```kotlin + val tracedHosts = mapOf("example.com" to setOf(TracingHeaderType.TRACECONTEXT), + "example.eu" to setOf(TracingHeaderType.DATADOG)) + + val okHttpClient = OkHttpClient.Builder() + .addInterceptor(DatadogInterceptor.Builder(tracedHosts).build()) + .addNetworkInterceptor(TracingInterceptor.Builder(tracedHosts).build()) + .eventListenerFactory(DatadogEventListener.Factory()) + .build() + ``` + + `TracingHeaderType` は列挙型で、次のトレーシングヘッダータイプを表します。 + - `.DATADOG`: Datadog のプロパゲーター (`x-datadog-*`) + - `.TRACECONTEXT`: [W3C Trace Context](https://www.w3.org/TR/trace-context/) (`traceparent`) + - `.B3`: [B3 シングルヘッダー](https://github.com/openzipkin/b3-propagation#single-header) (`b3`) + - `.B3MULTI`: [B3 マルチヘッダー](https://github.com/openzipkin/b3-propagation#multiple-headers) (`X-B3-*`) + +{{% /tab %}} + +{{% tab "React Native RUM" %}} +1. RUM を [APM と接続](#setup-rum)するように設定します。 + +2. 内部のファーストパーティオリジンのリストと、使用するトレーシングヘッダータイプを指定して、次のように RUM SDK を構成します。 + ```javascript + const config = new DatadogProviderConfiguration( + // ... + ); + config.firstPartyHosts = [{ + match: "example.com", + propagatorTypes: [ + PropagatorType.TRACECONTEXT, + PropagatorType.DATADOG + ] + }]; + ``` + + `PropagatorType` は列挙型で、次のトレーシングヘッダータイプを表します。 + - `PropagatorType.DATADOG`: Datadog のプロパゲーター (`x-datadog-*`) + - `PropagatorType.TRACECONTEXT`: [W3C Trace Context](https://www.w3.org/TR/trace-context/) (`traceparent`) + - `PropagatorType.B3`: [B3 シングルヘッダー](https://github.com/openzipkin/b3-propagation#single-header) (`b3`) + - `PropagatorType.B3MULTI`: [B3 マルチヘッダー](https://github.com/openzipkin/b3-propagation#multiple-headers) (`X-B3-*`) + +{{% /tab %}} + +{{% tab "Flutter RUM" %}} +1. 上記に従い、RUM を APM に接続するためのセットアップを行います。 + +2. 以下のように、`firstPartyHosts` の代わりに `firstPartyHostsWithTracingHeaders` を使用してください: + ```dart + final configuration = DatadogConfiguration( + // ... + // added configuration + firstPartyHostsWithTracingHeaders: { + 'example.com': { TracingHeaderType.tracecontext }, + }, + )..enableHttpTracking() + ``` + + `firstPartyHostsWithTracingHeaders` には `Map>` をパラメーターとして指定します。キーはホスト、値はサポートされるサポートトレーシングヘッダータイプのリストになります。 + + `TracingHeaderType` は列挙型で、次のトレーシングヘッダータイプを表します。 + - `TracingHeaderType.datadog`: Datadog のプロパゲーター (`x-datadog-*`) + - `TracingHeaderType.tracecontext`: [W3C Trace Context](https://www.w3.org/TR/trace-context/) (`traceparent`) + - `TracingHeaderType.b3`: [B3 シングルヘッダー](https://github.com/openzipkin/b3-propagation#single-header) (`b3`) + - `TracingHeaderType.b3multi`: [B3 マルチヘッダー](https://github.com/openzipkin/b3-propagation#multiple-headers) (`X-B3-*`) + +{{% /tab %}} + +{{% tab "Kotlin Multiplatform RUM" %}} +1. RUM を [APM と接続](#setup-rum)するように設定します。 + +2. 内部のファーストパーティオリジンのリストと、使用するトレーシングヘッダータイプを指定して、次のように RUM SDK を構成します。 + ```kotlin + val ktorClient = HttpClient { + install( + datadogKtorPlugin( + tracedHosts = mapOf( + "example.com" to setOf(TracingHeaderType.DATADOG), + "example.eu" to setOf(TracingHeaderType.DATADOG) + ), + traceSampleRate = 100f + ) + ) + } + ``` + + `TracingHeaderType` は列挙型で、次のトレーシングヘッダータイプを表します。 + - `TracingHeaderType.DATADOG`: Datadog のプロパゲータ (`x-datadog-*`) + - `TracingHeaderType.TRACECONTEXT`: [W3C Trace Context](https://www.w3.org/TR/trace-context/) (`traceparent`) + - `TracingHeaderType.B3`: [B3 シングルヘッダー](https://github.com/openzipkin/b3-propagation#single-header) (`b3`) + - `TracingHeaderType.B3MULTI`: [B3 マルチヘッダー](https://github.com/openzipkin/b3-propagation#multiple-headers) (`X-B3-*`) + +{{% /tab %}} + +{{< /tabs >}} + + +## RUM リソースはどのようにトレースにリンクされていますか? + +Datadog は分散トレーシングプロトコルを用いて、以下の HTTP ヘッダーを設定します。デフォルトでは、トレースコンテキストと Datadog 専用の両方のヘッダーが使用されます。 +{{< tabs >}} {{% tab "Datadog" %}} +`x-datadog-trace-id` +: Real User Monitoring SDK によって生成されます。Datadog がトレースと RUM リソースを関連付けるために使用されます。 + +`x-datadog-parent-id` +Real User Monitoring SDK から生成されます。Datadog がトレースから最初のスパンを生成できるようにします。 + +`x-datadog-origin: rum` +リアルユーザーモニタリングから生成されたトレースが、APM インデックススパン数に影響を与えないようにします。 + +`x-datadog-sampling-priority` +: トレースがサンプリングされた場合は `1`、そうでない場合は `0` が Real User Monitoring SDK によって設定されます。 +{{% /tab %}} +{{% tab "W3C Trace Context" %}} + +`traceparent: [version]-[trace id]-[parent id]-[trace flags]` +: `version`: 現在の仕様では常に `00`。 +: `trace id`: 128 ビットのトレース ID (16 進数で 32 桁)。APM との互換性のため、ソース側のトレース ID は 64 ビット。 +: `parent id`: 64 ビットのスパン ID (16 進数で 16 桁)。 +: `trace flags`: サンプリングあり (`01`)/なし (`00`)。 + +`tracestate: dd=s:[sampling priority];o:[origin]` +: `dd`: Datadog のベンダープレフィックス。 +: `sampling priority`: サンプリングされた場合は `1`、そうでない場合は `0`。 +: `origin`: 常に `rum` と設定し、Real User Monitoring によって生成されたトレースが APM のインデックススパン数に影響しないようにします。 + +例: +: `traceparent: 00-00000000000000008448eb211c80319c-b7ad6b7169203331s-01` +: `tracestate: dd=s:1;o:rum` + +{{% /tab %}} +{{% tab "b3 / b3 Multiple Headers" %}} +`b3: [trace id]-[span id]-[sampled]` +: `trace id`: 64 ビットのトレース ID (16 進数で 16 桁)。 +: `span id`: 64 ビットのスパン ID (16 進数で 16 桁)。 +: `sampled`: True (`1`) または False (`0`)。 + +b3 シングルヘッダーの例: +: `b3: 8448eb211c80319c-b7ad6b7169203331-1` + +b3 マルチヘッダーの例: +: `X-B3-TraceId: 8448eb211c80319c` +: `X-B3-SpanId: b7ad6b7169203331` +: `X-B3-Sampled: 1` +{{% /tab %}} +{{< /tabs >}} + +これらの HTTP ヘッダーは CORS の safelist に含まれていないため、SDK でモニタリング対象に設定したリクエストを受け取るサーバー側で [Access-Control-Allow-Headers][17] を構成する必要があります。また、クロスサイトの URL でトレースが有効になっている場合、ブラウザが各リクエスト前に送信するプリフライトリクエスト (OPTIONS リクエスト) をサーバー側が受け付ける必要があります ([プレフライトリクエスト][18])。 + +## APM クオータへの影響 + +RUM とトレースを接続すると、APM の取り込み量が大幅に増加する可能性があります。初期化パラメーター `traceSampleRate` を使用して、ブラウザとモバイルのリクエストから始まるバックエンドのトレースのシェアを維持します。 + +## トレースの保持期間 + +これらのトレースは、[Live Search][19] エクスプローラーで 15 分間利用可能です。より長い期間、トレースを保持するには、[保持フィルター][20]を作成します。重要なページとユーザーアクションのトレースを保持するために、任意のスパンタグにこれらの保持フィルターを適用します。 + +## その他の参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ja/tracing/trace_collection/dd_libraries/ios/?tab=swiftpackagemanagerspm +[2]: /ja/tracing +[3]: /ja/tracing/trace_collection/dd_libraries/python/ +[4]: https://github.com/DataDog/dd-trace-py/releases/tag/v0.22.0 +[5]: /ja/tracing/trace_collection/dd_libraries/go/ +[6]: https://github.com/DataDog/dd-trace-go/releases/tag/v1.10.0 +[7]: /ja/tracing/trace_collection/dd_libraries/java/ +[8]: https://github.com/DataDog/dd-trace-java/releases/tag/v0.24.1 +[9]: /ja/tracing/trace_collection/dd_libraries/ruby/ +[10]: https://github.com/DataDog/dd-trace-rb/releases/tag/v0.20.0 +[11]: /ja/tracing/trace_collection/dd_libraries/nodejs/ +[12]: https://github.com/DataDog/dd-trace-js/releases/tag/v0.10.0 +[13]: /ja/tracing/trace_collection/dd_libraries/php/ +[14]: https://github.com/DataDog/dd-trace-php/releases/tag/0.33.0 +[15]: /ja/tracing/trace_collection/dd_libraries/dotnet-core/ +[16]: https://github.com/DataDog/dd-trace-dotnet/releases/tag/v1.18.2 +[17]: https://developer.mozilla.org/en-US/docs/Web/HTTP/Headers/Access-Control-Allow-Headers +[18]: https://developer.mozilla.org/en-US/docs/Glossary/Preflight_request +[19]: /ja/tracing/trace_explorer/#live-search-for-15-minutes +[20]: /ja/tracing/trace_pipeline/trace_retention/#retention-filters \ No newline at end of file diff --git a/content/ja/real_user_monitoring/session_replay/browser/_index.md b/content/ja/real_user_monitoring/session_replay/browser/_index.md new file mode 100644 index 00000000000..c1405490525 --- /dev/null +++ b/content/ja/real_user_monitoring/session_replay/browser/_index.md @@ -0,0 +1,132 @@ +--- +aliases: +- /ja/real_user_monitoring/guide/session-replay-getting-started/ +- /ja/real_user_monitoring/session_replay/ +description: セッションリプレイでユーザーの Web 閲覧体験をキャプチャし、視覚化する方法について説明します。 +further_reading: +- link: https://www.datadoghq.com/blog/session-replay-datadog/ + tag: ブログ + text: Datadog Session Replay を使用してユーザージャーニーをリアルタイムで表示 +- link: https://www.datadoghq.com/blog/reduce-customer-friction-funnel-analysis/ + tag: ブログ + text: ファネル分析により、主要なユーザーフローを理解し、最適化する +- link: https://www.datadoghq.com/blog/zendesk-session-replay-integration/ + tag: ブログ + text: Zendesk と Datadog セッションリプレイでユーザーが直面する問題を視覚的に再生する +- link: /real_user_monitoring/explorer + tag: ドキュメント + text: RUM データを Explorer で確認 +- link: /integrations/content_security_policy_logs + tag: ドキュメント + text: Datadog で CSP 違反の検出と集計を行う +title: ブラウザセッションリプレイ +--- + +## 概要 + +セッションリプレイは、ユーザーのウェブブラウジング体験をキャプチャして視覚的に再生できるようにすることで、ユーザーエクスペリエンスモニタリングを拡張します。セッションリプレイを RUM パフォーマンスデータと組み合わせると、エラーの識別、再現、解決に有益で、ウェブアプリケーションの使用パターンと設計上の落とし穴に対する洞察をもたらすこともできます。 + +RUM ブラウザ SDK は[オープンソース][1]であり、オープンソースの [rrweb][2] プロジェクトを活用したものです。 + +## セッションリプレイレコーダー + +セッションリプレイレコーダーは、RUM ブラウザ SDK の一部です。このレコーダーは、Web ページで発生したイベント (DOM の変更、マウスの移動、クリック、入力イベントなど) を、これらのイベントのタイムスタンプとともに追跡して記録することにより、ブラウザの DOM と CSS のスナップショットを取得します。 + +その後、Datadog は Web ページを再構築し、記録されたイベントをリプレイビューの適切なタイミングで再適用します。セッションリプレイは、通常の RUM セッションと同じ 30 日間の保持ポリシーに従います。 + +セッションリプレイレコーダーは、IE11 を除き、RUM ブラウザ SDK でサポートされているすべてのブラウザをサポートしています。詳しくは、[ブラウザサポートテーブル][3]を参照してください。 + +セッションリプレイのネットワークへの影響を軽減し、セッションリプレイレコーダーがアプリケーションのパフォーマンスに与えるオーバーヘッドを最小限に抑えるため、Datadog はデータを送信する前に圧縮を行います。また、Datadog は CPU に負荷のかかる作業 (圧縮など) のほとんどを専用 Web ワーカーに委ねることで、ブラウザの UI スレッドの負荷を軽減しています。ネットワーク帯域幅への影響は 100kB/分未満と予想されます。 + +## セットアップ + +セッションリプレイは、RUM ブラウザ SDK で利用できます。セッションリプレイのデータ収集を開始するには、RUM アプリケーションの作成、クライアントトークン生成、RUM ブラウザ SDK の初期化により、[Datadog RUM ブラウザモニタリング][4]をセットアップしてください。モバイル環境でのセットアップについては、[モバイルセッションリプレイ][5]を参照してください。 + +
Session Replay is supported by SDK version 3.6.0 or later.
+ +## 使用方法 + +RUM ブラウザ SDK v5.0.0 から、`init()` を呼び出した際にセッションリプレイの記録が自動的に開始されます。記録を条件付きで開始する場合は、`startSessionReplayRecordingManually` 初期化パラメータを使用し、`startSessionReplayRecording()` を呼び出してください。 + +For example, to only record authenticated user sessions: + +```javascript +window.DD_RUM.init({ + applicationId: '', + clientToken: '', + site: '', + // service: 'my-web-application', + // env: 'production', + // version: '1.0.0', + sessionSampleRate: 100, + sessionReplaySampleRate: 100, + startSessionReplayRecordingManually: true, + ... +}); + +if (user.isAuthenticated) { + window.DD_RUM.startSessionReplayRecording(); +} +``` + +セッションリプレイの記録を停止するには、`stopSessionReplayRecording()` を呼び出してください。 + +
When using a version of the RUM Browser SDK older than v5.0.0, Session Replay recording does not begin automatically. Call startSessionReplayRecording() to begin recording.
+ +## セッションリプレイを強制する + +一部のシナリオでは、開始時にリプレイ対象から除外されていたセッションであっても、後から録画を開始したい場合があります。たとえば、新しくデプロイしたページでセッションリプレイを強制的に有効にしてより詳細にモニタリングしたい場合や、エラーを検出した後に録画を開始して、完全なリプレイデータを確保したい場合などです。 + +現在のセッションの残りの時間にわたって強制的にセッションリプレイを実行するには、`startSessionReplayRecording({ force: true })` を呼び出してください。 + +force オプションを使用すると、セッションは最初のサンプリング決定にかかわらず、セッションが終了するまでリプレイ対象として扱われます。 + +## セッションリプレイを無効にする + +To stop session recordings, set `sessionReplaySampleRate` to `0`. This stops collecting data for the [Browser RUM & Session Replay plan][6]. + +
If you're using a version of the RUM Browser SDK previous to v5.0.0, set replaySampleRate to 0.
+ +## 保持 + +デフォルトでは、Session Replay データは 30 日間保持されます。 + +保持期間を 15 か月に延長するには、個別のセッションリプレイごとに _Extended Retention_ を有効にできます。これらのセッションはアクティブではない (ユーザーの操作が終了している) 必要があります。 + +Extended Retention は Session Replay にのみ適用され、関連イベントは含まれません。15 か月は、セッションが収集されたときではなく、Extended Retention が有効になったときに開始します。 + +Extended Retention はいつでも無効にできます。Session Replay の保持期間がまだデフォルトの 30 日以内である場合、リプレイは最初の 30 日間のウィンドウの終了時に失効します。30 日を過ぎた Session Replay で Extended Retention を無効にすると、リプレイは直ちに失効します。 + +{{< img src="real_user_monitoring/session_replay/session-replay-extended-retention.png" alt="Extended Retention を有効にする" style="width:100%;" >}} + +保持期間の延長でどのようなデータが保持されるかを理解するには、下図を参照してください。 + +{{< img src="real_user_monitoring/session_replay/replay-extended-retention.png" alt="保持期間の延長でどのデータが保持されるかを示す図" style="width:100%;" >}} + +## 再生履歴 + +プレーヤーページに表示される **watched** カウントをクリックすると、指定した Session Replay を誰が視聴したかを確認できます。この機能により、記録を共有したい相手がすでに視聴しているかどうかを確認することができます。 + +{{< img src="real_user_monitoring/session_replay/session-replay-playback-history.png" alt="セッションの記録を誰が見たかを確認" style="width:100%;" >}} + +履歴には、プレーヤーページや[ノートブック][8]、サイドパネル内の埋め込みプレーヤーで行われた再生のみが含まれます。含まれる再生は、[監査証跡][7]イベントも生成します。サムネイルプレビューは履歴に含まれません。 + +自分の再生履歴を見るには、プレイリストの [My Watch History][9] をご覧ください。 + +## Mobile Session Replay + +[モバイル向けセッションリプレイ][5]について詳しくはこちらをご覧ください。 + +## その他の参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://github.com/DataDog/browser-sdk +[2]: https://www.rrweb.io/ +[3]: https://github.com/DataDog/browser-sdk/blob/main/packages/rum/BROWSER_SUPPORT.md +[4]: /ja/real_user_monitoring/browser/ +[5]: /ja/real_user_monitoring/session_replay/mobile/ +[6]: https://www.datadoghq.com/pricing/?product=real-user-monitoring--session-replay#real-user-monitoring--session-replay +[7]: https://docs.datadoghq.com/ja/account_management/audit_trail/ +[8]: https://docs.datadoghq.com/ja/notebooks/ +[9]: https://app.datadoghq.com/rum/replay/playlists/my-watch-history \ No newline at end of file diff --git a/content/ja/reference_tables/_index.md b/content/ja/reference_tables/_index.md index ced9f305da3..319d9d6b27f 100644 --- a/content/ja/reference_tables/_index.md +++ b/content/ja/reference_tables/_index.md @@ -34,7 +34,7 @@ title: リファレンステーブル | ルール | 正規化 | | ----------------------------------------------------------------------------- | --------------------------------------------------------------------------------------------------------------------- | -| 名前とヘッダーは重複できません。 | 重複した名前は列挙されます。例えば、`fileid` が名前として 2 回使用された場合、最初のインスタンスは `fileid1` に、2 番目のインスタンスは `fileid2` になります。名前またはヘッダーを列挙した際に、56 文字を超える場合は拒否され、名前を変更する必要があります。 | +| 名前とヘッダーは重複できません。 | 重複した名前は列挙されます。例えば、`fileid` が名前として 2 回使用された場合、最初のインスタンスは `fileid1` に、2 番目のインスタンスは `fileid2` になります。名前またはヘッダーを列挙した際に、56 文字を超える場合は拒否され、名前を変更する必要があります。 | | 名前とヘッダーに大文字を含めることはできません。 | 大文字で書かれた名前は、小文字に変換されます。この変換の結果、名前が重複することがありますが、その場合は列挙されます。例えば、`Fileid` と `FileID` は両方とも `fileid` となり、それぞれ `fileid1` と `fileid2` に列挙されます。 | | 名前とヘッダーにスペースを含めることはできません。 | 先頭と末尾のスペース以外のスペースは、アンダースコア `_` 文字に置き換えられます。先頭と末尾のスペースは削除されます。例えば、`customer names` は `customer_names` に置き換えられます。 | | 名前とヘッダーは小文字で始める必要があります。 | 大文字は小文字に変換されます。文字以外の先頭の文字は削除されます。例えば、`23Two_three` は `two_three` となります。 | @@ -70,6 +70,8 @@ S3 からリファレンステーブルを更新するために、Datadog は [A "Effect": "Allow", "Action": [ "s3:GetObject", + // KMS で暗号化されたオブジェクトをアップロードする場合は、KMS の復号権限を付与 + // "kms:Decrypt", "s3:ListBucket" ], "Resource": [ @@ -187,6 +189,16 @@ S3 からリファレンステーブルを更新するために、Datadog は [A **Monitors** タブからモニターを作成するか、**New Reference Table +** の横にある設定アイコンをクリックすると、あらかじめ入力されたモニターを生成することができます。 +## リファレンステーブルの制限 +- リファレンステーブルには最大 50 列まで含めることができます +- UI 経由でアップロードできるリファレンステーブルファイルのサイズは最大 4 MB です +- クラウドバケットファイルからアップロードできるリファレンステーブルファイルのサイズは最大 200 MB です +- インテグレーションを介してアップロードできるリファレンステーブルファイルのサイズは最大 200 MB です +- 1 つの組織につき、リファレンステーブルを最大 100 個まで作成できます + +これらの制限を超えるユースケースがある場合は、[サポート][5]までお問い合わせください。 + + ## その他の参考資料 {{< partial name="whats-next/whats-next.html" >}} @@ -194,4 +206,5 @@ S3 からリファレンステーブルを更新するために、Datadog は [A [1]: /ja/logs/log_configuration/processors/#lookup-processor [2]: /ja/account_management/audit_trail/ [3]: /ja/events/ -[4]: /ja/monitors/types/event/ \ No newline at end of file +[4]: /ja/monitors/types/event/ +[5]: /ja/help/ \ No newline at end of file diff --git a/content/ja/security/cloud_siem/detection_rules/_index.md b/content/ja/security/cloud_siem/detection_rules/_index.md index fbd82587a85..5e7e2b8d70a 100644 --- a/content/ja/security/cloud_siem/detection_rules/_index.md +++ b/content/ja/security/cloud_siem/detection_rules/_index.md @@ -37,11 +37,11 @@ type: documentation ## 概要 -Datadog でログ検出ルールを作成するには、[検出ルールページ][1]に移動し、**New Rule** をクリックします。 +Datadog で検出ルールを作成するには、[Detection Rules ページ][1]に移動し、**New Rule** をクリックします。 -## ルールタイプ +## 検出メカニズム -Cloud SIEM (Security Information and Event Management) の場合、取り込んだログをリアルタイムに分析するために、**Log Detection** を選択します。 +**Real-Time Rule** または **Historical job** のどちらを使用してセキュリティシグナルを生成するか選択します。履歴ログや監査イベントを対象とした単発検索ジョブの詳細については、[Historical Jobs][5] を参照してください。 ## 検出方法 @@ -72,9 +72,9 @@ Third Party では、外部のベンダーやアプリケーションからの ### 検索クエリ -{{< img src="security/security_monitoring/detection_rules/threshold_20240904.png" alt="検索クエリを定義する" style="width:100%;" >}} +{{< img src="security/security_monitoring/detection_rules/threshold_20250310.png" alt="検索クエリを定義する" style="width:100%;" >}} -[Log Explorer での検索][1]と同じロジックを使用して検索クエリを作成します。 +Cloud SIEM はログや Audit Trail イベントを分析できます。Audit Trail イベントを検索するには、**Logs** の横にある下向き矢印をクリックし、**Audit Trail** を選択します。[Log Explorer 検索構文][1]を使用して、ログまたは監査イベントの検索クエリを作成します。 オプションで、一意のカウントとシグナルのグループ化を定義します。特定の時間枠で属性に対して観測された一意の値の数をカウントします。定義された Group By は、値ごとに各 `group by` のシグナルを生成します。 通常、`group by` はエンティティ (ユーザーや IP など) です。Group By は、[クエリを結合する](#joining-queries)ためにも使用されます。 @@ -97,9 +97,12 @@ Third Party では、外部のベンダーやアプリケーションからの ### 検索クエリ -{{< img src="security/security_monitoring/detection_rules/new_value.png" alt="検索クエリを定義する" style="width:100%;" >}} +{{< img src="security/security_monitoring/detection_rules/new_value_20250310.png" alt="検索クエリを定義する" style="width:100%;" >}} -同じロジックを使用して、[Log Explorer 検索][1]で検索クエリを構築します。各クエリには ASCII の小文字でラベルが付与されます。クエリ名を ASCII 文字から変更する場合は、鉛筆アイコンをクリックします。 + +Cloud SIEM はログや Audit Trail イベントを分析できます。Audit Trail イベントを検索するには、**Logs** の横にある下向き矢印をクリックし、**Audit Trail** を選択します。[Log Explorer 検索構文][1]を使用して、ログまたは監査イベントの検索クエリを作成します。 + +各クエリにはラベルがあり、これは小文字の ASCII 文字です。クエリ名は鉛筆アイコンをクリックすることで、ASCII 文字から別の名前に変更できます。 **注**: このクエリは、すべての取り込みログに適用されます。 @@ -118,7 +121,7 @@ Third Party では、外部のベンダーやアプリケーションからの ### 検索クエリ -Log Explorer での検索と同じロジックを使用して検索クエリを作成します。 +Cloud SIEM はログや Audit Trail イベントを分析できます。Audit Trail イベントを検索するには、**Logs** の横にある下向き矢印をクリックし、**Audit Trail** を選択します。[Log Explorer 検索構文][1]を使用して、ログまたは監査イベントの検索クエリを作成します。 オプションで、一意のカウントとシグナルのグループ化を定義します。特定の時間枠で属性に対して観測された一意の値の数をカウントします。定義されたグループ化は、値ごとに各 `group by` のシグナルを生成します。 通常、`group by` はエンティティ (ユーザーや IP など) です。 @@ -126,13 +129,14 @@ Log Explorer での検索と同じロジックを使用して検索クエリを **注**: このクエリは、すべての取り込みログに適用されます。 +[1]: /ja/logs/search_syntax/ {{% /tab %}} {{% tab "不可能移動" %}} ### 検索クエリ -[Log Explorer 検索][1]と同じロジックで検索クエリを構築します。このクエリに一致するすべてのログは、不可能な移動である可能性を分析します。現在のクエリに一致するログを確認するには、`preview` セクションを使用できます。 +Cloud SIEM はログや Audit Trail イベントを分析できます。Audit Trail イベントを検索するには、**Logs** の横にある下向き矢印をクリックし、**Audit Trail** を選択します。[Log Explorer 検索構文][1]を使用して、すべての一致するログが「Impossible Travel」の可能性を分析されます。現在のクエリにマッチするログを確認するには、`preview` セクションを利用できます。 #### ユーザー属性 @@ -158,7 +162,7 @@ Log Explorer での検索と同じロジックを使用して検索クエリを ### Root クエリ -[Log Explorer 検索][1]と同じロジックを使用して検索クエリを構築します。各新規属性の定義されたトリガーは、24 時間のロールアップ期間にわたってその属性の新規値ごとにシグナルを生成します。 +Cloud SIEM はログや Audit Trail イベントを分析できます。Audit Trail イベントを検索するには、**Logs** の横にある下向き矢印をクリックし、**Audit Trail** を選択します。[Log Explorer 検索構文][1]を使用して、ログまたは監査イベントの検索クエリを作成します。定義された各新しい属性は、24 時間のロールアップ期間内でその属性の新しい値が検出されるたびにシグナルを生成します。 クエリを追加するには、**Add Query** をクリックします。 @@ -333,6 +337,26 @@ Datadog は、データの季節性を自動的に検出し、異常と判断さ さらに、抑制ルールでは、ログを分析対象から除外するための除外クエリを追加できます。 これらのクエリは、**ログ属性**に基づきます。**注**: 抑制は、以前はログ除外クエリに基づいていましたが、今後は抑制ルールの **Add a suppression query** ステップに含まれるようになりました。 +## ルールのバージョン履歴 + +{{< img src="/security/security_monitoring/detection_rules/rule_version_history_20250207.png" alt="GitHub OAuth アクセストークン侵害のバージョン履歴が表示されています" style="width:80%;" >}} + +Rule Version History を使用すると、以下のことが可能です: +- 検出ルールの過去バージョンを確認し、時間の経過とともにどのように変更されたかを理解する +- 誰がどのように変更したかを確認し、コラボレーションを強化する +- Diff を使って変更点を比較し、修正内容やその影響を分析する + +ルールのバージョン履歴を確認するには: +1. [Detection Rules][4] に移動します。 +1. 対象のルールをクリックします。 +1. ルールエディタで **Version History** をクリックし、過去の変更を確認します。 +1. 特定のバージョンをクリックして、どのような変更が行われたかを確認します。 +1. **Open Version Comparison** をクリックすると、バージョン間の変更点を確認できます。 +1. 比較したい 2 つのバージョンを選択します。 + - 赤字でハイライトされている部分は、変更または削除されたデータを示します。 + - 緑字でハイライトされている部分は、新しく追加されたデータを示します。 +1. **Unified** をクリックすると、同じパネル内で比較を表示できます。 + ## ルール非推奨 すべてのすぐに使える検出ルールの定期的な監査を行い、忠実なシグナル品質を維持します。非推奨のルールは、改良されたルールに置き換えられます。 @@ -350,4 +374,6 @@ Datadog は、データの季節性を自動的に検出し、異常と判断さ [1]: https://app.datadoghq.com/security/configuration/siem/rules [2]: /ja/security/detection_rules/#clone-a-rule -[3]: https://app.datadoghq.com/logs/ \ No newline at end of file +[3]: https://app.datadoghq.com/logs/ +[4]: https://app.datadoghq.com/security/rules +[5]: /ja/security/cloud_siem/historical_jobs/ \ No newline at end of file diff --git a/content/ja/security/code_security/iast/security_controls/_index.md b/content/ja/security/code_security/iast/security_controls/_index.md new file mode 100644 index 00000000000..24901480a6c --- /dev/null +++ b/content/ja/security/code_security/iast/security_controls/_index.md @@ -0,0 +1,304 @@ +--- +aliases: +- /ja/security/application_security/code_security/iast +disable_toc: false +title: セキュリティコントロール +--- + + +セキュリティコントロールは、エスケープやサニタイズの関数を使用して脆弱性検知における誤検知を防ぎます。セキュリティ機能はデータの処理方法を最適化し、正当な変換が不要なセキュリティアラートを引き起こさないようにします。 + +## 入力バリデータとサニタイザ + +セキュリティコントロールは、セキュリティ検証における関数の使われ方によって、**入力バリデータ (Input Validators)** と **サニタイザ (Sanitizers)** を区別します: + +- **入力バリデータ (Input Validators)**: 関数が渡されたパラメータを検証するときに使用されます。バリデータはユーザー入力が処理される前に、期待される形式を満たしていることを保証します。 +- **サニタイザ (Sanitizers)**: 関数がアプリケーションでさらに使用される前に、戻り値を検証または変更するときに使用されます。サニタイザはデータをクリーンアップして、潜在的に有害な内容を含まないようにします。 + +## セキュリティコントロールの設定 + +セキュリティコントロールの定義は、構成変数 `DD_IAST_SECURITY_CONTROLS_CONFIGURATION` に配置する必要があります。 +セキュリティコントロールのリストを設定するには、以下の形式とフィールド仕様に従ってください。 +この形式では、各セキュリティコントロールのエントリを構成するために特定のセパレータを使用します。 + +### 形式 + +`:::::` + +### フィールド仕様 +| **フィールド** | **説明** | +|---------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| +| **型** | コントロールの種類を定義します。**受け付ける値:** `INPUT_VALIDATOR` または `SANITIZER`。 | +| **Secure Marks** | 適用する脆弱性の種類のリスト。可能な値は[セキュアマーク](#secure-marks)に定義されています。オプションで `*` を使用し、すべての種類に適用することもできます。 | +| **Class/File** | セキュリティコントロールを実装するクラスまたはファイルの完全修飾名。 | +| **Method** | セキュリティコントロールを実装するメソッドの名称。 | +| **Parameters (Optional)** | 完全修飾クラスのパラメータ。オーバーロードされたメソッドを区別するために使用します。省略され、かつオーバーロードが存在する場合は、そのメソッドのすべてのオーバーロードに対してセキュリティコントロールが適用されます。 | +| **Parameters to Validate (Optional)** | 検証するパラメータの位置を **0** から始まるリストで指定します。最初のパラメータは位置 0 です。このフィールドは `INPUT_VALIDATOR` タイプに**のみ**適用されます。**すべてのパラメータを検証する必要がない**場合に使用します。 | + + +### セパレータ +- `;` (セミコロン): 各セキュリティコントロールを区切ります。 +- `:` (コロン): セキュリティコントロール内の各フィールドを区切ります。 +- `,` (カンマ): リストを受け取るフィールド内で要素を区切ります。 + +### セキュアマーク (Secure marks) + +利用可能なセキュアマークは、各インジェクション関連の脆弱性に対応するコードに対応しています。これらのコードと各言語での対応状況は、[サポートされる脆弱性][1]に掲載されています。 + +インジェクション関連の脆弱性は以下のとおりです: + +* コードインジェクション +* コマンドインジェクション +* E メール HTML インジェクション +* ヘッダーインジェクション +* LDAP インジェクション +* NoSQL インジェクション +* パストラバーサル +* リフレクションインジェクション +* サーバーサイドリクエストフォージェリー (SSRF) +* SQL インジェクション +* 信頼境界の違反 +* 信頼されていないデシリアライズ +* 無効なリダイレクト +* XPath インジェクション +* クロスサイトスクリプティング (XSS) + +## 互換性要件 + +この機能は、各言語のトレーシングライブラリで以下のバージョン以降から利用可能です: + +* **Java**: 1.45.0+ +* **.NET**: 未サポート +* **Node.js**: 5.37.0+ +* **Python**: 未サポート + + +## 例 + +{{% collapse-content title="Java" level="h4" %}} + +### 入力バリデータ + +#### すべての入力パラメータを検証してコマンドインジェクションの脆弱性を回避するメソッド + +##### メソッド +`bar.foo.CustomInputValidator#validate(String input1, String input2)` + +##### 構成 +`INPUT_VALIDATOR:COMMAND_INJECTION:bar.foo.CustomInputValidator:validate` + +#### 1 つの入力パラメータを検証してコマンドインジェクションの脆弱性を回避するメソッド + +##### メソッド + `bar.foo.CustomInputValidator#validate(String input1, String inputToValidate)` + +##### 構成 +`INPUT_VALIDATOR:COMMAND_INJECTION:bar.foo.CustomInputValidator:validate:1` + +#### 2 つの入力パラメータを検証してコマンドインジェクションの脆弱性を回避するメソッド + +##### メソッド + `bar.foo.CustomInputValidator#validate(String input1, String firstInputToValidate, String secondInputToValidate, Object anotherInput)` + +##### 構成 +`INPUT_VALIDATOR:COMMAND_INJECTION:bar.foo.CustomInputValidator:validate:1,2 +` +#### 入力パラメータを検証してコマンドインジェクションとコードインジェクションの脆弱性を回避するメソッド + +##### メソッド + `bar.foo.CustomInputValidator#validate(String input)` + +##### 構成 +`INPUT_VALIDATOR:COMMAND_INJECTION,CODE_INJECTION:bar.foo.CustomInputValidator:validate +` +#### 入力パラメータを検証してあらゆる脆弱性を回避するメソッド + +##### メソッド + `bar.foo.CustomInputValidator#validate(String input)` + +##### 構成 +`INPUT_VALIDATOR:*:bar.foo.CustomInputValidator:validate +` +#### オーバーロードされたメソッドで、入力パラメータを検証してコマンドインジェクションの脆弱性を回避する場合 + +##### メソッド + `bar.foo.CustomInputValidator#validate(String input)` + + `bar.foo.CustomInputValidator#validate(String input, String input2)` + +##### 構成 +`INPUT_VALIDATOR:COMMAND_INJECTION:bar.foo.CustomInputValidator:validate:java.lang.String +` +##### 注 +最初のメソッドに適用されます。 + + +#### 入力パラメータを検証してコマンドインジェクションの脆弱性を回避するオーバーロードされたメソッド + +##### メソッド + `bar.foo.CustomInputValidator#validate(String input)` + + `bar.foo.CustomInputValidator#validate(String input, String input2)` + +##### 構成 +`INPUT_VALIDATOR:COMMAND_INJECTION:bar.foo.CustomInputValidator:validate +` +##### 注 +両方のメソッドに適用されます。 + +### サニタイザ + +#### コマンドインジェクションの脆弱性を回避するサニタイザ + +##### メソッド + `bar.foo.CustomSanitizer#sanitize(String input)` + +##### 構成 +`SANITIZER:COMMAND_INJECTION:bar.foo.CustomSanitizer:sanitize +` +#### コマンドインジェクションとコードインジェクションの脆弱性を回避するサニタイザ + +##### メソッド + `bar.foo.CustomSanitizer#sanitize(String input)` + +##### 構成 +`SANITIZER:COMMAND_INJECTION,CODE_INJECTION:bar.foo.CustomSanitizer:sanitize +` +#### あらゆる脆弱性を回避するサニタイザ + +##### メソッド + `bar.foo.CustomSanitizer#sanitize(String input)` + +##### 構成 +`SANITIZER:*:bar.foo.CustomSanitizer:sanitize +` +#### コマンドインジェクションの脆弱性を回避するためのオーバーロードされたサニタイザ + +##### メソッド + `bar.foo.CustomSanitizer#sanitize(String input)` + + `bar.foo.CustomSanitizer#sanitize(String input, String input2)` + +##### 構成 +`SANITIZER:COMMAND_INJECTION:bar.foo.CustomSanitizer:sanitize:java.lang.String +` +##### 注 +最初のメソッドに適用されます。 + +#### コマンドインジェクションの脆弱性を回避するオーバーロードされたサニタイザ + +##### メソッド +` bar.foo.CustomSanitizer#sanitize(String input)` + +`bar.foo.CustomSanitizer#sanitize(String input, String input2)` + +##### 構成 +`SANITIZER:COMMAND_INJECTION:bar.foo.CustomSanitizer:sanitize +` +##### 注 +両方のメソッドに適用されます。 + +{{% /collapse-content %}} + + +{{% collapse-content title="Node.js" level="h4" %}} + +### 入力バリデータ + +#### コマンドインジェクションの脆弱性を回避するために、すべての入力パラメータを検証するメソッド + +##### メソッド +`bar/foo/custom_input_validator.js#validate(input1, input2)` + +##### 構成 +`INPUT_VALIDATOR:COMMAND_INJECTION:bar/foo/custom_input_validator.js:validate` + +#### コマンドインジェクションの脆弱性を回避するために、1 つの入力パラメータを検証するメソッド + +##### メソッド +`bar/foo/custom_input_validator.js#validate(input1, inputToValidate)` + +##### 構成 +`INPUT_VALIDATOR:COMMAND_INJECTION:bar/foo/custom_input_validator.js:validate:1` + +#### コマンドインジェクションの脆弱性を回避するために、2 つの入力パラメータを検証するメソッド + +##### メソッド +`bar/foo/custom_input_validator.js#validate(input1, firstInputToValidate, secondInputToValidate, anotherInput)` + +##### 構成 +`INPUT_VALIDATOR:COMMAND_INJECTION:bar/foo/custom_input_validator.js:validate:1,2` + +#### コマンドインジェクションとコードインジェクションの脆弱性を回避するために、入力パラメータを検証するメソッド + +##### メソッド +`bar/foo/custom_input_validator.js#validate(input)` + +##### 構成 +`INPUT_VALIDATOR:COMMAND_INJECTION,CODE_INJECTION:bar/foo/custom_input_validator.js:validate` + +#### あらゆる脆弱性を回避するために、入力パラメータを検証するメソッド + +##### メソッド +`bar/foo/custom_input_validator.js#validate(input)` + +##### 構成 +`INPUT_VALIDATOR:*:bar/foo/custom_input_validator.js:validate` + +### サニタイザ + +#### コマンドインジェクションの脆弱性を回避するサニタイザ + +##### メソッド +`bar/foo/custom_input_sanitizer.js#sanitize(input)` + +##### 構成 +`SANITIZER:COMMAND_INJECTION:bar/foo/custom_input_sanitizer.js:sanitize` + +#### コマンドインジェクションとコードインジェクションの脆弱性を回避するサニタイザ + +##### メソッド +`bar/foo/custom_input_sanitizer.js#sanitize(input)` + +##### 構成 +`SANITIZER:COMMAND_INJECTION,CODE_INJECTION:bar/foo/custom_input_sanitizer.js:sanitize` + +#### あらゆる脆弱性を回避するサニタイザ + +##### メソッド +`bar/foo/custom_input_sanitizer.js#sanitize(input)` + +##### 構成 +`SANITIZER:*:bar/foo/custom_input_sanitizer.js:sanitize` + +### 特殊なケース + +#### エクスポートされたオブジェクト内のセキュリティコントロールメソッド +オブジェクト `validators` 内でエクスポートされているメソッド `validate` は、入力パラメータを検証してコマンドインジェクションの脆弱性を回避します。 + +```javascript +// bar/foo/custom_input_validator.js +module.exports = { + validators: { + validate: (input) => { + /* validation process */ + } + } +} +``` + +#### 構成 +`INPUT_VALIDATOR:COMMAND_INJECTION:bar/foo/custom_input_validator.js:validators.validate` + +#### トランジティブ依存関係からのセキュリティコントロールメソッド +`npm` のフラットな依存構造により、直接依存とトランジティブ依存を区別することはできません。つまり、ある依存関係内にセキュリティコントロールが定義されている場合、その依存関係 (直接かトランジティブかを問わず) のすべてのインスタンスが影響を受けます。 + +次のセキュリティコントロール定義は、依存関係ツリー内にあるすべての `sql-sanitizer` パッケージに適用されます。 + +#### 構成 +`SANITIZER:SQL_INJECTION:node_modules/sql-sanitizer/index.js:sanitize` + + +{{% /collapse-content %}} + +[1]: /ja/security/code_security/iast/#overview \ No newline at end of file diff --git a/content/ja/security/code_security/iast/setup/_index.md b/content/ja/security/code_security/iast/setup/_index.md new file mode 100644 index 00000000000..e0b52293a46 --- /dev/null +++ b/content/ja/security/code_security/iast/setup/_index.md @@ -0,0 +1,821 @@ +--- +aliases: +- /ja/security/application_security/enabling/single_step/code_security/ +- /ja/security/application_security/enabling/tracing_libraries/code_security/ +- /ja/security/application_security/code_security/setup/ +disable_toc: false +title: ランタイムコード解析 (IAST) をセットアップする +--- + +## 前提条件 +ランタイムコード解析 (IAST) をセットアップする前に、以下の前提条件を満たしていることを確認してください: + +1. **Datadog Agent のインストール:** Datadog Agent がアプリケーションが稼働するオペレーティングシステム、コンテナ、クラウド、または仮想環境上にインストールおよび適切に設定されていること。 +2. **Datadog APM の設定:** Datadog APM がアプリケーションまたはサービスに設定されており、`type:web` の Web トレースが Datadog で受信されていること。 +3. **対応トレーシングライブラリ:** お使いのアプリケーションまたはサービスで使用している Datadog トレーシングライブラリが、そのアプリケーションまたはサービスの言語向けにランタイムコード解析 (IAST) 機能をサポートしている必要があります。詳細は、下記の**互換性要件**セクションを参照してください。 + +## Datadog トレーシングライブラリの使用 + +ランタイムコード解析 (IAST) を有効にする方法については、アプリケーションの言語とインフラタイプを選択して確認してください。 + + +{{% collapse-content title="Java" level="h4" %}} + +Java アプリケーションを Docker、Kubernetes、Amazon ECS、AWS Fargate 上で実行する際に、コードレベルの脆弱性を検出し、アプリケーションセキュリティをモニタリングできます。 + +サービスでランタイムコード解析 (IAST) を有効にするには、以下の手順に従ってください: + +1. [Datadog Agent][6] をバージョン 7.41.1 以上に更新します。 +2. Datadog トレーシングライブラリを、ランタイムコード解析 (IAST) をオンにするために必要な最低バージョン以上にアップデートします。詳細は、下記の**互換性要件**を参照してください。 +3. アプリケーションの構成に `DD_IAST_ENABLED=true` 環境変数を追加します。 + + コマンドラインから + + ```shell + java -javaagent:/path/to/dd-java-agent.jar -Ddd.iast.enabled=true -Ddd.service= -Ddd.env= -jar path/to/app.jar + ``` + + アプリケーションが動作している場所に応じて、以下のオーケストレーションツールのいずれかを使用します。 + + **注**: 読み取り専用ファイルシステムはサポートされていません。アプリケーションは書き込み可能な `/tmp` ディレクトリへのアクセス権を持っている必要があります。 + + +#### Docker CLI + +APM 用の構成コンテナを更新するには、`docker run` コマンドに以下の引数を追加します。 + + +```shell +docker run [...] -e DD_IAST_ENABLED=true [...] +``` + +#### Dockerfile + +コンテナの Dockerfile に以下の環境変数の値を追加します。 + +```Dockerfile +DD_IAST_ENABLED=true +``` + +#### Kubernetes + +APM 用のデプロイメント構成ファイルを更新し、IAST 環境変数を追加します。 + +```yaml +spec: + template: + spec: + containers: + - name: + image: / + env: + - name: DD_IAST_ENABLED + value: "true" +``` + +#### Amazon ECS + +以下を環境セクションに追加して、ECS タスク定義 JSON ファイルを更新します。 + +```json +"environment": [ + ..., + { + "name": "DD_IAST_ENABLED", + "value": "true" + } +] +``` + +[1]: https://github.com/DataDog/dd-trace-java/releases +[2]: /ja/security/code_security/iast/setup/ +[3]: /ja/security/code_security/iast/setup/ +[4]: https://app.datadoghq.com/security/appsec/vm +[5]: /ja/help +[6]: /ja/agent/versions/upgrade_between_agent_minor_versions/ + + +{{% /collapse-content %}} + +{{% collapse-content title=".NET" level="h4" %}} + +.NET アプリケーションを Docker、Kubernetes、Amazon ECS、AWS Fargate 上で実行する際に、コードレベルの脆弱性を検出し、アプリケーションセキュリティをモニタリングできます。 + +サービスでランタイムコード解析 (IAST) を有効にするには、以下の手順に従ってください: + +1. [Datadog Agent][3] をバージョン 7.41.1 以上に更新します。 +2. Datadog トレーシングライブラリを、ランタイムコード解析 (IAST) をオンにするために必要な最低バージョン以上にアップデートします。詳細は、下記の**互換性要件**を参照してください。 +3. アプリケーションの構成に `DD_IAST_ENABLED=true` 環境変数を追加します。たとえば、Windows のセルフホスト環境では、アプリケーションのスタートアップスクリプトの一部として、次の PowerShell スニペットを実行します: + + ```sh + $target=[System.EnvironmentVariableTarget]::Process + [System.Environment]::SetEnvironmentVariable("DD_IAST_ENABLED","true",$target) + ``` + +または、アプリケーションが動作している場所に応じて、次の方法のいずれかを使用します: + +#### Windows セルフホスト + +Windows コンソールで: + +```sh +rem Set environment variables +SET DD_IAST_ENABLED=true + +rem Start application +dotnet.exe example.dll +``` + +#### IIS + +管理者として以下の PowerShell コマンドを実行し、レジストリ `HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\Session Manager\Environment` に必要な環境変数を設定して IIS を再起動することもできます。 + +```sh +$target=[System.EnvironmentVariableTarget]::Machine +[System.Environment]::SetEnvironmentVariable("DD_IAST_ENABLED","true",$target) +net stop was /y +net start w3svc +``` + +#### Linux + +アプリケーションの構成に以下を追加します。 + +``` +DD_IAST_ENABLED=true +``` + +#### Docker CLI + +docker run コマンドに引数を追加して、APM 用のコンテナ設定を更新します。 + +``` +docker run -d --name app -e DD_IAST_ENABLED=true company/app:latest +``` + +#### Dockerfile + +コンテナの Dockerfile に以下の環境変数の値を追加します。 + +``` +ENV DD_IAST_ENABLED=true +``` + +#### Kubernetes + +APM のデプロイ構成ファイルを更新し、ランタイムコード解析 (IAST) の環境変数を追加します。 + +```yaml +spec: + template: + spec: + containers: + - name: + image: / + env: + - name: DD_IAST_ENABLED + value: "true" +``` + +#### AWS ECS + +以下を環境セクションに追加して、ECS タスク定義 JSON ファイルを更新します。 + +```yaml +"environment": [ + ..., + { + "name": "DD_IAST_ENABLED", + "value": "true" + } +] +``` + +#### AWS Fargate + +コンテナの Dockerfile に以下の行を追加します。 + +``` +ENV DD_IAST_ENABLED=true +``` + +ランタイムコード解析 (IAST) の動作を確認するには、サービスをブラウズして [Vulnerability Explorer][4] でコードレベルの脆弱性を探してください。 + +{{< img src="/security/application_security/Code-Level-Vulnerability-Details-New.mp4" alt="Code Vulnerabilities を示す動画" video="true" >}} + +さらにサポートが必要な場合は、[Datadog サポート][5]にお問い合わせください。 + +[1]: https://github.com/DataDog/dd-trace-dotnet/releases/latest +[2]: /ja/security/code_security/iast/setup/ +[3]: /ja/agent/versions/upgrade_between_agent_minor_versions/ +[4]: /ja/security/code_security/iast/setup/ +[5]: /ja/help + +{{% /collapse-content %}} + +{{% collapse-content title="Node.js" level="h4" %}} + +Node.js アプリケーションを Docker、Kubernetes、Amazon ECS、AWS Fargate 上で実行する際に、コードレベルの脆弱性を検出し、アプリケーションセキュリティをモニタリングできます。 + +サービスでランタイムコード解析 (IAST) を有効にするには、以下の手順に従ってください: + +1. [Datadog Agent][4] をバージョン 7.41.1 以上に更新します。 +2. Datadog トレーシングライブラリを、ランタイムコード解析 (IAST) をオンにするために必要な最低バージョン以上にアップデートします。詳細は、下記の**互換性要件**を参照してください。 +3. アプリケーションの構成に `DD_IAST_ENABLED=true` 環境変数を追加します。 + + `--require` オプションを使って Node.js に APM ライブラリをコマンドラインから初期化する場合: + + ```shell + node --require dd-trace/init app.js + ``` + 環境変数を使用してランタイムコード解析 (IAST) を有効にします。 + ```shell + DD_IAST_ENABLED=true node app.js + ``` + 具体的な方法は、サービスが動作している場所によって異なります: + +#### Docker CLI + +APM 用の構成コンテナを更新するには、`docker run` コマンドに以下の引数を追加します。 + +```shell +docker run [...] -e DD_IAST_ENABLED=true [...] +``` + +#### Dockerfile + +コンテナの Dockerfile に以下の環境変数の値を追加します。 + +```Dockerfile +ENV DD_IAST_ENABLED=true +``` + +#### Kubernetes + +APM 用の構成 yaml ファイルコンテナを更新し、AppSec の環境変数を追加します。 + +```yaml +spec: + template: + spec: + containers: + - name: + image: / + env: + - name: DD_IAST_ENABLED + value: "true" +``` + +#### Amazon ECS + +以下を環境セクションに追加して、ECS タスク定義 JSON ファイルを更新します。 + +```json +"environment": [ + ..., + { + "name": "DD_IAST_ENABLED", + "value": "true" + } +] +``` + +[1]: https://github.com/DataDog/dd-trace-js/blob/master/MIGRATING.md +[2]: /ja/security/code_security/iast/setup/nodejs/ +[3]: /ja/security/code_security/iast/setup/ +[4]: /ja/agent/versions/upgrade_between_agent_minor_versions/ +[5]: https://app.datadoghq.com/security/appsec/vm/code +[6]: /ja/help + +{{% /collapse-content %}} + +{{% collapse-content title="Python" level="h4" %}} + +Python アプリケーションを Docker、Kubernetes、Amazon ECS、AWS Fargate 上で実行する際に、コードレベルの脆弱性を検出し、アプリケーションセキュリティをモニタリングできます。 + +注: Python でのランタイムコード解析 (IAST) はプレビュー版です。 + +サービスでランタイムコード解析 (IAST) を有効にするには、以下の手順に従ってください: + +1. [Datadog Agent][6] をバージョン 7.41.1 以上に更新します。 +2. Datadog トレーシングライブラリを、ランタイムコード解析 (IAST) をオンにするために必要な最低バージョン以上にアップデートします。詳細は、下記の**互換性要件**を参照してください。 +3. アプリケーションの構成に `DD_IAST_ENABLED=true` 環境変数を追加します。 + + コマンドラインから + + ```shell + DD_IAST_ENABLED=true ddtrace-run python app.py + ``` + + または、アプリケーションが実行される場所に応じて、以下の方法のいずれかを使用します。 + + +#### Docker CLI + +APM 用の構成コンテナを更新するには、`docker run` コマンドに以下の引数を追加します。 + + +```shell +docker run [...] -e DD_IAST_ENABLED=true [...] +``` + +#### Dockerfile + +コンテナの Dockerfile に以下の環境変数の値を追加します。 + +```Dockerfile +DD_IAST_ENABLED=true +``` + +#### Kubernetes + +APM 用のデプロイメント構成ファイルを更新し、IAST 環境変数を追加します。 + +```yaml +spec: + template: + spec: + containers: + - name: + image: / + env: + - name: DD_IAST_ENABLED + value: "true" +``` + +#### Amazon ECS + +以下を環境セクションに追加して、ECS タスク定義 JSON ファイルを更新します。 + +```json +"environment": [ + ..., + { + "name": "DD_IAST_ENABLED", + "value": "true" + } +] +``` + +#### サードパーティライブラリとの互換性に関する注意事項 + +ランタイムコード解析 (IAST) は、実行時に Python のコードを変換します。これにより、以下を含む類似のコード変換を行うサードパーティ Python ライブラリと競合が発生する可能性がありますが、これらに限定されません: + +- Numba +- JAX +- TorchScript +- TensorFlow +- Bytecode +- Codetransformer +- PyPy + +さらに、ランタイムコード解析 (IAST) はネイティブ(コンパイル済み)コードにおいて、汚染範囲 (taint ranges) を正しく伝搬しません。そのため、C や C++ で書かれたモジュールや CPython API、Cython のような中間言語システムに大きく依存するコードベースの場合、結果が予想よりも不正確になる可能性があります。 + + +[1]: https://github.com/DataDog/dd-trace-py/releases +[2]: /ja/security/code_security/iast/setup/python +[3]: /ja/security/code_security/iast/setup/ +[4]: https://app.datadoghq.com/security/appsec/vm/code +[5]: /ja/help +[6]: /ja/agent/versions/upgrade_between_agent_minor_versions/ + +{{% /collapse-content %}} + +### セットアップの完了 + +1. サービスを再起動します。 +2. ランタイムコード解析 (IAST) の動作を確認するには、サービスをブラウズして [Vulnerability Explorer][4] でコードレベルの脆弱性を探してください。 + +{{< img src="/security/application_security/Code-Level-Vulnerability-Details-New.mp4" alt="脆弱性を示す動画" video="true" >}} + +さらにサポートが必要な場合は、[Datadog サポート][5]にお問い合わせください。 + +[1]: /ja/security/code_security/iast/setup/ +[4]: https://app.datadoghq.com/security/appsec/vm +[5]: /ja/help + +## 互換性要件 + +各言語のトレーシングライブラリにおけるサポート状況に基づき、以下のコードセキュリティ機能を利用できます: + +| コードセキュリティ機能 | Java | .NET | Node.js | Python | Go | Ruby | PHP | +|-----------------------------------------------|---------|----------|------------|-------------|----------------|---------------|---------------| +| Runtime Software Composition Analysis (SCA) | 1.1.4 | 2.16.0 | 4.0.0 | 1.5.0 | 1.49.0 | 1.11.0 | 0.90.0 | +| Runtime Code Analysis (IAST) | 1.15.0 | 2.42.0 | 4.18.0 | プレビュー | 非対応 | 非対応 | 非対応 | + +**注**: **静的ソフトウェア構成分析 (SCA)** および**静的コード解析 (SAST)** は Datadog のトレーシングライブラリを必要としません。そのため、以下に示す要件はこれら 2 つのコードセキュリティ機能には適用されません。 + +フレームワークの互換性と機能サポートの詳細については、アプリケーションの言語を選択してください。 + +{{% collapse-content title="Java" level="h4" %}} + +### コードセキュリティ機能 + +指定されたトレーサーバージョンに対して、Java ライブラリでサポートされるコードセキュリティ機能は以下のとおりです: + +| コードセキュリティ機能 | Java トレーサーの最小バージョン | +| ------------------------------------------- | ----------------------------| +| Runtime Software Composition Analysis (SCA) | 1.1.4 | +| Runtime Code Analysis (IAST) | 1.15.0 | + +Java でサポートされるすべてのコードセキュリティ機能を利用するための最小トレーサーバージョンは 1.15.0 です。 + +#### サポートされるデプロイメントタイプ +| タイプ | Runtime Software Composition Analysis (SCA) | Runtime Code Analysis (IAST) | +|------------------ | ------------------------------------------- | ----------------------------------- | +| Docker | | | +| Kubernetes | | | +| Amazon ECS | | | +| AWS Fargate | | プレビュー (1.15.0) | +| AWS Lambda | | | +| Azure App Service | | | + +**注**: Azure App Service は **Web アプリケーションのみ**サポートされます。Azure Functions は Code Security のサポート対象外です。 + +### 言語とフレームワークの互換性 + +#### サポートされている Java バージョン +Java トレーサーは、次の Oracle JDK および OpenJDK の JVM ランタイムの自動インスツルメンテーションをサポートします。 + +| JVM バージョン | オペレーティングシステム | サポートレベル | トレーサーバージョン | +| -------------| ------------------------------------------------------------------------------------- | ----------------------------------- | -------------- | +| 8〜17 | Windows (x86-64)
Linux (glibc、musl) (arm64、x86-64)
MacOS (arm64、x86-64) | サポート | 最新 | + + +Datadog は、Java の早期アクセスバージョンを公式にサポートしていません。 + +#### Web フレームワークの互換性 +##### コードセキュリティ機能に関する注意事項 +- **Runtime Software Composition Analysis (SCA)** はすべてのフレームワークでサポートされます。 +- **Runtime Code Analysis (IAST)** がフレームワークをサポートしていない場合でも、弱い暗号 (Weak Cipher)、弱いハッシュ (Weak Hashing)、弱い乱数生成 (Weak Randomness)、不適切な Cookie 設定 (Insecure Cookie)、HttpOnly が付与されていない Cookie、SameSite 属性が付与されていない Cookie などの脆弱性は引き続き検出されます。 + +| フレームワーク | バージョン | Runtime Code Analysis (IAST) | +| --------------------------- | ---------------- | --------------------------------- | +| Grizzly | 2.0+ | | +| Glassfish | | | +| Java Servlet | 2.3+、3.0+ | | +| Jetty | 7.0-9.x, 10.x | | +| Spring Boot | 1.5 | | +| Spring Web (MVC) | 4.0+ | | +| Spring WebFlux | 5.0+ | | +| Tomcat | 5.5+ | | +| Vert.x | 3.4-3.9.x | | + +**注:** 多くのアプリケーションサーバーは Servlet 互換でそのインスツルメンテーションによって自動的にカバーされます (Websphere、Weblogic、JBoss)。また、Spring Boot (バージョン 3) のようなフレームワークは、通常、Tomcat、Jetty、Netty など、サポートされた組み込みアプリケーションサーバーを使うため、本質的に機能します。 + +
ご希望のフレームワークが掲載されていない場合は、お知らせください!この短いフォームに必要事項を記入して、詳細を送信してください。
+ +#### ネットワーキングフレームワークの互換性 + +`dd-java-agent` には、次のネットワーキングフレームワークの自動トレースのサポートが含まれます。 + +##### コードセキュリティ機能に関する注意事項 +- **Runtime Software Composition Analysis (SCA)** はすべてのフレームワークでサポートされます。 +- **Runtime Code Analysis (IAST)** がフレームワークをサポートしていない場合でも、弱い暗号 (Weak Cipher)、弱いハッシュ (Weak Hashing)、不適切な Cookie 設定 (Insecure Cookie)、Cookie に HttpOnly が付与されていない、Cookie に SameSite 属性が付与されていない、HSTS ヘッダーが設定されていない、X-Content-Type-Options ヘッダーが設定されていないなどの脆弱性は引き続き検出されます。 + +| フレームワーク | バージョン | Runtime Code Analysis (IAST) | +| -------------------------------------- | ----------- | ---------------------------------------------- | +| Apache HTTP クライアント | 4.0+ | | +| gRPC | 1.5+ | | +| HttpURLConnection | すべて | | +| Jax RS クライアント | 2.0+ | | +| Jersey サーバー | 1.9-2.29 | | +| Netty HTTP サーバー | 3.8+ | | +| RESTEasy | 3.0.x | | +| Spring SessionAwareMessageListener | 3.1+ | | + +
ご希望のフレームワークが掲載されていない場合は、お知らせください!この短いフォームに必要事項を記入して、詳細を送信してください。
+ +#### データストアの互換性 + +`dd-java-agent` には、次のデータベースフレームワーク/ドライバーの自動トレースのサポートが含まれます。 + +**データストアのトレーシングでは以下の確認が可能です** + +- リクエストの応答タイミング +- クエリ情報 (サニタイジングされたクエリ文字列など) +- エラーとスタックトレースの取得 + +##### コードセキュリティ機能に関する注意事項 +- **Runtime Software Composition Analysis (SCA)** はすべてのフレームワークでサポートされます。 +- 下記にサポートされていないフレームワークを使用している場合、**Runtime Code Analysis (IAST)** では SQL インジェクションの検出が行われませんが、それ以外の脆弱性については[こちら][3]にリストされている種類が引き続き検出されます。 + +| データベース | バージョン | Runtime Code Analysis (IAST) | +| ----------------------- | -------- | -------------------------------- | +| Aerospike | 4.0+ | | +| Couchbase | 2.0+ | | +| JDBC | N/A | | +| MongoDB | 3.0-4.0+ | | + +
ご利用のフレームワークがリストにない場合は、この短いフォームにご記入ください。
+ + +[1]: /ja/tracing/trace_collection/compatibility/java/ +[2]: /ja/agent/remote_config/?tab=configurationyamlfile#enabling-remote-configuration +[3]: /ja/security/code_security/software_composition_analysis/ + +{{% /collapse-content %}} + +{{% collapse-content title=".NET" level="h4" %}} + +### コードセキュリティ機能サポート + +指定されたトレーサーバージョンに対して、.NET ライブラリでサポートされるコードセキュリティ機能は以下のとおりです: + +| コードセキュリティ機能 | .NET トレーサーの最小バージョン | +| ------------------------------------------- | --------------------------- | +| Runtime Software Composition Analysis (SCA) | 2.16.0 | +| Runtime Code Analysis (IAST) | 2.42.0 | + +.NET でサポートされるすべてのコードセキュリティ機能を利用するための最小トレーサーバージョンは 2.42.0 です。 + +#### サポートされるデプロイメントタイプ +| タイプ | Runtime Software Composition Analysis (SCA) | Runtime Code Analysis (IAST) | +|------------------ | ------------------------------------------- | ----------------------------------- | +| Docker | | | +| Kubernetes | | | +| Amazon ECS | | | +| AWS Fargate | | プレビュー (2.42.0) | +| AWS Lambda | | | +| Azure App Service | | | + +**注**: Azure App Service は **Web アプリケーションのみ**サポートされます。Azure Functions は Code Security 機能のサポート対象外です。 + +### 言語とフレームワークの互換性 + +#### サポートされている .NET バージョン + +| .NET Framework バージョン | マイクロソフトサポート終了 | サポートレベル | パッケージバージョン | +| ----------------------- | --------------------- | ------------------- | ------------------- | +| 4.8 | | GA | 最新 | +| 4.7.2 | | GA | 最新 | +| 4.7 | | GA | 最新 | +| 4.6.2 | | GA | 最新 | +| 4.6.1 | 04/26/2022 | GA | 最新 | + + +これらは、以下のアーキテクチャでサポートされています。 +- Linux (GNU) x86-64、ARM64 +- Alpine Linux (musl) x86-64、ARM64 +- macOS (Darwin) x86-64、ARM64 +- Windows (msvc) x86、x86-64 + +#### Web フレームワークの互換性 +##### コードセキュリティ機能に関する注意事項 + +- **Runtime Software Composition Analysis (SCA)** はすべてのフレームワークでサポートされます。 +- リストにないフレームワークの場合、**Runtime Code Analysis (IAST)** では Insecure Cookie (不適切な Cookie 設定) の検出が継続されます。 + +| フレームワーク | Runtime Code Analysis (IAST) | +| ----------------------- | -------------------------------- | +| ASP.NET MVC | | +| ASP.NET Web API 2 | | + +
ご希望のフレームワークが掲載されていない場合は、お知らせください!この短いフォームに必要事項を記入して、詳細を送信してください。
+ +### ネットワーキングフレームワークの互換性 +##### コードセキュリティ機能に関する注意事項 + +- **Runtime Software Composition Analysis (SCA)** はすべてのフレームワークでサポートされます。 + +| フレームワーク | Runtime Code Analysis (IAST) | +|---------- |-------------------------------------------- | +| http | | +| https | | + +
ご希望のフレームワークが掲載されていない場合は、お知らせください!この短いフォームに必要事項を記入して、詳細を送信してください。
+ +#### データストアの互換性 + +**データストアのトレーシングでは以下の確認が可能です** + +- クエリ情報 (サニタイジングされたクエリ文字列など) +- エラーとスタックトレースの取得 + +##### コードセキュリティ機能に関する注意事項 + +- **Runtime Software Composition Analysis (SCA)** はすべてのフレームワークでサポートされます。 + +| フレームワーク | Runtime Code Analysis (IAST) | +|------------------|---------------------------------| +| OracleDB | | +| ADO.NET | | +| SQL Server | | +| MySQL | | +| SQLite | | + +[1]: /ja/tracing/trace_collection/compatibility/dotnet-core/ +[2]: /ja/tracing/trace_collection/compatibility/dotnet-framework/ +[3]: /ja/agent/remote_config/#enabling-remote-configuration + + +{{% /collapse-content %}} + +{{% collapse-content title="Node.js" level="h4" %}} + +### コードセキュリティ機能 + +指定されたトレーサーバージョンに対して、Node.js ライブラリでサポートされるコードセキュリティ機能は以下のとおりです: + +| コードセキュリティ機能 | Node.js トレーサーの最小バージョン | +|---------------------------------------------- | -------------------------------------------------- | +| Runtime Software Composition Analysis (SCA) | 4.0.0 | +| Runtime Code Analysis (IAST) | 4.18.0 (Node.js 16+) または 5.0.0 (Node.js 18+) | + +Node.js でサポートされるすべてのコードセキュリティ機能を利用するための最小トレーサーバージョンは、Node.js 16+ の場合は 4.30.0、Node.js 18+ の場合は 5.0.0 です。 + +#### サポートされるデプロイメントタイプ +| タイプ | Runtime Software Composition Analysis (SCA) | Runtime Code Analysis (IAST) | +|------------- | --------------------------------------------- | ---------------------------------------------------------- | +| Docker | | | +| Kubernetes | | | +| Amazon ECS | | | +| AWS Fargate | | プレビュー (Node.js 16+ では 4.18.0、Node.js 18+ では 5.0.0) | +| AWS Lambda | | 非対応 | + +### 言語とフレームワークの互換性 + +#### Node.js のバージョンサポート + +Node.js プロジェクトが LTS のメジャーリリースラインのサポートを終了すると (EOL になると)、次のメジャーバージョンの `dd-trace` でそのサポートが停止されます。 +`dd-trace` ライブラリの最後のメジャーサポートリリースラインは、メンテナンスモードベースで、少なくともあと 1 年間はその EOL バージョンの Node.js をサポートします。 + +いくつかの問題は `dd-trace` で解決できず、代わりに Node.js で解決しなければなりません。このような場合、問題のある Node.js のリリースが EOL であれば、EOL ではない別のリリースに移行しなければ問題を解決することは不可能です。 +Datadog は、LTS でない Node.js のメジャーリリースライン (奇数バージョン) に対する特定のサポートを提供するために、`dd-trace` の新しいリリースを作成することはありません。 + +最高のサポートレベルを得るためには、常に最新の LTS リリースの Node.js と、最新のメジャーバージョンの `dd-trace` を実行します。Node.js のどのリリースラインを使用する場合でも、最新のセキュリティ修正を確実に行うために、そのリリースラインの最新バージョンの Node.js を使用します。 + +Node.js のリリースについては、[Node.js の公式ドキュメント][4]を参照してください。 + +#### オペレーティングシステム対応 + +`dd-trace` が公式にサポートしているオペレーティングシステムは下記のとおりです。リスト外の OS も動作する可能性はありますが、アプリケーションセキュリティ機能、プロファイリング、ランタイムメトリクスなど一部機能が利用できない場合があります。一般的に、主要バージョンの初回リリース時点でアクティブにメンテナンスされている OS がサポート対象となります。 + +| オペレーティングシステム | アーキテクチャ | 最小バージョン | +|------------------|---------------|------------------------------------------| +| Linux (glibc) | arm64、x64 | CentOS 7、Debian 9、RHEL 7、Ubuntu 14.04 | +| Linux (musl) | arm64、x64 | Alpine 3.13 | +| macOS | arm64、x64 | Catalina (10.15) | +| Windows | x64 | Windows 8.1、Windows Server 2012 | + +#### Web フレームワークの互換性 +##### コードセキュリティ機能に関する注意事項 +- **Runtime Software Composition Analysis (SCA)** はすべてのフレームワークでサポートされます。 +- リストにないフレームワークの場合、**Runtime Code Analysis (IAST)** では弱い暗号 (Weak Cipher)、弱いハッシュ (Weak Hashing)、弱い乱数 (Weak Randomness)、不適切な Cookie 設定 (Insecure Cookie)、Cookie に HttpOnly がない、Cookie に SameSite 属性がない、HSTS ヘッダーがない、X-Content-Type-Options ヘッダーがないといった脆弱性の検出が継続されます。 + +| フレームワーク | バージョン | Runtime Code Analysis (IAST) | +|-----------|----------|----------------------------------| +| express | 4 以降 | | +| nextjs | 11.1 以降 | | + +
サポートされていない機能または Node.js フレームワークのサポート追加を希望される場合は、お知らせください!この短いフォームに必要事項を記入して、詳細を送信してください。
+ +### ネットワーキングフレームワークの互換性 +##### コードセキュリティ機能に関する注意事項 + +- **Runtime Software Composition Analysis (SCA)** はすべてのフレームワークでサポートされます。 + +| フレームワーク | Runtime Code Analysis (IAST) | +|---------- |-------------------------------------------- | +| http | | +| https | | + +
ご希望のフレームワークが掲載されていない場合は、お知らせください!この短いフォームに必要事項を記入して、詳細を送信してください。
+ +### データストアの互換性 + +Datastore トレーシングにより得られる情報: + +- クエリ情報 (サニタイジングされたクエリ文字列など) +- エラーとスタックトレースの取得 + +##### コードセキュリティ機能に関する注意事項 + +- **Runtime Software Composition Analysis (SCA)** はすべてのフレームワークでサポートされます。 + + +| フレームワーク | バージョン | Runtime Code Analysis (IAST) | +|--------------------------|-----------|--------------------------------------- | +| [@apollo/server][43] | `4 以降` | | +| [apollo-server-core][44] | `3 以降` | | +| [cassandra-driver][28] | `3 以降` | | +| [couchbase][29] | `2.4.2 以降` | | +| [elasticsearch][30] | `10 以降` | | +| [ioredis][31] | `2 以降` | | +| [knex][32] | `0.8 以降` | | +| [mariadb][5] | `3 以降` | | +| [memcached][33] | `2.2 以降` | | +| [mongodb-core][34] | `2 以降` | | +| [mysql][35] | `2 以降` | | +| [mysql2][36] | `1 以降` | | +| [oracledb][37] | `>=5` | | +| [pg][38] | `4 以降` | | +| [redis][39] | `0.12 以降` | | +| [sharedb][40] | `1 以降` | | +| [tedious][41] | `1 以降` | | +| [sequelize][42] | `4 以降` | | + +[1]: /ja/tracing/trace_collection/compatibility/nodejs/ +[2]: /ja/agent/remote_config/#enabling-remote-configuration +[4]: https://github.com/nodejs/release#release-schedule +[5]: https://github.com/mariadb-corporation/mariadb-connector-nodejs +[28]: https://github.com/datastax/nodejs-driver +[29]: https://github.com/couchbase/couchnode +[30]: https://github.com/elastic/elasticsearch-js +[31]: https://github.com/luin/ioredis +[32]: https://knexjs.org +[33]: https://github.com/3rd-Eden/memcached +[34]: http://mongodb.github.io/node-mongodb-native/core +[35]: https://github.com/mysqljs/mysql +[36]: https://github.com/sidorares/node-mysql2 +[37]: https://oracle.github.io/node-oracledb/ +[38]: https://node-postgres.com +[39]: https://github.com/NodeRedis/node_redis +[40]: https://share.github.io/sharedb/ +[41]: http://tediousjs.github.io/tedious +[42]: https://github.com/sequelize/sequelize +[43]: https://github.com/apollographql/apollo-server +[44]: https://www.npmjs.com/package/apollo-server-core + + +{{% /collapse-content %}} + +{{% collapse-content title="Python" level="h4" %}} + +### コードセキュリティ機能サポート + +指定されたトレーサーバージョンに対して、Python ライブラリでサポートされるコードセキュリティ機能は以下のとおりです: + +| コードセキュリティ機能 | Python トレーサーの最小バージョン | +| ------------------------------------------- | ----------------------------- | +| Runtime Software Composition Analysis (SCA) | 1.5.0 | +| Runtime Code Analysis (IAST) | プレビュー (2.9.3) | + +#### サポートされるデプロイメントタイプ +| タイプ | Runtime Code Analysis (IAST) | +|------------ |---------------------------------- | +| Docker | | +| Kubernetes | | +| Amazon ECS | | +| AWS Fargate | プレビュー (2.9.3) | +| AWS Lambda | | + + +### 言語とフレームワークの互換性 + +#### サポート対象の Python バージョン + +Python Application Security Client ライブラリは、Python ランタイムやライブラリの異なるバージョンに対するサポートレベルを示す[バージョンポリシー][3]に従います。 + +2 つのリリースブランチに対応しています。 + +| リリース | サポートレベル | +|------------|---------------------- | +| `<1` | メンテナンス | +| `>=1.0,<2` | 一般提供 | + +また、このライブラリは以下のランタイムをサポートしています。 + +| OS | CPU | ランタイム | ランタイムバージョン | ddtrace のバージョンに対応 | +|---------|-----------------------|---------|-----------------|--------------------------| +| Linux | x86-64、i686、AArch64 | CPython | 2.7、3.5-3.11 | `<2` | +| MacOS | Intel、Apple Silicon | CPython | 2.7、3.5-3.11 | `<2` | +| Windows | 64bit、32bit | CPython | 2.7、3.5-3.11 | `<2` | + + +#### Web フレームワークの互換性 +##### コードセキュリティ機能に関する注意事項 + +- **Runtime Software Composition Analysis (SCA)** はすべてのフレームワークでサポートされます。 + +#### サポートされているフレームワーク + +| フレームワーク | バージョン | Runtime Code Analysis (IAST) | +| ------------------------ | ----------- | ------------------------------------------- | +| Django | 1.8 | | +| Flask | 0.10 | | + +Flask では、クエリ文字列のサポートはありません。 + +
ご希望のフレームワークが掲載されていない場合は、お知らせください!この短いフォームに必要事項を記入して、詳細を送信してください。
+ +#### データストアの互換性 + +Datastore トレーシングにより得られる情報: + +- クエリ情報 (サニタイジングされたクエリ文字列など) +- エラーとスタックトレースの取得 + +##### コードセキュリティ機能に関する注意事項 + +- **Runtime Software Composition Analysis (SCA)** はすべてのフレームワークでサポートされます。 + +Python ライブラリは[データベース API 仕様][4]をサポートしており、すべての汎用 SQL データベースをサポートしています。これには SQLite、Mysql、Postgres、MariaDB などのデータベースが含まれます。 + +[1]: /ja/tracing/trace_collection/compatibility/python/ +[2]: /ja/agent/remote_config/#enabling-remote-configuration +[3]: https://ddtrace.readthedocs.io/en/stable/versioning.html +[4]: https://peps.python.org/pep-0249/ + + +{{% /collapse-content %}} \ No newline at end of file diff --git a/content/ja/security/code_security/static_analysis/_index.md b/content/ja/security/code_security/static_analysis/_index.md new file mode 100644 index 00000000000..6f841268eb1 --- /dev/null +++ b/content/ja/security/code_security/static_analysis/_index.md @@ -0,0 +1,168 @@ +--- +algolia: + tags: + - static analysis + - datadog static analysis + - コード品質 + - SAST +aliases: +- /ja/code_analysis/static_analysis +description: Datadog Static Code Analysis について学ぶことで、コードが本番環境に到達する前に、コードの品質問題やセキュリティ脆弱性をスキャンすることができます。 +is_beta: false +title: Static Code Analysis (SAST) +--- + +{{% site-region region="gov" %}} +
+ {{< region-param key="dd_site_name" >}} サイトでは Code Security をご利用いただけません。 +
+{{% /site-region %}} + + +## 概要 + +Static Code Analysis は、Datadog の Static Application Security Testing (SAST) 機能です。SAST は、プログラムを実行することなく本番前のコードを解析するクリアボックス型のソフトウェアテスト手法です。 + +Static Code Analysis は、ソフトウェア開発ライフサイクル (SDLC) の早い段階でセキュリティ脆弱性や保守性の問題を特定することで、最高品質かつ最も安全なコードだけが本番環境に到達するよう支援します。組織にも次のようなメリットをもたらします。 + +* アプリケーションが、本番環境にコードが到達する前に SAST スキャンによって新しい脆弱性を検出できるため、時間の経過とともにセキュリティ侵害に対してより強固になります。 +* 組織のコード規約を守るための手探り作業を減らし、開発チームが開発速度を大きく損ねることなく、コンプライアンスを満たすコードを出荷できるようにします。 +* Static Code Analysis により、組織は時間の経過とともにより可読性の高いコードベースを維持できるため、新たな開発者をより早くオンボードできます。 + +## Static Code Analysis のセットアップ + +Static Code Analysis は、以下の言語や技術におけるセキュリティ脆弱性や不適切なコーディング慣行のスキャンをサポートします。 + +{{< partial name="code_security/languages-getting-started.html" >}} + + +スキャンは CI/CD パイプラインを介して、または Datadog 上でホストされたスキャン (GitHub 専用) として直接実行できます。 +始めるには、[**Code Security** セットアップページ][12]または[セットアップのドキュメント][9]を参照してください。 + +## 開発ライフサイクルへの統合 + +### ソースコード管理 +{{< whatsnext desc="GitHub でコードレビューを行う際、Datadog はプルリクエストの関連する行にインラインレビューコメントを追加し、Static Code Analysis の違反を自動的にフラグ付けします。適用可能な場合、Datadog はプルリクエスト内で直接適用できる修正案も提示します。また、Datadog から直接プルリクエストを開き、脆弱性や品質に関する問題を修正することも可能です。" >}} + {{< nextlink href="static_analysis/github_pull_requests" >}}GitHub のプルリクエスト{{< /nextlink >}} +{{< /whatsnext >}} + +### IDE +{{< whatsnext desc="ファイルを統合開発環境 (IDE) で編集している際、リアルタイムでコードの脆弱性を特定できます。詳細については、以下のインテグレーション固有のドキュメントを参照してください:" >}} + {{< nextlink href="developers/ide_plugins/idea/" >}}Datadog プラグイン (JetBrains IDE 向け) {{< /nextlink >}} + {{< nextlink href="developers/ide_plugins/vscode/#static-analysis" >}}Datadog 拡張機能 (Visual Studio Code 向け) {{< /nextlink >}} + {{< nextlink href="developers/ide_plugins/visual_studio/#static-analysis" >}}Datadog 拡張機能 (Visual Studio 向け) {{< /nextlink >}} +{{< /whatsnext >}} + +## 結果の検索とフィルタリング +Static Code Analysis を設定すると、スキャン対象のリポジトリへの各コミット時にスキャンが実行されます。違反は [**Code Security Repositories** ページ][1]でリポジトリごとに要約されます。リポジトリをクリックすると、Static Code Analysis による **Code Vulnerabilities** と **Code Quality** の結果を確認できます。 + +* **Code Vulnerabilities** タブには、Datadog の [Security カテゴリ][2]で検出された違反が含まれます。 +* **Code Quality** タブには、Datadog の [Best Practices、Code Style、Error Prone、Performance カテゴリ][3]で検出された違反が含まれます。 + +結果をフィルタリングするには、リストの左側にあるファセットを使用するか、検索を行ってください。結果はサービスまたはチームのファセットで絞り込むことができます。結果が Datadog のサービスやチームにどのように関連付けられるかの詳細は、[Code Security を始める][11]を参照してください。 + +各行は 1 件の違反を表します。違反は、ページ上部のフィルタで選択された特定のコミットおよびブランチに紐付けられます (デフォルトでは、表示しているリポジトリのデフォルトブランチ上の最新コミットが表示されます)。 + +違反をクリックすると、違反の範囲や起点に関する情報を含むサイドパネルが開きます。 + + + +違反の内容は以下のタブで表示されます。 + +- **Details**: 違反の説明と原因となったコード行が表示されます。問題のあるコードスニペットを参照するには、[Datadog GitHub App][4] を設定してください。 +- **Remediation**: 違反を解消するための 1 つ以上の修正案と、その修正オプションが表示されます。 +- **Event**: 違反に関する JSON メタデータです。 + +## カスタマイズ設定 +リポジトリまたは組織全体で、どの Static Code Analysis ルールを設定するかをカスタマイズする場合は、[セットアップのドキュメント][8]を参照してください。 + +## Link results to Datadog services and teams + +### サービスへの結果の関連付け +Datadog は、コードやライブラリのスキャン結果を関連するサービスに紐付けるために、以下の仕組みを利用します: + +1. [Software Catalog を用いてサービスに紐付くコードの場所を特定](#identifying-the-code-location-in-the-software-catalog) +2. [追加の Datadog 製品内でのファイル使用パターンを検出する](#detecting-file-usage-patterns) +3. [ファイルパスやリポジトリ名からサービス名を検索する](#detecting-service-name-in-paths-and-repository-names) + +いずれかの方法で成功すれば、それ以上のマッピングは行われません。各マッピング手法の詳細は以下をご覧ください。 + +#### Software Catalog でコードの場所を特定する + +[Software Catalog のスキーマバージョン `v3`][12] 以降では、サービスに紐付くコードの場所を設定できます。`codeLocations` セクションで、コードを含むリポジトリの場所と関連するパスを指定します。 + +`paths` 属性には、リポジトリ内のパスにマッチする glob のリストを指定します。 + +{{< code-block lang="yaml" filename="entity.datadog.yaml" collapsible="true" >}} +apiVersion: v3 +kind: service +metadata: +name: my-service +datadog: +codeLocations: +- repositoryURL: https://github.com/myorganization/myrepo.git +paths: +- path/to/service/code/** +{{< /code-block >}} + + +## 修復 + +### 提示された修正案を適用する + + +Datadog Static Code Analysis には、次の 2 種類の修正案が存在します。 + +1. **Deterministic Suggested Fix**: リンティング問題のような単純な違反に対しては、ルールアナライザがあらかじめ用意したテンプレート修正を自動的に提示します。 +2. **AI-suggested Fix:** 複雑な違反については、事前に修正案が用意されていないことが一般的です。その場合、OpenAI の GPT-4 を使用した AI ベースの修正案を利用できます。「Text」と「Unified Diff」のいずれかを選択すると、違反解消に向けた手順をテキストで提示するか、コード変更 (差分) を提示するかを選ぶことができます。*この機能はオプトインです。* + +}} + +{{< img src="code_security/static_analysis/static-analysis-ai-fix.png" alt="AI による静的解析修正案を示すビジュアル" style="width:60%;" >}} –> + +### Datadog から直接脆弱性や品質問題を修正する + + + +Datadog 上で検出された Static Code Analysis の違反を修正するには、大きく 2 つの方法があります。 + +#### プルリクエストを開く + +GitHub アプリの **Pull Requests** 権限を Read & Write に設定している場合、利用可能な修正案がある全ての Static Code Analysis の検出結果においてワンクリック修正が可能です。GitHub インテグレーションの設定については [GitHub のプルリクエスト][10]を参照してください。 + +脆弱性を修正し、プルリクエストを開くには次の手順に従います。 +1. Code Security で特定の SAST 結果を表示します。 +2. 結果のサイドパネルで **Fix Violation** をクリックします。 +3. **Open a Pull Request** を選択します。 +4. プルリクエストタイトルとコミットメッセージを入力します。 +5. **Create PR** をクリックします。 + +#### 現在のブランチに直接コミットする +違反が検出されたブランチに直接コミットを行うことで脆弱性を修正できます。 + +提案修正をコミットするには + +1. Code Security で特定の SAST 結果を表示します。 +2. 結果のサイドパネルで **Fix Violation** をクリックします。 +3. **Commit to current branch** をクリックします。 + +## 誤検知を報告する +特定の違反が誤検知 (False Positive) だと考えられる場合は、「False Positive」として理由を添えてフラグを立てられます。この報告は直接 Datadog に送信され、定期的にレビューされてルールセットの品質向上に役立てられます。 + + + + + +[1]: https://app.datadoghq.com/ci/code-analysis +[2]: /ja/security/code_security/static_analysis_rules?categories=Security +[3]: /ja/security/code_security/static_analysis_rules?categories=Best+Practices&categories=Code+Style&categories=Error+Prone&categories=Performance +[4]: /ja/integrations/github/ +[6]: https://en.wikipedia.org/wiki/Camel_case +[7]: https://en.wikipedia.org/wiki/Snake_case +[8]: /ja/security/code_security/static_analysis/setup/#customize-your-configuration +[9]: /ja/security/code_security/static_analysis/setup +[10]: /ja/security/code_security/dev_tool_int/github_pull_requests/ +[11]: /ja/getting_started/code_security/ +[12]: https://app.datadoghq.com/security/configuration/code-security/setup \ No newline at end of file diff --git a/content/ja/service_management/on-call/_index.md b/content/ja/service_management/on-call/_index.md index 7e451792ae6..1aefa6c0c86 100644 --- a/content/ja/service_management/on-call/_index.md +++ b/content/ja/service_management/on-call/_index.md @@ -6,9 +6,16 @@ further_reading: - link: https://www.datadoghq.com/blog/datadog-on-call/ tag: ブログ text: Datadog On-Call を使用して、オンコール体験をより豊かなものにする +- link: https://www.datadoghq.com/blog/on-call-paging/ + tag: ブログ + text: 効果的なページング戦略を策定する方法 title: オンコール --- +{{< site-region region="gov" >}} +
選択した Datadog サイト ({{< region-param key="dd_site_name" >}}) では On-Call はサポートされていません。
+{{< /site-region >}} + Datadog On-Call は、モニタリング、ページング、インシデント対応を 1 つのプラットフォームに統合しています。 {{< img src="service_management/oncall/oncall_overview.png" alt="ページのルーティングの概要。モニター、インシデント、セキュリティシグナル、または API 呼び出しからページがチーム (例: 「payments-team」) に送信され、その後、(例えば優先度に基づく) 処理ルールに送られ、エスカレーションポリシーに従って処理されます。そこからスケジュールに送られるか、または直接ユーザーに送信されます。" style="width:100%;" >}} diff --git a/content/ja/service_management/on-call/guides/_index.md b/content/ja/service_management/on-call/guides/_index.md new file mode 100644 index 00000000000..25217082b01 --- /dev/null +++ b/content/ja/service_management/on-call/guides/_index.md @@ -0,0 +1,9 @@ +--- +disable_toc: true +private: false +title: On-Call ガイド +--- + +{{< whatsnext desc="全般ガイド:">}} + {{< nextlink href="/service_management/on-call/guides/configure-mobile-device-for-on-call" >}}Datadog On-Call 用にモバイルデバイスをセットアップする{{< /nextlink >}} +{{< /whatsnext >}} \ No newline at end of file diff --git a/content/ko/account_management/scim/_index.md b/content/ko/account_management/scim/_index.md index 4dbb8989560..a64735548dd 100644 --- a/content/ko/account_management/scim/_index.md +++ b/content/ko/account_management/scim/_index.md @@ -30,8 +30,6 @@ SCIM(System for Cross-domain Identity Management)은 사용자 프로비저닝 - Datadog에 대한 Single sign-on (권장) - Managed Teams: ID 공급자 그룹에서 Datadog Teams를 만들고 Datadog Teams의 멤버십을 ID 공급자의 그룹 멤버십과 동기화된 상태로 유지 -**참고:** Managed Teams를 사용하려면 Okta IdP를 사용해야 하며 [지원팀][8]에 해당 기능에 대한 액세스를 요청해야 합니다. - Datadog은 Microsoft Entra ID 및 Okta ID 공급자와 함께 SCIM 사용을 지원합니다. SCIM을 구성하려면 IdP 문서를 참조하세요. - [Microsoft Entra ID][2] - [Okta][3] diff --git a/content/ko/agent/troubleshooting/permissions.md b/content/ko/agent/troubleshooting/permissions.md index 7a823127533..ff2c5f04d34 100644 --- a/content/ko/agent/troubleshooting/permissions.md +++ b/content/ko/agent/troubleshooting/permissions.md @@ -5,20 +5,15 @@ aliases: - /ko/agent/faq/cannot-open-an-http-server-socket-error-reported-errno-eacces-13 further_reading: - link: /agent/troubleshooting/debug_mode/ - tag: Agent 트러블슈팅 + tag: 설명서 text: Agent 디버그 모드 - link: /agent/troubleshooting/send_a_flare/ - tag: Agent 트러블슈팅 + tag: 설명서 text: Agent Flare 보내기 title: 권한 허용 문제 --- -Agent가 호스트에서 데이터를 수집하려면 특정 권한 세트가 필요합니다. 일반적으로 발생하는 권한 허용 문제와 해결법을 아래로 알려드리겠습니다. - -* [Agent 로깅 권한 문제](#agent-logging-permission-issues) -* [Agent Socket 권한 문제](#agent-socket-permission-issues) -* [Process Metrics 권한 문제](#process-metrics-permission-issue) -* [더 알아보기](#further-reading) +에이전트가 호스트에서 데이터를 수집하려면 특정 권한 세트가 필요합니다. 일반적으로 발생하는 권한 허용 문제와 해결법을 아래로 알려드리겠습니다. ## Agent 로깅 권한 문제 @@ -73,7 +68,7 @@ ls -al /opt/datadog-agent/run 파일 소유자가 `dd-agent`가 **아닌** 경우, 다음 명령어를 실행해 수정하세요 ```text -chown dd-agent -R /opt/datadog-agent/run +sudo chown -R dd-agent:dd-agent /opt/datadog-agent/run ``` 이렇게 변경한 후에는 [Agent 부팅 명령어][5]로 Agent를 시작할 수 있습니다. 위의 해결책을 시도했는데도 계속해서 문제가 발생하는 경우 [Datadog 지원팀][6]에 추가로 도움을 받으시기 바랍니다. @@ -83,10 +78,7 @@ chown dd-agent -R /opt/datadog-agent/run 리눅스 OS에서 실행 중인 Agent에서 [프로세스 점검][7]을 활성화한 경우 기본적으로 `system.processes.open_file_descriptors` 메트릭이 수집되거나 보고되지 않습니다. 이 문제는 Agent 사용자 `dd-agent`가 아닌 다른 사용자가 실행한 프로세스 점검으로 프로세스를 모니터링할 때 발생합니다. 실제로 `dd-agent` 사용자는 Agent가 메트릭 데이터를 수집하기 위해 참조하는 `/proc` 전체 파일에 대한 접근 권한이 없습니다. -{{< tabs >}} -{{% tab "Agent v6.3+" %}} - -프로세스 점검 설정에서 `try_sudo` 옵션을 활성화하고 적절한 `sudoers` 규칙을 추가하세요. +프로세스 점검 설정에서 `try_sudo` 옵션(에이전트 6.3 이상부터 사용 가능)을 활성화하고 적절한 `sudoers` 규칙을 추가하세요. ```text dd-agent ALL=NOPASSWD: /bin/ls /proc/*/fd/ @@ -96,49 +88,26 @@ dd-agent ALL=NOPASSWD: /bin/ls /proc/*/fd/ Datadog `error.log` 파일에서 `sudo: sorry, you must have a tty to run sudo`이라는 라인을 발견하면 sudoers 파일에서 `visudo`를 사용해 `Default requiretty` 라인을 주석 처리해야 합니다. -{{% /tab %}} -{{% tab "Agent v6 & v7" %}} - -v6.3 이전의 Agent v6을 사용하는 경우 Agent를 업데이트하고 `try_sudo` 옵션을 사용하세요. 업데이트할 수 없다면 문제를 회피하기 위해 Agent를 `root`로 실행할 수 있습니다. - -**참조**: Agent를 `root`로 실행하는 방법은 권장하지 않습니다. Datadog Agent에 특정한 문제가 있거나 안심할 수 없는 상황이 발생할까 우려한 조치는 아닙니다만, 데몬(daemon)을 `root`로 실행하는 것은 권장되지 않습니다. 이는 리눅스에서 실행하는 대부분의 프로세스에 적용되는 모범 사례입니다. 개인적으로 우려되는 사항이 있는 경우, Agent는 오픈 소스이므로 [깃허브 저장소][1]를 사용하여 사용자나 소속 팀이 감사할 수 있습니다. - -1. [Agent를 중지합니다][2]. - -2. `/etc/systemd/system/multi-user.target.wants/datadog-agent.service`를 열고 `[Service]`의 `user​` 속성을 변경하세요. - -3. [Agent를 시작합니다][3]. +### 에이전트를 루트로 실행 -[1]: https://github.com/DataDog/datadog-agent -[2]: /ko/agent/configuration/agent-commands/#stop-the-agent -[3]: /ko/agent/configuration/agent-commands/#start-the-agent -{{% /tab %}} -{{% tab "Agent v5" %}} +`try_sudo`를 사용할 수 없는 경우, 대신 에이전트를 `root`로 실행할 수 있습니다. -Agent v5를 사용하는 경우 [최신 버전의 Agent 6][1]로 업데이트하고 `try_sudo` 옵션을 사용하세요. 업데이트할 수 없다면 문제를 회피하기 위해 Agent를 `root`로 실행할 수 있습니다. +
Linux에서 프로세스 daemon을 루트로 실행하는 것을 권고하지 않습니다. 에이전트는 오픈 소스이고 GitHub 리포지토리에서 감사될 수 있습니다.
-**참조**: Agent를 `root`로 실행하는 방법은 권장하지 않습니다. Datadog Agent에 특정한 문제가 있거나 안심할 수 없는 상황이 발생할까 우려한 조치는 아닙니다만, 데몬(daemon)을 `root`로 실행하는 것은 권장되지 않습니다. 이는 리눅스에서 실행하는 대부분의 프로세스에 적용되는 모범 사례입니다. 개인적으로 우려되는 사항이 있는 경우, Agent는 오픈 소스이므로 [깃허브 저장소][2]를 사용하여 사용자나 소속 팀이 감사할 수 있습니다. - -1. [Agent를 중지합니다][3]. - -2. `/etc/dd-agent/supervisor.conf`를 열고 [라인 20][4]과 [라인 30][5]의 `dd-agent`를 `root`로 치환합니다. Agent를 업그레이드하거나 재설치한 경우에는 이 작업을 다시 실행해주세요. - -3. [Agent를 시작합니다][6]. - -[1]: /ko/agent/guide/upgrade-to-agent-v6/ -[2]: https://github.com/DataDog/dd-agent -[3]: /ko/agent/configuration/agent-commands/?tab=agentv5#stop-the-agent -[4]: https://github.com/DataDog/dd-agent/blob/master/packaging/supervisor.conf#L20 -[5]: https://github.com/DataDog/dd-agent/blob/master/packaging/supervisor.conf#L30 -[6]: /ko/agent/configuration/agent-commands/?tab=agentv5#start-the-agent -{{% /tab %}} -{{< /tabs >}} +에이전트를 `root`로 실행: +1. [에이전트를 중단][9]합니다. +2. `/etc/systemd/system/multi-user.target.wants/datadog-agent.service`를 열고 `[Service]` 속성 아래 `user`를 변경합니다. +3. [에이전트를 시작][10]합니다. 자세한 정보와 리눅스 머신에서 이용 가능한 메트릭의 기타 수집 방법이 궁금하신 분은 아래의 깃허브 관련 문제를 참조해주세요. * https://github.com/DataDog/dd-agent/issues/853 * https://github.com/DataDog/dd-agent/issues/2033 +## MacOS에서 에이전트를 시스템 daemon으로 실행할 때 권한 문제 + +에이전트를 `DD_SYSTEMDAEMON_INSTALL`과 `DD_SYSTEMDAEMON_USER_GROUP` 옵션을 사용해 daemon으로 시스템 전체 실행할 경우, `DD_SYSTEMDAEMON_USER_GROUP`에 사용한 사용자와 그룹이 유효하고 올바른 권한을 갖고 있는지 확인하세요. + ## 참고 자료 {{< partial name="whats-next/whats-next.html" >}} @@ -149,4 +118,6 @@ Agent v5를 사용하는 경우 [최신 버전의 Agent 6][1]로 업데이트하 [4]: /ko/agent/faq/network/ [5]: /ko/agent/configuration/agent-commands/#start-the-agent [6]: /ko/help/ -[7]: /ko/integrations/process/ \ No newline at end of file +[7]: /ko/integrations/process/ +[9]: /ko/agent/configuration/agent-commands/#stop-the-agent +[10]: /ko/agent/configuration/agent-commands/#start-the-agent \ No newline at end of file diff --git a/content/ko/agent/troubleshooting/send_a_flare.md b/content/ko/agent/troubleshooting/send_a_flare.md index 0264d5baa8e..407629fccc7 100644 --- a/content/ko/agent/troubleshooting/send_a_flare.md +++ b/content/ko/agent/troubleshooting/send_a_flare.md @@ -6,57 +6,74 @@ aliases: - /ko/agent/faq/send-logs-and-configs-to-datadog-via-flare-command further_reading: - link: /agent/troubleshooting/debug_mode/ - tag: 에이전트 트러블슈팅 + tag: 설명서 text: 에이전트 디버그 모드 - link: /agent/troubleshooting/agent_check_status/ - tag: 에이전트 트러블슈팅 + tag: 설명서 text: 에이전트 점검의 상태 파악하기 title: 에이전트 플레어 --- {{< site-region region="gov" >}} -
이 사이트에서는 에이전트 플레어 보내기가 지원되지 않습니다.
+
이 사이트에서는 Agent Flare 전송이 지원되지 않습니다.
{{< /site-region >}} -플레어 명령 하나로 Datadog 지원 팀에 필요한 트러블슈팅 정보를 보낼 수 있습니다. +플레어를 사용하면 필요한 트러블슈팅 정보를 Datadog 지원팀으로 보낼 수 있습니다. -`flare`는 에이전트의 설정 파일을 모두 수집하고 아카이브 파일에 기록합니다. 비밀번호, API 키, 프록시 자격 증명, SNMP 커뮤니티 문자열을 포함한 중요한 정보는 제거됩니다. **아카이브 업로드를 확인해 즉시 Datadog 지원팀에 보내세요**. +이 페이지에서는 다음 내용을 다룹니다. +- [`flare` 명령어를 사용하여 플레어 전송하기](#send-a-flare-using-the-flare-command) +- 원격 설정을 사용하여 [Datadog 사이트에서 플레어 전송하기](#send-a-flare-from-the-Datadog-site) +- [수동 제출](#manual-submission) -Datadog 에이전트는 [코드의 동작을 확인][1]할 수 있는 완전한 오픈 소스입니다. 필요한 경우 플레어를 업로드하기 전에 확인 메시지를 표시하므로 전송 전에 플레어를 검토할 수 있습니다. +플레어는 에이전트 의 설정 파일과 로그 모두를 아카이브 파일로 수집합니다. 비밀번호, API 키, 프록시 자격증명, SNMP 커뮤니티 문자열 등 민감한 정보를 제거합니다. 애플리케이션 성능 모니터링(APM)이 활성화된 경우, 플레어에는 [트레이서 디버그 로그][4]가 포함됩니다(사용 가능한 경우). -Datadog 지원 케이스 ID가 있는 경우 아래 명령어에서 ``를 내 케이스 ID로 바꾼 후 연결된 이메일 주소를 입력하세요. +Datadog 에이전트는 완전한 오픈 소스이므로 코드의 동작을 [확인할 수 있습니다][1]. 플레어는 업로드하기 전에 확인 메시지를 표시하므로 필요한 경우 플레어를 전송하기 전에 검토할 수 있습니다. -케이스 ID가 없는 경우, Datadog에 로그인하는 데 사용하는 이메일 주소를 입력하여 새 지원 케이스를 생성하세요. +## Datadog 사이트에서 플레어 전송하기 + +Datadog 사이트에서 플레어를 전송하려면 에이전트에서 [장치 그룹 자동화][2] 및 [원격 설정][3]을 활성화했는지 확인하세요. + +{{% remote-flare %}} + +{{< img src="agent/fleet_automation/fleet-automation-flares2.png" alt="전송 티켓 버튼은 기존 또는 새로운 지원 티켓에 대한 플레어를 전송할 수 있는 양식을 시작합니다." style="width:70%;" >}} + +## `flare` 명령을 사용하여 플레어 전송하기 + +`flare` 하위 명령을 사용하여 플레어를 전송합니다. 아래 명령에서 ``를 Datadog 지원 케이스 ID(있는 경우)로 바꾼 다음 이와 연결된 이메일 주소를 입력합니다. + +케이스 ID가 없는 경우에는 Datadog 로그인에 사용하던 이메일 주소를 Datadog에 입력하여 새 지원 케이스를 만드세요. + +**아카이브 업로드를 확인하여 즉시 Datadog 지원팀으로 보내주세요**. {{< tabs >}} -{{% tab "에이전트 v6 & v7" %}} +{{% tab "Agent" %}} | 플랫폼 | 명령어 | |------------|---------------------------------------------------------| | AIX | `datadog-agent flare ` | | Docker | `docker exec -it dd-agent agent flare ` | -| macOS | `datadog-agent flare ` 또는 [웹 GUI][1]를 통해 | +| macOS | `datadog-agent flare ` 또는 [웹 GUI][1] 사용 | | CentOS | `sudo datadog-agent flare ` | | Debian | `sudo datadog-agent flare ` | -| Kubernetes | `kubectl exec -it -- agent flare ` | +| 쿠버네티스(Kubernetes) | `kubectl exec -it -- agent flare ` | | Fedora | `sudo datadog-agent flare ` | | Redhat | `sudo datadog-agent flare ` | | Suse | `sudo datadog-agent flare ` | -| 소스 | `sudo datadog-agent flare ` | -| Windows | [Windows 설명서][2]를 참고하세요. | -| Heroku | [Heroku 설명서][3]를 참고하세요. | +| Source | `sudo datadog-agent flare ` | +| Windows | 전용 [윈도우즈(Windows) 설명서][2]를 참조하세요. | +| 헤로쿠(Heroku) | 전용 [헤로쿠(Heroku) 설명서][3]를 참조하세요. | | PCF | `sudo /var/vcap/jobs/dd-agent/packages/dd-agent/bin/agent/agent flare ` | ## 전용 컨테이너 -에이전트 v7.19 이상을 사용하면서 Datadog Helm Chart [최신 버전][4]을 사용하거나 Datadog 에이전트와 트레이스 에이전트가 별도의 컨테이너에 있는 DaemonSet를 사용하는 경우, 다음이 포함된 에이전트 포드를 배포하게 됩니다. +에이전트 버전이 v7.19 이상이고 [최신 버전][4]의 Datadog 헬름 차트 또는 Datadog 에이전트 및 트레이스 에이전트 이 별도의 컨테이너에 있는 데몬셋을 사용하는 경우, 다음을 포함하는 에이전트 포드를 배포합니다. -* 에이전트 프로세스(에이전트 + 로그 에이전트)가 포함된 컨테이너 하나 -* 프로세스 에이전트 프로세스가 포함된 컨테이너 하나 -* 트레이스 에이전트 프로세스가 포함된 컨테이너 하나 -* 시스템 프로브 프로세스가 포함된 컨테이너 하나 +* 단일 컨테이너 및 에이전트 프로세스(에이전트 + 로그 에이전트 ) +* 단일 컨테이너 및 process-agent 프로세스 +* 단일 컨테이너 및 trace-agent 프로세스 +* 단일 컨테이너 및 system-probe 프로세스 -각 컨테이너에서 플레어를 얻으려면, 다음 명령어를 실행하세요. +각 컨테이너에서 플레어를 가져오려면 다음 명령을 실행합니다. ### 에이전트 @@ -82,9 +99,9 @@ kubectl exec -it -c trace-agent -- agent flare --loca kubectl exec -it -c security-agent -- security-agent flare ``` -### 시스템 탐구 +### 시스템 프로브 -시스템 프로브 컨테이너는 플레어를 보낼 수 없으므로 대신 컨테이너 로그를 가져옵니다: +system-probe 컨테이너 는 플레어를 전송할 수 없으므로 대신 컨테이너 로그를 받습니다. ```bash kubectl logs -c system-probe > system-probe.log @@ -92,7 +109,7 @@ kubectl logs -c system-probe > system-probe.log ## ECS Fargate -ECS Fargate 플랫폼 v1.4.0을 사용하는 경우, [Amazon ECS Exec][5]을 활성화하여 실행 중인 Linux 컨테이너에 액세스할 수 있도록 ECS 작업 및 서비스를 설정할 수 있습니다. 설정한 후, 다음 명령을 실행하여 플레어를 전송합니다. +ECS Fargate 플랫폼 v1.4.0을 사용하는 경우, [Amazon ECS Exec][5]을 활성화하여 실행 중인 리눅스(Linux) 컨테이너에 액세스할 수 있도록 ECS 작업 및 서비스를 설정할 수 있습니다. Amazon ECS Exec을 활성화한 후 다음 명령을 실행하여 플레어를 전송합니다. ```bash aws ecs execute-command --cluster \ @@ -102,7 +119,7 @@ aws ecs execute-command --cluster \ --command "agent flare " ``` -**참고:** ECS Exec은 새 작업에서만 활성화할 수 있습니다. ECS Exec을 사용하려면 기존 작업을 다시 생성해야 합니다. +**참고:** ECS Exec은 새 작업에 대해서만 활성화할 수 있습니다. ECS Exec을 사용하려면 기존 작업을 다시 생성해야 합니다. [1]: /ko/agent/basic_agent_usage/#gui [2]: /ko/agent/basic_agent_usage/windows/#agent-v6 @@ -110,32 +127,12 @@ aws ecs execute-command --cluster \ [4]: https://github.com/DataDog/helm-charts/blob/master/charts/datadog/CHANGELOG.md [5]: https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ecs-exec.html {{% /tab %}} -{{% tab "에이전트 v5" %}} - -| 플랫폼 | 명령어 | -|------------|-------------------------------------------------------------------------| -| Docker | `docker exec -it dd-agent /etc/init.d/datadog-agent flare ` | -| macOS | `datadog-agent flare ` | -| CentOS | `sudo service datadog-agent flare ` | -| Debian | `sudo service datadog-agent flare ` | -| Kubernetes | `kubectl exec -it /etc/init.d/datadog-agent flare ` | -| Fedora | `sudo service datadog-agent flare ` | -| Redhat | `sudo service datadog-agent flare ` | -| SUSE | `sudo service datadog-agent flare ` | -| 소스 | `sudo ~/.datadog-agent/bin/agent flare ` | -| Windows | [Windows 설명서][2]를 참고하세요. | - -**참고**: Linux 기반 시스템을 사용 중이고 `service` 래퍼 명령어를 사용할 수 없는 경우, [대안 목록을 참조][2]하세요. - -[1]: /ko/agent/basic_agent_usage/windows/#agent-v5 -[2]: /ko/agent/faq/agent-v6-changes/?tab=linux#service-lifecycle-commands -{{% /tab %}} -{{% tab "클러스터 에이전트" %}} +{{% tab "Cluster Agent" %}} | 플랫폼 | 명령어 | |---------------|-----------------------------------------------------------------------------| -| Kubernetes | `kubectl exec -n -it -- datadog-cluster-agent flare ` | +| 쿠버네티스(Kubernetes) | `kubectl exec -n -it -- datadog-cluster-agent flare ` | | Cloud Foundry | `/var/vcap/packages/datadog-cluster-agent/datadog-cluster-agent-cloudfoundry flare -c /var/vcap/jobs/datadog-cluster-agent/config ` | {{% /tab %}} @@ -143,11 +140,11 @@ aws ecs execute-command --cluster \ ## 수동 제출 -에이전트 플레어 프로토콜은 설정을 수집하고 로컬 `/tmp` 디렉터리에 처음 위치한 아카이브 파일에 로그인합니다. -에이전트 연결에 문제가 있는 경우, 이 파일을 수동으로 구해 지원팀에 제공하세요. +에이전트 플레어 프로토콜은 로컬 `/tmp` 디렉터리에 있는 첫 번째 아카이브 파일로 설정과 로그를 수집합니다. +에이전트 연결에 문제가 있는 경우 이 파일을 수동으로 확보하여 지원팀에 제공합니다. -### Kubernetes -Kubernetes에서 아카이브 파일을 얻으려면, kubectl 명령을 사용하세요. +### 쿠버네티스(Kubernetes) +쿠버네티스(Kubernetes) 에서 아카이브 파일을 가져오려면 kubectl 명령을 사용합니다. ``` kubectl cp datadog-:tmp/datadog-agent-.zip flare.zip -c agent ``` @@ -156,4 +153,7 @@ kubectl cp datadog-:tmp/datadog-agent-.zip flare.zi {{< partial name="whats-next/whats-next.html" >}} -[1]: https://github.com/DataDog/datadog-agent/tree/main/pkg/flare \ No newline at end of file +[1]: https://github.com/DataDog/datadog-agent/tree/main/pkg/flare +[2]: /ko/agent/fleet_automation/ +[3]: /ko/agent/remote_config#enabling-remote-configuration +[4]: /ko/tracing/troubleshooting/tracer_debug_logs/?code-lang=dotnet#data-collected \ No newline at end of file diff --git a/content/ko/api/latest/cloud-network-monitoring/_index.md b/content/ko/api/latest/cloud-network-monitoring/_index.md new file mode 100644 index 00000000000..6ca2bc636eb --- /dev/null +++ b/content/ko/api/latest/cloud-network-monitoring/_index.md @@ -0,0 +1,3 @@ +--- +title: 클라우드 네트워크 모니터링 +--- diff --git a/content/ko/api/latest/observability-pipelines/_index.md b/content/ko/api/latest/observability-pipelines/_index.md new file mode 100644 index 00000000000..c3c88a132a2 --- /dev/null +++ b/content/ko/api/latest/observability-pipelines/_index.md @@ -0,0 +1,3 @@ +--- +title: 관측 가능성 파이프라인 +--- diff --git a/content/ko/database_monitoring/setup_mysql/selfhosted.md b/content/ko/database_monitoring/setup_mysql/selfhosted.md index 4aaafef76e7..b2fe50a980e 100644 --- a/content/ko/database_monitoring/setup_mysql/selfhosted.md +++ b/content/ko/database_monitoring/setup_mysql/selfhosted.md @@ -7,16 +7,12 @@ further_reading: title: 자체 호스팅 MySQL에 대한 데이터베이스 모니터링 설정 --- -{{< site-region region="gov" >}} -해당 지역에서는 데이터베이스 모니터링이 지원되지 않습니다 -{{< /site-region >}} - 데이터베이스 모니터링은 InnoDB 스토리지 엔진에 대한 쿼리 메트릭, 쿼리 샘플, 설명 계획, 연결 데이터, 시스템 메트릭, 텔레메트리를 표시하여 MySQL 데이터베이스에 대해 구체적인 가시성을 제공합니다. Agent는 읽기 전용 사용자로 로그인하여 데이터베이스에서 직접 텔레메트리를 수집합니다. MySQL 데이터베이스로데이터베이스 모니터링을 활성화하려면 다음대로 설정하세요. 1. [데이터베이스 파라미터 설정](#configure-mysql-settings) -1. [Agent에 데이터베이스에 대한 액세스 권한 부여](#grant-the-agent-access) +1. [에이전트에 데이터베이스 접근 권한 부여](#grant-the-agent-access) 1. [Agent 설치](#install-the-agent) ## 시작 전 참고 사항 @@ -24,61 +20,64 @@ Agent는 읽기 전용 사용자로 로그인하여 데이터베이스에서 직 지원되는 MySQL 버전 : 5.6, 5.7, 또는 8.0+ -지원되는 Agent 버전 +지원되는 MariaDB 버전 +: 10.5, 10.6, 10.11 또는 11.1

+MariaDB용 데이터베이스 모니터링 는 [알려진 제한 사항][13]과 함께 지원됩니다. + +지원되는 에이전트 버전 : 7.36.1+ 성능에 미치는 영향 -: 데이터베이스 모니터링에 대한 기본 Agent 설정은 변경하지 않는 것이 좋으나 수집 간격 및 쿼리 샘플링 속도와 같은 설정은 필요에 맞게 조정할 수 있습니다. 대부분의 워크로드에서 Agent는 데이터베이스에서 쿼리 실행 시간의 1% 미만, CPU의 1% 미만을 나타냅니다.

-데이터베이스 모니터링은 기본 Agent 위에서 통합으로 실행됩니다([벤치마크 참조][1]). +: 데이터베이스 모니터링에 대한 기본 에이전트 설정은 변경하지 않는 것이 좋으나 수집 간격 및 쿼리 샘플링 속도와 같은 설정은 필요에 맞게 조정할 수 있습니다. 대부분의 워크로드에서 에이전트는 데이터베이스에서 쿼리 실행 시간의 1% 미만, CPU의 1% 미만을 나타냅니다.

+데이터베이스 모니터링은 기본 에이전트 위에서 통합으로 실행됩니다([벤치마크 참조][1]). -프록시, 로드 밸런서, 연결 풀러 -: Agent는 모니터링 대상 호스트에 직접 연결해야 합니다. 자체 호스팅 데이터베이스의 경우 `127.0.0.1` 또는 소켓을 사용하는 것이 좋습니다. Agent는 프록시, 로드 밸런서 또는 연결 풀러를 통해 데이터베이스에 연결해서는 안 됩니다. 이는 클라이언트 애플리케이션에 대한 안티 패턴이 될 수 있지만, 각 Agent는 기본 호스트 이름을 알고 있어야 하며 장애 조치 시에도 수명 기간 동안 단일 호스트를 고수해야 합니다. Datadog Agent가 실행되는 동안 다른 호스트에 연결하면 메트릭 값이 올바르지 않게 됩니다. +프록시, 로드 밸런서 및 연결 풀러 +: Datadog 에이전트는 모니터링되는 호스트에 직접 연결해야 합니다. 자체 호스팅 데이터베이스의 경우 `127.0.0.1` 또는 소켓을 사용하는 것이 좋습니다. 에이전트는 프록시, 로드 밸런서 또는 연결 풀러를 통해 데이터베이스에 연결해서는 안 됩니다. 에이전트가 실행되는 동안 다른 호스트에 연결하면(장애 조치, 로드밸런싱 등의 경우) 에이전트가 두 호스트 간의 통계 차이를 계산하여 부정확한 메트릭을 생성합니다. 데이터 보안 고려 사항 -: Agent가 데이터베이스에서 수집하는 데이터와 데이터 보안을 유지하는 방법에 대한 자세한 내용은 [민감한 정보][2]를 참조하세요. +: 에이전트가 데이터베이스에서 수집하는 데이터와 데이터 보안을 유지하는 방법에 대한 자세한 내용은 [민감한 정보][2]를 참조하세요. ## MySQL 설정 구성 쿼리 메트릭, 샘플, 설명 계획을 수집하려면 [MySQL 성능 스키마][3]를 활성화하고 명령줄 또는 설정 파일 (예: `mysql.conf`)에서 다음 [성능 스키마 옵션][4]을 설정합니다: {{< tabs >}} -{{% tab "MySQL 5.6" %}} -| 파라미터 | 값 | 설명 | +{{% tab "MySQL ≥ 5.7" %}} +| Parameter | Value | Description | | --- | --- | --- | -| `performance_schema`| `ON` | 필수 사항. 성능 스키마를 활성화합니다. | -| `max_digest_length`| `4096`| 더 큰 쿼리를 수집하기 위해 필요합니다. 기본값을 그대로 두면 `1024`보다 긴 쿼리가 수집되지 않습니다. | -| `performance_schema_max_digest_length`| `4096`| `max_digest_length`와 일치해야 합니다. |  -| `performance-schema-consumer-events-statements-current`| `ON` | 필수 사항. 현재 실행 중인 쿼리를 모니터링할 수 있습니다. | -| `performance-schema-consumer-events-waits-current`| `ON`| 필수 사항. 대기 이벤트 수집을 활성화합니다. | -| `performance-schema-consumer-events-statements-history-long`| `ON` | 권장 사항. 모든 스레드에서 더 많은 수의 최근 쿼리를 추적할 수 있습니다. 이를 사용하면 자주 발생하지 않는 쿼리에서 실행 세부 정보를 캡처할 가능성이 높아집니다. | -| `performance-schema-consumer-events-statements-history`| `ON` | 선택 사항. 스레드별로 최근 쿼리 기록을 추적할 수 있습니다. 이를 사용하면 자주 발생하지 않는 쿼리에서 실행 세부 정보를 캡처할 가능성이 높아집니다. | +| `performance_schema` | `ON` | 필수. 성능 스키마를 활성화합니다. | +| `max_digest_length` | `4096` | 더 대규모의 쿼리 수집에 필요합니다. 기본값을 사용하면 `1024`자 이상의 쿼리가 수집됩니다. | +| `performance_schema_max_digest_length` | `4096` | `max_digest_length`와 일치해야 합니다. | +| `performance_schema_max_sql_text_length` | `4096` | `max_digest_length`와 일치해야 합니다. | +| `performance-schema-consumer-events-statements-current` | `ON` | 필수. 현재 실행 중인 쿼리 모니터링을 활성화합니다. | +| `performance-schema-consumer-events-waits-current` | `ON` | 필수. 대기 이벤트 수집을 활성화합니다. | +| `performance-schema-consumer-events-statements-history-long` | `ON` | 권장. 모든 스레드에서 더 많은 최근 쿼리 추적을 활성화합니다. 활성화하면 빈도수가 낮은 쿼리에서 실행 상세정보를 캡처할 가능성이 더 커집니다. | +| `performance-schema-consumer-events-statements-history` | `ON` | 선택 사항. 스레드별 최근 쿼리 기록 추적을 활성화합니다. 활성화하면 빈도수가 낮은 쿼리에서 실행 상세정보를 캡처할 가능성이 더 커집니다. | {{% /tab %}} - -{{% tab "MySQL ≥ 5.7" %}} -| 파라미터 | 값  | 설명 | +{{% tab "MySQL 5.6" %}} +| 파라미타 | 값 | 설명 | | --- | --- | --- | -| `performance_schema`| `ON`| 필수 사항. 성능 스키마를 활성화합니다. | -| `max_digest_length`|`4096`| 더 큰 쿼리를 수집하기 위해 필요합니다. 기본값을 그대로 두면 `1024`보다 긴 쿼리가 수집되지 않습니다. | -| `performance_schema_max_digest_length`| `4096`| `max_digest_length`와 일치해야 합니다. | -| `performance_schema_max_sql_text_length`| `4096`| `max_digest_length`와 일치해야 합니다. | -| `performance-schema-consumer-events-statements-current`| `ON`| 필수 사항. 현재 실행 중인 쿼리를 모니터링할 수 있습니다. | -| `performance-schema-consumer-events-waits-current`| `ON`| 필수 사항. 대기 이벤트 수집을 활성화합니다. | -| `performance-schema-consumer-events-statements-history-long`| `ON`| 권장 사항. 모든 스레드에서 더 많은 수의 최근 쿼리를 추적할 수 있습니다. 이를 사용하면 자주 발생하지 않는 쿼리에서 실행 세부 정보를 캡처할 가능성이 높아집니다 | -| `performance-schema-consumer-events-statements-history`|`ON`| 선택 사항. 스레드별로 최근 쿼리 기록을 추적할 수 있습니다. 이를 사용하면 자주 발생하지 않는 쿼리에서 실행 세부 정보를 캡처할 가능성이 높아집니다. | +| `performance_schema` | `ON` | 필수. 성능 스키마를 활성화합니다. | +| `max_digest_length` | `4096` | 더 많은 양의 쿼리 수집에 필요합니다. 기본값을 사용하면 `1024`자 이상의 쿼리가 수집되지 않습니다. | +| `performance_schema_max_digest_length` | `4096` | `max_digest_length`와 일치해야 합니다. | +| `performance-schema-consumer-events-statements-current` | `ON` | 필수. 현재 실행 중인 쿼리 모니터링을 활성화합니다. | +| `performance-schema-consumer-events-waits-current` | `ON` | 필수. 대기 이벤트 수집을 활성화합니다. | +| `performance-schema-consumer-events-statements-history-long` | `ON` | 권장. 모든 스레드에서 더 많은 최근 쿼리 추적을 활성화합니다. 활성화하면 빈도수가 낮은 쿼리에서 실행 상세정보를 캡처할 가능성이 더 커집니다. | +| `performance-schema-consumer-events-statements-history` | `ON` | 선택 사항. 스레드별 최근 쿼리 기록 추적을 활성화합니다. 활성화하면 빈도수가 낮은 쿼리에서 실행 상세정보를 캡처할 가능성이 더 커집니다. | {{% /tab %}} {{< /tabs >}} **참고**: Agent 액세스 권한 부여의 일부로 Agent가 런타임에 동적으로 `performance-schema-consumer-*` 설정을 사용하도록 허용합니다. [런타임 설정 컨슈머](#runtime-setup-consumers)를 참조하세요. -## Agent에 액세스 권한 부여 +## 에이전트에 접근 권한 부여 -Datadog Agent가 통계와 쿼리를 수집하려면 데이터베이스에 대한 읽기 전용 액세스가 필요합니다. +Datadog 에이전트가 통계와 쿼리를 수집하려면 데이터베이스에 대한 읽기 전용 액세스가 필요합니다. 다음 지침은 `datadog@'%'`를 사용하는 모든 호스트에서 로그인할 수 있도록 Agent에 권한을 부여합니다. `datadog@'localhost'`를 사용하여 로컬 호스트에서만 로그인하도록 `datadog` 사용자를 제한할 수 있습니다. 자세한 정보는 [MySQL 설명서][5]를 참조하세요. {{< tabs >}} -{{% tab "MySQL ≥ 8.0" %}} +{{% tab "MySQL ≥ 5.7" %}} `datadog` 사용자를 생성하고 기본 권한을 부여하세요. @@ -91,7 +90,7 @@ GRANT SELECT ON performance_schema.* TO datadog@'%'; ``` {{% /tab %}} -{{% tab "MySQL 5.6 & 5.7" %}} +{{% tab "MySQL 5.6" %}} `datadog` 사용자를 생성하고 기본 권한을 부여하세요. @@ -105,15 +104,14 @@ GRANT SELECT ON performance_schema.* TO datadog@'%'; {{% /tab %}} {{< /tabs >}} -다음 스키마 생성: +다음 스키마를 생성하세요. ```sql CREATE SCHEMA IF NOT EXISTS datadog; GRANT EXECUTE ON datadog.* to datadog@'%'; -GRANT CREATE TEMPORARY TABLES ON datadog.* TO datadog@'%'; ``` -Agent가 설명 계획을 수집할 수 있도록 `explain_statement` 절차를 생성합니다: +에이전트가 설명 계획을 수집할 수 있도록 `explain_statement` 절차를 생성합니다. ```sql DELIMITER $$ @@ -144,8 +142,17 @@ DELIMITER ; GRANT EXECUTE ON PROCEDURE .explain_statement TO datadog@'%'; ``` +인덱스 메트릭을 수집하려면, `datadog` 사용자에게 추가 권한을 부여합니다. + +```sql +GRANT SELECT ON mysql.innodb_index_stats TO datadog@'%'; +``` + +에이전트 v7.65부터 Datadog 에이전트에서 MySQL 데이터베이스에서 스키마 정보를 수집할 수 있습니다. 이 수집을 위해 에이전트 권한을 부여하는 방법에 대한 자세한 내용은 아래의 [스키마 수집][14] 섹션을 참조하세요. + + ### 런타임 설정 컨슈머 -다음 절차를 생성하여 Agent가 런타임에 `performance_schema.events_*` 컨슈머를 실행할 수 있는 기능을 제공하도록 합니다. +다음 절차를 생성하여 에이전트가 런타임에 `performance_schema.events_*` 컨슈머를 실행할 수 있는 기능을 제공하도록 합니다. ```SQL DELIMITER $$ @@ -159,11 +166,14 @@ DELIMITER ; GRANT EXECUTE ON PROCEDURE datadog.enable_events_statements_consumers TO datadog@'%'; ``` -## 에이전트 설치하기 +### 비밀번호를 안전하게 저장하기 +{{% dbm-secret %}} + +## 에이전트 설치 DataDog Agent를 설치하면 MySQL에 데이터베이스 모니터링에 필요한 MySQL 검사도 설치됩니다. MySQL 데이터베이스 호스트에 대한 Agent를 아직 설치하지 않은 경우 [Agent 설치 지침][6]을 참조하세요. -호스트에서 실행 중인 Agent에 대해 이 검사를 설정하려면: +호스트에서 실행 중인 에이전트에 이 점검을 구성하는 방법: [Agent의 설정 디렉터리][7] 루트에 있는 `conf.d/` 폴더에서 `mysql.d/conf.yaml` 파일을 편집하여 MySQL [메트릭](#metric-collection)과 [로그](#log-collection-optional) 수집을 시작하세요. 커스텀 메트릭을 포함하여 사용 가능한 모든 설정 옵션은 [sample mysql.d/conf.yaml][8]에서 확인하세요. @@ -179,10 +189,8 @@ instances: host: 127.0.0.1 port: 3306 username: datadog - password: '' # 앞서 CREATE USER 단계에서 - -**참고**: 특수 문자가 있는 경우 비밀번호를 작은따옴표로 묶어 입력하세요. - + password: 'ENC[datadog_user_database_password]' # from the CREATE USER step earlier +``` `datadog` 사용자는 MySQL 통합 설정에서 `localhost` 대신 `host: 127.0.0.1`로 설정되어야 합니다. 또는, `sock`를 사용합니다. @@ -224,7 +232,7 @@ Agent가 데이터베이스에서 수집한 텔레메트리 외에도 데이터 } ``` -2. Datadog Agent에서 로그 수집은 기본적으로 비활성화되어 있으므로 `datadog.yaml` 파일에서 활성화하세요. +2. 로그 수집은 Datadog 에이전트에서 기본적으로 비활성화되어 있습니다. `datadog.yaml` 파일에서 활성화합니다. ```yaml logs_enabled: true @@ -273,13 +281,13 @@ Agent가 데이터베이스에서 수집한 텔레메트리 외에도 데이터 # pattern: \t\t\s*\d+\s+|\d{6}\s+\d{,2}:\d{2}:\d{2}\t\s*\d+\s+ ``` -4. [Agent를 재시작합니다][9]. +4. [에이전트를 재시작합니다] [9]. ## 검증 -[Agent의 상태 하위 명령을 실행][10]하고 Checks 섹션에서 `mysql`을 찾습니다. 또는 [Databases][11] 페이지를 방문하여 시작하세요! +[에이전트 상태 하위 명령][10]을 실행하고 점검 섹션에서 `mysql`을 찾거나 [데이터베이스][11] 페이지를 참조하여 시작하세요! -## Agent 설정 예시 +## 에이전트 설정 예시 {{% dbm-mysql-agent-config-examples %}} ## 트러블슈팅 @@ -290,15 +298,17 @@ Agent가 데이터베이스에서 수집한 텔레메트리 외에도 데이터 {{< partial name="whats-next/whats-next.html" >}} -[1]: /ko/agent/basic_agent_usage#agent-overhead +[1]: /ko/database_monitoring/agent_integration_overhead/?tab=mysql [2]: /ko/database_monitoring/data_collected/#sensitive-information [3]: https://dev.mysql.com/doc/refman/8.0/en/performance-schema-quick-start.html [4]: https://dev.mysql.com/doc/refman/8.0/en/performance-schema-options.html [5]: https://dev.mysql.com/doc/refman/8.0/en/creating-accounts.html [6]: https://app.datadoghq.com/account/settings/agent/latest -[7]: /ko/agent/guide/agent-configuration-files/#agent-configuration-directory +[7]: /ko/agent/configuration/agent-configuration-files/#agent-configuration-directory [8]: https://github.com/DataDog/integrations-core/blob/master/mysql/datadog_checks/mysql/data/conf.yaml.example -[9]: /ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent -[10]: /ko/agent/guide/agent-commands/#agent-status-and-information +[9]: /ko/agent/configuration/agent-commands/#start-stop-and-restart-the-agent +[10]: /ko/agent/configuration/agent-commands/#agent-status-and-information [11]: https://app.datadoghq.com/databases -[12]: /ko/database_monitoring/troubleshooting/?tab=mysql \ No newline at end of file +[12]: /ko/database_monitoring/troubleshooting/?tab=mysql +[13]: /ko/database_monitoring/setup_mysql/troubleshooting/#mariadb-known-limitations +[14]: /ko/database_monitoring/setup_mysql/selfhosted?tab=mysql57#collecting-schemas \ No newline at end of file diff --git a/content/ko/database_monitoring/setup_postgres/selfhosted.md b/content/ko/database_monitoring/setup_postgres/selfhosted.md index dafb953a086..c5172eaeee6 100644 --- a/content/ko/database_monitoring/setup_postgres/selfhosted.md +++ b/content/ko/database_monitoring/setup_postgres/selfhosted.md @@ -7,74 +7,91 @@ further_reading: title: 자체 호스팅 Postgres에서 데이터베이스 모니터링 설정 --- -{{< site-region region="gov" >}} -
데이터베이스 모니터링은 이 사이트에서 지원되지 않습니다.
-{{< /site-region >}} +데이터베이스 모니터링은 쿼리 메트릭, 쿼리 샘플, 설명 계획, 데이터베이스 상태, 페일오버 및 이벤트를 노출하여 Postgres 데이터베이스에 대한 심층적인 가시성을 제공합니다. -데이터베이스 모니터링을 사용해 쿼리 메트릭, 쿼리 샘플, 실행 계획, 데이터베이스 상태, 장애 조치, 이벤트를 노출시켜 Postgres 데이터베이스를 상세히 가시화할 수 있습니다. - -에이전트에서는 데이터베이스에 읽기 전용 사용자로 로그인해 원격 분석 데이터를 직접 수집합니다. Postgres 데이터베이스에서 데이터베이스 모니터링을 사용하려면 다음 단계를 따르세요. +Agent는 읽기 전용 사용자로 로그인하여 데이터베이스에서 직접 원격 분석을 수집합니다. Postgres 데이터베이스로 데이터베이스 모니터링을 활성화하려면 다음 설정을 수행합니다. 1. [데이터베이스 파라미터 설정](#configure-postgres-settings) -1. [에이전트가 데이터베이스에 액세스할 수 있도록 권한 부여](#grant-the-agent-access) -1. [에이전트 설치](#install-the-agent) +1. [에이전트에 데이터베이스 접근 권한 부여](#grant-the-agent-access) +1. [Agent 설치](#install-the-agent) -## 시작 전에 참고 사항 +## 시작 전 참고 사항 지원되는 PostgreSQL 버전 -: 9.6, 10, 11, 12, 13, 14 +: 9.6, 10, 11, 12, 13, 14, 15, 16 -필수 구성 요소 -: Postgres 추가 제공 모듈이 설치되어야 합니다. 대부분 설치할 시에 기본적으로 포함되어 있으나 일반적이지 않은 방법으로 설치하는 경우 적절한 [`postgresql-contrib` 패키지][1] 버전을 추가로 설치해야 할 수 있습니다. +전제 조건 +: Postgres 추가 제공 모듈을 설치해야 합니다. 대부분의 설치에서는 기본적으로 포함되어 있지만, 일반적인 설치가 아닌 경우에는 [ `postgresql-contrib` 패키지][1] 버전을 추가로 설치해야 할 수 있습니다. -지원되는 에이전트 버전 +지원되는 Agent 버전 : 7.36.1+ -성능에 미치는 영향 -: 데이터베이스 모니터링을 위한 기본 에이전트 설정은 보수적이지만 수집 간격 및 쿼리 샘플 등 설정을 조정해 요구 사항을 더 잘 충족할 수 있습니다. 대부분의 워크로드의 경우 에이전트는 데이터베이스에서 쿼리 실행 시간의 1% 미만, CPU 비율의 1% 미만을 차지합니다.

-데이터베이스 모니터링은 기본 에이전트에서 통합으로 실행됩니다([벤치마크 참조][1]). +성능 영향 +: 기본값 에이전트 설정 데이터베이스 모니터링은 보수적이지만 수집 간격 및 쿼리 샘플링 속도 등의 설정을 필요에 맞게 조정할 수 있습니다. 대부분의 워크로드에서 에이전트는 데이터베이스에서 쿼리 실행 시간의 1% 미만, CPU 의 1% 미만을 차지합니다.

+데이터베이스 모니터링은 기본 에이전트([벤치마크][2] 참조) 위에서 통합으로 실행됩니다. -프록시, 로드 밸런서, 연결 풀러 -: 에이전트는 모니터링 중인 호스트에 직접 연결해야 합니다. 자체 호스팅 데이트베이스는 `127.0.0.1`이나 소켓을 통해 연결하는 것이 좋습니다. 에이전트를 프록시, 로드 밸런`pgbouncer`와 같은 연결 풀러로 연결하지 마세요. 이는 클라이언트 애플리케이션에 안티 패턴일 수 있으나 각 에이전트가 기본 호스트 이름을 알고 있어야 하며, 장애 조치 시에도 수명 기간 동안에는 단일 호스트에 연결되어야 합니다. Datadog 에이전트가 실행되는 동안 다른 호스트에 연결되면 메트릭 값이 올바르지 않게 됩니다. +프록시, 로드 밸런서 및 연결 풀러 +: Datadog Agent는 모니터링 중인 호스트에 직접 연결해야 합니다. 자체 호스팅 데이터베이스의 경우 `127.0.0.1` 또는 소켓이 선호됩니다. Agent는 `pgbouncer`와 같은 프록시, 로드 밸런서, 연결 풀러를 통해 데이터베이스에 연결해서는 안됩니다. Agent가 실행되는 동안 다른 호스트에 연결하는 경우(페일오버, 로드밸런싱 등) Agent는 두 호스트 간의 통계 차이를 계산하여 부정확한 메트릭을 생성합니다. -데이터 보안 고려사항 -: 에이전트가 데이터베이스에서 어떤 정보를 수집하고 어떻게 보안을 확보하는지 알아보려면 [민감한 정보][3]를 참고하세요. +데이터 보안 고려 사항 +: 에이전트가 데이터베이스에서 수집하는 데이터와 데이터의 보안을 유지하는 방법에 대한 자세한 내용은 [민감한 정보][3]를 참조하세요. ## Postgres 설정 구성 -`postgresql.conf` 파일에서 다음 [파라미터][4]를 설정합니다. **서버를 재시작**해야 설정이 적용됩니다. 이 파라미터에 관한 더 자세한 정보는 [Postgres 설명서][5]를 참고하세요. +`postgresql.conf` 파일에서 다음 [파라미터][4]을 설정한 다음 **서버를 다시 시작**해야 설정이 적용됩니다. 이러한 파라미터에 대한 자세한 내용은 [Postgres 설명서][5]를 참조하세요. | 파라미터 | 값 | 설명 | | --- | --- | --- | -|`shared_preload_libraries` | `pg_stat_statements` | `postgresql.queries.*` 메트릭에 필요. [pg_stat_statements][5] 확장을 통해 쿼리 메트릭 수집 활성화.| -| `track_activity_query_size` | `4096` | 대량 쿼리 수집에 필요. `pg_stat_activity`와 `pg_stat_statements`에서 SQL 텍스트 크기를 늘림. 기본값으로 두면 `1024`자보다 긴 쿼리가 수집되지 않음. | -| `pg_stat_statements.track` | `ALL` | 선택 사항. 저장된 절차와 함수 내에 있는 문 추적을 활성화. | -| `pg_stat_statements.max` | `10000` | 선택 사항. `pg_stat_statements`에 있는 표준화된 쿼리 추적 수를 늘림. 데이터베이스 볼륨이 크고 여러 클라이언트에서 다양한 유형의 쿼리가 포함된 경우에 이 설정을 추천. | -| `pg_stat_statements.track_utility` | `off` | 선택 사항. PREPARE 및 EXPLAIN과 같은 유틸리티 명령을 비활성화. 이 값을 `off`로 하면 SELECT, UPDATE, DELETE과 같은 쿼리만 추적함. | -| `track_io_timing` | `on` | 선택 사항. 블록 읽기 및 쓰기 쿼리 시간 수집 활성화. | +| `shared_preload_libraries` | `pg_stat_statements` | `postgresql.queries.*` 메트릭에 필요합니다. [pg_stat_statements][5] 확장자를 사용하여 쿼리 메트릭 수집을 활성화합니다. | +| `track_activity_query_size` | `4096` | 더 대규모 쿼리를 수집하는 데 필요합니다. `pg_stat_activity`의 SQL 텍스트의 크기를 늘립니다. 기본값으로 두면 `1024`자보다 긴 쿼리는 수집되지 않습니다. | +| `pg_stat_statements.track` | `ALL` | 선택 사항. 저장 프로시저 및 함수 내에서 명령문을 추적할 수 있습니다. | +| `pg_stat_statements.max` | `10000` | 선택 사항. `pg_stat_statements`에서 추적되는 정규화된 쿼리 수를 늘립니다. 이 설정은 다양한 클라이언트의 다양한 유형의 쿼리를 보는 대용량 데이터베이스에 권장됩니다. | +| `pg_stat_statements.track_utility` | `off` | 선택 사항. PREPARE 및 EXPLAIN과 같은 유틸리티 명령을 비활성화합니다. 이 값을 `off`로 설정하면 SELECT, UPDATE, DELETE와 같은 쿼리만 추적됩니다. | +| `track_io_timing` | `on` | 선택 사항. 쿼리에 대한 블록 읽기 및 쓰기 시간 수집을 활성화합니다. | -## 에이전트 액세스 허용 +## 에이전트에 접근 권한 부여 -Datadog 에이전트가 통계와 쿼리를 수집하려면 데이터베이스 서버에 읽기 전용 액세스가 필요합니다. +Datadog 에이전트가 통계와 쿼리를 수집하려면 데이터베이스에 읽기 전용 액세스가 필요합니다. -Postgres가 복제되면 다음 SQL 명령을 **주** 데이터베이스 서버(쓰기 권한자)에서 실행해야 합니다. 데이터베이스 서버에서 에이전트를 연결할 PostgreSQL 데이베이스를 선택하세요. 어떤 데이터베이스에 연결하든 에이전트는 서버에 있는 모든 데이터베이스에서 원격 분석 데이터를 수집하기 때문에 기본값인 `postgres` 데이터베이스에 연결하는 것이 좋습니다. 에이전트에서 [특정 데이터베이스의 커스텀 쿼리][6]를 실행하고 싶을 경우에만 다른 데이터베이스를 선택하세요. +Postgres가 복제된 경우 클러스터의 **기본** 데이터베이스 서버(작성자)에서 다음 SQL 명령을 실행해야 합니다. 에이전트가 연결할 데이터베이스 서버에서 PostgreSQL 데이터베이스를 선택합니다. 에이전트는 연결된 데이터베이스에 관계없이 데이터베이스 서버의 모든 데이터베이스에서 텔레메트리를 수집할 수 있으므로 기본 `postgres` 데이터베이스를 사용하는 것이 좋습니다. 에이전트가 [해당 데이터베이스 고유의 데이터에 대한 사용자 지정 쿼리][6]를 실행하는 경우에만 다른 데이터베이스를 선택하세요. -선택한 데이터베이스에 슈퍼 사용자(또는 충분한 권한이 있는 다른 사용자)로 연결합니다. 예를 들어 선택한 데이터베이스가 `postgres`면 다음을 실행하여 [psql][7]을 이용해 `postgres` 사용자로 연결합니다. +선택한 데이터베이스를 수퍼유저(또는 충분한 권한이 있는 다른 사용자)와 연결합니다. 예를 들어 선택한 데이터베이스가 `postgres`면 다음을 실행하여 [psql][7]을 사용하는 `postgres` 사용자로 연결합니다. ```bash psql -h mydb.example.com -d postgres -U postgres ``` -`datadog` 사용자를 생성합니다. +`datadog` 사용자 생성: ```SQL CREATE USER datadog WITH password ''; ``` {{< tabs >}} + +{{% tab "Postgres ≥ 15" %}} + +`datadog` 사용자에게 관련 테이블에 대한 권한을 부여합니다. + +```SQL +ALTER ROLE datadog INHERIT; +``` + +**모든 데이터베이스에** 다음 스키마를 생성합니다. + +```SQL +CREATE SCHEMA datadog; +GRANT USAGE ON SCHEMA datadog TO datadog; +GRANT USAGE ON SCHEMA public TO datadog; +GRANT pg_monitor TO datadog; +CREATE EXTENSION IF NOT EXISTS pg_stat_statements; +``` + +{{% /tab %}} + {{% tab "Postgres ≥ 10" %}} -**모든 데이터베이스**에 다음 스키마를 생성합니다. +**모든 데이터베이스에** 다음 스키마를 생성합니다. ```SQL CREATE SCHEMA datadog; @@ -87,7 +104,7 @@ CREATE EXTENSION IF NOT EXISTS pg_stat_statements; {{% /tab %}} {{% tab "Postgres 9.6" %}} -**모든 데이터베이스**에 다음 스키마를 생성합니다. +**모든 데이터베이스에** 다음 스키마를 생성합니다. ```SQL CREATE SCHEMA datadog; @@ -97,15 +114,15 @@ GRANT SELECT ON pg_stat_database TO datadog; CREATE EXTENSION IF NOT EXISTS pg_stat_statements; ``` -**모든 데이터베이스**에 함수를 생성해 에이전트가 `pg_stat_activity`와 `pg_stat_statements`의 모든 컨텐츠를 읽을 수 있도록 합니다. +Agent가 `pg_stat_activity` 및 `pg_stat_statements`의 전체 내용을 읽을 수 있도록 **모든 데이터베이스에** 함수를 만듭니다. ```SQL CREATE OR REPLACE FUNCTION datadog.pg_stat_activity() RETURNS SETOF pg_stat_activity AS -$$ SELECT * FROM pg_catalog.pg_stat_activity; $$ + $$ SELECT * FROM pg_catalog.pg_stat_activity; $$ LANGUAGE sql SECURITY DEFINER; CREATE OR REPLACE FUNCTION datadog.pg_stat_statements() RETURNS SETOF pg_stat_statements AS -$$ SELECT * FROM pg_stat_statements; $$ + $$ SELECT * FROM pg_stat_statements; $$ LANGUAGE sql SECURITY DEFINER; ``` @@ -113,7 +130,7 @@ SECURITY DEFINER; {{% /tab %}} {{< /tabs >}} -
추가 테이블 쿼리가 필요한 데이터 수집이나 커스텀 메트릭의 경우 datadog 사용자에게 해당 테이블과 관련한 SELECT 권한을 부여해야 할 수 있습니다. 예: grant SELECT on <TABLE_NAME> to datadog;. 더 자세한 내용은 PostgreSQL 커스텀 메트릭 수집을 참고하세요.
+
추가 테이블을 쿼리해야 하는 데이터 수집 또는 커스텀 메트릭의 경우 해당 테이블에 대한 SELECT 권한을 datadog 사용자에게 부여해야 할 수도 있습니다. 예: <TABLE_NAME>에서 SELECT 권한을 Datadog에 부여합니다. 자세한 내용은 PostgreSQL 커스텀 메트릭 수집을 참조하세요.
에이전트가 실행 계획을 수집하려면 **모든 데이터베이스**에 함수를 생성해야 합니다. @@ -140,6 +157,9 @@ RETURNS NULL ON NULL INPUT SECURITY DEFINER; ``` +### 비밀번호를 안전하게 저장하기 +{{% dbm-secret %}} + ### 확인 권한이 정확한지 확인하려면 다음 명령을 실행해 에이전트 사용자가 데이터베이스에 연결하고 코어 테이블을 읽을 수 있는지 확인합니다. @@ -184,7 +204,7 @@ psql -h localhost -U datadog postgres -A \ 암호 입력 메시지가 나타나면 `datadog` 사용자를 생성할 때 입력한 암호를 사용합니다. -## 에이전트 설치하기 +## 에이전트 설치 Datadog 에이전트를 설치하면 Postgres용 데이터베이스 모니터링에 필요한 Postgres 검사도 설치됩니다. Postgres 데이터베이스 호스트에 아직 에이전트를 설치하지 않았다면 [에이전트 설치 지침][8]을 참고하세요. @@ -200,7 +220,7 @@ Datadog 에이전트를 설치하면 Postgres용 데이터베이스 모니터링 host: localhost port: 5432 username: datadog - password: '' + password: 'ENC[datadog_user_database_password]' ## Optional: Connect to a different database if needed for `custom_queries` # dbname: '' ``` @@ -215,7 +235,7 @@ Datadog 에이전트를 설치하면 Postgres용 데이터베이스 모니터링 host: localhost port: 5432 username: datadog - password: '' + password: 'ENC[datadog_user_database_password]' pg_stat_statements_view: datadog.pg_stat_statements() pg_stat_activity_view: datadog.pg_stat_activity() ## Optional: Connect to a different database if needed for `custom_queries` @@ -225,6 +245,8 @@ Datadog 에이전트를 설치하면 Postgres용 데이터베이스 모니터링 {{% /tab %}} {{< /tabs >}} +**참고**: 특수 문자가 있는 경우 비밀번호를 작은 따옴표로 묶어 입력하세요. + 2. [에이전트를 다시 시작합니다][10]. ### 로그 수집(선택 사항) @@ -255,7 +277,7 @@ PostgreSQL 로깅 기본값은 `stderr`이며, 로그에 상세 정보를 포함 #log_statement = 'all' #log_duration = on ``` -3. Datadog 에이전트에서 로그 수집은 기본적으로 사용하지 않도록 설정되어 있습니다. `datadog.yaml`파일에서 로그 수집을 사용하도록 설정합니다. +3. 로그 수집은 Datadog 에이전트에서 기본적으로 비활성화되어 있습니다. `datadog.yaml` 파일에서 활성화합니다. ```yaml logs_enabled: true ``` @@ -292,7 +314,7 @@ PostgreSQL 로깅 기본값은 `stderr`이며, 로그에 상세 정보를 포함 [1]: https://www.postgresql.org/docs/12/contrib.html -[2]: /ko/agent/basic_agent_usage#agent-overhead +[2]: /ko/database_monitoring/agent_integration_overhead/?tab=postgres [3]: /ko/database_monitoring/data_collected/#sensitive-information [4]: https://www.postgresql.org/docs/current/config-setting.html [5]: https://www.postgresql.org/docs/current/pgstatstatements.html @@ -300,9 +322,9 @@ PostgreSQL 로깅 기본값은 `stderr`이며, 로그에 상세 정보를 포함 [7]: https://www.postgresql.org/docs/current/app-psql.html [8]: https://app.datadoghq.com/account/settings/agent/latest [9]: https://github.com/DataDog/integrations-core/blob/master/postgres/datadog_checks/postgres/data/conf.yaml.example -[10]: /ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[10]: /ko/agent/configuration/agent-commands/#start-stop-and-restart-the-agent [11]: https://www.postgresql.org/docs/11/runtime-config-logging.html [12]: https://www.postgresql.org/message-id/20100210180532.GA20138@depesz.com -[13]: /ko/agent/guide/agent-commands/#agent-status-and-information +[13]: /ko/agent/configuration/agent-commands/#agent-status-and-information [14]: https://app.datadoghq.com/databases [15]: /ko/database_monitoring/troubleshooting/?tab=postgres \ No newline at end of file diff --git a/content/ko/error_tracking/custom_grouping.md b/content/ko/error_tracking/custom_grouping.md deleted file mode 100644 index 474903e9490..00000000000 --- a/content/ko/error_tracking/custom_grouping.md +++ /dev/null @@ -1,320 +0,0 @@ ---- -description: 오류 스팬(span)을 이슈로 그룹화하는 방법을 사용자 지정합니다. -title: 커스텀 그룹화 ---- - -## 개요 - -오류 추적은 [기본 전략][5]을 사용해 지능적으로 유사한 오류를 이슈로 그룹화합니다. _커스텀 핑거프린팅_을 사용해 그룹화 결정을 완벽히 통제하고 오류 스팬(span)의 그룹화 작업을 사용자 지정할 수 있습니다. - -오류에 `error.fingerprint`을 제공하여 그룹화를 사용자 지정할 수 있습니다. 오류의 소스에 따라 핑거프린트가 속성 또는 태그에 적용됩니다(자세한 내용은 [설정](#setup) 참조). `error.fingerprint` 값의 경우 특별한 형식이나 요구 사항은 없으나 내용은 반드시 문자열이어야 합니다. - -`error.fingerprint`이 제공된 경우 그룹화 행동은 이러한 규칙을 따릅니다. - -* 커스텀 그룹화는 기본 전략보다 우선됩니다. -* 커스텀 그룹화는 오류 하위 집합에만 적용할 수 있으며 기본 전략과 공동으로 존재할 수 있습니다. -* `error.fingerprint` 내용은 수정 없이 그대로 사용됩니다. -* 동일한 서비스의 오류가 동일한 `error.fingerprint` 속성을 가지고 있는 경우 동일한 이슈로 그룹화됩니다. -* 각기 다른 `service` 속성의 오류는 서로 다른 이슈로 그룹화됩니다. - -## 설정 - -### APM -커스텀 그룹화 작업에는 오류 스팬(span) 및 `error.fingerprint` 문자열 스팬(span) 태그만 필요합니다. - -Datadog으로 애플리케이션 성능 모니터링(APM) 트레이스를 수집하지 않는 경우 [애플리케이션 성능 모니터링(APM) 문서][1]를 참조하여 애플리케이션 성능 모니터링(APM)을 설정합니다. - -#### 예시 - -이미 애플리케이션 성능 모니터링(APM) 스팬(span)을 전송한다면 오류 스팬(span)에 신규 `error.fingerprint` 태그를 추가하세요. - -다음은 파이썬(Python)의 예시입니다. - -```python -with tracer.trace("throws.an.error") as span: - span.set_tag('error.fingerprint', 'my-custom-grouping-material') - raise Exception("Something went wrong") -``` - -예외 정보가 캡처되며, 예외 발생 시 활성화되었다면 스팬(span)에 첨부됩니다. -이 경우 `my-custom-grouping-material`을 사용하여 해당 오류 스팬(span)을 오류 추적의 단일 -이슈로 그룹화합니다. - -### 로그 관리 -커스텀 그룹화 작업에는 오류 로그 및 `error.fingerprint` 문자열 속성만 필요합니다. - -Datadog으로 로그를 수집하지 않는 경우 [로그 관리 문서][2]를 참조하여 로그를 설정합니다. - -`source` 태그(언어 지정)가 올바르게 설정되었는지 확인합니다. - -#### 예시 - -이미 JSON 형식으로 로깅한다면 오류 로그에 신규 `error.fingerprint` 속성을 추가하세요. - -다음은 JSON 형식 로거에 대한 파이썬(Python) 예시입니다. - -```python -import logging -import json_log_formatter - -formatter = json_log_formatter.JSONFormatter() - -json_handler = logging.FileHandler(filename='/var/log/my-log.json') -json_handler.setFormatter(formatter) - -logger = logging.getLogger('my_json') -logger.addHandler(json_handler) -logger.setLevel(logging.INFO) - -logger.error('Error processing request', extra={'error.fingerprint': 'my-custom-grouping-material'}) -``` - -이 경우, `my-custom-grouping-material`은 오류 추적에서 해당 오류 로그를 단일 -이슈로 그룹화하는 데 사용됩니다. - -#### 모바일 예시 - -Datadog 모바일 SDK에서는 다음과 같이 로그 요청에 사전 정의된 속성을 추가하여 에러를 로깅할 때 -커스텀 오류 핑거프린트를 추가할 수 있습니다. - -{{< tabs >}} -{{% tab "iOS" %}} -커스텀 그릅화를 사용하려면 Datadog iOS SDK `2.8.1` 버전 이상이 필요합니다. - -```swift -let errorFingerprint = "my-custom-grouping-material" -logger.error( - "My error message", - error: error, - attributes: [ - Logs.Attributes.errorFingerprint: errorFingerprint - ] -) -``` -{{% /tab %}} - -{{% tab "Android" %}} -커스텀 그릅화를 사용하려면 Datadog Android SDK `2.7.0` 버전 이상이 필요합니다. - -```kotlin -val errorFingerprint = "my-custom-grouping-material" -val attributes = mapOf(LogAttributes.ERROR_FINGERPRINT to errorFingerprint) -logger.e("My error message", error, attributes) -``` -{{% /tab %}} - -{{% tab "Flutter" %}} -커스텀 그릅화를 사용하려면 Datadog Flutter SDK `2.4.0` 버전 이상이 필요합니다. - -```dart -final errorFingerprint = "my-custom-grouping-material"; -logger.error( - 'My error message', - errorStackTrace: st, - attributes { - DatadogAttributes.errorFingerprint: "my-custom-grouping-material", - } -); -``` -{{% /tab %}} -{{< /tabs >}} - -또는 다음과 같이 로그 매퍼(mapper)에서 핑거프린트를 추가하거나 조정할 수 있습니다. - -{{< tabs >}} -{{% tab "iOS" %}} -커스텀 그릅화를 사용하려면 Datadog iOS SDK `2.8.1` 버전 이상이 필요합니다. - -```swift -let logsConfiguration = Logs.Configuration( - eventMapper: { log in - var log = log - log.error?.fingerprint = "my-custom-grouping-material" - return log - } -) -Logs.enable( - with: logsConfiguration -) -``` -{{% /tab %}} - -{{% tab "Android" %}} -커스텀 그릅화를 사용하려면 Datadog Android SDK `2.7.0` 버전 이상이 필요합니다. - -```kotlin -val mapper = object : EventMapper { - override fun map(event: LogEvent): LogEvent { - event.fingerprint = "my-custom-grouping-material" - return event - } -} -val logsConfiguration = LogsConfiguration.Builder() - .setEventMapper(mapper) - .build() -Logs.enable(logsConfiguration) -``` -{{% /tab %}} - -{{% tab "Flutter" %}} -커스텀 그릅화를 사용하려면 Datadog Flutter SDK `2.4.0` 버전 이상이 필요합니다. - -```dart -LogEvent? mapLogEvent(LogEvent event) { - event.error?.fingerprint = "my-custom-grouping-material"; - return event; -} - -final loggingConfiguration = DatadogLoggingConfiguration( - eventMapper: mapLogEvent, -); - -final configuration = DatadogConfiguration( - // ... - loggingConfiguration: loggingConfiguration, -); -``` -{{% /tab %}} -{{< /tabs >}} - -### RUM - -#### 예시 -Datadog을 사용해 브라우저 RUM 이벤트를 수집하지 않는다면 [RUM 브라우저 모니터링 설정 설명서][3]나 [RUM 모바일 및 TV 모니터링 설정 설명서][4]를 참조하세요. - -{{< tabs >}} -{{% tab "Browser" %}} -커스텀 그룹화를 사용하려면 Datadog 브라우저 SDK [v4.42.0 이상][2] 버전, [브라우저 RUM 오류][1] 및 추가 문자열 속성이 필요합니다. - -이미 [브라우저 오류를 수집하고 있다면][1] 다음 중 하나를 사용해 속성을 추가할 수 있습니다. - -* 오류 개체에 `dd_fingerprint` 속성 추가: - -```javascript -import { datadogRum } from '@datadog/browser-rum'; -// Send a custom error with context -const error = new Error('Something went wrong'); -error.dd_fingerprint = 'my-custom-grouping-fingerprint' -datadogRum.addError(error); -``` - -* 또는 `error.fingerprint` 속성으로 `beforeSend` 콜백을 사용합니다. - -```javascript -DD_RUM.init({ - ... - beforeSend: () => { - if (event.type === 'error') { - event.error.fingerprint = 'my-custom-grouping-fingerprint' - } - }, -}) -``` - -모든 경우 `my-custom-grouping-material`은 오류 추적에서 브라우저 RUM 오류를 단일 이슈로 그룹화하는 데 사용됩니다. - -[1]: /ko/real_user_monitoring/browser/collecting_browser_errors/ -[2]: https://github.com/DataDog/browser-sdk/releases/tag/v4.42.0 -{{% /tab %}} - -{{% tab "iOS" %}} -커스텀 그릅화를 사용하려면 Datadog iOS SDK `2.8.1` 버전 이상이 필요합니다. - -오류 수동 보고 시 커스텀 핑거프린트를 추가하려면, 다음과 같이 `addError`을 호출할 때 사전 정의된 속성을 추가합니다. - -```swift -RUMMonitor.shared().addError( - message: "My error message", - source: .source, - attributes: [ - RUM.Attributes.errorFingerprint: "my-custom-grouping-fingerprint" - ] -) -``` - -또는 다음과 같이 `errorEventMapper`을 사용할 수 있습니다. - -```swift -var config = RUM.Configuration(applicationID: "rum-application-id") -config.errorEventMapper = { errorEvent in - var errorEvent = errorEvent - errorEvent.error.fingerprint = "my-custom-grouping-fingerprint" - return errorEvent -} -RUM.enable(with: config) -``` - -{{% /tab %}} - -{{% tab "Android" %}} -커스텀 그릅화를 사용하려면 Datadog Android SDK `2.7.0` 버전 이상이 필요합니다. - -오류 수동 보고 시 커스텀 핑거프린트를 추가하려면, 다음과 같이 `addError`을 호출할 때 사전 정의된 속성을 추가합니다. - -```kotlin -GlobalRumMonitor.get().addError( - "My error message", - RumErrorSource.SOURCE, - exception, - mapOf( - RumAttributes.ERROR_CUSTOM_FINGERPRINT to "my-custom-grouping-fingerprint" - ) -) -``` - -또는 다음과 같이 `errorEventMapper`을 사용할 수 있습니다. - -```kotlin -val rumConfiguration = RumConfiguration.Builder("rum-application-id") - .setErrorEventMapper(object : EventMapper { - override fun map(event: ErrorEvent): ErrorEvent { - event.error.fingerprint = "my-custom-grouping-fingerprint" - return event - } - }).build() -RUM.enable(rumConfiguration) -``` - -{{% /tab %}} - -{{% tab "Flutter" %}} -커스텀 그릅화를 사용하려면 Datadog Flutter SDK `2.4.0` 버전 이상이 필요합니다. - -오류 수동 보고 시 커스텀 핑거프린트를 추가하려면, 다음과 같이 `addError`을 호출할 때 사전 정의된 속성을 추가합니다. - -```dart -final rum = DatadogSdk.instance.rum; -rum?.addErrorInfo("My error message", - RumErrorSource.source, - attributes: { - DatadogAttributes.errorFingerprint: 'my-custom-grouping-fingerprint', - }, -); -``` - -또는 다음과 같이 `errorEventMapper`을 사용할 수 있습니다. - -```dart -RumErrorEvent? mapRumErrorEvent(RumErrorEvent event) { - event.error.fingerprint = "my-custom-grouping-fingerprint"; - return event; -} - -final rumConfiguration = DatadogRumConfiguration( - // ... - errorEventMapper: mapRumErrorEvent, -); - -final configuration = DatadogConfiguration( - // ... - rumConfiguration: rumConfiguration, -); -``` -{{% /tab %}} -{{< /tabs >}} - -[1]: /ko/tracing/ -[2]: /ko/logs/log_collection/ -[3]: /ko/real_user_monitoring/browser/ -[4]: /ko/real_user_monitoring/mobile_and_tv_monitoring/#get-started -[5]: /ko/error_tracking/default_grouping \ No newline at end of file diff --git a/content/ko/error_tracking/default_grouping.md b/content/ko/error_tracking/default_grouping.md deleted file mode 100644 index c08b04f1daa..00000000000 --- a/content/ko/error_tracking/default_grouping.md +++ /dev/null @@ -1,19 +0,0 @@ ---- -description: 오류가 이슈로 그룹화되는 방식을 이해합니다. -title: Default Grouping ---- - -## 개요 - -오류 추적은 유사한 오류를 이슈로 지능적으로 그룹화합니다. 이 그룹화는 다음 오류 속성을 기반으로 합니다. - -- `service`: 오류가 발생한 서비스입니다. -- `error.type` 또는 `error.kind`: 오류의 클래스입니다. -- `error.message`: 오류에 대한 설명입니다. -- `error.stack`: 파일 이름과 가장 의미 있는 최상위 스택 프레임의 함수 이름입니다. - -오류 스택 트레이스는 Datadog 계측에서 오류 발생 후 오류 캡처를 하기까지의 코드 경로입니다. 오류 트레이스는 최상위 스택 프레임(오류의 *위치*)을 평가하여 오류를 그룹화하는 데 사용됩니다. - -주어진 두 오류에 대해 스택 프레임 속성이 다른 경우 두 오류는 서로 다른 이슈로 그룹화됩니다. 예를 들어 오류 트레이스는 서비스 또는 오류 유형에 대해 이슈를 그룹화하지 않습니다. 또한 오류 트레이스는 숫자, 문장 부호, 따옴표나 괄호 사이에 있는 모든 것을 무시하고 단어와 유사한 토큰만 사용합니다. - -**참고**: 그룹화 정확도를 높이기 위해 오류 트레이스는 버전, ID, 날짜 등과 같은 가변 스택 프레임 속성을 제거합니다. \ No newline at end of file diff --git a/content/ko/getting_started/application_security/_index.md b/content/ko/getting_started/application_security/_index.md deleted file mode 100644 index 855f002e445..00000000000 --- a/content/ko/getting_started/application_security/_index.md +++ /dev/null @@ -1,128 +0,0 @@ ---- -aliases: -- /ko/security/security_monitoring/getting_started/ -further_reading: -- link: /security/application_security/terms - tag: 설명서 - text: 애플리케이션 보안 용어 및 개념 -- link: /security/application_security/how-appsec-works - tag: 설명서 - text: 애플리케이션 보안 관리의 작동 방식 -- link: /security/application_security/enabling/ - tag: 설명서 - text: ASM 활성화 -- link: https://dtdg.co/fe - tag: 기반 활성화 - text: 대화형 세션에 참여하여 보안 및 위협 탐지를 강화하세요. -- link: /getting_started/application_security/software_composition_analysis - tag: 가이드 - text: 소프트웨어 구성 요소 분석 시작하기 -- link: https://securitylabs.datadoghq.com/ - tag: 보안 연구소 - text: Datadog의 보안 연구, 보고서, 팁 및 동영상 -title: 애플리케이션 보안 관리 시작하기 ---- - -## 개요 - -Datadog 애플리케이션 보안 관리(ASM)는 운영 중인 웹 애플리케이션 및 API를 보호하는 데 도움이 됩니다. ASM은 서비스의 애플리케이션 수준 취약성에 대한 가시성을 제공하고 이러한 취약성을 이용하려는 공격 및 공격자로부터 실시간으로 보호합니다. - -이 가이드에서는 ASM을 사용하여 팀을 운영하는 모범 사례를 설명합니다. - -## 보안 위험이 있는 서비스 식별 - - -ASM을 활용할 수 있는 **취약하거나 공격에 노출된 서비스를 식별합니다**. 그런 다음 [**Service Catalog > Security 페이지**][1]에서 사용하려는 서비스를 선택합니다. - -{{< img src="getting_started/appsec/ASM_activation_service_selection_v2.png" alt="취약점을 표시하고 의심스러운 요청 열을 기준으로 정렬된 ASM 서비스 페이지 보기." style="width:100%;" >}} - -이러한 보안 인사이트는 APM에 의해 보고된 데이터에서 감지됩니다. 이러한 인사이트는 보안을 우선순위로 정하는 데 도움이 됩니다. ASM은 서비스에 대한 모든 보안 위험을 파악하고 우선순위를 지정하여 해결하는 데 도움이 됩니다. - -**참고**: 취약점이나 의심스러운 요청이 보고되지 않은 경우 서비스가 최신 Datadog 추적 라이브러리 버전을 사용하고 있는지 확인하세요. [Security Service Catalog][2]에서 서비스의 사이드 패널을 열고 **Tracing Configuration**을 살펴보세요. - - -{{< img src="getting_started/appsec/ASM_Tracing_Configuration.png" alt="Tracer Configuration tab in APM Service Catalog page view. Highlighting which version of the Datadog Agent, and Datadog tracing library are being used by your services." style="width:100%;" >}} - - -## ASM 사용 - -### 인앱 지침으로 ASM 사용 - -[ASM 랜딩 페이지][18]의 지침에 따라 시작하세요. 여기에는 다음이 포함됩니다. -- ASM의 혜택을 받을 수 있는 서비스를 안내합니다. -- 환경 변수로 Datadog 추적 라이브러리를 설정합니다. -- 서비스를 재시작합니다.
- -1. **Get Started with ASM**을 클릭합니다. -2. **Get Started** 를 선택하면 오픈 소스 라이브러리의 취약성을 감지하고(Software Composition Analysis), 코드 수준 취약성을 찾아 수정하며 (Code Security), 서비스에서 위협 감지를 찾아 활성화할 수 있습니다(Threat Management). -3. 지침에 따라 ASM을 시작합니다. - - {{< img src="getting_started/appsec/asm_sca_setup.png" alt="Software Composition Analysis 설정 페이지" style="width:100%;" >}} - - -### 원격 설정으로 ASM 사용 -#### 요구 사항: -- 호스트 또는 컨테이너에 설치된 Datadog 에이전트 버전 7.42.0 이상입니다. -- Datadog 트레이서 버전은 [원격 설정과 호환됩니다][16]. - -#### 원격 설정 설치(아직 활성화되지 않은 경우) - 다음 단계에 따라 Datadog UI에서 [원격 설정][17]을 활성화합니다. 여기에는 다음이 포함됩니다: - 1. 조직의 원격 구성 기능을 활성화합니다. - 2. 기존 API 키에 원격 설정 기능을 추가하거나 새 기능을 만듭니다. - 3. 원격 설정 기능이 있는 API 키를 사용하도록 Datadog 에이전트 설정을 업데이트합니다. - - 자세한 내용은 [원격 설정 설치][21]를 참조하세요. - -### ASM 테스트 -ASM이 활성화되면 애플리케이션 취약성을 즉시 파악하고 서비스를 대상으로 하는 공격 및 공격자를 탐지합니다. - -1. **취약성 확인**: [취약성 탭][14]으로 이동하여 취약성을 분석하고 해결합니다. -2. **공격 확인**: 공격 패턴을 보내 테스트 탐지 규칙을 트리거합니다. 단말기에서 다음 스크립트를 실행합니다: - - {{< code-block lang="sh" >}} - for ((i=1;i<=250;i++)); do - # 기존 서비스의 경로 타겟 - curl https://your-application-url/ -A - 'dd-test-scanner-log'; - # 기존에 없는 서비스의 경로 타겟 - curl https://your-application-url/ -A - 'dd-test-scanner-log'; - done{{< /code-block >}} - -3. 몇 초 후에 생성되는 신호를 보려면 [보안 신호 탐색기][6]로 이동합니다. - -## 리포트 및 알림 - -1. [알림 규칙][23]을 설정하여 슬랙, 지라, 이메일 등을 사용하여 알림을 받을 수 있습니다. -3. 주간 [위협 요약][22] 보고서를 구독하면 지난 7일 동안 발견된 가장 중요한 보안 위협에 대한 조사 및 해결을 시작할 수 있습니다. - - -더 나아가기 위한 모범 사례 보기를 원하면 [제품 내 빠른 시작 안내][19] 를 확인합니다. - -## 참고 자료 - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: https://app.datadoghq.com/services?&lens=Security -[2]: https://app.datadoghq.com/services?hostGroup=%2A&lens=Security -[3]: /ko/security/application_security/threats/library_configuration/#configuring-a-client-ip-header -[4]: /ko/security/application_security/how-appsec-works/ -[5]: /ko/security/application_security/threats/add-user-info/ -[6]: https://app.datadoghq.com/security?query=%40workflow.rule.type%3A%22Application%20Security%22&column=time&order=desc&product=appsec&view=signal&viz=stream&start=1674824351640&end=1675429151640&paused=false -[7]: https://app.datadoghq.com/security/appsec -[8]: https://app.datadoghq.com/security/appsec/traces -[9]: /ko/security/application_security/threats/library_configuration/#exclude-specific-parameters-from-triggering-detections -[10]: https://app.datadoghq.com/security/appsec/reports-configuration -[11]: https://app.datadoghq.com/security/configuration/notification-rules -[12]: /ko/security/notifications/rules/ -[13]: /ko/security/application_security/risk_management -[14]: https://app.datadoghq.com/security/appsec/vm?&group=vulnerability -[15]: https://docs.datadoghq.com/ko/agent/guide/how_remote_config_works/?tab=configurationyamlfile#overview -[16]: https://docs.datadoghq.com/fr/security/application_security/enabling/compatibility/ -[17]: https://app.datadoghq.com/organization-settings/remote-config -[18]: https://app.datadoghq.com/security/appsec/landing -[19]: https://app.datadoghq.com/security/configuration/asm/onboarding -[20]: /ko/getting_started/application_security/#setup-asm -[21]: /ko/agent/remote_config?tab=configurationyamlfile#setup -[22]: https://app.datadoghq.com/security/configuration/reports -[23]: https://app.datadoghq.com/security/configuration/notification-rules \ No newline at end of file diff --git a/content/ko/getting_started/cloud_security_management/_index.md b/content/ko/getting_started/cloud_security_management/_index.md deleted file mode 100644 index d92d65ad14d..00000000000 --- a/content/ko/getting_started/cloud_security_management/_index.md +++ /dev/null @@ -1,90 +0,0 @@ ---- -further_reading: -- link: /security/cloud_security_management/ - tag: 설명서 - text: 클라우드 보안 관리 -- link: /security/misconfigurations/custom_rules/schema/ - tag: 설명서 - text: CSM 구성 오류 클라우드 리소스 스키마 -- link: https://www.datadoghq.com/blog/automate-end-to-end-processes-with-datadog-workflows/ - tag: 블로그 - text: Datadog 워크플로를 통한 엔드투엔드 프로세스 자동화 -- link: https://www.datadoghq.com/blog/csm-at-datadog/ - tag: 블로그 - text: 클라우드 인프라스트럭처의 보안 상태 개선을 위한 Datadog CSM 사용 방법 -- link: https://dtdg.co/fe - tag: 기반 활성화 - text: 대화형 세션에 참여하여 보안 및 위협 탐지를 강화하세요. -- link: https://securitylabs.datadoghq.com/ - tag: 보안 연구소 - text: Datadog의 보안 연구, 보고서, 팁 및 동영상 -title: 클라우드 보안 관리 시작하기 ---- - -## 개요 - -[Datadog 클라우드 보안 관리][1](CSM)는 전체 클라우드 인프라스트럭처에 걸쳐 실시간 위협 탐지 및 지속적인 구성 감사를 제공합니다. 통합 가시성 데이터에 기반하여 CSM에는 [잘못된 구성][2] 및 [위협][3]이 포함됩니다. - -이 가이드에서는 CSM으로 팀을 구성하고 운영하기 위한 모범 사례를 안내합니다. - -## 1단계: 배포 - -1. [Datadog Agent(버전 7.46 이상)][4]를 설치합니다. -2. 클라우드 리소스 및 인프라스트럭처에 대해 CSM을 활성화합니다. - - **CSM Threats**: [Kubernetes][5], [Docker][6], [호스팅 기반][7] 설치. - - **CSM Misconfigurations**: [AWS][10], [Azure][11], [GCP][12], [Kubernetes][8], [Docker][9] 지침. - - **CSM Identity Risks**: [AWS 리소스 수집][26] 및 [Cloudtrail 로그 포워딩][27] 활성화. - - **CSM Vulnerabilities**: Kubernetes, ECS EC2 인스턴스 및 호스트 기반 설치에 대한 [컨테이너 이미지 스캐닝][23] 및 [호스트 스캐닝][24] 지침. -3. 조직의 위험과 위협에 대한 개요를 확인하려면 [CSM 홈페이지][13]를 참조하세요. -4. [500개 이상의 즉시 사용 가능한 위협 및 잘못된 구성 탐지 규칙][14]을 검토하세요. -5. [보안 신호][15]를 살펴보고 [CSM 잘못된 구성 발견 사항][16]을 검토하세요. -6. [Identity Risks][29] 페이지에서 [신원 위험][28]을 검토하고 수정합니다. -7. [Container Images][25] 페이지에서 컨테이너 취약성을 검토하고, [Infrastructure Vulnerability][30] 페이지에서 통합된 취약성 목록을 확인하세요. -8. [알림 규칙][17]을 설정하고 Slack, Jira, 이메일 등을 통해 알림을 받습니다. - -## 2단계: 맞춤 설정 - -1. 노이즈를 줄이기 위해 [CSM 위협 억제 규칙][18]을 설정하세요. -2. [CSM 잘못된 구성][19] 및 [CSM 위협][20]에 대한 사용자 지정 탐지 규칙을 만듭니다. - -## 3단계: 보고서 및 대시보드 - -1. [규정 준수 보고서][21]를 검토하여 조직의 상태를 평가하세요. -2. 즉시 사용 가능한 대시보드를 사용하거나 [직접 생성][22]하여 더 빠르게 조사, 보고 및 모니터링할 수 있습니다. -3. 주간 [보안 다이제스트][31] 보고서를 구독하여 지난 7일 동안 발견된 가장 중요한 신규 보안 문제를 조사하고 해결하세요. - -## 참고 자료 - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: /ko/security/cloud_security_management/ -[2]: /ko/security/misconfigurations/ -[3]: /ko/security/threats/ -[4]: https://app.datadoghq.com/account/settings/agent/latest -[5]: /ko/security/threats/setup/?tab=kuberneteshelm#configure-the-csm-threats-agent -[6]: /ko/security/threats/setup/?tab=docker#configure-the-csm-threats-agent -[7]: /ko/security/threats/setup/?tab=hostothers#configure-the-csm-threats-agent -[8]: /ko/security/misconfigurations/setup?tab=kubernetes -[9]: /ko/security/misconfigurations/setup?tab=docker -[10]: /ko/security/misconfigurations/setup?tab=aws -[11]: /ko/security/misconfigurations/setup?tab=azure -[12]: /ko/security/misconfigurations/setup?tab=googlecloud -[13]: https://app.datadoghq.com/security/csm -[14]: /ko/security/default_rules/#cat-cloud-security-management -[15]: /ko/security/misconfigurations/signals_explorer/ -[16]: /ko/security/misconfigurations/findings/ -[17]: https://app.datadoghq.com/security/configuration/notification-rules -[18]: /ko/security/cloud_security_management/guide/tuning-rules/ -[19]: /ko/security/misconfigurations/custom_rules -[20]: /ko/security/threats/agent_expressions -[21]: /ko/security/misconfigurations/frameworks_and_benchmarks -[22]: /ko/dashboards/#overview -[23]: /ko/security/cloud_security_management/setup/csm_pro?tab=aws#configure-csm-for-container-vulnerabilities -[24]: /ko/security/cloud_security_management/setup/csm_enterprise?tab=aws#configure-csm-for-vulnerabilities -[25]: https://app.datadoghq.com/containers/images -[26]: /ko/integrations/amazon_web_services/?tab=roledelegation#cloud-security-posture-management -[27]: /ko/integrations/amazon_cloudtrail/#send-logs-to-datadog -[28]: /ko/security/identity_risks/ -[29]: https://app.datadoghq.com/security/identities -[30]: https://app.datadoghq.com/security/infra-vulnerability -[31]: https://app.datadoghq.com/security/configuration/reports \ No newline at end of file diff --git a/content/ko/getting_started/cloud_siem/_index.md b/content/ko/getting_started/cloud_siem/_index.md deleted file mode 100644 index 16566f50dc9..00000000000 --- a/content/ko/getting_started/cloud_siem/_index.md +++ /dev/null @@ -1,140 +0,0 @@ ---- -aliases: -- /ko/cloud-siem/getting_started/ -- /ko/security_monitoring/getting_started/ -- /ko/security_platform/security_monitoring/ -- /ko/security_platform/security_monitoring/getting_started -- /ko/security_platform/getting_started/ -- /ko/security_platform/cloud_siem/getting_started/ -- /ko/security/cloud_siem/getting_started/ -further_reading: -- link: https://learn.datadoghq.com/courses/intro-to-cloud-siem - tag: 학습 센터 - text: Cloud SIEM 코스 소개 -- link: https://www.datadoghq.com/blog/automate-security-tasks-with-workflows-and-cloud-siem/ - tag: 블로그 - text: Datadog 워크플로 및 Cloud SIEM으로 일반적인 보안 작업을 자동화하고 위협에 대비하세요. -- link: https://app.datadoghq.com/workflow/blueprints?selected_category=SECURITY - tag: App - text: Workflows 보안 블루프린트로 응답 자동화하기 -- link: /security/cloud_siem/guide/aws-config-guide-for-cloud-siem/ - tag: 설명서 - text: Cloud SIEM용 AWS 설정 가이드 -- link: /security/cloud_siem/guide/google-cloud-config-guide-for-cloud-siem/ - tag: 설명서 - text: Cloud SIEM용 Google Cloud 설정 가이드 -- link: /security/cloud_siem/guide/azure-config-guide-for-cloud-siem/ - tag: 설명서 - text: Cloud SIEM용 Azure 설정 가이드 -- link: /security/notifications/variables/ - tag: 설명서 - text: 알림 변수에 대해 자세히 알아보고 알림을 사용자 지정하세요. -- link: https://dtdg.co/fe - tag: 기반 활성화 - text: 대화형 세션에 참여하여 보안 및 위협 탐지를 강화하세요. -- link: https://securitylabs.datadoghq.com/ - tag: 보안 연구소 - text: Datadog의 보안 연구소에서 보안 관련 주제에 대해 읽어보세요. -- link: https://www.datadoghq.com/blog/content-packs/ - tag: 블로그 - text: Cloud SIEM Content Packs로 보안 로그를 쉽게 수집하고 모니터링하세요. -title: Cloud SIEM 시작하기 ---- - -## 개요 - -[Datadog Cloud SIEM][1]은 애플리케이션과 인프라스트럭처에 대한 실시간 위협을 탐지합니다. 이러한 위협에는 표적 공격, 위협 정보 목록에 있는 IP가 시스템과 통신하거나 안전하지 않은 설정이 포함될 수 있습니다. 위협이 감지되면 신호가 생성되고 팀에 알림이 전송됩니다. - -이 가이드에서는 Cloud SIEM을 시작하기 위한 모범 사례를 안내합니다. - -## 1단계: 설정 - -1. 소스에서 로그를 수집하도록 [로그 수집][2]을 설정합니다. 또한, [로그 관리 모범 사례][3]를 검토합니다. - - [즉시 사용 가능한 통합 파이프라인][4]을 사용하여 {{< translate key="integration_count" >}} 통합 이상에 대한 로그를 수집하거나 [커스텀 로그 파이프라인을 만들어][5] 전송할 수 있습니다: - - - [Cloud Audit 로그][6] - - [Identity Provider 로그][7] - - SaaS 및 Workspace 로그 - - 타사 보안 통합(예: Amazon GuardDuty) - -2. [Cloud SIEM][8]을 활성화합니다. -3. 중요한 보안 로그 소스에 즉시 사용 가능한 콘텐츠를 제공하는 [콘텐츠 팩][9]을 선택 및 설정합니다. -4. 클라우드 보안 정보와 이벤트 관리(SIEM)에서 분석할 [추가 로그 소스][10]를 선택 및 설정합니다. -5. **활성화**를 클릭합니다. 커스텀 클라우드 보안 정보와 이벤트 관리(SIEM) 로그 인덱스(`cloud-siem-xxxx`)가 생성됩니다. -6. Cloud SIEM 설정 페이지에 '클라우드 SIEM 인덱스가 첫 번째 순서에 위치하지 않습니다'라는 경고가 표시되면, [클라우드 SIEM 인덱스 재정렬](#reorder-the-cloud-siem-index) 섹션의 단계를 따르세요. - -### 클라우드 보안 정보와 이벤트 관리(SIEM) 인덱스 재정렬 - -{{< img src="getting_started/cloud_siem/cloud-siem-setup-warning.png" alt="인덱스 설정에 주의를 기울여야 한다고 알려 주는 노란색 경고 창" style="width:80%;">}} - -1. **로그 설정에서 인덱스 재정렬**을 클릭합니다. - -2. 모달 제목에 'Move cloud-siem-xxxx to...'라고 표시되고 인덱스 컬럼의 `cloud-siem-xxxx` 텍스트가 연한 보라색인지 확인합니다. - -{{< img src="getting_started/cloud_siem/move-index-modal.png" alt="cloud-siem-xxxx 인덱스가 가장 최근 인덱스인 인덱스 목록을 보여주는 이동 cloud-siem-xxxx 모달" style="width:60%;">}} - -3. 인덱스의 새 위치를 선택하려면 `cloud-siem-xxxx`을 이동시키려는 인덱스의 맨 윗줄을 클릭합니다. 예를 들어, `cloud-siem-xxxx` 인덱스를 첫 번째 인덱스로 설정하려면 현재 첫 번째 인덱스의 *상위*에 있는 줄을 클릭합니다. 새 위치는 굵은 파란색 선으로 강조 표시됩니다. - -{{< img src="getting_started/cloud_siem/move-index-highlight.png" alt="첫 번째 인덱스의 윗 줄이 파란색 줄로 강조 표시된 이동 cloud-siem-xxxx 모달" style="width:65%;">}} - -4. 텍스트가 선택된 위치를 확인합니다. '인덱스의 새 위치를 위치 1으로 선택합니다.' 그런 다음 **이동**을 클릭합니다. - -5. 경고 문구를 확인합니다. 변경 사항을 확인했다면 **재정렬**을 클릭합니다. - -6. 인덱스 순서를 검토하고 `cloud-siem-xxxx` 인덱스가 원하는 위치에 있는지 확인합니다. 인덱스를 이동하려면 **이동** 아이콘을 클릭하고 3 ~ 5단계를 따릅니다. - -7. [클라우드 SIEM 상태 페이지][11]로 이동하세요. - -이제 클라우드 SIEM 인덱스가 첫 번째 인덱스에 위치해야 합니다. 설정 페이지에 계속해서 인덱스 위치에 대한 경고가 표시된다면 몇 분 정도 기다렸다가 브라우저를 새로 고침하세요. - -인덱스가 첫 번째 인덱스 위치로 이동하면 [콘텐츠 팩][11] 및 [기타 로그 소스][11]의 설정 및 상태를 검토합니다. 경고나 오류가 표시되는 각 통합의 경우 해당 통합을 클릭하고 지침에 따라 문제를 해결합니다. - -## 2단계: 신호 탐색 - -1. 사용자 환경에서 위협을 즉시 탐지하기 시작하는 [기본 제공 탐지 규칙][12]을 검토하세요. 탐지 규칙은 처리된 모든 로그에 적용되어 탐지 범위를 최대화합니다. 자세한 내용을 확인하려면 [탐지 규칙][13] 설명서를 참조하세요. - -2. [보안 신호][14]를 살펴보세요. 탐지 규칙으로 위협이 탐지되면 보안 신호가 생성됩니다. 자세한 내용을 확인하려면 [보안 신호][15] 설명서를 참조하세요. - - - [알림 규칙 설정][16]을 통해 신호가 생성될 때 알림을 받도록 설정합니다. Slack, Jira, 이메일, 웹훅 및 기타 통합을 사용하여 알림을 보낼 수 있습니다. 자세한 내용을 확인하려면 [알림 규칙][17] 설명서를 참조하세요. - - 주간 [위협 요약][18] 보고서를 구독하면 지난 7일 동안 발견된 가장 중요한 보안 위협에 대한 조사 및 문제 해결 작업을 시작할 수 있습니다. - -## 3단계: 조사 - -1. 더 빠른 해결을 위해 [Investigator][19]를 살펴보세요. 자세한 내용은 [Investigator][20] 문서를 참조하세요. -2. 조사, 보고 및 모니터링을 위해 [즉시 사용 가능한 대시보드][21]를 사용하거나 [자체 대시보드를 생성합니다][22]. - -## 4단계: 맞춤 설정 - -1. 노이즈를 줄이기 위해 [억제 규칙][23]을 설정합니다. -2. [커스텀 탐지 규칙][24]을 생성하고, [탐지 규칙 생성 모범 사례][25]를 검토하세요. - -## 참고 자료 - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: /ko/security/cloud_siem/ -[2]: https://app.datadoghq.com/security/configuration/siem/log-sources -[3]: /ko/logs/guide/best-practices-for-log-management/ -[4]: /ko/integrations/ -[5]: /ko/logs/log_configuration/pipelines/ -[6]: https://www.datadoghq.com/blog/monitoring-cloudtrail-logs/ -[7]: https://www.datadoghq.com/blog/how-to-monitor-authentication-logs/ -[8]: https://app.datadoghq.com/security/landing -[9]: https://app.datadoghq.com/security/content-packs -[10]: https://app.datadoghq.com/security/configuration/siem/log-sources -[11]: https://app.datadoghq.com/security/configuration/siem/setup -[12]: /ko/security/default_rules/#cat-cloud-siem-log-detection -[13]: /ko/security/detection_rules/ -[14]: https://app.datadoghq.com/security?query=%40workflow.rule.type%3A%28%22Log%20Detection%22%20OR%20%22Signal%20Correlation%22%29&column=time&order=desc&product=siem&view=signal&viz=stream&start=1676321431953&end=1676407831953&paused=false -[15]: /ko/security/cloud_siem/investigate_security_signals -[16]: https://app.datadoghq.com/security/configuration/notification-rules -[17]: /ko/security/notifications/rules/ -[18]: https://app.datadoghq.com/security/configuration/reports -[19]: https://app.datadoghq.com/security/investigator/ -[20]: /ko/security/cloud_siem/investigator -[21]: https://app.datadoghq.com/dashboard/lists/preset/100 -[22]: /ko/dashboards/#overview -[23]: /ko/security/cloud_siem/detection_rules/?tab=threshold#advanced-options -[24]: /ko/security/cloud_siem/detection_rules/ -[25]: https://www.datadoghq.com/blog/writing-datadog-security-detection-rules/ \ No newline at end of file diff --git a/content/ko/getting_started/synthetics/private_location.md b/content/ko/getting_started/synthetics/private_location.md index 83c71804fb0..7889aea754a 100644 --- a/content/ko/getting_started/synthetics/private_location.md +++ b/content/ko/getting_started/synthetics/private_location.md @@ -15,23 +15,23 @@ further_reading: title: 프라이빗 위치로 시작하기 --- -
-Windows 개인 위치 베타에 추가하려면 Datadog 지원팀에 문의하세요. -
- ## 개요 -프라이빗 위치를 사용하면 **내부용 애플리케이션의 모니터링**이나, 공용 인터넷에서 액세스할 수 없는 비공개(프라이빗) URL의 모니터링을 수행할 수 있습니다. +프라이빗 위치를 사용하면 **내부용 애플리케이션의 모니터링**이나, 공용 인터넷에서 액세스할 수 없는 비공개(프라이빗) URL의 모니터링을 할 수 있습니다. -{{< img src="getting_started/synthetics/pl-list.png" alt="설정 페이지에 표시된 프라이빗 위치 목록" style="width:100%;">}} +{{< img src="synthetics/private_locations/private_locations_worker_1.png" alt="신서틱(Synthetic) 모니터링에서 프라이빗 위치가 작동하는 방식에 대한 아키텍처 다이어그램" style="width:100%;">}} 프라이빗 위치는 다음에도 사용할 수 있습니다. - 비즈니스 핵심 영역에 **커스텀 위치를 생성**합니다. -- [CI/CD 파이프라인에서 신서틱 테스트][1]를 사용하여 실제 환경에 신기능을 출시하기 전에 **내부 테스트 환경에서 애플리케이션 성능을 확인**합니다. +- [CI/CD 파이프라인에서 신서틱 테스트][1]로 새 기능을 프로덕션에 출시하기 전에 **내부 테스팅 환경에서 애플리케이션 성능을 검증**하세요. - 내부 네트워크의 내외부에서 **애플리케이션 성능을 비교**합니다. -프라이빗 위치는 프라이빗 네트워크 내 어디서나 설치할 수 있는 Docker 컨테이너입니다. Google Container Registry를 통해 [프라이빗 위치 워커 이미지][2]에 접근할 수 있습니다. +프라이빗 위치란 프라이빗 네트워크 내에서 설치할 수 있는 Docker 컨테이너나 Windows 서비스 위치 중 한 곳이 될 수 있습니다. [Google Container Registry][2]에서 docker 이미지를 가져오거나 [Windows 인스톨러][13]를 다운로드하세요.**\*** + +**참고**: Docker 컨테이너의 프라이빗 위치는 amd64 아키텍처에서만 지원됩니다. arm63 지원과 관련한 질문이 있을 경우에는 [Datadog 고객지원팀][15]에 문의하세요. + +**\*** **본 소프트웨어의 사용 및 운영은 [여기][14]**에서 확인할 수 있는 최종 사용자 라이선스 계약의 적용을 받습니다. 프라이빗 위치를 생성하고 설치한 후에는 관리형 위치(Managed location)와 마찬가지로 [신서틱 테스트][3]를 프라이빗 위치에 할당할 수 있습니다. @@ -41,36 +41,38 @@ Windows 개인 위치 베타에 추가하려면 Podman과 같은 다른 컨테이너 런타임을 사용할 수 있습니다. 자세한 내용은 개인 위치 설명서를 참고하세요. +
Podman과 같은 또 다른 컨테이너 런타임을 사용할 수 있습니다. 더 많은 정보를 보려면 프라이빗 위치 설명서를 참고하세요.
-11. 프라이빗 위치에서 Datadog로 정확하게 보고한다면 건전성 상태가 **Private Location Status** 및 **Settings** 페이지의 **Private Locations** 에서 `OK`로 표시됩니다. + Windows를 사용할 경우 [GUI로 신서틱 프라이빗 위치 인스톨러를 실행][12]하거나 인스톨러를 다운로드 받은 디렉터리 내 명령줄에서 `msiexec` 명령을 실행합니다. + + ```shell + msiexec /i datadog-synthetics-worker-{{< synthetics-worker-version "synthetics-windows-pl" >}}.amd64.msi + ``` + +10. 프라이빗 위치에서 Datadog로 정확하게 보고한다면 건전성 상태가 **Private Location Status** 및 **Settings** 페이지의 **Private Locations** 에서 `OK`로 표시됩니다. {{< img src="synthetics/private_locations/pl_health.png" alt="프라이빗 위치 건전성" style="width:100%;">}} @@ -81,9 +83,7 @@ Windows 개인 위치 베타에 추가하려면 }} + + [1]: /ko/continuous_testing/cicd_integrations [2]: https://console.cloud.google.com/gcr/images/datadoghq/GLOBAL/synthetics-private-location-worker?pli=1 [3]: /ko/getting_started/synthetics/ [4]: https://docs.docker.com/install/linux/docker-ce/ubuntu/#install-docker-ce -[5]: https://app.datadoghq.com/synthetics/list +[5]: https://app.datadoghq.com/synthetics/settings/private-locations [6]: /ko/synthetics/private_locations/configuration/#configuration-options [7]: /ko/synthetics/private_locations/?tab=docker#blocking-reserved-ips [8]: /ko/getting_started/synthetics/api_test#create-a-multistep-api-test [9]: /ko/getting_started/synthetics/browser_test [10]: https://podman.io/ -[11]: https://app.vagrantup.com/ubuntu/boxes/jammy64 \ No newline at end of file +[11]: https://app.vagrantup.com/ubuntu/boxes/jammy64 +[12]: /ko/synthetics/private_locations?tab=windows#install-your-private-location +[13]: https://ddsynthetics-windows.s3.amazonaws.com/datadog-synthetics-worker-{{< synthetics-worker-version "synthetics-windows-pl" >}}.amd64.msi +[14]: https://www.datadoghq.com/legal/eula/ +[15]: https://www.datadoghq.com/support/ \ No newline at end of file diff --git a/content/ko/integrations/amazon_api_gateway.md b/content/ko/integrations/amazon_api_gateway.md index 937837c06ee..0c0fd78d789 100644 --- a/content/ko/integrations/amazon_api_gateway.md +++ b/content/ko/integrations/amazon_api_gateway.md @@ -13,7 +13,7 @@ assets: metrics: check: - aws.apigateway.latency - metadata_path: metadata.csv + metadata_path: assets/metrics/metric-spec.yaml prefix: aws.apigateway service_checks: metadata_path: assets/service_checks.json @@ -155,5 +155,5 @@ Amazon API Gateway 통합에는 어떠한 서비스 점검도 포함되지 않 [4]: https://app.datadoghq.com/integrations/amazon-api-gateway [5]: https://docs.datadoghq.com/ko/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function [6]: https://app.datadoghq.com/logs -[7]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_api_gateway/amazon_api_gateway_metadata.csv +[7]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_api_gateway/assets/metrics/metric-spec.yaml [8]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/amazon_billing.md b/content/ko/integrations/amazon_billing.md index 74be31beacb..99b6d81fc2d 100644 --- a/content/ko/integrations/amazon_billing.md +++ b/content/ko/integrations/amazon_billing.md @@ -11,7 +11,7 @@ assets: metrics: check: - aws.billing.estimated_charges - metadata_path: metadata.csv + metadata_path: assets/metrics/metric-spec.yaml prefix: aws.billing service_checks: metadata_path: assets/service_checks.json @@ -127,5 +127,5 @@ AWS 빌링 및 비용 관리 통합은 서비스 점검을 포함하지 않습 [4]: https://docs.datadoghq.com/ko/logs/guide/forwarder/ [5]: https://docs.datadoghq.com/ko/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-s3-buckets [6]: https://docs.datadoghq.com/ko/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-cloudwatch-log-group -[7]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_billing/metadata.csv +[7]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_billing/assets/metrics/metric-spec.yaml [8]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/amazon_dynamodb.md b/content/ko/integrations/amazon_dynamodb.md index cee24b72e35..3fe8e107a3d 100644 --- a/content/ko/integrations/amazon_dynamodb.md +++ b/content/ko/integrations/amazon_dynamodb.md @@ -13,7 +13,7 @@ assets: metrics: check: - aws.dynamodb.table_size - metadata_path: metadata.csv + metadata_path: assets/metrics/metric-spec.yaml prefix: aws.dynamodb service_checks: metadata_path: assets/service_checks.json @@ -99,8 +99,8 @@ AWS CloudTrail에서 [트레일을 생성][7]한 다음 로그를 작성할 S3 #### Datadog로 로그 전송 -1. 아직 설정하지 않았다면 AWS 계정에서 [Datadog Forwarder Lambda 함수][8]를 설정하세요. -2. 설정한 후에는 Datadog Forwarder Lambda 함수로 이동하세요. Function Overview 섹션에서 **Add Trigger**를 클릭합니다. +1. 이미 하지 않은 경우 AWS 계정에서 [Datadog 포워더(Forwarder) 람다 함수][8]를 설정하세요. +2. 설정한 후에는 Datadog Forwarder Lambda 함수로 이동합니다. Function Overview 섹션에서 **Add Trigger**를 클릭합니다. 3. 트리거 설정에 대해 **S3** 트리거를 선택합니다. 4. Amazon DynamoDB가 포함된 S3 버킷을 선택합니다. 5. 이벤트 유형을 `All object create events`로 남겨둡니다. @@ -140,5 +140,5 @@ Amazon DynamoDB 통합은 서비스 점검을 포함하지 않습니다. [8]: https://docs.datadoghq.com/ko/logs/guide/forwarder/ [9]: https://app.datadoghq.com/logs [10]: https://docs.datadoghq.com/ko/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/ -[11]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_dynamodb/amazon_dynamodb_metadata.csv +[11]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_dynamodb/assets/metrics/metric-spec.yaml [12]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/amazon_es.md b/content/ko/integrations/amazon_es.md index c8286b0d36e..9067ba210c7 100644 --- a/content/ko/integrations/amazon_es.md +++ b/content/ko/integrations/amazon_es.md @@ -11,7 +11,7 @@ assets: metrics: check: - aws.es.cpuutilization - metadata_path: metadata.csv + metadata_path: assets/metrics/metric-spec.yaml prefix: aws.es. service_checks: metadata_path: assets/service_checks.json @@ -114,5 +114,5 @@ Amazon OpenSearch Service 통합에는 서비스 점검이 포함되어 있지 [5]: https://docs.datadoghq.com/ko/logs/guide/forwarder/ [6]: https://docs.datadoghq.com/ko/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-s3-buckets [7]: https://docs.datadoghq.com/ko/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#manually-set-up-triggers -[8]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_es/metadata.csv +[8]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_es/assets/metrics/metric-spec.yaml [9]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/external_dns.md b/content/ko/integrations/external_dns.md index dcb13ee3a79..53ee23e8c99 100644 --- a/content/ko/integrations/external_dns.md +++ b/content/ko/integrations/external_dns.md @@ -31,7 +31,7 @@ draft: false git_integration_title: external_dns integration_id: external-dns integration_title: 외부 DNS -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: external_dns diff --git a/content/ko/integrations/guide/azure-status-metric.md b/content/ko/integrations/guide/azure-status-metric.md deleted file mode 100644 index 262ca4d60f2..00000000000 --- a/content/ko/integrations/guide/azure-status-metric.md +++ /dev/null @@ -1,80 +0,0 @@ ---- -aliases: -- /ko/integrations/faq/azure-vm-status-is-not-reporting -- /ko/integrations/faq/azure-status-metric -title: Azure 상태 및 개수 메트릭 ---- - -## 개요 - -Datadog은 [Azure 통합][1]으로 모니터링되는 각 리소스에 대해 두 가지 추가 메트릭(`azure.*.status` 및 `azure.*.count`)을 생성합니다. 예를 들어 Datadog 보고서 `azure.vm.status` 및 `azure.vm.count`, 이 두 메트릭은 유사한 정보를 다룹니다. - -`azure.*.count` 메트릭은 지원 중단된 `azure.*.status`의 개선 항목입니다. - -## 개수 메트릭 - -`azure.*.count` 메트릭은 두 개의 기본적인 정보를 제공합니다. - -- 해당 유형의 리소스 수입니다. -- Azure에서 보고한 각 리소스 상태입니다. - -`azure.*.count` 메트릭은 해당 리소스 유형에 대한 다른 메트릭과 동일한 네임스페이스로 생성됩니다. 예: `azure.network_loadbalancers.count`. 해당 네임스페이스에 있는 다른 메트릭과 같이 동일한 메타데이터 태그 모두와 함께 `status`에 대한 추가 태그를 포함합니다. - -### 사용 사례 - -`azure.*.count` 메트릭을 사용해 다음을 수행합니다. - -- 모든 항목에 대해 `azure.vm.count`를 그래프로 표시하고 `status`로 합산하여 시간 경과에 따른 상태별로 분류된 가상 머신 수에 대한 보기를 만듭니다. -- 특정 리소스 유형의 수를 표시하려면 대시보드에 쿼리 위젯을 만듭니다. 사용 가능한 태그를 사용하여 지역, 리소스 그룹, 종류 또는 상태와 같은 관련 집계로 개수 범위를 지정합니다. -- 다양한 Azure 리소스의 상태에 대해 경고하는 모니터를 만듭니다. - -**참고**: 경우에 따라 기본 시각화 설정으로 인해 차트나 쿼리 위젯에서 리소스가 간헐적으로 이중 계산되는 것처럼 나타날 수 있습니다. 이는 특정 상태로 범위가 지정된 모니터나 위젯에는 영향을 미치지 않습니다. -보간 > 없음 또는 `.fill(null)` 사용으로 설정하거나 차트 또는 쿼리 위젯에서 [보간][2]을 끄면 이 효과를 줄일 수 있습니다. - -대부분의 리소스 유형의 경우, 가능한 상태는 아래와 같습니다. - -- 실행 중 -- 사용 불가 -- 알 수 없음 -- 강등됨 -- 실패 - -가상 기기 상태는 아래처럼 더욱 상세합니다. - -- 실행 중 -- 지원됨_재할당됨 -- 중단됨 -- 알 수 없음 -- 사용 불가 -- 강등됨 -- 실패 - -`query_failed` 상태를 확인한 경우 Azure에서 [리소스 상태 제공업체](#troubleshooting)를 활성화합니다. - -## 상태 메트릭 - -`azure.*.status` 메트릭은 이와 동일한 유형의 정보에 대한 이전 솔루션입니다. 각 Azure 리소스 유형에 사용 가능한 리소스 수를 보고합니다. - -### 차이 - -`.status` 및 `.count` 메트릭 간 주요 차이점은 다음과 같습니다. - -- `azure.*.count`는 Azure 계정에 존재하는 모든 리소스를 포함하며 `azure.*.status`는 사용 가능한 리소스 수만 보고합니다. -- `azure.*.status`는 리소스 유형에 대한 표준 태그만 포함하며 `azure.*.count`는 리소스의 특정 가용성 상태를 보고하는 `status` 태그를 포함합니다. -- `azure.*.count` 메트릭 값의 정확도와 신뢰도가 향상되었습니다. - -## 트러블슈팅 - -Azure 통합이 메트릭을 보고하지만 `azure.*.status`를 보고하지 않거나 `azure.*.count`를 반환하는 경우 Azure 구독에서 Azure 리소스 상태 공급자를 등록해야 합니다. - -Azure 명령줄 인터페이스 사용하기: -```bash -azure login # Datadog 계정과 연결된 Azure 사용자에 로그인하세요. -azure config mode arm -azure provider register Microsoft.ResourceHealth -``` - -`azure.*.status` 메트릭이 5~10분 내 Datadog에 표시되어야 합니다. - -[1]: /ko/integrations/azure/ -[2]: /ko/metrics/guide/interpolation-the-fill-modifier-explained/ \ No newline at end of file diff --git a/content/ko/integrations/harbor.md b/content/ko/integrations/harbor.md index 992dcb15f98..2007e985876 100644 --- a/content/ko/integrations/harbor.md +++ b/content/ko/integrations/harbor.md @@ -34,7 +34,7 @@ draft: false git_integration_title: harbor integration_id: harbor integration_title: Harbor -integration_version: 3.2.2 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: harbor diff --git a/content/ko/integrations/ibm_was.md b/content/ko/integrations/ibm_was.md index 0f0fc748a0e..985c41c0422 100644 --- a/content/ko/integrations/ibm_was.md +++ b/content/ko/integrations/ibm_was.md @@ -34,7 +34,7 @@ draft: false git_integration_title: ibm_was integration_id: ibm-was integration_title: IBM WAS -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: ibm_was diff --git a/content/ko/integrations/kube_controller_manager.md b/content/ko/integrations/kube_controller_manager.md new file mode 100644 index 00000000000..686651122a1 --- /dev/null +++ b/content/ko/integrations/kube_controller_manager.md @@ -0,0 +1,124 @@ +--- +app_id: kube-controller-manager +app_uuid: 25d4ccd6-de50-4ef0-849f-b7ab1aea203e +assets: + dashboards: + kube_controller_manager: assets/dashboards/overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: kube_controller_manager.threads + metadata_path: metadata.csv + prefix: kube_controller_manager. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10055 + source_type_name: Kubernetes Controller Manager +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- ㅊ +- 쿠버네티스(Kubernetes) +- orchestration +custom_kind: integration +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/kube_controller_manager/README.md +display_on_public_website: true +draft: false +git_integration_title: kube_controller_manager +integration_id: kube-controller-manager +integration_title: Kubernetes Controller Manager +integration_version: 7.1.0 +is_public: true +manifest_version: 2.0.0 +name: kube_controller_manager +public_title: Kubernetes Controller Manager +short_description: Kubernetes Controller Manager 모니터링 +supported_os: +- 리눅스 +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Containers + - Category::Kubernetes + - Category::Orchestration + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - 제공::통합 + configuration: README.md#Setup + description: Kubernetes Controller Manager 모니터링 + media: [] + overview: README.md#Overview + support: README.md#Support + title: Kubernetes Controller Manager +--- + + + + +![Kube Controller Manager 대시보드][1] + +## 개요 + +이 점검은 Kubernetes 컨트롤 플레인의 일부인 [Kubernetes Controller Manager][2]를 모니터링합니다. + +**참고**: 이 점검은 해당 서비스가 노출되지 않기 때문에 Amazon EKS 클러스터에 대한 데이터를 수집하지 않습니다. + +## 설정 + +### 설치 + +Kubernetes Controller Manager 점검은 [Datadog Agent][3] 패키지에 포함되어 있으므로 서버에 추가 설치할 필요가 없습니다. + +### 구성 + +1. Agent의 설정 디렉터리 루트에서 `conf.d/` 폴더에 있는 `kube_controller_manager.d/conf.yaml` 파일을 편집하여 kube_controller_manager 성능 데이터 수집을 시작합니다. 사용 가능한 모든 설정 옵션은 [샘플 kube_controller_manager.d/conf.yaml][4]을 참조하세요. + +2. [Agent를 재시작합니다][5] + +이 통합을 위해서는 컨트롤러 관리자의 메트릭 엔드포인트에 대한 액세스가 필요합니다. 메트릭 엔드포인트에 액세스하려면 다음을 수행해야 합니다. + +* controller-manager 프로세스의 IP/포트에 대한 액세스가 있어야 합니다. +* /metrics 엔드포인트에 대한 `get` RBAC 권한이 있어야 합니다. (기본 Datadog Helm 차트에는 이미 이에 대한 올바른 RBAC 역할과 바인딩이 추가되어 있습니다.) + +### 검증 + +[Agent의 `status` 하위 명령을 실행][6]하고 Checks 섹션에서 `kube_controller_manager`를 찾습니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "kube_controller_manager" >}} + + +### 이벤트 + +Kubernetes Controller Manager 점검은 이벤트를 포함하지 않습니다. + +### 서비스 점검 +{{< get-service-checks-from-git "kube_controller_manager" >}} + + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 지원팀][9]에 문의하세요. + +[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/kube_controller_manager/images/screenshot.png +[2]: https://kubernetes.io/docs/reference/command-line-tools-reference/kube-controller-manager +[3]: https://app.datadoghq.com/account/settings/agent/latest +[4]: https://github.com/DataDog/integrations-core/blob/master/kube_controller_manager/datadog_checks/kube_controller_manager/data/conf.yaml.example +[5]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[6]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[7]: https://github.com/DataDog/integrations-core/blob/master/kube_controller_manager/metadata.csv +[8]: https://github.com/DataDog/integrations-core/blob/master/kube_controller_manager/assets/service_checks.json +[9]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/kube_metrics_server.md b/content/ko/integrations/kube_metrics_server.md index 698018e8282..a055c925ecf 100644 --- a/content/ko/integrations/kube_metrics_server.md +++ b/content/ko/integrations/kube_metrics_server.md @@ -35,7 +35,7 @@ draft: false git_integration_title: kube_metrics_server integration_id: kube-metrics-server integration_title: Kubernetes Metrics Server -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: kube_metrics_server diff --git a/content/ko/integrations/podman.md b/content/ko/integrations/podman.md new file mode 100644 index 00000000000..5cd134c963d --- /dev/null +++ b/content/ko/integrations/podman.md @@ -0,0 +1,82 @@ +--- +app_id: podman +app_uuid: ecc06845-18ac-448e-b352-1bbf31fdfcc3 +assets: + integration: + auto_install: true + configuration: {} + events: + creates_events: true + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10267 + source_type_name: Podman +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- ㅊ +custom_kind: integration +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/podman/README.md +display_on_public_website: true +draft: false +git_integration_title: podman +integration_id: podman +integration_title: Podman +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: podman +public_title: Podman +short_description: Datadog로 Podman 컨테이너 메트릭 모두 추적하기 +supported_os: +- 리눅스 +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Category::Containers + - 제공::통합 + configuration: README.md#Setup + description: Datadog로 Podman 컨테이너 메트릭 모두 추적하기 + media: [] + overview: README.md#Overview + support: README.md#Support + title: Podman +--- + + + + +[Podman][1]은 Linux 시스템에서 OCI 컨테이너를 개발, 관리, 실행하는, daemon 없는 컨테이너 엔진입니다. 컨테이너를 루트로 실행하거나 루트 없는 모드로 실행할 수 있습니다. + +## 개요 + +Podman 컨테이너 런타임은 [컨테이너 에이전트 점검][2]에서 지원됩니다. +이 점검은 시작에 사용되는 런타임과 상관 없이 실행 중인 컨테이너에서 메트릭 집합을 보고합니다. + +**참고**: `container` 점검은 컨테이너 런타임과 관계 없이 시스템에 있는 모든 컨테이너의 표준 메트릭을 보고합니다. + +## 설정 + +### 설치 + +[Podman][1]에서 관리하는 컨테이너를 모니터링하려면 [컨테이너 에이전트 점검][2]의 [설치 지침][3]을 참고하세요. + +## 수집한 데이터 + +### 메트릭 + +본 통합에서 제공하는 메트릭 목록을 보려면 [metadata.csv][4]를 참고하세요. + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 고객지원][1]에 연락하세요. + +[1]: https://podman.io/ +[2]: https://docs.datadoghq.com/ko/integrations/container/ +[3]: https://docs.datadoghq.com/ko/integrations/container/#setup +[4]: https://github.com/DataDog/integrations-core/blob/master/container/metadata.csv \ No newline at end of file diff --git a/content/ko/integrations/portworx.md b/content/ko/integrations/portworx.md new file mode 100644 index 00000000000..104eac414de --- /dev/null +++ b/content/ko/integrations/portworx.md @@ -0,0 +1,146 @@ +--- +app_id: portworx +app_uuid: e682ab93-39cd-403b-a16f-8082961bc081 +assets: + integration: + auto_install: true + configuration: {} + events: + creates_events: false + metrics: + check: portworx.cluster.cpu_percent + metadata_path: metadata.csv + prefix: portworx. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10021 + source_type_name: Portworx +author: + homepage: https://github.com/DataDog/integrations-extras + name: Portworx + sales_email: paul@portworx.com + support_email: paul@portworx.com +categories: +- 쿠버네티스(Kubernetes) +- 데이터 스토어 +custom_kind: integration +dependencies: +- https://github.com/DataDog/integrations-extras/blob/master/portworx/README.md +display_on_public_website: true +draft: false +git_integration_title: portworx +integration_id: portworx +integration_title: Portworx +integration_version: 1.1.0 +is_public: true +manifest_version: 2.0.0 +name: portworx +public_title: Portworx +short_description: Portworx 인스턴스에서 런타임 메트릭을 수집합니다. +supported_os: +- 리눅스 +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Kubernetes + - 카테고리::데이터 저장 + - Supported OS::Linux + - 제공::통합 + configuration: README.md#Setup + description: Portworx 인스턴스에서 런타임 메트릭을 수집합니다. + media: [] + overview: README.md#Overview + resources: + - resource_type: 블로그 + url: https://www.datadoghq.com/blog/portworx-integration/ + support: README.md#Support + title: Portworx +--- + + + + +## 개요 + +Portworx 서비스에서 실시간으로 메트릭을 수집하면 다음을 할 수 있습니다. + +- Portworx 클러스터의 상태 및 성능 모니터링 +- Portworx 볼륨 디스크 사용량, 지연 시간, 처리량 추적 + +## 설정 + +Portworx 점검은 [Datadog 에이전트][2] 패키지에 포함되어 있지 않기 때문에 설치해야 합니다. + +### 설치 + +에이전트 v7.21+/v6.21+의 경우, 하단 지침에 따라 호스트에 Portworx 점검을 설치하세요. Docker 에이전트 또는 이전 버전의 에이전트와 같이 설치하려면 [커뮤니티 통합 사용][4]을 참고하세요. + +1. 다음 명령어를 실행해 에이전트 통합을 설치하세요. + + ```shell + datadog-agent integration install -t datadog-portworx== + ``` + +2. 통합을 코어 [통합][3]과 유사하게 설정하세요. + +### 구성 + +1. [에이전트 설정 디렉터리][4]의 루트에 있는 `conf.d/` 폴더에서 `portworx.d/conf.yaml` 파일을 편집하여 Portworx [메트릭](#metrics) 수집을 시작합니다. 사용 가능한 모든 설정 옵션은 [portworx.d/conf.yaml 샘플][5]을 참고하세요. + + ```yaml + init_config: + + instances: + # url of the metrics endpoint of prometheus + - prometheus_endpoint: http://localhost:9001/metrics + ``` + +2. [에이전트 재시작][6] + +### 검증 + +[에이전트의 `info` 하위 명령을 실행][7]하면 다음과 같은 화면이 표시됩니다. + +## 호환성 + +Portworx 점검은 Portworx 1.4.0 및 이전 버전과 호환됩니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "portworx" >}} + + +### 이벤트 + +Portworx 점검에는 이벤트가 포함되지 않습니다. + +## 트러블슈팅 + +### 에이전트 연결 불가 + +```text + portworx + ------- + - instance #0 [ERROR]: "('Connection aborted.', error(111, 'Connection refused'))" + - Collected 0 metrics, 0 events & 0 service check +``` + +`portworx.yaml`에 있는 `url`이 올바른지 확인하세요. + +## 참고 자료 + +기타 유용한 문서, 링크 및 기사: + +- [Portworx와 Datadog로 멀티 클라우드 컨테이너 스토리지 모니터링][9] + + +[1]: https://app.datadoghq.com/account/settings/agent/latest +[2]: https://docs.datadoghq.com/ko/agent/guide/use-community-integrations/ +[3]: https://docs.datadoghq.com/ko/getting_started/integrations/ +[4]: https://docs.datadoghq.com/ko/agent/guide/agent-configuration-files/#agent-configuration-directory +[5]: https://github.com/DataDog/integrations-extras/blob/master/portworx/datadog_checks/portworx/data/conf.yaml.example +[6]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[7]: https://docs.datadoghq.com/ko/agent/faq/agent-status-and-information/ +[8]: https://github.com/DataDog/integrations-extras/blob/master/portworx/metadata.csv +[9]: https://www.datadoghq.com/blog/portworx-integration/ \ No newline at end of file diff --git a/content/ko/integrations/postfix.md b/content/ko/integrations/postfix.md new file mode 100644 index 00000000000..c39ceeb6c29 --- /dev/null +++ b/content/ko/integrations/postfix.md @@ -0,0 +1,259 @@ +--- +app_id: postfix +app_uuid: 76293d0a-1cde-4f25-ae72-c3e6ef352273 +assets: + dashboards: + postfix: assets/dashboards/postfix_dashboard.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: postfix.queue.size + metadata_path: metadata.csv + prefix: postfix. + process_signatures: + - postfix start + - sendmail -bd + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 66 + source_type_name: Postfix + saved_views: + postfix_processes: assets/saved_views/postfix_processes.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- log collection +custom_kind: 통합 +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/postfix/README.md +display_on_public_website: true +draft: false +git_integration_title: postfix +integration_id: postfix +integration_title: Postfix +integration_version: 3.0.0 +is_public: true +manifest_version: 2.0.0 +name: postfix +public_title: Postfix +short_description: Postfix 대기열 규모 모니터링하기 +supported_os: +- linux +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Log Collection + - Supported OS::Linux + - Supported OS::macOS + - Offering::Integration + configuration: README.md#Setup + description: Postfix 대기열 규모 모니터링하기 + media: [] + overview: README.md#Overview + resources: + - resource_type: 블로그 + url: https://www.datadoghq.com/blog/monitor-postfix-queues + support: README.md#Support + title: Postfix +--- + + + + +![Postfix 그래프][1] + +## 개요 + +이 점검은 Postfix 대기열의 크기를 모니터링합니다. + +## 설정 + +### 설치 + +Postfix 점검은 [Datadog 에이전트][2] 패키지에 포함되어 있으므로 Postfix 서버에 추가 설치할 필요가 없습니다. + +### 구성 + +이 점검을 구성해 `find` 명령을 사용할 수 있습니다. 그러려면 `dd-agent`에 `sudo` 액세스를 부여해 `incoming`, `active`, `deferred` 메일 대기열의 메시지 수를 얻을 수 있습니다. + +(선택 사항) 에이전트를 구성해 내장된 `postqueue -p` 명령을 사용해 `active`, `hold`, `deferred` 메일 대기열의 메시지 수를 얻을 수 있습니다. `postqueue`의 경우 `sudo` 권한 없이 설정 그룹 ID 권한으로 실행됩니다. + +**경고**: `postqueue`를 사용해 메일 대기열을 모니터링하면 `incoming` 대기열의 메시지 수를 보고하지 않습니다. + +#### 메트릭 수집 + +##### sudo 사용 + +1. [에이전트 설정 디렉터리][3] 루트에 있는 `conf.d/` 폴더에서 `postfix.d/conf.yaml` 파일을 편집합니다. 사용 가능한 모든 옵션은 [샘플 postfix.d/conf.yaml][4]을 참고하세요. + + ```yaml + init_config: + ## @param postfix_user - string - required + ## The user running dd-agent must have passwordless sudo access for the find + ## command to run the postfix check. Here's an example: + ## example /etc/sudoers entry: + ## dd-agent ALL=(postfix) NOPASSWD:/usr/bin/find /var/spool/postfix/incoming -type f + ## + ## Redhat/CentOS/Amazon Linux flavours need to add: + ## Defaults:dd-agent !requiretty + # + postfix_user: postfix + + instances: + ## @param directory - string - optional - default: /var/spool/postfix + ## Path to the postfix directory. The directory option is required if `postqueue: false` is set. For more + ## information see https://docs.datadoghq.com/integrations/postfix/#using-sudo. + # + - directory: /var/spool/postfix + + ## @param queues - list of string - required + ## List of queues to monitor. + # + queues: + - incoming + - active + - deferred + ``` + +2. `queues`에 있는 각 메일 대기열에 대해 에이전트가 디렉터리에서 `find`를 분기합니다. 이를 위해 Postfix 사용자의 권한으로 `sudo`를 사용하기 때문에 에이전트 사용자 `dd-agent`에 다음 `/etc/sudoers` 줄을 추가해야 합니다. 이 경우 Postfix가 `postfix`로 실행된다고 추정합니다. + + ```text + dd-agent ALL=(postfix) NOPASSWD:/usr/bin/find /var/spool/postfix/incoming -type f + dd-agent ALL=(postfix) NOPASSWD:/usr/bin/find /var/spool/postfix/active -type f + dd-agent ALL=(postfix) NOPASSWD:/usr/bin/find /var/spool/postfix/deferred -type f + ``` + +3. [Agent를 재시작합니다][5] + +##### postqueue 사용 + +1. [에이전트 설정 디렉터리][3]의 루트에 있는 `conf.d/` 폴더에서 `postfix.d/conf.yaml` 파일을 편집합니다. + + ```yaml + init_config: + ## @param postqueue - boolean - optional - default: false + ## Set `postqueue: true` to gather mail queue counts using `postqueue -p` + ## without the use of sudo. Postqueue binary is ran with set-group ID privileges, + ## so that it can connect to Postfix daemon processes. + ## Only `tags` keys are used from `instances` definition. + ## Postfix has internal access controls that limit activities on the mail queue. + ## By default, Postfix allows `anyone` to view the queue. On production systems + ## where the Postfix installation may be configured with stricter access controls, + ## you may need to grant the dd-agent user access to view the mail queue. + ## + ## postconf -e "authorized_mailq_users = dd-agent" + ## + ## http://www.postfix.org/postqueue.1.html + ## + ## authorized_mailq_users (static:anyone) + ## List of users who are authorized to view the queue. + # + postqueue: true + + instances: + ## @param config_directory - string - optional + ## The config_directory option only applies when `postqueue: true`. + ## The config_directory is the location of the Postfix configuration directory + ## where main.cf lives. + # + - config_directory: /etc/postfix + + ## @param queues - list of string - required + ## List of queues to monitor. + # + queues: + - incoming + - active + - deferred + ``` + +2. `instances`에 있는 각 `config_directory`에 대해 에이전트는 Postfix 구성 디렉터리의 `postqueue -c`를 분기합니다. Postfix에는 메일 대기열의 활동을 제한할 수 있는 내부 액세스 컨트롤이 있습니다. 기본적으로 Postfix는 `anyone`(누구나) 대기열을 볼 수 있도록 합니다. Postfix 설치가 더 엄격한 액세스 컨트롤로 구성되어 있는 프로덕션 시스템의 경우, 메일 대기열을 보려면 `dd-agent` 사용자 액세스를 부여해야 할 수 있습니다. 상세한 내용은 [postqueue Postfix 설명서][6]를 참고하세요. + + ```shell + postconf -e "authorized_mailq_users = dd-agent" + ``` + + 대기열 보기 권한이 있는 사용자 목록: + + ```shell + authorized_mailq_users (static:anyone) + ``` + +3. [Agent를 재시작합니다][5]. + +#### 로그 수집 + +_Agent 버전 6.0 이상에서 사용 가능_ + +Postfix는 syslog daemon에 로그를 전송하고, 그 후 로그를 파일 시스템이 씁니다. 이름 지정 법칙과 로그 파일 대상을 구성할 수 있습니다. + +```text +/etc/syslog.conf: + mail.err /dev/console + mail.debug /var/log/mail.log +``` + +1. Datadog 에이전트에서 로그 수집은 기본적으로 사용하지 않도록 설정되어 있습니다. `datadog.yaml`파일에서 로그 수집을 사용하도록 설정합니다. + + ```yaml + logs_enabled: true + ``` + +2. `postfix.d/conf.yaml` 파일에 다음 설정 블록을 추가합니다. 환경에 따라 `path` 및 `service` 파라미터 값을 변경합니다. 사용 가능한 모든 설정 옵션은 [postfix.d/conf.yaml 샘플][5]을 참고하세요. + + ```yaml + logs: + - type: file + path: /var/log/mail.log + source: postfix + service: myapp + ``` + +3. [Agent를 재시작합니다][5]. + +### 검증 + +[에이전트 상태 하위 명령을 실행]75]하고 점검 섹션에서 `postfix`를 찾습니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "postfix" >}} + + +### 이벤트 + +Postfix 점검에는 이벤트가 포함되지 않습니다. + +### 서비스 점검 + +Postfix 점검에는 서비스 점검이 포함되어 있지 않습니다. + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 지원팀][9]에 문의하세요. + +## 참고 자료 + +기타 유용한 문서, 링크 및 기사: + +- [Postfix 대기열 성능 모니터링][10] + +[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/postfix/images/postfixgraph.png +[2]: https://app.datadoghq.com/account/settings/agent/latest +[3]: https://docs.datadoghq.com/ko/agent/guide/agent-configuration-files/#agent-configuration-directory +[4]: https://github.com/DataDog/integrations-core/blob/master/postfix/datadog_checks/postfix/data/conf.yaml.example +[5]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[6]: http://www.postfix.org/postqueue.1.html +[7]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[8]: https://github.com/DataDog/integrations-core/blob/master/postfix/metadata.csv +[9]: https://docs.datadoghq.com/ko/help/ +[10]: https://www.datadoghq.com/blog/monitor-postfix-queues \ No newline at end of file diff --git a/content/ko/integrations/postman.md b/content/ko/integrations/postman.md new file mode 100644 index 00000000000..80d66b4a93a --- /dev/null +++ b/content/ko/integrations/postman.md @@ -0,0 +1,121 @@ +--- +app_id: postman +app_uuid: 9ba70e31-8e84-4d6b-84a1-95d6ba713df9 +assets: + dashboards: + Postman API Dashboard: assets/dashboards/overview.json + integration: + auto_install: true + configuration: {} + events: + creates_events: true + metrics: + check: postman.monitor.run.total_latency + metadata_path: metadata.csv + prefix: postman + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10162 + source_type_name: Postman +author: + homepage: https://github.com/DataDog/integrations-extras + name: Postman + sales_email: integrations-partnerships@postman.com + support_email: integrations-partnerships@postman.com +categories: [] +custom_kind: integration +dependencies: +- https://github.com/DataDog/integrations-extras/blob/master/postman/README.md +display_on_public_website: true +draft: false +git_integration_title: postman +integration_id: postman +integration_title: Postman +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: postman +public_title: Postman +short_description: Postman모니터링 실행에서 메트릭을 분석하고 이벤트를 생성합니다. +supported_os: +- 리눅스 +- macos +- windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::macOS + - Supported OS::Windows + - 제공::통합 + configuration: README.md#Setup + description: Postman모니터링 실행에서 메트릭을 분석하고 이벤트를 생성합니다. + media: [] + overview: README.md#Overview + support: README.md#Support + title: Postman +--- + + + + +## 개요 + +[Postman][1]은 API를 구축하는 단계를 간소화하고 협력을 편리하게 만들어, 더 나은 API를 빠르게 생성할 수 있습니다. + +이 통합은 모니터 상태를 면밀히 관측할 수 있도록 도와줍니다. 이 통합으로 다음을 할 수 있습니다. + +- Datadog에서 Postman 모니터링 실행의 메트릭 분석 + +- 성공 및 실패한 모니터링 실행의 이벤트 생성 + +## 설정 + +[Postman 설명서][2]에서 상세 지침을 확인할 수 있습니다. Postman 통합에는 Postman [팀, 비즈니스, 엔터프라이즈 플랜][3]이 필요합니다. + +### 구성 + +1. Datadog [API 키][4]를 생성합니다. +2. Postman 계정으로 로그인하고 [Datadog 통합][5]으로 이동합니다. +3. "Add Integration"을 선택합니다. +4. Datadog에 모니터 메트릭과 이벤트 전송하는 방법: + - 새 통합의 이름을 지정합니다. + - Datadog로 전송하고 싶은 데이터가 있는 모니터를 선택합니다. + - Datadog API 키를 입력합니다. + - 사용하고 싶은 Datadog 리전을 선택합니다. + - (선택 사항) 각 실행에 이벤트, 메트릭, 또는 둘 다를 전송할지 선택합니다. +5. "Add Integration"을 선택하여 통합 설정을 완료합니다. + +![통합 구성][6] + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "postman" >}} + + +### 서비스 점검 + +Postman은 서비스 점검을 포함하지 않습니다. + +### 이벤트 + +Postman에서 모니터가 실행될 때마다 이벤트가 생성됩니다. 이벤트의 심각도는 Postman 모니터의 테스트를 기반으로 결정됩니다. + +| 심각도 | 설명 | +|----------|-----------------------------------------------------------------------| +| `Low` | 모든 테스트가 패스일 경우 | +| `Normal` | 일부 테스트가 실패했거나 이벤트 중에 오류가 발생한 경우 | + +## 트러블슈팅 + +도움이 필요하신가요? [Postman 지원팀][8]에 문의하세요. + +[1]: https://www.postman.com/ +[2]: https://learning.postman.com/docs/integrations/available-integrations/datadog/ +[3]: https://www.postman.com/pricing/ +[4]: https://app.datadoghq.com/organization-settings/api-keys +[5]: https://go.postman.co/integrations/service/datadog +[6]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/postman/images/add-integration-datadog.jpeg +[7]: https://github.com/DataDog/integrations-extras/blob/master/postman/metadata.csv +[8]: https://www.postman.com/support/ \ No newline at end of file diff --git a/content/ko/integrations/proxysql.md b/content/ko/integrations/proxysql.md new file mode 100644 index 00000000000..a0fab3acbe1 --- /dev/null +++ b/content/ko/integrations/proxysql.md @@ -0,0 +1,196 @@ +--- +app_id: proxysql +app_uuid: aadfa11b-3de5-4827-9cdd-888c4e9587d0 +assets: + dashboards: + ProxySQL Overview: assets/dashboards/overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: proxysql.active_transactions + metadata_path: metadata.csv + prefix: proxysql. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10096 + source_type_name: ProxySQL +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- 데이터 스토어 +- 로그 수집 +- 캐싱(caching) +custom_kind: integration +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/proxysql/README.md +display_on_public_website: true +draft: false +git_integration_title: proxysql +integration_id: proxysql +integration_title: ProxySQL +integration_version: 7.1.0 +is_public: true +manifest_version: 2.0.0 +name: proxysql +public_title: ProxySQL +short_description: ProxySQL 메트릭 및 로그를 수집합니다. +supported_os: +- 리눅스 +- macos +- windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::macOS + - Supported OS::Windows + - 카테고리::데이터 저장 + - Category::Log Collection + - 카테고리::캐싱(Caching) + - 제공::통합 + configuration: README.md#Setup + description: ProxySQL 메트릭 및 로그를 수집합니다. + media: [] + overview: README.md#Overview + support: README.md#Support + title: ProxySQL +--- + + + + +## 개요 + +이 점검은 Datadog 에이전트를 통해 [ProxySQL][1]을 모니터링합니다. + +## 설정 + +아래 지침을 따라 호스트에서 실행되는 에이전트에 대해 이 점검을 설치하고 설정하세요. 컨테이너화된 환경의 경우 이러한 지침을 적용하는 데 가이드가 필요하면 [오토파일럿 통합 템플릿][3]을 참조하세요. + +### 설치 + +ProxySQL 통합은 [Datadog 에이전트][3] 패키지에 포함되어 있으므로 서버에 다른 것을 설치할 필요가 없습니다. + +### 구성 + +#### SSL 활성화 +완전 SSL/TLS 검증을 사용해 ProxySQL에 연결하려면 `conf.yaml`에서 `tls_verify` 옵션을 활성화합니다. SSL/TLS에 연결할 때 필요한 인증서와 비밀번호를 포함하세요. + +```yaml + tls_verify: true + tls_ca_cert: ca_cert.pem +``` + +{{< tabs >}} +{{% tab "Host" %}} + +#### 호스트 + +호스트에서 실행 중인 에이전트에 대해 이 점검을 구성하려면: + +1. 에이전트의 구성 디렉토리 루트에 있는 `conf.d/` 폴더에서 `proxysql.d/conf.yaml` 파일을 편집하여 ProxySQL 성능 데이터 수집을 시작합니다. 사용 가능한 모든 구성 옵션은 [샘플 proxysql.d/conf.yaml][2]을 참고하세요. + +2. [에이전트를 재시작][3]하세요. + +##### 로그 수집 + +1. Datadog 에이전트에서 로그 수집은 기본적으로 사용하지 않도록 설정되어 있습니다. `datadog.yaml`파일에서 로그 수집을 사용하도록 설정합니다. + + ```yaml + logs_enabled: true + ``` + +2. 원하는 로그 파일을 `proxysql.d/conf.yaml` 파일에 추가하여 ProxySQL 로그 수집을 시작하세요. + + ```yaml + logs: + # Default logging file + - type: file + path: /var/log/proxysql.log + source: proxysql + service: "" + # Logged queries, file needs to be in JSON + # https://github.com/sysown/proxysql/wiki/Query-Logging + - type: file + path: "" + source: proxysql + service: "" + # Audit log + # https://github.com/sysown/proxysql/wiki/Audit-log + - type: file + path: "" + source: proxysql + service: "" + ``` + + `path` 및 `service` 파라미터 값을 변경하고 환경에 맞게 구성합니다. 사용 가능한 모든 구성 옵션은 [샘플 proxysql.d/conf.yaml][2]을 참고하세요. + +3. [에이전트를 재시작][3]하세요. + +[1]: https://docs.datadoghq.com/ko/agent/guide/agent-configuration-files/#agent-configuration-directory +[2]: https://github.com/DataDog/integrations-core/blob/master/proxysql/datadog_checks/proxysql/data/conf.yaml.example +[3]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +{{% /tab %}} +{{% tab "컨테이너화" %}} + +#### 컨테이너화 + +컨테이너화된 환경의 경우 [자동탐지 통합 템플릿][1]에 다음 파라미터를 적용하는 방법이 안내되어 있습니다. + +#### 메트릭 수집 + +| 파라미터 | 값 | +|----------------------|------------------------------------------------------------| +| `` | `proxysql` | +| `` | 비어 있음 또는 `{}` | +| `` | `{"host": "%%host%%", "port": "%%port%%", "username": "", "password": ""}` | + +##### 로그 수집 + +Datadog Agent에서 로그 수집은 기본값으로 비활성화되어 있습니다. 이를 활성화하려면 [쿠버네티스(Kubernetes) 로그 수집][2]을 참조하세요. + +| 파라미터 | 값 | +|----------------|-------------------------------------------| +| `` | `{"source": "proxysql", "service": ""}` | + +[1]: https://docs.datadoghq.com/ko/agent/kubernetes/integrations/ +[2]: https://docs.datadoghq.com/ko/agent/kubernetes/log/ +{{% /tab %}} +{{< /tabs >}} + +### 검증 + +[에이전트 상태 하위 명령을 실행][4]하고 점검 섹션에서 `proxysql`을 찾습니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "proxysql" >}} + + +### 이벤트 + +ProxySQL 점검은 이벤트를 포함하지 않습니다. + +### 서비스 점검 +{{< get-service-checks-from-git "proxysql" >}} + + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 지원팀][5]에 문의하세요. + + + +[1]: https://proxysql.com/ +[2]: https://docs.datadoghq.com/ko/agent/kubernetes/integrations/ +[3]: https://app.datadoghq.com/account/settings/agent/latest +[4]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[5]: https://docs.datadoghq.com/ko/help \ No newline at end of file diff --git a/content/ko/integrations/pulsar.md b/content/ko/integrations/pulsar.md new file mode 100644 index 00000000000..68c6a2959e6 --- /dev/null +++ b/content/ko/integrations/pulsar.md @@ -0,0 +1,138 @@ +--- +app_id: pulsar +app_uuid: 2a3a1555-3c19-42a9-b954-ce16c4aa6308 +assets: + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: pulsar.active_connections + metadata_path: metadata.csv + prefix: pulsar. + process_signatures: + - java org.apache.pulsar.PulsarStandaloneStarter + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10143 + source_type_name: pulsar +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- 로그 수집 +- 메시지 큐 +custom_kind: integration +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/pulsar/README.md +display_on_public_website: true +draft: false +git_integration_title: pulsar +integration_id: pulsar +integration_title: Pulsar +integration_version: 3.2.0 +is_public: true +manifest_version: 2.0.0 +name: pulsar +public_title: Pulsar +short_description: Pulsar 클러스터를 모니터링하세요. +supported_os: +- 리눅스 +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Log Collection + - 카테고리::메세지 큐 + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - 제공::통합 + configuration: README.md#Setup + description: Pulsar 클러스터를 모니터링하세요. + media: [] + overview: README.md#Overview + support: README.md#Support + title: Pulsar +--- + + + + +## 개요 + +본 점검은 Datadog 에이전트를 통해 [Pulsar][1]을 모니터링합니다. + +## 설정 + +아래 지침을 따라 호스트에서 실행되는 에이전트에 대해 이 점검을 설치하고 설정하세요. 컨테이너화된 환경의 경우 이러한 지침을 적용하는 데 가이드가 필요하면 [오토파일럿 통합 템플릿][3]을 참조하세요. + +### 설치 + +Pulsar 점검은 [Datadog 에이전트][3] 패키지에 포함되어 있습니다. +서버에 추가 설치가 필요하지 않습니다. + +### 구성 + +1. 에이전트의 설정 디렉터리 루트의 `conf.d/` 폴더에 있는 `pulsar.d/conf.yaml` 파일을 편집하여 pulsar 성능 데이터 수집을 시작합니다. 사용 가능한 모든 설정 옵션은 [pulsar.d/conf.yaml 샘플][4]을 참고하세요. + +2. [Agent를 재시작합니다][5]. + +### 검증 + +[에이전트 상태 하위 명령을 실행][6]하고 점검 섹션에서 `pulsar`를 찾습니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "pulsar" >}} + + + +### 로그 수집 + +1. Pulsar 로그 통합은 Pulsar의 [기본 로그 형식][8]을 지원합니다. 다른 형식이 있을 경우에는 [통합 파이프라인][9]을 복제하고 편집하세요. + +2. Datadog Agent에서 로그 수집은 기본적으로 비활성화되어 있으므로 `datadog.yaml` 파일에서 활성화합니다. + ```yaml + logs_enabled: true + ``` + +3. `pulsar.d/conf.yaml` 파일에서 로그 구성 블록의 주석 처리를 제거하고 편집합니다. 환경에 따라 경로 파라미터 값을 변경합니다. 사용 가능한 모든 구성 옵션은 [샘플 pulsar.d/conf.yaml][4]을 참고하세요. + ```yaml + logs: + - type: file + path: /pulsar/logs/pulsar.log + source: pulsar + ``` +4. [Agent를 재시작합니다][5] + +### 이벤트 + +Pulsar 통합에는 이벤트가 포함되어 있지 않습니다. + +### 서비스 점검 +{{< get-service-checks-from-git "pulsar" >}} + + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 고객 지원팀][11]에 문의하세요. + + +[1]: https://pulsar.apache.org +[2]: https://docs.datadoghq.com/ko/agent/kubernetes/integrations/ +[3]: https://app.datadoghq.com/account/settings/agent/latest +[4]: https://github.com/DataDog/integrations-core/blob/master/pulsar/datadog_checks/pulsar/data/conf.yaml.example +[5]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[6]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[7]: https://github.com/DataDog/integrations-core/blob/master/pulsar/metadata.csv +[8]: https://pulsar.apache.org/docs/en/reference-configuration/#log4j +[9]: https://docs.datadoghq.com/ko/logs/processing/#integration-pipelines +[10]: https://github.com/DataDog/integrations-core/blob/master/pulsar/assets/service_checks.json +[11]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/rabbitmq.md b/content/ko/integrations/rabbitmq.md index ee4138f081b..5028d282dbb 100644 --- a/content/ko/integrations/rabbitmq.md +++ b/content/ko/integrations/rabbitmq.md @@ -63,12 +63,12 @@ tile: changelog: CHANGELOG.md classifier_tags: - Category::Log Collection - - Category::메시지 큐 + - Category::Message Queues - Supported OS::Linux - Supported OS::Windows - Supported OS::macOS - Offering::Integration - - Product::데이터 스트림 모니터링 + - Product::Data Streams Monitoring configuration: README.md#Setup description: 대기열 크기, 소비자 수, 확인되지 않은 메시지 등을 추적하세요. media: [] @@ -97,21 +97,23 @@ tile: - 노드 기반 통계를 추적합니다: 대기 프로세스, 사용된 소켓, 사용된 파일 설명자 등. - 가상 호스트의 활성 여부와 연결 수를 모니터링합니다. +[데이터 스트림 모니터링][3]을 사용하여 RabbitMQ 통합을 개선하는 것을 고려해 보세요. 본 솔루션은 파이프라인 시각화 및 지연(lag) 추적을 지원하여 병목 현상을 식별 및 해결하도록 도와드립니다. + ## 설정 ### 설치 -RabbitMQ 점검은 [Datadog Agent][3] 패키지에 포함되어 있으므로 서버에 추가로 설치할 필요가 없습니다. +RabbitMQ 점검은 [Datadog 에이전트][4] 패키지에 포함되어 있으므로 서버에 추가로 설치할 필요가 없습니다. ### 설정 -RabbitMQ는 [RabbitMQ Management Plugin][4] 및 [RabbitMQ Prometheus Plugin][5] 두 가지 방법으로 메트릭을 노출합니다. Datadog 통합은 두 버전을 모두 지원합니다. 사용하려는 버전에 해당하는 파일의 구성 지침을 따르세요. Datadog 통합에는 대시보드와 모니터 제목으로 레이블이 지정된 각 버전에 대한 기본 대시보드와 모니터도 함께 제공됩니다. +RabbitMQ는 [RabbitMQ Management Plugin][5] 및 [RabbitMQ Prometheus Plugin][6] 두 가지 방법으로 메트릭을 노출합니다. Datadog 통합은 두 버전을 모두 지원합니다. 사용하려는 버전에 해당하는 파일의 설정 지침을 따르세요. Datadog 통합에는 대시보드와 모니터링 제목으로 레이블이 지정된 각 버전에 대한 기본 대시보드와 모니터링도 함께 제공됩니다. #### RabbitMQ 준비 -##### [RabbitMQ Prometheus Plugin][5]. +##### [RabbitMQ Prometheus Plugin][6]. -*RabbitMQ v3.8부터 [RabbitMQ Prometheus Plugin][5]이 기본적으로 활성화됩니다.* +*RabbitMQ v3.8부터 [RabbitMQ Prometheus Plugin][6]이 기본적으로 활성화됩니다.* *RabbitMQ의 Prometheus Plugin 버전은 Datadog Agent의 Python 3 지원이 필요하므로 Agent v6 이상에서만 사용할 수 있습니다. 통합의 Prometheus Plugin 버전을 구성하기 전에 Agent가 업데이트되었는지 확인하세요.* @@ -123,7 +125,7 @@ RabbitMQ는 [RabbitMQ Management Plugin][4] 및 [RabbitMQ Prometheus Plugin][5] url: http://:15692 ``` - 이를 통해 하나의 RabbitMQ 노드에서 [`/metrics` 엔드포인트][6] 스크래핑이 가능해집니다. Datadog은 [`/metrics/detailed` 엔드포인트][7]에서도 데이터를 수집할 수 있습니다. + 이를 통해 하나의 RabbitMQ 노드에서 [`/metrics` 엔드포인트][7] 스크래핑이 가능해집니다. Datadog은 [`/metrics/detailed` 엔드포인트][8]에서도 데이터를 수집할 수 있습니다. ```yaml instances: @@ -131,9 +133,9 @@ RabbitMQ는 [RabbitMQ Management Plugin][4] 및 [RabbitMQ Prometheus Plugin][5] url: http://:15692 unaggregated_endpoint: detailed?family=queue_coarse_metrics ``` - 이를 통해 [`/metrics/detailed` 엔드포인트][7] 스크래핑으로 queue coarse metrics를 수집할 수 있습니다. + 이를 통해 [`/metrics/detailed` 엔드포인트][8] 스크래핑으로 queue coarse 메트릭을 수집할 수 있습니다. -##### [RabbitMQ Management Plugin][4]. +##### [RabbitMQ Management Plugin][5]. 플러그인을 활성화합니다. 그러면 Agent 사용자는 최소한 `monitoring` 태그와 다음 필수 권한이 ​​필요합니다. @@ -151,10 +153,10 @@ rabbitmqctl set_permissions -p / datadog "^aliveness-test$" "^amq\.default$" ". rabbitmqctl set_user_tags datadog monitoring ``` -여기에서 `/`는 기본 호스트를 나타냅니다. 이를 지정된 가상 호스트 이름으로 설정하세요. 자세한 내용은 [RabbitMQ 설명서][8]를 참조하세요. +여기에서 `/`는 기본 호스트를 나타냅니다. 이를 지정된 가상 호스트 이름으로 설정하세요. 자세한 내용은 [RabbitMQ 설명서][9]를 참조하세요. {{< tabs >}} -{{% tab "호스트" %}} +{{% tab "Host" %}} #### 호스트 @@ -205,7 +207,7 @@ _에이전트 버전 > 6.0에서 사용 가능_ [2]: https://github.com/DataDog/integrations-core/blob/master/rabbitmq/datadog_checks/rabbitmq/data/conf.yaml.example [3]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent {{% /tab %}} -{{% tab "컨테이너화된 환경" %}} +{{% tab "Containerized" %}} #### 컨테이너화된 환경 @@ -239,7 +241,7 @@ Datadog 에이전트에서 기본적으로 로그 수집이 비활성화되어 ### 검증 -[Agent의 상태 하위 명령을 실행][9]하고 Checks 섹션에서 `rabbitmq`를 찾습니다. +[에이전트 상태 하위 명령을 실행][10]하고 점검 섹션에서 `rabbitmq`를 찾습니다. ## 수집한 데이터 @@ -260,44 +262,45 @@ Datadog 에이전트에서 기본적으로 로그 수집이 비활성화되어 Prometheus 플러그인은 Management Plugin과는 다른 메트릭 세트를 노출합니다. Management에서 Prometheus Plugin으로 마이그레이션할 때 주의해야 할 사항은 다음과 같습니다. -- [이 표][10]에서 메트릭을 찾아보세요. 메트릭 설명에 `[OpenMetricsV2]` 태그가 포함되어 있으면 Prometheus Plugin에서 사용할 수 있습니다. Management Plugin에서만 사용할 수 있는 메트릭에는 설명에 태그가 없습니다. +- [이 표][11]에서 메트릭을 찾아보세요. 메트릭 설명에 `[OpenMetricsV2]` 태그가 포함되어 있으면 Prometheus Plugin에서 사용할 수 있습니다. Management Plugin에서만 사용할 수 있는 메트릭에는 설명에 태그가 없습니다. - Management Plugin 메트릭을 사용하는 대시보드와 모니터는 작동하지 않습니다. *OpenMetrics Version*으로 표시된 대시보드와 모니터로 전환하세요. - 기본 구성은 집계된 메트릭을 수집합니다. 즉, 예를 들어 대기열로 태그된 메트릭이 없습니다. `prometheus_plugin.unaggregated_endpoint` 옵션을 구성하여 집계 없이 메트릭을 가져오세요. - `rabbitmq.status` 서비스 점검은 `rabbitmq.openmetrics.health`로 교체되었습니다. Prometheus Plugin에는 `rabbitmq.aliveness` 서비스 점검과 동일한 기능이 없습니다. Prometheus Plugin은 일부 태그를 변경합니다. 아래 표는 보다 일반적인 태그에 대한 변경 사항을 설명합니다. -| 관리 | 프로메테우스(Prometheus) | +| 관리 | Prometheus | |:--------------------|:-----------------------------------------| | `queue_name` | `queue` | | `rabbitmq_vhost` | `vhost`, `exchange_vhost`, `queue_vhost` | | `rabbitmq_exchange` | `exchange` | -자세한 내용은 [태그 패밀리별 RabbitMQ 대기열 태그 지정][11]을 참조하세요. +자세한 내용은 [태그군별 RabbitMQ 대기열 태그 지정][12]을 참조하세요. -도움이 필요하신가요? [Datadog 고객 지원팀][12]에 문의하세요. +도움이 필요하세요? [Datadog 지원팀][13]에 문의하세요. ## 참고 자료 기타 유용한 문서, 링크 및 기사: -- [RabbitMQ 모니터링을 위한 주요 메트릭][13] -- [RabbitMQ 모니터링 도구를 사용한 메트릭 수집][14] -- [Datadog으로 RabbitMQ 성능 모니터링][15] +- [RabbitMQ 모니터링을 위한 주요 메트릭][14] +- [RabbitMQ 모니터링 도구를 사용한 메트릭 수집][15] +- [Datadog으로 RabbitMQ 성능 모니터링][16] [1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/rabbitmq/images/rabbitmq_dashboard.png [2]: https://www.rabbitmq.com -[3]: https://app.datadoghq.com/account/settings/agent/latest -[4]: https://www.rabbitmq.com/management.html -[5]: https://www.rabbitmq.com/prometheus.html -[6]: https://www.rabbitmq.com/prometheus.html#default-endpoint -[7]: https://www.rabbitmq.com/prometheus.html#detailed-endpoint -[8]: https://www.rabbitmq.com/rabbitmqctl.8.html#set_permissions -[9]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information -[10]: https://docs.datadoghq.com/ko/integrations/rabbitmq/?tab=host#metrics -[11]: https://docs.datadoghq.com/ko/integrations/faq/tagging-rabbitmq-queues-by-tag-family/ -[12]: https://docs.datadoghq.com/ko/help/ -[13]: https://www.datadoghq.com/blog/rabbitmq-monitoring -[14]: https://www.datadoghq.com/blog/rabbitmq-monitoring-tools -[15]: https://www.datadoghq.com/blog/monitoring-rabbitmq-performance-with-datadog \ No newline at end of file +[3]: https://docs.datadoghq.com/ko/data_streams/ +[4]: https://app.datadoghq.com/account/settings/agent/latest +[5]: https://www.rabbitmq.com/management.html +[6]: https://www.rabbitmq.com/prometheus.html +[7]: https://www.rabbitmq.com/prometheus.html#default-endpoint +[8]: https://www.rabbitmq.com/prometheus.html#detailed-endpoint +[9]: https://www.rabbitmq.com/rabbitmqctl.8.html#set_permissions +[10]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[11]: https://docs.datadoghq.com/ko/integrations/rabbitmq/?tab=host#metrics +[12]: https://docs.datadoghq.com/ko/integrations/faq/tagging-rabbitmq-queues-by-tag-family/ +[13]: https://docs.datadoghq.com/ko/help/ +[14]: https://www.datadoghq.com/blog/rabbitmq-monitoring +[15]: https://www.datadoghq.com/blog/rabbitmq-monitoring-tools +[16]: https://www.datadoghq.com/blog/monitoring-rabbitmq-performance-with-datadog \ No newline at end of file diff --git a/content/ko/integrations/rapdev-snmp-profiles.md b/content/ko/integrations/rapdev-snmp-profiles.md new file mode 100644 index 00000000000..ced888f464b --- /dev/null +++ b/content/ko/integrations/rapdev-snmp-profiles.md @@ -0,0 +1,241 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: rapdev-snmp-profiles +app_uuid: e82be05a-2fd2-44eb-9297-4fec152925a3 +assets: + dashboards: + RapDev APC PDU Dashboard: assets/dashboards/rapdev_apc_pdu_dashboard.json + RapDev APC UPS Dashboard: assets/dashboards/rapdev_apc_ups_dashboard.json + RapDev Arista Switch Dashboard: assets/dashboards/rapdev_arista_switch_dashboard.json + RapDev Aruba Switch Dashboard: assets/dashboards/rapdev_aruba_switch_dashboard.json + RapDev AudioCodes Controller: assets/dashboards/rapdev_audiocodes_controller.json + RapDev AudioCodes Controller Virtual Edition: assets/dashboards/rapdev_audiocodes_controller_virtual_edition.json + RapDev Barracuda CloudGen Firewall Dashboard: assets/dashboards/rapdev_barracuda_cloudgen_firewall_dashboard.json + RapDev Bluecoat SG Dashboard: assets/dashboards/rapdev_bluecoat_sg_dashboard.json + RapDev Brocade VDX Dashboard: assets/dashboards/rapdev_brocade_vdx_dashboard.json + RapDev Checkpoint SVN Dashboard: assets/dashboards/rapdev_checkpoint_svn_dashboard.json + RapDev Cisco ASA Dashboard: assets/dashboards/rapdev_cisco_asa_dashboard.json + RapDev Cisco ASR Dashboard: assets/dashboards/rapdev_cisco_asr_dashboard.json + RapDev Cisco CUBE Dashboard: assets/dashboards/rapdev_cisco_cube_dashboard.json + RapDev Cisco Catalyst Dashboard: assets/dashboards/rapdev_cisco_catalyst_dashboard.json + RapDev Cisco Cube Dashboard: assets/dashboards/rapdev_cisco_cube_dashboard.json + RapDev Cisco ISE Dashboard: assets/dashboards/rapdev_cisco_ise_dashboard.json + RapDev Cisco ISR Dashboard: assets/dashboards/rapdev_cisco_isr_dashboard.json + RapDev Cisco ISR Overview: assets/dashboards/rapdev_cisco_isr_dashboard.json + RapDev Cisco Meraki Dashboard: assets/dashboards/rapdev_cisco_meraki_dashboard.json + RapDev Cisco UCM Dashboard: assets/dashboards/rapdev_cisco_ucm_dashboard.json + RapDev Cisco UCS Dashboard: assets/dashboards/rapdev_cisco_ucs_dashboard.json + RapDev Cisco WLC Dashboard: assets/dashboards/rapdev_cisco_wlc_dashboard.json + RapDev Citrix Netscaler Dashboard: assets/dashboards/rapdev_citrix_netscaler_dashboard.json + RapDev Dell VRTX Dashboard: assets/dashboards/rapdev_dell_vrtx_dashboard.json + RapDev F5 BigIP Dashboard: assets/dashboards/rapdev_f5_bigip_dashboard.json + RapDev Fortinet Fortigate Dashboard: assets/dashboards/rapdev_fortinet_fortigate_dashboard.json + RapDev HP iLO Dashboard: assets/dashboards/rapdev_hpe_ilo_dashboard.json + RapDev Ironport Mail Dashboard: assets/dashboards/rapdev_ironport_mail_dashboard.json + RapDev Juniper SSG Dashboard: assets/dashboards/rapdev_juniper_ssg_dashboard.json + RapDev Kemp LoadMaster Dashboard: assets/dashboards/rapdev_kemp_loadmaster_dashboard.json + RapDev Kemp Loadmaster Dashboard: assets/dashboards/rapdev_kemp_loadmaster_dashboard.json + RapDev Netapp NAS Dashboard: assets/dashboards/rapdev_netapp_nas_dashboard.json + RapDev Palo Alto NextGen Firewall Dashboard: assets/dashboards/rapdev_palo_alto_nextgen_firewall_dashboard.json + RapDev Printer Dashboard: assets/dashboards/rapdev_printer_dashboard.json + RapDev SNMP Device Inventory: assets/dashboards/rapdev_snmp_device_inventory.json + RapDev ServerTech PDU Gen3 Dashboard: assets/dashboards/rapdev_servertech_pdu_gen3_dashboard.json + RapDev ServerTech PDU Gen4 Dashboard: assets/dashboards/rapdev_servertech_pdu_gen4_dashboard.json + RapDev Servertech PDU Gen3 Dashboard: assets/dashboards/rapdev_servertech_pdu_gen3_dashboard.json + RapDev Servertech PDU Gen4 Dashboard: assets/dashboards/rapdev_servertech_pdu_gen4_dashboard.json + RapDev Sophos XG Firewall Dashboard: assets/dashboards/rapdev_sophos_xg_firewall_dashboard.json + RapDev Steelhead Riverbed Dashboard: assets/dashboards/rapdev_steelhead_riverbed_dashboard.json + RapDev Tripplite PDU Dashboard: assets/dashboards/rapdev_tripplite_pdu_dashboard.json + RapDev iDRAC Dashboard: assets/dashboards/rapdev_idrac_dashboard.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: snmp.devices_monitored + metadata_path: metadata.csv + prefix: snmp. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10122 + source_type_name: RapDev SNMP 프로파일 + monitors: + Barracuda memory usage is high: assets/monitors/rapdev_barracuda-memory.json + CMOS battery has an issue: assets/monitors/rapdev_idrac-cmos.json + CPU load is high: assets/monitors/rapdev_barracuda-cpu.json + CPU utilization is high: assets/monitors/rapdev_cpu_utilization.json + Controller has an issue: assets/monitors/rapdev_idrac-raidcontrollerstate.json + Disk has an issue: assets/monitors/rapdev_idrac-diskstatus.json + Fan has an issue: assets/monitors/rapdev_idrac-fanstatus.json + LCD has an issue: assets/monitors/rapdev_idrac-lcdstatus.json + Memory DIMM has an issue: assets/monitors/rapdev_idrac-memorystatus.json + Memory usage is high: assets/monitors/rapdev_memory_utilization.json + Network port is down: assets/monitors/rapdev_idrac-nicconnectionstatus.json + Operation status is in a bad state: assets/monitors/rapdev_interface_operstatus.json + Power supply Sensor has an issue: assets/monitors/rapdev_idrac-psu-sensorstate.json + Power supply has an issue: assets/monitors/rapdev_idrac-overallpowerstatus.json + Power supply state settings has an issue: assets/monitors/rapdev_idrac-psu-statesettings.json + Printer is in alert: assets/monitors/rapdev_printer_issue.json + Service state changed: assets/monitors/rapdev_barracuda-servicestate.json + Storage has an issue: assets/monitors/rapdev_idrac-overallstoragestate.json + System BIOS has an issue: assets/monitors/rapdev_idrac-biosstatus.json + Temperature sensor has an issue: assets/monitors/rapdev_idrac-tempsensorstatus.json + VPN tunnel is downr: assets/monitors/rapdev_fortigate_tunnel.json + Voltage has an issue: assets/monitors/rapdev_idrac-voltagestatus.json +author: + homepage: https://www.rapdev.io + name: RapDev + sales_email: ddsales@rapdev.io + support_email: support@rapdev.io + vendor_id: rapdev +categories: +- marketplace +- 네트워크 +- snmp +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: rapdev-snmp-profiles +integration_id: rapdev-snmp-profiles +integration_title: SNMP 프로파일 +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: rapdev-snmp-profiles +pricing: +- billing_type: tag_count + includes_assets: true + metric: snmp.systemServices + product_id: snmp-profiles + short_description: 장치당 유닛 비용 + tag: snmp_device + unit_label: SNMP 장치 + unit_price: 6 +public_title: SNMP 프로파일 +short_description: 자동탐지 장치 프로파일을 사용한 SNMP 장치 관측 가능성 +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Marketplace + - Category::Network + - Category::SNMP + - Offering::Integration + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: 자동탐지 장치 프로파일을 사용한 SNMP 장치 관측 가능성 + media: + - caption: RapDev SNMP 프로파일 소개 + image_url: images/video.png + media_type: 비디오 + vimeo_id: 630489707 + - caption: Cisco Meraki 대시보드 + image_url: images/6.png + media_type: image + - caption: Palo Alto 방화벽 대시보드 + image_url: images/2.png + media_type: image + - caption: Dell iDRAC 대시보드 + image_url: images/3.png + media_type: image + - caption: 서버 하드웨어 태그 예시 + image_url: images/5.png + media_type: image + - caption: HP iLO3/4 메트릭 샘플 + image_url: images/1.png + media_type: image + - caption: Dell iDRAC 메트릭 샘플 + image_url: images/4.png + media_type: image + overview: README.md#Overview + support: README.md#Support + title: SNMP 프로파일 + uninstallation: README.md#Uninstallation +--- + + + +## 개요 + +[{{< img src="marketplace/rapdev-snmp-profiles/images/video.png" alt="RapDev SNMP 프로파일 소개" >}}](https://www.youtube.com/watch?v=SVT9hqV7aD4&list=PLa2zzueYDhHrjODIXryBX_RakQIL6nmOh) + +RapDev SNMP 프로파일 패키지는 기본적으로 150개 이상의 장치 프로필을 지원하며, 지원하는 모든 하드웨어 장치에 대한 기본 내장 대시보드를 갖추고 있어 즉시 모니터링할 수 있도록 도와드립니다. 일련 번호, 펌웨어 버전, 하드웨어 버전 등을 포함한 필요한 태그가 있는 관련 메트릭을 전부 수집할 수 있도록 수백 시간 동안 프로파일을 튜닝했습니다. 본 통합은 단 몇 분 안에 배포되어 모니터링, 시각화 및 경고를 즉시 시작할 수 있습니다. + +본 통합으로 수백 개의 YAML 프로파일에 액세스할 수 있으며, 인스턴스에 새로운 대시보드 여러 개를 자동으로 배포할 수 있습니다. 그 다음 기본 Datadog SNMP 자동탐지 기능으로 지원되는 모든 하드웨어를 자동으로 감지하고, 기본 Datadog SNMP 통합으로 OID 폴링을 시작합니다. +Datadog 에이전트 또는 YAML에서 SNMP 프로파일을 관리, 편집, 수정 또는 업데이트할 필요가 없습니다. 모든 작업은 본 통합으로 처리되며 모니터링 및 경고에서 간단히 시작할 수 있습니다. + +### 지원되는 장치 +아래는 현재 지원되는 장치 목록이며, 모든 장치의 전체 업데이트 목록를 보려면 [웹사이트](https://www.rapdev.io/products/datadog-snmp-profiles)를 방문하세요. + +| 제조사 | 모델 | 버전 | +| ------------ | --------------------- | ------------- | +| APC | Smart UPS | 전체 | +| APC | SmartCard | 전체 | +| Arista | Switch | 7xxx | +| Aruba | Switch | 전체 | +| AudioCodes | Mediant SBC | 전체 | +| Barracuda | CloudGen Firewall | 6,7,8 | +| Brocade | VDX | 전체 | +| Checkpoint | Gaia/Cloud Firewall | 77+ | +| Cisco | ASA | 5xxx | +| Cisco | ASR | 전체 | +| Cisco | Catalyst | 전체 | +| Cisco | CUBE | IOS | +| Cisco | Nexus | 2k | +| Cisco | Nexus | 3k | +| Cisco | Nexus | 4k | +| Cisco | Nexus | 5k | +| Cisco | Nexus | 6k | +| Cisco | Nexus | 7k | +| Cisco | ISE | 전체 | +| Cisco | ISR | 38XX, 44xx | +| Cisco | Nexus | 전체 | +| Cisco | UCM | 전체 | +| Cisco | UCS | M2, M3, M4 | +| Cisco | WLC | 전체 | +| Citrix | Netscaler | 전체 | +| Dell | iDRAC | 7,8,9 | +| Dell | Powerconnect | OS10 | +| Dell | Powerconnect | 3000 | +| F5 | Big-IP | 9.4.x ~ 15.x | +| FortiNet | FortiGate | 전체 | +| HPE | ProLiant Gen8-10 | iLO4,iLO5 | +| HPE | Switch | | +| Ironport | Mail | C3,C6,X1070 | +| Juniper | SSG | 전체 | +| Kemp | Loadmaster | 전체 | +| Meraki | CloudController | CC | +| Meraki | Switch | MR, MS, MX, Z | +| Nasuni | Filer | 전체 | +| Palo Alto | NextGen Firewall | 9.x | +| ServerTech | PDU | Gen3, Gen4 | +| Sharp | Printer | 전체 | +| Steelhead | Riverbed | CX, EX | +| VMware | ESXi | 6.x | + +## 지원 +지원 또는 기능 요청은 다음 채널로 RapDev.io에 문의해 주세요. + + - 이메일: support@rapdev.io + - 채팅: [rapdev.io](https://www.rapdev.io/#Get-in-touch) + - 전화: 855-857-0222 + +--- +Made with ❤️ in Boston + +*원하시는 통합을 찾을 수 없나요? 조직에 필요한 중요한 기능이 누락되었나요? [요청 사항](mailto:support@rapdev.io)을 보내주시면 반영하도록 하겠습니다.* + +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog 기술 파트너의 지원을 받습니다. 사용하려면 Marketplace에서 애플리케이션을 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/rapdev_hpux_agent.md b/content/ko/integrations/rapdev_hpux_agent.md new file mode 100644 index 00000000000..1d11fca4717 --- /dev/null +++ b/content/ko/integrations/rapdev_hpux_agent.md @@ -0,0 +1,101 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: rapdev-hpux-agent +app_uuid: 5e611b0d-a099-4823-a4ba-e42b1012b3b5 +assets: + integration: + auto_install: false + configuration: {} + events: + creates_events: false + metrics: + check: datadog.marketplace.rapdev.hpux_agent + metadata_path: metadata.csv + prefix: rapdev.hpux_agent. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10185 + source_type_name: RapDev HP-UX 에이전트 +author: + homepage: https://www.rapdev.io + name: RapDev + sales_email: ddsales@rapdev.io + support_email: support@rapdev.io + vendor_id: rapdev +categories: +- marketplace +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: rapdev_hpux_agent +integration_id: rapdev-hpux-agent +integration_title: HP-UX 에이전트 +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: rapdev_hpux_agent +pricing: +- billing_type: tag_count + includes_assets: true + metric: datadog.marketplace.rapdev.hpux_agent + product_id: hpux-agent + short_description: 호스트별 단위 가격 + tag: 호스트 + unit_label: HP-UX 에이전트 + unit_price: 100.0 +public_title: HP-UX 에이전트 +short_description: hppa 및 itanium용 HP-UX 11.31에 대한 메트릭을 제공하는 시스템 에이전트 +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Marketplace + - Offering::Integration + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: hppa 및 itanium용 HP-UX 11.31에 대한 메트릭을 제공하는 시스템 에이전트 + media: + - caption: 인프라스트럭처 목록 + image_url: images/1.png + media_type: image + - caption: 호스트 메트릭 + image_url: images/2.png + media_type: image + - caption: 로그 + image_url: images/3.png + media_type: image + overview: README.md#Overview + support: README.md#Support + title: HP-UX 에이전트 + uninstallation: README.md#Uninstallation +--- + + + +## 개요 + +HP-UX 에이전트로 Datadog 내에서 시스템 메트릭 을 수집 및 보고할 수 있습니다. 본 통합은 PA-RISC 및 Itanium 아키텍처 모두에서 HP-UX 11.31을 지원합니다. HP-UX 에이전트는 기본 HP-UX Perl 시스템 배포를 사용하며 추가 라이브러리 종속성이 필요하지 않아 설치 및 호환성이 간소화됩니다. + +HP-UX 에이전트는 Datadog 인프라스트럭처 목록을 지원하는 데 필요한 호스트 메타데이터를 제공하여 조직이 지원되는 다른 Datadog 호스트 운영 체제와 유사한 HP-UX 호스트 시스템으로 작업할 수 있도록 도와드립니다. + +HP-UX 에이전트는 기본 에이전트와 동일한 URL 및 포트를 사용합니다. HP-UX 에이전트는 현재 코어 인프라스트럭처 메트릭, 프로세스 점검, 로그 테일을 지원합니다. 커스텀 에이전트 점검, 통합 또는 서비스 점검은 지원하지 않습니다. + +## 지원 + +지원 또는 기능 요청은 다음 채널을 통해 RapDev.io에 문의해 주세요. + + - 이메일: support@rapdev.io + - 채팅: [rapdev.io](https://www.rapdev.io/#Get-in-touch) + - 전화: 855-857-0222 + +--- +Made with ❤️ in Boston + +*원하시는 통합을 찾을 수 없나요? 조직에 필요한 중요한 기능이 누락되었나요? [요청 사항](mailto:support@rapdev.io)을 보내주시면 반영하도록 하겠습니다.* + +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog 기술 파트너의 지원을 받습니다. 사용하려면 Marketplace에서 애플리케이션을 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/rapdev_maxdb.md b/content/ko/integrations/rapdev_maxdb.md new file mode 100644 index 00000000000..1a101b0f3ab --- /dev/null +++ b/content/ko/integrations/rapdev_maxdb.md @@ -0,0 +1,124 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: rapdev-maxdb +app_uuid: f30ae17c-d58a-43f4-a8a6-693279394101 +assets: + dashboards: + RapDev MaxDB Dashboard: assets/dashboards/rapdev_maxdb_dashboard.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: rapdev.maxdb.db_state + metadata_path: metadata.csv + prefix: rapdev.maxdb. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10131 + source_type_name: RapDev MaxDB + monitors: + Data volume usage is high: assets/monitors/rapdev_maxdb_data_volume_usage.json + Database connection is failing: assets/monitors/rapdev_maxdb_connection_check.json + Database is not online: assets/monitors/rapdev_maxdb_state.json + Lock utilization is high: assets/monitors/rapdev_maxdb_lock_utilization.json + Log area usage is high: assets/monitors/rapdev_maxdb_log_area_usage.json +author: + homepage: https://www.rapdev.io + name: RapDev + sales_email: ddsales@rapdev.io + support_email: support@rapdev.io + vendor_id: rapdev +categories: +- 캐싱 +- 데이터 저장소 +- marketplace +- sap +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: rapdev_maxdb +integration_id: rapdev-maxdb +integration_title: MaxDB +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: rapdev_maxdb +pricing: +- billing_type: tag_count + includes_assets: true + metric: datadog.marketplace.rapdev.maxdb + product_id: maxdb + short_description: DB당 유닛 비용 + tag: db + unit_label: 데이터베이스 + unit_price: 50 +public_title: MaxDB +short_description: MaxDB 데이터베이스의 볼륨, 캐시, 스키마, 테이블 등 모니터링하기 +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Caching + - Category::Data Stores + - Category::Marketplace + - Category::SAP + - Offering::Integration + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: MaxDB 데이터베이스의 볼륨, 캐시, 스키마, 테이블 등 모니터링하기 + media: + - caption: 데이터베이스 상태 및 데이터/로그 메트릭 + image_url: images/1.png + media_type: image + - caption: 데이터베이스 캐시 메트릭 + image_url: images/2.png + media_type: image + - caption: 세션, OMS 및 스키마 메트릭 + image_url: images/3.png + media_type: image + overview: README.md#Overview + support: README.md#Support + title: MaxDB + uninstallation: README.md#Uninstallation +--- + + +## 개요 + +MaxDB 통합은 MaxDB 인스턴트의 데이터 및 로그 영역, 볼륨, 캐시, 세션, 락(lock) 및 기타 메트릭을 모니터링하여 데이터베이스가 정상적으로 실행되는지 확인합니다. 본 통합에는 데이터베이스별로 필터링할 수 있는 대시보드와 데이터베이스 호스트가 함께 제공됩니다. MaxDB 통합에는 데이터베이스의 전반적인 서비스 상태와 관련된 몇 가지 일반 메트릭 모니터링도 함께 제공됩니다. + +### 모니터링 +1. MaxDB 연결 점검 +2. MaxDB 상태 +3. MaxDB 데이터 볼륨 사용량 +4. MaxDB 락(lock) 사용율 +5. MaxDB 로그 영역 사용량 + +## 지원 + +지원 또는 기능 요청은 다음 채널을 통해 RapDev.io에 문의해 주세요. + + - 이메일: support@rapdev.io + - 채팅: [rapdev.io](https://www.rapdev.io/#Get-in-touch) + - 전화: 855-857-0222 + +--- +Made with ❤️ in Boston + +*원하시는 통합을 찾을 수 없나요? 조직에 필요한 중요한 기능이 누락되었나요? [요청 사항](mailto:support@rapdev.io)을 보내주시면 반영하도록 하겠습니다.* + +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog 기술 파트너의 지원을 받습니다. 사용하려면 Marketplace에서 애플리케이션을 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/rapdev_nutanix.md b/content/ko/integrations/rapdev_nutanix.md new file mode 100644 index 00000000000..d1b48d5ce6b --- /dev/null +++ b/content/ko/integrations/rapdev_nutanix.md @@ -0,0 +1,132 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: rapdev-nutanix +app_uuid: 53711ca7-b5f8-4472-b921-e70a3103ede4 +assets: + dashboards: + RapDev Nutanix Cluster Overview: assets/dashboards/rapdev_nutanix_overview_dashboard.json + RapDev Nutanix Clusters Dashboard: assets/dashboards/rapdev_nutanix_clusters_dashboard.json + RapDev Nutanix Hosts and Disks Dashboard: assets/dashboards/rapdev_nutanix_hosts_and_disks_dashboard.json + RapDev Nutanix Protection Domain Dashboard: assets/dashboards/rapdev_nutanix_protection_domain_dashboard.json + RapDev Nutanix VMs Dashboard: assets/dashboards/rapdev_nutanix_vms_dashboard.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: rapdev.nutanix.clusters.count + metadata_path: metadata.csv + prefix: rapdev.nutanix. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10138 + source_type_name: RapDev Nutanix + logs: {} + monitors: + CPU utilization is high: assets/monitors/nutanix_cpu_monitor.json + Compression saving ratio is low: assets/monitors/nutanix_compression_saving_monitor.json + Deduplication ratio is low: assets/monitors/nutanix_deduplication_monitor.json + Storage is reaching saturation: assets/monitors/nutanix_storage_monitor.json +author: + homepage: https://www.rapdev.io + name: RapDev + sales_email: ddsales@rapdev.io + support_email: support@rapdev.io + vendor_id: rapdev +categories: +- marketplace +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: rapdev_nutanix +integration_id: rapdev-nutanix +integration_title: Nutanix +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: rapdev_nutanix +pricing: +- billing_type: tag_count + includes_assets: true + metric: datadog.marketplace.rapdev.nutanix + product_id: nutanix + short_description: 코어별 유닛 비용 + tag: 코어 + unit_label: Nutanix 호스트 코어 + unit_price: 7.0 +public_title: Nutanix +short_description: Nutanix 리소스 사용량을 모니터링하여 환경을 보다 잘 이해하기 +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Marketplace + - Offering::Integration + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: Nutanix 리소스 사용량을 모니터링하여 환경을 보다 잘 이해하기 + media: + - caption: Nutanix 개요 대시보드 + image_url: images/4.png + media_type: image + - caption: Nutanix VM 대시보드 + image_url: images/5.png + media_type: image + - caption: Nutanix 클러스터 대시보드 + image_url: images/6.png + media_type: image + - caption: Nutanix 호스트 및 디스크 대시보드 + image_url: images/7.png + media_type: image + overview: README.md#Overview + support: README.md#Support + title: Nutanix + uninstallation: README.md#Uninstallation +--- + + + + +## 개요 +Nutanix 통합은 스토리지, CPU 사용량, 읽기/쓰기 IOPS 및 기타 메트릭을 Nutanix 클러스터 내에서 모니터링하여 환경이 항상 최적의 성능으로 실행되도록 보장합니다. 본 통합으로 4개의 대시보드가 포함되어 있어 Nutanix 클러스터를 개요에서 확인할 수 있으며 잠재적인 성능 저하를 세분화하여 정확히 파악할 수 있습니다. 또한 Nutanix 통합에는 스토리지 사용률 및 중복 제거 절감과 같은 주요 메트릭 모니터링이 함께 제공되며, 이는 Nutanix 환경의 전체 성능 유지에 필수적인 요소입니다. + +### 모니터링 + +1. Nutanix 클러스터 스토리지 사용률 +2. Nutanix 클러스터 CPU 사용률 +3. Nutanix 클러스터 중복 제거 절감률 +4. Nutanix 클러스터 압축 절감률 + +### 대시보드 + +1. RapDev Nutanix 개요 +2. RapDev Nutanix 클러스터 +3. RapDev Nutanix 호스트 및 디스크 +4. RapDev Nutanix VM + +## 지원 +지원 또는 기능 요청은 다음 채널을 통해 RapDev.io에 문의해 주세요. + +- 이메일: support@rapdev.io +- 채팅: [rapdev.io](https://www.rapdev.io/#Get-in-touch) +- 전화: 855-857-0222 + +--- +Made with ❤️ in Boston + +*원하시는 통합을 찾을 수 없나요? 조직에 필요한 중요한 기능이 누락되었나요? [요청 사항](mailto:support@rapdev.io)을 보내주시면 반영하도록 하겠습니다. + +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog 기술 파트너의 지원을 받습니다. 사용하려면 Marketplace에서 애플리케이션을 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/rapdev_rapid7.md b/content/ko/integrations/rapdev_rapid7.md new file mode 100644 index 00000000000..14b36d93660 --- /dev/null +++ b/content/ko/integrations/rapdev_rapid7.md @@ -0,0 +1,132 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: rapdev-rapid7 +app_uuid: 388017a0-e4cc-45ad-b038-c2141abf20c1 +assets: + dashboards: + RapDev rapid7 Investigations: assets/dashboards/rapdev_rapid7_investigations.json + RapDev rapid7 Overview: assets/dashboards/rapdev_rapid7_overview.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: true + metrics: + check: rapdev.rapid7.logs.processed + metadata_path: metadata.csv + prefix: rapdev.rapid7. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10191 + source_type_name: RapDev Rapid7 + logs: + source: rapid7 +author: + homepage: https://www.rapdev.io + name: RapDev + sales_email: ddsales@rapdev.io + support_email: support@rapdev.io + vendor_id: rapdev +categories: +- 로그 수집 +- marketplace +- 보안 +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: rapdev_rapid7 +integration_id: rapdev-rapid7 +integration_title: Rapid7 +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: rapdev_rapid7 +pricing: +- billing_type: flat_fee + includes_assets: true + product_id: rapid7 + short_description: 본 통합에 대한 정액제 요금 + unit_price: 500 +public_title: Rapid7 +short_description: Rapid7 로그 및 조사 활동 모니터링 +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Log Collection + - Category::Marketplace + - Category::Security + - Offering::Integration + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Submitted Data Type::Metrics + - Submitted Data Type::Events + - Submitted Data Type::Logs + configuration: README.md#Setup + description: Rapid7 로그 및 조사 활동 모니터링 + media: + - caption: 조사 + image_url: images/R7_investigations_dash_redacted.png + media_type: image + - caption: 상위 레벨 상태 + image_url: images/rapdev_rapid7_dashboard_.png + media_type: image + overview: README.md#Overview + support: README.md#Support + title: Rapid7 + uninstallation: README.md#Uninstallation +--- + + + + +## 개요 +본 통합은 현재 열려 있거나 최근 종료된 Rapid7 조사의 상태를 추적합니다. 이 통합은 이벤트가 열리거나 종료될 때 이벤트 스트림에 게시되며, 조사 ID를 중심으로 이벤트를 집계합니다. + +점검의 로그 부분(활성화된 경우)은 Rapid7 REST API를 사용하여 IDR 로그 스트림을 쿼리합니다. 본 통합은 Rapid7 플랫폼 레벨 로그로 간주되지 않는 모든 로그를 반환합니다. 해당 로그는 Datadog으로 제출됩니다. **참고:** 해당 로그를 제출하면 [Datadog 로그 관리 요금 스트럭처](https://www.datadoghq.com/pricing/?product=log-management#log-management)에 따라 Datadog 요금 플랜에 기반하여 추가 요금이 부과될 수도 있습니다. 이러한 로그는 보통 Rapid7 엔드포인트 에이전트 요약과 해당 시점의 프로세스 상태로 구성됩니다. + +### 대시보드 +1. 이 통합에는 Rapid 7 조사를 요약해 보여주는 기본 대시보드가 제공됩니다. +2. 이 통합에는 로그 기반 대시보드 예제도 포함되어 있습니다. 해당 대시보드는 통합을 설치하면 사용할 수 있지만, 데이터 플로를 보려면 R7 로그 소스에 대한 패싯을 생성해야 합니다. + +### 이벤트 +본 통합은 신규 개시/종료 조사에 대한 Datadog 이벤트를 생성합니다. 본 통합은 ID를 기반으로 조사의 상태를 추적하고 함께 생성된 개시 및 종료 이벤트를 집계합니다. + +### 메트릭 +점검당 처리된 로그 카운트는 메트릭으로 보고됩니다. + +### 로그 수집 +로그 수집은 옵션이며 기본적으로 비활성화되어 있습니다. +본 통합은 Rapid7 로그 API를 호출하여 마지막 시간 간격에서 사용할 수 있는 모든 로그를 쿼리합니다. 기본 시간 간격은 마지막 1분입니다. +Rapid7 insightIDR [로그 검색 문서][5]에 자세히 설명된 대로 특정 [로그 세트][4]를 지정하여 해당 로그만 가져올 수 있습니다. + +## 지원 +지원 또는 기능 요청은 다음 채널을 통해 RapDev.io에 문의하세요. + +- 지원: support@rapdev.io +- 영업 팀: sales@rapdev.io +- 채팅: [rapdev.io](https://www.rapdev.io/#Get-in-touch) +- 전화: 855-857-0222 + +--- +Made with ❤️ in Boston + +*찾고 계신 통합 이 아닌가요? 조직에 꼭 필요한 기능이 없나요? RapDev에 [메시지](mailto:support@rapdev.io)를 남겨주시면 빌드해 드릴게요!!!*. + +[1]: https://insight.rapid7.com/platform#/apiKeyManagement/organization +[2]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[3]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[4]: https://us.idr.insight.rapid7.com/op/D8A1412BEA86A11F15E5#/search +[5]: https://docs.rapid7.com/insightidr/log-search/ + +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog 기술 파트너의 지원을 받습니다. 사용하려면 Marketplace에서 애플리케이션을 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/rapdev_servicenow.md b/content/ko/integrations/rapdev_servicenow.md new file mode 100644 index 00000000000..dee0e72877e --- /dev/null +++ b/content/ko/integrations/rapdev_servicenow.md @@ -0,0 +1,119 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: rapdev-servicenow +app_uuid: 50d76130-5970-43e1-a055-0cd5d681d9b7 +assets: + dashboards: + RapDev ServiceNow: assets/dashboards/servicenow.json + RapDev ServiceNow ITSM: assets/dashboards/servicenow_itsm.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: true + metrics: + check: rapdev.servicenow.record + metadata_path: metadata.csv + prefix: rapdev.servicenow. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10184 + source_type_name: RapDev ServiceNow + logs: {} + monitors: + ServiceNow Records Pending Approval: assets/monitors/servicenow_pending_approval_monitor.json +author: + homepage: https://www.rapdev.io + name: RapDev + sales_email: ddsales@rapdev.io + support_email: support@rapdev.io + vendor_id: rapdev +categories: +- 클라우드 +- 인시던트 +- marketplace +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: rapdev_servicenow +integration_id: rapdev-servicenow +integration_title: ServiceNow 성능 모니터링 +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: rapdev_servicenow +pricing: +- billing_type: tag_count + includes_assets: true + metric: datadog.marketplace.rapdev.servicenow + product_id: servicenow + short_description: 인스턴스당 유닛 비용 + tag: instance_name + unit_label: ServiceNow 인스턴스 + unit_price: 1000 +public_title: ServiceNow 성능 모니터링 +short_description: ServiceNow 인스턴스 성능 및 ITSM 레코드 모니터링 +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Cloud + - Category::Incidents + - Category::Marketplace + - Offering::Integration + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: ServiceNow 인스턴스 성능 및 ITSM 레코드 모니터링 + media: + - caption: ServiceNow 인스턴스 성능 대시보드 + image_url: images/1.png + media_type: image + - caption: ServiceNow ITSM 대시보드 레코드 통계 1/2 + image_url: images/2.png + media_type: image + - caption: ServiceNow ITSM 대시보드 레코드 통계 2/2 + image_url: images/3.png + media_type: image + - caption: ServiceNow ITSM 대시보드 SLA 통계 + image_url: images/4.png + media_type: image + - caption: ServiceNow ITSM 대시보드 테이블 연결 통계 + image_url: images/5.png + media_type: image + overview: README.md#Overview + support: README.md#Support + title: ServiceNow 성능 모니터링 + uninstallation: README.md#Uninstallation +--- + + +## 개요 + +ServiceNow 성능 모니터링 통합은 트랜잭션, 작업, 데이터베이스 및 캐시 메트릭에 대한 풍부한 인사이트를 통해 ServiceNow 인스턴스의 서비스 상태 및 성능을 모니터링합니다. 아울러 본 통합은 오픈 ITSM 레코드를 추적하여 SLA와 비즈니스에 영향을 미치는 레코드의 수명 모두에 대해 실행 가능한 데이터 포인트를 제공합니다. + +## 지원 +지원 또는 기능 요청은 다음 채널을 통해 RapDev.io에 문의하세요. + + - 이메일: support@rapdev.io + - 채팅: [rapdev.io](https://www.rapdev.io/#Get-in-touch) + - 전화: 855-857-0222 + +--- + +Made with ❤️ in Boston + +*원하시는 통합을 찾을 수 없나요? 조직에 필요한 중요한 기능이 누락되었나요? [요청 사항](mailto:support@rapdev.io)을 보내주시면 반영하도록 하겠습니다.* + +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog 기술 파트너의 지원을 받습니다. 사용하려면 Marketplace에서 애플리케이션을 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/rapdev_snmp_trap_logs.md b/content/ko/integrations/rapdev_snmp_trap_logs.md new file mode 100644 index 00000000000..fa5bd72aaf5 --- /dev/null +++ b/content/ko/integrations/rapdev_snmp_trap_logs.md @@ -0,0 +1,114 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: rapdev-snmp-trap-logs +app_uuid: 754df420-1cf8-4742-b98c-9d3a76f83c41 +assets: + dashboards: + RapDev SNMP Trap Logs: assets/dashboards/rapdev_snmp_trap_logs_dashboard.json +author: + homepage: https://www.rapdev.io + name: RapDev + sales_email: ddsales@rapdev.io + support_email: support@rapdev.io + vendor_id: rapdev +categories: +- marketplace +- 네트워크 +- snmp +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: rapdev_snmp_trap_logs +integration_id: rapdev-snmp-trap-logs +integration_title: SNMP Trap 로그 +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: rapdev_snmp_trap_logs +pricing: +- billing_type: flat_fee + includes_assets: true + product_id: snmp-trap-logs + short_description: 본 통합에 대한 정액제 요금 + unit_price: 1000 +public_title: SNMP Trap 로그 +short_description: SNMP Trap 메시지를 Datadog 로그로 변환 +supported_os: +- linux +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Marketplace + - Category::Network + - Category::SNMP + - Supported OS::Linux + - Submitted Data Type::Logs + - Offering::Integration + configuration: README.md#Setup + description: SNMP Trap 메시지를 Datadog 로그로 변환 + media: + - caption: RapDev SNMP Trap 로그 + image_url: images/1.png + media_type: image + - caption: SNMP Trap 로그 메시지 + image_url: images/2.png + media_type: image + - caption: 파싱된 SNMP Trap + image_url: images/3.png + media_type: image + - caption: SNMP Trap 로그 대시보드 + image_url: images/4.png + media_type: image + overview: README.md#Overview + resources: + - resource_type: 블로그 + url: https://www.datadoghq.com/blog/diagnose-network-performance-with-snmp-trap-monitoring/ + support: README.md#Support + title: SNMP Trap 로그 + uninstallation: README.md#Uninstallation +--- + + +## 개요 +RapDev SNMP Trap 로그 패키지를 사용하면 SNMP Trap 메시지를 서로 다른 SNMP 장치 수천 개의 Datadog 로그로 변환할 수 있습니다. +찾을 수 있는 최대한 많은 MIB 파일을 수집하고, 이를 SNMP Trap을 +사람이 읽을 수 있는 로그 메시지로 번역할 수 있는 포멧으로 변환합니다. + +본 패키지에는 로그스태시(Logstash)를 SNMP Trap 리시버로 설정하는 설치 스크립트가 메시지를 번역하여 +Datadog 내에서 네트워크 이벤트에 알림을 보낼 수 있는 MIB 파일과 적절한 설정과 함께 제공됩니다. + +본 패키지에 포함된 모든 MIB의 목록은 [mib_yamls.txt 파일][4]을 참조하세요. + +## 지원 + +지원 또는 기능 요청은 다음 채널을 통해 RapDev.io에 문의해 주세요. + +- 이메일: [support@rapdev.io][7] +- 채팅: [rapdev.io][3] +- 전화: 855-857-0222 + +### 참고 자료 + +기타 유용한 문서, 링크 및 기사: + +- [SNMP Trap으로 네트워크 성능 문제 모니터링 및 진단][8] + +--- +Made with ❤️ in Boston + +*찾고 계신 통합 이 아닌가요? 조직에 꼭 필요한 기능이 없나요? RapDev에 [메시지](mailto:support@rapdev.io)를 남겨주시면 빌드해 드릴게요!!!*. + +[1]: https://docs.datadoghq.com/ko/logs/guide/enrichment-tables +[2]: https://docs.datadoghq.com/ko/logs/log_configuration/processors/?tab=ui#log-message-remapper +[3]: https://www.rapdev.io/#Get-in-touch +[4]: https://files.rapdev.io/datadog/configs/mib_yamls.txt +[5]: mailto:sales@rapdev.io +[6]: https://mibs.observium.org +[7]: mailto:support@rapdev.io +[8]: https://www.datadoghq.com/blog/diagnose-network-performance-with-snmp-trap-monitoring/ +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog 기술 파트너의 지원을 받습니다. 사용하려면 Marketplace에서 애플리케이션을 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/rapdev_solaris_agent.md b/content/ko/integrations/rapdev_solaris_agent.md new file mode 100644 index 00000000000..ae8b57bbba6 --- /dev/null +++ b/content/ko/integrations/rapdev_solaris_agent.md @@ -0,0 +1,103 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: rapdev-solaris-agent +app_uuid: a994f2cf-1f77-4e74-803d-fb833455e224 +assets: + integration: + auto_install: false + configuration: {} + events: + creates_events: false + metrics: + check: datadog.marketplace.rapdev.solaris_agent + metadata_path: metadata.csv + prefix: rapdev.solaris_agent. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10135 + source_type_name: RapDev Solaris 에이전트 +author: + homepage: https://www.rapdev.io + name: RapDev + sales_email: ddsales@rapdev.io + support_email: support@rapdev.io + vendor_id: rapdev +categories: +- marketplace +- oracle +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: rapdev_solaris_agent +integration_id: rapdev-solaris-agent +integration_title: Solaris 에이전트 +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: rapdev_solaris_agent +pricing: +- billing_type: tag_count + includes_assets: true + metric: datadog.marketplace.rapdev.solaris_agent + product_id: solaris-agent + short_description: 호스트별 유닛 비용 + tag: 호스트 + unit_label: Solaris 에이전트 + unit_price: 100.0 +public_title: Solaris 에이전트 +short_description: sparc 및 i86pc에서 Solaris 10 및 11용 메트릭을 제공하는 에이전트 +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Marketplace + - Category::Oracle + - Offering::Integration + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: sparc 및 i86pc에서 Solaris 10 및 11용 메트릭을 제공하는 에이전트 + media: + - caption: 인프라스트럭처 목록 + image_url: images/1.png + media_type: image + - caption: 호스트 인프라스트럭처 세부 정보 + image_url: images/2.png + media_type: image + - caption: 호스트 메트릭 + image_url: images/3.png + media_type: image + overview: README.md#Overview + support: README.md#Support + title: Solaris 에이전트 + uninstallation: README.md#Uninstallation +--- + + + +## 개요 + +Solaris 에이전트로 Datadog 내에서 Solaris 시스템 메트릭을 수집 및 보고할 수 있습니다. 본 통합은 SPARC 및 i86pc 아키텍처와 Solaris 10 및 11을 모두 지원합니다. Solaris 에이전트는 기본 Solaris Perl 시스템 배포를 사용하며 추가 라이브러리 종속성이 필요하지 않아 설치 및 호환성이 간소화됩니다. + +Solaris 에이전트는 Datadog 인프라스트럭처 목록을 지원하는 데 필요한 호스트 메타데이터를 제공하여 조직이 지원되는 다른 Datadog 호스트 운영 체제와 유사한 Solaris 호스트 시스템으로 작업할 수 있도록 도와드립니다. + +Solaris 에이전트는 기본 에이전트와 동일한 URL 및 포트를 사용합니다. Solaris 에이전트는 코어 인프라스트럭처 메트릭, 프로세스 점검, 로그 테일을 지원합니다. 통합 또는 서비스 점검은 지원하지 않습니다. + +## 지원 + +지원 또는 기능 요청은 다음 채널을 통해 RapDev.io에 문의해 주세요. + + - 이메일: support@rapdev.io + - 채팅: [rapdev.io](https://www.rapdev.io/#Get-in-touch) + - 전화: 855-857-0222 + +--- +Made with ❤️ in Boston + +*원하시는 통합을 찾을 수 없나요? 조직에 필요한 중요한 기능이 누락되었나요? [요청 사항](mailto:support@rapdev.io)을 보내주시면 반영하도록 하겠습니다.* + +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog 기술 파트너의 지원을 받습니다. 사용하려면 Marketplace에서 애플리케이션을 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/rapdev_sophos.md b/content/ko/integrations/rapdev_sophos.md new file mode 100644 index 00000000000..08d4e04837c --- /dev/null +++ b/content/ko/integrations/rapdev_sophos.md @@ -0,0 +1,119 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: rapdev-sophos +app_uuid: 86b68ae7-ba52-4160-bbf5-e1455fafa677 +assets: + dashboards: + RapDev Sophos Dashboard: assets/dashboards/rapdev_sophos_dashboard.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: rapdev.sophos.endpoint.registered + metadata_path: metadata.csv + prefix: rapdev.sophos. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10192 + source_type_name: RapDev Sophos + logs: {} + monitors: + Endpoint is no longer in good health: assets/monitors/sophos_endpoint_health.json + Sophos Service is stopped: assets/monitors/sophos_service_running.json +author: + homepage: https://www.rapdev.io + name: RapDev + sales_email: ddsales@rapdev.io + support_email: support@rapdev.io + vendor_id: rapdev +categories: +- marketplace +- 보안 +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: rapdev_sophos +integration_id: rapdev-sophos +integration_title: Sophos +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: rapdev_sophos +pricing: +- billing_type: tag_count + includes_assets: true + metric: datadog.marketplace.rapdev.sophos + product_id: sophos + short_description: 엔드포인트당 유닛 비용 + tag: endpoint_name + unit_label: 등록된 엔드포인트 + unit_price: 1 +public_title: Sophos +short_description: Sophos 관리형 엔드포인트의 서비스 상태 모니터링 +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Marketplace + - Category::Security + - Offering::Integration + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: Sophos 관리형 엔드포인트의 서비스 상태 모니터링 + media: + - caption: Sophos 대시보드 + image_url: images/dashboard.png + media_type: image + overview: README.md#Overview + support: README.md#Support + title: Sophos + uninstallation: README.md#Uninstallation +--- + + + + +## 개요 + +Sophos 통합은 Sophos 관리형 엔드포인트의 전반적인 서비스 상태를 모니터링하여 관리형 장치가 양호한 서비스 상태인지 확인합니다. 본 통합은 장치 서비스 상태를 모니터링하는 데 사용하는 여러 메트릭의 폭넓은 개요를 제공하는 기본 내장 대시보드 1개가 함께 제공됩니다. 또한 Sophos 통합에는 장치의 서비스 상태가 양호하지 않거나 장치의 Sophos 서비스 중 하나가 중지되는 경우 경고하는 데 사용하는 모니터링 2개가 함께 제공됩니다. + +### 모니터 +1. 관리형 엔드포인트 상태가 변경됨 +2. 관리형 엔드포인트의 Sophos 서비스가 중지됨 + +### 대시보드 +1. RapDev Sophos 대시보드 + +## 지원 +지원 또는 기능 요청은 다음 채널을 통해 RapDev.io에 문의하세요. + +- 지원: support@rapdev.io +- 영업 팀: sales@rapdev.io +- 채팅: [rapdev.io](https://www.rapdev.io/#Get-in-touch) +- 전화: 855-857-0222 + +--- +Made with ❤️ in Boston + +*찾고 계신 통합 이 아닌가요? 조직에 꼭 필요한 기능이 없나요? RapDev에 [메시지](mailto:support@rapdev.io)를 남겨주시면 빌드해 드릴게요!!!*. + +[1]: https://docs.datadoghq.com/ko/agent/kubernetes/integrations/ +[2]: https://github.com/DataDog/integrations-core/blob/master/rapdev_sophos/datadog_checks/rapdev_sophos/data/conf.yaml.example +[3]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[4]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information + +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog 기술 파트너의 지원을 받습니다. 사용하려면 Marketplace에서 애플리케이션을 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/rapdev_terraform.md b/content/ko/integrations/rapdev_terraform.md new file mode 100644 index 00000000000..ea9605fea58 --- /dev/null +++ b/content/ko/integrations/rapdev_terraform.md @@ -0,0 +1,117 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: rapdev-terraform +app_uuid: d7240832-9c24-4fc0-9a02-916bc57882c1 +assets: + dashboards: + RapDev Terraform Dashboard: assets/dashboards/rapdev_terraform_overview.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: rapdev.terraform.org.count + metadata_path: metadata.csv + prefix: rapdev.terraform. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10193 + source_type_name: RapDev Terraform + logs: {} +author: + homepage: https://www.rapdev.io + name: RapDev + sales_email: ddsales@rapdev.io + support_email: support@rapdev.io + vendor_id: rapdev +categories: +- 설정 및 배포 +- 개발 툴 +- marketplace +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: rapdev_terraform +integration_id: rapdev-terraform +integration_title: Terraform +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: rapdev_terraform +pricing: +- billing_type: flat_fee + includes_assets: true + product_id: terraform + short_description: 본 통합에 대한 정액제 요금 + unit_price: 100 +public_title: Terraform +short_description: Terraform 계정 및 실패한 실행 모니터링 +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Configuration & Deployment + - Category::Developer Tools + - Category::Marketplace + - Offering::Integration + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: Terraform 계정 및 실패한 실행 모니터링 + media: + - caption: Terraform 조직 및 워크스페이스 실행 + image_url: images/1.jpg + media_type: image + - caption: Terraform 조직 토큰 및 권한 + image_url: images/2.jpg + media_type: image + - caption: Terraform 권한 감사 및 에이전트 + image_url: images/3.jpg + media_type: image + overview: README.md#Overview + support: README.md#Support + title: Terraform + uninstallation: README.md#Uninstallation +--- + + + + +## 개요 + +Terraform 통합을 통해 조직은 Terraform 계정을 적극적으로 모니터링하여 얼마나 잘 작동하는지 또 얼마나 자주 사용되는지 보다 잘 이해할 수 있습니다. 본 통합은 권한 감사를 제공하는 수준까지 확장됩니다. + +### 대시보드 + +1. RapDev Terraform 대시보드 + +## 지원 +지원 또는 기능 요청은 다음 채널을 통해 RapDev.io에 문의해 주세요. + +- 지원: support@rapdev.io +- 영업 팀: sales@rapdev.io +- 채팅: [rapdev.io](https://www.rapdev.io/#Get-in-touch) +- 전화: 855-857-0222 + +--- +Made with ❤️ in Boston + +*찾고 계신 통합 이 아닌가요? 조직에 꼭 필요한 기능이 없나요? RapDev에 [메시지](mailto:support@rapdev.io)를 남겨주시면 빌드해 드릴게요!!!*. + +[1]: https://www.terraform.io/docs/cloud/users-teams-organizations/users.html#api-tokens +[2]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[3]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information + +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog 기술 파트너의 지원을 받습니다. 사용하려면 Marketplace에서 애플리케이션을 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/rapdev_validator.md b/content/ko/integrations/rapdev_validator.md new file mode 100644 index 00000000000..8507d804821 --- /dev/null +++ b/content/ko/integrations/rapdev_validator.md @@ -0,0 +1,115 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: rapdev-validator +app_uuid: d66f715a-4218-40f0-af35-a147c45c1d11 +assets: + dashboards: + RapDev Validator Dashboard: assets/dashboards/rapdev_validator_dashboard.json + RapDev Validator Host Dashboard: assets/dashboards/host_dashboard.json + RapDev Validator Synthetic Dashboard: assets/dashboards/synthetic_dashboard.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: rapdev.validator.agent.installed + metadata_path: metadata.csv + prefix: rapdev.validator. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10183 + source_type_name: RapDev Validator + logs: {} + monitors: + Host has a non-compliant value for their tag key: assets/monitors/host_non_compliant_value.json + Host is missing their required tag key: assets/monitors/host_missing_tag_key.json +author: + homepage: https://www.rapdev.io + name: RapDev + sales_email: ddsales@rapdev.io + support_email: support@rapdev.io + vendor_id: rapdev +categories: +- 준수 +- 설정 및 배포 +- marketplace +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: rapdev_validator +integration_id: rapdev-validator +integration_title: Validator 태그 +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: rapdev_validator +pricing: +- billing_type: flat_fee + includes_assets: true + product_id: validator + short_description: 본 통합에 대한 정액제 요금 + unit_price: 500 +public_title: Validator 태그 +short_description: DD 환경에서 모니터링 태그 유효성 검사 및 에이전트 규정 준수 보장 +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Compliance + - Category::Configuration & Deployment + - Category::Marketplace + - Offering::Integration + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: DD 환경에서 모니터링 태그 유효성 검사 및 에이전트 규정 준수 보장 + media: + - caption: Validator 대시보드 + image_url: images/validator.png + media_type: image + overview: README.md#Overview + support: README.md#Support + title: Validator 태그 + uninstallation: README.md#Uninstallation +--- + + + + +## 개요 +RapDev Validator는 Datadog 환경에서 모니터링 태그 및 에이전트 규정 준수 문제를 해결합니다. 본 통합은 환경 태깅 전략에 따라 허용되는 것으로 간주하는 태그 키와 그 값의 목록을 허용하고 이를 메트릭 및 서비스 점검으로 Datadog 인스턴스에 보고합니다. 이렇게 하면 환경의 호스트에 올바른 태그가 적용되었는지 여부를 표시할 수 있습니다. + +### 대시보드 +1. RapDev Validator 호스트 대시보드 +2. RapDev Validator 신서틱(Synthetic) 대시보드 +3. RapDev Validator 대시보드 + +### 모니터 +1. 호스트에 필수 태그 키가 누락됨 +2. 호스트에 태그 키 비준수 값이 있음 + +## 지원 +지원 또는 기능 요청은 다음 채널을 통해 RapDev.io에 문의하세요. + +- 이메일: support@rapdev.io +- 채팅: [rapdev.io](https://www.rapdev.io/#Get-in-touch) +- 전화: 855-857-0222 + +--- +Made with ❤️ in Boston + +*원하시는 통합을 찾을 수 없나요? 조직에 필요한 중요한 기능이 누락되었나요? [요청 사항](mailto:support@rapdev.io)을 보내주시면 반영하도록 하겠습니다. + +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog 기술 파트너의 지원을 받습니다. 사용하려면 Marketplace에서 애플리케이션을 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/rapdev_zoom.md b/content/ko/integrations/rapdev_zoom.md new file mode 100644 index 00000000000..6662ef14428 --- /dev/null +++ b/content/ko/integrations/rapdev_zoom.md @@ -0,0 +1,146 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: rapdev-zoom +app_uuid: a79217b7-6499-4de5-8ebd-73a91d227644 +assets: + dashboards: + RapDev Zoom Call Quality: assets/dashboards/rapdev_zoom_meeting_quality.json + RapDev Zoom Geolocation Overview: assets/dashboards/rapdev_zoom_geo_overview.json + RapDev Zoom Overview: assets/dashboards/rapdev_zoom_overview.json + RapDev Zoom Phones Overview: assets/dashboards/rapdev_zoom_phones_overview.json + RapDev Zoom Rooms Dashboard: assets/dashboards/rapdev_zoom_rooms_dashboard.json + RapDev Zoom User Details: assets/dashboards/rapdev_zoom_user_details.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: rapdev.zoom.meetings.count + metadata_path: metadata.csv + prefix: rapdev.zoom. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10150 + source_type_name: RapDev Zoom + logs: {} + monitors: + API usage has hit the rate limit: assets/monitors/zoom_api_rate_limit.json + Zoom Room has a problem: assets/monitors/zoom_room_has_problem.json + Zoom Room's Component has a problem: assets/monitors/zoom_room_component_has_problem.json +author: + homepage: https://www.rapdev.io + name: RapDev + sales_email: ddsales@rapdev.io + support_email: support@rapdev.io + vendor_id: rapdev +categories: +- marketplace +- 클라우드 +- 협업 +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: rapdev_zoom +integration_id: rapdev-zoom +integration_title: Zoom +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: rapdev_zoom +pricing: +- billing_type: tag_count + includes_assets: true + metric: datadog.marketplace.rapdev.zoom + product_id: zoom + short_description: 사용자 또는 장치당 유닛 비용 + tag: zoom_user_email + unit_label: Zoom 등록 사용자 및 Phone 장치 + unit_price: 1 +public_title: Zoom +short_description: Zoom 계정 모니터링 및 라이선스 최적화 +supported_os: +- linux +- macos +- windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::macOS + - Supported OS::Windows + - Category::Marketplace + - Category::Cloud + - Category::Collaboration + - Offering::Integration + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: Zoom 계정 모니터링 및 라이선스 최적화 + media: + - caption: 미팅 개요 + image_url: images/meetings.png + media_type: image + - caption: Zoom Rooms 대시보드 + image_url: images/rooms.png + media_type: image + - caption: 미팅 품질 개요 + image_url: images/meeting_quality.png + media_type: image + - caption: 사용자 세부 정보 대시보드 + image_url: images/user_details.png + media_type: image + - caption: 지리적 위치 개요 + image_url: images/geo.png + media_type: image + overview: README.md#Overview + support: README.md#Support + title: Zoom + uninstallation: README.md#Uninstallation +--- + + + + +## 개요 + +Zoom 통합은 미팅, 룸, 사용자, 네트워크 통계 및 지리적 위치 개요를 모니터링하는 기능을 갖추고 있어 전 세계 어디서든 직원에게 최적의 환경을 제공해 드립니다. 본 통합에는 가장 중요한 정보가 잘 보이게 표시되는, 사용자 지정 가능한 대시보드 4개가 기본 내장되어 있습니다. 또한 최고 경영진, 관리자, 기술 책임자, 엔지니어 등에게 변경 없이 전달할 수 있도록 시각화를 설계하였습니다! + +### 모니터링 + +1. Zoom Room에 문제가 있음 +2. Zoom Room의 구성요소에 문제가 있음 + +### 대시보드 + +1. RapDev Zoom Meetings 개요 +2. RapDev Zoom Rooms 대시보드 +3. RapDev Zoom Meetings 품질 +4. RapDev Zoom 사용자 세부 정보 +5. RapDev Zoom Geo 개요 +6. RapDev Zoom Phones 개요 + +## 지원 +지원 또는 기능 요청은 다음 채널을 통해 RapDev.io에 문의하세요. + +- 지원: support@rapdev.io +- 영업 팀: sales@rapdev.io +- 채팅: [rapdev.io](https://www.rapdev.io/#Get-in-touch) +- 전화: 855-857-0222 + +--- +Made with ❤️ in Boston + +*찾고 계신 통합 이 아닌가요? 조직에 꼭 필요한 기능이 없나요? RapDev에 [메시지](mailto:support@rapdev.io)를 남겨주시면 빌드해 드릴게요!!!*. + +[1]: https://marketplace.zoom.us/ +[2]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[3]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information + + +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog 기술 파트너의 지원을 받습니다. 사용하려면 Marketplace에서 애플리케이션을 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/rbltracker.md b/content/ko/integrations/rbltracker.md new file mode 100644 index 00000000000..9f839a13844 --- /dev/null +++ b/content/ko/integrations/rbltracker.md @@ -0,0 +1,102 @@ +--- +app_id: rbltracker +app_uuid: 4b512bd9-ca9d-4d6a-b4f2-5fec54ce75bc +assets: + integration: + auto_install: true + configuration: {} + events: + creates_events: true + metrics: + check: [] + metadata_path: metadata.csv + prefix: rbltracker. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10007 + source_type_name: RBLTracker +author: + homepage: https://github.com/DataDog/integrations-extras + name: RBL Tracker + sales_email: help@datadoghq.com + support_email: help@datadoghq.com +categories: +- security +custom_kind: 통합 +dependencies: +- https://github.com/DataDog/integrations-extras/blob/master/rbltracker/README.md +display_on_public_website: true +draft: false +git_integration_title: rbltracker +integration_id: rbltracker +integration_title: RBLTracker +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: rbltracker +public_title: RBLTracker +short_description: RBLTracker는 사용하기 쉬운 실시간 블랙리스트 모니터링을 제공합니다. +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Category::Security + - Supported OS::macOS + - Offering::Integration + configuration: README.md#Setup + description: RBLTracker는 사용하기 쉬운 실시간 블랙리스트 모니터링을 제공합니다. + media: [] + overview: README.md#Overview + support: README.md#Support + title: RBLTracker +--- + + +## 개요 + +RBLTracker는 이메일, 웹사이트, 소셜 미디어에 대한 사용하기 쉬운 실시간 블랙리스트 모니터링을 제공합니다. + +다음과 같이 [RBLTracker][1] 계정을 Datadog에 연결합니다. + +- RBLTracker에서 대시보드로 목록 등록 이벤트를 푸시합니다. +- RBLTracker에서 대시보드로 목록 해제 이벤트를 푸시합니다. + +## 설정 + +다음과 같이 웹훅을 사용하여 RBLTracker를 설정합니다. + +1. Datadog의 **통합 -> APIs** 섹션에서 [API 키를 복사][2]합니다. +2. [RBLTracker][1]에서 RBLTracker 포털의 **관리 -> 연락처** 섹션에서 새 Datadog 연락처 유형을 생성합니다. +3. Datadog **API 키**를 붙여넣습니다. +4. (옵션) 새 연락처에 대한 연락처 일정을 조정합니다. + +RBLTracker는 목록 등록 및 해제 알림을 Datadog 이벤트 대시보드로 전송합니다. 전체 통합 지침을 확인하려면 [Datadog 연락처 유형 추가하기][3]를 참조하세요. + +## 수집한 데이터 + +### 메트릭 + +RBLTracker 점검에는 메트릭이 포함되어 있지 않습니다. + +### 이벤트 + +RBLTracker 목록 등록/해제 이벤트를 [Datadog 이벤트 스트림][4]에 푸시합니다. + +### 서비스 점검 + +RBLTracker 점검은 서비스 점검을 포함하지 않습니다. + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 지원팀][5]에 문의하세요. + +[1]: https://rbltracker.com +[2]: https://app.datadoghq.com/organization-settings/api-keys +[3]: https://rbltracker.com/docs/adding-a-datadog-contact-type +[4]: https://docs.datadoghq.com/ko/events/ +[5]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/reboot_required.md b/content/ko/integrations/reboot_required.md new file mode 100644 index 00000000000..a2c8877a2da --- /dev/null +++ b/content/ko/integrations/reboot_required.md @@ -0,0 +1,124 @@ +--- +app_id: reboot-required +app_uuid: 673a1136-68ad-46f4-ba6f-4203df10db6a +assets: + integration: + auto_install: true + configuration: {} + events: + creates_events: false + metrics: + check: [] + metadata_path: metadata.csv + prefix: reboot-required. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10209 + source_type_name: Reboot required +author: + homepage: https://github.com/DataDog/integrations-extras + name: 커뮤니티 + sales_email: support@krugerheavyindustries.com + support_email: support@krugerheavyindustries.com +categories: +- developer tools +- os & system +custom_kind: 통합 +dependencies: +- https://github.com/DataDog/integrations-extras/blob/master/reboot_required/README.md +display_on_public_website: true +draft: false +git_integration_title: reboot_required +integration_id: reboot-required +integration_title: Reboot Required +integration_version: 1.0.0 +is_public: true +manifest_version: 2.0.0 +name: reboot_required +public_title: Reboot Required +short_description: 소프트웨어 업데이트 후 재부팅이 필요한 시스템 모니터링 +supported_os: +- linux +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Developer Tools + - Category::OS & System + - Supported OS::Linux + - Offering::Integration + configuration: README.md#Setup + description: 소프트웨어 업데이트 후 재부팅이 필요한 시스템 모니터링 + media: [] + overview: README.md#Overview + support: README.md#Support + title: Reboot Required +--- + + + + +## 개요 + +패키지를 자동 설치하도록 설정된 Linux 시스템은 자동 재부팅하도록 설정되지 않을 수도 있습니다(수동으로 시간을 지정하는 것이 바람직할 수도 있음). 본 점검으로 재부팅이 적시에 수행되지 않을 경우 알림이 전송되도록 설정할 수 있습니다. + +## 설정 + +Reboot Required 점검은 [Datadog 에이전트][1] 패키지에 포함되어 있지 않으므로 설치해야 합니다. + +### 설치 + +에이전트 v7.21+/v6.21+의 경우 아래 지침을 따라 호스트에 Reboot Required 점검을 설치하세요. [커뮤니티 통합 사용][2]을 확인하여 도커(Docker) 에이전트 또는 이전 버전의 에이전트를 설치합니다. + +1. 다음 명령어를 실행해 에이전트 통합을 설치하세요. + + ```shell + datadog-agent integration install -t datadog-reboot_required== + ``` + +2. 통합을 코어 [통합][3]과 유사하게 설정하세요. + +### 구성 + +1. [에이전트 설정 디렉토리][4] 루트의 `conf.d/` 폴더에 있는 `reboot_required.d/conf.yaml` 파일을 편집합니다. 사용 가능한 모든 설정 옵션은 [reboot_required.d/conf.yaml 샘플][5]을 참조하세요. + +2. 에이전트에 대한 dd-에이전트(Datadog 에이전트를 실행하는 사용자) 쓰기 가능 디렉토리를 생성하고 본 점검이 이를 사용해야 합니다. 기본값은 `/var/run/dd-agent`이 최적입니다. 다음 스니펫으로 충분합니다. + + ```shell + sudo mkdir /var/run/dd-agent + sudo chown dd-agent:dd-agent /var/run/dd-agent + ``` + +3. [Agent를 재시작합니다][6]. + +### 검증 + +[에이전트의 `status` 하위 명령을 실행][7]하고 점검 섹션에서 `reboot_required`를 찾으세요. + +## 수집한 데이터 + +### 메트릭 + +메트릭 수집되지 않습니다. + +### 이벤트 + +Reboot_required 점검에는 이벤트가 포함되어 있지 않습니다. + +### 서비스 점검 +{{< get-service-checks-from-git "reboot_required" >}} + + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 지원팀][9]에 문의하세요. + + +[1]: https://app.datadoghq.com/account/settings/agent/latest +[2]: https://docs.datadoghq.com/ko/agent/guide/use-community-integrations/ +[3]: https://docs.datadoghq.com/ko/getting_started/integrations/ +[4]: https://docs.datadoghq.com/ko/agent/guide/agent-configuration-files/#agent-configuration-directory +[5]: https://github.com/DataDog/integrations-extras/blob/master/reboot_required/datadog_checks/reboot_required/data/conf.yaml.example +[6]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[7]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#service-status +[8]: https://github.com/DataDog/integrations-extras/blob/master/reboot_required/assets/service_checks.json +[9]: http://docs.datadoghq.com/help \ No newline at end of file diff --git a/content/ko/integrations/redis_sentinel.md b/content/ko/integrations/redis_sentinel.md new file mode 100644 index 00000000000..0d4e77ab91b --- /dev/null +++ b/content/ko/integrations/redis_sentinel.md @@ -0,0 +1,124 @@ +--- +app_id: redis-sentinel +app_uuid: 207e2b2c-5fad-40a4-a4fc-09f119e142d3 +assets: + integration: + auto_install: true + configuration: {} + events: + creates_events: false + metrics: + check: redis.sentinel.known_sentinels + metadata_path: metadata.csv + prefix: redis. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10210 + source_type_name: Redis Sentinel +author: + homepage: https://github.com/DataDog/integrations-extras + name: 커뮤니티 + sales_email: help@datadoghq.com + support_email: help@datadoghq.com +categories: +- os & system +custom_kind: 통합 +dependencies: +- https://github.com/DataDog/integrations-extras/blob/master/redis_sentinel/README.md +display_on_public_website: true +draft: false +git_integration_title: redis_sentinel +integration_id: redis-sentinel +integration_title: Redis Sentinel +integration_version: 1.1.1 +is_public: true +manifest_version: 2.0.0 +name: redis_sentinel +public_title: Redis Sentinel +short_description: Redis Sentinel은 Redis에 대한 고가용성을 제공합니다. +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::OS & System + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Offering::Integration + configuration: README.md#Setup + description: Redis Sentinel은 Redis에 대한 고가용성을 제공합니다. + media: [] + overview: README.md#Overview + support: README.md#Support + title: Redis Sentinel +--- + + + + +## 개요 + +Redis Sentinel 서비스에서 실시간으로 메트릭을 받아 다음을 수행할 수 있습니다. + +- Sentinel 상태 시각화 및 모니터링 +- 장애 조치에 대한 알림 받기 + +## 설정 + +Redis Sentinel 점검은 [Datadog 에이전트][1] 패키지에 포함되어 있지 않으므로 설치해야 합니다. + +### 설치 + +에이전트 v7.21+/v6.21+의 경우 아래 지침을 따라 호스트에 Redis Sentinel 점검을 설치하세요. [커뮤니티 통합 사용][2]을 확인하여 도커(Docker) 에이전트 또는 이전 버전의 에이전트를 설치합니다. + +1. 다음 명령어를 실행해 에이전트 통합을 설치하세요. + + ```shell + datadog-agent integration install -t datadog-redis_sentinel== + ``` + +2. 통합을 코어 [통합][3]과 유사하게 설정하세요. + +### 구성 + +1. Redis Sentinel [메트릭](#metrics) 수집을 시작하려면 [에이전트 설정 디렉토리][4]의 루트에 있는 `conf.d/` 폴더에서 `redis_sentinel.d/conf.yaml` 파일을 편집합니다. + 사용 가능한 모든 설정 옵션은 [upsc.d/conf.yaml 샘플][5]을 참조하세요. + +2. [에이전트 재시작][6] + +## 검증 + +[에이전트 상태 하위 명령][7]을 실행하고 점검 섹션에서 `redis_sentinel`을 찾습니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "redis_sentinel" >}} + + +### 이벤트 + +Redis Sentinel 점검에는 이벤트가 포함되지 않습니다. + +### 서비스 점검 +{{< get-service-checks-from-git "redis_sentinel" >}} + + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 고객 지원팀][10]에 문의해주세요. + + +[1]: https://app.datadoghq.com/account/settings/agent/latest +[2]: https://docs.datadoghq.com/ko/agent/guide/use-community-integrations/ +[3]: https://docs.datadoghq.com/ko/getting_started/integrations/ +[4]: https://docs.datadoghq.com/ko/agent/guide/agent-configuration-files/#agent-configuration-directory +[5]: https://github.com/DataDog/integrations-extras/blob/master/redis_sentinel/datadog_checks/redis_sentinel/data/conf.yaml.example +[6]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[7]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#service-status +[8]: https://github.com/DataDog/integrations-extras/blob/master/redis_sentinel/metadata.csv +[9]: https://github.com/DataDog/integrations-extras/blob/master/redis_sentinel/assets/service_checks.json +[10]: http://docs.datadoghq.com/help \ No newline at end of file diff --git a/content/ko/integrations/redisdb.md b/content/ko/integrations/redisdb.md new file mode 100644 index 00000000000..43a535a42d9 --- /dev/null +++ b/content/ko/integrations/redisdb.md @@ -0,0 +1,490 @@ +--- +app_id: redis +app_uuid: 15f0ff37-2b36-4165-9606-758271d4a16d +assets: + dashboards: + redis: assets/dashboards/overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: redis.net.clients + metadata_path: metadata.csv + prefix: redis. + process_signatures: + - redis-server + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 21 + source_type_name: Redis + monitors: + Memory consumption is high: assets/monitors/high_mem.json + saved_views: + error_warning_status: assets/saved_views/error_warning_status.json + pid_overview: assets/saved_views/pid_overview.json + redis_pattern: assets/saved_views/redis_pattern.json + redis_processes: assets/saved_views/redis_processes.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- caching +- data stores +- log collection +- tracing +custom_kind: 통합 +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/redisdb/README.md +display_on_public_website: true +draft: false +git_integration_title: redisdb +integration_id: redis +integration_title: Redis +integration_version: 7.2.0 +is_public: true +manifest_version: 2.0.0 +name: redisdb +public_title: Redis +short_description: Redis 성능, 메모리 사용, 차단된 클라이언트, 삭제된 키 등을 추적하세요. +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Caching + - Category::Data Stores + - Category::Log Collection + - Category::Tracing + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Offering::Integration + configuration: README.md#Setup + description: Redis 성능, 메모리 사용, 차단된 클라이언트, 삭제된 키 등을 추적하세요. + media: [] + overview: README.md#Overview + resources: + - resource_type: 블로그 + url: https://www.datadoghq.com/blog/how-to-monitor-redis-performance-metrics + support: README.md#Support + title: Redis +--- + + + + +## 개요 + +Redis를 데이터베이스, 캐시 또는 메시지 큐로 사용하든 관계없이, 본 통합은 Redis 서버, 클라우드 서비스, 제공하는 인프라스트럭처 일부의 문제를 추적합니다. Datadog 에이전트의 Redis 점검을 사용하여 다음과 관련된 메트릭 정보를 수집합니다. + +- 성능 +- 메모리 사용량 +- 차단된 클라이언트 +- 보조 연결 +- 디스크 영속성 +- 만료 및 삭제된 키 +- 그 외 기타 + +## 설정 + +### 설치 + +Redis 점검은 [Datadog 에이전트][1] 패키지에 포함되어 있으므로 Redis 서버에 추가 설치할 필요가 없습니다. + +### 설정 + +{{< tabs >}} +{{% tab "Host" %}} + +#### 호스트 + +호스트에서 실행 중인 에이전트에 대해 이 점검을 구성하려면: + +##### 메트릭 수집 + +1. [에이전트 설정 디렉토리][1]의 루트에 있는 `conf.d/` 폴더에서 `redisdb.d/conf.yaml` 파일을 편집합니다. 다음 파라미터를 업데이트해야 할 수도 있습니다. 사용 가능한 모든 설정 옵션은 [redisdb.d/conf.yaml 샘플][2]을 참조하세요. + + ```yaml + init_config: + instances: + ## @param host - string - required + ## Enter the host to connect to. + - host: localhost + ## @param port - integer - required + ## Enter the port of the host to connect to. + port: 6379 + + ## @param username - string - optional + ## The username to use for the connection. Redis 6+ only. + # + # username: + + ## @param password - string - optional + ## The password to use for the connection. + # + # password: + ``` + +2. Redis 6+ 및 ACL을 사용한다면 사용자에게 최소 데이터베이스 수준 `DB Viewer` 권한, 클러스터 환경에서 작동하는 경우 `Cluster Viewer` 권한, `+config|get +info +slowlog|get` ACL 규칙이 있는지 확인하세요. 자세한 내용은 [데이터베이스 액세스 제어][3]를 참조하세요. + +3. [에이전트를 재시작합니다][4]. + +##### 로그 수집 + +_Agent 버전 6.0 이상에서 사용 가능_ + +1. Datadog 에이전트에서 로그 수집은 기본적으로 사용하지 않도록 설정되어 있습니다. `datadog.yaml`파일에서 로그 수집을 사용하도록 설정합니다. + + ```yaml + logs_enabled: true + ``` + +2. `redisdb.d/conf.yaml`의 하단에서 이 설정 블록의 주석 처리를 제거하고 편집합니다. + + ```yaml + logs: + - type: file + path: /var/log/redis_6379.log + source: redis + service: myapplication + ``` + + `path`와 `service` 파라미터 값을 내 환경에 맞게 변경 및 설정하세요. 사용할 수 있는 설정 옵션 전체를 보려면 [redisdb.yaml 샘플][2]을 참고하세요. + +3. [에이전트를 재시작합니다][4]. + +##### 트레이스 수집 + +Datadog APM은 Redis와 통합되어 분산 시스템 전체의 트레이스를 확인합니다. Datadog 에이전트 v6+에서는 트레이스 수집이 기본적으로 활성화되어 있습니다. 트레이스 수집을 시작하려면 다음 지침을 따르세요. + +1. [Datadog에서 트레이스 수집을 활성화합니다][5]. +2. [Redis에 요청하는 애플리케이션을 계측합니다][6]. + + +[1]: https://docs.datadoghq.com/ko/agent/guide/agent-configuration-files/#agent-configuration-directory +[2]: https://github.com/DataDog/integrations-core/blob/master/redisdb/datadog_checks/redisdb/data/conf.yaml.example +[3]: https://docs.redis.com/latest/rs/security/passwords-users-roles/ +[4]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[5]: https://docs.datadoghq.com/ko/tracing/send_traces/ +[6]: https://docs.datadoghq.com/ko/tracing/setup/ +{{% /tab %}} +{{% tab "Docker" %}} + +#### 도커(Docker) + +컨테이너에서 실행 중인 에이전트에 이 점검을 구성하는 방법: + +##### 메트릭 수집 + +애플리케이션 컨테이너에 [자동탐지 통합 템플릿][1]을 Docker 레이블로 설정하세요. + +```yaml +LABEL "com.datadoghq.ad.check_names"='["redisdb"]' +LABEL "com.datadoghq.ad.init_configs"='[{}]' +LABEL "com.datadoghq.ad.instances"='[{"host":"%%host%%","port":"6379","password":"%%env_REDIS_PASSWORD%%"}]' +``` + +**참고**: `"%%env_%%"` 템플릿 변수 로직은 암호를 일반 텍스트로 저장하지 않기 위해 사용하므로, `REDIS_PASSWORD` 환경 변수가 에이전트 컨테이너에 설정되어야 합니다. 자세한 내용은 [자동 탐지 템플릿 변수][2] 설명서를 참조하세요. 또는 에이전트는 `secrets` 패키지를 활용하여 모든 [시크릿 관리][3] 백엔드(예: HashiCorp Vault 또는 AWS Secrets Manager)를 사용할 수 있습니다. + +##### 로그 수집 + +_Agent 버전 6.0 이상에서 사용 가능_ + +기본적으로 로그 수집은 Datadog 에이전트에서 비활성화되어 있습니다. 활성화하려면 [도커(Docker) 로그 수집][4]을 참고하세요. + +그런 다음 도커(Docker) 레이블로 [로그 통합][5]을 설정하세요. + +```yaml +LABEL "com.datadoghq.ad.logs"='[{"source":"redis","service":""}]' +``` + +##### 트레이스 수집 + +컨테이너화된 앱용 APM은 Agent v6+에서 지원되지만 트레이스 수집을 시작하려면 추가 구성이 필요합니다. + +Agent 컨테이너의 필수 환경 변수: + +| 파라미터 | 값 | +| -------------------- | -------------------------------------------------------------------------- | +| `` | `api_key` | +| `` | true | +| `` | true | + +사용 가능한 환경 변수 및 설정의 전체 목록은 [도커(Docker) 애플리케이션 추적][6]을 참조하세요. + +그런 다음 [Redis에 요청하는 애플리케이션 컨테이너를 계측][7]하고 `DD_AGENT_HOST`를 에이전트 컨테이너의 이름으로 설정합니다. + + +[1]: https://docs.datadoghq.com/ko/agent/docker/integrations/?tab=docker +[2]: https://docs.datadoghq.com/ko/agent/faq/template_variables/ +[3]: https://docs.datadoghq.com/ko/agent/guide/secrets-management/?tab=linux +[4]: https://docs.datadoghq.com/ko/agent/docker/log/?tab=containerinstallation#installation +[5]: https://docs.datadoghq.com/ko/agent/docker/log/?tab=containerinstallation#log-integrations +[6]: https://docs.datadoghq.com/ko/agent/docker/apm/?tab=linux +[7]: https://docs.datadoghq.com/ko/tracing/setup/ +{{% /tab %}} +{{% tab "Kubernetes" %}} + +#### 쿠버네티스(Kubernetes) + +쿠버네티스에서 실행 중인 에이전트에 이 점검을 구성하는 방법: + +##### 메트릭 수집 + +메트릭을 수집하려면 다음 파라미터와 값을 [자동탐지 템플릿][1]에 설정합니다. Redis 포드의 쿠버네티스 어노테이션(아래 표시) 또는 [로컬 파일, ConfigMap, 키-값 저장소, Datadog Operator 매니페스트 또는 헬름(Helm) 차트][2]를 통해 이를 수행할 수 있습니다. + +| 파라미터 | 값 | +| -------------------- | -------------------------------------------------------------------------- | +| `` | `["redisdb"]` | +| `` | `[{}]` | +| `` | `[{"host": "%%host%%","port":"6379","password":"%%env_REDIS_PASSWORD%%"}]` | + +**주석 v1**(Datadog 에이전트 v7.36 이하용) + +```yaml +apiVersion: v1 +kind: Pod +metadata: + name: redis + annotations: + ad.datadoghq.com/redis.check_names: '["redisdb"]' + ad.datadoghq.com/redis.init_configs: '[{}]' + ad.datadoghq.com/redis.instances: | + [ + { + "host": "%%host%%", + "port":"6379", + "password":"%%env_REDIS_PASSWORD%%" + } + ] + labels: + name: redis +spec: + containers: + - name: redis + image: redis:latest + ports: + - containerPort: 6379 +``` + +**주석 v2**(Datadog 에이전트 v7.36 이상용) + +```yaml +apiVersion: v1 +kind: Pod +metadata: + name: redis + annotations: + ad.datadoghq.com/redis.checks: | + { + "redisdb": { + "init_config": {}, + "instances": [ + { + "host": "%%host%%", + "port":"6379", + "password":"%%env_REDIS_PASSWORD%%" + } + ] + } + } + labels: + name: redis +spec: + containers: + - name: redis + image: redis:latest + ports: + - containerPort: 6379 +``` + +**참고**: `"%%env_%%"` 템플릿 변수 로직은 암호를 일반 텍스트로 저장하지 않기 위해 사용하므로, `REDIS_PASSWORD` 환경 변수가 에이전트 컨테이너에 설정되어야 합니다. [자동 탐지 템플릿 변수][3] 설명서를 참조하세요. 또는 에이전트는 `secrets` 패키지를 활용하여 모든 [시크릿 관리][4] 백엔드(예: HashiCorp Vault 또는 AWS Secrets Manager)를 사용할 수 있습니다. + +##### 로그 수집 + +_에이전트 버전 6.0 이상에서 사용 가능_ + +Datadog 에이전트에서 로그 수집은 기본값으로 비활성화되어 있습니다. 이를 활성화하려면 [쿠버네티스(Kubernetes) 로그 수집][5]을 참조하세요. + +그런 다음 [자동탐지 템플릿][1]에서 다음을 파라미터를 설정합니다. Redis 포드에서 쿠버네티스(Kubernetes) 어노테이션(아래 표시)을 사용하거나 [로컬 파일, ConfigMap, 키-값 저장소, Datadog Operator 매니페스트 또는 헬름(Helm) 차트][2]를 사용하여 이 작업을 수행할 수 있습니다. + +| 파라미터 | 값 | +| -------------------- | -------------------------------------------------------------------------- | +| `` | `[{"source":"redis","service":""}]` | + +**주석 v1/v2** + +```yaml +apiVersion: v1 +kind: Pod +metadata: + name: redis + annotations: + ad.datadoghq.com/redis.logs: '[{"source":"redis","service":""}]' + labels: + name: redis +spec: + containers: + - name: redis + image: redis:latest + ports: + - containerPort: 6379 +``` + +##### 트레이스 수집 + +컨테이너화된 앱용 APM은 Agent v6+를 실행하는 호스트에서 지원되지만 트레이스 수집을 시작하려면 추가 구성이 필요합니다. + +Agent 컨테이너의 필수 환경 변수: + +| 파라미터 | 값 | +| -------------------- | -------------------------------------------------------------------------- | +| `` | `api_key` | +| `` | true | +| `` | true | + +사용 가능한 환경 변수 및 구성의 전체 목록은 [Kubernetes 애플리케이션 추적][6] 및 [Kubernetes 데몬 설정][7]을 참조하세요. + +그런 다음 [Redis에 요청하는 애플리케이션 컨테이너를 계측][8]합니다. + +[1]: https://docs.datadoghq.com/ko/agent/kubernetes/integrations/?tab=kubernetes +[2]: https://docs.datadoghq.com/ko/agent/kubernetes/integrations/?tab=kubernetes#configuration +[3]: https://docs.datadoghq.com/ko/agent/faq/template_variables/ +[4]: https://docs.datadoghq.com/ko/agent/guide/secrets-management/?tab=linux +[5]: https://docs.datadoghq.com/ko/agent/kubernetes/log/?tab=containerinstallation#setup +[6]: https://docs.datadoghq.com/ko/agent/kubernetes/apm/?tab=java +[7]: https://docs.datadoghq.com/ko/agent/kubernetes/daemonset_setup/?tab=k8sfile#apm-and-distributed-tracing +[8]: https://docs.datadoghq.com/ko/tracing/setup/ +{{% /tab %}} +{{% tab "ECS" %}} + +#### ECS + +ECS에서 실행 중인 에이전트에 이 점검을 구성하는 방법: + +##### 메트릭 수집 + +애플리케이션 컨테이너에 [자동탐지 통합 템플릿][1]을 Docker 레이블로 설정하세요. + +```json +{ + "containerDefinitions": [{ + "name": "redis", + "image": "redis:latest", + "dockerLabels": { + "com.datadoghq.ad.check_names": "[\"redisdb\"]", + "com.datadoghq.ad.init_configs": "[{}]", + "com.datadoghq.ad.instances": "[{\"host\":\"%%host%%\",\"port\":\"6379\",\"password\":\"%%env_REDIS_PASSWORD%%\"}]" + } + }] +} +``` + +**참고**: `"%%env_%%"` 템플릿 변수 로직은 암호를 일반 텍스트로 저장하지 않기 위해 사용하므로, `REDIS_PASSWORD` 환경 변수가 에이전트 컨테이너에 설정되어야 합니다. [자동 탐지 템플릿 변수][2] 설명서를 참조하세요. 또는 에이전트는 `secrets` 패키지를 활용하여 모든 [시크릿 관리][3] 백엔드(예: HashiCorp Vault 또는 AWS Secrets Manager)를 사용할 수 있습니다. + +##### 로그 수집 + +_에이전트 버전 6.0 이상에서 사용 가능_ + +기본적으로 로그 수집은 Datadog 에이전트에서 비활성화되어 있습니다. 활성화하려면 [ECS 로그 수집][4]을 참조하세요. + +그런 다음 도커(Docker) 레이블로 [로그 통합][5]을 설정하세요. + +```yaml +{ + "containerDefinitions": [{ + "name": "redis", + "image": "redis:latest", + "dockerLabels": { + "com.datadoghq.ad.logs": "[{\"source\":\"redis\",\"service\":\"\"}]" + } + }] +} +``` + +##### 트레이스 수집 + +컨테이너화된 앱용 APM은 Agent v6+에서 지원되지만 트레이스 수집을 시작하려면 추가 구성이 필요합니다. + +Agent 컨테이너의 필수 환경 변수: + +| 파라미터 | 값 | +| -------------------- | -------------------------------------------------------------------------- | +| `` | `api_key` | +| `` | true | +| `` | true | + +사용 가능한 환경 변수 및 설정의 전체 목록은 [도커(Docker) 애플리케이션 추적][6]을 참조하세요. + +그런 다음 [Redis에 요청하는 애플리케이션 컨테이너를 계측][7]하고 `DD_AGENT_HOST`를 [EC2 비공개 IP 주소][8]로 설정합니다. + +[1]: https://docs.datadoghq.com/ko/agent/docker/integrations/?tab=docker +[2]: https://docs.datadoghq.com/ko/agent/faq/template_variables/ +[3]: https://docs.datadoghq.com/ko/agent/guide/secrets-management/?tab=linux +[4]: https://docs.datadoghq.com/ko/agent/amazon_ecs/logs/?tab=linux +[5]: https://docs.datadoghq.com/ko/agent/docker/log/?tab=containerinstallation#log-integrations +[6]: https://docs.datadoghq.com/ko/agent/docker/apm/?tab=linux +[7]: https://docs.datadoghq.com/ko/tracing/setup/ +[8]: https://docs.datadoghq.com/ko/agent/amazon_ecs/apm/?tab=ec2metadataendpoint#setup +{{% /tab %}} +{{< /tabs >}} + +### 검증 + +[에이전트 상태 하위 명령을 실행][2]하고 점검 섹션에서 `redisdb`를 찾습니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "redisdb" >}} + + +### 이벤트 + +Redis 점검은 이벤트를 포함하지 않습니다. + +### 서비스 점검 +{{< get-service-checks-from-git "redisdb" >}} + + +## 트러블슈팅 + +### 에이전트 연결 불가 + +```shell + redisdb + ------- + - instance #0 [ERROR]: 'Error 111 connecting to localhost:6379. Connection refused.' + - Collected 0 metrics, 0 events & 1 service check +``` + +`redisdb.yaml`의 연결 정보가 올바른지 확인합니다. + +### 에이전트를 인증할 수 없음 + +```shell + redisdb + ------- + - instance #0 [ERROR]: 'NOAUTH Authentication required.' + - Collected 0 metrics, 0 events & 1 service check +``` + +`redisdb.yaml`에서 `password`를 설정합니다. + +## 참고 자료 + +기타 유용한 문서, 링크 및 기사: + +- [Redis 성능 메트릭을 모니터링하는 방법][3] + + +[1]: https://app.datadoghq.com/account/settings/agent/latest +[2]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[3]: https://www.datadoghq.com/blog/how-to-monitor-redis-performance-metrics \ No newline at end of file diff --git a/content/ko/integrations/redisenterprise.md b/content/ko/integrations/redisenterprise.md new file mode 100644 index 00000000000..2644d87d217 --- /dev/null +++ b/content/ko/integrations/redisenterprise.md @@ -0,0 +1,207 @@ +--- +app_id: redisenterprise +app_uuid: a353f8c5-240c-48f9-b2a1-c86d2da0c07e +assets: + dashboards: + Redis Enterprise Active/Active Statistics: assets/dashboards/redis_enterprise_active_active.json + Redis Enterprise Cluster Overview: assets/dashboards/redisenterprise_cluster_top_view.json + Redis Enterprise Database Overview: assets/dashboards/redisenterprise_overview.json + Redis Enterprise Redis on Flash: assets/dashboards/redisenterprise_rof.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: true + metrics: + check: redisenterprise.total_node_count + metadata_path: metadata.csv + prefix: redisenterprise. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10190 + source_type_name: Redis 엔터프라이즈 +author: + homepage: https://github.com/DataDog/integrations-extras + name: Redis + sales_email: github@mague.com + support_email: github@mague.com +categories: +- 데이터 스토어 +- 캐싱(caching) +custom_kind: 통합 +dependencies: +- https://github.com/DataDog/integrations-extras/blob/master/redisenterprise/README.md +display_on_public_website: true +draft: false +git_integration_title: redisenterprise +integration_id: redisenterprise +integration_title: RedisEnterprise (지원 중단됨) +integration_version: 1.2.0 +is_public: true +manifest_version: 2.0.0 +name: redisenterprise +public_title: RedisEnterprise (지원 중단) +short_description: Redis 엔터프라이즈 관측 가능성 +supported_os: +- linux +- macos +- windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::macOS + - Supported OS::Windows + - Category::Data Stores + - Category::Caching + - Offering::Integration + configuration: README.md#Setup + description: Redis 엔터프라이즈 관측 가능성 + media: [] + overview: README.md#Overview + support: README.md#Support + title: RedisEnterprise (지원 중단) +--- + + + + +![img][1] + +## 개요 + +**본 통합은 2024년 11월 1일부터 지원 중단되었습니다. 앞으로는 최신 [Redis 엔터프라이즈 Datadog 통합][2]를 사용하세요. 새로운 통합에는 최신 Redis 엔터프라이즈 메트릭이 모두 노출되며 업데이트된 대시보드가 포함되어 있습니다.** + +이 통합은 Datadog용 [Redis 엔터프라이즈][3] 모니터링 및 메트릭을 제공합니다. + +### Redis Enterprise란 무엇인가요? + +[Redis 엔터프라이즈][3]는 Redis의 완전 지원 엔터프라이즈 버전입니다. Redis 엔터프라이즈는 핵심 오픈 소스 Redis 기능 세트 외에도 액티브 액티브 지오 배포(active-active geo-distribution), 다중 모델 데이터베이스 기능, 향상된 관측 가능성, 가동 시간 향상을 위한 간편한 멀티테넌시 관리 기능을 추가합니다. + +### Redis 엔터프라이즈 Datadog 대시보드 + +Redis 엔터프라이즈 Datadog 통합에서는 클러스터 및 데이터베이스 전반의 템플릿 보기를 제공하여 다른 제품에서는 제공하지 않는 운영 인사이트를 제공해 드립니다. 정보에 기반한 의사 결정에 필요한 데이터로 사용 패턴을 이해하고 성장 계획을 세워 보세요. + +#### 데이터베이스 개요 +![개요][4] + +#### 클러스터 개요 +![개요][5] + +#### Flash의 Redis +![rofdash][6] + +#### 액티브/액티브 Redis +![rofdash][7] + +#### Redis 엔터프라이즈 이벤트 +![이벤트][8] + +### 공급자 + +![공급자][9] + +이 통합은 Redis Labs가 제공합니다. + +## 설정 + +### 설치 + +에이전트 v7.21+/v6.21+를 사용하는 경우, 아래 지침에 따라 호스에 RedisEnterprise 점검을 설치합니다. [에이전트 v7.21 / v6.21 이전][11] 또는 [도커(Docker) 에이전트][12]를 사용하여 점검을 설치하려면 [커뮤니티 통합을 설치][10] 전용 에이전트 가이드를 참조하세요. + +1. [Datadog 에이전트][13]를 다운로드하여 실행합니다. +2. 다음 명령을 실행해 통합 에이전트와 통합 휠을 설치하세요. + + ```shell + datadog-agent integration install -t datadog-redisenterprise== + ``` + [Datadog 통합 릴리스 페이지][14]에서 최신 버전을 확인할 수 있습니다. + + **참조**: 필요한 경우 설치 명령어에 `sudo -u dd-agent` 접두어를 덧붙이세요. + +3. 통합을 [다른 패키지][15]와 유사하게 설정합니다. + +### 설정 + +[샘플 설정][16]을 복사하고 Redis 엔터프라이즈 클러스터에서 데이터를 수집하는 데 필요한 섹션을 업데이트합니다. + +```yml + ## @param host - string - required + ## The RedisEnterprise host + # + host: myrediscluster.example.com + + ## @param port - integer - optional - default: 9443 + # + port: 9443 + + ## @param user - string - required + ## The RedisEnterprise API user + # + username: redisadmin@example.com + + ## @param password - string - required + ## The RedisEnterprise API credential + # + password: mySecretPassword +``` + +클러스터 설정에 맞게 사용할 수 있는 다른 옵션 설정은 전체 예제 파일을 참조하세요. + +사용자는 [문서][17]에 따라 설정할 수 있습니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "redisenterprise" >}} + + +### 서비스 점검 + +**`redisenterprise.running`** + +점검은 다음을 반환합니다. + +- RedisEnterprise 클러스터 API가 명령에 제대로 응답하는 경우 `OK` +- API가 제대로 응답하지 않는 경우 `CRITICAL` + +**`redisenterprise.license_check`** + +점검은 다음을 반환합니다. + +- 클러스터 라이선스가 1주일 이상 유효할 경우 `OK`. +- 클러스터 라이선스가 7일 안에 만료되는 경우 `WARNING`. +- 클러스터 라이선스가 만료된 경우 `CRITICAL`. + +**참고:** 라이선스가 만료되어도 클러스터는 정상적으로 작동하지만, 이 기간 동안에는 설정 변경이 불가능합니다. 라이선스 갱신은 영업 담당자에게 문의하세요. + +### 이벤트 + +모든 [Redis 엔터프라이즈 이벤트][19]가 수집됩니다. + +## 트러블슈팅 + +[Redis 필드 엔지니어링 팀][20]에 문의하세요. + + +[1]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/redisenterprise/images/redis-enterprise.jpg +[2]: https://docs.datadoghq.com/ko/integrations/redis_enterprise/ +[3]: http://www.redislabs.com +[4]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/redisenterprise/images/dashboard.png +[5]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/redisenterprise/images/datadog_cluster_top_view.png +[6]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/redisenterprise/images/ROF_dashboard.png +[7]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/redisenterprise/images/active_active_dashboard.png +[8]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/redisenterprise/images/events.png +[9]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/redisenterprise/images/logo-redis.png +[10]: https://docs.datadoghq.com/ko/agent/guide/use-community-integrations/?tab=agentv721v621 +[11]: https://docs.datadoghq.com/ko/agent/guide/use-community-integrations/?tab=agentearlierversions +[12]: https://docs.datadoghq.com/ko/agent/guide/use-community-integrations/?tab=docker +[13]: https://app.datadoghq.com/account/settings/agent/latest +[14]: https://github.com/DataDog/integrations-extras/tags +[15]: https://docs.datadoghq.com/ko/getting_started/integrations/ +[16]: https://github.com/DataDog/integrations-extras/blob/master/redisenterprise/datadog_checks/redisenterprise/data/conf.yaml.example +[17]: https://docs.redislabs.com/latest/rc/security/database-security/passwords-users-roles/ +[18]: https://github.com/DataDog/integrations-extras/blob/master/redisenterprise/metadata.csv +[19]: https://docs.redislabs.com/latest/rs/administering/monitoring-metrics/#cluster-alerts +[20]: mailto:redis.observability@redis.com?subject=Datadog%20Integration%20Support \ No newline at end of file diff --git a/content/ko/integrations/redpanda.md b/content/ko/integrations/redpanda.md new file mode 100644 index 00000000000..68a50c96e28 --- /dev/null +++ b/content/ko/integrations/redpanda.md @@ -0,0 +1,222 @@ +--- +app_id: redpanda +app_uuid: 4c7855c5-6c2c-46c5-bfc3-1a7df1ac6b77 +assets: + dashboards: + Redpanda Overview: assets/dashboards/overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: redpanda.application.uptime + metadata_path: metadata.csv + prefix: redpanda. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10232 + source_type_name: Redpanda + logs: + source: redpanda +author: + homepage: https://github.com/DataDog/integrations-extras + name: Redpanda + sales_email: support@redpanda.com + support_email: support@redpanda.com +categories: +- 로그 수집 +- 메시지 큐 +custom_kind: 통합 +dependencies: +- https://github.com/DataDog/integrations-extras/blob/master/redpanda/README.md +display_on_public_website: true +draft: false +git_integration_title: redpanda +integration_id: redpanda +integration_title: Redpanda +integration_version: 2.0.0 +is_public: true +manifest_version: 2.0.0 +name: redpanda +public_title: Redpanda +short_description: Redpanda 클러스터의 전반적인 서비스 상태 및 성능을 모니터링하세요. +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Log Collection + - Category::Message Queues + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Offering::Integration + configuration: README.md#Setup + description: Redpanda 클러스터의 전반적인 서비스 상태 및 성능을 모니터링하세요. + media: [] + overview: README.md#Overview + support: README.md#Support + title: Redpanda +--- + + + +## 개요 + +Redpanda는 필수 워크로드용 Kafka API-호환 스트리밍 플랫폼입니다. + +Datadog을 [Redpanda][1]와 연결하여 키 메트릭를 확인하고 특정 사용자 요구에 따라 추가 메트릭 그룹을 추가합니다. + +## 설정 + +### 설치 + +1. [Datadog 에이전트를 다운로드하여 실행합니다][2]. +2. Redpanda 통합을 수동 설치합니다. 환경에 따른 자세한 내용은 [커뮤니티 통합 사용][3]을 참조하세요. + +{{< tabs >}} +{{% tab "Host" %}} + +#### 호스트 + +호스트에서 실행되는 에이전트에 대해 이 점검을 설정하려면 `datadog-agent integration install -t datadog-redpanda==`을 실행하세요. + +{{% /tab %}} +{{% tab "Containerized" %}} + +#### 컨테이너화 + +컨테이너화된 환경의 경우 도커(Docker) 에이전트로 본 통합을 사용하는 가장 좋은 방법은 Redpanda 통합이 설치된 에이전트를 빌드하는 것입니다. + +에이전트의 업데이트 버전을 빌드하려면, + +1. 다음 Dockerfile을 사용합니다. + +```dockerfile +FROM gcr.io/datadoghq/agent:latest + +ARG INTEGRATION_VERSION=2.0.0 + +RUN agent integration install -r -t datadog-redpanda==${INTEGRATION_VERSION} +``` + +2. 이미지를 빌드하여 비공개 도커(Docker) 레지스트리에 푸시합니다. + +3. Datadog 에이전트 컨테이너 이미지를 업그레이드합니다. Helm 차트를 사용하는 경우 `values.yaml` 파일의 `agents.image` 섹션을 수정하여 기본 에이전트 이미지를 대체합니다. + +```yaml +agents: + enabled: true + image: + tag: + repository: / +``` + +4. 새 `values.yaml` 파일을 사용하여 에이전트를 업그레이드합니다. + +```shell +helm upgrade -f values.yaml datadog/datadog +``` + +{{% /tab %}} +{{< /tabs >}} + +### 설정 + +{{< tabs >}} +{{% tab "Host" %}} + +#### 호스트 + +##### 메트릭 수집 + +Redpanda 성능 데이터 수집을 시작하려면, + +1. [에이전트 설정 디렉토리][1] 루트에 있는 `conf.d/` 폴더에서 `redpanda.d/conf.yaml` 파일을 편집하세요. 사용 가능한 모든 설정 옵션은 [redpanda.d/conf.yaml.example][2] 샘플을 참조하세요. + +2. [에이전트를 재시작][3]하세요. + +##### 로그 수집 + +Datadog 에이전트에서 로그 수집은 기본적으로 비활성화되어 있습니다. 로그 수집은 에이전트 v6.0 이상에서 사용할 수 있습니다. + +1. 로그를 활성화하려면 `datadog.yaml` 파일에 다음을 추가합니다. + + ```yaml + logs_enabled: true + ``` + +2. `dd-agent` 사용자가 `systemd-journal` 그룹의 멤버인지 확인하고, 그렇지 않은 경우 루트 권한으로 다음 명령을 실행합니다. + ``` + usermod -a -G systemd-journal dd-agent + ``` + +3. `redpanda.d/conf.yaml` 파일에 다음을 추가하여 Redpanda 로그 수집을 시작합니다. + + ```yaml + logs: + - type: journald + source: redpanda + ``` + +[1]: https://docs.datadoghq.com/ko/agent/guide/agent-configuration-files/#agent-configuration-directory +[2]: https://github.com/DataDog/integrations-extras/blob/master/redpanda/datadog_checks/redpanda/data/conf.yaml.example +[3]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +{{% /tab %}} +{{% tab "Containerized" %}} + +#### 컨테이너화 + +##### 메트릭 수집 + +컨테이너화된 환경에서 자동탐지는 기본적으로 Redpanda 점검이 Datadog 에이전트 이미지에 통합된 후 설정됩니다. + +메트릭은 Datadog 서버에 자동 수집됩니다. 자세한 내용은 [자동탐지 통합 템플릿][1]을 참조하세요. + +##### 로그 수집 + +Datadog 에이전트에서 로그 수집은 기본적으로 비활성화되어 있습니다. 로그 수집은 에이전트 v6.0 이상에서 사용할 수 있습니다. + +로그 수집을 활성화하려면 [쿠버네티스 로그 수집][2]을 참조하세요. + +| 파라미터 | 값 | +| -------------- | ------------------------------------------------------ | +| `` | `{"source": "redpanda", "service": "redpanda_cluster"}` | + +[1]: https://docs.datadoghq.com/ko/agent/kubernetes/integrations/ +[2]: https://app.datadoghq.com/account/settings/agent/latest +{{% /tab %}} +{{< /tabs >}} + +### 검증 + +[에이전트 상태 하위 명령을 실행][4]하고 점검 섹션에서 `redpanda`를 찾습니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "redpanda" >}} + + +### 이벤트 + +Redpanda 통합에는 이벤트가 포함되어 있지 않습니다. + +### 서비스 점검 +{{< get-service-checks-from-git "redpanda" >}} + + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 지원팀][5]에 문의하세요. + + +[1]: https://redpanda.com +[2]: https://app.datadoghq.com/account/settings/agent/latest +[3]: https://docs.datadoghq.com/ko/agent/guide/community-integrations-installation-with-docker-agent +[4]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[5]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/reporter.md b/content/ko/integrations/reporter.md new file mode 100644 index 00000000000..0b2a2b412df --- /dev/null +++ b/content/ko/integrations/reporter.md @@ -0,0 +1,105 @@ +--- +algolia: + subcategory: Marketplace 통합 +app_id: rapdev-reporter +app_uuid: debb66b8-6675-4273-85a2-55d806e68e1b +assets: + dashboards: + Reporter: assets/dashboards/reporter_dashboard.json + integration: + auto_install: false + configuration: {} + events: + creates_events: false + metrics: + check: [] + metadata_path: metadata.csv + prefix: '' + service_checks: + metadata_path: service_checks.json + source_type_id: 10110 + source_type_name: 리포터 +author: + homepage: https://www.rapdev.io + name: RapDev + sales_email: ddsales@rapdev.io + support_email: support@rapdev.io + vendor_id: rapdev +categories: +- marketplace +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: 리포터 +integration_id: rapdev-reporter +integration_title: 리포터 +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: 리포터 +pricing: +- billing_type: flat_fee + includes_assets: true + product_id: 리포터 + short_description: 본 통합에 대한 정액제 요금 + unit_price: 299 +public_title: 리포터 +short_description: 모든 Datadog 대시보드에서 이메일 리포트 생성하기 +supported_os: +- linux +- windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Category::Marketplace + - Offering::Integration + configuration: README.md#Setup + description: 모든 Datadog 대시보드에서 이메일 리포트 생성하기 + media: + - caption: 리포터 소개 + image_url: images/video.png + media_type: 비디오 + vimeo_id: 630489700 + - caption: 이메일 보고서 샘플 + image_url: images/3.png + media_type: image + - caption: 리포트 설정 페이지 + image_url: images/1.png + media_type: image + overview: README.md#Overview + support: README.md#Support + title: 리포터 + uninstallation: README.md#Uninstallation +--- + + + + +## 개요 + +[{{< img src="marketplace/reporter/images/video.png" alt="리포터 소개" >}}](https://www.youtube.com/watch?v=GK5cGDUr1CA) + +Datadog 리포터로 리포트를 예약하고 설정된 시간 간격으로 이메일을 발송할 수 있습니다. 기존 대시보드를 선택하고 리포터 웹 애플리케이션에 URL을 추가한 후 메일 발송 간격을 설정하여 리포트를 발송합니다. 해당 리포트는 사용자에게 첨부파일로 이메일로 전송되며, 사용자는 이를 열어 볼 수 있습니다. 현재 생성하고 보낼 수 있는 리포트 수에는 제한이 없습니다. + +본 통합은 Datadog 인스턴스에 **Datadog 리포터**라는 새 대시보드를 설정합니다. 이 애플리케이션은 대시보드로 이동한 다음 해당 아이프레임에서 새 사용자를 생성하여 직접 액세스할 수 있습니다. *Datadog 계정은 DD 리포터 애플리케이션에서 작동하지 않습니다. 별도의 계정을 등록해야 합니다*. + +## 지원 + +지원 또는 기능 요청은 다음 채널로 RapDev.io에 문의해 주세요. + + - 이메일: support@rapdev.io + - 채팅: [rapdev.io](https://www.rapdev.io/#Get-in-touch) + - 전화: 855-857-0222 + +--- + Made with ❤️ in Boston + +*원하시는 통합을 찾을 수 없나요? 조직에 필요한 중요한 기능이 누락되었나요? [요청 사항](mailto:support@rapdev.io)을 보내주시면 반영하도록 하겠습니다.* + +--- +이 애플리케이션은 Datadog Marketplace를 통해 제공되며 Datadog 기술 파트너의 지원을 받습니다. 사용하려면 Marketplace에서 애플리케이션을 구매하세요. \ No newline at end of file diff --git a/content/ko/integrations/resin.md b/content/ko/integrations/resin.md new file mode 100644 index 00000000000..939903bd282 --- /dev/null +++ b/content/ko/integrations/resin.md @@ -0,0 +1,135 @@ +--- +app_id: resin +app_uuid: ff99886d-87b7-407a-aa90-7bea5ca27564 +assets: + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: resin.thread_pool.thread_count + metadata_path: metadata.csv + prefix: resin. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10203 + source_type_name: Resin +author: + homepage: https://github.com/DataDog/integrations-extras + name: 커뮤니티 + sales_email: brent@bmontague.com + support_email: brent@bmontague.com +categories: +- 로그 수집 +custom_kind: 통합 +dependencies: +- https://github.com/DataDog/integrations-extras/blob/master/resin/README.md +display_on_public_website: true +draft: false +git_integration_title: resin +integration_id: resin +integration_title: Resin +integration_version: 1.0.0 +is_public: true +manifest_version: 2.0.0 +name: resin +public_title: Resin +short_description: Resin 내 스레드 풀 및 연결 풀 설정 추적하기 +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Log Collection + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Offering::Integration + configuration: README.md#Setup + description: resin 내 스레드 풀 및 연결 풀 설정 추적하기 + media: [] + overview: README.md#Overview + support: README.md#Support + title: Resin +--- + + + + +## 개요 + +본 점검은 Datadog 에이전트를 통해 [Resin][1]을 모니터링합니다. + +## 설정 + +### 설치 + +[Datadog 에이전트][2] 패키지에는 Resin 점검이 포함되어 있지 않으므로 설치해야 합니다. + +### 설정 + +1. [Resin 기본 서버][3]에 다음 JVM 인수를 추가하여 JMX를 활성화합니다. + +``` + + -Dcom.sun.management.jmxremote + -Dcom.sun.management.jmxremote.port=7199 + +``` + +2. 에이전트 설정 디렉토리 루트에 있는 `conf.d/` 폴더에서 `resin.d/conf.yaml` 파일을 편집하여 Resin 성능 데이터 수집을 시작합니다. 사용 가능한 모든 설정 옵션은 [resin.d/conf.yaml 샘플][2]을 참조하세요. + +3. [에이전트를 재시작합니다][4]. + +### 검증 + +[에이전트 상태 하위 명령을 실행][5]하고 점검 섹션에서 `resin`를 찾습니다. + +### 로그 수집 + +Linux 플랫폼의 `/etc/datadog-agent/datadog.yaml`에서 Datadog 에이전트가 로그를 수집할 수 있도록 활성화합니다. 다른 플랫폼의 경우 설정 파일 위치를 보려면 [에이전트 설정 파일 가이드][6]를 확인하세요. + +```yaml +logs_enabled: true +``` + +- `resin.d/conf.yaml` 파일에 이 설정 블록을 활성화하여 로그 수집을 시작하세요. + ```yaml + logs: + - type: file + path: /var/opt/resin/log/*.log + source: resin + ``` + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "resin" >}} + + +### 이벤트 + +Resin은 이벤트를 포함하지 않습니다. + +### 서비스 점검 +{{< get-service-checks-from-git "resin" >}} + + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 지원팀][9]에 문의하세요. + + +[1]: https://caucho.com/ +[2]: https://github.com/DataDog/integrations-extras/blob/master/resin/datadog_checks/resin/data/conf.yaml.example +[3]: https://www.caucho.com/resin-4.0/admin/cluster-server.xtp#JVMparameters:settingtheJVMcommandline +[4]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/?tab=agentv6#start-stop-and-restart-the-agent +[5]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/?tab=agentv6#agent-status-and-information +[6]: https://docs.datadoghq.com/ko/agent/guide/agent-configuration-files/ +[7]: https://github.com/DataDog/integrations-extras/blob/master/resin/metadata.csv +[8]: https://github.com/DataDog/integrations-extras/blob/master/resin/assets/service_checks.json +[9]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/rethinkdb.md b/content/ko/integrations/rethinkdb.md new file mode 100644 index 00000000000..0099eae2a43 --- /dev/null +++ b/content/ko/integrations/rethinkdb.md @@ -0,0 +1,184 @@ +--- +app_id: rethinkdb +app_uuid: f8348717-0ba8-4d42-b856-983e0cde0314 +assets: + dashboards: + RethinkDB Overview: assets/dashboards/overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: rethinkdb.config.servers + metadata_path: metadata.csv + prefix: rethinkdb. + process_signatures: + - rethinkdb + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10092 + source_type_name: RethinkDB + saved_views: + rethinkdb_processes: assets/saved_views/rethinkdb_processes.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- 데이터 스토어 +- 로그 수집 +custom_kind: 통합 +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/rethinkdb/README.md +display_on_public_website: true +draft: false +git_integration_title: rethinkdb +integration_id: rethinkdb +integration_title: RethinkDB +integration_version: 5.1.0 +is_public: true +manifest_version: 2.0.0 +name: rethinkdb +public_title: RethinkDB +short_description: RethinkDB 클러스터에서 상태, 성능 및 기타 메트릭 를 수집합니다. +supported_os: +- linux +- macos +- windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::macOS + - Supported OS::Windows + - Category::Data Stores + - Category::Log Collection + - Offering::Integration + configuration: README.md#Setup + description: RethinkDB 클러스터에서 상태, 성능 및 기타 메트릭 를 수집합니다. + media: [] + overview: README.md#Overview + support: README.md#Support + title: RethinkDB +--- + + + + +## 개요 + +[RethinkDB][1]는 분산형 문서 지향 NoSQL 데이터베이스로 실시간 +피드 변경을 최우선 지원합니다. + +이 점검은 Datadog 에이전트로 RethinkDB 클러스터를 모니터링하고 성능에 대한 메트릭, +데이터 가용성, 클러스터 설정 등을 수집합니다. + +**참고**: 본 통합은 RethinkDB **버전 2.3.6 이상**과 호환됩니다. + +## 설정 + +아래 지침을 따라 호스트에서 실행되는 에이전트에 대해 이 점검을 설치하고 설정하세요. +컨테이너화된 환경의 경우 이러한 지침을 적용하는 데 가이드가 필요하면 [자동탐지 통합 템플릿][2]을 +참조하세요. + +### 설치 + +RethinkDB 점검은 [Datadog 에이전트][3] 패키지에 포함되어 있으므로 서버에 추가로 설치할 필요가 없습니다. + +### 설정 + +1. RethinkDB 2.4 이상을 사용하는 경우, `rethinkdb` 데이터베이스에 읽기 전용 권한이 있는 `datadog-agent` 사용자를 추가합니다. +다음 ReQL 명령을 사용할 수 있으며, 자세한 내용은 [권한 및 사용자 계정][4] +을 참조하세요. + + ```python + r.db('rethinkdb').table('users').insert({'id': 'datadog-agent', 'password': ''}) + r.db('rethinkdb').grant('datadog-agent', {'read': True}) + ``` + + **참고**: RethinkDB 2.3.x는 `rethinkdb` 데이터베이스 권한 부여를 지원하지 않습니다. + 이 단계를 건너뛰고 대신 아래의 [관리자 계정][5]을 사용합니다. + +2. [에이전트의 설정 디렉토리][6] 루트에 있는 `conf.d/` 폴더에서 `rethinkdb.d/conf.yaml`를 편집합니다. +사용 가능한 모든 설정 옵션은 [rethinkdb.d/conf.yaml 샘플][7]을 +참조하세요. + + ```yaml + init_config: + + instances: + - host: localhost + port: 28015 + user: "" + password: "" + ``` + +3. [에이전트를 재시작합니다][8]. + +**참고**: 본 통합은 클러스터의 모든 서버에서 메트릭을 수집하므로 단일 에이전트만 필요합니다. + +#### 로그 수집 + + +1. Datadog 에이전트에서 로그 수집은 기본적으로 사용하지 않도록 설정되어 있습니다. `datadog.yaml`파일에서 로그 수집을 사용하도록 설정합니다. + + ```yaml + logs_enabled: true + ``` + +2. 이 설정 블록을 `rethinkdb.d/conf.yaml` 파일에서 편집하여 RethinkDB 로그 수집을 시작합니다. + + ```yaml + logs: + - type: file + path: "" + source: rethinkdb + service: "" + ``` + + + 환경에 따라 `path` 파라미터 값을 변경합니다. 사용 가능한 모든 설정 옵션은 [conf.yaml 샘플][7]을 참조하세요. + +3. [에이전트를 재시작합니다][8]. + +쿠버네티스(Kubernetes) 환경의 로그 수집을 활성화하려면 [쿠버네티스 로그 수집][9]을 참조하세요. + +### 검증 + +[에이전트 상태 하위 명령을 실행][10]하고 점검 섹션에서 `rethinkdb`를 찾습니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "rethinkdb" >}} + + +### 이벤트 + +RethinkDB는 이벤트를 포함하지 않습니다. + +### 서비스 점검 +{{< get-service-checks-from-git "rethinkdb" >}} + + +## 트러블슈팅 + +도움이 필요하세요? [Datadog 지원팀][13]에 문의하세요. + + +[1]: https://rethinkdb.com +[2]: https://docs.datadoghq.com/ko/agent/kubernetes/integrations/ +[3]: https://app.datadoghq.com/account/settings/agent/latest +[4]: https://rethinkdb.com/docs/permissions-and-accounts/ +[5]: https://rethinkdb.com/docs/security/#the-admin-account +[6]: https://docs.datadoghq.com/ko/agent/guide/agent-configuration-files/#agent-configuration-directory +[7]: https://github.com/DataDog/integrations-core/blob/master/rethinkdb/datadog_checks/rethinkdb/data/conf.yaml.example +[8]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[9]: https://docs.datadoghq.com/ko/agent/kubernetes/log/ +[10]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[11]: https://github.com/DataDog/integrations-core/blob/master/rethinkdb/metadata.csv +[12]: https://github.com/DataDog/integrations-core/blob/master/rethinkdb/assets/service_checks.json +[13]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/retool.md b/content/ko/integrations/retool.md new file mode 100644 index 00000000000..b607deabc5a --- /dev/null +++ b/content/ko/integrations/retool.md @@ -0,0 +1,103 @@ +--- +app_id: retool +app_uuid: 13239057-ebc6-4cb6-a789-35f064bbcd0f +assets: + dashboards: + 'Retool + Datadog: ElasticSearch Action Console': assets/dashboards/retool_retool_overview.json + integration: + auto_install: true + configuration: {} + events: + creates_events: false + metrics: + check: [] + metadata_path: metadata.csv + prefix: retool + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10176 + source_type_name: Retool +author: + homepage: https://github.com/DataDog/integrations-extras + name: Retool + sales_email: support@retool.com + support_email: support@retool.com +categories: +- 개발 툴 +custom_kind: 통합 +dependencies: +- https://github.com/DataDog/integrations-extras/blob/master/retool/README.md +display_on_public_website: true +draft: false +git_integration_title: retool +integration_id: retool +integration_title: Retool +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: retool +public_title: Retool +short_description: Retool로 내부 도구를 빠르게 빌드할 수 있습니다. +supported_os: +- linux +- macos +- windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::macOS + - Supported OS::Windows + - Category::Developer Tools + - Offering::Integration + configuration: README.md#Setup + description: Retool로 내부 도구를 빠르게 빌드할 수 있습니다. + media: [] + overview: README.md#Overview + support: README.md#Support + title: Retool +--- + + + + +## 개요 +모니터링 및 분석은 필수적인 인사이트를 제공하지만, 개발자들은 이러한 인사이트에 기반한 조치를 취하기 위해 종종 분리된 독립형 커스텀 도구들 사이를 오가야 하므로 대응이 비효율적이거나 효과적이지 못한 경우가 있습니다. + +Retool은 개발자가 Datadog 대시보드에 직접 내장되는 커스텀 앱을 만들 수 있도록 지원하여 Datadog에서 벗어나지 않고도 조치를 취하고 워크플로를 자동화할 수 있도록 도와드립니다. + +![스크린샷1][1] + +### 메트릭 +Datadog의 Elasticsearch 관리용 내장형 Retool 앱은 Datadog 대시보드에서 벗어나지 않고도 클러스터, 계정 등을 관리할 수 있는 기능과 주요 Elasticsearch 메트릭 및 로그에 대한 기존 가시성을 결합합니다. + +### 대시보드 +Retool은 Elasticsearch 관리용 내장 앱을 구축하였습니다. 이미 Datadog에서 Elasticsearch 메트릭, 트레이스, 로그를 모니터링할 수 있습니다. 개발자는 내장 앱으로 Datadog 대시보드에서 직접 풍부한 Datadog 인사이트에 대한 조치를 취할 수 있습니다. 해당 조치에는 다음이 포함됩니다. + +- 샤드(shard)와 복제본으로 새 인덱스 추가하기 +- 샤드(shard) 리라우팅 및 인덱스 제외를 통한 노드 관리 +- 새 스냅샷 만들기 및 인덱스 복원 + +## 설정 +Retool 통합은 즉시 사용 가능한 대시보드를 같이 제공합니다. iframe으로 Retool에 등록 또는 로그인할 수 있습니다. + +연결 문자열로 ElasticSearch 클러스터에 연결하라는 메시지가 표시됩니다. 본 앱은 자동으로 인스턴스에 추가됩니다. 그런 다음 탐색 바에서 리소스를 클릭하고 새 Datadog 리소스를 생성합니다(API 및 애플리케이션 키 추가). 마지막으로 쿼리 편집기의 리소스 선택 드롭다운에서 Datadog 리소스를 선택하여 Datadog 쿼리 두 개에 연결합니다. + +Datadog으로 돌아가 대시보드에서 실행 중인 앱을 확인합니다. 언제든지 앱을 편집하여 DevOps 워크플로에 맞게 사용자 지정할 수 있습니다. + +## 수집한 데이터 + +### 메트릭 +Retool 통합에는 아직 메트릭이 포함되지 않습니다. + +### 이벤트 +Retool 통합에는 아직 이벤트가 포함되지 않습니다. + +### 서비스 점검 +Retool에는 아직 서비스 점검이 포함되지 않습니다. + +## 트러블슈팅 +도움이 필요하신가요? [Datadog 지원 팀][2]에 문의하세요. + +[1]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/retool/images/1.png +[2]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/riakcs.md b/content/ko/integrations/riakcs.md new file mode 100644 index 00000000000..2047dc4d6a9 --- /dev/null +++ b/content/ko/integrations/riakcs.md @@ -0,0 +1,157 @@ +--- +app_id: riak-cs +app_uuid: 29e6a2b4-7f3a-4243-8e10-d065147c3da0 +assets: + dashboards: + riakcs: assets/dashboards/riakcs_dashboard.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: riakcs.bucket_list_pool.workers + metadata_path: metadata.csv + prefix: riakcs. + process_signatures: + - riak-cs start + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 110 + source_type_name: RiakCS + saved_views: + riak-cs_processes: assets/saved_views/riak-cs_processes.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- data stores +custom_kind: 통합 +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/riakcs/README.md +display_on_public_website: true +draft: false +git_integration_title: riakcs +integration_id: riak-cs +integration_title: Riak CS +integration_version: 4.3.0 +is_public: true +manifest_version: 2.0.0 +name: riakcs +public_title: Riak CS +short_description: GET, PUT, DELETE 및 기타 메서드의 속도와 평균 지연을 추적하세요. +supported_os: +- linux +- macos +- windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::macOS + - Supported OS::Windows + - Category::Data Stores + - Offering::Integration + configuration: README.md#Setup + description: GET, PUT, DELETE 및 기타 메서드의 속도와 평균 지연을 추적하세요. + media: [] + overview: README.md#Overview + resources: + - resource_type: 블로그 + url: https://www.datadoghq.com/blog/monitor-riak-cs-performance-and-availability + support: README.md#Support + title: Riak CS +--- + + + + +![RiakCS 대시보드][1] + +## 개요 + +Datadog에서 RiakCS 메트릭을 캡처하면 다음이 가능합니다. + +- 핵심 RiakCS 메트릭 시각화 +- RiakCS 성능을 나머지 애플리케이션과 연계 + +## 설정 + +### 설치 + +RiakCS 점검은 [Datadog 에이전트][2] 패키지에 포함되어 있으므로 RiakCS 노드에 아무 것도 설치할 필요가 없습니다. + +### 구성 + +1. [에이전트 설정 디렉터리][3] 루트에 있는 `conf.d/` 폴더에서 `riakcs.d/conf.yaml` 파일을 편집하세요. 사용 가능한 모든 설정 옵션은 [샘플 riakcs.d/conf.yaml][4]을 참조하세요. + + ```yaml + init_config: + + instances: + ## @param access_id - string - required + ## Enter you RiakCS access key. + # + - access_id: "" + + ## @param access_secret - string - required + ## Enter the corresponding RiakCS access secret. + # + access_secret: "" + ``` + +2. [Agent를 재시작합니다][5]. + +### 검증 + +[에이전트의 `status` 하위 명령을 실행하여][6] 점검 섹션에서 `riakcs`를 찾습니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "riakcs" >}} + 메모리 통계를 포함한 대부분의 S3 API 메트릭을 포함합니다. 일부 메트릭이 제외되었습니다. + +- bucket*acl*(get|put) +- object*acl*(get|put) +- bucket*policy*(get|put|delete) +- _in_(one|total) +- _time_error_\* +- \_time_100 + +제외된 메트릭 또는 추가 메트릭(1000개 이상)을 `instance_config`에 `metrics` 키를 사용해 `riakcs.d/conf.yaml` 설정 파일에 추가할 수 있습니다. 값은 메트릭 이름의 목록이어야 합니다. + +[사용 가능한 메트릭 전체 목록][8]을 참조하세요. + +### 이벤트 + +RiakCS 점검은 이벤트를 포함하지 않습니다. + +### 서비스 점검 +{{< get-service-checks-from-git "riakcs" >}} + + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 고객 지원팀][10]에 문의해주세요. + +## 참고 자료 + +기타 유용한 문서, 링크 및 기사: + +- [Riak CS 성능 및 사용 가능성 모니터링][11] + +[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/riakcs/images/riakcs_dashboard.png +[2]: https://app.datadoghq.com/account/settings/agent/latest +[3]: https://docs.datadoghq.com/ko/agent/guide/agent-configuration-files/#agent-configuration-directory +[4]: https://github.com/DataDog/integrations-core/blob/master/riakcs/datadog_checks/riakcs/data/conf.yaml.example +[5]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[6]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[7]: https://github.com/DataDog/integrations-core/blob/master/riakcs/metadata.csv +[8]: https://github.com/basho/riak_cs/wiki/Riak-cs-and-stanchion-metrics +[9]: https://github.com/DataDog/integrations-core/blob/master/riakcs/assets/service_checks.json +[10]: https://docs.datadoghq.com/ko/help/ +[11]: https://www.datadoghq.com/blog/monitor-riak-cs-performance-and-availability \ No newline at end of file diff --git a/content/ko/integrations/rigor.md b/content/ko/integrations/rigor.md new file mode 100644 index 00000000000..4f9714c68e0 --- /dev/null +++ b/content/ko/integrations/rigor.md @@ -0,0 +1,150 @@ +--- +app_id: rigor +app_uuid: f9ab0c97-235c-4f88-8b92-89eb563e18ba +assets: + integration: + auto_install: true + configuration: {} + events: + creates_events: true + metrics: + check: rigor.http.dns_time + metadata_path: metadata.csv + prefix: rigor. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10029 + source_type_name: Rigor +author: + homepage: https://github.com/DataDog/integrations-extras + name: Rigor + sales_email: support@rigor.com + support_email: support@rigor.com +categories: +- 테스팅 +custom_kind: integration +dependencies: +- https://github.com/DataDog/integrations-extras/blob/master/rigor/README.md +display_on_public_website: true +draft: false +git_integration_title: rigor +integration_id: rigor +integration_title: Rigor +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: rigor +public_title: Rigor +short_description: Rigor는 개발 라이프 사이클 동안 신서틱(Synthetic) 모니터링 및 최적화를 제공합니다. +supported_os: +- 리눅스 +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Category::Testing + - Supported OS::macOS + - 제공::통합 + configuration: README.md#Setup + description: Rigor는 개발 라이프 사이클 동안 신서틱(Synthetic) 모니터링 및 최적화를 제공합니다. + media: [] + overview: README.md#Overview + support: README.md#Support + title: Rigor +--- + + +## 개요 + +Rigor는 개발 라이프 사이클 동안 신서틱(Synthetic) 모니터링 및 최적화 인사이트를 제공합니다. + +![timeboard][1] + +Rigor를 사용하면 신서틱, 프런트엔드 성능 메트릭을 수집하고 이러한 메트릭을 Datadog에 푸시할 수 있습니다. 또한, Datadog에 알림을 이벤트로 푸시할 수도 있습니다. + +## 설정 + +Rigor는 Datadog를 통해 두 개의 서로 다른 통합을 제공합니다. 메트릭 통합과 이벤트 통합입니다. + +### 구성 +#### 메트릭 수집 + +관리자로 화면 오른쪽 상단에서 "관리 도구" 메뉴를 클릭한 다음 "통합"을 선택합니다. + +![관리-메뉴][2] + +"신규" 버튼을 클릭해 새로운 통합을 추가하여 통합 설정을 활성화합니다. + +![푸시-설정][3] + +Datadog의 API 키와 이 통합에 대한 고유한 이름을 추가합니다. 그런 다음, 전송할 태그와 메트릭을 선택합니다. 다음 사항을 기억해 두세요. + +- 점검 이름의 표준화된 버전은 기본 태그를 포함합니다. +- 다단계 점검(실제 브라우저 및 API 점검)의 경우 메트릭의 출처가 된 요청의 위치를 포함해야 합니다. +- 업타임 점검은 HTTP, 포트 및 API 점검을 포함합니다. +- 포트 점검은 "반응 시간" 메트릭만 보고합니다. +- 일부 브라우저는 일부 메트릭을 지원하지 않습니다. + +실제 브라우저 점검이 [사용자 타이밍 API][4]에서 타이밍을 보고하도록 하려면, "모든 사용자 타이밍 전송?"을 선택합니다. `rigor.real_browser.marks` 네임스페이스에 있는 모든 표시가 보고됩니다. `rigor.real_browser.measures` 네임스페이스 아래에는 측정값이 보고됩니다. **참고**: 이 옵션을 선택하면 Datadog에 많은 계열이 전송될 수 있습니다. 특히 테스팅하는 사이트의 표시와 측정값이 동적으로 생성되는 경우 그렇습니다. + +통합을 구성하면 실제 브라우저, HTTP, 포트 또는 API 점검에 추가할 수 있습니다. 점검을 편집하고 "알림" 탭으로 이동하기만 하면 됩니다. 여기서 방금 만든 통합을 추가할 수 있습니다. + +![점검에-통합-추가][5] + +#### 이벤트 수집 + +관리자로, 화면 오른쪽 상단에 있는 "관리 도구" 메뉴를 클릭하고 "경고 웹훅"을 선택합니다. + +![웹훅-메뉴][6] + +"신규" 버튼을 클릭하고 Datadog 타일을 클릭하여 새로운 통합을 추가합니다. + +![웹훅-선택기][7] + +이 웹훅에 대한 고유한 이름을 추가하고 Datadog API 키를 사용해 트리거를 업데이트해야 합니다. + +![웹훅-설정][8] + +통합을 구성하면 실제 브라우저, HTTP, 포트 또는 API 점검에 추가할 수 있습니다. 점검을 편집하고 "알림" 탭으로 이동하기만 하면 됩니다. 여기서 방금 만든 웹훅을 추가할 수 있습니다. + +![점검에-웹훅-추가][9] + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "rigor" >}} + + +### 이벤트 + +Datadog 이벤트를 통해 경고를 보내도록 점검을 설정하면 두 개의 이벤트가 Datadog에 푸시됩니다. + +- **실패** - 점검이 임계값을 초과할 정도로 많이 실패하여 경고를 전송하는 경우입니다. +- **다시 온라인** - 경고 상태에서 점검이 성공적으로 실행된 경우입니다. + +![이벤트-예시][11] + +### 서비스 점검 + +Rigor 통합은 서비스 점검을 포함하지 않습니다. + +## 트러블슈팅 + +도움이 필요하세요? [Rigor 지원][12]에 문의하세요. + + +[1]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/rigor/images/rigor_timeboard_with_metrics.png +[2]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/rigor/images/rigor_admin_menu.png +[3]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/rigor/images/rigor_integration_configuration.png +[4]: https://developer.mozilla.org/en-US/docs/Web/API/User_Timing_API +[5]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/rigor/images/rigor_add_integration_to_check.png +[6]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/rigor/images/rigor_webhooks_menu.png +[7]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/rigor/images/rigor_webhooks_chooser.png +[8]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/rigor/images/rigor_webhooks_configuration.png +[9]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/rigor/images/rigor_add_webhook_to_check.png +[10]: https://github.com/DataDog/integrations-extras/blob/master/rigor/metadata.csv +[11]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/rigor/images/rigor_events_example.png +[12]: mailto:support@rigor.com \ No newline at end of file diff --git a/content/ko/integrations/rollbar.md b/content/ko/integrations/rollbar.md new file mode 100644 index 00000000000..64d20bfb3ae --- /dev/null +++ b/content/ko/integrations/rollbar.md @@ -0,0 +1,109 @@ +--- +app_id: rollbar +app_uuid: 63175032-65a1-4bc8-82da-251a27005f1f +assets: + integration: + auto_install: true + events: + creates_events: true + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 137 + source_type_name: Rollbar +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- log collection +- issue tracking +- notifications +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: rollbar +integration_id: rollbar +integration_title: Rollbar +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: rollbar +public_title: Rollbar +short_description: Datadog 이벤트 스트림에 예외, 오류 및 코드 배포를 전송하세요. +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::로그 수집 + - Category::Issue Tracking + - Category::알림 + - Offering::Integration + configuration: README.md#Setup + description: Datadog 이벤트 스트림에 예외, 오류 및 코드 배포를 전송하세요. + media: [] + overview: README.md#Overview + support: README.md#Support + title: Rollbar +--- + + +![Rollbar error event][1] + +## 개요 + +Rollbar는 개발자가 더 향상된 소프트웨어를 더 빠르게 빌드할 수 있도록 해줍니다. Rollbar를 사용하면 개발자는 단 한 곳에서 모든 프레임워크, 플랫폼 및 환경의 예외를 확인할 수 있습니다. + +Rollbar를 Datadog에 연결하면 다음 이점을 누릴 수 있습니다. + +- 이벤트 탐색기에서 예외, 오류, 코드 배포에 대한 알림을 받습니다. +- 심각도, 환경, 호스트, 사용자 등별로 알림을 필터링합니다. +- 그래프에서 예외 검색하기 +- 팀과 예외에 관해 논의하기 +- 디버깅 문제로 더 적은 시간을 소비합니다. + +## 설정 + +### 설치 + +1. [Rollbar 통합 타일][2]로 이동하여 **통합 설치**를 클릭합니다. +2. 통합 타일에서 기존 API 키를 선택하거나 이 통합에 대한 새로운 키를 생성합니다. + +### 구성 + +설정은 Rollbar에서 프로젝트별로 구성됩니다. + +1. Rollbar에서 프로젝트 페이지로 이동합니다. +2. 더하기 버튼 **\[ + \]**을 클릭하여 통합을 프로젝트에 추가합니다. + + ![Rollbar 프로젝트 페이지][3] + +3. 목록에서 Datadog를 선택합니다. +4. Datadog의 Rollbar 통합 타일에서 API 키를 복사하여 Rollbar의 API 키 상자에 붙여넣기합니다. + +이때 "테스트 알림 전송" 버튼을 클릭하여 설정이 적절한지 확인합니다. 클릭한 다음, [이벤트 탐색기][4]에서 Rollbar의 이벤트를 확인할 수 있습니다. + +## 수집한 데이터 + +### 메트릭 + +Rollbar 통합은 메트릭을 포함하지 않습니다. + +### 이벤트 + +Rollbar 통합은 예외, 오류 및 코드 배포를 Datadog에 이벤트로 푸시합니다. + +### 서비스 점검 + +Rollbar 통합은 서비스 점검을 포함하지 않습니다. + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 지원팀][5]에 문의하세요. + +[1]: images/rollbar_error.png +[2]: https://app.datadoghq.com/account/settings#integrations/rollbar +[3]: images/rollover_project.png +[4]: https://app.datadoghq.com/event/explorer +[5]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/salesforce.md b/content/ko/integrations/salesforce.md new file mode 100644 index 00000000000..acc489ef8bf --- /dev/null +++ b/content/ko/integrations/salesforce.md @@ -0,0 +1,151 @@ +--- +categories: +- cloud +- 네트워크 +custom_kind: integration +dependencies: [] +description: Salesforce 실시간 플랫폼 이벤트를 Datadog 로그로 수집하세요. +doc_link: https://docs.datadoghq.com/integrations/salesforce/ +draft: false +further_reading: +- link: https://www.datadoghq.com/blog/monitor-salesforce-logs-datadog/ + tag: 블로그 + text: Datadog를 사용해 Salesforce 로그 모니터링하세요. +git_integration_title: salesforce +has_logo: true +integration_id: '' +integration_title: Salesforce +integration_version: '' +is_public: true +manifest_version: '1.0' +name: salesforce +public_title: Salesforce +short_description: Salesforce 실시간 플랫폼 이벤트를 Datadog 로그로 수집하세요. +team: web-integrations +version: '1.0' +--- + + +{{< img src="integrations/salesforce/salesforce_dashboard.png" alt="Datadog에서 바로 사용 가능한 Salesforce 대시보드" popup="true">}} + +## 개요 + +Salesforce는 고객 관계 관리 서비스를 제공하는 스위트(suite)로, 고객 서비스, 마케팅 자동화, 분석 및 애플리케이션 개발에 중점을 두고 엔터프라이즈 애플리케이션을 보완합니다. + +Datadog와 Salesforce를 통합하여 다음과 같은 이점을 얻을 수 있습니다. + +- [Datadog 로그 관리][1]를 사용하여 Salesforce 사용자 활동, 플랫폼 액세스 활동 및 보안 로그를 확인하고 파싱합니다. +- Salesforce 플랫폼에서 [이벤트][3]에 대한 [모니터][2]를 설정합니다. +- Datadog [보안 플랫폼][4]을 활용하여 Salesforce 플랫폼 전반에서 위협을 모니터링하고 탐지하세요. +- API 한도 내에서 운영할 수 있도록 Salesforce API 사용량을 모니터링하세요. + +## 설정 + +### 설치 + +설치할 필요가 없습니다. + +### 설정 + +Salesforce가 Datadog에 데이터를 전송하도록 설정하려면 [Salesforce 이벤트 모니터링][5]에 액세스하고 Salesforce 이벤트에서 스토리지를 활성화한 다음 Salesforce 조직을 Datadog에 연결해야 합니다. + +#### 권한 + +[Salesforce Shield][6]를 사용하는 경우 모든 이벤트에 대한 필수 권한을 보유하게 됩니다. Shield를 사용하지 않는 경우 [이벤트 모니터링 애드온][7]이 필요합니다. + +#### 이벤트 스토리지 활성화 + +플랫폼 또는 실시간 이벤트를 사용하려는 경우 이벤트 관리자에서 이를 설정해야 합니다. 이벤트 로그 파일 이벤트의 경우 이 단계가 필요하지 않습니다. + +1. Salesforce 계정에 [로그인][8]합니다(Lightning 인터페이스 사용). +2. **이벤트 관리자**를 검색합니다. +3. 이벤트 관리자 페이지에서 크롤링하려는 각 이벤트에 대해 오른쪽 화살표를 클릭하고 **스토리지 활성화**를 선택합니다. **스트리밍 활성화**는 필요하지 않습니다. 지원되는 이벤트 목록은 +[Salesforce 통합 타일][9]의 **플랫폼 이벤트** 섹션에 있는 **설정** 탭에서 확인할 수 있습니다. + +#### 조직 연결하기 + +1. Salesforce 조직에서 고유한 시스템 계정을 만듭니다. +2. [Salesforce 통합 타일][9]의 **설정** 탭 에서 **새 프로덕션 조직** 또는 **새 샌드박스 조직**을 클릭합니다. +3. 이러한 이벤트를 첨부할 커스텀 태그를 쉼표로 구분된 목록으로 설정합니다. 활성화할 이벤트를 선택할 수 있습니다. + + {{< img src="integrations/salesforce/salesforce-1.png" alt="Datadog에서 Salesforce 조직 설정에 성공한 경우 성공 화면" popup="true" style="width:90%" >}} + +4. **저장**을 클릭합니다. 그러면 Salesforce 계정 로그인하여 Datadog 액세스 권한을 허용할 것을 요청하는 메시지가 나타납니다. +5. 로그인 플로우를 완료하면 [Salesforce 통합 타일 ][9]의 [ Datadog]로 돌아갑니다. 조직에는 즉시 사용 가능한 기본값 태그 이 포함되어 있습니다. + + {{< img src="integrations/salesforce/salesforce-default-tags.png" alt="Datadog에서 Salesforce 조직 설정에 성공한 경우 성공 화면" popup="true" style="width:90%" >}} + +6. 사용하려는 태그를 선택하고 **연결**을 클릭합니다. +7. 나머지 조직을 연결하려면 이 단계를 반복합니다. 추가하려는 조직에 대한 액세스 권한이 있어야 합니다. + +**참고**: 기본 태그가 Salesforce 조직 ID를 사용해 추가되어 있지만, 기업에 더 의미 있는 방식으로 [해당 태그][10]를 편집할 수 있습니다. + +#### Salesforce 커스텀 개체 추가하기 + +[Salesforce 커스텀 개체][11]를 Datadog로 수집할 수 있습니다. + +1. Salesforce 통합 타일에서 커스텀 개체 섹션을 엽니다. +2. 쉼표(`CustomObject1__c, CustomObject2__c`)로 구분된 Salesforce API 형식(`CustomObject__c`)에서 커스텀 개체를 하나 이상 추가합니다. +3. 다른 Salesforce 이벤트에서와 마찬가지로 이러한 커스텀 개체를 활성화하거나 비활성화합니다. + +커스텀 개체는 수정 날짜를 기준으로 로그로 수집됩니다. 모든 커스텀 개체 로그에는 자동으로 `salesforce_custom_object:true` 태그가 지정됩니다. + +#### 결과 + +잠시 후 `salesforce` 소스 아래에 [로그][1]가 나타납니다. Salesforce는 이벤트 로그 파일을 자주 작성하지 않으므로 이벤트 로그 파일 기반 이벤트가 Datadog에 표시될 때까지 한 시간 이상이 소요될 수 있습니다. + +{{< img src="integrations/salesforce/salesforce_dashboard_logs.png" alt="바로 사용 가능한 Salesforce 대시보드의 Salesforce 로그 스트림 위젯" popup="true">}} + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "salesforce" >}} + + +### 로그 + +이 통합에서는 [Datadog 로그 관리][1]를 사용하여 Salesforce 사용자 활동, 플랫폼 액세스 활동 및 보안에서 생성된 로그를 볼 수 있습니다. 지원되는 활동의 전체 목록은 [실시간 이벤트 모니터링 데이터 스토리지][13] 및 [EventLogFile 이벤트][14]을 참조하세요." 이 정보는 Salesforce 통합 타일의 **수집된 데이터** 탭에서도 확인할 수 있습니다. + +### 서비스 점검 + +Salesforce 통합에는 서비스 점검이 포함되어 있지 않습니다. + +### 이벤트 + +이 통합에는 이벤트가 포함되어 있지 않습니다. + +## 트러블슈팅 + +설정 탭 에서 `The authenticated connection does not have access` 오류가 발생하는 경우 요청된 이벤트에 액세스할 수 있는 권한이 누락되었을 수 있습니다. Salesforce에서 Datadog 역할에 대한 관리자 권한을 일시적으로 활성화하여 누락된 액세스 권한을 확인할 수 있습니다. + +사용자에게 최소한 다음 권한이 있어야 합니다. + +* API 활성화됨 +* 구성 및 설정 보기 +* 실시간 이벤트 모니터링 이벤트 보기 +* 이벤트 로그 파일 보기 +* 위협 탐지 이벤트 보기 + +또한 사용자는 설정에서 선택한 모든 기본 이벤트 개체에 대한 읽기 권한이 있어야 합니다. + +도움이 필요하시면 [Datadog 지원팀][15]에 문의하세요. + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/logs/ +[2]: https://app.datadoghq.com/monitors/monitor_types/ +[3]: https://app.datadoghq.com/events/ +[4]: https://app.datadoghq.com/security_platform/ +[5]: https://trailhead.salesforce.com/content/learn/modules/event_monitoring +[6]: https://www.salesforce.com/editions-pricing/platform/shield +[7]: https://help.salesforce.com/s/articleView?id=000339868&type=1 +[8]: https://login.salesforce.com/ +[9]: https://app.datadoghq.com/integrations/salesforce +[10]: https://app.datadoghq.com/getting_started/tagging/using_tags/ +[11]: https://help.salesforce.com/s/articleView?id=platform.dev_objectcreate_task_parent.htm&type=5 +[12]: https://github.com/DataDog/integrations-internal-core/blob/main/salesforce/metadata.csv +[13]: https://developer.salesforce.com/docs/atlas.en-us.securityImplGuide.meta/securityImplGuide/real_time_event_monitoring_storage.htm#storage-events +[14]: https://developer.salesforce.com/docs/atlas.en-us.object_reference.meta/object_reference/sforce_api_objects_eventlogfile_supportedeventtypes.htm +[15]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/sap_hana.md b/content/ko/integrations/sap_hana.md new file mode 100644 index 00000000000..29b075cb462 --- /dev/null +++ b/content/ko/integrations/sap_hana.md @@ -0,0 +1,218 @@ +--- +app_id: sap-hana +app_uuid: 53d66afa-de92-4f09-9514-778324f38f5c +assets: + dashboards: + SAP HANA Overview: assets/dashboards/overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: sap_hana.uptime + metadata_path: metadata.csv + prefix: sap_hana. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10076 + source_type_name: SAP HANA +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- 데이터 스토어 +- sap +custom_kind: integration +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/sap_hana/README.md +display_on_public_website: true +draft: false +git_integration_title: sap_hana +integration_id: sap-hana +integration_title: SAP HANA +integration_version: 5.1.0 +is_public: true +manifest_version: 2.0.0 +name: sap_hana +public_title: SAP HANA +short_description: SAP HANA 시스템에서 메모리, 네트워크, 볼륨 및 기타 메트릭을 모니터링하세요. +supported_os: +- 리눅스 +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - 카테고리::데이터 저장 + - Category::SAP + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - 제공::통합 + configuration: README.md#Setup + description: SAP HANA 시스템에서 메모리, 네트워크, 볼륨 및 기타 메트릭을 모니터링하세요. + media: [] + overview: README.md#Overview + support: README.md#Support + title: SAP HANA +--- + + + + +## 개요 + +이 점검은 Datadog 에이전트를 통해 [SAP HANA][1] 2.0, SPS 2를 모니터링합니다. + +## 설정 + +### 설치 + +SAP HANA 점검은 [Datadog 에이전트 ][2] 패키지에 포함되어 있습니다. 이 통합을 사용하려면 [hdbcli][3] 라이브러리를 수동 설치해야 합니다. + + +Unix용: + +```text +sudo -Hu dd-agent /opt/datadog-agent/embedded/bin/pip install hdbcli==2.21.28 +``` + +윈도우즈(Windows)용: + +```text +"C:\Program Files\Datadog\Datadog Agent\embedded\python.exe" -m pip install hdbcli==2.21.28 +``` + +#### HANA 준비 + +특정 보기를 쿼리 하려면 선택한 HANA 모니터링 사용자에게 특정 권한을 부여해야 합니다. 자세한 내용은 [권한 부여하기](#granting-privileges)를 참조하세요. + +HANA 테넌트, 단일 테넌트 및 시스템 데이터베이스의 포트 번호를 설정하는 방법을 알아보려면 [SAP 연결 설명서][4]를 참조하세요. + +##### 사용자 생성 + +1. 시스템 데이터베이스에 연결하고 다음 명령을 실행하여 사용자를 만듭니다. + + ```shell + CREATE RESTRICTED USER PASSWORD ; + ``` + +2. 다음 명령을 실행하여 사용자가 시스템에 연결할 수 있도록 허용합니다. + + ```shell + ALTER USER ENABLE CLIENT CONNECT; + ``` + +3. (선택 사항) 서비스 중단을 방지하려면 오래 사용 가능한 비밀번호를 만드는 것이 좋습니다. + + ```shell + ALTER USER DISABLE PASSWORD LIFETIME; + ``` + +##### 권한 부여 + +1. 다음 명령을 실행하여 모니터링 역할을 만듭니다(이 예에서는 `DD_MONITOR`로 명명): + + ```shell + CREATE ROLE DD_MONITOR; + ``` + +2. 다음 명령을 실행하여 모든 시스템 보기에 읽기 전용 액세스 권한을 부여합니다: + + ```shell + GRANT CATALOG READ TO DD_MONITOR; + ``` + +3. 그런 다음 다음 명령을 실행하여 각 시스템 보기에서 선택 권한을 부여합니다. + + ```shell + GRANT SELECT ON SYS.M_DATABASE TO DD_MONITOR; + GRANT SELECT ON SYS.M_DATABASES TO DD_MONITOR; + GRANT SELECT ON SYS_DATABASES.M_BACKUP_PROGRESS TO DD_MONITOR; + GRANT SELECT ON SYS_DATABASES.M_CONNECTIONS TO DD_MONITOR; + GRANT SELECT ON SYS_DATABASES.M_DISK_USAGE TO DD_MONITOR; + GRANT SELECT ON SYS_DATABASES.M_LICENSES TO DD_MONITOR; + GRANT SELECT ON SYS_DATABASES.M_RS_MEMORY TO DD_MONITOR; + GRANT SELECT ON SYS_DATABASES.M_SERVICE_COMPONENT_MEMORY TO DD_MONITOR; + GRANT SELECT ON SYS_DATABASES.M_SERVICE_MEMORY TO DD_MONITOR; + GRANT SELECT ON SYS_DATABASES.M_SERVICE_STATISTICS TO DD_MONITOR; + GRANT SELECT ON SYS_DATABASES.M_VOLUME_IO_TOTAL_STATISTICS TO DD_MONITOR; + ``` + +4. 마지막으로 다음 명령을 실행하여 원하는 사용자에게 모니터링 역할을 할당합니다. + + ```shell + GRANT DD_MONITOR TO ; + ``` + +### 구성 + +1. 에이전트 설정 디렉터리 루트의 `conf.d/` 폴더에 있는 `sap_hana.d/conf.yaml` 파일을 편집하여 sap_hana 성능 데이터 수집을 시작합니다. 사용 가능한 모든 설정 옵션은 [샘플 sap_hana.d/conf.yaml][5]을 참조하세요. + +2. [Agent를 재시작합니다][6]. + +#### 로그 수집 + +1. SAP HANA 데이터베이스에서 감사 로그를 읽을 수 있는지 확인하려면 다음 명령을 실행합니다. + + ```shell + GRANT AUDIT READ TO DD_MONITOR; + GRANT SELECT ON SYS.AUDIT_LOG TO DD_MONITOR + ``` + +1. 로그 수집은 기본적으로 Datadog 에이전트에서 비활성화되어 있습니다. `datadog.yaml`에서 활성화하세요. + + ```yaml + logs_enabled: true + ``` + +2. 이 설정 블록을 `sap_hana.d/conf.yaml` 파일에 추가하여 SAP HANA 로그 수집을 시작하고 `service` 값을 조정하여 환경에 맞게 설정합니다. + + ```yaml + logs: + - type: integration + source: sap_hana + service: sap_hana + ``` + + 사용 가능한 모든 설정 옵션은 [샘플 sap_hana.d/conf.yaml][5]을 참조하세요. + +3. [에이전트를 재시작하세요][6]. + +### 검증 + +[에이전트 상태 하위 명령][7]을 실행하고 점검 섹션에서 `sap_hana`를 찾습니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "sap_hana" >}} + + +### 이벤트 + +SAP HANA에는 이벤트가 포함되어 있지 않습니다. + +### 서비스 점검 +{{< get-service-checks-from-git "sap_hana" >}} + + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 고객 지원팀][10]에 문의해주세요. + + +[1]: https://www.sap.com/products/hana.html +[2]: https://app.datadoghq.com/account/settings/agent/latest +[3]: https://pypi.org/project/hdbcli/ +[4]: https://help.sap.com/viewer/0eec0d68141541d1b07893a39944924e/2.0.02/en-US/d12c86af7cb442d1b9f8520e2aba7758.html +[5]: https://github.com/DataDog/integrations-core/blob/master/sap_hana/datadog_checks/sap_hana/data/conf.yaml.example +[6]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-restart-the-agent +[7]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[8]: https://github.com/DataDog/integrations-core/blob/master/sap_hana/metadata.csv +[9]: https://github.com/DataDog/integrations-core/blob/master/sap_hana/assets/service_checks.json +[10]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/scylla.md b/content/ko/integrations/scylla.md new file mode 100644 index 00000000000..8873aa2401a --- /dev/null +++ b/content/ko/integrations/scylla.md @@ -0,0 +1,153 @@ +--- +app_id: scylla +app_uuid: 1d655820-3010-4ae3-8273-a3798321d4d4 +assets: + dashboards: + Scylla Overview: assets/dashboards/overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: scylla.node.operation_mode + metadata_path: metadata.csv + prefix: scylla. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10087 + source_type_name: 실라 + monitors: + Node State is abnormal: assets/monitors/instance_down.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- 캐싱(caching) +- 데이터 스토어 +- 로그 수집 +custom_kind: integration +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/scylla/README.md +display_on_public_website: true +draft: false +git_integration_title: scylla +integration_id: scylla +integration_title: Scylla +integration_version: 4.1.0 +is_public: true +manifest_version: 2.0.0 +name: scylla +public_title: Scylla +short_description: 클러스터 리소스, 지연 시간, 상태 등을 추적하세요. +supported_os: +- 리눅스 +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - 카테고리::캐싱(Caching) + - 카테고리::데이터 저장 + - Category::Log Collection + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - 제공::통합 + configuration: README.md#Setup + description: 클러스터 리소스, 지연 시간, 상태 등을 추적하세요. + media: [] + overview: README.md#Overview + support: README.md#Support + title: Scylla +--- + + + + +## 개요 + +이 Datadog-[Scylla][1] 통합은 기본적으로 노출된 메트릭의 대부분을 수집하며, 특정 사용자 요구에 따라 추가 그룹을 커스터마이즈할 수 있습니다. + +Scylla는 "드롭인 방식의 Apache Cassandra 대안"으로 사용할 수 있는 오픈 소스 NoSQL 데이터 스토리지입니다. 최신 하드웨어에 맞게 조정된 Cassandra 모델을 재설계하여 필요한 클러스터 크기를 줄이면서 이론적 처리량과 성능을 개선했습니다. + +## 설정 + +호스트에서 실행되는 Agent에 대해 이 검사를 설치하고 구성하려면 아래 지침을 따르세요. + +### 설치 + +Scylla 점검은 [Datadog 에이전트][2] 패키지 에 포함되어 있습니다. 서버에 추가 설치가 필요하지 않습니다. + +### 구성 + +1. 에이전트 설정 디렉터리 루트의 `conf.d/` 폴더에 있는 `scylla.d/conf.yaml` 파일을 편집하여 스카일라 성능 데이터 수집을 시작합니다. 사용 가능한 모든 설정 옵션은 [샘플 scylla.d/conf.yaml][3]을 참조하세요. 이전에 통합을 구현한 경우 [레거시 예제][4]를 참조하세요. + +2. [Agent를 재시작합니다][5]. + +##### 로그 수집 + +Scylla는 실행 중인 환경에 따라 로그를 출력하는 모드가 다릅니다. 애플리케이션이 로그를 생성하는 방법에 대한 자세한 내용은 [Scylla 설명서][6]를 참조하세요. + +1. Datadog 에이전트에서 로그 수집은 기본적으로 사용하지 않도록 설정되어 있습니다. `datadog.yaml`파일에서 로그 수집을 사용하도록 설정합니다. + + ```yaml + logs_enabled: true + ``` + +2. `scylla.d/conf.yaml` 파일에서 로그 설정 블록의 주석을 해제하고 편집합니다. `type`, `path`, `service` 파라미터 값을 환경에 따라 변경합니다. 사용 가능한 모든 설정 옵션은 [샘플 scylla.d/conf.yaml][3]을 참조하세요. + + ```yaml + logs: + - type: file + path: + source: scylla + service: + #To handle multi line that starts with yyyy-mm-dd use the following pattern + #log_processing_rules: + # - type: multi_line + # pattern: \d{4}\-(0?[1-9]|1[012])\-(0?[1-9]|[12][0-9]|3[01]) + # name: new_log_start_with_date + ``` + +3. [Agent를 재시작합니다][5]. + +쿠버네티스(Kubernetes) 환경에 대한 로그를 활성화하려면 [쿠버네티스 로그 수집][7]을 참조하세요. + +### 검증 + +[에이전트 상태 하위 명령을 실행][8]하고 점검 섹션에서 `scylla`를 찾습니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "scylla" >}} + + +### 이벤트 + +Scylla 점검 에는 이벤트. + +### 서비스 점검 +{{< get-service-checks-from-git"scylla" >}} + + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 고객 지원팀][11]에 문의하세요. + + +[1]: https://scylladb.com +[2]: https://app.datadoghq.com/account/settings/agent/latest +[3]: https://github.com/DataDog/integrations-core/blob/master/scylla/datadog_checks/scylla/data/conf.yaml.example +[4]: https://github.com/DataDog/integrations-core/blob/7.50.x/scylla/datadog_checks/scylla/data/conf.yaml.example +[5]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[6]: https://docs.scylladb.com/getting-started/logging/ +[7]: https://docs.datadoghq.com/ko/agent/kubernetes/log/ +[8]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[9]: https://github.com/DataDog/integrations-core/blob/master/scylla/metadata.csv +[10]: https://github.com/DataDog/integrations-core/blob/master/scylla/assets/service_checks.json +[11]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/sendmail.md b/content/ko/integrations/sendmail.md new file mode 100644 index 00000000000..450a3044712 --- /dev/null +++ b/content/ko/integrations/sendmail.md @@ -0,0 +1,118 @@ +--- +app_id: sendmail +app_uuid: 8169d145-8d1f-4bb8-a4de-a0aa9aa84c0b +assets: + integration: + auto_install: true + configuration: {} + events: + creates_events: false + metrics: + check: sendmail.queue.size + metadata_path: metadata.csv + prefix: sendmail. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10204 + source_type_name: Sendmail +author: + homepage: https://github.com/DataDog/integrations-extras + name: 커뮤니티 + sales_email: david.bouchare@datadoghq.com + support_email: david.bouchare@datadoghq.com +categories: +- 메트릭 +- 네트워크 +custom_kind: integration +dependencies: +- https://github.com/DataDog/integrations-extras/blob/master/sendmail/README.md +display_on_public_website: true +draft: false +git_integration_title: sendmail +integration_id: sendmail +integration_title: Sendmail +integration_version: 1.0.0 +is_public: true +manifest_version: 2.0.0 +name: sendmail +public_title: Sendmail +short_description: 메일 대기열 모니터링을 위한 Sendmail 통합 +supported_os: +- 리눅스 +tile: + changelog: CHANGELOG.md + classifier_tags: + - 카테고리::메트릭 + - Category::Network + - Supported OS::Linux + - 제공::통합 + configuration: README.md#Setup + description: 메일 대기열 모니터링을 위한 Sendmail 통합 + media: [] + overview: README.md#Overview + support: README.md#Support + title: Sendmail +--- + + + + +## 개요 + +이 점검은 Datadog 에이전트를 통해 [Sendmail][1]을 모니터링합니다. + +## 설정 + +Sendmail 점검은 [Datadog 에이전트][2] 패키지에 포함되어 있지 않으므로 설치해야 합니다. + +### 설치 + +에이전트 v7.21 이상/v6.21 이상의 경우 아래 지침에 따라 호스트에 Sendmail 점검을 설치하세요. 도커(Docker) 에이전트 또는 이전 버전의 에이전트에 설치하려면 [커뮤니티 통합 사용][3]을 참조하세요. + +1. 다음 명령어를 실행해 에이전트 통합을 설치하세요. + + ```shell + datadog-agent integration install -t datadog-sendmail== + ``` + +2. 통합을 코어 [통합][4]과 유사하게 설정하세요. + +### 구성 + +1. 에이전트의 설정 디렉터리 루트의 `conf.d/` 폴더에 있는 `sendmail.d/conf.yaml` 파일을 편집하여 sendmail 성능 데이터 수집을 시작합니다. 사용 가능한 모든 설정 옵션은 [샘플 sendmail.d/conf.yaml][5]을 참조하세요. + +2. [Agent를 재시작합니다][6]. + +### 검증 + +[에이전트 상태 하위 명령을 실행][7]하고 점검 섹션에서 `sendmail`을 찾습니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "sendmail" >}} + + +### 이벤트 + +Sendmail에는 이벤트가 포함되어 있지 않습니다. + +### 서비스 점검 +{{< get-service-checks-from-git "sendmail" >}} + + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 고객 지원팀][10]에 문의해주세요. + + +[1]: https://www.proofpoint.com/us/open-source-email-solution +[2]: https://app.datadoghq.com/account/settings/agent/latest +[3]: https://docs.datadoghq.com/ko/agent/guide/use-community-integrations/ +[4]: https://docs.datadoghq.com/ko/getting_started/integrations/ +[5]: https://github.com/DataDog/integrations-extras/blob/master/sendmail/datadog_checks/sendmail/data/conf.yaml.example +[6]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[7]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[8]: https://github.com/DataDog/integrations-extras/blob/master/sendmail/metadata.csv +[9]: https://github.com/DataDog/integrations-extras/blob/master/sendmail/assets/service_checks.json +[10]: https://docs.datadoghq.com/ko/help/ \ No newline at end of file diff --git a/content/ko/integrations/sentry.md b/content/ko/integrations/sentry.md new file mode 100644 index 00000000000..ef80c86b0b0 --- /dev/null +++ b/content/ko/integrations/sentry.md @@ -0,0 +1,103 @@ +--- +app_id: sentry +app_uuid: c5e6ea68-6042-405f-abda-1e4fced494ee +assets: + integration: + auto_install: true + events: + creates_events: true + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 56 + source_type_name: Sentry +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- collaboration +- issue tracking +- event management +custom_kind: 통합 +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: sentry +integration_id: sentry +integration_title: Sentry +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: sentry +public_title: Sentry +short_description: Datadog 이벤트 스트림에서 Sentry 예외를 참조하세요. +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Collaboration + - Category::Issue Tracking + - Category::Event Management + - Offering::Integration + configuration: README.md#Setup + description: Datadog 이벤트 스트림에서 Sentry 예외를 참조하세요. + media: [] + overview: README.md#Overview + resources: + - resource_type: blog + url: https://www.datadoghq.com/blog/datadog-sentry-integration-collaborative-bug-fixing/ + support: README.md#Troubleshooting + title: Sentry +--- + + +![sentry event][1] + +## 개요 + +Sentry는 자체 호스트 및 클라우드 기반 애플리케이션 성능 모니터링 및 오류 추적 기능을 제공하여 소프트웨어 팀이 더 명확하게 상태를 확인하고 더 빠르게 문제를 해결하고 지속적으로 학습할 수 있도록 지원합니다. + +Datadog Sentry 통합은 자동으로 Sentry 이벤트를 Datadog 이벤트 스트림에 전달하여 오류 및 버그 수정에 대한 검색 및 의견을 제시하고 Sentry 오류를 메트릭 및 다른 시스템 데이터와 연계하도록 해줍니다. + +## 설정 + +### 설치 + +Sentry 통합 설정: + +1. Sentry에 로그인합니다. +2. **설정 > 프로젝트**로 이동하여 적절한 프로젝트를 선택합니다. +3. 왼쪽에서 **레거시 통합**을 선택합니다. +4. **웹훅 통합**까지 아래로 스크롤하여 슬라이더 토글을 클릭하여 활성화한 다음 **플러그인 설정**을 클릭합니다. +5. **콜백 URL'** 아래의 통합 타일에서 복사한 콜백 URL을 입력합니다. +6. **Save changes**를 클릭합니다. +7. 필요한 경우 **플러그인 활성화**를 클릭하여 통합을 활성화합니다. + +기본적으로 Sentry는 새로운 예외가 발생할 때마다 (이미 기록된 새로운 인스턴스 예외가 아닌) 이벤트 데이터로 웹훅을 호출합니다. 또 다른 트리거나 추가 트리거가 필요한 경우 프로젝트 설정의 경고 섹션에서 설정할 수 있습니다. + +### 오류에 호스트 이름 추가(선택 사항) + +간혹 Sentry가 보고하는 서버 이름이 Datadog에서 인식하는 호스트 이름과 일치하지 않을 수 있습니다. 이 문제를 해결하려면 각 이벤트에 첨부된 `server_name` 태그에 대해 커스텀 값을 설정하세요. + +Sentry의 기본값 `server_name`을 유지하면서 다른 호스트 이름을 사용하려면 이벤트에서 `hostname` 태그를 설정합니다. 특정 언어를 사용하려면 [태그 커스터마이즈][2]에 대한 Sentry 설명서를 참조하세요. + +## 트러블슈팅 + +### Datadog에서 누락된 Sentry 오류 + +Sentry 오류가 Datadog에서 누락된 경우 Sentry 웹훅이 트리거되지 않는 것일 수 있습니다. 다음과 같은 시나리오가 원인일 수 있습니다. + +**경고가 규칙이 트리거될 때만 전송됨**:
+예를 들어 규칙 조건이 " 이벤트 첫 확인 시"인 경우 새 이슈가 만들어질 때까지 경고가 전송되지 않습니다. 프로젝트에서 수신하는 고유한 이슈의 개수에 따라 다소 시간이 걸릴 수 있습니다. + +**알림 통합이 비활성화됨**:
+규칙 동작에서 알림 통합이 특정 서비스로 활성화되어 있거나 "모든 활성화된 서비스" 아래에 포함되어 있는지 확인합니다. + +## 참고 자료 + +- [Datadog-Sentry 통합을 통한 공동 버그 수정][3] + +[1]: images/sentry.png +[2]: https://docs.sentry.io/platforms/java/enriching-events/tags/ +[3]: https://www.datadoghq.com/blog/datadog-sentry-integration-collaborative-bug-fixing/ \ No newline at end of file diff --git a/content/ko/integrations/servicenow.md b/content/ko/integrations/servicenow.md new file mode 100644 index 00000000000..7c9f7318cd7 --- /dev/null +++ b/content/ko/integrations/servicenow.md @@ -0,0 +1,693 @@ +--- +categories: +- alerting +- incidents +- issue tracking +- notifications +custom_kind: 통합 +dependencies: [] +description: Datadog 알림이 자동으로 티켓을 생성하고 업데이트하도록 하세요. +doc_link: https://docs.datadoghq.com/integrations/servicenow/ +draft: false +further_reading: +- link: https://www.datadoghq.com/blog/create-servicenow-tickets-from-datadog-alerts/ + tag: 블로그 + text: Datadog 알림에서 ServiceNow 티켓을 생성하세요. +- link: https://www.datadoghq.com/blog/servicenow-cmdb-it-management-datadog/ + tag: 블로그 + text: ServiceNow CMDB 및 Datadog를 사용해 인프라스트럭처를 관리하세요. +git_integration_title: servicenow +has_logo: true +integration_id: '' +integration_title: ServiceNow +integration_version: '' +is_public: true +manifest_version: '1.0' +name: servicenow +public_title: Datadog-ServiceNow 통합 +short_description: Datadog 알림이 자동으로 티켓을 생성하고 업데이트하도록 하세요. +team: 웹-통합 +version: '1.0' +--- + + +## 개요 + +ServiceNow는 단일 장소에서 기업 엔터프리이즈 수준의 IT 프로세스를 기록하고, 추적하고 관리할 수 있도록 해주는 IT 서비스 관리 플랫폼입니다. + +Datadog ServiceNow 통합은 양방향 통합을 제공하며 다음을 지원합니다. + +- Datadog 생성 이벤트를 ServiceNow 티켓에 푸시하고 Datadog 내에서 IT 서비스 관리(ITSM) 및 IT 운영 관리(ITOM)를 통해 해상도 워크플로를 관리할 수 있습니다. +- 서비스 그래프 연결기를 사용하여 CMDB(ServiceNow Configuration Management Database) 설정 항목(CI)에 대한 발견 메커니즘으로 Datadog를 사용합니다. +- ServiceNow CMDB에서 CI로 저장된 비즈니스별 정보를 Datadog의 호스트, 서비스, 장치 정보로 강화하여 인프라스트럭처 사용량을 더 잘 이해하고, 트러블슈팅을 가속하고 리소스 활용도를 최대화합니다. + +Datadog는 다음 ServiceNow 도구와 통합됩니다. + +- ITOM +- ITSM +- CMDB + +**참고**: Datadog ServiceNow 통합은 수명 종료로 등록되지 않은 [ServiceNow 릴리스][1]를 지원합니다. + +### Datadog의 ServiceNow 타일 설정 + +1. Datadog에서 통합 페이지의 [ServiceNow 통합 타일][2]로 이동합니다. +2. *새 인스턴스 추가**를 클릭합니다. +3. ServiceNow 도메인의 하위 도메인인 인스턴스 이름을 추가합니다. `.service-now.com`. +4. ServiceNow 인스턴스에 대한 사용자 이름과 비밀번호를 추가합니다. + +**참고**: ServiceNow에서 Datadog만을 위한 제한된 사용자를 만들 수 있습니다. + +{{< img src="integrations/servicenow/servicenow-configuration-new-instance-12-23.png" alt="ServiceNow 통합 새 인스턴스" >}} + +## CMDB 설정 + +### Datadog용 서비스 그래프 연결기 + +[관측 가능성을 위한 서비스 그래프 연결기 - Datadog][3]는 Datadog에서 발견한 새로운 리소스에 대해 자동으로 CMDB[4]에서 서버와 데이터베이스 설정 항목(CI)을 자동으로 입력할 수 있도록 해줍니다. 서비스 그래프 연결기는 ServiceNow [스토어][4]를 통해 사용할 수 있습니다[4]. + +설정을 위해 서비스 그래프 연결기의 가이드 설정 지침을 따릅니다. + +지원되는 CI 유형: + +- 서버 +- Amazon RDS + +아래 알림은 ServiceNow ITOM/ITSM에 대한 통합을 이미 설정한 경우에만 적용됩니다. + +- 서비스 그래프 연결기는 설정 타일에서 `Target table` 및 `Custom table` 값을 사용하지 않습니다. 대상 테이블 기본 값을 통해 통합을 저장할 수 있습니다. +- 서비스 그래프 연결기에 안내된 설정 지침에 따라 `cmdb_import_api_admin` 역할을 이 사용자에게 부여하여 동일한 ITOM/ITSM 사용자를 서비스 그래프 연결기를 위해 사용할 수 있습니다. + +### CI 필드 커스터마이즈 + +[Datadog ServiceNow][2] 통합 타일에서 **서비스 그래프 연결기** 탭을 클릭한 다음 **CI 필드 커스터마이즈** 섹션을 확장합니다. 다음 옵션을 사용할 수 있습니다. + +CI 유형 +: 이 필드가 적용되는 CI 유형입니다. + +ServiceNow Field +: 적용할 ServiceNow의 필드입니다. + +Datadogtag +: Datadog 리소스에서 전송할 태그입니다(동일한 이름의 여러 태그가 존재하는 경우 쉼표로 구분됩니다.). + +예를 들어 `Host` CI 유형을 CI 필드와 ServiceNow 필드 `Host Name`를 추가하려면 모든 _호스트_ 태그 속성을 `Datadogtag` 필드를 추가합니다. + +**참고**: `Datadogtag` 필드는 Datadog 호스트에서 존재하는 _호스트_태그여야 하며 호스트 속성 태그가_아니어야_ 합니다. + +{{< img src="integrations/servicenow/servicenow_integration_tile.png" alt="서비스 그래프 연결기 탭을 표시하는 ServiceNow 통합 타일의 스크린샷" >}} + +### 호스트 태깅 + +호스트 태깅을 통해 ServiceNow CMDB 메타데이터를 통해 Datadog 호스트를 강화합니다. + +호스트 태그 수집을 활성화하려면, + +1. Datadog에서 태깅하려는 모든 호스트를 반환하는 ServiceNow 인스턴스의 [쿼리 빌더][5] 쿼리를 설정합니다. +1. 쿼리를 예약하여 원하는 새로고침 간격으로 실행합니다. +1. 쿼리가 ServiceNow에 저장되면 Datadog의 ServiceNow 통합 타일로 이동합니다. **CMDB 강화** 탭에서 **호스트 태깅**을 선택합니다. +1. **쿼리 설정**에서 **새 쿼리 추가** 버튼을 클릭합니다. +1. 드롭다운 메뉴에서 **ServiceNow 인스턴스** 및 **쿼리**를 선택합니다. +1. 쿼리 루트의 CI 호스트 이름 필드를 Datadog의 호스트 이름 필드에 매핑하는 **호스트 이름 열**의 값을 선택합니다. +1. **열 이름 맵**을 사용하여 선택 필드 이름 리매핑을 선택합니다. +1. **저장**을 클릭합니다. + +쿼리 예약 실행 직후 Datadog에 호스트 태그가 채워질 것으로 보입니다. + +{{< img src="integrations/servicenow/host-tags.jpg" alt="ServiceNow 호스트 태그를 보여주는 호스트 정보 탭의 스크린샷" >}} + +`source:servicenow`에서 검색 쿼리 범위를 지정하여 Datadog [이벤트 탐색기][6]에서 수집 프로세스를 모니터링합니다. + +{{< img src="integrations/servicenow/ingestion-progress.jpg" alt="수집을 실행하는 항목을 보여주는 스크린샷" >}} + +#### 호스트 태깅 트러블슈팅 + +호스트 태깅이 올바르게 작동하려면 다음 항목이 시스템에서 참인지 확인하세요. + +- 쿼리 빌더 쿼리를 만들고 생성하는 사용자가 Datadog 설정의 사용자 이름과 일치합니다. ServiceNow의 사용자는 `cmdb_query_builder_read` 역할이어야 합니다. +- 쿼리에서 반환되는 결과 수는 ServiceNow의 `glide.cmdb.query.max_results_limit` 설정보다 작거나 같아야 합니다. 기본적으로 최대 결과 수는 10000개입니다. 설정을 변경하려면 **설정** -> **CMDB 속성** -> **쿼리 빌더 속성**으로 이동하세요. +- 쿼리 빌더 쿼리에 구성된 모든 CI에는 **1** 레이블이 있어야 합니다. 이렇게 하면 파서가 지원하지 않는 중복된 CI를 만들지 않았는지 확인할 수 있습니다. + +#### 한계 + +- 수집은 실행별 10만 개 호스트로 제한됩니다. +- 호스트에 대한 업데이트는 시간당 몇 천 건으로 제한됩니다. 일정 간격을 선택할 때 이 제한을 고려하세요. +- 태깅은 Datadog 호스트 별칭은 대소문자를 구분하므로 소문자 호스트 이름을 가진 Linux 시스템에서는 작동하지 않습니다. + +### 서비스 태깅 + +서비스 태깅을 통해 ServiceNow CMDB 메타데이터로 Datadog 서비스 카탈로그를 강화하세요. + +서비스 태깅을 사용하여 Datadog [서비스 카탈로그][7]를 ServiceNow CMDB의 서비스로 채울 수 있습니다. + +#### 설정 + +서비스 데이터 수집을 활성화하려면, + +1. 서비스 카탈로그에서 보강하려는 모든 서비스를 반환하는 [쿼리 빌더][5] 쿼리를 ServiceNow 인스턴스에서 설정합니다. +1. 원하는 새로 고침 간격에 실행되도록 쿼리 예약을 설정합니다. +1. 쿼리가 ServiceNow에 저장되면 Datadog의 ServiceNow 통합 타일로 이동합니다. **CMDB 강화** 탭 에서 **서비스 태깅**을 선택합니다. +1. **쿼리 설정**에서 **새 쿼리 추가** 버튼을 클릭합니다. +1. 드롭다운 메뉴에서 **ServiceNow 인스턴스** 및 **쿼리**를 선택합니다. +1. **서비스 이름 열** 드롭다운 메뉴에서 값을 선택합니다. 이 값은 쿼리의 루트 서비스 CI의 열 이름과 일치하며 서비스 카탈로그의 서비스 이름을 채웁니다. +1. 스키마 매핑을 설정하여 서비스에 대한 추가 메타데이터를 서비스 카탈로그로 풀링할 수 있습니다. 자세한 내용은 [서비스 정의][8]를 참조하세요. Datadog에서 수집을 허용하려면 매핑의 각 필드가 서비스 카탈로그 서비스 정의 스키마에 매핑할 수 있는 올바른 유형이어야 합니다. +1. **저장**을 클릭합니다. + +쿼리' 예약 실행 후 몇 분 후에 Datadog에 서비스 데이터가 채워질 것으로 예상됩니다. 수집 오류를 보려면 [이벤트 탐색기][6]로 이동하고 이벤트의 경우 검색에서 `source:servicenow`로 이동하세요. + +{{< img src="integrations/servicenow/service-metadata.jpg" alt="ServiceNow에서 채워진 메타데이터를 보여주는 서비스 설정 패널 스크린샷" >}} + +#### 설정 트러블슈팅 + +서비스 수집이 올바르게 작동하려면 시스템에서 다음 항목이 참인지 확인하세요. + +- 쿼리 빌더 쿼리를 만들고 실행하는 사용자는 Datadog 설정의 사용자 이름과 일치해야 합니다. ServiceNow 사용자는 `cmdb_query_builder_read` 역할이 있어야 합니다. +- 쿼리에서 반환되는 결과 수는 ServiceNow의 `glide.cmdb.query.max_results_limit` 설정보다 작거나 같아야 합니다. 기본적으로 최대 결과 수는 10000개입니다. 설정을 변경하려면 **설정** -> **CMDB 속성** -> **쿼리 빌더 속성**으로 이동하세요. +- 쿼리 빌더 쿼리에 구성된 모든 CI에는 **1** 레이블이 있어야 합니다. 이렇게 하면 파서가 지원하지 않는 중복된 CI를 만들지 않았는지 확인할 수 있습니다. + +### 네트워크 장치 태깅 + +ServiceNow CMDB의 데이터로 채워진 Datadog에서 네트워크 장치에 태그를 추가합니다. + +장치 태깅을 사용하면 ServiceNow CMDB의 장치 메타데이터로 Datadog [네트워크 장치 모니터링][9]에서 모니터링하는 네트워크 장치를 동적으로 보강할 수 있습니다. + +장치 태그 수집을 활성화하려면, + +1. ServiceNow 인스턴스에서 [쿼리 빌더][5] 쿼리를 설정합니다. 장치 IP 주소를 반환하는지 확인합니다. +1. 원하는 새로 고침 간격에 실행되도록 쿼리 예약을 설정합니다. +1. Datadog에서 커스텀 IP 네임스페이스를 사용하는 경우 ServiceNow에 추가해야 합니다. 네트워크 장치 CI에 **u_dd_device_namespace**라는 열을 만들고 각 장치에 해당하는 네임스페이스로 채웁니다. 이 열이 없는 경우 기본값 네임스페이스가 사용됩니다. +1. 쿼리가 ServiceNow에 저장되면 Datadog의 ServiceNow 통합 타일로 이동합니다. **CMDB 강화** 탭에서 **장치 태깅**을 선택합니다. +1. **쿼리 설정**에서 **새 쿼리 추가** 버튼을 클릭합니다. +1. 드롭다운 메뉴에서 **ServiceNow 인스턴스** 및 **쿼리**를 선택합니다. +1. 쿼리의 IP 주소 필드를 Datadog의 IP 주소 필드에 매핑하는 IP 주소 열을 선택합니다. +1. 선택 필드 이름 리매핑을 선택합니다. +1. **저장**을 클릭합니다. + +쿼리 예약 실행 후 몇 분 이내에 Datadog에 네트워크 장치 태그가 채워질 것으로 예상할 수 있습니다. 모든 수집 오류는 이벤트 탐색기에서 볼 수 있는 이벤트를 통해 보고됩니다. + +`source:servicenow`에서 검색 쿼리 범위를 지정하여 Datadog [이벤트 탐색기][6]에서 수집 프로세스를 모니터링합니다. + +{{< img src="integrations/servicenow/ingestion-progress.jpg" alt="수집을 실행하는 항목을 표시하는 스크린샷" >}} + +#### 네트워크 장치 태깅 트러블슈팅 + +- 쿼리 빌더 쿼리를 만들었거나 실행 중인 사용자가 Datadog 설정에서 동일한 사용자이고 역할이 `cmdb_query_builder_read`인지 확인합니다. +- 쿼리가 ServiceNow `glide.cmdb.query.max_results_limit` 설정에서 허용되는 것보다 더 많은 결과를 반환하지 않는지 확인합니다. + 쿼리 빌더 쿼리에 설정된 모든 CI에 '1' 레이블이 있는지 확인합니다. 파서가 중복된 CI를 지원하지 않으므로 중복된 CI를 만들지 않았는지 확인하세요. + +#### 한계 + +- 수집은 실행당 10만 호스트로 제한됩니다. +- 네트워크 장치 태깅은 [SNMP 장치][10]로 제한됩니다. +- 장치에 대한 업데이트는 시간당 수천 건으로 제한됩니다. 일정 간격을 선택할 때 이 점을 고려하세요. + +### 참조표 + +[참조 테이블][11]을 사용하여 ServiceNow CI의 추가 필드로 로그와 이벤트를 보강합니다. 참조 테이블을 사용하면 값 필드 집합을 호스트 이름과 같은 기본 키에 매핑하고 지정된 키가 포함된 모든 로그 또는 이벤트에 이러한 필드를 자동으로 추가할 수 있습니다. + +참조 테이블 수집을 활성화하려면, + +1. ServiceNow 인스턴스에서 [쿼리 빌더][12] 쿼리를 설정합니다. +1. 쿼리를 원하는 새로 고침 간격으로 실행하도록 예약합니다. +1. 쿼리를 저장합니다. +1. **새 쿼리 추가**를 선택하고 드롭다운 메뉴에서 쿼리를 선택합니다. +1. 기본 키 드롭다운에서 기본 키로 사용할 열 이름을 선택합니다. + 1. 선택적으로 이 기본 키로 [처리 파이프라인][13]을 생성하여 로그와 이벤트를 보강하고 연계합니다. +1. 참조 테이블의 이름을 입력합니다. +1. **저장**을 클릭합니다. + +[참조 테이블][11]은 저장 직후 쿼리 데이터로 채워집니다. + +#### 주의 사항 및 제한 사항 + +- 참조 테이블 이름은 고유해야 합니다. +- 기존 테이블의 삭제 및 스키마 업데이트는 지원되지 않습니다. + +## ITOM 및 ITSM 설정 + +{{% site-region region="gov,ap1" %}} + +
+사례 관리 통합은 {{< region-param key=dd_datacenter code="true" >}} 사이트에서 지원되지 않습니다. +
+{{% /site-region %}} + +{{% site-region region="gov" %}} +
+인시던트 관리 통합은 {{< region-param key=dd_datacenter code="true" >}} 사이트에서 지원되지 않습니다. +
+{{% /site-region %}} + +{{% site-region region="gov" %}} + + +
+서식화된 모니터 알림은 {{< region-param key=dd_datacenter code="true" >}} 사이트에서 지원되지 않습니다. +
+{{% /site-region %}} + +모니터, 사례 관리 및 인시던트 관리에 Datadog 통합을 사용하려면 다음 단계를 따르세요: + +1. [앱 설치하기](#install-the-app) +2. [Datadog]에 대한 올바른 권한으로 ServiceNow 계정 만들기](#create-a-servicenow-account-with-correct-permissions-for-Datadog) +3. [ ITOM 및 ITSM과 함께 사용하기 위한 Datadog 애플리케이션 설정](#configure-datadog-applications-for-use-with-itom-and-itsm-modules) + +### 앱 설치 + +앱은 두 가지 방법으로 설치할 수 있습니다. + +1. ServiceNow 스토어에서 `ITOM/ITSM Integration for Datadog` 앱 최신 버전을 설치합니다. + +{{< img src="integrations/servicenow/servicenow-appstore-itxm-integration.png" alt="ServiceNow 앱 스토어 ITSM/ITOM 통합" >}} + +2. 최신 업데이트 세트를 다운로드합니다. [`Datadog-Snow_Update_Set_v2.6.1.xml`][14]를 다운로드하여 ServiceNow 인스턴스에 수동으로 업로드합니다. + +**변경 로그** + +- v2.4.0 >= 사례 관리를 통한 단방향 동기화를 제공합니다. +- v2.5.0 >= 인시던스 관리와의 통합을 위한 사례 관리와 ITSM 테이블을 통한 양방향 동기화, 또한 케이스 관리를 통한 양방향 동기화는 ServiceNow ITSM에서만 지원됩니다. +- v2.6.0 >= ITOM/ITSM을 통해 서식화된 모니터 알림을 제공합니다. + +ServiceNow에서 업데이트 세트 설치하기: + +1. 다운로드한 업데이트 세트 XML 파일을 ServiceNow 인스턴스로 수동으로 가져옵니다. +2. XML 파일을 가져오면 업데이트 집합에 `Loaded` 상태가 표시되어야 합니다. 업데이트 집합의 이름을 클릭하여 변경 사항을 미리 봅니다. +3. 업데이트 세트를 미리 보고 오류가 없는지 확인했으면 **업데이트 세트 커밋**을 선택하여 애플리케이션을 시스템에 병합합니다. + +앱을 설치한 후 ServiceNow 탐색 메뉴에서 검색 **Datadog**를 클릭하여 모든 테이블과 양방향 동기화 설정을 위한 설정 페이지에 액세스합니다. + +- `Configuration` +- `Datadog Incidents ITSM` +- `Cases ITOM`, 이전 `Datadog Cases ITOM` +- `Cases ITSM`, 이전 `Datadog Cases ITSM` +- `Legacy Monitors ITOM`, 이전 `Datadog Monitors ITOM` +- `Legacy Monitors ITSM`, 이전 `Datadog Monitors ITSM` +- `Templated Monitors ITOM` +- `Templated Monitors ITSM` + +### Datadog에 대한 올바른 권한이 있는 ServiceNow 계정을 만듭니다. + +통합을 사용하려면 ServiceNow 사용자(예: 사용자 이름 "Datadog" 또는 "datadog_통합")를 만들고 다음 역할을 모두 할당하세요. + +- `x_datad_datadog.user` 및 +- `import_set_loader` 및 +- `import_transformer` + +#### 인시던트 해결 및 종결 + +
사례 관리와의 양방향 동기화는 ServiceNow ITSM에 대해서만 지원됩니다.
+ +해결을 위해 인시던트 상태를 동기화하려면 ServiceNow 사용자에게 다음 역할 중 하나가 필요합니다. + +- `ITIL` 또는 +- `list_updater` 또는 +- `sn_incident_write` + +종료 시 인시던트 상태를 동기화하려면 ServiceNow 사용자에게 다음과 같은 역할이 필요합니다. + +- `ITIL_admin` + +#### 인시던트 및 이벤트 테이블에 직접 모니터 알림 전송 + +알림 을 ITOM 모듈 **이벤트** 테이블 또는 ITSM 모듈 **인시던트** 테이블로 직접 전송히려면 ServiceNow 사용자에게 다음 역할 중 하나가 필요합니다. + +- ITSM을 위한 `ITIL` +- ITOM을 위한 `evt_mgmt_integration` + +**참고**: 이 ServiceNow 사용자("Datadog" 또는 "datadog_통합")가 ServiceNow에서 티켓에 수동으로 업데이트한 내용은 Datadog에 동기화되지 않습니다. + +### 서식화된 모니터 알림 + +**참고**: 이 기능을 사용하려면 앱 버전 >= v2.6.0이 필요합니다. 또한 아래 단계를 완료하기 전에 Datadog에서 ServiceNow 타일의 설정 페이지에 인스턴스를 추가해야 합니다. + +##### 인스턴스 우선순위 매핑 설정 + +{{< img src="integrations/servicenow/servicenow-priority-mapping.png" alt="통합 타일에서 ServiceNow 우선순위 매핑" >}} + +특정 인스턴스에 서식화된 모든 @-핸들에 대해 이제 이 매핑에 따라 Datadog가 ServiceNow의 영향과 긴급성에 따른 모니터 우선순위 모니터링 매핑을 실행합니다. + +`Use Instance Priority Mapping`을 끄면 ServiceNow 레코드에 대한 영향 및 긴급성 설정이 비활성화됩니다. + +#### 모니터 템플릿 설정 + +{{< img src="integrations/servicenow/servicenow-integration-tile.png" alt="새 ServiceNow 통합 타일" >}} + +Datadog에서 `@servicenow-`을 사용하는 모니터 알림의 경우, ServiceNow 통합 타일 에서 Datadog의 ITOM/ITSM 탭에서 새 템플릿 생성 UI를 사용하여 ServiceNow 알림을 생성합니다. + +**참고**: 이 기능은 앱 버전이 2.6.0 이상인 경우에만 사용할 수 있습니다. + +##### 모니터 알림에 대한 커스텀 ServiceNow @핸들을 만듭니다. + +{{< img src="integrations/servicenow/servicenow-monitors.png" alt="새 ServiceNow 통합 타일의 모니터 알림 지침" >}} + +1. `+ New` 버튼을 클릭하여 새 템플릿을 만듭니다. +2. 전달할 모니터 알림에 대해 `Name`, `Instance` 및 `Target Table` @핸들을 정의합니다. 그런 다음 `Assignment Group`, `Business Service`, `User` 또는 `Unassigned` 중 하나를 선택하여 레코드를 할당합니다. 2.6.0에 정의된 변환 맵은 여기서 선택한 값으로 인시던트 `INC` 레코드를 자동으로 채웁니다. + +새 템플릿을 사용하려면 모니터 설명에 `@servicenow-`을 추가하세요. + +`Customize notification payload` 섹션에서 `Add Field` 을 클릭하여 페이로드에 커스텀 필드를 추가할 수 있습니다. + +#### 사례 관리 설정 + +{{< img src="integrations/servicenow/servicenow-case-management.png" alt="새 ServiceNow 통합 타일의 사례 관리 지침" >}} + +`Case Management` 탭에서, + +1. 사례 관리용 설정하려는 인스턴스를 선택합니다. +2. `Datadog Cases ITOM` 또는 `Datadog Cases ITSM` 중 사례를 보낼 테이블을 선택합니다. + **참고**: 기본적으로 테이블이 선택되지 않습니다. +3. Datadog에서 [사례 관리][15]로 이동합니다. +4. ServiceNow 인시던트 만들기를 선택합니다. +5. 인스턴스와 선택적 할당 그룹을 고른 다음 만들기를 클릭합니다. + +##### 사례 관리를 통해 양방향으로 상태 및 댓글 동기화 + +ServiceNow에서 편집한 내용을 Datadog 에서 관련 사례를 업데이트하려면 `x_datad_datadog.user` 및 `admin` 역할이 있는 ServiceNow 사용자가 ServiceNow에서 **Datadog 앱에 대한 ITOM/ITSM 통합**의 설치 구성을 설정해야 합니다: + +1. 왼쪽 상단의 **모두**를 클릭하고 필터에 `ITOM/ITSM Integration for Datadog`를 입력한 다음 필터링된 목록에 표시되는 **설정** 링크를 클릭하여 **ITOM/ITSM 통합 for Datadog** 앱의 설정 구성 페이지로 이동합니다. +1. Datadog 데이터 센터 사이트를 선택합니다. +1. **조직 설정**에서 찾을 수 있는 Datadog API 키를 **API 키** 필드에 붙여넣습니다. +1. **조직 설정**에서 찾을 수 있는 Datadog 서비스 계정 신청 키를 **신청 키** 필드에 붙여넣습니다. +1. 활성화됨 확인란을 선택하고 설정 변경 사항을 저장합니다. + +ServiceNow에서 설치 구성을 설정한 후 Datadog 사례 관리로 돌아가 [통합 설정][16]으로 이동합니다. + +**참고**: 이 설정에서는 사용자의 애플리케이션 키가 아닌 서비스 계정 애플리케이션 키를 사용하는 것이 중요합니다. 사용자의 애플리케이션 키는 사용자의 계정 권한에 연결됩니다. 사용자의 권한이 줄어들거나 사용자가 비활성화되면 ServiceNow와 Datadog 간의 양방향 동기화가 중지됩니다. 서비스 계정 애플리케이션 키는 개별 사용자에게 연결되지 않으므로 양방향 동기화는 사용자 계정 변경의 영향을 받지 않습니다. + +{{< img src="integrations/servicenow/datadog-sync-configuration.png" alt="ServiceNow 설정 구성으로 Datadog에서 ServiceNow 변경 사항을 동기화합니다." >}} + +#### 인시던트 관리 설정 + +앱을 설치한 후 인시던트 앱의 [통합 설정][17]으로 이동하여 설정을 완료합니다. + +#### 레거시 모니터 알림 + +Datadog에서 `@servicenow-`을 사용하는 레거시 모니터 알림의 경우, 중간 테이블을 선택하여 "레거시 모니터 알림 관리"라는 ITOM/ITSM 타일 하단에 있는 알림을 전송합니다. + +1. 알림을 설정하려는 인스턴스를 선택한 다음 레거시 모니터 알림에 쓸 테이블을 선택합니다. +2. 통합이 올바르게 설정되었는지 확인하려면 모니터 또는 이벤트 알림에 `@servicenow-`을 추가합니다. 원시 데이터가 중간 테이블의 행에 채워지고 앱에서 지정한 ServiceNow 테이블로 전달됩니다. +3. ServiceNow에서 [변환 맵 사용](#customize-data-with-transform-maps)을 사용하여 중간 테이블로 전송되는 데이터의 변환을 커스터마이즈합니다. +4. 사용 가능한 Datadog 변수 또는 커스텀 문자열을 사용하여 알림 페이로드를 커스터마이즈합니다. + +#### 변환 맵을 사용하여 모니터 알림에 대한 데이터 커스터마이즈 + +**서식화된 모니터 ITSM**, **레거시 모니터 ITSM** 및 **Datadog 사례 ITSM** 테이블은 변환 맵을 사용하여 Datadog 레코드를 ServiceNow 인시던트로 변환합니다. +마찬가지로 **Datadog 모니터 ITOM** 및 **Datadog 사례 ITOM** 테이블은 Datadog 레코드를 ServiceNow 이벤트로 변환합니다. + +**템플릿 모니터 ITOM** 및 **템플릿 모니터 ITSM** 테이블은 변환 맵을 사용하여 Datadog 레코드를 각각 ServiceNow 이벤트 및 인시던트로 변환합니다. `New Template` UI에서 알림 페이로드를 커스터마이즈하여 이러한 테이블의 ServiceNow 이벤트 및 인시던트 정보를 사용자 지정하고 ServiceNow에서 변환 맵을 확장할 수 있습니다. + +**참고**: Datadog 사례 ITOM** 및 **Datadog 사례 ITSM** 테이블은 변환 맵을 유사하게 사용하지만, Datadog 사례의 페이로드는 사용자 지정할 수 없으므로 사례 관리와 함께 사용하기 위해 변환 맵 커스터마이즈를 권장하지 않습니다. + +## 트러블슈팅 + +ServiceNow 테이블에 이벤트가 표시되지 않고 대신 다음과 같은 메시지가 표시되는 경우 + +- Datadog 통합 타일 또는 `Error while trying to post to your ServiceNow instance` 알림에 오류 메시지가 표시됩니다. + + - 인스턴스 이름을 입력할 때 하위 도메인만 사용되었는지 확인합니다. + - 생성한 사용자에게 필요한 권한이 있는지 확인합니다. + - 사용자 이름과 비밀번호가 올바른지 확인합니다. + +- 통합이 설정되고 알림이 트리거되며 티켓이 만들어지지 않습니다. + + - 중간 테이블이 채워졌는지 확인합니다. 그렇다면 매핑 및 변환에 문제가 있는 것입니다. ServiceNow에서 **변환 오류**로 이동하여 매핑 및 스크립트를 추가로 디버깅할 수 있습니다. + - 타일에서 지정한 임시 테이블로 작업하고 있는지 확인합니다. + + ServiceNow 사용자가 가져오기 테이블에 액세스할 수 있도록 `rest_service` 및 `x_datad_datadog.user` 역할이 필요합니다. 알림을 인시던트 테이블 또는 이벤트 테이블로 직접 보내는 레거시 방법을 사용하는 경우에는 `itil` 및 `evt_mgmt_integration` 권한이 필요합니다. + +Datadog 사례 관리에서 ServiceNow로의 업데이트는 표시되지만 ServiceNow에서 Datadog로의 업데이트가 표시되지 않는 경우 이는 ServiceNow ITOM에 대해 예상되는 동작입니다. 사례 관리와의 양방향 동기화는 ServiceNow ITSM에서만 지원됩니다. + +추가 지원이 필요하세요? [Datadog 지원][18]에 문의하세요. + +## 지식 기반 + +### 서식화된 모니터 ITXM 테이블 필드 및 매핑 변환 + +`action` +: **유형**: 문자열
+모니터에서 수행 중인 작업: `create`, `update`, `acknowledge` 또는 `resolve` + +`additional_information` +: **유형**: 문자열
+**ITOM 변환**: `additional_info`
+모든 이벤트 세부 정보를 포함하는 형식화된 문자열 + +`aggreg_key` +: **유형**: 문자열
+경고 모니터의 ID 해시를 나타내는 집계 키입니다. + +`alert_cycle_key` +: **유형**: 문자열
+단일 모니터의 경고 주기(경고 → 주의 → 해결)의 해시를 나타내는 키입니다. + +`alert_id` +: **유형**: 문자열
+경고 모니터링 ID + +`alert_metric` +: **유형**: 문자열
+**ITOM 변환**: `metric_name`
+경고를 트리거한 메트릭 + +`alert_query` +: **유형**: 문자열
+쿼리 경고를 트리거한 문자열 + +`alert_scope` +: **유형**: 문자열
+범위 경고를 트리거한 문자열 + +`alert_status` +: **유형**: 문자열
+알림의 현재 상태 + +`alert_title` +: **유형**: 문자열
+알림 이름 + +`alert_transition` +: **유형**: 문자열
+**ITSM 변환**: (스크립트) -> 상태
+경고 전환 상태: `Triggered`, `Warn`, 또는 `Recovered` + +`assignment_group_sys_id` +: **유형**: 참조
+**ITSM 변환**: `assignment_group`
+**참조 테이블**: Group
+서식화된 핸들의 할당 그룹에 대한 ServiceNow sys_id + +`business_service_sys_id` +: **유형**: 참조
+**ITSM 변환**: `business_service`
+**참조 테이블**: 서비스
+서식화된 핸들의 비즈니스에 대한 ServiceNow sys_id 서비스 + +`custom_fields` +: **유형**: 문자열
+JSON 변환 가능한 문자열로 포맷된 사용자 설정 키-값 필드 + +`datadog_tags` +: **유형**: 문자열
+경고 모니터의 Datadog 태그 + +`description` +: **유형**: 문자열
+**ITSM 변환**: `description`
+**ITOM 변환**: `description`
+모니터 알림에 대한 요약 설명 + +`event_details` +: **유형**: 문자열
+**ITSM 변환**: `work_notes`
+이벤트 형식이 지정된 클릭 가능한 링크가 포함된 세부 정보 Datadog + +`event_id` +: **유형**: 문자열
+Datadog ID 이벤트 + +`event_link` +: **유형**: 문자열
+모니터 알림에서 생성된 이벤트 링크 + +`event_msg` +: **유형**: 문자열
+이벤트 메시지 + +`event_title` +: **유형**: 문자열
+**ITSM 변환**: `short_description`
+이벤트 제목 + +`event_type` +: **유형**: 문자열
+**ITOM 변환**: `type`
+유형 이벤트 + +`hostname` +: **유형**: 문자열
+**ITSM 변환**: `cmdb_ci`
+**ITOM 변환**: `node`
+영향을 받은 모니터의 호스트 + +`impact` +: **유형**: 정수
+**ITSM 변환**: `impact`
+모니터 우선순위의 사용자 정의 매핑에 기반한 영향 값 + +`logs_sample` +: **유형**: 문자열
+관련 샘플 로그 + +`monitor_priority` +: **유형**: 정수
+**ITOM 변환**: `severity`
+경고 모니터링하다 의 우선순위를 정수로 변환합니다. + +`org_name` +: **유형**: 문자열
+경고 모니터의 조직 이름 + +`sys_created_by` +: **유형**: 문자열
+**ITSM 변환**: `caller_id`
+레코드 작성자(일반적으로 구성된 ServiceNow API 계정) + +`ticket_state` +: **유형**: 문자열
+**ITSM 변환**: (스크립트) -> 상태, (스크립트) -> 닫기_코드, (스크립트) -> 해결_노트
+**ITOM 변환**: (스크립트) -> resolution_notes
+ServiceNow 레코드의 상태: `new` 또는 `resolved` + +`u_correlation_id` +: **유형**: 문자열
+**ITSM 변환**: `correlation_id`
+**ITOM 변환**: `message_key`
+동일한 대상 인시던트에 레코드를 통합하는 데 사용되는 alert_cycle_key와 aggreg_key를 결합한 값입니다. + +`urgency` +: **유형**: 정수
+**ITSM 변환**: `urgency`
+모니터에 정의된 우선순위에 따라 통합 타일의 사용자 정의 매핑에서 설정된 긴급도입니다. + +`user_sys_id` +: **유형**: 참조
+**ITSM 변환**: `assigned_to`
+**참조 테이블**: 사용자
+사용자에 대해 전달된 템플릿 핸들의 sys_id. + + +### Datadog 가져오기 호스트 자동 플러시 규칙 + +가져오기 세트 테이블 `x_datad_datadog_import_host` 에 너무 많은 행이 누적되는 것을 방지하기 위해 최근 24시간의 데이터만 유지하도록 자동 플러시 규칙이 테이블 클리너 도구에 추가되었습니다. 이 설정을 구성하려면 필터 탐색기에서 `sys_auto_flush_list.do`로 이동하여 `x_datad_datadog_import_host` 테이블에 대한 규칙으로 이동하여 필요에 따라 변경할 수 있습니다. `Age in seconds` 필드는 그에 따라 업데이트할 수 있습니다. + +{{< img src="integrations/servicenow/servicenow-cmdb-autoflush-rule.png" alt="통합 설정 구성" >}} + +### Datadog 알림에서 지원 티켓 자동 생성하기 + +ServiceNow가 Datadog 계정에 연결되면 수신된 알림이 자동으로 지원 티켓을 만들어 ServiceNow 티켓팅 대기열로 보낼 수 있습니다. 거기서부터 지원팀은 ServiceNow 내에서 이미 설정한 커뮤니케이션 워크플로우를 사용하여 문제를 통보받게 됩니다. 알림 메시지에 `@servicenow`를 언급하거나 알림 목록에 `@servicenow`를 추가합니다. + +{{< img src="integrations/servicenow/servicenow-02-monitor-page.png" alt="ServiceNow" >}} + +### 중복 인시던트 모니터링 + +모니터에서 동일한 인시던트가 다시 열리지 않도록 하려면, 각 경고에 대해 새 경고를 만드는 대신, 모니터가 단순 알림으로 설정되어 있지 않은지 확인하세요. 메트릭에서 태그를 사용하여 그룹화하여 모니터를 [다중 알림][19]으로 변환합니다. 이렇게 하면 각 알림이 별도의 인시던트를 트리거하게 됩니다. + +### 티켓 페이로드 및 필드 매핑에 변수 사용하기 + +변수를 알림 본문이나 필드 매핑에 사용하여 이벤트의 세부 정보가 ServiceNow에 포함되도록 할 수 있습니다. 예를 들어 제목과 심각도를 적절한 ServiceNow 필드에 포함하거나 ServiceNow 티켓에서 바로 Datadog에 특정 인시던트로 돌아가는 링크를 포함할 수 있습니다. + +{{< img src="integrations/servicenow/servicenow-variables-form.png" alt="ServiceNow 변수 입력 양식" >}} + +{{< img src="integrations/servicenow/servicenow-variables.png" alt="ServiceNow 변수" >}} + +### 인시던트 우선순위 필드 매핑 + +ServiceNow 인시던트의 `priority` 필드는 _읽기 전용_이며 [우선 순위 조회 규칙][20]을 통해서만 업데이트할 수 있습니다. + +모니터에 `Impact` 및 `Urgency`를 정의하여 ServiceNow 인시던트 우선 순위를 계산합니다. + +{{< img src="integrations/servicenow/servicenow-priority-field-mapping.png" alt="ServiceNow 우선순위 필드 매핑" >}} + +### 지원 해결 워크플로 자동화 + +모니터 상태가 정상으로 돌아오면 관련 지원 티켓이 자동으로 "종결됨"으로 표시됩니다. + +{{< img src="integrations/servicenow/servicenow-03-servicenow-resolved.png" alt="ServiceNow 종결됨" >}} + +### 커스텀 매핑 정의 + +테이블 중 하나를 클릭하고(예: **Datadog ITSM 테이블 모니터링**) 레코드 하단으로 스크롤하여 연결된 변환 맵의 링크를 확인합니다. + +### 매핑 이해 + +변환 맵의 이름을 클릭하면 레코드를 볼 수 있습니다. + +{{< img src="integrations/servicenow/servicenow-click-transform-map.png" alt="ServiceNow 통합" >}} + +상단에는 변환 레코드의 두 가지 중요한 필드인 `Source table` 및 `Target table`이 있습니다. + +{{< img src="integrations/servicenow/servicenow-source-target-fields.png" alt="ServiceNow 통합" >}} + +**참고**: + +- 소스는 선택한 가져오기 집합 테이블(Datadog ITSM 테이블 모니터링)이고 대상은 이벤트가 저장되어 있는 실제 인시던트 테이블(또는 이벤트 테이블)입니다. +- 필드 매핑은 레코드 하단에 있습니다. 몇 가지 기본 매핑이 포함되어 있습니다. 여기에서 포함할 필드를 선택하고, 형식을 정의하고, ServiceNow 인스턴스에서 대상 필드를 선택합니다. + +### 새 필드 매핑 추가 + +**새로 만들기**를 클릭합니다. + +{{< img src="integrations/servicenow/servicenow-click-new.png" alt="SeviceNow 통합" >}} + +일대일 매핑을 위해 소스 필드와 대상 필드를 선택합니다. + +{{< img src="integrations/servicenow/servicenow-select-source-target.png" alt="ServiceNow 통합" >}} + +또는 **소스 스크립트 사용** 상자를 점검하고 변환을 정의합니다. + +{{< img src="integrations/servicenow/servicenow-script-example.png" alt="ServiceNow 통합" >}} + +**참고: 통합 타일의 커스텀 필드를 매핑하려면 Datadog 모니터 ITOM 및 Datadog 모니터 ITSM 변환 맵에 대해 다음 매핑 스크립트를 사용할 수 있습니다. 이 예제에서는 `my_field` 필드가 통합 타일에서 커스텀 필드로 정의되었습니다. + +``` +answer = (function transformEntry(source) +{ + var additional_info = JSON.parse(source.additional_info); + return additional_info.custom_my_field; +})(source); +``` + +### 여러 매핑 정의 + +**매핑 지원**(관련 링크 아래)을 사용하여 여러 소스 필드와 대상 필드를 매핑할 수 있습니다. + +{{< img src="integrations/servicenow/servicenow-mapping-assist.png" alt="ServiceNow 통합" >}} + +### 검증 + +통합이 올바르게 설정되었는지 확인하려면 모니터 또는 이벤트 알림에 `@servicenow`를 추가합니다. 원시 데이터는 중간 테이블의 행을 채운 뒤, 생성한 매핑 및 변환에 지정된 ServiceNow 테이블로 전달됩니다. + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://www.servicenow.com/community/now-platform-articles/servicenow-versions-release/ta-p/2312014 +[2]: https://app.datadoghq.com/integrations/servicenow +[3]: https://store.servicenow.com/sn_appstore_store.do#!/store/application/c877cb86687e0050f8774bfad236c950/1.2.1 +[4]: https://store.servicenow.com/ +[5]: https://docs.servicenow.com/bundle/xanadu-servicenow-platform/page/product/configuration-management/concept/cmdb-query-builder-landing-page.html +[6]: https://app.datadoghq.com/event/explorer +[7]: https://docs.datadoghq.com/ko/tracing/service_catalog/ +[8]: https://docs.datadoghq.com/ko/tracing/service_catalog/adding_metadata/ +[9]: https://docs.datadoghq.com/ko/network_monitoring/devices/ +[10]: https://docs.datadoghq.com/ko/network_monitoring/devices/snmp_metrics/ +[11]: https://app.datadoghq.com/reference-tables +[12]: https://docs.servicenow.com/bundle/rome-servicenow-platform/page/product/configuration-management/task/use-cmdb-query-builder.html +[13]: https://app.datadoghq.com/event/pipelines +[14]: https://docs.datadoghq.com/resources/xml/Datadog-Snow_Update_Set_v2.6.1.xml +[15]: https://app.datadoghq.com/cases +[16]: https://docs.datadoghq.com/ko/service_management/case_management/settings#servicenow +[17]: https://app.datadoghq.com/incidents/settings#Integrations +[18]: https://docs.datadoghq.com/ko/help/ +[19]: https://docs.datadoghq.com/ko/monitors/configuration/?tab=thresholdalert#multi-alert +[20]: https://docs.servicenow.com/en-US/bundle/sandiego-it-service-management/page/product/incident-management/task/def-prio-lookup-rules.html \ No newline at end of file diff --git a/content/ko/logs/guide/sending-events-and-logs-to-datadog-with-amazon-eventbridge-api-destinations.md b/content/ko/logs/guide/sending-events-and-logs-to-datadog-with-amazon-eventbridge-api-destinations.md new file mode 100644 index 00000000000..603d7555ed5 --- /dev/null +++ b/content/ko/logs/guide/sending-events-and-logs-to-datadog-with-amazon-eventbridge-api-destinations.md @@ -0,0 +1,65 @@ +--- +further_reading: +- link: https://aws.amazon.com/blogs/compute/using-api-destinations-with-amazon-eventbridge/#sending-aws-events-to-datadog + tag: 블로그 + text: API 목적지 사용 사례 예시가 포함된 AWS 블로그 +- link: /logs/guide/reduce_data_transfer_fees + tag: 가이드 + text: 데이터 전송 수수료를 줄이면서 로그를 Datadog로 보내는 방법 +title: Amazon EventBridge API 목적지를 사용하여 이벤트 및 로그를 Datadog에 전송하기 +--- + +{{< site-region region="gov" >}} +
정부 사이트용 Datadog는 Amazon EventBridge를 지원하지 않습니다.
+{{< /site-region >}} + +Amazon EventBridge는 이벤트 기반 애플리케이션을 구축할 수 있는 서버리스 이벤트 버스입니다. EventBridge는 AWS 서비스와 통합할 수 있지만 API 목적지 기능을 사용하면 AWS 외부에서 API를 사용하여 데이터를 푸시하고 가져올 수 있습니다. 이 가이드는 이벤트 및 로그를 EventBridge에서 Datadog로 전송하는 단계를 안내합니다. Datadog에서 EventBridge로 이벤트를 푸시하는 방법에 대한 자세한 내용은 [EventBridge 통합 문서][1]를 참조하세요. + +## 설정 + +시작하기 전에 [Datadog 계정][2]과 [API 키][3]가 있어야 하며, [Amazon Eventbridge API 목적지][4]에 액세스할 수 있어야 합니다. + +### 설정 + +1. [Amazon API 목적지 문서 만들기][5] 단계를 따라 Datadog를 API 목적지로 추가합니다. + - API 키 인증을 사용하고 키 이름은 `DD-API-KEY`, 값은 [Datadog API 키][3]로 지정합니다. + - 목적지 엔드포인트의 경우 로그에는 `https://{{< region-param key="http_endpoint" code="true" >}}/api/v2/logs`를, 이벤트에는 `https://api.{{< region-param key="dd_site" code="true" >}}/api/v1/events`를 사용하고 HTTP 메서드로 `POST`를 설정합니다. 로그와 이벤트 의 차이점에 대한 자세한 내용은 [데이터 관련 위험 줄이기][8]를 참조하세요. + - 이벤트 엔드포인트를 사용하는 경우 API 목적지 연결에 `title` 및 `text`를 `body.field` 파라미터로 포함해야 합니다. 이는 이벤트 엔드포인트에 대한 `POST`에 필요한 값입니다. 자세한 내용은 [이벤트 문서 게시하기][9]를 참조하세요. +2. 목적지를 설정한 후에는 Amazon 설명서를 참조하여 [이벤트 브리지 규칙 만들기][10]에서 Datadog를 목적지로 설정합니다. +3. Datadog를 목적지로 설정하는 규칙을 만든 후에는 이벤트를 EventBridge에 게시하여 이벤트를 트리거합니다. Datadog에서 이벤트 를 EventBridge로 푸시하는 방법에 대한 자세한 내용은 [EventBridge 통합 설명서][1]를 참조하세요. 예를 들어, 계정에서 [개체를 S3 버킷에 업로드][11]하여 이벤트 테스트를 트리거하려면 다음 AWS CloudShell 명령을 사용합니다: + + ```bash + echo "test" > testfile.txt + aws s3 cp testfile.txt s3://YOUR_BUCKET_NAME + ``` +4. 이벤트 및 로그 전송이 완료되면, 약 5분 후에 데이터를 전송하는 엔드포인트에 따라 Datadog [로그 콘솔][12] 또는 [이벤트 탐색기][13]에서 데이터를 확인할 수 있습니다. + +## 트러블슈팅 + +Datadog로 전송된 페이로드에 대한 자세한 내용을 확인하고 API 엔드포인트의 응답을 보려면 Amazon SQS 대기열을 설정하세요. +1. [Amazon SQS][14]에서 대기열을 만듭니다. +2. [설정](#configuration) 섹션에서 만든 [EventBridge 규칙][15]으로 이동합니다. +3. **대상** 탭을 선택하고 **편집**을 클릭합니다. +4. **추가 설정** 섹션을 확장합니다. +4. **DLQ(Dead Letter Queue) 대기열** 섹션에서 **현재 AWS 계정에서 DLQ로 사용할 Amazon SQS 대기열을 선택합니다.** +5. 방금 만든 SQS 대기열을 선택합니다. +6. 규칙을 업데이트합니다. + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + + +[1]: /ko/integrations/amazon_event_bridge/ +[2]: https://www.datadoghq.com/free-datadog-trial/ +[3]: /ko/account_management/api-app-keys/#api-keys +[4]: https://aws.amazon.com/eventbridge/ +[5]: https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-api-destinations.html#eb-api-destination-create +[8]: /ko/data_security/#other-sources-of-potentially-sensitive-data/ +[9]: https://docs.datadoghq.com/ko/api/latest/events/#post-an-event +[10]: https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-rules.html +[11]: https://docs.aws.amazon.com/AmazonS3/latest/userguide/upload-objects.html +[12]: https://app.datadoghq.com/logs +[13]: https://app.datadoghq.com/event/explorer +[14]: https://console.aws.amazon.com/sqs/ +[15]: https://console.aws.amazon.com/events/ \ No newline at end of file diff --git a/content/ko/real_user_monitoring/correlate_with_other_telemetry/logs/_index.md b/content/ko/real_user_monitoring/correlate_with_other_telemetry/logs/_index.md new file mode 100644 index 00000000000..4bf3ed99427 --- /dev/null +++ b/content/ko/real_user_monitoring/correlate_with_other_telemetry/logs/_index.md @@ -0,0 +1,45 @@ +--- +algolia: + tags: + - rum logs +further_reading: +- link: https://www.datadoghq.com/blog/real-user-monitoring-with-datadog/ + tag: 블로그 + text: 실제 사용자 모니터링 +- link: /logs/guide/ease-troubleshooting-with-cross-product-correlation/ + tag: 가이드 + text: 교차 제품 연결을 통한 트러블슈팅 +title: RUM 및 로그 연결 +--- + +{{< img src="real_user_monitoring/correlate_rum_and_logs/rum_browser_logs.png" alt="RUM 작업 내 브라우저 로그" style="width:100%;" >}} + +## 개요 + +RUM과 로그 통합을 이용하면 애플리케이션 상태를 완전히 가시화할 수 있습니다. + +RUM, 백엔드, 인프라스트럭처, 로그 정보뿐만 아니라 프런트엔드 데이터를 사용해 스택 어디에서나 이슈를 파악하고 사용자가 어떤 경험을 하는지 이해할 수 있습니다. + +RUM 이벤트를 Datadog로 전송하려면 [Real User Monitoring][1]을 확인하세요. + +## RUM은 로그와 어떻게 연결되어 있나요? + +로그와 RUM 이벤트는 자동으로 상호 연결되어 있습니다. 로그와 RUM을 상호 연결하면 `session_id` 및 `view.id` 등의 속성을 사용하여 [엔티티 수준의 일관성을 유지하는 공격적인 샘플링 전략][2]을 쉽게 구사할 수 있습니다. + +더 자세한 정보는 [RUM 및 세션 재생 요금][3]을 참고하세요. +**Browser Logs**에서 연결을 올바르게 설정하려면 [RUM Browser SDK와 Logs SDK 간에 구성을 일치][4]시켜야 합니다. + +## 설정 지침 + +로그 설정 페이지에 액세스하려면 내가 사용하는 플랫폼에 따라 다음 링크를 이용하세요. + +{{< partial name="rum/rum-correlate-rum-and-logs.html" >}} + +## 참고 자료 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ko/real_user_monitoring/ +[2]: /ko/logs/guide/ease-troubleshooting-with-cross-product-correlation/#correlate-frontend-products +[3]: /ko/account_management/billing/rum/#how-do-you-view-logs-from-the-browser-collector-in-rum +[4]: /ko/real_user_monitoring/browser/setup/#initialization-parameters \ No newline at end of file diff --git a/content/ko/security/code_security/iast/security_controls/_index.md b/content/ko/security/code_security/iast/security_controls/_index.md new file mode 100644 index 00000000000..68d78cf08ed --- /dev/null +++ b/content/ko/security/code_security/iast/security_controls/_index.md @@ -0,0 +1,304 @@ +--- +aliases: +- /ko/security/application_security/code_security/iast +disable_toc: false +title: 보안 컨트롤 +--- + + +Security Controls는 이스케이프 및 삭제를 사용하여 취약성 탐지에서 오탐 보고를 방지합니다. 보안 함수는 데이터 처리 방식을 세분화하여 적절한 변경 사항이 불필요한 보안 경고를 트리거하지 않도록 합니다. + +## Input Validator 및 Sanitizer 비교 + +Security Controls는 보안 유효성 검사에서 함수를 사용하는 방식에 따라 **Input Validator** 및 "Sanitizer**를 구분합니다. + +- **Input Validator**: 함수가 전달된 파라미터를 검증하는 경우 사용됩니다. Validator는 사용자 입력이 처리되기 전 해당 입력이 예상되는 형식을 준수하도록 합니다. +- **Sanitizer**: 함수가 애플리케이션에서 반환 값이 사용되기 전 반환 값을 검증하거나 수정하는 경우 사용됩니다. Sanitizer는 데이터 삭제를 지원하여 잠재적으로 유해한 콘텐츠를 포함하지 않도록 보장합니다. + +## 보안 제어 설정하기 + +Security Controls 정의는 설정 변수 `DD_IAST_SECURITY_CONTROLS_CONFIGURATION`에 배치해야 합니다. +보안 제어 목록을 설정하려면 아래의 형식과 필드 사양을 따르세요. +이 형식은 특정 구분 기호를 사용하여 각 보안 제어 항목을 구성합니다. + +### 형식 + +`:::::` + +### 필드 사양 +| **필드** | **설명** | +|---------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| +| **유형** | 제어 유형을 정의합니다. **허용되는 값은 `INPUT_VALIDATOR` 또는 `SANITIZER`입니다.** | +| **보안 마크** | 적용할 취약성 유형 목록입니다. 사용 가능한 값은 [보안 마크](#secure-marks)에 정의되어 있습니다. 부수적으로 `*`을 사용하여 모든 유형에 대한 적용 가능성을 표시할 수 있습니다. | +| **클래스/파일** | 보안 제어를 구현하는 정규화된 클래스 또는 파일입니다. | +| **메서드** | 보안 제어를 구현하는 메서드의 이름입니다. | +| **파라미터(선택 사항)** | 완전한 적격 클래스 파라미터입니다. 오버로드 메서드를 구분하는 데 사용됩니다. 생략 또는 오버로드가 존재하는 경우 보안 제어가 모든 오버로드 메서드에 적용됩니다. | +| **검증할 파라미터(선택 사항)** | 검증할 파라미터 포지션의 0 기반 목록입니다. 첫 번째 파라미터 는 **0** 위치입니다. 이 필드는 `INPUT_VALIDATOR` **유형에만** 적용됩니다. **일부 파라미터에 대해 유효성 검사가 필요하지 않은 경우** 사용됩니다. | + + +### 구분 기호 +- `;` (세미콜론): 각 보안 제어를 구분합니다. +- `:` (콜론): 보안 제어 내의 각 필드를 구분합니다. +- `,` (쉼표): 목록을 허용하는 필드 내에서 항목을 구분합니다. + +### 보안 마크 + +사용 가능한 보안 마크는 각 삽입 관련 취약성과 관련된 코드에 대응합니다. [지원되는 취약성][1]에서 해당 코드와 각 언어에 대해 사용 가능한지 여부를 확인할 수 있습니다. + +삽입 관련 취약점은 다음과 같습니다. + +* 코드 삽입 +* 명령 삽입 +* 이메일 HTML 삽입 +* 헤더 삽입 +* LDAP 삽입 +* NoSQL 삽입 +* 경로 탐색 +* 반사 삽입 +* 서버 측 요청 위조(SSRF) +* SQL 삽입 +* 신뢰 경계 위반 +* 신뢰할 수 없는 역직렬화 +* 유효하지 않은 리디렉션 +* XPath 삽입 +* 사이트 간 스크립팅(XSS) + +## 호환성 요구 사항 + +이 기능은 각 언어의 다음 추적 라이브러리 버전부터 사용할 수 있습니다. + +* **자바(Java)**: 1.45.0 이상 +* **.NET**: 지원되지 않음 +* **Node.js**: 5.37.0 이상 +* **파이썬(Python)**: 지원되지 않음 + + +## 예시 + +{{% collapse-content title="Java" level="h4" %}} + +### Input Validator + +#### 모든 입력 파라미터를 검증하는 메서드로 명령 삽입 취약성을 방지합니다. + +##### 방법 +`bar.foo.CustomInputValidator#validate(String input1, String input2)` + +##### 설정 +`INPUT_VALIDATOR:COMMAND_INJECTION:bar.foo.CustomInputValidator:validate` + +#### 단일 입력 파라미터를 검증하는 메서드로 명령 삽입 취약성을 방지합니다. + +##### 방법 + `bar.foo.CustomInputValidator#validate(String input1, String inputToValidate)` + +##### 설정 +`INPUT_VALIDATOR:COMMAND_INJECTION:bar.foo.CustomInputValidator:validate:1` + +#### 2개의 입력 파라미터를 검증하는 메서드로 명령 삽입 취약성을 방지합니다. + +##### 방법 + `bar.foo.CustomInputValidator#validate(String input1, String firstInputToValidate, String secondInputToValidate, Object anotherInput)` + +##### 설정 +`INPUT_VALIDATOR:COMMAND_INJECTION:bar.foo.CustomInputValidator:validate:1,2 +` +#### 입력 파라미터를 검증하는 메서드로 명령 삽입 취약성과 코드 삽입 취약성을 방지합니다. + +##### 방법 + `bar.foo.CustomInputValidator#validate(String input)` + +##### 설정 +`INPUT_VALIDATOR:COMMAND_INJECTION,CODE_INJECTION:bar.foo.CustomInputValidator:validate +` +#### 입력 파라미터를 검증하는 메서드로 모든 취약성을 방지합니다. + +##### 방법 + `bar.foo.CustomInputValidator#validate(String input)` + +##### 설정 +`INPUT_VALIDATOR:*:bar.foo.CustomInputValidator:validate +` +#### 입력 파라미터를 검증하는 오버로드 메서드로 명령 삽입 취약성을 방지합니다. + +##### 메서드 + `bar.foo.CustomInputValidator#validate(String input)` + + `bar.foo.CustomInputValidator#validate(String input, String input2)` + +##### 설정 +`INPUT_VALIDATOR:COMMAND_INJECTION:bar.foo.CustomInputValidator:validate:java.lang.String +` +##### 참고 +첫 번째 메서드를 적용합니다. + + +#### 입력 파라미터를 검증하는 오버로드 메서드로 명령 삽입 취약성을 방지합니다. + +##### 메서드 + `bar.foo.CustomInputValidator#validate(String input)` + + `bar.foo.CustomInputValidator#validate(String input, String input2)` + +##### 설정 +`INPUT_VALIDATOR:COMMAND_INJECTION:bar.foo.CustomInputValidator:validate +` +##### 참고 +두 가지 메서드 모두에 적용됩니다. + +### Sanitizer + +#### Sanitizer로 명령 삽입 취약성을 방지합니다. + +##### 방법 + `bar.foo.CustomSanitizer#sanitize(String input)` + +##### 설정 +`SANITIZER:COMMAND_INJECTION:bar.foo.CustomSanitizer:sanitize +` +#### Sanitizer로 명령 삽입 및 코드 삽입 취약성을 방지합니다. + +##### 방법 + `bar.foo.CustomSanitizer#sanitize(String input)` + +##### 설정 +`SANITIZER:COMMAND_INJECTION,CODE_INJECTION:bar.foo.CustomSanitizer:sanitize +` +#### 모든 취약성을 방지하는 Sanitizer입니다. + +##### 방법 + `bar.foo.CustomSanitizer#sanitize(String input)` + +##### 설정 +`SANITIZER:*:bar.foo.CustomSanitizer:sanitize +` +#### 오버로드 Sanitizer로 명령 삽입 취약성을 방지합니다. + +##### 메서드 + `bar.foo.CustomSanitizer#sanitize(String input)` + + `bar.foo.CustomSanitizer#sanitize(String input, String input2)` + +##### 설정 +`SANITIZER:COMMAND_INJECTION:bar.foo.CustomSanitizer:sanitize:자바(Java).lang.String +` +##### 참고 +첫 번째 메서드를 적용합니다. + +#### 오버로드 Sanitizer로 명령 삽입 취약성을 방지합니다. + +##### 메서드 +` bar.foo.CustomSanitizer#sanitize(String input)` + +`bar.foo.CustomSanitizer#sanitize(String input, String input2)` + +##### 설정 +`SANITIZER:COMMAND_INJECTION:bar.foo.CustomSanitizer:sanitize +` +##### 참고 +두 가지 메서드 모두에 적용됩니다. + +{{% /collapse-content %}} + + +{{% collapse-content title="Node.js" level="h4" %}} + +### Input Validator + +#### 모든 입력 파라미터를 검증하는 메서드로 명령 삽입 취약성을 방지합니다. + +##### 방법 +`bar/foo/custom_input_validator.js#validate(input1, input2)` + +##### 설정 +`INPUT_VALIDATOR:COMMAND_INJECTION:bar/foo/custom_input_validator.js:validate` + +#### 단일 입력 파라미터를 검증하는 메서드로 명령 삽입 취약성을 방지합니다. + +##### 방법 +`bar/foo/custom_input_validator.js#validate(input1, inputToValidate)` + +##### 설정 +`INPUT_VALIDATOR:COMMAND_INJECTION:bar/foo/custom_input_validator.js:validate:1` + +#### 2개의 입력 파라미터를 검증하는 메서드로 명령 삽입 취약성을 방지합니다. + +##### 방법 +`bar/foo/custom_input_validator.js#validate(input1, firstInputToValidate, secondInputToValidate, anotherInput)` + +##### 설정 +`INPUT_VALIDATOR:COMMAND_INJECTION:bar/foo/custom_input_validator.js:validate:1,2` + +#### 입력 파라미터를 검증하는 메서드로 명령 삽입 취약성과 코드 삽입 취약성을 방지합니다. + +##### 방법 +`bar/foo/custom_input_validator.js#validate(input)` + +##### 설정 +`INPUT_VALIDATOR:COMMAND_INJECTION,CODE_INJECTION:bar/foo/custom_input_validator.js:validate` + +#### 입력 파라미터를 검증하는 메서드로 모든 취약성을 방지합니다. + +##### 방법 +`bar/foo/custom_input_validator.js#validate(input)` + +##### 설정 +`INPUT_VALIDATOR:*:bar/foo/custom_input_validator.js:validate` + +### Sanitizer + +#### Sanitizer로 명령 삽입 취약성을 방지합니다. + +##### 방법 +`bar/foo/custom_input_sanitizer.js#sanitize(input)` + +##### 설정 +`SANITIZER:COMMAND_INJECTION:bar/foo/custom_input_sanitizer.js:sanitize` + +#### Sanitizer로 명령 삽입 및 코드 삽입 취약성을 방지합니다. + +##### 방법 +`bar/foo/custom_input_sanitizer.js#sanitize(input)` + +##### 설정 +`SANITIZER:COMMAND_INJECTION,CODE_INJECTION:bar/foo/custom_input_sanitizer.js:sanitize` + +#### 모든 취약성을 방지하는 Sanitizer입니다. + +##### 방법 +`bar/foo/custom_input_sanitizer.js#sanitize(input)` + +##### 설정 +`SANITIZER:*:bar/foo/custom_input_sanitizer.js:sanitize` + +### 특수 사례 + +#### 내보내기한 개체 내의 보안 제어 메서드 +`validate` 메서드는 명령 삽입 취약성을 방지하기 위해 입력 파라미터를 검증하는 `validators` 개체 내부로 내보내기됩니다. + +```javascript +// bar/foo/custom_input_validator.js +module.exports = { + validators: { + validate: (input) => { + /* validation process */ + } + } +} +``` + +#### 설정 +`INPUT_VALIDATOR:COMMAND_INJECTION:bar/foo/custom_input_validator.js:validators.validate` + +#### 전이적 종속성을 통한 보안 제어 메서드 +`npm` 플랫 종속성 구조로 인해 직접 종속성과 전이적 종속성을 구분할 수 없습니다. 즉, 종속성 내에 보안 제어가 정의되어 있으면 해당 종속성의 모든 인스턴스(직접 또는 전이)가 영향을 받습니다. + +다음 보안 제어 정의는 종속성 트리에 있는 모든 `sql-sanitizer` 패키지에 영향을 줍니다. + +#### 설정 +`SANITIZER:SQL_INJECTION:node_modules/sql-sanitizer/index.js:sanitize` + + +{{% /collapse-content %}} + +[1]: /ko/security/code_security/iast/#overview \ No newline at end of file diff --git a/content/ko/serverless/libraries_integrations/plugin.md b/content/ko/serverless/libraries_integrations/plugin.md index 56a728ad470..d1be2283aa9 100644 --- a/content/ko/serverless/libraries_integrations/plugin.md +++ b/content/ko/serverless/libraries_integrations/plugin.md @@ -2,7 +2,7 @@ aliases: - /ko/serverless/serverless_integrations/plugin dependencies: -- https://github.com/DataDog/serverless-plugin-datadog/blob/master/README.md +- https://github.com/DataDog/serverless-plugin-datadog/blob/main/README.md title: Datadog 서버리스 프레임워크 플러그인 --- ![빌드](https://github.com/DataDog/serverless-plugin-datadog/workflows/build/badge.svg) @@ -32,45 +32,47 @@ Datadog는 서버리스 애플리케이션을 구축하기 위해 서버리스 플러그인을 추가로 구성하려면 `serverless.yml`에서 다음 사용자 지정 파라미터를 사용합니다. -| 파라미터 | 설명 | -| ----------------------------- | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | -| `site` | `datadoghq.com`(기본값), `datadoghq.eu`, `us3.datadoghq.com`, `us5.datadoghq.com`, `ap1.datadoghq.com` 또는 `ddog-gov.com` 등 데이터를 전송할 Datadog 사이트를 설정합니다. 이 파라미터는 Datadog 람다 확장을 사용해 텔레메트리를 수집할 때 필요합니다. | -| `apiKey` | [Datadog API 키][7]입니다. 이 파라미터는 Datadog 람다 확장을 사용해 텔레메트리를 수집할 때 필요합니다. 대신 배포 환경에서 `DATADOG_API_KEY` 환경 변수를 설정할 수도 있습니다. | -| `appKey` | Datadog 앱 키입니다. `monitors` 필드가 정의된 경우에만 필요합니다. 대신 배포 환경에서 `DATADOG_APP_KEY` 환경 변수를 설정할 수 있습니다. | -| `apiKeySecretArn` | `apiKey` 필드의 대안입니다. AWS 암호 관리자에 Datadog API 키를 저장하는 암호 ARN입니다. 람다 실행 역할에 `secretsmanager:GetSecretValue` 권한을 추가하는 것을 기억하세요. | -| `apiKMSKey` | `apiKey` 필드의 대안입니다. KMS를 사용하여 암호화된 Datadog API 키입니다. 람다 확장 역할에 `kms:Decrypt` 권한을 추가하는 것을 잊지 마세요. | -| `env` | `addExtension`을 설정할 때 `DD_ENV` 환경 변수가 제공된 값과 함께 모든 람다 함수에 추가됩니다. 그렇지 않으면 제공된 값과 함께 모든 람다 함수에 `env` 태그가 추가됩니다. 서버리스 배포 `stage` 값이 기본값으로 설정됩니다. | +| 파라미터 | 설명 | +| ----------------------------- |------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| +| `site` | `datadoghq.com`(기본값), `datadoghq.eu`, `us3.datadoghq.com`, `us5.datadoghq.com`, `ap1.datadoghq.com` 또는 `ddog-gov.com` 등 데이터를 전송할 Datadog 사이트를 설정합니다. 이 파라미터는 Datadog 람다 확장을 사용해 텔레메트리를 수집할 때 필요합니다. | +| `apiKey` | [Datadog API 키][7]입니다. 이 파라미터는 Datadog 람다 확장을 사용해 텔레메트리를 수집할 때 필요합니다. 대신 배포 환경에서 `DATADOG_API_KEY` 환경 변수를 설정할 수도 있습니다. | +| `appKey` | Datadog 앱 키입니다. `monitors` 필드가 정의된 경우에만 필요합니다. 대신 배포 환경에서 `DATADOG_APP_KEY` 환경 변수를 설정할 수 있습니다. | +| `apiKeySecretArn` | `apiKey` 필드의 대안입니다. AWS 암호 관리자에 Datadog API 키를 저장하는 암호 ARN입니다. 람다 실행 역할에 `secretsmanager:GetSecretValue` 권한을 추가하는 것을 기억하세요. | +| `apiKMSKey` | `apiKey` 필드의 대안입니다. KMS를 사용하여 암호화된 Datadog API 키입니다. 람다 확장 역할에 `kms:Decrypt` 권한을 추가하는 것을 잊지 마세요. | +| `env` | `addExtension`을 설정할 때 `DD_ENV` 환경 변수가 제공된 값과 함께 모든 람다 함수에 추가됩니다. 그렇지 않으면 제공된 값과 함께 모든 람다 함수에 `env` 태그가 추가됩니다. 서버리스 배포 `stage` 값이 기본값으로 설정됩니다. | | `service` | `addExtension`와 함께 설정할 때 `DD_SERVICE` 환경 변수는 제공된 값과 함께 모든 람다 함수에 추가됩니다. 그렇지 않으면 제공된 값과 함께 모든 람다 함수에 `service` 태그가 추가됩니다. 서버리스 프로젝트의 `service` 값이 기본값으로 설정됩니다. -| `version` | `addExtension`과 함께 설정하는 경우 `DD_VERSION` 환경 변수는 제공된 값과 함께 모든 람다 함수에 추가됩니다. `forwarderArn`과 함께 설정하는 경우 `version` 태그가 제공된 값과 함께 모든 람다 함수에 추가됩니다. | -| `tags` | 단일 문자열인 `key`:`value` 쌍의 쉼표로 구분된 목록입니다. `extensionLayerVersion`과 함께 설정할 경우 `DD_TAGS` 환경 변수가 제공된 값과 함께 모든 람다 함수에 추가됩니다. `forwarderArn`과 함께 설정할 경우 플러그인이 문자열을 파싱하고 모든 람다 함수에 태그로 각 `key`:`value` 쌍이 태그로 설정됩니다. | -| `enableXrayTracing` | `true`을 설정하여 람다 함수와 API 게이트웨이 통합에서 X-Ray 트레이싱을 활성화합니다. `false`이 기본값으로 설정됩니다. | -| `enableDDTracing` | 람다 함수에서 Datadog 트레이싱을 활성화합니다. `true`가 기본값으로 설정됩니다. | -| `enableDDLogs` | 람다 확장을 사용하여 Datadog 로그 수집을 활성화합니다. `true`가 기본값으로 설정됩니다. 참고: 이 설정은 Datadog 포워더에서 전송한 로그에는 영향을 미치지 않습니다. | -| `monitors` | 정의된 경우 Datadog 플러그인은 배포된 함수에 대한 모니터링을 설정합니다. 환경에서 `DATADOG_API_KEY` 및 `DATADOG_APP_KEY` 설정이 필요합니다. 모니터를 정의하는 방법을 알아보려면 [권장되는 서버리스 모니터 활성화 및 설정 방법](#to-enable-and-configure-a-recommended-serverless-monitor)을 참조하세요. | -| `captureLambdaPayload` | 람다 호출의 Datadog 애플리케이션 성능 모니터링(APM) 스팬에서 [수신 및 발신 AWS 람다 페이로드를 캡처합니다][17]. `false`가 기본값으로 설정됩니다. | -| `enableSourceCodeIntegration` | 함수를 위해 [Datadog 소스 코드 통합]을 활성화합니다. `true`가 기본값으로 설정됩니다. | -| `uploadGitMetadata` | 소스 코드 통합의 일환으로, 함수를 위해 Git 메타데이터 업로드를 활성화합니다. Datadog Github 통합이 불필요한 Git 메타데이터가 업로드를 제공하므로 Datadog Github 통합이 설치된 경우 거짓으로 설정합니다. | -| `subscribeToAccessLogs` | Datadog 포워더(Forwarder)의 API 게이트웨이 액세스 로그인 그룹 자동 구독을 활성화합니다. `forwarderArn`를 설정해야 합니다. 기본값이 `true`로 설정됩니다. | -| `subscribeToExecutionLogs` | Datadog 포워더의 HTTP API 및 Websocket 로그 그룹 자동 구독을 활성화합니다. `forwarderArn`를 설정해야 합니다. 기본값이 `true`로 설정됩니다. | -| `subscribeToStepFunctionLogs` | Datadog 포워더의 Step 함수 로그 그룹 자동 구독을 활성화합니다. 설정된 Step 함수 로그 그룹이 없으면 자동으로 생성됩니다. `forwarderArn`을 설정해야 합니다. 기본값이 `false`로 설정됩니다. | -| `forwarderArn` | Datadog 포워더 ARN은 람다 또는 API 게이트웨이 로그 그룹에 구독됩니다. | -| `addLayers` | Datadog 람다 라이브러리를 레이어로 설치할지를 결정합니다. 기본값은 `true`로 설정됩니다. 특정 버전의 Datadog 람다 라이브러리([파이썬(Python)][8] or [Node.js][9])를 설치할 수 있도록 Datadog 람다 라이브러리를 함수의 배포 패키지로 자체적으로 패키징할 계획이 있다면 `false`로 설정합니다. | -| `addExtension` | Datadog 람다 확장을 레이어로 설치할지를 결정합니다. 기본값은 `true`로 설정됩니다. 활성화되면 `apiKey` 및 `site`를 설정해야 합니다. | -| `exclude` | 설정되면 이 플러그인은 지정된 모든 함수를 무시합니다. Datadog 기능에 포함되지 말아야 할 함수가 있는 경우 이 파라미터를 사용합니다. 기본값은 `[]`로 설정됩니다. | +| `version` | `addExtension`과 함께 설정하는 경우 `DD_VERSION` 환경 변수는 제공된 값과 함께 모든 람다 함수에 추가됩니다. `forwarderArn`과 함께 설정하는 경우 `version` 태그가 제공된 값과 함께 모든 람다 함수에 추가됩니다. | +| `tags` | 단일 문자열인 `key`:`value` 쌍의 쉼표로 구분된 목록입니다. `extensionLayerVersion`과 함께 설정할 경우 `DD_TAGS` 환경 변수가 제공된 값과 함께 모든 람다 함수에 추가됩니다. `forwarderArn`과 함께 설정할 경우 플러그인이 문자열을 파싱하고 모든 람다 함수에 태그로 각 `key`:`value` 쌍이 태그로 설정됩니다. | +| `enableXrayTracing` | `true`을 설정하여 람다 함수와 API 게이트웨이 통합에서 X-Ray 트레이싱을 활성화합니다. `false`이 기본값으로 설정됩니다. | +| `enableDDTracing` | 람다 함수에서 Datadog 트레이싱을 활성화합니다. `true`가 기본값으로 설정됩니다. | +| `enableASM` | Lambda 함수에서 [Datadog 애플리케이션 보안 관리(ASM)][19]를 활성화합니다. Datadog 확장(`addExtension`을 사용하거나 수동으로 추가)과 `enableDDTracing`이 있어야 합니다. 기본값은 `false`입니다. | +| `enableDDLogs` | 람다 확장을 사용하여 Datadog 로그 수집을 활성화합니다. `true`가 기본값으로 설정됩니다. 참고: 이 설정은 Datadog 포워더에서 전송한 로그에는 영향을 미치지 않습니다. | +| `monitors` | 정의된 경우 Datadog 플러그인은 배포된 함수에 대한 모니터링을 설정합니다. 환경에서 `DATADOG_API_KEY` 및 `DATADOG_APP_KEY` 설정이 필요합니다. 모니터를 정의하는 방법을 알아보려면 [권장되는 서버리스 모니터 활성화 및 설정 방법](#to-enable-and-configure-a-recommended-serverless-monitor)을 참조하세요. | +| `captureLambdaPayload` | 람다 호출의 Datadog 애플리케이션 성능 모니터링(APM) 스팬에서 [수신 및 발신 AWS 람다 페이로드를 캡처합니다][17]. `false`가 기본값으로 설정됩니다. | +| `enableSourceCodeIntegration` | 함수를 위해 [Datadog 소스 코드 통합]을 활성화합니다. `true`가 기본값으로 설정됩니다. | +| `uploadGitMetadata` | 소스 코드 통합의 일환으로, 함수를 위해 Git 메타데이터 업로드를 활성화합니다. Datadog Github 통합이 불필요한 Git 메타데이터가 업로드를 제공하므로 Datadog Github 통합이 설치된 경우 거짓으로 설정합니다. | +| `subscribeToAccessLogs` | Datadog 포워더(Forwarder)의 API 게이트웨이 액세스 로그인 그룹 자동 구독을 활성화합니다. `forwarderArn`를 설정해야 합니다. 기본값이 `true`로 설정됩니다. | +| `subscribeToExecutionLogs` | Datadog 포워더의 HTTP API 및 Websocket 로그 그룹 자동 구독을 활성화합니다. `forwarderArn`를 설정해야 합니다. 기본값이 `true`로 설정됩니다. | +| `forwarderArn` | Datadog 포워더 ARN은 람다 또는 API 게이트웨이 로그 그룹에 구독됩니다. | +| `addLayers` | Datadog 람다 라이브러리를 레이어로 설치할지를 결정합니다. 기본값은 `true`로 설정됩니다. 특정 버전의 Datadog 람다 라이브러리([파이썬(Python)][8] or [Node.js][9])를 설치할 수 있도록 Datadog 람다 라이브러리를 함수의 배포 패키지로 자체적으로 패키징할 계획이 있다면 `false`로 설정합니다. | +| `addExtension` | Datadog 람다 확장을 레이어로 설치할지를 결정합니다. 기본값은 `true`로 설정됩니다. 활성화되면 `apiKey` 및 `site`를 설정해야 합니다. | +| `exclude` | 설정되면 이 플러그인은 지정된 모든 함수를 무시합니다. Datadog 기능에 포함되지 말아야 할 함수가 있는 경우 이 파라미터를 사용합니다. 기본값은 `[]`로 설정됩니다. | | `enabled` | `false`로 설정하면 Datadog 플러그인이 비활성 상태로 유지됩니다. 기본값은 `true`로 설정됩니다. 환경 변수를 사용해 이 옵션을 조정할 수 있습니다. 예를 들어 `enabled: ${strToBool(${env:DD_PLUGIN_ENABLED, true})}`를 사용해 배포 동안 플러그인을 활성화/비활성화할 수 있습니다. 대신 `--stage`를 통과한 값을 사용하여 이 옵션을 조정할 수 있습니다. [예시 참조](#disable-plugin-for-particular-environment) | -| `customHandler` | 설정되면 지정된 핸들러가 모든 함수에 대한 핸들러로 설정됩니다. | -| `failOnError` | 설정되면 Datadog 모니터가 생성이나 업데이트에 실패했을 때 오류를 트리거합니다. 배포 후에 발생할 수 있지만 0이 아닌 종료 코드를 반환하기 위해(사용자 CI 실패를 위해) `serverless deploy`를 발생시킬 수 있습니다. 기본값은 `false`로 설정됩니다. | -| `logLevel` | 로그 수준으로, 확장된 로깅을 위해 `DEBUG`로 설정됩니다. | -| `skipCloudformationOutputs` | 스택에 Datadog Cloudformation Outputs 추가하기를 건너뛰려면 `true`로 설정합니다. 200개 출력 제한은 스택 생성을 실패하게 할 수 있으므로 이 경우 유용합니다. | -| `enableColdStartTracing` | 콜드 스타트 추적을 비활성화하려면 `false`로 설정합니다. Node.js 및 파이썬(Python)에서 사용됩니다. 기본값은 `true`입니다. | -| `coldStartTraceMinDuration` | 콜드 스타트 추적을 통해 추적할 모듈 로드 이벤트의 최소 지속 시간(밀리초)을 설정합니다. 번호. 기본값은`3` 입니다. | -| `coldStartTraceSkipLibs` | 선택적으로 쉼표로 구분된 라이브러리 목록에 대해 콜드 스타트 스팬(span) 만들기를 건너뜁니다. 깊이를 제한하거나 알려진 라이브러리를 건너뛸 때 유용합니다. 기본값은 런타임에 따라 다릅니다. | -| `subdomain` | 부수적인 하위 도메인을 설정하여 출력 생성을 위해 프린트되는 앱 URL을 사용합니다. 기본값은 `app`으로 설정됩니다. | -| `enableProfiling` | `true`와 함께 Datadog 계속적인 프로파일러를 사용하도록 설정합니다. Node.js 및 파이썬(Python)용 베타에서 지원됩니다. 기본값은 `false`입니다. | -| `encodeAuthorizerContext` | 람다 승인자에 대해 `true`로 설정하면 추적 컨텍스트가 전파를 위해 응답으로 인코딩됩니다. Node.js 및 파이썬(Python)에서 지원됩니다. 기본값은 `true`입니다. | -| `decodeAuthorizerContext` | 람다 인증자를 통해 인증된 람다에 대해 `true`로 설정하면 인코딩된 추적 컨텍스트를 구문 분석하고 사용합니다(찾은 경우). Node.js 및 파이썬(Python)에서 지원됩니다. 기본값은 `true`입니다. | -| `apmFlushDeadline` | 밀리초에서 시간 초과하기 전에 기간을 제출할 시기를 결정하는 데 사용됩니다. AWS 람다 호출의 남은 시간이 설정된 값보다 작으면 추적기는 현재 활성 스팬(span)과 완료된 모든 스팬(span)을 제출하려고 시도합니다. Node.js 및 파이썬(Python)에서 지원됩니다. 기본값은 `100`밀리초입니다. | - +| `customHandler` | 설정되면 지정된 핸들러가 모든 함수에 대한 핸들러로 설정됩니다. | +| `failOnError` | 설정되면 Datadog 모니터가 생성이나 업데이트에 실패했을 때 오류를 트리거합니다. 배포 후에 발생할 수 있지만 0이 아닌 종료 코드를 반환하기 위해(사용자 CI 실패를 위해) `serverless deploy`를 발생시킬 수 있습니다. 기본값은 `false`로 설정됩니다. | +| `logLevel` | 로그 수준으로, 확장된 로깅을 위해 `DEBUG`로 설정됩니다. | +| `skipCloudformationOutputs` | 스택에 Datadog Cloudformation Outputs 추가하기를 건너뛰려면 `true`로 설정합니다. 200개 출력 제한은 스택 생성을 실패하게 할 수 있으므로 이 경우 유용합니다. | +| `enableColdStartTracing` | 콜드 스타트 추적을 비활성화하려면 `false`로 설정합니다. NodeJS 및 파이썬(Python)에서 사용됩니다. 기본값은 `true`입니다. | +| `coldStartTraceMinDuration` | 콜드 스타트 추적을 통해 추적할 모듈 로드 이벤트의 최소 지속 시간 (밀리초)을 설정합니다. 번호. 기본값은`3` 입니다. | +| `coldStartTraceSkipLibs` | (선택 사항) 쉼표로 구분된 라이브러리 목록에 대한 콜드 스타트 스팬 생성을 건너뛸 수 있습니다. 깊이를 제한하거나 알려진 라이브러리를 건너뛸 때 유용합니다. 기본값은 런타임에 따라 다릅니다. | +| `subdomain` | 부수적인 하위 도메인을 설정하여 출력 생성을 위해 프린트되는 앱 URL을 사용합니다. 기본값은 `app`으로 설정됩니다. | +| `enableProfiling` | `true`로 설정해 Datadog Continuous Profiler를 활성화합니다. NodeJS 및 파이썬(Python)용은 베타 버전에서 지원됩니다. 기본값은 `false`입니다. | +| `encodeAuthorizerContext` | 람다 인증자에 대해 `true`로 설정하면 추적 컨텍스트가 전파를 위해 응답으로 인코딩됩니다. NodeJS 및 파이썬(Python)에서 지원됩니다. 기본값은 `true`입니다. | +| `decodeAuthorizerContext` | 람다 인증자를 통해 인증된 람다에 대해 `true`로 설정하면 인코딩된 추적 컨텍스트를 구문 분석하여 사용합니다 (있는 경우). NodeJS 및 파이썬(Python)에서 지원됩니다. 기본값은 `true`입니다. | +| `apmFlushDeadline` | 시간 초과가 발생하기 전에 스팬을 제출할 시점을 밀리초 단위로 결정하는 데 사용됩니다. AWS 람다 호출의 남은 시간이 설정된 값보다 작으면 추적기는 현재 활성 스팬과 완료된 모든 스팬을 제출하려고 시도합니다. NodeJS 및 파이썬(Python)에서 지원됩니다. 기본값은 `100`밀리초입니다. | +| `enableStepFunctionsTracing` | Datadog 포워더에서 Step 함수 로그 그룹과 Step 함수 추적을 자동 구독하도록 활성화합니다. 설정된 Step 함수 로그 그룹이 없으면 자동으로 생성됩니다. `forwarderArn`을 설정해야 합니다. 기본값은 `false`입니다. | +| `propagateUpstreamTrace` | `true`로 설정하면 다운스트림 Step 함수 호출 트레이스가 업스트림 Step 함수 호출과 병합됩니다. 기본값은 `false`입니다. | +| `redirectHandlers` | (선택 사항)`false`로 설정된 경우 핸들러 리디렉션을 비활성화할 수 있습니다. APM이 완전 비활성화될 경우에만 `false`로 설정해야 합니다. 기본값은 `true`입니다. | 이 파라미터를 사용하려면 이 예시와 유사한 `serverless.yml`에 `custom` > `datadog` 섹션을 추가합니다. ```yaml @@ -172,7 +174,6 @@ custom: include_tags: true notify_audit: true thresholds: - ok: 0.025 warning: 0.05 critical: 0.1 ``` @@ -203,23 +204,32 @@ custom: notify_audit: true notify_no_data: false thresholds: - ok: 1 warning: 2 critical: 3 ``` ## 변경 사항 중단 -### [v5.0.0](https://github.com/DataDog/serverless-plugin-datadog/releases/tag/v5.0.0) +[**v5.0.0**](https://github.com/DataDog/serverless-plugin-datadog/releases/tag/v5.0.0) - Datadog 확장과 함께 사용하면 이 플러그인은 람다 리소스 태그 대신 환경 변수를 통해 `service` 및 `env` 태그를 설정합니다. - `enableTags` 파라미터는 새로운 `service`, `env` 파라미터를 대체합니다. -### [v4.0.0](https://github.com/DataDog/serverless-plugin-datadog/releases/tag/v4.0.0) +[**v4.0.0**](https://github.com/DataDog/serverless-plugin-datadog/releases/tag/v4.0.0) - Datadog 람다 확장은 이제 텔레메트리를 Datadog에 전송하기 위한 기본 메커니즘입니다. -## 오프닝 이슈 +## serverless-plugin-warmup으로 작업 +이 라이브러리는 [serverless-plugin-warmup](https://github.com/juanjoDiaz/serverless-plugin-warmup)과 가장 호환이 잘 됩니다. Datadog에서 warmer 함수를 제외하고 싶은 경우, 이 라이브러리의 `exclude` 기능을 사용하세요. + +애플리케이션을 제대로 패키징하려면 `serverless.yml` 파일 `serverless-plugin-warmup` _뒤_에 플러그인 목록이 와야 *합니다*. +```yaml +plugins: + - serverless-plugin-warmup + - serverless-plugin-datadog +``` + +## 이슈 열기 이 패키지에서 버그를 발견한 경우 이슈를 작성하여 알려주세요! 새로운 이슈를 시작하기 전 기존 이슈를 검색하여 중복을 피해 주세요. @@ -233,7 +243,7 @@ custom: ## 커뮤니티 -제품 피드백 및 질문은 [슬랙의 Datadog 커뮤니티](https://chat.datadoghq.com/)의 `#serverless`에 가입하세요. +제품 피드백 및 질문이 있는 경우 [슬랙의 Datadog 커뮤니티](https://chat.datadoghq.com/)의 `#serverless` 채널에 가입하세요. ## 라이센스 @@ -258,4 +268,5 @@ custom: [15]: https://github.com/DataDog/serverless-plugin-datadog/blob/master/src/layers.json [16]: https://docs.datadoghq.com/ko/tracing/setup_overview/configure_data_security/?tab=mongodb#replace-rules-for-tag-filtering [17]: https://www.datadoghq.com/blog/troubleshoot-lambda-function-request-response-payloads/ -[18]: https://docs.datadoghq.com/ko/integrations/guide/source-code-integration \ No newline at end of file +[18]: https://docs.datadoghq.com/ko/integrations/guide/source-code-integration +[19]: https://docs.datadoghq.com/ko/security/application_security/ \ No newline at end of file diff --git a/content/ko/synthetics/guide/reusing-browser-test-journeys.md b/content/ko/synthetics/guide/reusing-browser-test-journeys.md index f024fc814bb..e71e5962b22 100644 --- a/content/ko/synthetics/guide/reusing-browser-test-journeys.md +++ b/content/ko/synthetics/guide/reusing-browser-test-journeys.md @@ -9,7 +9,7 @@ further_reading: - link: https://www.datadoghq.com/blog/test-creation-best-practices/ tag: 블로그 text: 엔드 투 엔드 테스트 생성 모범 사례 -title: 브라우저 테스트 여정을 테스트 스위터 전체에 재사용하기 +title: 브라우저 테스트 여정을 테스트 스위트(suite) 전체에 재사용하기 --- ## 개요 @@ -32,19 +32,19 @@ title: 브라우저 테스트 여정을 테스트 스위터 전체에 재사용 로그인 테스트를 만들고 테스트 스위트 전체에 하위 테스트로 사용하는 방법: -1. 애플리케이션에 로그인만 하는 테스트 A를 만드세요. 테스트 A의 **Starting URL**을 로그인 전 URL로 설정하세요. +1. 애플리케이션에 로그인만 하는 테스트를 만드세요. 테스트의 **시작 URL**을 로그인 전 URL로 설정하세요. - {{< img src="synthetics/guide/reusing-browser-test-journeys/login_subtest_recording.mp4" alt="로그인 하위 테스트 레코딩" video="true" width="100%">}} + {{< img src="synthetics/guide/reusing-browser-test-journeys/login_subtest_recording_2.mp4" alt="로그인 하위 테스트 레코딩t" video="true" width="100%">}} -2. 애플리케이션 로그인 후 기능을 모니터링하는 두 번째 테스트 테스트 B를 만드세요. 다음은 대시보드 생성을 모니터링하는 두 번째 테스트 예시입니다. 테스트 B의 **Starting URL**도 로그인 전 UR로 설정하세요. +2. 애플리케이션 로그인 후 기능을 모니터링하는 두 번째 테스트를 만드세요. 다음은 대시보드 생성을 모니터링하는 두 번째 테스트 예시입니다. 테스트의 **시작 URL**도 로그인 전 UR로 설정하세요. - {{< img src="synthetics/guide/reusing-browser-test-journeys/dashboard_test_configuration.png" alt="상위 테스트 구성" >}} + {{< img src="synthetics/guide/reusing-browser-test-journeys/dashboard_test_configuration_2.png" alt="상위 테스트 설정" >}} -3. 테스트 B를 레코딩할 때 **Subset**을 클릭하고 로그인 테스트 A를 선택하세요. +3. 두 번째 테스트를 레코딩할 때 **하위 테스트**를 클릭하고 1단계에서 생성한 로그인 테스트를 선택하세요. - {{< img src="synthetics/guide/reusing-browser-test-journeys/dashboard_test_subtest.mp4" alt="상위 테스트에서 하위 테스트를 포함" video="true" width="100%">}} + {{< img src="synthetics/guide/reusing-browser-test-journeys/dashboard_subtest_2.mp4" alt="상위 테스트에 하위 테스트 포함" video="true" width="80%">}} - 이렇게 하위 테스트 단계를 설정할 때 테스트 A에 포함된 모든 단계가 상위 테스트 B를 시작할 때 실행됩니다. 또 하위 테스트 A에 있는 변수를 상위 테스트 B에서 가져옵니다. 기본적으로 하위 테스트는 메인 탭에서 실행됩니다. 따라서 하위 테스트 단계가 이전 및 다음 단계가 실행되는 동일 탭에서 실행됩니다. 상위 테스트에 설정된 URL을 사용해 하위 테스트가 실행되고(이 경우 로그인 전 URL), 하위 테스트 단계가 모두 실행된 후 브라우저 테스트가 하위 테스트가 마지막으로 실행된 브라우저에 상위 테스트의 첫 단계를 실행합니다. 현재 상위 테스트는 생성하지 않은 상태입니다. + 이렇게 하위 테스트 단계를 설정할 때 로그인 테스트에 포함된 모든 단계가 상위 테스트를 시작할 때 실행됩니다. 또 하위 테스트에 있는 변수를 두 번째 테스트의 상위 테스트로 가져옵니다. 기본적으로 하위 테스트는 메인 탭에서 실행됩니다. 따라서 하위 테스트 단계가 이전 및 다음 단계가 실행되는 동일 탭에서 실행됩니다. 상위 테스트에 설정된 URL을 사용해 하위 테스트가 실행되고(이 경우 로그인 전 URL), 하위 테스트 단계가 모두 실행된 후 브라우저 테스트가 하위 테스트가 마지막으로 실행된 페이지에서 상위 테스트의 첫 비하위 테스트 단계를 실행합니다. 현재 상위 테스트는 생성하지 않은 상태입니다. **참고:** [**Subtest Advanced Options**][1]을 사용해 하위 테스트가 있는 탭을 선택할 수 있습니다. diff --git a/data/partials/platforms.es.yaml b/data/partials/platforms.es.yaml index 05d8e369655..77bfb0b8754 100644 --- a/data/partials/platforms.es.yaml +++ b/data/partials/platforms.es.yaml @@ -24,130 +24,130 @@ gs: link: https://app.datadoghq.com/account/settings/agent/latest?platform=centos name: rockylinux - image: platform_almalinux.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=centos + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=CentOS name: almalinux -- image: platform_fedora.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=fedora +- image: plataforma_fedora.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=Fedora name: fedora -- image: platform_suse.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=suse +- image: plataforma_suse.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=SUSE name: suse -- image: platform_aix.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=aix +- image: plataforma_aix.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=aix name: aix -- image: platform_coreos.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=coreos +- image: plataforma_coreos.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=coreos name: coreos -- image: platform_docker.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=docker +- image: plataforma_docker.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=Docker name: docker -- image: platform_kubernetes.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=kubernetes +- image: plataforma_kubernetes.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=Kubernetes name: kubernetes -- image: platform_openshift.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=openshift +- image: plataforma_openshift.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=openshift name: openshift -- image: platform_chef.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=chef +- image: plataforma_chef.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=chef name: chef -- image: platform_puppet.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=puppet +- image: plataforma_marioneta.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=puppet name: marioneta -- image: platform_ansible.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=ansible +- image: plataforma_ansible.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=ansible name: ansible -- image: platform_cloud_foundry.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=cloud_foundry +- image: plataforma_nube_fundición.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=cloud_foundry name: cloud_foundry -- image: platform_saltstack.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=saltstack +- image: plataforma_saltstack.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=saltstack name: salt -- image: platform_heroku.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=heroku +- image: plataforma_heroku.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=Heroku name: heroku -- image: platform_fromsource.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=source +- image: plataforma_fromsource.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=source name: fuente platforms: - category: Linux - image: platform_aix.png - link: agent/basic_agent_usage/aix/ + image: plataforma_aix.png + link: Agent/uso_agente_basico/aix/ name: aix - category: Linux - image: platform_almalinux.png - link: agent/basic_agent_usage/centos/ + image: plataforma_almalinux.png + link: Agent/uso_agente_basico/CentOS/ name: almalinux - category: Linux - image: platform_amazonlinux.png - link: agent/basic_agent_usage/amazonlinux/ + image: plataforma_amazonlinux.png + link: Agent/uso_agente_basico/amazonlinux/ name: amazonlinux - category: configuration_management - image: platform_ansible.png - link: agent/basic_agent_usage/ansible/ + image: plataforma_ansible.png + link: Agent/uso_agente_basico/ansible/ name: ansible - category: Linux - image: platform_centos.png - link: agent/basic_agent_usage/centos/ + image: plataforma_centos.png + link: Agent/uso_agente_basico/CentOS/ name: centos - category: configuration_management - image: platform_chef.png - link: agent/basic_agent_usage/chef/ + image: plataforma_chef.png + link: Agent/uso_agente_basico/chef/ name: chef - category: Linux - image: platform_debian.png - link: agent/basic_agent_usage/deb/ + image: plataforma_debian.png + link: Agent/uso_del_agente_basico/deb/ name: deb - category: cloud_and_container - image: platform_docker.png - link: agent/docker/ + image: plataforma_docker.png + link: Agent/Docker/ name: docker - category: Linux - image: platform_fedora.png - link: agent/basic_agent_usage/fedora/ + image: plataforma_fedora.png + link: Agent/uso_agente_basico/Fedora/ name: fedora - category: cloud_and_container - image: platform_heroku.png - link: agent/basic_agent_usage/heroku/ + image: plataforma_heroku.png + link: Agent/uso_agente_basico/Heroku/ name: heroku - category: cloud_and_container - image: platform_kubernetes.png - link: agent/kubernetes/ + image: plataforma_kubernetes.png + link: Agent/Kubernetes/ name: kubernetes - category: macOS - image: platform_macos.png - link: agent/basic_agent_usage/osx/ + image: plataforma_macos.png + link: Agent/uso_agente_basico/osx/ name: osx - category: Linux - image: platform_oracle.png - link: agent/basic_agent_usage/oracle/ + image: plataforma_oracle.png + link: Agent/uso_agente_basico/oracle/ name: Oracle - category: configuration_management - image: platform_puppet.png - link: agent/basic_agent_usage/puppet/ + image: plataforma_marioneta.png + link: Agent/uso_agente_basico/puppet/ name: puppet - category: Linux - image: platform_redhat.png - link: agent/basic_agent_usage/redhat/ + image: plataforma_redhat.png + link: Agent/uso_agente_basico/redhat/ name: redhat - category: Linux - image: platform_rockylinux.png - link: agent/basic_agent_usage/centos/ + image: plataforma_rockylinux.png + link: Agent/uso_agente_basico/CentOS/ name: rockylinux - category: configuration_management - image: platform_saltstack.png - link: agent/basic_agent_usage/saltstack/ + image: plataforma_saltstack.png + link: Agent/uso_agente_basico/saltstack/ name: salt - category: Linux - image: platform_suse.png - link: agent/basic_agent_usage/suse/ + image: plataforma_suse.png + link: Agent/uso_agente_basico/SUSE/ name: suse - category: Linux - image: platform_ubuntu.png - link: agent/basic_agent_usage/ubuntu/ + image: plataforma_ubuntu.png + link: Agent/uso_agente_basico/Ubuntu/ name: ubuntu - category: Windows - image: platform_windows.png - link: agent/basic_agent_usage/windows/ + image: plataforma_windows.png + link: Agent/uso_agente_basico/Windows/ name: windows - category: Windows image: platform_sccm.png @@ -156,4 +156,4 @@ platforms: - category: fuente image: platform_fromsource.png link: agent/basic_agent_usage/source/ - name: fuente \ No newline at end of file + name: fuente