Skip to content

Commit

Permalink
Merge pull request #17260 from newrelic/translations-0e5d840c
Browse files Browse the repository at this point in the history
Updated translations -  (machine translation)
  • Loading branch information
jmiraNR committed May 10, 2024
2 parents 9ba34e4 + 44cc44f commit 63bc05a
Show file tree
Hide file tree
Showing 44 changed files with 1,733 additions and 1,043 deletions.
Original file line number Diff line number Diff line change
@@ -1,5 +1,5 @@
---
title: Complemento de Kubernetes para reenvío de registros
title: Complemento de Kubernetes para reenvío de logs
tags:
- Logs
- Enable log management in New Relic
Expand All @@ -9,18 +9,18 @@ freshnessValidatedDate: never
translationType: machine
---

El complemento Kubernetes de New Relic para el reenvío de registros simplifica el envío de registros desde su clúster a New Relic Logs. Utiliza una imagen docker independiente y se ejecuta como DaemonSet, recopilando registros sin problemas para análisis centralizados y resolución de problemas. Reenviar su registro de Kubernetes a New Relic le brindará capacidades l<InlinePopover type="logs"/> mejoradas para recopilar, procesar, explorar, consultar y alertar sobre sus datos log .
El complemento Kubernetes de New Relic para el reenvío de logs simplifica el envío de logs desde su clúster a New Relic Logs. Utiliza una imagen docker independiente y se ejecuta como DaemonSet, recopilando logs sin problemas para análisis centralizados y resolución de problemas. Reenviar su log de Kubernetes a New Relic le brindará capacidades l<InlinePopover type="logs"/> mejoradas para recopilar, procesar, explorar, consultar y alertar sobre sus datos log .

## Habilite Kubernetes para la administración de registros [#enable-process]
## Habilite Kubernetes para la administración de logs [#enable-process]

Para reenviar su registro de Kubernetes a New Relic con nuestro complemento:
Para reenviar su log de Kubernetes a New Relic con nuestro complemento:

1. Instale la integración de New Relic Kubernetes siguiendo los pasos de [esta página](/docs/kubernetes-pixie/kubernetes-integration/installation/kubernetes-integration-install-configure/). Esta integración incluye el complemento de Kubernetes para el registro.
1. Instale la integración de New Relic Kubernetes siguiendo los pasos de [esta página](/docs/kubernetes-pixie/kubernetes-integration/installation/kubernetes-integration-install-configure/). Esta integración incluye el complemento de Kubernetes para el log.

2. Opcionalmente, puede ajustar aún más su instalación en [el Paso 4 desde la instalación guiada](/docs/kubernetes-pixie/kubernetes-integration/installation/kubernetes-integration-install-configure/#kubernetes-install-navigation) utilizando las numerosas opciones de configuración disponibles en el [repositorio de registro de newrelic](https://github.com/newrelic/helm-charts/tree/master/charts/newrelic-logging#configuration). Sin embargo, recomendamos la configuración estándar, ya que es válida para la mayoría de usuarios.

<Callout variant="important">
Si está [utilizando un secreto Kubernetes ](https://github.com/newrelic/helm-charts/blob/master/charts/newrelic-logging/values.yaml#L8-L25)para almacenar la clave de licencia de New Relic , el gráfico `newrelic-logging` envía de forma predeterminada el registro a los extremos de API de EE. UU. Si la clave de licencia pertenece a una cuenta de la UE o FedRAMP y se utiliza un secreto para el almacenamiento de claves, debe actualizar la configuración del extremo con el valor apropiado de los [documentos de referenciaAPI ](/docs/logs/log-api/introduction-log-api/#endpoint). A continuación se muestra un ejemplo de cómo configurar esto para cuentas de la UE:
Si está [utilizando un secreto Kubernetes ](https://github.com/newrelic/helm-charts/blob/master/charts/newrelic-logging/values.yaml#L8-L25)para almacenar la clave de licencia de New Relic , el gráfico `newrelic-logging` envía de forma predeterminada el log a los extremos de API de EE. UU. Si la clave de licencia pertenece a una cuenta de la UE o FedRAMP y se utiliza un secreto para el almacenamiento de claves, debe actualizar la configuración del extremo con el valor apropiado de los [documentos de referenciaAPI ](/docs/logs/log-api/introduction-log-api/#endpoint). A continuación se muestra un ejemplo de cómo configurar esto para cuentas de la UE:

```
newrelic-logging:
Expand All @@ -33,27 +33,60 @@ Para reenviar su registro de Kubernetes a New Relic con nuestro complemento:

<InstallFeedback/>

## Solucionar problemas de su complemento Kubernetes para el reenvío de instalación de registros [#troubleshoot-installation]

A veces, a pesar de instalar correctamente el complemento Kubernetes para el reenvío de registros (`newrelic-logging` [gráfico de Helm](https://github.com/newrelic/helm-charts/blob/master/charts/newrelic-logging)), es posible que encuentre problemas de rendimiento que afecten la entrega correcta del registro. En tales circunstancias, observar el reenviador de troncos métrico interno puede ser útil para comprender la causa de un posible cuello de botella.

El gráfico de Helm `newrelic-logging` proporciona una configuración para permitir la recopilación de dichas métricas para un clúster de Kubernetes determinado. También proporcionamos una plantilla dashboard con formato JSON para mostrar fácilmente todas estas métricas en New Relic.

Para configurar tu clúster de Kubernetes para enviar el reenviador de logs métrico interno y representarlos en un dashboard, sigue estos pasos:

1. Instale el gráfico Helm con la siguiente configuración adicional:

```
newrelic-logging:
fluentBit:
sendMetrics: true
```

Solo necesita habilitar la configuración `newrelic-logging.fluentBit.sendMetrics` cuando resuelva problemas en un clúster de Kubernetes. Recomendamos habilitarlo para un único clúster de Kubernetes a la vez para facilitar la resolución de problemas.

2. Descargue [este archivo de plantilla de dashboard](https://raw.githubusercontent.com/newrelic/helm-charts/master/charts/newrelic-logging/fluent-bit-and-plugin-metrics-dashboard-template.json). Ábrelo en un editor de texto y reemplaza todas las `YOUR_ACCOUNT_ID` apariciones (49 en total) por tu [ID de cuenta de New Relic](/docs/accounts/accounts-billing/account-structure/account-id/).

3. Importe el dashboard resultante en formato JSON siguiendo [estas instrucciones](/docs/query-your-data/explore-query-data/dashboards/dashboards-charts-import-export-data/#import-json).

4. El dashboard importado estará disponible en [la página de su dashboard](https://one.newrelic.com/dashboards) como `Kubernetes Fluent Bit monitoring`.

### Detalles métricos adicionales

El `newrelic-logging` gráfico de Helm emplea [Fluent Bit](https://fluentbit.io/) junto con [el complemento New Relic newrelic-fluent-bit-output](https://github.com/newrelic/newrelic-fluent-bit-output) de para enviar registros a New Relic. La opción de configuración `fluentBit.sendMetrics` permite la recopilación de su métrica individual:

* **[Fluent Bit internal metrics](https://docs.fluentbit.io/manual/administration/monitoring#for-v2-metrics)**: emitted by Fluent Bit in Prometheus format and delivered to New Relic's Prometheus Export endpoint. They can be faceted by `cluster_name`, `node_name` and `pod_name`.
* **[newrelic-fluent-bit-output's internal plugin metrics](https://github.com/newrelic/newrelic-fluent-bit-output?tab=readme-ov-file#troubleshooting-metrics)**: collected by the output plugin and sent to New Relic's Metric API. These metrics only contain the `cluster_name` dimension, so they can be narrowed down to a particular cluster but not to a particular host or pod. They are useful to assess the overall latency when delivering the logs to the New Relic Logs API or to observe potential packaging problems.

Capturamos la métrica interna de Fluent Bit empleando su [complemento prometheus_scrape INPUT](https://docs.fluentbit.io/manual/pipeline/inputs/prometheus-scrape-metrics) junto con su [complemento prometheus_remote_write OUTPUT](https://docs.fluentbit.io/manual/pipeline/outputs/prometheus-remote-write). Todas las métricas `counter` de Prometheus son en realidad _contadores acumulativos_, pero realizamos automáticamente una _conversión delta_ cuando se ingiere en New Relic para facilitar su consulta mediante NRQL más adelante. Puedes encontrar más detalles [aquí](/docs/data-apis/understand-data/metric-data/cumulative-metrics/).

## Ver datos log [#find-data]

Si todo está configurado correctamente y se están recopilando sus datos, debería ver los datos log en ambos lugares:

* Nuestra [UIusuario de registros](https://one.newrelic.com/launcher/logger.log-launcher)
* Nuestra [UI de logs](https://one.newrelic.com/launcher/logger.log-launcher)
* Nuestras herramientas para ejecutar [NRQL consulta](/docs/chart-builder/use-chart-builder/choose-data/use-advanced-nrql-mode-specify-data). Por ejemplo, puedes ejecutar una consulta como esta:

```
SELECT * FROM Log
```

Si no aparecen datos después de habilitar nuestras capacidades de administración de registros, siga nuestros [procedimientos estándar de resolución de problemas de registros](/docs/logs/log-management/troubleshooting/no-log-data-appears-ui/).
Si no aparecen datos después de habilitar nuestras capacidades de administración de logs, siga nuestros [procedimientos estándar de resolución de problemas de logs](/docs/logs/log-management/troubleshooting/no-log-data-appears-ui/).

## ¿Que sigue? [#what-next]

Explore los datos de registro en su plataforma con nuestra [UIde registros](/docs/logs/log-management/ui-data/use-logs-ui/).
Explore los datos de logging en su plataforma con nuestra [UI de logs](/docs/logs/log-management/ui-data/use-logs-ui/).

* Obtenga una visibilidad más profunda de los datos de rendimiento de su aplicación y de su plataforma reenviando su registro con nuestras capacidades [de logs en el contexto](/docs/logs/enable-log-management-new-relic/configure-logs-context/configure-logs-context-apm-agents/) .
* Obtenga una visibilidad más profunda de los datos de rendimiento de su aplicación y de su plataforma reenviando su log con nuestras capacidades [de logs en el contexto](/docs/logs/enable-log-management-new-relic/configure-logs-context/configure-logs-context-apm-agents/) .
* Configurar [alerta](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-alert-conditions/).
* [Consulta tus datos](/docs/query-your-data/explore-query-data/get-started/introduction-querying-new-relic-data/) y [crea un panel](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards/).

## Desactivar reenvío de registros [#disable]
## Desactivar reenvío de logs [#disable]

Para deshabilitar las capacidades de reenvío de registros, puede desinstalar el complemento de Kubernetes siguiendo los pasos que se describen [aquí](/docs/kubernetes-pixie/kubernetes-integration/uninstall-kubernetes/). No necesitas hacer nada más en New Relic.
Para deshabilitar las capacidades de reenvío de logs, puede desinstalar el complemento de Kubernetes siguiendo los pasos que se describen [aquí](/docs/kubernetes-pixie/kubernetes-integration/uninstall-kubernetes/). No necesitas hacer nada más en New Relic.
28 changes: 26 additions & 2 deletions src/i18n/content/es/docs/logs/ui-data/parsing.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -365,7 +365,7 @@ Tenga en cuenta que los nombres de las variables deben establecerse explícitame
my_attribute_prefix.request.headers.X-Custom: "bar"
```

Puedes definir la lista de atributos a extraer con la opción `keepAttributes`. Por ejemplo, con la siguiente expresión de Grok:
Puede definir la lista de atributos a extraer o soltar con las opciones `keepAttributes` o `dropAttributes`. Por ejemplo, con la siguiente expresión de Grok:

```
%{TIMESTAMP_ISO8601:containerTimestamp} %{GREEDYDATA:my_attribute_prefix:json({"keepAttributes": ["my_attribute_prefix.event", "my_attribute_prefix.response.headers.X-Custom"]})}
Expand All @@ -391,13 +391,37 @@ Tenga en cuenta que los nombres de las variables deben establecerse explícitame
%{TIMESTAMP_ISO8601:containerTimestamp} %{GREEDYDATA:my_attribute_prefix:json({"noPrefix": true, "keepAttributes": ["status"]})}
```

También puedes configurar el tipo `json` [Grok](#grok-syntax) usando `:json(_CONFIG_)`:
Si se escapó su JSON, puede usar la opción `isEscaped` para poder analizarlo. Si su JSON se escapó y luego se citó, también debe hacer coincidir las comillas, como se muestra a continuación. Por ejemplo, con la siguiente expresión de Grok:

```
%{TIMESTAMP_ISO8601:containerTimestamp} "%{GREEDYDATA:my_attribute_prefix:json({"isEscaped": true})}"
```

Podría analizar el mensaje escapado:

```
2015-05-13T23:39:43.945958Z "{\"event\": \"TestRequest\", \"status\": 200, \"response\": {\"headers\": {\"X-Custom\": \"foo\"}}, \"request\": {\"headers\": {\"X-Custom\": \"bar\"}}}"
```

El log resultante es:

```
containerTimestamp: "2015-05-13T23:39:43.945958Z"
my_attribute_prefix.event: "TestRequest"
my_attribute_prefix.status: 200
my_attribute_prefix.response.headers.X-Custom: "foo"
my_attribute_prefix.request.headers.X-Custom: "bar"
```

Para configurar el tipo `json` [Grok](#grok-syntax), emplee `:json(_CONFIG_)`:

* `json({"dropOriginal": true})`: elimine el fragmento JSON que se utilizó en el análisis. Cuando se establece en `true` (valor predeterminado), la regla de análisis eliminará el fragmento JSON original. Tenga en cuenta que el atributo JSON permanecerá en el campo del mensaje.
* `json({"dropOriginal": false})`: Esto mostrará la carga útil JSON que se extrajo. Cuando se establece en `false`, la carga útil completa solo JSON se mostrará bajo un atributo denominado en `my_attribute_prefix` arriba. Tenga en cuenta que el atributo JSON permanecerá aquí en el campo de mensaje y también brindará al usuario 3 vistas diferentes de los datos JSON. Si le preocupa el almacenamiento de las tres versiones, se recomienda utilizar el valor predeterminado `true` aquí.
* `json({"depth": 62})`: Niveles de profundidad que desea analizar el valor JSON (predeterminado en 62).
* `json({"keepAttributes": ["attr1", "attr2", ..., "attrN"]})`: Especifica qué atributo se extraerá del JSON. La lista proporcionada no puede estar vacía. Si esta opción de configuración no está configurada, se extraen todos los atributos.
* `json({"dropAttributes": ["attr1", "attr2", ..., "attrN"]})`: Especifica qué atributo se eliminará del JSON. Si esta opción de configuración no está configurada, no se elimina ningún atributo.
* `json({"noPrefix": true})`: establezca esta opción en `true` para eliminar el prefijo del atributo extraído del JSON.
* `json({"isEscaped": true})`: Establezca esta opción en `true` para analizar JSON que se escapó (lo que normalmente se ve cuando JSON está encadenado, por ejemplo, `{\"key\": \"value\"}`).
</Collapser>

<Collapser
Expand Down
Loading

0 comments on commit 63bc05a

Please sign in to comment.