Skip to content

Latest commit

 

History

History
90 lines (69 loc) · 2.35 KB

prometheus.md

File metadata and controls

90 lines (69 loc) · 2.35 KB

Prometheus

写入数据

配置

我们使用 Prometheus node_exporter 作为收集数据的示例。 首先创建一个名为 prometheus.yml 的文件,将以下配置复制到其中。

global:
  scrape_interval: 10s # The default is every 1 minute.
  evaluation_interval: 10s # The default is every 1 minute.
  # scrape_timeout is set to the global default (10s).

scrape_configs:
  # The job name is added as a label `job=<job_name>` to any timeseries scraped from this config.
  - job_name: "node"
    static_configs:
      - targets: ["node_exporter:9100"]

remote_write:
  - url: http://greptimedb:4000/v1/prometheus/write?db=public

配置中将 remote_write 的 URL 设置为 GreptimeDB 的 URL,并将收集指标的间隔设置为 10 秒。URL 中的 greptimedb 是 Docker 网络中 GreptimeDB 的服务名。

启动服务

我们使用 Docker Compose 启动 GreptimeDB、Prometheues、node_exporter 和 Grafana。首先创建一个名为 docker-compose.yml 的文件,将以下内容复制到其中:

services:
  grafana:
    image: grafana/grafana-oss:9.5.15
    container_name: grafana
    ports:
      - 3000:3000

  greptime:
    image: greptime/greptimedb:latest
    container_name: greptimedb
    ports:
      - 4000:4000
      - 4001:4001
      - 4002:4002
      - 4003:4003
      - 4004:4004
      - 4242:4242
    command: "standalone start --http-addr 0.0.0.0:4000 --rpc-addr 0.0.0.0:4001 --mysql-addr 0.0.0.0:4002 --postgres-addr 0.0.0.0:4003 --opentsdb-addr 0.0.0.0:4242"
    volumes:
      - ./greptimedb:/tmp/greptimedb

  prometheus:
    image: prom/prometheus:latest
    container_name: prometheus
    depends_on:
      - node_exporter
    ports:
      - 9090:9090
    volumes:
      - ./prometheus.yml:/etc/prometheus/prometheus.yml:ro

  node_exporter:
    image: quay.io/prometheus/node-exporter:latest
    container_name: node_exporter_local
    ports:
      - 9100:9100
    command:
      - '--path.rootfs=/'

networks: {}

然后执行以下命令:

docker-compose up

当所有服务成功启动后,主机指标将被收集并发送到 GreptimeDB。

使用 Grafana 可视化数据

下一步