我们使用 Prometheus node_exporter 作为收集数据的示例。
首先创建一个名为 prometheus.yml
的文件,将以下配置复制到其中。
global:
scrape_interval: 10s # The default is every 1 minute.
evaluation_interval: 10s # The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
scrape_configs:
# The job name is added as a label `job=<job_name>` to any timeseries scraped from this config.
- job_name: "node"
static_configs:
- targets: ["node_exporter:9100"]
remote_write:
- url: http://greptimedb:4000/v1/prometheus/write?db=public
配置中将 remote_write
的 URL 设置为 GreptimeDB 的 URL,并将收集指标的间隔设置为 10 秒。URL 中的 greptimedb
是 Docker 网络中 GreptimeDB 的服务名。
我们使用 Docker Compose 启动 GreptimeDB、Prometheues、node_exporter 和 Grafana。首先创建一个名为 docker-compose.yml
的文件,将以下内容复制到其中:
services:
grafana:
image: grafana/grafana-oss:9.5.15
container_name: grafana
ports:
- 3000:3000
greptime:
image: greptime/greptimedb:latest
container_name: greptimedb
ports:
- 4000:4000
- 4001:4001
- 4002:4002
- 4003:4003
- 4004:4004
- 4242:4242
command: "standalone start --http-addr 0.0.0.0:4000 --rpc-addr 0.0.0.0:4001 --mysql-addr 0.0.0.0:4002 --postgres-addr 0.0.0.0:4003 --opentsdb-addr 0.0.0.0:4242"
volumes:
- ./greptimedb:/tmp/greptimedb
prometheus:
image: prom/prometheus:latest
container_name: prometheus
depends_on:
- node_exporter
ports:
- 9090:9090
volumes:
- ./prometheus.yml:/etc/prometheus/prometheus.yml:ro
node_exporter:
image: quay.io/prometheus/node-exporter:latest
container_name: node_exporter_local
ports:
- 9100:9100
command:
- '--path.rootfs=/'
networks: {}
然后执行以下命令:
docker-compose up
当所有服务成功启动后,主机指标将被收集并发送到 GreptimeDB。