Skip to content

Latest commit

 

History

History
66 lines (40 loc) · 1.51 KB

使用Spark-SQL-构建流式处理程序.md

File metadata and controls

66 lines (40 loc) · 1.51 KB

StreamingPro目前已经涵盖流式/批处理,以及交互查询三个领域,实现配置和SQL化

前言

今天介绍利用 StreamingPro 构建流式(Spark Streaming)计算程序

准备工作

  • 下载StreamingPro

README中有下载地址

我们假设您将文件放在了/tmp目录下。

填写配置文件

  • 实例一,Nginx日志解析后存储到ES

gist

  • 测试样例, 模拟数据,并且单机跑起来

gist

假设你使用的是第二个配置文件,名字叫做test.json,并且放在了/tmp目录下。

启动StreamingPro

Local模式:

cd  $SPARK_HOME

./bin/spark-submit   --class streaming.core.StreamingApp \
--master local[2] \
--name test \
/tmp/streamingpro-0.2.1-SNAPSHOT-dev-1.6.1.jar    \
-streaming.name test    \
-streaming.job.file.path file:///tmp/test.json

访问

http://127.0.0.1:4040

可进入Spark UI

集群模式:

cd  $SPARK_HOME

./bin/spark-submit   --class streaming.core.StreamingApp \
--master yarn-cluster \
--name test \
/tmp/streamingpro-0.2.1-SNAPSHOT-dev-1.6.1.jar    \
-streaming.name test    \
-streaming.job.file.path hdfs://cluster/tmp/test.json

这里需要注意的是,配置文件并蓄放到HDFS上,并且需要带上hdfs前缀。这是一个标准的Spark 批流式处理程序