🔥项目在线演示地址:http://139.9.66.219:3000/
🔥11W+字,共107个文档,带你玩转austin,详情可戳:消息推送平台文档
核心功能:统一的接口发送各种类型消息,对消息生命周期全链路追踪。
意义:只要公司内部有发送消息的需求,都应该要有类似austin
的项目。消息推送平台对各类消息进行统一发送处理,这有利于对功能的收拢,以及提高业务需求开发的效率。
1、创建需要发送的渠道账号
2、创建消息模板
3、测试发送消息是否正常
4、查看消息下发情况
5、亦可在新建模板时选择定时任务,通过上传csv文件和指定cron表达式实现下发消息
austin项目强依赖MySQL
/Redis
/(大概需要2G内存),弱依赖kafka
/prometheus
/graylog
/flink
/xxl-job
/apollo
/hive
(完全部署所有的服务,大概16G内存)。如果缺少相关的组件可戳:安装相关组件教程。
实在想要
clone
项目后不用自己部署环境直接在本地启动debug
,我这提供了股东服务,直连部署好的服务器。
1、austin目前使用的MySQL版本5.7x,如果你使用的MySQL版本8.0,注意改变pom.xml
所依赖的版本以及对应的连接信息。
2、填写application.properties
中spring.datasource
对应的ip/port/username/password
信息
3、执行sql
文件夹下的austin.sql
创建对应的表
4、填写application.properties
中spring.redis
对应的ip
/port
/password
信息
5、以上配置信息都在application.properties
文件中修改。(prometheus
/graylog
/flink
/xxl-job
/apollo
/kafka
/hive
可选)
6、austin前端管理系统部署,戳GitHub或Gitee跳转至对应的仓库
7、(可选)正常使用数据管理(查看实时数据链路下发)需要将austin-stream
的jar
包上传至Flink
,根据部署文档启动Flink。在打jar
包前需要填写com.java3y.austin.stream.constants.AustinFlinkConstant
中的redis
和kafka
的ip/port
(注意:日志的topic在application.properties
中的austin.business.log.topic.name
。如果没有该topic,需要提前创建,并使用Kafka作为消息队列实现)
8、(可选)正常使用定时任务需要部署xxl-job
,根据部署文档启动xxl的调度中心,并在application.properteis
中填写 austin.xxl.job.ip
和austin.xxl.job.port
9、(可选)正常使用分布式日志采集需要部署graylog
,根据部署文档启动graylog
,并在application.properteis
中填写 austin.graylog.ip
。
10、(可选)正常使用系统监控需要部署promethus
和grafana
,根据部署文档配置grafana
图表。
11、(可选)正常使用动态配置中心需要部署apollo
,根据部署文档启动apollo
,通过docker-compose启动需要在AustinApplication注入对应的ip和port(可看注释)。
12、(可选)正常使用数据仓库需要部署hive
,根据部署文档通过flink
把数据写入到hive
中(flink
环境也要安装好),将austin-data-house
的jar
包提交到flink
执行
austin项目官方交流群已经超过了两百人,添加我的个人微信 java3yyy 添加时备注:【项目】,我空的时候会拉进项目交流群里。
🔥11W+字,共107个文档,带你玩转austin,详情可戳:消息推送平台文档