Skip to content

Latest commit

 

History

History
195 lines (150 loc) · 11.7 KB

README_CN.md

File metadata and controls

195 lines (150 loc) · 11.7 KB

Apache Linkis

Linkis 构建了一层计算中间件,方便上层应用与底层数据引擎之间的连接、治理和编排

https://linkis.apache.org/

EN docs 简体中文文档

github forks github stars github contributors



English | 中文

介绍

Linkis 在上层应用程序和底层引擎之间构建了一层计算中间件。通过使用 Linkis 提供的 REST/WebSocket/JDBC 等标准接口, 上层应用可以方便地连接访问 MySQL/Spark/Hive/Presto/Flink 等底层引擎,同时实现变量、脚本、函数和资源文件等用户资源的跨上层应用互通。
作为计算中间件,Linkis 提供了强大的连通、复用、编排、扩展和治理管控能力。通过计算中间件将应用层和引擎层解耦,简化了复杂的网络调用关系, 降低了整体复杂度,同时节约了整体开发和维护成本。
Linkis 自 2019 年开源发布以来,已累计积累了 700 多家试验企业和 1000+沙盒试验用户,涉及金融、电信、制造、互联网等多个行业。 许多公司已经将 Linkis 作为大数据平台底层计算存储引擎的统一入口,和计算请求/任务的治理管控利器。

没有 Linkis 之前

有了 Linkis 之后

核心特点

  • 丰富的底层计算存储引擎支持
    • 目前支持的计算存储引擎 Spark、Hive、Flink、Python、Pipeline、Sqoop、openLooKeng、Presto、ElasticSearch、JDBC 和 Shell 等
    • 正在支持中的计算存储引擎 Trino(计划 1.3.1)、SeaTunnel(计划 1.3.1) 等
    • 支持的脚本语言 SparkSQL、HiveQL、Python、Shell、Pyspark、R、Scala 和 JDBC 等
  • 强大的计算治理能力 基于 Orchestrator、Label Manager 和定制的 Spring Cloud Gateway 等服务,Linkis 能够提供基于多级标签的跨集群/跨 IDC 细粒度路由、负载均衡、多租户、流量控制、资源控制和编排策略 (如双活、主备等) 支持能力
  • 全栈计算存储引擎架构支持 能够接收、执行和管理针对各种计算存储引擎的任务和请求,包括离线批量任务、交互式查询任务、实时流式任务和存储型任务
  • 资源管理能力 ResourceManager 不仅具备对 Yarn 和 Linkis EngineManager 的资源管理能力,还将提供基于标签的多级资源分配和回收能力,让 ResourceManager 具备跨集群、跨计算资源类型的强大资源管理能力
  • 统一上下文服务 为每个计算任务生成 context id,跨用户、系统、计算引擎的关联管理用户和系统资源文件(JAR、ZIP、Properties 等),结果集,参数变量,函数等,一处设置,处处自动引用
  • 统一物料 系统和用户级物料管理,可分享和流转,跨用户、系统共享物料
  • 统一数据源管理 提供了 hive、es、mysql、kafka 类型数据源的增删查改、版本控制、连接测试等功能
  • 数据源对应的元数据查询 提供了 hive、es、mysql、kafka 元数据的数据库、表、分区查询

支持的引擎类型

引擎名 支持底层组件版本
(默认依赖版本)
Linkis 版本要求 是否默认包含在发布包中 说明
Spark Apache 2.0.0~2.4.7,
CDH >= 5.4.0,
(默认 Apache Spark 2.4.3)
>=1.0.3 Spark EngineConn, 支持 SQL, Scala, Pyspark 和 R 代码
Hive Apache >= 1.0.0,
CDH >= 5.4.0,
(默认 Apache Hive 2.3.3)
>=1.0.3 Hive EngineConn, 支持 HiveQL 代码
Python Python >= 2.6,
(默认 Python2*)
>=1.0.3 Python EngineConn, 支持 python 代码
Shell Bash >= 2.0 >=1.0.3 Shell EngineConn, 支持 Bash shell 代码
JDBC MySQL >= 5.0, Hive >=1.2.1,
(默认 Hive-jdbc 2.3.4)
>=1.0.3 JDBC EngineConn, 已支持 MySQL 和 HiveQL,可快速扩展支持其他有 JDBC Driver 包的引擎, 如 Oracle
Flink Flink >= 1.12.2,
(默认 Apache Flink 1.12.2)
>=1.0.3 Flink EngineConn, 支持 FlinkSQL 代码,也支持以 Flink Jar 形式启动一个新的 Yarn 应用程序
Pipeline - >=1.0.3 Pipeline EngineConn, 支持文件的导入和导出
openLooKeng openLooKeng >= 1.5.0,
(默认 openLookEng 1.5.0)
>=1.1.1 openLooKeng EngineConn, 支持用 Sql 查询数据虚拟化引擎 openLooKeng
Sqoop Sqoop >= 1.4.6,
(默认 Apache Sqoop 1.4.6)
>=1.1.2 Sqoop EngineConn, 支持 数据迁移工具 Sqoop 引擎
Presto Presto >= 0.180,
(默认 Presto 0.234)
>=1.2.0 Presto EngineConn, 支持 Presto SQL 代码
ElasticSearch ElasticSearch >=6.0,
((默认 ElasticSearch 7.6.2)
>=1.2.0 ElasticSearch EngineConn, 支持 SQL 和 DSL 代码
Impala Impala >= 3.2.0, CDH >=6.3.0 ongoing - Impala EngineConn,支持 Impala SQL 代码
MLSQL MLSQL >=1.1.0 ongoing - MLSQL EngineConn, 支持 MLSQL 代码.
Hadoop Apache >=2.6.0,
CDH >=5.4.0
ongoing - Hadoop EngineConn, 支持 Hadoop MR/YARN application
TiSpark 1.1 ongoing - TiSpark EngineConn, 支持用 SparkSQL 查询 TiDB

下载

请前往Linkis Releases 页面 下载 Linkis 的已编译版本或源码包。

编译和安装部署

更详细的步骤参见:

## 后端编译
注意:如果使用 -Dlinkis.build.web=true 来构建web镜像,需要首先执行 管理台 linkis-web 的编译

### Mac OS/Linux 系统
# 1. 首次编译,请执行如下命令
./mvnw -N install
# 2. 构建 Linkis 部署包
# - 选项 1: 仅构建 Linkis 服务部署包
./mvnw clean install -Dmaven.javadoc.skip=true -Dmaven.test.skip=true
# - 选项 2: 构建 Linkis 服务部署包和 Docker 镜像
#   - 选项 2.1: 构建的镜像中不包含 mysql jdbc 包
./mvnw clean install -Pdocker -Dmaven.javadoc.skip=true -Dmaven.test.skip=true
#   - 选项 2.2: 构建的镜像中包含 mysql jdbc 包
./mvnw clean install -Pdocker -Dmaven.javadoc.skip=true -Dmaven.test.skip=true -Dlinkis.build.with.jdbc=true
# - 选项 3: 构建 Linkis 服务部署包和 Docker 镜像(包括 Web 控制台)
./mvnw clean install -Pdocker -Dmaven.javadoc.skip=true -Dmaven.test.skip=true -Dlinkis.build.web=true
# - 选项 4: 仅构建 Linkis 服务部署包和 Docker 镜像(包括 Web 控制台和 LDH 镜像,LDH 镜像包换了多个预先配置和部署好的 Hadoop 组件,主要面向测试用途)
./mvnw clean install -Pdocker -Dmaven.javadoc.skip=true -Dmaven.test.skip=true -Dlinkis.build.web=true -Dlinkis.build.ldh=true -Dlinkis.build.with.jdbc=true

### Windows 系统
mvnw.cmd -N install
mvnw.cmd clean install -Dmaven.javadoc.skip=true -Dmaven.test.skip=true


## 管理台编译
cd linkis/linkis-web
npm install
npm run build

集成 MySQL JDBC 驱动

由于MySQL的许可协议限制,官方发布的 Linkis 镜像没有集成 MySQL JDBC 驱动。 然而,在现阶段,Linkis 仍然依赖这个库才能正常运行。 为了解决这个问题, 我们提供了一个脚本,它可以帮助你快速的基于官方的 Linkis 镜像创建一个集成了MySQL JDBC 的自定义镜像。 这个工具创建的镜像默认的名称是 linkis:with-jdbc

$> LINKIS_IMAGE=linkis:1.3.1 
$> ./linkis-dist/docker/scripts/make-linikis-image-with-mysql-jdbc.sh

请参考快速安装部署 来部署 Linkis

示例和使用指引

文档&视频

架构概要

Linkis 基于微服务架构开发,其服务可以分为 3 类:计算治理服务、公共增强服务和微服务治理服务。

  • 计算治理服务,支持计算任务/请求处理流程的 3 个主要阶段:提交-> 准备-> 执行
  • 公共增强服务,包括上下文服务、物料管理服务及数据源服务等
  • 微服务治理服务,包括定制化的 Spring Cloud Gateway、Eureka、Open Feign

下面是 Linkis 的架构概要图. 更多详细架构文档请见 Linkis-Doc/Architecture. architecture

贡献

我们非常欢迎和期待更多的贡献者参与共建 Linkis, 不论是代码、文档,或是其他能够帮助到社区的贡献形式。
代码和文档相关的贡献请参照贡献指引.

联系我们

  • 对 Linkis 的任何问题和建议,可以提交 issue,以便跟踪处理和经验沉淀共享
  • 通过邮件方式 dev@linkis.apache.org
  • 可以扫描下面的二维码,加入我们的微信群,以获得更快速的响应

wechatgroup

谁在使用 Linkis

我们创建了一个 issue [Who is Using Linkis] 以便用户反馈和记录谁在使用 Linkis.
Linkis 自 2019 年开源发布以来,累计已有 700 多家试验企业和 1000+沙盒试验用户,涉及金融、电信、制造、互联网等多个行业。