TupleNet 是基于OVS提供网络虚拟化的系统,它利用Geneve tunnel技术在物理网络上建立虚拟网络。 使用TupleNet可以非常简便地建立一个高效灵活的虚拟网络。
TupleNet is a system was built base on OVS, it leverages Geneve tunneling to construct virtual networking on physical networking. Anyone can use TupleNet to run an efficient and agile virtual networking easily.
TupleNet和Flannel,Calico类似采用的基于数据库的架构方式。TupleNet中控模块由ETCD来担当,而TupleNet运行在每个compute-node节点,用于在该节点调用ovs来建立和提供虚拟网络。
Like Flannel and Calico the architecture of Tuplenet is base on Database. Etcd play a role of brain, and each compute-node has a TupleNet instance which utilizes OVS to construct virtual networking.
+-----------------+
| ETCD |
| |
+-----------------+
|
+---------------------------+
| Control-path |
+----------+ +----------+
| | | | +-------------+
+-----+ | | | +--+ Container |
| VM +--+ TupleNet | | TupleNet | +-------------+
+-----+ | | | | |
| +----------+ +----------+ |
| | OVS | | OVS | |
| +----------+ +----------+ |
| | Phy-network | |
| +----------------------------+ |
+------------------------------------------------------+
Virtual-network
TupleNet 是stateless的,它没有中控节点,TupleNet相互之间只需要通过etcd就可以相互构建完整的虚拟网络。其中TupleNet的重要节点(Edge TupleNet)是可以多套部署,所以在TupleNet的网络中是可以避免单点故障。TupleNet实现了CNI,和CNM接口,可以直接为k8s和docker的容器集群提供虚拟网络。
在TupleNet网络中可能存在某个Edge节点不能和某些节点进行通信,开启了redirecting功能后Edge TupleNet节点发现和报文接收方之间存在网络问题(普通TupleNet节点和Edge TupleNet节点通过BFD进行健康探测)后可以将数据报文先转发到其他Edge节点,让这个Edge节点帮助转发数据报文。Redirecting可以减少网络故障带来的影响。
TupleNet 的所有ovs-flow都是在本地生成,不需要一个额外的controller来发送OpenFlow。Ovs-flow生成的方式可以选择是否on-demand方式生成(默认是ondemand方式生成ovs-flow),采用on-demand方式可以大大减少生成不必要的ovs-flow。由于采用on-demand后ovs-flow的生成总是要迟于数据流,当ovs-flow没有被及时生成时候TupleNet会将数据报文转发到特定节点帮忙转发,从而解决因为实时计算ovs-flow带来的网络数据报文延迟问题。
4. TupleNet使用ovs的BFD与Edge TupleNet节点进行健康探测,实时获知Edge节点存活状态,屏蔽单点故障。并且TupleNet支持ECMP,可以充分利用所有Edge节点的带宽,解决单个Edge性能瓶颈问题
虚拟网络里面的数据报文如果要和外部网络通信必须经过Edge节点,TupleNet支持同时部署和使用多台Edge TupleNet节点。普通的TupleNet节点通过ECMP方式可以将数据报文分发给不同的Edge节点,避免Edge节点成为物理网络和虚拟网络之间的瓶颈。 普通的TupleNet节点和Edge TupleNet节点使用BFD不间断进行健康探测,当普通的TupleNet节点发现某个Edge节点异常后可以自动切换,将发送数据报文给健康的Edge节点。
在实际网络中很可能会出现某个网络链路出现问题,或者人为导致TupleNet配置错误,这些情况都会导致在虚拟网络中出现网路不可达。TupleNet提供了Packet tracing功能,可以通过pkt-trace工具从指定logical port发送被标记好的报文,报文所经过的TupleNet节点和虚拟网络中的虚拟节点(logical switch,logical router,logical port)都会被完整记录下来。这些信息可以帮助运维人员快速定位故障。
在物理网络上架设TupleNet虚拟网络后,虚拟网络的节点需要和外界物理网络通信时候可以采用overlay & non-overlay 混杂传递报文(从TupleNet node到外部物理网络的报文不经过Geneve封装,直接传递给宿主机协议栈,由宿主机协议栈发送出去,避免解封报文带来的性能损耗。从物理网络到虚拟网络节点的报文仍然经过Edge节点转发)。可以大大提升overlay 虚拟网络的性能,以及减轻Edge节点压力。
- 分布式虚拟 Switch (distributed virtual switch)
- 分布式或集中虚拟 Router (distributed virtual router)
- Active-Active Edge(虚拟网络与外部网络交互Gateway)
- Overlay & non-Overlay 混杂快速报文传递
- Arp Proxy
- ECMP to Edge(Gateway),BFD探测Edge,自动切换
- Router 设置静态路由规则 (static routes)
- Redirect,支持使用其他host帮助转发数据报文 (Redircte: other tuplenet node can help deliver traffic )
- Pkt-tracing,支持发送“染色”探测报文,并分析出所经过的整条链路 (it send out packet which can be traced and print the whole path)
- SNAT,DNAT, floating-ip
- HostSwitch IPFIX
- CNI for K8S, CNM for Docker
很快将会支持的特性 (Feature coming soon)
-
- [ ]LoadBalance
-
- [ ]ACL
-
- [ ]Mirroring
- TupleNet的设计目标是尽量用最简单的方式建立一个支持2000物理节点,20000 虚拟节点的中型网络。所以整个TupleNet代码架构非常精简,其主要使用PyDatalog来根据目前的网络拓扑动态实时生成ovs-flow。 *TupleNet was designed to support a system which contains 500 physical node and 5000 virtual node at most. Therefore we simplify whole architecture and code in TupleNet to make it easy to be upgraded and understand. TupleNet consume pyDatalog to generate ovs-flows in run-time *
- 同时TupleNet支持preprogrammed,ondemanded两种方式来生成ovs-flow,并支持将ondemand节点的packet offload给preprogrammed节点转发。 TupleNet has two ways(on-demand and preprogrammed) to generate ovs-flow. Besides of that, tuplenet(on-demaned node ) can deliver traffic to other host to help forwarding
- 为了更好支持特性的添加,TupleNet目前只支持使用Geneve Tunnel进行网络虚拟化. TupleNet only support Geneve tunneling due to adding new feature easily
- Want more details?
TupleNet目前主要由三种语言编写,分别是
- Python TupleNet的所有主要逻辑
- C 编写的pkt_controller用于和ovs,tuplenet交互
- Golang TupleNet的tpctl,tpcnm
TupleNet的主要逻辑都是由Python构建,只需要编译pkt_controller以及tpctl(用于将配置虚拟网络写入ETCD)和tpcnm(TupleNet虚拟网络的docker cnm接口实现)
- on master-host:
- install ETCD
- config ETCD start ETCD cluster
- on compute-host:
- install openvswitch(please install ovs which version above 2.10.0)
- pip install tuplenet-xxx.whl(generate whl by running python setup.py bdist_wheel in TupleNet folder)
- config & run tuplenet and enjoy it. For detail guide document, please visit tutorials