基于云计算的虚拟网络承载技术研究

时间:2022-07-06 06:10:55

基于云计算的虚拟网络承载技术研究

摘 要:分析大规模云计算资源池对承载网络带来的问题,跨机房跨域大二层网络方案的设计与实现,虚拟网络进一步演进的思路及方向。

关键词:云计算;大二层;虚拟网络

1引言

目前数据中心正在经历云计算、服务器虚拟化、光纤存储与IP交换设备整合的变革。为此数据中心交换设备也正在发生巨大变革,传统的交换设备正在被速度更快、更灵活的数据中心交换机所取代。以往的变革只是单一地依靠提高接口的吞吐能力,但现在还需要通过创造更低的延时、取消生成树以及支持新的存储协议这些改革构造更加灵活、更低成本的数据中心。未来,网络将融合为统一的交换结构,数据、计算及存储“三网合一”将是数据中心的发展方向。

2云计算对称在网络的需求分析

目前,业界一致认同未来的承载网络将是一个高智能的网络,即具有“WISE”特征的新型网络。具体来说,就是具备Wide(高速广覆盖能力)、Instant(资源快速指配能力)、Smart(接入灵活协同能力)和Ensured(质量按需保障能力)的高效、集约化网络。

从狭义上看,支持云计算的智能承载网络可以通过对现有网络进行改造和升级,引入智能性,使之适应云计算各类应用和业务的承载需求;

从广义上看,支持云计算的智能承载网络可以利用云计算的概念和技术(如分布化、虚拟化),在现网基础上形成可持续演进的、具有高度智能性的网络。

3大二层网络设计

在云计算环境下,通常以资源池的方式来构建计算、网络、存储基础设施资源池,资源池内需要支持服务器/虚拟机的集群与迁移(VMotion)[1],这就要求提供二层网络环境来保证业务的连续性与接入的一致性。传统的三层架构实现大二层VLAN互通部署较复杂,不利用网络的运维与管理。而二层扁平化架构可以很容易地实现大二层互通,相比三层架构,二层架构可以大大简化网络的运维与管理。云计算网络设计采用二层平化架构,满足扩展性的同时,实现易管理。方案的整体拓扑如下图所示:

图3-1大二层网络组网图

核心―服务器接入二层扁平化架构,采用增强二层无环网络技术构建服务器资源池网络,消除二层网络环路,保证虚拟机可以在资源池内任意物理机上进行迁移和集群;

核心交换、服务器接入设备部署N:1虚拟化技术进行横向整合,简化网络运维管理。同时采用跨设备链路捆绑实现多链路的双活负载分担;

若需要实现多数据中心的二层网络扩展,实现跨数据中心的资源调度。可通过裸纤、波分复用DWDM或VPLS方式互连;

防火墙(FW)和负载均衡(LB)设备也采用资源池的方式构建,旁挂在核心交换设备,并采用1:N虚拟化方式对资源进行纵向切割,新的租户上线时,直接从FW和LB资源池中分配虚拟墙(vFW)和虚拟负载均衡(vLB)设备给租户进行业务部署。

随着基于云的应用越来越广乏,致云计算数据中心规模越来越大,虚拟机跨局集群部署和迁移的需求越来越大,虚拟机的在线迁移需要在一个二层网络环境下完成,这就需要二层网络越来越大,而二层网络就必然涉及到二层环路问题,传统的二层网络通过STP去解决环路带来的广播风暴,通过VRRP来实现网关设备的冗余热备。在这种STP+VRRP部署模式下,会存在如下几个方面的局限性,这些问题随着二层网络的不断扩大将会突显严重:①链路带宽利用率低;②故障收敛时间长;③运维管理复杂。

解决上述问题的根本方法是放弃二层网络的生成树模型,采用全新的二层网络技术,使所有端口都处于转发状态,实现端到端具有多条二层转发路径,同时简化网络的运维管理。当前,已有比较成熟增强二层网络技术,可以构建无STP大规模二层网络。

4多结点之间二层互联架构设计

网络分成三种网络:DWDM/裸光纤直连、MPLS VPN互联和三层IP网络互联。

三层互联。也称为数据中心前端网络互联,所谓“前端网络”是指数据中心面向企业园区网或企业广域网的出口。不同数据中心(主中心、灾备中心)的前端网络通过IP技术实现互联,园区或分支的客户端通过前端网络访问各数据中心。当主数据中心发生灾难时,前端网络将实现快速收敛,客户端通过访问灾备中心以保障业务连续性。

二层互联。也称为数据中心服务器网络互联(以下简称DCI)。在不同的数据中心服务器网络接入层,构建一个跨数据中心的大二层网络(VLAN),以满足服务器集群或虚拟机动态迁移等场景对二层网络接入的需求。

SAN互联。也称为后端存储网络互联。借助传输技术(DWDM、SDH等)实现主中心和灾备中心间磁盘阵列的数据复制。

用户选择数据中心二层互联的前提要素是明确用户在多个数据中心之间具有哪些网络资源。

下文对二层互联的两节点和多节点机构进行分析。

主、备中心的汇聚层都支持虚拟化,双中心汇聚间可实现跨设备链路聚合;

这种方案不需要建立专门的DCI互联设备;

双中心间裸光线/DWDM直连;

两中心的汇聚与接入设备上启用STP,防止环路出现。面向互联的端口关闭STP;

两中心汇聚上配置 VRRP,一边是MASTER,另一边是SLAVER;

测试重点:故障(链路、结点)收敛时间,不考虑DCI间链路全部中断的情况。

裸光纤或DWDM传输资源,该方案成本较低,技术成熟,适合两SITE之间互联,缺乏扩展能力与灵活性。

多结点大二层互联如下图所示。

图4-1多结点大二层互联

构建一个同时连接四中心汇聚层的互联节点,该节点由两台支持如IRF协议的物理交换机构成。出于高可用性的考虑,这两台物理交换机应部署在不同的数据中心内(A中心和B中心)。

互联节点与各中心的汇聚层采用双链路捆绑互联。在逻辑结构上,四中心与互联节点构成了一个Hub-Spoke的星形拓扑,其中互联节点为HUB,各中心汇聚层为Spoke。

VPLS[3]是在传统MPLS VLL方案的基础上发展而成,通过双层标签实现报文转发控制。VPLS可实现点到多点二层互联方案。利用VPLS技术可在MPLS网络上为多个数据中心间模拟了一个以太网交换机,基于MAC地址或者MAC地址加VLAN标识来做出二层端口间的转发决策。一个实现多数据中心二层互联的VPLS实例包括连接到多个PE的多个数据中心,数据中心CE设备(汇聚交换机)直接跟所有与该VPLS实例关联的其它CE(汇聚交换机)通信。在VLL和VPLS方案中心,将PE间建立的两条单向转发路径称之为一条虚链路。

该方案成本较低,技术成熟,但是对骨干网络的要求较高。

5云计算资源池承载网络演进

考虑到未来根据业务发展需要,网络核心将可能由目前的4核心升级到8个核心甚至16核心,需要考虑如何构建1个以16核心设备的网络扩展方案;所以需要考虑各个机房设备未来支持标准的SPBM或Trill协议进行扩展[4]。

未来基于标准的Trill[3]或SPBM协议是一个灵活的L2MP协议,可灵活的扩展二层网络,可将一个二层网络规模扩大至少为500个二层网络设备节点规模。

考虑到未来业务发展需要,接入机房节点数量将会不断的增长,而各个数据中心之间如全部采用DWDM方式互连将消耗大量的光纤资源,为节省传输资源可考虑各个边缘接入机房通过VPLS方式与核心机房之间互通,同时考虑到未来业务发展情况可建议未来将现有网络设备兼做的DCI互连设备进行独立,将DCI设备与数据中心核心汇聚设备进行独立提升;建议未来建设独立的DCI承载网用于承载业务私有云数据中心和城域网范围内各种大客户业务、IT支撑云和各种公有IDC云的网络承载。该DCI承载网可重新建设一张独立承载网也可通过现有网络承载,但通过现有网络承载需要建设全新的DCI PE设备以支持丰富的二层特性满足各类云计算数据中心对二层网络的需求。

6结束语

本文以云计算资源池为背景,分析了大规模云计算资源池对承载网络带来的问题,讨论了以DWDM/裸光纤直连为主,结合VPLS方式的跨机房跨域大二层网络方案的设计与实现。最后,给出了云计算资源池虚拟网络进一步演进的思路及方向。

参考文献:

[1]IEEE Std. 802.1Q-2011, Media Access Control (MAC) Bridges and Virtual Bridge Local Area Networks. ISBN 978-0-7381-6708-4.

[2]IETF Transparent Interconnection of Lots of Links (TRILL)

[3]An improved shortest path bridging protocol for Ethernet backbone network. IEEE Xplore. March 3, 2011. doi:10.1109/ICOIN.2011.5723169. ISBN 978-1-61284-661-3. ISSN 1976-7684. http:///xpl/freeabs_all.jsp?arnumber=5723169. Retrieved 11 Sept 2011.

[4]《IP领航》2012年第6期,H3C

上一篇:浅谈英语精读课的教学改革 下一篇:浅谈企业文化在煤矿发展中的积极作用