WatchStor.com — 领先的中文存储网络媒体 | 51CTO旗下网站

新闻资讯 > 云存储 > 正文
云计算数据中心网络技术全面剖析(图)(71)
作者: Roy 2011-07-24 18:31 【弯曲评论】

5.6.4 小结

数据中心内部的服务器互访技术介绍到这里就告一段落了,无论是前面的服务器跨接入层互访还是后面的跨核心层互访模型,都对网络虚拟化提出了严峻的要求。可以说在后面的云计算数据中心建设中,非虚拟化的网络将很快的被挤出市场舞台。未来10年的大型数据中心网络是属于网络虚拟化的,从技术层面,目前只能看到一个独领风骚的前行者。

PS:声明一下,作者不是唯Cisco派的,是唯技术派的。

5.7 数据中心跨站点二层网络

本章节重点技术名词:RPR/ VLL/VPLS/A-VPLS/GRE/L2TPv3/OTV

前面说了,数据中心跨站点二层网络的需求来源主要是集中云时的多站点服务器集群计算和分散云时的虚拟机vMotion迁移变更。搭建二层网络时,依据中间网络的承载方式不同,主要分为光纤直连、MPLS核心和IP核心三类。这里的多站点一般指3个及3个以上,只搞两个站点的云计算喊出去会比较掉价。

5.7.1 光纤直连

两个站点就不多说了,直接在两个站点的核心或汇聚设备之间拉两根光纤就OK了,也用不到什么特别的技术。唯一需要注意的是在两个站点之间的链路上做些报文控制,对广播和STP等报文限制一下发送速率和发送范围,避免一个站点的广播风暴或拓扑收敛影响到其他站点的转发。

当站点较多时,理论上有两种结构可用:

星形结构:专门找几台设备作为交换核心,所有站点都通过光纤直连到此组交换核心设备上,缺点是可靠性较低,核心挂掉就都连不通了,而且交换核心放置的位置也不易规划。这种结构不是值得推荐的模型。

环形结构:推荐模型,尤其在云计算这种多站点等同地位互联的大型数据中心组网下,环形结构既省设备省钱,又能提供故障保护,以后肯定会成为建设趋势。

 

从技术上讲星形拓扑不需要额外的二层互联技术,只部署一些报文过滤即可,可以通过链路捆绑增强站点到核心间链路故障保护和链路带宽扩展。而环形拓扑必须增加专门的协议用于防止环路风暴,同样可以部署链路捆绑以增加带宽冗余。

环形拓扑的公共标准控制协议主要是STP和RPR(Resilient Packet Ring IEEE802.17),STP的缺点前面说了很多,RPR更适合数据中心多站点连接的环形拓扑。另外很多厂商开发了私有协议用于环路拓扑的控制,如EAPS(Ethernet Automatic Protection Switching,IETF RFC 3619,Extreme Networks),RRPP(Rapid Ring Protection Protocol,H3C),MRP(Metro Ring Protocol,Foundry Networks),MMRP(Multi Mater Ring Protocol,Hitachi Cable),ERP(Ethernet Ring Protection,Siemens AG)等。

这里简单介绍一下RPR。从控制平面看,环路拓扑组网相对简单,控制协议交互规则制定也比较前面的TRILL/SPB更加简化,了解了全网各节点位置后,确定内外环两条通路即可。在数据平面上,RPR通过MACinMAC方式在环上封装外层节点MAC信息方式确认已知单播传递节点对象,非目标节点会将数据报文直接转给环上的下一跳,只有当目标节点收到此报文后根据外层目的MAC信息确认本地为终点,将报文下环转发。环上每个节点都会对未知单播/组播/广播报文着做下环复制和逐跳转发处理,直到转了一圈后,源节点再次收到此报文丢弃终止转发。

由于RPR在环路传输数据报文封装时增加了1个Byte的基本环控制和1个Byte的扩展环控制用于环路信息识别,因此也必须使用专用硬件处理环路接口的报文收发封装工作。RPR虽然很早就确立了标准内容,但由于其初始应用针对运营商城域以太网,且只能支持环路拓扑,因此各个厂商并没有花太大力气去开发产品进行支撑推广,当前使用不多。

就作者看来,未来几年的云计算数据中心建设时,除非在所有站点采用相同厂家的设备还有可能使用一些私有协议组环(可能性比较低),前文提到预测会以站点为单位选择不同厂家进行建设,这时就需要公共标准用于多站点互联了。在光纤直连方式下成熟技术中最好的选择就是RPR,但如果TRILL能够将多拓扑这块内容定义好,未来是能够将其取而代之的。


【内容导航】
 第 1 页:云计算  第 2 页:集中云
 第 3 页:分散云  第 4 页:Bare-Metal方案
 第 5 页:vMotion  第 6 页:云计算小结
 第 7 页:Client与Server  第 8 页:层次化与扁平化
 第 9 页:三层结构与两层结构  第 10 页:Server与Storage
 第 11 页:数据中心多站点  第 12 页:多站点选择
 第 13 页:网络技术  第 14 页:EOR与TOR
 第 15 页:控制平面与转发平面  第 16 页:48GE+4*10GE交换机设计
 第 17 页:Switch Fabric  第 18 页:Chassis与分布式转发
 第 19 页:Chassis转发能力  第 20 页:框式交换机架构
 第 21 页:H3C的12500  第 22 页:Clos与VOQ
 第 23 页:Virtual Output Queues  第 24 页:网络小结
 第 25 页:技术结构  第 26 页:网络虚拟化
 第 27 页:数据平面虚拟化  第 28 页:网络一虚多技术
 第 29 页:技术理解  第 30 页:VM本地互访网络技术
 第 31 页:Cisco Nexus1000V  第 32 页:Nexus5000+Nexus2000
 第 33 页:VN-Tag格式与封装位置  第 34 页:Unified Computing System
 第 35 页:UCS系统结构  第 36 页:UCS VN-Link
 第 37 页:802.1Qbg EVB  第 38 页:802.1Qbh接口扩展
 第 39 页:Multichannel  第 40 页:Multichannel转发过程
 第 41 页:Multichannel对比VN-Tag  第 42 页:Remote Replication复制
 第 43 页:S-VLAN组件本地复制  第 44 页:802.1Qbh和802.1Qbg
 第 45 页:Ethernet与FC网络融合技术  第 46 页:FC网络三种主要接口
 第 47 页:FC IVR Zone 概念  第 48 页:FC设备进行两步注册
 第 49 页:FCoE技术详解  第 50 页:FCoE初始化连接
 第 51 页:Fibre Channel Forwarder  第 52 页:FCF拥有自己的MAC
 第 53 页:802.1Q DCB  第 54 页:FCoE网卡CNA
 第 55 页:NPort ID Virtualization  第 56 页:NPV与服务器之间的网络
 第 57 页:FCoE、FCF与NPV  第 58 页:跨核心层服务器二层互访
 第 59 页:控制平面多虚一技术  第 60 页:Cisco VSS三种故障检测方式
 第 61 页:virtual Port-Channel  第 62 页:数据平面多虚一技术
 第 63 页:FabricPath技术  第 64 页:Forwarding TAG技术
 第 65 页:P802.1aq SPB  第 66 页:SPB网络定义软件算法
 第 67 页:Juniper QFabric网络技术  第 68 页:云计算数据中心未来
 第 69 页:控制平面一虚多技术  第 70 页:VLAN和VPN一虚多技术
 第 71 页:数据中心跨站点二层网络  第 72 页:MPLS核心网
 第 73 页:Virtual Private Lan Service  第 74 页:Advanced VPLS技术
 第 75 页:IP核心网  第 76 页:Cisco OTV私有技术
 第 77 页:OTV技术的机制处理  第 78 页:站点ED双机冗余
 第 79 页:HSRP隔离  第 80 页:数据中心跨站点二层互联
 第 81 页:数据中心多站点选择  第 82 页:全局负载均衡技术
 第 83 页:LISP IPinIP协议  第 84 页:LISP的技术结构
 第 85 页:LISP中各角色之间的连接  第 86 页:数据中心多站点选路
 第 87 页:如何切换EID对应的Locator IP  第 88 页:技术总结

标签:云存储 机房 公有云 

了不起的IT经理
LecVideo
论坛与活动