传统数据中心网络架构(数据中心网络架构解决方案)

网络设计 340
今天给各位分享传统数据中心网络架构的知识,其中也会对数据中心网络架构解决方案进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!本文目录一览: 1、给你10个路由器或交换机,你如何配置?(第1篇)

今天给各位分享传统数据中心网络架构的知识,其中也会对数据中心网络架构解决方案进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!

本文目录一览:

给你10个路由器或交换机,你如何配置?(第1篇)

前几周有人问我,如果有一个环境中给你10多个交换机和路由器,应该如何配置。这是一个很好的问题,关键不在端口安全、Port Channel、STP、和路由的配置,而是在于针对终端应用服务特点选择相应适合的网络架构。

近十年来,虽然云服务的扩展性需求促进了相关解决方案快速发展,然而数据中心常见的网络拓扑仍然可以归纳为两种:传统的三层网络架构,和Leaf-Spine二层网络架构。

传统的三层网络架构由三层交换机组成:即访问层,聚合层(有时称为分发层)和核心层。服务器连接到其中一个边缘层访问交换机(常称Top of Rack Switch,或 TOR Switch),聚合层交换机则将多个接入层交换机互连在一起,所有聚合层交换机通过核心层交换机相互连接。核心层交换机还负责将数据中心连接到Internet。传统的数据中心过去***用的就是这种三层架构。

下图是我参与优化设计的有数万台服务器的传统数据中心网络架构示意图。

在这个拓扑中,除了经典的三层(分发路由器,网络分区汇聚路由器,服务器接入交换机)外,核心层还包括了: WAN核心骨干路由器,WAN发路由器,WAN优化加速器,LAN核心路由器,外部Choke路由器,Internet边界路由器,Transit,防火墙,用于联接数据包分析器的Network TAP。网络负载均衡器放在了聚合层。另外还有一个专用的OOB接入层,用于设备维护管理。

三层架构虽然容易部署、易于诊断,但是其已无法满足日益增长的云计算需求。三层架构面临的主要问题包括:低可扩展性、低容错性、内部服务器之间横截面带宽低、较高层超额使用(Oversubscription)、高层次的拓扑中使用的大型模块化交换机成本非常高。

我过去常***用以下这几个方法缓解三层架构中网络分离问题:

(1)、PVLAN: 专用VLAN,也称为端口隔离,是计算机网络中的一种技术,其中VLAN包含受限制的交换机端口,使得它们只能与给定的端口通信。这个常用于后端的NFS网络。

(2)、VRF虚拟化路由表,用于路径隔离。

(3)、GRE Tunnel。

(4)、使用一些Overlay network封装协议并结合一操作系统虚似化实现网络分离。

Leaf-Spine网络架构解决了传统三层网络架构所面临的Oversubscription和内部服务器之间横截面带宽问题。Leaf-Spine网络架构在过去几年里已开始接管主要的云服务数据中心。Leaf-Spine结构也称为Clos结构,其中每个Leaf交换机(ToR交换机)以全网状拓扑连接到每个Spine交换机。这是一种两层的Fat-tree网络。这种架构中Leaf之间只有一个跳,最大限度地减少了任何延迟和瓶颈。Spine网络的扩展非常简单,只要在需增长的情况下逐步添加Spine交换机。

Leaf-Spine架构使用定制的寻址方案和路由算法,而非传统的STP。根据网络交换机中可用的功能,可以使用第2层或第3层技术实现Leaf-Spine网格。第3层的Leaf-Spine要求每个链路都被路由,并且通常使用开放最短路径优先(OSPF)或等价多路径路由( ECMP )来实现的边界***协议(BGP)动态路由。第2层***用loop-free的以太网fabric技术,例如多链接透明互联(TRILL)或最短路径桥接(SPB, IEEE 802.1aq)。其中,思科的FabricPath 和Brocade的Virtual Cluster Switching是基于TRILL发展而来的私有data plane。核心网络还可使用带有ECMP的动态路由协议通过第3层连接到主干网。华为、联想、Brocade、HP、 Extreme Networks等公司都有基于TRILL的产品或其它Leaf-Spine架构的解决方案。

Leaf-Spine结构的优点是:

(1)、使用所有链路互连,而不像传统网络中冗余链路被STP阻塞。

(2)、所有内部Leaf之间横向通信都是等距的,因此数据流延时时间是确定的。

(3)、Underlay的交换机配置和核心网络配置是固定的,因此变更Overlay Network的路由不需要更改核心网络。

(4)、产品安全区域能虚拟分离,扩展了VLAN和多租户安全性。

(5)、基础设施的物理网络可以和逻辑网络(Overlay network)分离。

Leaf-Spine结构也有些缺点,比如:

(1)、网络交换机的数量远远大于三层网络架构。

(2)、扩展新的Leaf时需要大量的线缆、并占用大量Spine交换机端口。

(3)、Spine交换机端口数量决定了最大可联接的Leaf交换机数量,也就决定了最大主机总数量。

下图是我参与过的一个公有云Leaf-Spine方案示意草图。

现代的数据中心部署中,我们一般将网络设备、服务器和机架在出厂时应模块化。对于使用Leaf-Spine 网络的数据中心,出厂时预装配成四种类型的标准工程系统:Transit 机柜, Spine 机柜, Fabric 机柜, 和 Server 机柜。Leaf 交换机和服务器一样被预装配于 Server 机柜,基本上做到开柜上电即可上线使用。

当下全球主流公有云基本上***用的都是Leaf-Spine 网络架构。然而,各家公有云服务商Leaf-Spine网络中的Underlay Network和Overlay Network使用的协议和方案有很大区别。比如,你可以基于Leaf-Spine架构使用VXLAN来设计你的SDN解决方案,也可以基于ECMP的BGP-labeled-unicast的underlay 网络,使用MPLS L3***s构建另一种多租户的数据中心SDN解决方案。

聊完了两种层数据中心网络架构,相信大家如有机会搭建新的网络时,应该知道如何选择您的网络架构方案了。

欢迎大家发表留言,谈谈你所熟悉的Leaf-Spine网络架构方案中,Underlay Network和Overlay Network使用的协议分别是什么。

参考资料:

(1)、 Building Multi tenant Data Centers with MPLS L3***s

(2)、 Cisco Data Center Spine-and-Leaf Architecture: Design Overview White Paper

数据中心的构成是怎么样的

数据中心系统总体设计思想是以数据为中心,按照数据中心系统内在的关系来划分,数据中心系统的总体结构由基础设施层、信息***层、应用支撑层、应用层和支撑体系五大部分构成。如下图所示:

数据中心总体架构

数据中心系统总体架构

数据中心从顶层上规划总体技术架构、设计技术路线和方法,保证网络、数据***、应用系统、安全系统等各要素之间构成一个有机的整体,实现企业(机构)数据***管理的联动和信息的及时监测、汇总与分析。具体各层介绍如下:

(1)基础设施层

基础设施层是指支持整个系统的底层支撑,包括机房、主机、存储、网络通信环境、各种硬件和系统软件。

(2)信息***层

信息***层包括数据中心的各类数据、数据库、数据仓库,负责整个数据中心数据信息的存储和规划,涵盖了信息***层的规划和数据流程的定义,为数据中心提供统一的数据交换平台。

(3)应用支撑层

应用支撑层构建应用层所需要的各种组件,是基于组件化设计思想和重用的要求提出并设计的,也包括***购的第三方组件。

(4)应用层

应用层是指为数据中心定制开发的应用系统,他包括标准建设类应用、***集整合类应用、数据服务类应用和管理运维类应用,以及服务于不同对象的企业信息门户(包括内网门户和外网门户)。

    (5)支撑体系

支撑体系包括标准规范体系、运维管理体系、安全保障体系和容灾备份体系。容灾备份体系在传统的数据中心系统中隶属于安全保障体系,随着数据地位的提高,容灾备份已自成体系。安全保障体系侧重于数据中心的立体安全防护,容灾备份体系专注于数据中心的数据和灾难恢复。

数据中心为什么需要大二层网络

数据中心为什么需要大二层网络?

在开始之前,首先要明确一点,大二层网络基本上都是针对数据中心场景的,因为它实际上就是为了解决数据中心的服务器虚拟化之后的虚拟机动态迁移这一特定需求而出现的。对于普通的园区网之类网络而言,大二层网络并没有特殊的价值和意义(除了某些特殊场景,例如WIFI漫游等等)。

所以,我们现在所说的大二层网络,一般都是指数据中心的大二层网络。

1 传统数据中心网络架构

我们看到,这种网络架构其实和园区网等网络的架构是一样的,这种架构相当于零售行业的“加盟店”形式,而与之相对应的“三层到边缘”架构,以及我们下面要谈到的“大二层”架构,就相当于“直营店”了。

之所以***用这种网络架构,是因为这种架构非常成熟,相关的二三层网络技术(二层VLAN+xSTP、三层路由)都是成熟的技术,可以很容易的进行部署,也符合数据中心分区分模块的业务特点。

但是这种网络架构对于数据中心来说,其实是隐藏着一个弱点的,是什么呢?

2 服务器虚拟化趋势

由于传统的数据中心服务器利用率太低,平均只有10% 15%,浪费了大量的电力能源和机房***。所以出现了服务器虚拟化技术。

服务器虚拟化技术是把一台物理服务器虚拟化成多台逻辑服务器,这种逻辑服务器被称为虚拟机(VM),每个VM都可以独立运行,有自己的OS、APP,当前也有自己独立的MAC地址和IP地址,它们通过服务器内部的虚拟交换机(vSwitch)与外部实体网络连接。

通过服务器虚拟化,可以有效地提高服务器的利用率,降低能源消耗,降低客户的运维成本,所以虚拟化技术目前得到了广泛的应用。(至于为啥有这些好处,我就懒得去说了,有兴趣的话可以自己问一下度娘,总之服务器虚拟化就是个好东东啦)

PS:VMware是服务器虚拟化领域的市场领先产品和创新品牌,提供一整套VM解决方案的软件。除了VMware之外,业界还有微软Hyper-V和Xen等服务器虚拟化软件。

3 虚拟机动态迁移

我们继续回到数据中心网络上来。

本来,服务器虚拟化对于数据中心网络来说,也没啥特别大的影响,无非就是接入的主机规模变大一些而已(原来一台物理服务器算一个主机,现在每个VM算一个主机),还是可以用二三层网络架构来连接的,规模变大了,多划分一些二层域就行。

但是服务器虚拟化之后,带来了一项伴生的技术,那就是虚拟机动态迁移,这就给传统的数据中心网络带来了很大的麻烦。当然在讲麻烦之前,我们先得搞清楚虚拟机动态迁移是怎么回事。

所谓虚拟机动态迁移,就是在保证虚拟机上服务正常运行的同时,将一个虚拟机系统从一个物理服务器移动到另一个物理服务器的过程。该过程对于最终用户来说是无感知的,从而使得管理员能够在不影响用户正常使用的情况下,灵活调配服务器***,或者对物理服务器进行维修和升级。

说白了,动态迁移就是让虚拟机搬家,但是要求搬家的时候,虚拟机上运行的业务还不会中断,外面的用户察觉不到。

搞清楚虚拟机动态迁移是怎么回事之后,我们来看到底这个技术给网络带来了什么麻烦。

4 虚拟机动态迁移对网络的影响

对于数据中心来说,二三层网络架构是有一个弱点的,那是什么弱点呢?这个弱点就是服务器的位置不能随便在不同二层域之间移动。

因为一旦服务器迁移到其他二层域,就需要变更IP地址,TCP连接等运行状态也会中断,那么原来这台服务器所承载的业务就会中断,而且牵一发动全身,其他相关的服务器(比如WEB-APP-DB服务器之间都是相互关联的)也要变更相应的配置,影响巨大。

(这和园区网不一样,园区网里面接入的办公PC等,换一个办公区,换一个二层域,重新获取一下IP地址,对于业务来说,几乎没什么影响)。

幸好在传统的数据中心中,物理服务器位置的跨二层域迁移的场景是非常少见的,而且即使发生迁移,也都是物理层面的,业务肯定都已经中断了,更换IP地址所以这个隐患并不明显。

但是在服务器虚拟化之后,虚拟机的动态迁移会成为一种经常出现的场景。为了保证迁移时业务不中断,就要求在迁移时,不仅虚拟机的IP地址不变,而且虚拟机的运行状态也必须保持原状(例如TCP会话状态),所以虚拟机的动态迁移只能在同一个二层域中进行,而不能跨二层域迁移。

而传统的二三层网络架构限制了虚拟机的动态迁移只能在一个较小的局部范围内进行,应用受到了极大的限制。

所以,为了打破这种限制,实现虚拟机的大范围甚至跨地域的动态迁移,就要求把VM迁移可能涉及的所有服务器都纳入同一个二层网络域,这样才能实现VM的大范围无障碍迁移。

就好比你原来住在南京,现在迁移到苏州了,原来各城市的社保系统是独立的(小二层网络),所以你要办理社保关系迁移(IP地址变更),办过的人都知道这有多痛苦。

而据说从2015年开始整个江苏省的社保系统现在纳入统一管理了(大二层网络),那么从南京迁移到苏州,人过去就行了,社保关系不需要任何变更(IP地址不变,业务不中断)。

这就是大二层网络!一个真正意义的大二层网络至少要能容纳1万以上的主机,才能叫做大二层网络。

数据中心适合使用什么样的网络架构

传统的数据中心主要是依据功能进行区域划分,例如WEB、APP、DB,办公区、业务区、内联区、外联区等等。不同区域之间通过***和安全设备互访,保证不同区域的可靠性、安全性。同时,不同区域由于具有不同的功能,因此需要相互访问数据时,只要终端之间能够通信即可,并不一定要求通信双方处于同一VLAN或二层网络,数据中心机房相关的MPO/MTP数据中心等我们一般用菲尼特的。

数据中心网络架构扁平化到两层的方式有何弊端?

个人觉得从传统的三层到二层,其实不能说有什么弊端,只是说是还是有其缺点所在。

认真来说数据中心网络架构从传统的三层架构到二层扁平化架构演进,技术路径是正确的,在二层架构上带来了大量的性能和管理上的好处,这些内容估计您已经听够了。

然而,在面对数据中心访问层提出了新的要求,特别是在相同的VLAN虚函数在网络部署的要求,网络供应商经常会将架构推向极端,例如,思科的DFA技术。他们做的唯一一件事就是把我的网络作为一个大的开关,然后你拿起这个端口,随机的Vlan,虚拟机被任意地部署,而第二层是任意扩展的。

但是制造商错估了需求,市场还没有准备好,所以客户现在还不买账,你可以看看现在有多少客户在使用它。

至于缺点,技术不成熟是一方面,我认为这个问题实际上是客户的商业模式的本质并没有改变,原来是划分业务区的,现在部署在了Juniper的VC上也好,Cisco的7-5-2上也好,业务还是划分区域的,只是改变了服务器***的位置,仅此而已。因此,变革的本质是商业模式的转变。好的技术没有相应的商业模式支持也是一堆废铁…

当然,变更成本太高,也应该是它的一个弊端了。

最后说一下,现在的每一种架构,理论上来讲都是有前一种架构升级而来的,所以对方之前的都应该会是更有优势的,但在流行性方面还需要人们花时间去改变。

Fabric是否代表网络架构的未来?

Fabric网络结构的关键之一就是消除网络层级的概念,传统的网络家后有三个层级-接入,汇聚以及核心。然而,随着虚拟化的广泛应用,虚拟交换机层又增加了两一个开关层。而随着刀片服务器的广泛应用,刀片式交换机也加入了第五层终端到终端的网络架构。

在建筑结构的架构关键概念之一是消除网络层的概念。传统的三个网络层-接入,汇聚,和核心是司空见惯。然而,随着虚拟化的广泛***用,虚拟交换机层又增加了另一个开关层。刀片服务器获得牵引力,刀片式交换机都加入了第五层到终端到终端的网络架构。

Fabric网络架构可以利用阵列技术来扁平化网络,可以将传统的三层结构压缩为二层,并最终转变为一层。

这项技术就是针对其3-2-1数据中心网络架构中的“1”。数据中心网络能够利用fabric技术实现扁平化,从而像一台逻辑设备一样工作,并通过实现任意点之间的连接来消除复杂性和延迟,同时降低购置、运营和管理成本。简单、灵活的Fabric架构由三个模块组成——F/Node、F/Interconnect和F/Director。这些组件相互协作,能够实现任意端口之间的连接,以支持数据中心范围内的“一跳”式流量传输,以及L2和L3功能。“一跳”式架构意味着,任何***(如虚拟机或数据库)之间不过是“一跳”的距离。因此,应用性能将得到极大地提高,而且不再依赖其在数据中心的位置。

fabric实现了高性能和易管理性;它除了提供一台交换机的运行简单性和性能外,还提供一个完整网络所具有的规模(超过6000个端口)和永续性。当低效的传统数据中心网络在***用Fabric技术后,企业就能顺利地在数据中心建设更大的存储和计算***池,以充分发挥虚拟化的效力。

传统数据中心网络架构的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于数据中心网络架构解决方案、传统数据中心网络架构的信息别忘了在本站进行查找喔。

扫码二维码