nfv网络架构(nfv核心网)
本篇文章给大家谈谈nfv网络架构,以及nfv核心网对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。
本文目录一览:
nfv是什么意思?
nfv是网络功能虚拟化(Network Functions Virtualization)的意思。
网络功能虚拟化(英语:Network Functions Virtualization,缩为 NFV),一种对于网络架构(network architecture)的概念,利用虚拟化技术,将网络节点阶层的功能,分割成几个功能区块,分别以软件方式实作,不再拘限于硬件架构。
网络功能虚拟化(NFV)的核心是虚拟网络功能。它提供只能在硬件中找到的网络功能,包括很多应用,比如路由、CPE、移动核心、IMS、CDN、饰品、安全性、策略等等。
简介
网络功能虚拟化(NFV)的核心是虚拟网络功能。它提供只能在硬件中找到的网络功能,包括很多应用,比如路由、CPE、移动核心、IMS、CDN、饰品、安全性、策略等等。
网络功能虚拟化(NFV)技术的目标是在标准服务器上提供网络功能,而不是在定制设备上。虽然供应商和网络运营商都急于部署NFV,早期NFV部署将不得不利用更广泛的原则,随着更多细节信息浮出水面,这些原则将会逐渐被部署。
为了在短期内实现NFV部署,供应商需要作出四个关键决策,部署云托管模式,选择网络优化的平台,基于TM论坛的原则构建服务和***以促进操作整合,以及部署灵活且松耦合的数据,流程架构。
移动网络与联通构造原理
移动网络和联通网络构造原理都属于移动通信网络体系架构:网络架构,该架构可分为三大模块:网络部署场景、接入网和核心网。
具体的构造原理和试验如下:
3.1.1中国移动黑龙江公司网络部署场景设计方案
1.室外借助分布式天线(distributedantennasystem,DAS)和大规模MIMO(multipleinputmulti-pleoutput)配备基站,天线元件分散放置在小区,且通过光纤与基站连接。移动事物(如终端)部署Mo-bileFemtocell,可以动态地改变其到运营商核心网络的连接。同时,部署虚拟蜂窝作为宏蜂窝的补充,提升了室外覆盖率。
2.室内用户需要与安装在室外建筑的大型天线阵列的室内AP进行通信,这样就可以利用多种适用于短距离通信的技术实现高速率传输,比如60GHz毫米波通信,可以解决频谱稀缺问题。
3.1.2 中国移动黑龙江公司接入网设计方案
5G通信网络接入网部署中,***用新型的分布式基站进行组网把宏基站的部分载波通过标准的CPRI接口拉远实现分布式组网,也就是将传统基站的基带处理部分(BBU)和射频收发信机部分(RRU)设计成单独的模块。分布式基站不仅带来快速、便捷的网络部署,而且有利于大幅降低运营商建网的成本。由于无线频谱***的高价格、高频通信技术的使用,使原有基站覆盖密度越来越大,因此必须对无线接入侧的网络做相应的调整,才能保证5G网络下的无线带宽及物联需求的应用。
CoP(CPRI over Packet)承载技术是承接5G通信网络接入网中的研究和部署重点。为满足业务需求和基站承载,需要建立一种新的承载技术架构来满足云通信的需求,现通过以下几点方案进行接入网部署:
在RRU增加的情况下使其满足免机房需要,新的CoP FO 设备能跟RRU供址部署,建立成一个新的前传网络(Fronthanl),通过CoP FO 设备将RRU进行汇聚传给接入侧的A设备。该方式针对现有IP RAN设备基本无需改动,只需要在原有的设备中插入带有CRPI协议的新增板卡就可以工作。
对于Fronthanl接入侧的保护机制有CPRI接口和ETH接口;网络侧保护机制可以***用线性“1+1”保护或环网Wr***ing、Steering保护。
对于无线侧RRU的接入点模块FO是全室外模式,易部署、省机房,满足于大网络容量要求。
在组网类型上,优先选用环型拓扑结构,可以实现RRU任意的部署,实现接入设备A无源CWDM解决方案。
3.1.2 中国移动黑龙江公司核心网设计方案
1.现有核心网网元由传统平台向云平台演进
(1)RCS在互联网基地部署应用,IMS AS、CSCF/BGCF等网元进行技术试点;
(2)控制类网元(MME、PCRF)、数据类网元(HSS、HLR)、信令转接网元(DRA)等正在研究设计阶段,成熟后马上推动现网引入;
(3)媒体转发面网元(MGW/SBC),根据SDN技术进行进行部署;
(4)2G、3G电路域相关网元正逐步融合、替换和退网,不再考虑运化升级。
构建以DC为中心的网络云化平台,部署基于云化架构的NFV(网络功能虚拟化),引入跨DC部署与无状态设计,并将传统核心网业务搬迁至此云化平台;
2.控制面网元功能重构
(1)业务处理节点:承接传统核心网GW/SBC等媒体接入处理类网元的功能;
(2)融合控制接节点:承接传统核心网MME/CSCF/HSS等管理控制类网元和HSS的等用户数据类网元的功能;
(3)业务能力节点:承接传统核心网应用服务AS/业务平台类网元的功能层次,同时支持提供网络能力开放和网络拓扑设置功能。
3.引入C/U分离,并利用MEC技术构建分布式网络,保障低时延业务应用。
4.引入SBA架构、网络切片Slicing、接入无关技术Access Agnostic,为各式各样差异化需求提供on demand服务,以支撑5G业务。
3.2 5G关键技术
3.2.1 CoP(CPRI over Packet)承载技术
CoP承载技术是集成前传承载和后传承载的中心枢纽模块,***用的是高效装载技术,其由于CRPI结构化和非结构化是的数据成帧灵活,便于整个网络调节,***用光承载,继承了原有波分承载的有点,也能进一步节省传输光缆。CPRI over Packet的NGFI承载方案,具体对比指标比较如下:
3.2.2 网络功能虚拟化(net-workfunctionvirtualization,NFV)
NFV(网络功能虚拟化)利用软硬件解耦及功能抽象,以虚拟化技术降低昂贵的设备成本费,根据业务需求进行自动部署、弹性伸缩、故障隔离等步骤,让运营商可通过此极速将承载各种网络功能的通用硬件与云计算虚拟化技术相结合,实现网元虚拟化和虚拟网络可编程,简化网络升级的步骤和降低购买新专用网络硬件的成本,把网络技术重点放到部署新的网络软件上。
3.2.3 基于OFDM优化的波形和多址接入
5G NR设计过程中最重要的一项决定,就是***用基于OFDM优化的波形和多址接入技术,因为OFDM 技术被当今的 4G LTE 和 Wi-Fi 系统广泛***用,因其可扩展至大带宽应用,而具有高频谱效率和较低的数据复杂性,因此能够很好地满足 5G 要求。 OFDM 技术家族可实现多种增强功能,例如通过加窗或滤波增强频率本地化、在不同用户与服务间提高多路传输效率,以及创建单载波 OFDM 波形,实现高能效上行链路传输。
不过OFDM体系也需要创新改造,才能满足5G的需求:
1. 通过子载波间隔扩展实现可扩展的OFDM参数配置;
2. 通过OFDM加窗提高多路传输效率。
3.2.4 灵活的框架设计
5G NR灵活的框架设计:
1. 可扩展的时间间隔(Scalable Tran***ission Time Interval (TTI))
相比当前的 4G LTE网络,5G NR将使时延降低一个数量级。目前LTE网络中,TTI(时间间隔)固定在1 ms(毫秒)。为此,3GPP在4G演进的过程中提出一个降低时延的项目。尽管技术细节还不得而知,但这一项目的规划目标就是要将一次傅里叶变换的时延降低为目前的1/8(即从1.14ms降低至143µs(微秒)。
2. 自包含集成子帧(Self-contained integrated subframe)
自包含集成子帧是另一项关键技术,对降低时延、向前兼容和其他一系列5G特性意义重大。通过把数据的传输(tran***ission)和确认(acknowledgement)包含在一个子帧内,时延可显著降低。
3. 先进的新型无线技术(Advanced wireless technologies)
5G必然是在充分利用现有技术的基础之上,充分创新才能实现的,而4G LTE正是目前最先进的移动网络平台,5G在演进的同时,LTE本身也还在不断进化(比如最近实现的千兆级4G+),5G不可避免地要利用目前用在4G LTE上的先进技术,如载波聚合,MIMO技术,非共享频谱的利用等等。
大规模MIMO:
MIMO(Multiple-Input Multiple-Output)技术是目前无线通信领域的一个重要创新研究项目,通过智能使用多根天线(设备端或基站端),发射或接受更多的信号空间流,能显著提高信道容量;而通过智能波束成型,将射频的能量集中在一个方向上,可以提高信号的覆盖范围。
毫米波:
全新 5G 技术正首次将频率大于 24 GHz 以上频段(通常称为毫米波)应用于移动宽带通信。大量可用的高频段频谱可提供极致数据传输速度和容量,这将重塑移动体验。但毫米波的利用并非易事,使用毫米波频段传输更容易造成路径受阻与损耗(信号衍射能力有限)。通常情况下,毫米波频段传输的信号甚至无法穿透墙体,此外,它还面临着波形和能量消耗等问题。
SDN技术和NFV技术各自的内含是什么?
一、性质不同
1、NFV:网络功能虚拟化。
2、SDN:软件定义复网络。
二、核心技术不同
1、NFV核心技术制:通过基于行业标准的x86服务器、存储和交换设备替换通信网络中的专用和专用网络元件设备。
2、SDN核心技术:核心技术OpenFlow通过将网络设备的控制面与数据面分离,实现了对网络流量的灵活控制,使网络作为一个管道更加智能化,为核心网络的创新和应用提供了良好的平百台。
扩展资料:
2006年,SDN诞生于美国GENI项目资助的斯坦福大学Clean Slate课题,斯坦福大学的nick mckeown教授提出了校园网实验创新的openflow概念。基于openflow的可编程特性,sdn的概念应运而生。
Clean Slate项目的最终目标是重塑互联网,旨度在改变已经略显过时、难以发展的现有网络基础设施。
SDN与NFV
VNF Descriptor (VNFD): 属于TOSCA标准的YMAL格式配置模板,主要描述了实例化一个VNF所需要的***信息以及操作行为,主要用于VNF实例化以及生命周期管理。
NFV即Network Functions Virtualization(网络功能虚拟化),就是将传统的CT业务部署到云平台上(云平台是指将物理硬件虚拟化所形成的虚拟机平台,能够承载CT和IT应用),从而实现软硬件解耦合。
NFV的本质: 络设备的IT化和云化
在NFV架构下,以下哪些是IMS切新平台及虚拟化的价值? abc
A 推动TTM大幅下降(Time To Market)
B 降低CAPEX/OPEX
C 提升网络灵活性和开放性
D 增加IMS系统新特性XXXXXXXXX
cordless telephone CT
VXLAN隧道支持跨数据中心建立
SDN云数据中心场景使用VXLAN作为转发隧道,对于BUM报文设备不会向所有的VXLAN隧道泛洪。
VXLAN集中式***不适合大型的数据中心。
VXLAN隧道支持跨数据中心建立
在SDN云数据中心场景中,AC控制器通过什么协议向underlay网络中的设备下发配置? Netconf
在SDN云网一体化场景中,AC控制器通过什么协议和OpenStack的Neutron实现对接? Restful
BUM(Broadcast 广播,unknown unicast, multicast)报文
01 SDN概述与发展趋势
8.SDN网络与传统IP网络的区别?
SDN利用控制转发相互分离从架构上解决根本问题:让网络敏捷起来,更快的部署新业务与快速定位故障点。***用***集中和统一调度、能力开放的策略;让软件来干硬件的活;
02 DCI: Data Center interconnect, 用于数据中心的互联网络
1什么是DCI?
未来超过80%的业务将部署在云上 我们云数据中心需要基于用户体验进行层次化布局,而网络则需要以数据中心为中心组网进行重构,在这样的大背景下,DCI网络孕育而生。
DCI:Data center interconnect 指的是用于数据中心之间互联的网络,实现以数据中心为中心组网的基础承载网。
2为什么需要新建DCI网络?
高扩展性、低成本 ***丰富 温度适宜等条件使得云数据中心建设位置要求
某运营商新建大型云数据中心与传统骨干网位置不重合
云业务对网络要求
1云计算对时延有非常严格的要求,如跨DC同步计算、虚拟机热迁移等业务要求都在10ms以下
2 DC间流量具有突发性和不均衡性,需***用SDN计数进行实时智能调控,而现有网络复杂。新技术难部署。
------很难重用现有骨干网,需要新建DCI网络。
3给予SDN的DCI方案总览
顶层端到端协同,实现包含DC云与DC承载网的云网***的一站式提供和端到端业务自动化协同发放。总的来说在多地区 多运营商部署多个数据中心的方式 目前已经成为了互联网行业普遍认可的最有效的解决用户覆盖提高用户业务体验的方案,建设并运营一张安全可靠、可灵活调度的多数据中心互联网络(DCI网络),也成为了各大互联网公司在基础架构方面的工作之重,DCI建成后 可以为宽带 4/3G用户提供更好的访问体验外另一方面可以为互联网公司***企业客户的云提供给更好的承载服务。
现在DCI面临的实际问题:网络不灵活难以跟住业务快速迭代的步伐、链路利用率较低 以及居高不下的OPEX压力等。华为SDN DCI 整体解决方案可以支撑云数据中心业务的端到端的运营,整体架构包括承载层和控制层,需要在网络基础承载层上引入部署SDN的控制层,
控制层是网络的业务发放管理平台和网络智能控制中心,该层主要功能部件为:
业务发放平台:提供业务自动化入口实现租户业务自助发放以及网络***状态的可视个运维管理入口
业务协同平台:DCI业务需求分解和DC和IDC的协同实现端到端的跨控制器***的协同分解
云平台:接受业务发放平台的业务分解,进行DC运业务分解和协同,实现DC的内存储 计算和网络的协同
DC控制器:接受OpenStack业务分解同一控制DC的NVE和VxLAN GW 实现DC内网络自动部署和控制
DCI控制器:接受业务协同平台***的分解,实现Underlay网络部署的自动化和网络流量的智能优化
流量***集工具、调优策略的输入、流量***集组件可以基于端口TE隧道进行流量***集和分析并提供网络流量可视化界面
DCI骨干网解决方案承载层是租户业务的承载实体负责跨DC网络的连接以及业务宽带和SLA保证,骨干网支持VxLAN技术提供了大二层组网的能力,能够跨越广域网和多个物理DC构建Vdc网络,实现跨区域的***节点的互备和虚机动态迁移,有效提升了DC云***的利用效率,骨干网部署业界广泛使用的MPLS TE流量工程技术为租户业务提供端到端的宽带保证,提升了网络***的利用效率,特别是提供了基于租户和业务的差异化的服务能力,网络承载支持***用Overlay技术,Overlay业务网络基于云业务驱动支持快速的业务开通 Underlay物理网络按需提供网络***,实现端到端的SLA保障和智能流量的优化,目前IP Core网络中存在如下一些流量调整需求:实现IGW出口、DC出口的流量均衡 降低不同ISP网间费用的结算 提升VIP用户体验 针对这些需求 当前主要依赖于手工调整BGP路由策略 :
1监控链路带宽利用率
2识别出需要调整的流
3基于流制作BGP策略下发给设别
4循环操作,直到流量符合期望目标的要求
4 智能流量调优方案:RR+方案
手工方法不能实时调整,耗时长、配置和维护复杂问题,RR+方案用于解决这问题。
RR+方案在IP core现网中加入SDN Controller,实现集中控制,智能化调优
RR+可以带来什么?
1最大化IGW带宽利用率均衡链路间流量的分布,降低网间结算费用,不同客户提供不同SLA服务
2自动调整流量,取代复杂的手工操作
3基于标准BGP通讯,可以和现网设备平滑兼容。
5什么时PCE+方案 Path Computation Element
路由转发用最短路径算法不考虑带宽,存在利用率低的问题 PCE+为了解决这一问题
PCE+通过在网络中部署PCE server(就是SDN Controller),使用StatefulPCE技术,为 MPLS TE LSP集中算路。
使网络带宽***使用尽量达..到最优。该架构方案中需要新部署的网元是PCE Server,转发设备为 PCE Client。PCE Client需要计算LSP时会向PCE Server发出计算请求,server计算后结果反馈给client,client然后进行LSP隧道建立。
思考:什么是DCI?
DCI即Data center interconnect 指的是用于数据中心之间互联的网络 DCI网络正是实现“以数据为中心的中心组网”的基础承载网。
03 文档 SDN网络解决方案
NFV (Network Function Virtulization)***用虚拟化技术,将传统电信设备的软件和硬件解耦,基于通用计算、存储、网络设备实现电信网络功能,提升管理和维护效率,增强系统灵活性
SDN关键特征:集中控制、优化全局效率;开放接口、加快业务上线;网络抽象,屏蔽底层差异
NFV关键特征:上层业务云化, 底层硬件标准化,分层运营,加快业务上线与创新
nfv — 4-7层
sdn — 1-3层 物理、数据、网络
SDN主要技术流派:ONF (Open networking foundation), IETF, 大T
PCEP(Path Computation Element Protocol)协议
ONOS -- Open-Source SDN Stack -- ONF
OpenDaylight -- IETF -- Cisco, 基于XML Schema实现SDN
华为是NFV担任职位、贡献文稿最多的Vendor
RAN:无线接入网(Radio Access Network)
可以利用华为私有MSCP(类似OPENFLOW)进行南向设备的控制
基于MBH虚拟接入解决方案,简化运维
01NFV技术概述与发展趋势
1CT当前面临的结构性挑战
增收方面:用户饱和,传统业务下滑
节流方面:CT投入成本下降,IT部分的投入从2002年6%增加到2013年13%,
创新方面:CT界一年5个创新 IT界32000倍
商用速度:CT每个月6个上市 IT每小时12个
什么是NFV?
NFV (Network Function Virtualization) 网络功能虚拟化,ETSI组织下组建的。
希望通过***用通用服务器 交换机和存储设备实现传统电信网络的功能。通过IT的虚拟化技术,许多类型的网络设备可以合并到工业界标准中,servers switchs storages 需要用软件实现网络功能并能在一系列工业标准服务器硬件上运行,可以根据需要迁移,实例化部署在网络的不同位置而不需要部署新设备,需要大容量Server存储和大容量以太网 不同应用以软件形式远程自动部署在统一的基础设施上。
三个关键点:软硬件解耦 开放 自动化
2NFV将IP基因融入电信网络
传统电信网软硬件绑定,更新困难,管理维护困难。***用虚拟化技术和云计算的网络,硬件***用标准的服务器 存储设备和交换机,虚拟化之后 上层业务通过软件形式运行在统一的标准的硬件基础之上 。
虚拟化后的网络好处:易于更新、硬件通用化支持异构,***归一 简化管理与运维
3NFV正走向成熟
2015~2016年稳步爬升 趋于成熟
1.NNFV生态系统:
ETSI在2012年成立了 NFV ISG来研究网络功能虚拟化
随后,涌现了一批NFV的开源组织,比如OPNFV,OpenStack
NFV产业联盟,秉承开发、创新、协同、落地的宗旨,集多长家和合作伙伴进行联合创新,成为开放联盟的引领者。
2.NFV框架
NFV框架主要包括3大组件:NFVI、VNF、和MANO解释:
框架中最底层的是硬件,包括计算、存储、和网络***
往上的云操作系统,完成虚拟化和云化的相关的功能,硬件和云操作系统成为NFVI。
I指的是instruction,设施的意思,这些设都是有VIM来管理。
在往上是虚拟网路功能,比如vIMS提供IMS的语音业务,vEPC提供4G的数据网络功能。
虚拟网络功能由VNFM来管理,提供VNF的声明周期管理。
在往上是网络管理层及网管,网管我们可以配套NFVO进行网络业务生命周期的管理
3.NFV三大组件的关键要求
【1】组件MANO:包括NFVO(网络业务生命周期管理)、VNFM和VIM,
要求VNFM适配不同厂商NFVO和VIM;并且MANO系统(NFVO+VNFM+VIM)应该尽量减少对现有的OSS/BSS的冲击。比如要求MANO支持和现有传统平台(如U2000)的对接
【2】组件VNF(虚拟化网络功能):要求它可以运行在不同厂商的NFVI;
对应传统的电信业务网络,每个物理网元映射为一个虚拟网元VNF。
【3】组件NFVI-云操作系统要求优选基于OpenStack的云操作系统
将物理计算/存储/交换网络***通过虚拟化计算转换为虚拟的计算/存储/交换网络***
【4】组件NFVI-硬件
要求它优选具有虚拟化辅助功能的芯片的COTS
同时具备高IOPS与高可靠性的磁阵
低RAID等级的磁阵建议冗余组网
03 FV关键能力
4.高可靠性
应用层、云操作系统层、硬件层都有相应的冗余机制。
应用层高可靠性可以通过主备和负荷分担方式实现主备VM之间的冗余。确保应用层会话0中断,99.999%的可用性。
云操作系统的可靠性可以通过虚拟机快速重建冗余机制来实现。
硬件层高可靠性主要通过族化以及物料冗余机制来实现计算、存储、网络等硬件设备的冗余
硬件层、VM层、业务层各层可靠性各自独立,高度互补确保整体可用性。
5.高性能
NFV业界最权威的评估公司SPECvirt。华为的FusionSphere性能得分为4.6,排第一。
呼叫处理方面华为的FusionSphere比第二名的Vmware高17%。
高性能技术的关键技术:NUMA亲和性、CPU绑定、DPDK、透明巨页、虚拟中断优化等
6.NFV存在的问题
(1)标准不成熟,技术架构实现上有分歧;
(2)多供应商、集成复杂。
(3)部件兼容性风险大。
(4)NFV工程难度大。
(5)网络功能虚拟化技术滞后
(6)虚拟化可靠性不足。传统电信要求99.999%可靠性
nfv网络架构的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于nfv核心网、nfv网络架构的信息别忘了在本站进行查找喔。