
Citation: | TANG Lun, ZHOU Xinlong, WU Ting, WANG Kai, CHEN Qianbin. Dynamic Network Slice Migration Algorithm Based on Ensemble Deep Neural Network Traffic Prediction[J]. Journal of Electronics & Information Technology, 2023, 45(3): 1074-1082. doi: 10.11999/JEIT220058 |
第5代移动通信网络(5G)的一个重要使命是实现万物互联,支持多业务类型服务。目前主要包括增强移动带宽(enhanced Mobile BroadBand, eMBB)、海量机器通信(massive Machine Type Communication, mMTC)和超高可靠低时延通信(Ultra Reliable & Low Latency Communication, URLLC)3种典型应用场景[1]。在不同应用场景中的业务请求千变万化,对时延、容量和可靠性的具体要求不同,若为每种业务请求建立一个物理网络显然难以实现。因此,面对如此多样化的业务请求,提出了将物理网络进行隔离,划分出多个逻辑网络;以满足不同应用场景下的不同业务请求,即网络切片(Network Slicing, NS)[2]。
如何使各网络节点和链路的计算、内存、带宽等资源得到最大利用仍然是5G研究需要攻克的难题。目前,许多文献通过对网络切片中的虚拟网络功能(Virtual Network Function, VNF)迁移,以提高资源利用率。文献[3]采用一种分而治之的方法对切片进行重配置以满足不同服务请求,考虑5G网络的带宽和时延约束。文献[4]提出一种两阶段启发式解决方案(Two-StAge heuristic soluTion, T-SAT),以最小化物理节点的使用数量为目标,优化资源利用率。然而未考虑业务请求的动态变化特性,导致迁移滞后。文献[5]提出了一种基于霍尔-温特(Holt-Winters)的时间序列预测方法,对具有线性趋势和周期波动的流量信息有较好的预测效果,但对于复杂业务请求的流量预测和长时间预测效果不理想。文献[6]提出一种基于长短期记忆神经网络(Long Short Term Memory, LSTM)预测的迁移框架,根据预测业务请求的带宽需求,对带宽资源重新分配,然而未考虑其他资源需求带来的影响。文献[7]提出一种基于机器学习的流量感知动态切片框架,该框架动态分配网络资源,实现资源共享,然而其忽略了网络中由于多业务请求共存而具有不同类型切片的情况。
综上所述,首先本文建立由于计算、内存和带宽资源不足而造成的总惩罚模型,并提出基于集成深度神经网络的流量预测模型预测出未来时刻流量请求状况;然后对未来流量请求情况进行分析,将其转换为未来物理网络的资源占用情况和未来新的业务请求情况;最后设计了一种基于环境感知的动态切片调整和迁移算法(Dynamic Slice Adjustment and Migration, DSAM),本算法结合对网络剩余资源和未来业务请求资源的感知,以最小化总服务惩罚为目标,对虚拟网络功能和虚拟链路进行调整迁移,从而使运营商代价最小化,资源利用率最大化,并有效避免了切片迁移的连锁反应,提高切片迁移效率。
基于流量预测的网络切片动态调整和迁移网络场景如图1所示。通过软件定义网络 (Software Defined Network, SDN),将服务功能链(Service Function Chain, SFC)上的VNF和虚拟链路映射到相同或不同的物理节点和链路上,实现不同服务请求的相互隔离。本文建立一种智能的切片调整和迁移策略,通过预测资源需求及监测物理网络的实际资源使用情况,制定出一种面向未来的VNF部署方案,在服务请求到达前对网络切片动态调整和迁移,降低网络拥塞,减少运营商服务惩罚。
将底层物理网络视为一个由
用集合
两种类型的服务请求示例如图2所示,在图2(a)中,
由于5G网络环境下不同的应用场景导致服务需求在不断发生变化,从而使网络切片对资源的需求也在不断的发生变化[10]。本文所制定的迁移策略基于对服务请求的流量预测和物理网络中资源占用情况的感知,对切片动态调整。由于不同服务请求之间的资源竞争,部分切片无法调整,需要对它们进行迁移,所有迁移路径都无法满足切片资源请求时,只能寻求一种相对最优的调整策略,在保证资源充足的前提下,使请求服务降级,用户得到运营商的相应赔偿[11]。本文使用式(1)—式(3)定义资源不足所得到的惩罚
PCk=T∑t=0K∑k=1αCk⋅(Mk∑m=1(Cmk(t+1)−δn,mk(t+1)⋅ˆCmk(t+1))) | (1) |
PMk=T∑t=0K∑k=1αMk⋅(Mk∑m=1(Mmk(t+1)−δn,mk(t+1)⋅ˆMmk(t+1))) | (2) |
PBk=T∑t=0K∑k=1αBk⋅(Ik∑i=1(Bik(t+1)−ηf,ik(t+1)⋅ˆBik(t+1))) | (3) |
Cmk(t+1)=βmkAmk(t+1) | (4) |
Mmk(t+1)=φmkAmk(t+1) | (5) |
Bik(t+1)=γikAik(t+1) | (6) |
其中,
P=PCk+PMk+PBk | (7) |
其中,
针对网络切片动态调整和迁移问题,本文将其建模在一个时隙系统中,用
Q1:minδ,ηPm,i(t)s.t.C1:∑n∈¯Vxmn(t)=1,∀m∈VkC2:∑f∈¯ϵxif(t)=1,∀i∈ϵkC3:∑k∈K∑m∈Mkδn,mk(t)⋅ˆCmk(t)<¯cn,∀t∈T,n∈¯VC4:∑k∈K∑m∈Mkδn,mk(t)⋅ˆMmk(t)<¯mn,∀t∈T,n∈¯VC5:∑k∈K∑i∈Ikηf,ik(t)⋅ˆBik(t)<¯bf,∀t∈T,f∈¯ϵC6:δn,mk,t={0,1},∀m∈¯V,n∈VC7:ηf,ik,t={0,1},∀f∈¯ϵ,∀i∈ϵk} | (8) |
C1和C2分别表示虚拟网络服务功能链中的每个虚拟节点和每条虚拟链路只能映射到1个物理节点和1条物理链路上;C3~C5分别表示SFC在时隙
神经网络算法具有强大的数据特征拟合能力,但对于不同的流量数据,深度神经网络的预测效果不尽相同。针对不同的流量数据,本文提出一种集成深度神经网络的预测算法,并与传统深度学习算法比较。
将网络特征表述为如式(9)的特征矩阵
F = (f1(1)f1(2)⋯f1(t)f2(1)f2(2)⋯f2(t)⋮⋮⋱⋮fi(1)fi(2)⋯fi(t)) | (9) |
其中,
A={A(1),A(2),⋯,A(t)} | (10) |
其中,
A(t+1)=g(f1(t)f1(t−1)⋯f1(t−j−1)f2(t)f2(t−1)⋯f2(t−j−1)⋮⋮⋱⋮fi(t)fi(t−1)⋯fi(t−j−1)) | (11) |
其中,
集成学习是一种使用多个学习器进行学习的机器学习方法,其主要思路是通过一定的规则产生多个学习器,然后再采用特定的集成策略进行组合,综合判断以得到最后的输出结果,因此集成学习的关键就是产生多个差异性的个体。通常通过构造不同的训练集或者对个体算法的参数进行调整或使用不同个体算法的方法来构造多个差异化个体,集成学习中具有代表性的方法有Boosting, Bagging和随机森林。其中,Bagging技术作为集成学习的典型代表,常与神经网络方法相结合,它通过结合几个模型的方法来降低泛化误差[12]。基于Bagging算法的流量负载预测框架(Bagging-based Traffic-load Prediction Framework, BTPF)如图3所示,其主要思想是分别训练几个不同的模型作为基学习器,通过预测效果得到每个模型的加权系数,最终形成一个强学习器。本文使用4个采样集训练4种使用不同深度学习算法的基学习器,这些数据集可以从同样的原始数据集中由放回采样得到,每个数据集所含样本的差异导致了训练模型之间的差异。
本文模型的最终流量预测结果由式(12)给出
A=TRAR+TLAL+TGAG+TBAB | (12) |
其中,
Tx=DxDR+DL+DG+DB | (13) |
其中,
Dx = n∑i=1qin | (14) |
其中,
q=1−|A−A′|A′ | (15) |
其中,
RMSE=√1nn∑i=1(y′i−yi)2 | (16) |
其中,
本文提出基于流量预测的动态切片调整和迁移策略,通过在
¯Bl(t+1)=Bl(t)−∑k∈KSk(t+1)+∑j∈HSj(t+1) | (17) |
其中,
¯Cn(t+1)=Cn(t)−∑k∈KQk(t+1)+∑j∈HQj(t+1) | (18) |
¯Mn(t+1)=Mn(t)−∑k∈KRk(t+1)+∑j∈HRj(t+1) | (19) |
直接对切片调整和迁移与基于流量预测的切片调整和迁移两种部署方案的对比情况如图4所示。最左侧表示3种切片承载的服务请求流量变化情况,无预测的切片调整和迁移过程如图方案1所示,基于流量预测的网络切片迁移过程如图方案2所示。以切片
为提高切片迁移后的资源利用率,并避免切片迁移的连锁反应,本文提出基于流量预测的DSAM算法,对每个预测时刻进行切片调整和迁移,如算法1所示,其主要步骤总结如下。
算法1 基于流量预测的动态切片调整和迁移算法(DSAM) |
输入:服务请求R,底层物理网络ˉG |
输出:每条服务功能链调整迁移后的位置 |
初始化: |
(1) for Rk∈R do |
(2) 根据KSP算法原则计算所有源节点和目的节点间VNF组成 的最短路径L |
(3) for l∈L do |
(4) 选择一条路径l,沿l映射服务请求R的虚拟链路 |
(5) 选择l中的第1个物理节点,沿l映射服务请求R的虚拟节点 |
切片调整和迁移: |
(6) for t∈T do |
(7) for Rk∈R do |
(8) if ARk(t+1)>ARk(t) then |
(9) 计算Rk(t+1)中{Cmk(t+1),Mmk(t+1),Bik(t+1)} 的值 (10) {ˆCmk(t+1),ˆMmk(t+1),ˆBik(t+1)} ={Cmk(t+1),Mmk(t+1),Bik(t+1)} |
(11) if C3~C5成立 then |
(12) 输出{δn,mk(t+1),ηf,ik(t+1)} |
(13) else |
(14) if l>1 then |
(15) 计算所有l的{¯Bl(t+1),¯Cl(t+1),¯Ml(t+1)} |
(16) 将{¯Bl(t+1),¯Cl(t+1),¯Ml(t+1)}按升序排列 |
(17) for MAX{¯Bl(t+1),¯Cl(t+1),¯Ml(t+1)} do |
(18) 选择l上的第1个物理节点 (19) {ˆCmk(t+1),ˆMmk(t+1),ˆBik(t+1)} ={Cmk(t+1),Mmk(t+1),Bik(t+1)} |
(20) if C3~C5成立 then |
(21) 输出{δn,mk(t+1),ηf,ik(t+1)} |
(22) else |
(23) 降级切片,根据式(7)计算路径l上的服务降 级惩罚Pl |
(24) 将Pl按升序排列 |
(25) 切片k迁移到Pmin上 |
(26) 输出{δn,mk(t+1),ηf,ik(t+1)} |
(27) end if |
(28) end for |
(29) else |
(30) 降级切片,根据式(7)计算路径l上的服务降级惩罚Pl |
(31) end if |
(32) end if |
(33) 根据t+1时刻预测流量值进行资源调整 |
(34) else |
(35) 释放相应资源 |
(36) end if |
(37) end for |
(38) end for |
步骤1 通过k条最短路径算法(K-Shortest Pathes, KSP)对网络切片进行初始化部署,映射到所有最短路径中的第1条。
步骤2 在
步骤3 对于请求资源增加的切片通过式(4)—式(6)计算其需求资源,若路径中有足够的剩余资源则直接分配给这些切片相应资源。
步骤4 若路径中没有足够剩余资源分配给目标切片,则通过式(17)—式(19)计算
步骤5 若剩余资源最多的路径仍不满足切片资源需求,则降级该切片并根据式(7)计算服务降级惩罚
步骤6 将切片迁移到使惩罚
步骤7 对于请求资源减少的切片则直接释放相应路径上的资源。
为了充分说明本文算法和模型所具有的优势,本文通过将流量预测算法与文献[12]进行比较,将迁移算法性能与文献[14]进行比较。
本文假设网络场景为具有20个物理节点的网络拓扑,所有节点的计算资源、内存资源和带宽资源分别为100 units, 2 GB, 50 Mbit/s。本文选取数据集为Clearwater数据集,该数据集是一个开源的VNF集合,包括Bono, Sprout, Homestead, Homer, Ralf, Ellis 6种虚拟网络功能,可以将他们部署到各个物理节点上实现以语音、视频以及信息传递为主的SFC。每个VNF包括2016年10月17日0:00—2016年11月20日17:30的
为证明在不同数据集中BTPF均能表现出更佳的性能,图5表示在10月18日、20日、22日、24日不同预测算法的均方根误差(RMSE)和平均绝对百分比误差(MAPE)值,针对不同时间段数据特征,模型的预测效果不同,但BTPF的预测效果始终优于其余4种。BTPF的RMSE和MAPE值均为最小,说明其预测偏差最小,模型与不同预测数据更加吻合,预测准确率更高。此外,对于不同时段数据,各种模型预测效果并不相同,例如对于20日的预测数据,GRU效果明显优于LSTM,但对于22日数据LSTM预测效果明显优于GRU预测效果,这是由于神经网络结构的不同导致在对不同数据进行预测时其效果有所差异。
为评价迁移策略的性能,本文通过由于服务降级给运营商带来的惩罚作为评价指标。为说明不同资源占比情况下的惩罚获得情况,如图6(a)—图6(c)分别表示10月18日用户流量情况下CPU、内存、带宽占用情况不同时,3种迁移策略所造成的运营商惩罚。假设高优先级服务占比
为了说明不同迁移算法对网络切片迁移后网络性能的影响,本文统计了10月18日24 h内在各种算法下的迁移次数,如图7所示,迁移次数是指物理网络中资源占用超过节点或链路资源阈值导致的发生迁移,本文迁移策略通过流量预测使迁移次数明显减少,这是因为通过提前对资源进行感知,制定迁移策略,避免了迁移的连锁反应。如图8所示,选取18日用户的资源请求对整个物理网络节点总的CPU资源利用率进行分析,迁移前CPU资源利用率始终保持在45%~50%,使用基于DSAM迁移策略对切片进行迁移后有所提升,使用基于流量预测的DSAM迁移策略后CPU资源利用率可达80%左右。可以看出本文算法对CPU资源利用率的提升有明显效果,物理网络中内存与带宽资源利用率与之类似,此处不再赘述。
针对5G网络切片动态迁移优化问题,本文以最小化服务降级惩罚为目标,对5G网络中的DSAM进行了研究,本文提出一种基于流量预测的DSAM策略。在流量预测部分,比较了集成学习算法与单个神经网络算法的预测效果,本文的预测算法精确度更高。在切片迁移部分,针对不同优先级服务请求做出适当的调整和迁移,通过服务降级惩罚对3种策略的性能进行了评估,本文将预测与迁移结合的策略能有效降低运营商服务惩罚,流量预测可以帮助减少不必要的切片迁移,防止迁移的连锁反应带来不必要的服务中断和资源浪费。结果表明,与仅调整的策略相比,本文的策略可以减少约50%的惩罚,与无预测的迁移策略相比,运营商所得惩罚减少了约15%,切片迁移次数降低近2倍,CPU资源利用率比无迁移的网络切片服务高出至少30%,比无预测的迁移策略高出10%。
[1] |
GHONGE M M, MANGRULKAR R, PJAWANDHIYA P M, et al. Future Trends in 5G and 6G: Challenges, Architecture, and Applications[M]. CRC Press, 2021.
|
[2] |
DEBBABI F, JMAL R, FOURATI L C, et al. Algorithmics and modeling aspects of network slicing in 5G and Beyonds network: Survey[J]. IEEE Access, 2020, 8: 162748–162762. doi: 10.1109/ACCESS.2020.3022162
|
[3] |
POZZA M, NICHOLSON P K, LUGONES D F, et al. On reconfiguring 5G network slices[J]. IEEE Journal on Selected Areas in Communications, 2020, 38(7): 1542–1554. doi: 10.1109/JSAC.2020.2986898
|
[4] |
LI D F, PHONG P L, XUE K P, et al. Virtual network function placement considering resource optimization and SFC requests in cloud datacenter[J]. IEEE Transactions on Parallel and Distributed Systems, 2018, 29(7): 1664–1677. doi: 10.1109/TPDS.2018.2802518
|
[5] |
SCIANCALEPORE V, COSTA-PEREZ X, and BANCHS A. RL-NSB: Reinforcement learning-based 5G network slice broker[J]. IEEE/ACM Transactions on Networking, 2019, 27(4): 1543–1557. doi: 10.1109/TNET.2019.2924471
|
[6] |
XIAO Suchao and CHEN Wen. Dynamic allocation of 5G transport network slice bandwidth based on LSTM traffic prediction[C]. 2018 IEEE 9th International Conference on Software Engineering and Service Science (ICSESS), Beijing, China, 2018: 735–739.
|
[7] |
SONG Chuang, ZHANG Min, HUANG Xuetian, et al. Machine learning enabling traffic-aware dynamic slicing for 5G optical transport networks[C]. 2018 Conference on Lasers and Electro-Optics (CLEO), San Jose, USA, 2018: 1–2.
|
[8] |
唐伦, 赵培培, 赵国繁, 等. 基于深度信念网络资源需求预测的虚拟网络功能动态迁移算法[J]. 电子与信息学报, 2019, 41(6): 1397–1404. doi: 10.11999/JEIT180666
TANG Lun, ZHAO Peipei, ZHAO Guofan, et al. Virtual network function migration algorithm based on deep belief network prediction of resource requirements[J]. Journal of Electronics &Information Technology, 2019, 41(6): 1397–1404. doi: 10.11999/JEIT180666
|
[9] |
LI Taihui, ZHU Xiaorong, and LIU Xu. An end-to-end network slicing algorithm based on deep Q-learning for 5G network[J]. IEEE Access, 2020, 8: 122229–122240. doi: 10.1109/ACCESS.2020.3006502
|
[10] |
WEI Fengsheng, FENG Gang, SUN Yao, et al. Proactive network slice reconfiguration by exploiting prediction interval and robust optimization[C]. GLOBECOM 2020 - 2020 IEEE Global Communications Conference, Taipei, China, 2020: 1–6.
|
[11] |
CHERGUI H and VERIKOUKIS C. Offline SLA-constrained deep learning for 5G networks reliable and dynamic end-to-end slicing[J]. IEEE Journal on Selected Areas in Communications, 2020, 38(2): 350–360. doi: 10.1109/JSAC.2019.2959186
|
[12] |
KAO C C, CHANG C W, CHO C P, et al. Deep learning and ensemble learning for traffic load prediction in real network[C]. 2020 IEEE Eurasia Conference on IOT, Communication and Engineering (ECICE), Yunlin, China, 2020: 36–39.
|
[13] |
YIN Shan, ZHANG Zhan, YANG Chen, et al. Prediction-based end-to-end dynamic network slicing in hybrid elastic fiber-wireless networks[J]. Journal of Lightwave Technology, 2021, 39(7): 1889–1899. doi: 10.1109/JLT.2020.3045600
|
[14] |
YU Hao, MUSUMECI F, ZHANG Jiawei, et al. Dynamic 5G RAN slice adjustment and migration based on traffic prediction in WDM metro-aggregation networks[J]. Journal of Optical Communications and Networking, 2020, 12(12): 403–413. doi: 10.1364/JOCN.403829
|
[15] |
Small Cell Forum. Small cell virtualization: Functional splits and use cases[R]. Technical Report of Small Cell Forum, 2016.
|
算法1 基于流量预测的动态切片调整和迁移算法(DSAM) |
输入:服务请求R,底层物理网络ˉG |
输出:每条服务功能链调整迁移后的位置 |
初始化: |
(1) for Rk∈R do |
(2) 根据KSP算法原则计算所有源节点和目的节点间VNF组成 的最短路径L |
(3) for l∈L do |
(4) 选择一条路径l,沿l映射服务请求R的虚拟链路 |
(5) 选择l中的第1个物理节点,沿l映射服务请求R的虚拟节点 |
切片调整和迁移: |
(6) for t∈T do |
(7) for Rk∈R do |
(8) if ARk(t+1)>ARk(t) then |
(9) 计算Rk(t+1)中{Cmk(t+1),Mmk(t+1),Bik(t+1)} 的值 (10) {ˆCmk(t+1),ˆMmk(t+1),ˆBik(t+1)} ={Cmk(t+1),Mmk(t+1),Bik(t+1)} |
(11) if C3~C5成立 then |
(12) 输出{δn,mk(t+1),ηf,ik(t+1)} |
(13) else |
(14) if l>1 then |
(15) 计算所有l的{¯Bl(t+1),¯Cl(t+1),¯Ml(t+1)} |
(16) 将{¯Bl(t+1),¯Cl(t+1),¯Ml(t+1)}按升序排列 |
(17) for MAX{¯Bl(t+1),¯Cl(t+1),¯Ml(t+1)} do |
(18) 选择l上的第1个物理节点 (19) {ˆCmk(t+1),ˆMmk(t+1),ˆBik(t+1)} ={Cmk(t+1),Mmk(t+1),Bik(t+1)} |
(20) if C3~C5成立 then |
(21) 输出{δn,mk(t+1),ηf,ik(t+1)} |
(22) else |
(23) 降级切片,根据式(7)计算路径l上的服务降 级惩罚Pl |
(24) 将Pl按升序排列 |
(25) 切片k迁移到Pmin上 |
(26) 输出{δn,mk(t+1),ηf,ik(t+1)} |
(27) end if |
(28) end for |
(29) else |
(30) 降级切片,根据式(7)计算路径l上的服务降级惩罚Pl |
(31) end if |
(32) end if |
(33) 根据t+1时刻预测流量值进行资源调整 |
(34) else |
(35) 释放相应资源 |
(36) end if |
(37) end for |
(38) end for |