Loading [MathJax]/jax/output/HTML-CSS/jax.js
Advanced Search
Volume 45 Issue 3
Mar.  2023
Turn off MathJax
Article Contents
Li Yi-bo, Huang Xiao-yuan. The New Pattern Recognition Method of Traditional Chinese Medicine Based on HPLC[J]. Journal of Electronics & Information Technology, 2004, 26(3): 382-388.
Citation: TANG Lun, ZHOU Xinlong, WU Ting, WANG Kai, CHEN Qianbin. Dynamic Network Slice Migration Algorithm Based on Ensemble Deep Neural Network Traffic Prediction[J]. Journal of Electronics & Information Technology, 2023, 45(3): 1074-1082. doi: 10.11999/JEIT220058

Dynamic Network Slice Migration Algorithm Based on Ensemble Deep Neural Network Traffic Prediction

doi: 10.11999/JEIT220058
Funds:  The National Natural Science Foundation of China (62071078), The Science and Technology Research Program of Chongqing Municipal Education Commission (KJZD-M201800601), Sichuan and Chongqing Key R&D Projects (2021YFQ0053)
  • Received Date: 2022-01-13
  • Rev Recd Date: 2022-05-23
  • Available Online: 2022-06-02
  • Publish Date: 2023-03-10
  • In order to solve the problem that slice migration lags behind by lacking awareness of physical network resources in 5G Network Slice (NS) scenarios, a Dynamic Slice Adjustment and Migration (DSAM) algorithm based on ensemble deep neural network traffic prediction is proposed. Firstly, a network total penalty model based on computing, memory and bandwidth resource allocation is established. Secondly, in order to predict the future traffic situation, a prediction algorithm based on ensemble deep neural network is proposed. Then the result of prediction are converted to perception of the physical network resource usage and resource requirements of slice in future according to the different types of traffic. Finally, in order to as large as possible to reduce operators punishment according to the result of perception, Virtual Network Functions (VNF) and virtual links are migrated to physical nodes and links that meet resource limits through dynamic slice adjustment and migration policies. The simulation results show that the proposed algorithm improves effectively the efficiency of slice migration and utilization of network resources.
  • 第5代移动通信网络(5G)的一个重要使命是实现万物互联,支持多业务类型服务。目前主要包括增强移动带宽(enhanced Mobile BroadBand, eMBB)、海量机器通信(massive Machine Type Communication, mMTC)和超高可靠低时延通信(Ultra Reliable & Low Latency Communication, URLLC)3种典型应用场景[1]。在不同应用场景中的业务请求千变万化,对时延、容量和可靠性的具体要求不同,若为每种业务请求建立一个物理网络显然难以实现。因此,面对如此多样化的业务请求,提出了将物理网络进行隔离,划分出多个逻辑网络;以满足不同应用场景下的不同业务请求,即网络切片(Network Slicing, NS)[2]

    如何使各网络节点和链路的计算、内存、带宽等资源得到最大利用仍然是5G研究需要攻克的难题。目前,许多文献通过对网络切片中的虚拟网络功能(Virtual Network Function, VNF)迁移,以提高资源利用率。文献[3]采用一种分而治之的方法对切片进行重配置以满足不同服务请求,考虑5G网络的带宽和时延约束。文献[4]提出一种两阶段启发式解决方案(Two-StAge heuristic soluTion, T-SAT),以最小化物理节点的使用数量为目标,优化资源利用率。然而未考虑业务请求的动态变化特性,导致迁移滞后。文献[5]提出了一种基于霍尔-温特(Holt-Winters)的时间序列预测方法,对具有线性趋势和周期波动的流量信息有较好的预测效果,但对于复杂业务请求的流量预测和长时间预测效果不理想。文献[6]提出一种基于长短期记忆神经网络(Long Short Term Memory, LSTM)预测的迁移框架,根据预测业务请求的带宽需求,对带宽资源重新分配,然而未考虑其他资源需求带来的影响。文献[7]提出一种基于机器学习的流量感知动态切片框架,该框架动态分配网络资源,实现资源共享,然而其忽略了网络中由于多业务请求共存而具有不同类型切片的情况。

    综上所述,首先本文建立由于计算、内存和带宽资源不足而造成的总惩罚模型,并提出基于集成深度神经网络的流量预测模型预测出未来时刻流量请求状况;然后对未来流量请求情况进行分析,将其转换为未来物理网络的资源占用情况和未来新的业务请求情况;最后设计了一种基于环境感知的动态切片调整和迁移算法(Dynamic Slice Adjustment and Migration, DSAM),本算法结合对网络剩余资源和未来业务请求资源的感知,以最小化总服务惩罚为目标,对虚拟网络功能和虚拟链路进行调整迁移,从而使运营商代价最小化,资源利用率最大化,并有效避免了切片迁移的连锁反应,提高切片迁移效率。

    基于流量预测的网络切片动态调整和迁移网络场景如图1所示。通过软件定义网络 (Software Defined Network, SDN),将服务功能链(Service Function Chain, SFC)上的VNF和虚拟链路映射到相同或不同的物理节点和链路上,实现不同服务请求的相互隔离。本文建立一种智能的切片调整和迁移策略,通过预测资源需求及监测物理网络的实际资源使用情况,制定出一种面向未来的VNF部署方案,在服务请求到达前对网络切片动态调整和迁移,降低网络拥塞,减少运营商服务惩罚。

    图  1  网络切片动态调整迁移网络场景

    将底层物理网络视为一个由N个节点和F条链路组成的基础网络,每个节点具有计算和存储资源,每条链路具有带宽资源[8]。将其建模为一个无向图G={ˉV,ˉε,ˉC,ˉM,ˉB},其中ˉV={ˉv1,ˉv2,,ˉvN}表示物理节点集合,ˉε={ˉe1,ˉe2,,ˉeF}表示物理链路集合,ˉC={ˉc1,ˉc2,,ˉcN}ˉM={ˉm1,ˉm2,,ˉmN}表示各节点的计算和存储资源,ˉB={ˉb1,ˉb2,,ˉbF}表示每条链路的带宽资源。

    用集合R={R1,R2,,Rk}表示网络服务请求(Service Requests, SRs),将每个SR视为一条SFC,定义为xk(t),表示在t时刻的第k个服务请求。定义虚拟有向图Rk={Vk,εk,Ck,Mk,Bk}表示xk(t)t时刻的第k个服务请求中VNF由集合Vk={v1k,v2k,,vNkk}表示,所需计算和存储资源由集合Ck(t)={c1k(t),c2k(t),,cNkk(t)}Mk(t)={m1k(t),m2k(t),,mNkk(t)}表示,Nk为第k个服务请求中第N个VNF。虚拟链路由εk={e1k,e2k,,eIkk}表示,带宽需求用Bk={b1k(t),b2k(t),,bIkk(t)}表示,Ik表示第k个服务请求中第I条虚拟链路。

    两种类型的服务请求示例如图2所示,在图2(a)中,v11v41分别代表源节点和目的节点,v21v31分别代表为满足服务功能链x1(t)的其他虚拟节点。图2(b)表示将两个SR合并为一条SFC的情况,将两条SFC中相同的VNF映射到同一个虚拟节点,得到的新链所请求的资源是两个服务请求的需求资源之和[9]

    图  2  服务请求的两个类型示例

    由于5G网络环境下不同的应用场景导致服务需求在不断发生变化,从而使网络切片对资源的需求也在不断的发生变化[10]。本文所制定的迁移策略基于对服务请求的流量预测和物理网络中资源占用情况的感知,对切片动态调整。由于不同服务请求之间的资源竞争,部分切片无法调整,需要对它们进行迁移,所有迁移路径都无法满足切片资源请求时,只能寻求一种相对最优的调整策略,在保证资源充足的前提下,使请求服务降级,用户得到运营商的相应赔偿[11]。本文使用式(1)—式(3)定义资源不足所得到的惩罚

    PCk=Tt=0Kk=1αCk(Mkm=1(Cmk(t+1)δn,mk(t+1)ˆCmk(t+1))) (1)
    PMk=Tt=0Kk=1αMk(Mkm=1(Mmk(t+1)δn,mk(t+1)ˆMmk(t+1))) (2)
    PBk=Tt=0Kk=1αBk(Iki=1(Bik(t+1)ηf,ik(t+1)ˆBik(t+1))) (3)
    Cmk(t+1)=βmkAmk(t+1) (4)
    Mmk(t+1)=φmkAmk(t+1) (5)
    Bik(t+1)=γikAik(t+1) (6)

    其中,αCk, αMk, αBk表示惩罚因子,与服务请求的优先级相关,由运营商与用户间协议决定。Cmk(t+1), Mmk(t+1)分别表示在t+1时刻切片k的虚拟节点m的预测计算资源需求量,Bik(t+1)表示在t+1时刻切片k的虚拟链路i的预测带宽资源需求量,ˆCmk(t+1), ˆMmk(t+1), ˆBik(t+1)分别表示实际能够获得的资源。Amk(t+1)表示t+1时刻在切片k的虚拟节点m上的流量预测值,Aik(t+1)表示t+1时刻切片k的虚拟链路i上的流量预测值,β,φ,γ是流量预测值与网络资源对应关系系数。δn,mk(t+1)ηf,ik(t+1)表示虚拟节点m和虚拟链路i是否映射到物理节点n和链路f的二进制系数。Cmk(t+1)δn,mk(t+1)ˆCmk(t+1)+1)Mmk(t+1)δn,mk(t+1)ˆMmk(t+1)表示m上计算和存储资源引起的降级等级,Bik(t+1)ηf,ik(t+1)ˆBik(t+1)表示i上带宽资源引起的降级等级。在本文中,考虑由VNF映射降级和链路映射降级所引起的总惩罚,即

    P=PCk+PMk+PBk (7)

    其中,PCk, PMk, PBk分别代表映射时计算、存储和带宽资源引起的降级总损失。

    针对网络切片动态调整和迁移问题,本文将其建模在一个时隙系统中,用T={1,2,,t}表示一个连续时隙的集合,优化目标是最小化由于服务降级引起的惩罚P

    Q1:minδ,ηPm,i(t)s.t.C1:n¯Vxmn(t)=1,mVkC2:f¯ϵxif(t)=1,iϵkC3:kKmMkδn,mk(t)ˆCmk(t)<¯cn,tT,n¯VC4:kKmMkδn,mk(t)ˆMmk(t)<¯mn,tT,n¯VC5:kKiIkηf,ik(t)ˆBik(t)<¯bf,tT,f¯ϵC6:δn,mk,t={0,1},m¯V,nVC7:ηf,ik,t={0,1},f¯ϵ,iϵk} (8)

    C1和C2分别表示虚拟网络服务功能链中的每个虚拟节点和每条虚拟链路只能映射到1个物理节点和1条物理链路上;C3~C5分别表示SFC在时隙T中的计算、存储和带宽需求不能超过物理节点和链路的处理能力;C6和C7分别表示虚拟节点和链路映射的二进制变量约束。

    神经网络算法具有强大的数据特征拟合能力,但对于不同的流量数据,深度神经网络的预测效果不尽相同。针对不同的流量数据,本文提出一种集成深度神经网络的预测算法,并与传统深度学习算法比较。

    将网络特征表述为如式(9)的特征矩阵

    F = (f1(1)f1(2)f1(t)f2(1)f2(2)f2(t)fi(1)fi(2)fi(t)) (9)

    其中,fi(t)表示在t时刻的第˙g个特征。将网络流量负载定义为

    A={A(1),A(2),,A(t)} (10)

    其中,A(t)表示t时刻的网络流量负载。由于未来网络流量情况利用过去时刻的网络特征进行准确预测,本文所述过去时刻均包含t时刻。因此,t+1时刻的流量预测值可表示为

    A(t+1)=g(f1(t)f1(t1)f1(tj1)f2(t)f2(t1)f2(tj1)fi(t)fi(t1)fi(tj1)) (11)

    其中,g()表示预测模型拟合函数,j表示进行预测时所利用的过去时刻长度。本文中,g()将通过深度学习模型和集成学习预测模型来建立。

    集成学习是一种使用多个学习器进行学习的机器学习方法,其主要思路是通过一定的规则产生多个学习器,然后再采用特定的集成策略进行组合,综合判断以得到最后的输出结果,因此集成学习的关键就是产生多个差异性的个体。通常通过构造不同的训练集或者对个体算法的参数进行调整或使用不同个体算法的方法来构造多个差异化个体,集成学习中具有代表性的方法有Boosting, Bagging和随机森林。其中,Bagging技术作为集成学习的典型代表,常与神经网络方法相结合,它通过结合几个模型的方法来降低泛化误差[12]。基于Bagging算法的流量负载预测框架(Bagging-based Traffic-load Prediction Framework, BTPF)如图3所示,其主要思想是分别训练几个不同的模型作为基学习器,通过预测效果得到每个模型的加权系数,最终形成一个强学习器。本文使用4个采样集训练4种使用不同深度学习算法的基学习器,这些数据集可以从同样的原始数据集中由放回采样得到,每个数据集所含样本的差异导致了训练模型之间的差异。

    图  3  基于Bagging算法的网络流量负载预测框架(BTPF)

    本文模型的最终流量预测结果由式(12)给出

    A=TRAR+TLAL+TGAG+TBAB (12)

    其中,AR, AL, AG, AB分别表示RNN, LSTM, RU, BLSTM 4种模型预测的网络流量负载值,TR, TL, TG, TB分别表示4种神经网络模型的加权系数,由式(13)可得

    Tx=DxDR+DL+DG+DB (13)

    其中,DR, DL, DG, DB分别表示4种模型的预测平均准确率,Dx表示4种模型中其中一种的平均准确率,由式(14)得

    Dx = ni=1qin (14)

    其中,n表示某种模型的验证样本个数,预测模型的准确率q,可由式(15)计算得到

    q=1|AA|A (15)

    其中,A表示预测出的网络流量负载,A表示实际网络流量负载。模型训练过程中使用批量梯度下降算法更新权重参数[13]。将预测得到的输出与样本数据中的真实数据比较,计算误差后反向传播更新权重参数,直到迭代次数达到预设上限或误差值在可接受误差范围内,保存模型参数。RMSE表达式为

    RMSE=1nni=1(yiyi)2 (16)

    其中,yi为序列样本的实际值,yi为预测值,n为样本总数。

    本文提出基于流量预测的动态切片调整和迁移策略,通过在t时刻对切片k的流量进行预测,得到未来的流量负载,从而对切片进行调整和迁移。为避免迁移的连锁反应,本文采用一种流量互补的解决方案,即把流量负载即将增加的切片迁移到流量负载即将减少的路径。因此,切片的迁移还应考虑候选路径中未来流量的变化趋势。假设有L条可用于切片迁移的路径,对于L中的某一路径l,首先分析该路径中现有切片的流量负载和未来流量负载。以链路带宽资源为例,假设路径l中有K个流量负载将增加的切片,有H个流量负载将减少的切片,定义¯Bl(t+1)表示路径l可用带宽资源在t+1时刻的预测值

    ¯Bl(t+1)=Bl(t)kKSk(t+1)+jHSj(t+1) (17)

    其中,Bl(t)表示路径lt时刻的最大可用带宽资源,Sk(t+1)=|Bk(t+1)Bk(t)|表示切片k在预测时刻t+1所增加的带宽资源需求量,Sj(t+1)=|Bj(t+1)Bj(t)|表示切片j在预测时刻t+1所释放的带宽资源。在获得¯Bl(t+1)后将L条路径的剩余可用资源降序排列,得到剩余带宽资源最多的路径,若此路径仍不能满足服务请求所需的资源量,则降级切片,获得相应惩罚,服务质量降低。同理,定义¯Cn(t+1)¯Mn(t+1)分别表示节点n可用计算和存储资源在t+1时刻的预测值

    ¯Cn(t+1)=Cn(t)kKQk(t+1)+jHQj(t+1) (18)
    ¯Mn(t+1)=Mn(t)kKRk(t+1)+jHRj(t+1) (19)

    直接对切片调整和迁移与基于流量预测的切片调整和迁移两种部署方案的对比情况如图4所示。最左侧表示3种切片承载的服务请求流量变化情况,无预测的切片调整和迁移过程如图方案1所示,基于流量预测的网络切片迁移过程如图方案2所示。以切片A为例,在t时刻切片A服务请求流量增加,在t+1时刻需要更多的资源请求,但由于链路2-3中缺少剩余可用资源,A无法直接获取资源,为避免服务降级,必须迁移切片A。切片A可以如方案1迁移到路径1-6-5-4中与切片B共享资源。但随着切片B中服务请求流量增加,其在t+1时刻也需要更多的资源请求,由于切片A的迁移导致路径6-5中无剩余可用资源,切片B无法直接获取资源,需要迁移到其他路径(例如路径6-3-4)。若可以提前感知路径中t+1时刻资源使用情况和所有切片的请求资源变化趋势,显然方案2中直接将切片A迁移到路径1-6-3-4中是更佳的选择,因为这样不仅满足了切片A的资源请求,还避免了切片B的迁移,即不会导致迁移的连锁反应,提高迁移效率。

    图  4  基于流量预测和无预测的网络切片调整和迁移策略对比

    为提高切片迁移后的资源利用率,并避免切片迁移的连锁反应,本文提出基于流量预测的DSAM算法,对每个预测时刻进行切片调整和迁移,如算法1所示,其主要步骤总结如下。

    算法1 基于流量预测的动态切片调整和迁移算法(DSAM)
     输入:服务请求R,底层物理网络ˉG
     输出:每条服务功能链调整迁移后的位置
     初始化:
     (1) for RkR do
     (2)  根据KSP算法原则计算所有源节点和目的节点间VNF组成
        的最短路径L
     (3)  for lL do
     (4)  选择一条路径l,沿l映射服务请求R的虚拟链路
     (5)  选择l中的第1个物理节点,沿l映射服务请求R的虚拟节点
     切片调整和迁移:
     (6) for tT do
     (7)  for RkR do
     (8)   if ARk(t+1)>ARk(t) then
     (9)    计算Rk(t+1){Cmk(t+1),Mmk(t+1),Bik(t+1)}
          的值
     (10)    {ˆCmk(t+1),ˆMmk(t+1),ˆBik(t+1)}
           ={Cmk(t+1),Mmk(t+1),Bik(t+1)}
     (11)     if C3~C5成立 then
     (12)     输出{δn,mk(t+1),ηf,ik(t+1)}
     (13)      else
     (14)       if l>1 then
     (15)       计算所有l{¯Bl(t+1),¯Cl(t+1),¯Ml(t+1)}
     (16)       将{¯Bl(t+1),¯Cl(t+1),¯Ml(t+1)}按升序排列
     (17)        for MAX{¯Bl(t+1),¯Cl(t+1),¯Ml(t+1)} do
     (18)        选择l上的第1个物理节点
     (19)     {ˆCmk(t+1),ˆMmk(t+1),ˆBik(t+1)}
            ={Cmk(t+1),Mmk(t+1),Bik(t+1)}
     (20)        if C3~C5成立 then
     (21)        输出{δn,mk(t+1),ηf,ik(t+1)}
     (22)         else
     (23)        降级切片,根据式(7)计算路径l上的服务降
              级惩罚Pl
     (24)        将Pl按升序排列
     (25)        切片k迁移到Pmin
     (26)        输出{δn,mk(t+1),ηf,ik(t+1)}
     (27)        end if
     (28)      end for
     (29)        else
     (30)      降级切片,根据式(7)计算路径l上的服务降级惩罚Pl
     (31)        end if
     (32)      end if
     (33)       根据t+1时刻预测流量值进行资源调整
     (34)    else
     (35)    释放相应资源
     (36)   end if
     (37)  end for
     (38) end for
    下载: 导出CSV 
    | 显示表格

    步骤1 通过k条最短路径算法(K-Shortest Pathes, KSP)对网络切片进行初始化部署,映射到所有最短路径中的第1条。

    步骤2 在t时刻通过预测流量值计算(t+1)时刻服务请求R资源量。

    步骤3 对于请求资源增加的切片通过式(4)—式(6)计算其需求资源,若路径中有足够的剩余资源则直接分配给这些切片相应资源。

    步骤4 若路径中没有足够剩余资源分配给目标切片,则通过式(17)—式(19)计算(t+1)时刻所有可用路径中的剩余资源并升序排列,然后将目标切片迁移到(t+1)时刻剩余资源最多的路径中。

    步骤5 若剩余资源最多的路径仍不满足切片资源需求,则降级该切片并根据式(7)计算服务降级惩罚P

    步骤6 将切片迁移到使惩罚P最低的路径中。

    步骤7 对于请求资源减少的切片则直接释放相应路径上的资源。

    为了充分说明本文算法和模型所具有的优势,本文通过将流量预测算法与文献[12]进行比较,将迁移算法性能与文献[14]进行比较。

    本文假设网络场景为具有20个物理节点的网络拓扑,所有节点的计算资源、内存资源和带宽资源分别为100 units, 2 GB, 50 Mbit/s。本文选取数据集为Clearwater数据集,该数据集是一个开源的VNF集合,包括Bono, Sprout, Homestead, Homer, Ralf, Ellis 6种虚拟网络功能,可以将他们部署到各个物理节点上实现以语音、视频以及信息传递为主的SFC。每个VNF包括2016年10月17日0:00—2016年11月20日17:30的13×104条数据,包括该虚拟网络功能所占用的CPU、内存资源,节点流量负载,输入输出流量。本节所有针对流量预测的分析均以Sprout流量为例,主要为视频流数据提供服务,其流量与对应资源系数设为β=2, φ=30, γ=1[15]。本文对数据集以5.5:1的比例进行训练集和测试集的划分。本文设置每种模型的隐藏层为4层,激活函数为ReLU函数,损失函数使用RMSE,学习率初始化为0.05。

    为证明在不同数据集中BTPF均能表现出更佳的性能,图5表示在10月18日、20日、22日、24日不同预测算法的均方根误差(RMSE)和平均绝对百分比误差(MAPE)值,针对不同时间段数据特征,模型的预测效果不同,但BTPF的预测效果始终优于其余4种。BTPF的RMSE和MAPE值均为最小,说明其预测偏差最小,模型与不同预测数据更加吻合,预测准确率更高。此外,对于不同时段数据,各种模型预测效果并不相同,例如对于20日的预测数据,GRU效果明显优于LSTM,但对于22日数据LSTM预测效果明显优于GRU预测效果,这是由于神经网络结构的不同导致在对不同数据进行预测时其效果有所差异。

    图  5  不同模型对不同数据预测的RMSE和MAPE比较结果

    为评价迁移策略的性能,本文通过由于服务降级给运营商带来的惩罚作为评价指标。为说明不同资源占比情况下的惩罚获得情况,如图6(a)图6(c)分别表示10月18日用户流量情况下CPU、内存、带宽占用情况不同时,3种迁移策略所造成的运营商惩罚。假设高优先级服务占比λ = 0.5,惩罚因子αk随服务请求类型k的变化而变化,将高优先级服务惩罚因子设定为低优先级服务的2倍,可以看出每种策略随着物理网络资源使用的增加,导致各种服务请求相互竞争资源,使服务降级,从而导致更大的惩罚。其中仅调整不迁移的策略始终保持较高的惩罚,本文基于流量预测的DSAM算法惩罚总是保持最低。由于资源占用情况与流量负载成正相关,假设流量负载为80%,可得图6(d)所示3种迁移策略的惩罚,仅对资源进行调整不迁移的策略仍然具有最大的惩罚,基于流量预测的DSAM算法惩罚仍然保持最低。

    图  6  各种资源和高优先级服务请求占比对惩罚大小的影响

    为了说明不同迁移算法对网络切片迁移后网络性能的影响,本文统计了10月18日24 h内在各种算法下的迁移次数,如图7所示,迁移次数是指物理网络中资源占用超过节点或链路资源阈值导致的发生迁移,本文迁移策略通过流量预测使迁移次数明显减少,这是因为通过提前对资源进行感知,制定迁移策略,避免了迁移的连锁反应。如图8所示,选取18日用户的资源请求对整个物理网络节点总的CPU资源利用率进行分析,迁移前CPU资源利用率始终保持在45%~50%,使用基于DSAM迁移策略对切片进行迁移后有所提升,使用基于流量预测的DSAM迁移策略后CPU资源利用率可达80%左右。可以看出本文算法对CPU资源利用率的提升有明显效果,物理网络中内存与带宽资源利用率与之类似,此处不再赘述。

    图  7  不同迁移策略对迁移次数的影响
    图  8  不同迁移策略下的CPU利用率对比图

    针对5G网络切片动态迁移优化问题,本文以最小化服务降级惩罚为目标,对5G网络中的DSAM进行了研究,本文提出一种基于流量预测的DSAM策略。在流量预测部分,比较了集成学习算法与单个神经网络算法的预测效果,本文的预测算法精确度更高。在切片迁移部分,针对不同优先级服务请求做出适当的调整和迁移,通过服务降级惩罚对3种策略的性能进行了评估,本文将预测与迁移结合的策略能有效降低运营商服务惩罚,流量预测可以帮助减少不必要的切片迁移,防止迁移的连锁反应带来不必要的服务中断和资源浪费。结果表明,与仅调整的策略相比,本文的策略可以减少约50%的惩罚,与无预测的迁移策略相比,运营商所得惩罚减少了约15%,切片迁移次数降低近2倍,CPU资源利用率比无迁移的网络切片服务高出至少30%,比无预测的迁移策略高出10%。

  • [1]
    GHONGE M M, MANGRULKAR R, PJAWANDHIYA P M, et al. Future Trends in 5G and 6G: Challenges, Architecture, and Applications[M]. CRC Press, 2021.
    [2]
    DEBBABI F, JMAL R, FOURATI L C, et al. Algorithmics and modeling aspects of network slicing in 5G and Beyonds network: Survey[J]. IEEE Access, 2020, 8: 162748–162762. doi: 10.1109/ACCESS.2020.3022162
    [3]
    POZZA M, NICHOLSON P K, LUGONES D F, et al. On reconfiguring 5G network slices[J]. IEEE Journal on Selected Areas in Communications, 2020, 38(7): 1542–1554. doi: 10.1109/JSAC.2020.2986898
    [4]
    LI D F, PHONG P L, XUE K P, et al. Virtual network function placement considering resource optimization and SFC requests in cloud datacenter[J]. IEEE Transactions on Parallel and Distributed Systems, 2018, 29(7): 1664–1677. doi: 10.1109/TPDS.2018.2802518
    [5]
    SCIANCALEPORE V, COSTA-PEREZ X, and BANCHS A. RL-NSB: Reinforcement learning-based 5G network slice broker[J]. IEEE/ACM Transactions on Networking, 2019, 27(4): 1543–1557. doi: 10.1109/TNET.2019.2924471
    [6]
    XIAO Suchao and CHEN Wen. Dynamic allocation of 5G transport network slice bandwidth based on LSTM traffic prediction[C]. 2018 IEEE 9th International Conference on Software Engineering and Service Science (ICSESS), Beijing, China, 2018: 735–739.
    [7]
    SONG Chuang, ZHANG Min, HUANG Xuetian, et al. Machine learning enabling traffic-aware dynamic slicing for 5G optical transport networks[C]. 2018 Conference on Lasers and Electro-Optics (CLEO), San Jose, USA, 2018: 1–2.
    [8]
    唐伦, 赵培培, 赵国繁, 等. 基于深度信念网络资源需求预测的虚拟网络功能动态迁移算法[J]. 电子与信息学报, 2019, 41(6): 1397–1404. doi: 10.11999/JEIT180666

    TANG Lun, ZHAO Peipei, ZHAO Guofan, et al. Virtual network function migration algorithm based on deep belief network prediction of resource requirements[J]. Journal of Electronics &Information Technology, 2019, 41(6): 1397–1404. doi: 10.11999/JEIT180666
    [9]
    LI Taihui, ZHU Xiaorong, and LIU Xu. An end-to-end network slicing algorithm based on deep Q-learning for 5G network[J]. IEEE Access, 2020, 8: 122229–122240. doi: 10.1109/ACCESS.2020.3006502
    [10]
    WEI Fengsheng, FENG Gang, SUN Yao, et al. Proactive network slice reconfiguration by exploiting prediction interval and robust optimization[C]. GLOBECOM 2020 - 2020 IEEE Global Communications Conference, Taipei, China, 2020: 1–6.
    [11]
    CHERGUI H and VERIKOUKIS C. Offline SLA-constrained deep learning for 5G networks reliable and dynamic end-to-end slicing[J]. IEEE Journal on Selected Areas in Communications, 2020, 38(2): 350–360. doi: 10.1109/JSAC.2019.2959186
    [12]
    KAO C C, CHANG C W, CHO C P, et al. Deep learning and ensemble learning for traffic load prediction in real network[C]. 2020 IEEE Eurasia Conference on IOT, Communication and Engineering (ECICE), Yunlin, China, 2020: 36–39.
    [13]
    YIN Shan, ZHANG Zhan, YANG Chen, et al. Prediction-based end-to-end dynamic network slicing in hybrid elastic fiber-wireless networks[J]. Journal of Lightwave Technology, 2021, 39(7): 1889–1899. doi: 10.1109/JLT.2020.3045600
    [14]
    YU Hao, MUSUMECI F, ZHANG Jiawei, et al. Dynamic 5G RAN slice adjustment and migration based on traffic prediction in WDM metro-aggregation networks[J]. Journal of Optical Communications and Networking, 2020, 12(12): 403–413. doi: 10.1364/JOCN.403829
    [15]
    Small Cell Forum. Small cell virtualization: Functional splits and use cases[R]. Technical Report of Small Cell Forum, 2016.
  • Cited by

    Periodical cited type(4)

    1. 刘洋,廉咪咪. 基于深度学习的移动通信网络流量预测方法研究. 长江信息通信. 2024(02): 90-92 .
    2. 杨雪晴. 基于关联规则Web技术的自学平台诊断系统研究. 自动化与仪器仪表. 2023(05): 119-123 .
    3. 何迎利,胡光宇,张浩,曲志坚,王子灵. 基于局部信息增强注意力机制的网络流量预测. 科学技术与工程. 2023(30): 13014-13022 .
    4. 孙斐然. 基于5G网络的分布式超高清视频处理系统研究. 电子技术与软件工程. 2022(17): 42-45 .

    Other cited types(0)

  • 加载中

Catalog

    通讯作者: 陈斌, bchen63@163.com
    • 1. 

      沈阳化工大学材料科学与工程学院 沈阳 110142

    1. 本站搜索
    2. 百度学术搜索
    3. 万方数据库搜索
    4. CNKI搜索

    Figures(8)  / Tables(1)

    Article Metrics

    Article views (1042) PDF downloads(144) Cited by()
    Proportional views
    Related

    /

    DownLoad:  Full-Size Img  PowerPoint
    Return
    Return