高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

车载边缘计算中多任务部分卸载方案研究

王练 闫润搏 徐静

王练, 闫润搏, 徐静. 车载边缘计算中多任务部分卸载方案研究[J]. 电子与信息学报, 2023, 45(3): 1094-1101. doi: 10.11999/JEIT211620
引用本文: 王练, 闫润搏, 徐静. 车载边缘计算中多任务部分卸载方案研究[J]. 电子与信息学报, 2023, 45(3): 1094-1101. doi: 10.11999/JEIT211620
WANG Lian, YAN Runbo, XU Jing. Research on Multi-task Partial Offloading Scheme in Vehicular Edge Computing[J]. Journal of Electronics & Information Technology, 2023, 45(3): 1094-1101. doi: 10.11999/JEIT211620
Citation: WANG Lian, YAN Runbo, XU Jing. Research on Multi-task Partial Offloading Scheme in Vehicular Edge Computing[J]. Journal of Electronics & Information Technology, 2023, 45(3): 1094-1101. doi: 10.11999/JEIT211620

车载边缘计算中多任务部分卸载方案研究

doi: 10.11999/JEIT211620
基金项目: 教育部产学合作协同育人项目(XT1911042),重庆邮电大学科研启动基金(A2020-212)
详细信息
    作者简介:

    王练:女,博士,教授,研究方向为无线可靠传输

    闫润搏:女,硕士生,研究方向为车联网计算卸载

    徐静:女,硕士生,研究方向为无线可靠传输

    通讯作者:

    王练 wanglian@cqupt.edu.cn

  • 中图分类号: TN926

Research on Multi-task Partial Offloading Scheme in Vehicular Edge Computing

Funds: The Ministry of Education Industry-university Cooperative Education Project (XT1911042), Chongqing University of Posts and Telecommunications Research Start Fund (A2020-212)
  • 摘要: 现有车载应用设备对时延有更严苛的要求,车载边缘计算(VEC)能够充分利用网络边缘设备,如路边单元(RSU)进行协作处理,可有效地降低时延。现有研究多假设RSU计算资源充足,可提供无限的服务,但实际其计算资源会随着所需处理任务数量的增加而受限,对时延敏感的车载应用造成限制。该文针对此问题,提出一种车载边缘计算中多任务部分卸载方案,该方案在充分利用RSU的计算资源条件下,考虑邻近车辆的剩余可用计算资源,以最小化总任务处理时延。首先在时延限制和资源约束下分配各任务在本地、RSU和邻近车辆的最优卸载决策变量比例,其次以最小处理时延为目的在一跳通信范围内选择合适的空闲车辆作为处理部分任务的邻近车辆。仿真结果表明所提车载边缘计算中多任务部分卸载方案相较现有方案能较好地降低时延。
  • 近年来随着车联网领域的发展,多样化的新型车载应用设备不断涌现,比如紧急预警、路径导航、出行娱乐等等,从而更好地为人们提供便利的乘车与驾驶服务[1]。这些新型的车载应用在提供服务的过程中会产生相应的任务数据,随着服务的增多,数据量相应增加,同时任务数据需要被快速处理,这要求车辆的车载单元(On Board Unit, OBU)需具备一定的计算能力。然而,仅凭目前车载单元中有限的计算能力无法满足大数据量的车载应用服务,尤其是时延敏感性应用[2,3]。因此,将移动边缘计算(Mobile Edge Computing, MEC)[4]引入到车联网中,所形成的车载边缘计算(Vehicular Edge Computing, VEC)[5]是一个有效的解决措施。车载边缘计算是指通过在路边单元(Road Side Unit, RSU)上配备MEC服务器可就近提供车辆所需数据处理计算服务,可满足新型车载应用的需求。

    任务卸载作为VEC中的热点研究问题,得到了许多学术研究人员的关注[6]。任务卸载是指将车辆上生成的任务数据卸载到附近配备MEC服务器的RSU上进行处理,以此来弥补车载单元计算能力的不足。考虑车辆的任务匹配,Liu等人[7]从匀速、车辆跟随和时间统计3种不同的速度模型中,推导出了任务卸载时延模型,并以优化网络总时延为目的提出了基于定价的1对1匹配算法和基于定价的1对多匹配算法。考虑车辆的移动,Yang等人[8]以最小化系统成本为目标,分别在独立MEC服务器和协同MEC服务器两种情况下提出了移动感知的任务卸载方案和基于位置的卸载方案;Zhang等人[9]研究在车载网络中任务卸载和资源分配的联合问题,通过优化计算和通信服务中产生的时延和成本,提出了高效的基于匹配的任务卸载和资源分配算法;王寒松[10]研究车辆移动可能导致的卸载中断问题,将任务切分成许多更小的任务单元,以最小化任务完成时延为目标提出了避免传输中断的自适应性任务卸载策略;Zhao等人[11]研究车辆移动可能造成的通信影响,将路边停靠车辆作为传输中继,并充分利用停靠车辆的剩余可用计算资源,以降低车辆通信系统的能耗和计算开销为目的,提出了多任务输入的车载边缘缓存卸载方案。考虑车辆的能耗,Li等人[12]研究车辆的高能耗问题,提出了3层云计算框架下的任务卸载服务自适应分配策略,以成本效益为目标提出了低复杂度的启发式资源分配算法。考虑车辆的时延,Liu等人[13]研究多个计算密集型车辆应用问题,将每个应用划分为多个具有任务依赖关系的小任务,然后小任务被卸载到RSU的不同移动边缘服务器上处理,以最小化多个应用的平均完成时延为目的提出了一种高效的任务调度算法。Xiao等人[14]研究车辆密度应用问题,通过收集大规模私家车轨迹数据集来确定各个协作MEC服务器的角色,以最小化车辆应用时延为目的提出了一种基于非合作博弈的热感知协同MEC任务卸载策略。联合考虑车辆的时延和能耗,Luo等人[15]研究多车辆争夺计算和通信资源问题,通过设计博弈论模型,使单个车辆快速做出最优卸载决策,以最小化联合成本为目的,提出了一个基于自学习的分布式计算卸载算法。但以上研究工作几乎都未考虑到所处同一个RSU范围内拥有任务数据的车辆很多,同时RSU上配备服务器的计算资源有限的情况,此时使用现有研究方案会产生额外的时延。

    本文考虑的场景是密集型城市道路,所以车辆之间的相对速度较慢,当车载应用的任务数据量很大时,会将其卸载到RSU的服务器上进行处理。如果1个RSU覆盖范围之内有多个任务数据的车辆且RSU上配备MEC服务器的计算资源有限,就会导致任务数据不能够被及时处理,最终造成处理时延增加。针对以上问题本文提出一种以低时延为目标的多任务部分卸载方案,进一步考虑车辆雾网络(Vehicle Fog Network, VeFN)[16],可将剩余未被及时处理的任务数据卸载到邻近车辆上,利用邻近车辆的剩余可用计算资源处理任务数据,使各个车辆充分利用本地、边缘网络和邻近车辆的计算资源,实现处理任务数据低时延的目的。

    本文研究的场景是密集型车辆的城市道路,考虑1个单RSU多车辆的双向直行通路。如图1所示,RSU安装在道路上并部署VEC服务器,其中服务器的计算资源用FRSU表示,RSU的高度用h表示,RSU的覆盖范围半径用r表示。RSU覆盖范围内的车辆主要分为两种:一种是有任务数据要卸载的任务型车辆,另一种是有可用剩余计算资源并提供服务的服务型车辆,其中任务型车辆有n辆车,记为Vi(i=1,2,,n),服务型车辆有m辆车,记为Vj(j=1,2,,m)。车辆均匀分布在道路上,并且在一定时间内保持匀速行驶。每个任务型车辆都含有一个任务,任务描述为Ii={Di,Ci,tmaxi} (i=1,2,,n),其中Di表示车辆Vi的任务数据大小,Ci表示处理车辆Vi任务所需要的CPU周期数,tmaxi表示处理车辆Vi任务可以容忍的最大时延阈值。每个服务型车辆都有可用剩余资源,用Fj(j=1,2,,m)表示。本文所用核心符号,如表1所示。

    图 1  网络结构模型图
    表 1  部分符号
    符号描述
    α本地计算所占任务比例
    βRSU计算所占任务比例
    γ邻近车辆计算所占任务比例
    Di车辆Vi的任务数据大小
    Ci处理任务所需要的计算资源
    tmaxi最大可容忍时延阈值
    ti,RSU车辆Vi在RSU内的最大传输时延
    ti,j车辆Vi在车辆Vj覆盖范围内的可持续时延
    tloci本地计算时延
    TV2Ii,RSURSU计算时延
    TV2Vi,j邻近车辆计算时延
    Ti车辆Vi任务处理时延
    Ri(t)V2I通信中信道传输速率
    di,RSU(t)V2I通信中随时间变化的距离变量
    ti,RSUV2I通信中车辆Vi 在RSU内的最大传输时延
    ¯RiV2I通信中平均传输速率
    Ri,j(t)V2V通信中信道传输速率
    di,j(t)V2V通信中相对距离
    ti,jV2V通信中车辆Vi在车辆Vj覆盖范围内的可持续时延
    ¯Ri,jV2V通信中平均传输速率
    下载: 导出CSV 
    | 显示表格

    本方案中,任务型车辆的任务被分为3部分计算,分别是:部分任务选择在车辆本地计算,部分任务被卸载到RSU的服务器上计算,部分任务被卸载到邻近服务型车辆上计算。各部分任务的数据大小占总数据大小的决策变量分别是αi,βiγi,其中αi+βi+γi=1,不同的决策变量比例会影响到总任务处理时延。

    2.2.1   本地计算

    当车辆Vi在本地处理任务时,产生本地计算时延tloci,计算时延受到车辆计算能力的影响。车辆的计算能力主要来源于车载单元,不同类型的车载单元拥有不同的计算能力,用参数fli表示车辆Vi的计算能力,因此可得到车辆Vi的本地计算时延

    tloci=αi×Cifli
    (1)
    2.2.2   RSU计算

    当车辆Vi选择在RSU的服务器上处理任务时,生成的卸载时延主要分为4部分:向RSU传输数据产生的上行传输时延、任务在服务器上等待被处理的等待时延、服务器处理任务的执行时延和RSU向车辆Vi返回结果数据的反馈时延。对于返回结果的反馈时延,由于处理完的数据远小于上行传输的数据,因此反馈时延往往忽略不计[17],故RSU计算时延只需要计算上行传输时延、任务等待时延和执行时延。

    用参数ttransi,RSU表示车辆向RSU传输的上行传输时间,即

    ttransi,RSU=βi×Di¯Ri
    (2)

    车辆Vi向RSU传输数据时,车辆Vi必须在RSU的覆盖范围内,因此上行传输时延必须小于车辆Vi在RSU内的最大传输时延,即

    ttransi,RSUti,RSU
    (3)

    用参数tcali,RSU表示服务器处理数据时的执行时延,即

    tcali,RSU=βi×Cifi,RSU
    (4)

    其中,参数fi,RSU表示RSU对于车辆Vi的计算能力。

    假设RSU服务器上的计算资源用参数FRSU表示,RSU对于车辆Vi的计算能力不得超过其计算资源,以及同一时间间隔内RSU分给每个任务型车辆的计算能力之和必须小于等于服务器上的计算资源,即

    0fi,RSUFRSU
    (5)
    0ni=1fi,RSUFRSU
    (6)

    当大量的任务型车辆需要将任务卸载到RSU上的服务器处理时,由于服务器的计算资源有限,任务数量超过服务器计算能力,一些任务需要等待,因此产生了等待时延。本方案采取先到先服务原则,根据传输时延高低分配其计算资源,传输时延低的任务优先被处理,处理完后再将其计算资源分配给未被处理的任务,因此可得到等待时延twaiti,RSU,即

    twaiti,RSU=ttransk,RSU+tcalk,RSUttransi,RSU
    (7)

    其中,ttransk,RSUtcalk,RSU表示车辆Vk的传输时延和执行时延,车辆Vk为优先被服务器处理任务的车辆。

    最后,可得到RSU的计算时延TV2Ii,RSU,即

    TV2Ii,RSU=ttransi,RSU+tcali,RSU+twaiti,RSU
    (8)
    2.2.3   邻近车辆计算

    假设任务型车辆Vi选择将任务卸载到服务型车辆Vj上,产生的卸载时延由3部分组成:V2V通信的传输时延、服务型车辆处理数据的执行时延和结果反馈时延。与RSU计算同理,结果反馈时延忽略不计。

    用参数ttransi,j表示车辆Vi与车辆Vj传输数据的传输时延,即

    ttransi,j=γi×Di¯Ri,j
    (9)

    当车辆ViVj传输数据时,车辆Vi必须在Vj的覆盖范围内才能保证数据传输,即传输时延要小于车辆Vi在车辆Vj覆盖范围内的可持续时间

    ttransi,jti,j
    (10)

    用参数tcali,j表示车辆Vj处理数据的执行时延,即

    tcali,j=γi×Cifi,j
    (11)

    其中,参数fi,j表示车辆Vj对于车辆Vi的计算能力。

    假设车辆Vj剩余可用资源用参数Fj表示,同RSU计算一样,可得

    0fi,jFj
    (12)
    0ni=1fi,jFj
    (13)

    最后,可得邻近车辆Vj计算时延TV2Vi,j,即

    TV2Vi,j=ttransi,j+tcali,j
    (14)

    由于车辆Vi的任务被分为3部分,这3部分在同一间隔内并发处理,因此任务处理时延取决于这3部分处理的最大值。如果任务处理时延由本地计算部分决定,由于这部分并没有经过任何卸载,任务处理时延等于本地计算时延;如果任务处理时延由RSU计算时延决定,任务处理时延由传输时延、等待时延和执行时延3部分组成;如果任务处理时延由邻近车辆计算时延决定,需要由传输时延和执行时延两部分组成。综上所述,车辆Vi任务处理时延为

    Ti=max(tloci,TV2Ii,RSU,TV2Vi,j)=max(αi×Cifli,βi×Di¯Ri+βi×Di¯Ri+twaiti,RSU,γi×Di¯Ri,j+γi×Cifi,j)
    (15)

    当处理N个车辆的任务时,会生成N个任务处理时延,因此得到总任务处理时延为

    T=ni=1Ti
    (16)

    本方案主要研究任务卸载方案的设计,其目的是在最大可容忍时延阈值和计算资源的约束下最小化总任务处理时延,公式化为

    minα,β,γT=minα,β,γni=1Ti=ni=1minαi,βi,γiTi
    (17)
    s.t.C1:αi+βi+γi=1,0αi1,0βi1,0γi1,i{1,2,,n}
    C2:max(tloci,TV2Ii,RSU,TV2Vi,j)tmaxi,i{1,2,,n},j{1,2,,m}
    C3:ttransi,RSUti,RSU,i{1,2,,n}
    C4:ttransi,jti,j,i{1,2,,n},j{1,2,,m}
    C5:0fi,RSUFRSU,i{1,2,,n}
    C6:0ni=1fi,RSUFRSU
    C7:0fi,jFj,i{1,2,,n},j{1,2,,m}
    C8:0ni=1fi,jFj,j{1,2,,m}

    其中,约束C1表示αi,βiγi之间的关系;约束C2表示每个任务车辆处理时延不得超过最大可容忍时延阈值;约束C3,C4分别表示V2I和V2V通信的传输时延不得超过车辆在RSU和邻近车辆的停留时延;约束C5~C8表示各部分的计算能力不得超过最大可用计算资源。

    本方案考虑将车辆的任务分成3部分,分别在本地计算、卸载到RSU上计算和卸载到邻近车辆计算,使得处理任务的时延达到最小。首先需要合理分配好3部分任务数据的比例,其次找到合适的邻近车辆进行计算,最后根据比例计算总处理时延。

    对于车辆Vi,3部分的决策变量分别用参数αi, βiγi表示,根据方案可得3个决策变量的分配主要是通过时延约束和速度来确定。

    首先,对于αi,本地计算时延必须小于最大可容忍时延阈值tmaxi,由传输速率定义可得表达式为

    tloci=αi×Ciflitmaxi
    (19)

    变换可得

    αitmaxi×fliCi
    (20)

    其次,对于βi,RSU的计算时延也同样要在最大可容忍时延阈值范围内完成,同时传输时延要小于车辆Vi在RSU下的最大传输时延ti,RSU,由ti,RSU定义公式以及式(2)—式(4)、式(7)、式(8)可得表达式为

    ttransi,RSU+tcali,RSU=βi×Di¯Ri+βi×Cifi,RSUtmaxi
    (21)
    ttransi,RSU=βi×Di¯Riti,RSU
    (22)

    变换分别可得

    β1itmaxi{Di¯Ri+Cifi,RSU}
    (23)
    β2i{(2rl0i)ׯRivi×Di,vi>0l0iׯRi|vi|×Di,vi<0
    (24)

    最后,对于γi,由于是考虑将剩余未及时处理的任务卸载到邻近车辆,因此变量γi取决于αiβi,由αi+βi+γi=1可得

    γ1i=1αiβi
    (25)

    同时,考虑到邻近车辆计算时延需要满足在最大可容忍时延阈值内,以及V2V传输时延不得超过车辆与车辆之间的可持续时延。假设车辆Vj作为车辆Vi的任务卸载车辆,因此由式(9)—式(11)、式(14)可得

    ttransi,j+tcali,j=γi×Di¯Ri,j+γi×Cifi,jtmaxi
    (26)
    ttransi,j=γi×Di¯Ri,jti,j
    (27)

    变换可得

    γ2itmaxi{Di¯Ri,j+Cifi,j}
    (28)
    γ3iti,jׯRi,jDi
    (29)

    在V2V通信中考虑成本太高问题,车辆的全球化信息可能无法获取,因此车辆通信主要选择获取局部信息。车辆之间的通信受最大传输距离的限制影响,车辆之间的距离会随着时间而发生变化。因此在本方案中任务型车辆选择一跳通信范围内的空闲车辆卸载其剩余未被处理的任务数据。

    在本方案中,首先需要从服务型车辆Vj里找到每个任务型车辆Vi一跳通信范围内的所有空闲车辆,用集合ΓVk表示;其次计算每个任务型车辆选取的集合ΓVk中的计算时延;最后比较计算时延的大小,选取计算时延最低的车辆作为要卸载的合适邻近车辆。具体过程如算法1所示。

    算法1 选择合适邻近车辆算法
     输入:任务型车辆Vi的相关数据参数,服务型车辆Vj的相关数据
        参数
     输出:车辆Vi的合适邻近车辆Vi,j
     (1) for Vi(i{1,2,,n}) do
     (2)  初始化:候选服务型车辆集合ΓVk=
     (3)  for Vj(j{1,2,,m}) do
     (4)   根据l0il0j计算ViVj两车之间的距离:
         leni,j=|l0il0j|
     (5)   if leni,jri,j
     (6)   ΓVk=ΓVk+Vj
     (7)   end if
     (8)  end for
     (9)  for VkΓVk do
     (10)    初始化:候选车辆计算时延集合ΦT=
     (11)  从分配决策变量比例算法获取变量γ1i
     (12)  通过式(5)计算出候选车辆计算时延Ti,k
     (13)   ΦT=ΦT+Ti,k
     (14) end for
     (15) Vi,j=min(ΦT,VkΓVk)
     (16) return Vi,j
     (17) end for
    下载: 导出CSV 
    | 显示表格

    在本方案中,每个任务型车辆Vi根据决策变量αi,βiγi的比例,将其部分任务卸载到RSU服务器和符合条件的任务型车辆Vi,j上,并分别在本地、RSU、任务型车辆Vi,j上处理相应的任务数据。在进行卸载与处理数据过程中会产生相应的时延,直到车辆任务数据被处理结束,从而得到车辆Vi的计算时延,如算法2所示,描述了本方案卸载算法的整个过程。

     算法2 卸载算法
     输入:任务型车辆Vi的相关数据参数,路边单元RSU的相关数据
        参数,合适邻近车辆Vi,j,卸载决策变量αi,βi,γi,标志位
        flagi
     输出:总计算时延T
     (1) 初始化:T=0
     (2) for Vi(i{1,2,,n}) do
     (3)  从分配决策变量比例算法中获取变量αi
     (4)  通过式(1)计算本地计算时延tloci
     (5)  从分配决策变量比例算法中获取变量βi
     (6)  通过式(2)、式(4)计算RSU传输时延ttransi,RSU和执行时延
         tcali,RSU
     (7)  从分配决策变量比例算法中获取变量flagi
     (8)  if flagi=0
     (9)   等待时延twaiti,RSU=0
     (10)  通过式(8)计算RSU计算时延TV2Ii,RSU
     (11) else if flagi=1
     (12)  通过式(7)计算等待时延twaiti,RSU
     (13)  通过式(8)计算RSU计算时延TV2Ii,RSU
     (14) end if
     (15) if TV2Ii,RSUti,RSU do
     (16)  处理完的结果直接发送给车辆Vi
     (17) else
     (18)  处理完的结果传输到离Vi最近的RSU服务器,然后
         RSU传输给Vi
     (19) end if
     (20) 从分配决策变量比例算法中获取变量γi
     (21) 从算法2中获取变量Vi,j
     (22) 计算出V2V通信的平均传输速率¯Ri,j
     (23) 通过式(9)、式(11)、式(14)计算出临近车辆计算时延TV2Vi,j
     (24) 计算车辆Vi、车辆Vi,j的当前位置l1i,l1j
     (25) if |l1il1j|ri,j do
     (26)  处理完的结果直接发送给车辆
     (27) else
     (28)  处理完的数据先传输到RSU服务器,再由RSU服务器转
         送到车辆Vi
     (29) Ti=max(tloci,TV2Ii,RSU,TV2Vi,j)
     (30) T=T+Ti
     (31) end for
     (32) return T
    下载: 导出CSV 
    | 显示表格

    对于卸载到RSU服务器上的任务被处理结束后,如果当前车辆Vi仍在RSU的覆盖范围之内,数据直接传输到车辆Vi,否则数据传送到离车辆Vi最近的RSU服务器,再转送到车辆Vi。对于卸载到服务型车辆Vi,j上的任务被处理结束后,如果当前车辆Vi和车辆Vi,j之间的距离不超过车辆之间通信的最大传输距离ri,j,数据直接传送到车辆Vi,否则数据传送到RSU服务器,由RSU服务器转送到车辆Vi

    本文采用MATLAB软件进行仿真,假设仿真场景为双向直行城市道路,行驶在道路上的车辆既可以与RSU通信,又可以与车辆之间进行通信。在仿真场景中,考虑一个配备MEC服务器的RSU,并且任务型车辆和服务型车辆行驶在RSU附近。假设RSU的高度h=20 m,覆盖范围半径r=300 m,MEC服务器的计算资源FRSU=11.8 GHz。参与计算的车辆计算能力fli=[1,2]×108 cycles/s,服务型车辆剩余可用计算资源Fj=[1,2.5] GHz,车辆之间通信的最大传输距离ri,j=200 m。在道路上车辆匀速行驶,其中任务型车辆的行驶速度设定为vi=30 km/h或者vi=30 km/h,任务型车辆的行驶速度设定为vj=[30,30] km/h,车辆在仿真时均匀分布,其车辆之间相对距离取值为[10,30] m。本文中仿真对比方案为传统全RSU卸载方案、部分卸载方案[18]和基于排序的匹配算法(Ranking Based Matching Algorithm, RBMA)方案[9]

    图2所示,当服务型车辆数为20,处理任务的最大可容许时延阈值为6 s时,各方案总处理时延随着任务型车辆个数增加的变化。仿真结果表明本文所提方案的总处理时延始终小于部分卸载方案。对全RSU卸载方案和本方案进行对比,当任务型车辆个数小于26时,全RSU卸载方案的总处理时延要小于本文方案,但当车辆大于26时总处理时延反而大于本文方案,这是因为在全卸载方案中当任务型车辆少的时候,卸载到RSU上的任务数据量小,配备服务器的计算资源能够及时处理数据,但随着车辆增加,配备服务器的计算资源来不及处理大量的任务数据,大量任务数据需要等待被处理而产生相应的等待时延,造成时延的快速增加;而本文方案会将处于等待的任务数据一部分卸载到邻近车辆上进行处理,能够有效地降低时延。对于RBMA方案和本文方案对比,当任务型车辆个数小于26时,RBMA方案的总处理时延要小于本文方案,但是当车辆大于26时总处理时延大于本文方案,这是由于此时RBMA方案中大量的任务数据卸载到邻近车辆,而邻近车辆车载单元的计算能力要远小于RSU的服务器的计算能力,因此造成处理时延增加;而本文方案中卸载到邻近车辆的数据处理时延需要在最大可容忍时延阈值范围之内,超过的部分任务数据卸载到RSU等待被处理,从而减少总处理时延。因此当存在大量的任务型车辆时,本文所提方案可以明显降低任务处理时延。

    图 2  不同任务型车辆数与对应的总处理时延对比

    图3所示,当任务型车辆数和服务型车辆数不变,即分别为40和20时,各方案平均处理时延随着最大可容忍时延阈值的变化。仿真结果表明本文方案在时延方面明显优于部分卸载和RMBA两种方案。本文方案与部分卸载方案中平均处理时延差距逐步减小,这是由于随着最大可容忍时延阈值的增加,车辆在本地车载单元上处理的任务数据逐步增加,卸载到RSU服务器和邻近车辆的任务量变小,那么任务处理时延大部分取决于本地计算时延,故两者方案差距逐步递减。对于RMBA方案中时延递减情况,主要是因为随着最大可容忍时延阈值的增加,有的车辆的任务数据在本地车载单元即可处理完成,卸载到RSU和邻近车辆的任务数据量降低,从而任务数据的总处理时延降低,相应的平均处理时延也逐渐降低。

    图 3  不同最大可容忍时延阈值对应的车辆平均处理时延对比

    图4所示,在其他指标固定的情况下,任务的总处理时延随着RSU上配备服务器的计算资源增加的变化。仿真结果表明随着计算资源的增加,所有方案中的总处理时延皆在下降,这是由于随着计算资源的增加,RSU的计算能力提升,相应卸载到RSU上处理的任务量增加,因此使得任务的总处理时延降低。在所有方案中RMBA方案因为其更多地依赖于RSU上的计算资源数,随着计算资源增加,原卸载到邻近车辆的任务有部分卸载到RSU上,所以其总处理时延下降的幅度比较大。另外3种方案不仅仅依赖于RSU配备的计算资源,因此时延下降得较为缓慢。总体而言,本方案的性能仍优于另外3种方案。

    图 4  不同RSU配备计算资源下的总处理时延对比

    本文在城市交通场景下设计车联网下的单RSU多车辆系统模型,并以此提出一种车载边缘计算中多任务部分卸载方案,解决了现有RSU上计算资源受限的问题。该方案为保障多车辆用户的低时延、高可靠的需求,设计了一种基于车载边缘计算的部分任务卸载算法。该算法通过最大可容忍时延阈值和设备计算资源的约束来获取任务决策变量的最佳卸载比例,从而优化RSU端的等待时延,并依据邻近车辆中最小计算时延指标来选取合适的空闲车辆。仿真结果表明,在多车辆任务卸载情况下,邻近车辆的计算资源减轻了RSU端的负担,使任务等待时延降低。相同条件下,本文方案相较于其他方案降低7%~17%的总时延,在任务处理时延上更优,证明了该方案的有效性。

  • 图  1  网络结构模型图

    图  2  不同任务型车辆数与对应的总处理时延对比

    图  3  不同最大可容忍时延阈值对应的车辆平均处理时延对比

    图  4  不同RSU配备计算资源下的总处理时延对比

    表  1  部分符号

    符号描述
    α本地计算所占任务比例
    βRSU计算所占任务比例
    γ邻近车辆计算所占任务比例
    Di车辆Vi的任务数据大小
    Ci处理任务所需要的计算资源
    tmaxi最大可容忍时延阈值
    ti,RSU车辆Vi在RSU内的最大传输时延
    ti,j车辆Vi在车辆Vj覆盖范围内的可持续时延
    tloci本地计算时延
    TV2Ii,RSURSU计算时延
    TV2Vi,j邻近车辆计算时延
    Ti车辆Vi任务处理时延
    Ri(t)V2I通信中信道传输速率
    di,RSU(t)V2I通信中随时间变化的距离变量
    ti,RSUV2I通信中车辆Vi 在RSU内的最大传输时延
    ¯RiV2I通信中平均传输速率
    Ri,j(t)V2V通信中信道传输速率
    di,j(t)V2V通信中相对距离
    ti,jV2V通信中车辆Vi在车辆Vj覆盖范围内的可持续时延
    ¯Ri,jV2V通信中平均传输速率
    下载: 导出CSV
    算法1 选择合适邻近车辆算法
     输入:任务型车辆Vi的相关数据参数,服务型车辆Vj的相关数据
        参数
     输出:车辆Vi的合适邻近车辆Vi,j
     (1) for Vi(i{1,2,,n}) do
     (2)  初始化:候选服务型车辆集合ΓVk=
     (3)  for Vj(j{1,2,,m}) do
     (4)   根据l0il0j计算ViVj两车之间的距离:
         leni,j=|l0il0j|
     (5)   if leni,jri,j
     (6)   ΓVk=ΓVk+Vj
     (7)   end if
     (8)  end for
     (9)  for VkΓVk do
     (10)    初始化:候选车辆计算时延集合ΦT=
     (11)  从分配决策变量比例算法获取变量γ1i
     (12)  通过式(5)计算出候选车辆计算时延Ti,k
     (13)   ΦT=ΦT+Ti,k
     (14) end for
     (15) Vi,j=min(ΦT,VkΓVk)
     (16) return Vi,j
     (17) end for
    下载: 导出CSV
     算法2 卸载算法
     输入:任务型车辆Vi的相关数据参数,路边单元RSU的相关数据
        参数,合适邻近车辆Vi,j,卸载决策变量αi,βi,γi,标志位
        flagi
     输出:总计算时延T
     (1) 初始化:T=0
     (2) for Vi(i{1,2,,n}) do
     (3)  从分配决策变量比例算法中获取变量αi
     (4)  通过式(1)计算本地计算时延tloci
     (5)  从分配决策变量比例算法中获取变量βi
     (6)  通过式(2)、式(4)计算RSU传输时延ttransi,RSU和执行时延
         tcali,RSU
     (7)  从分配决策变量比例算法中获取变量flagi
     (8)  if flagi=0
     (9)   等待时延twaiti,RSU=0
     (10)  通过式(8)计算RSU计算时延TV2Ii,RSU
     (11) else if flagi=1
     (12)  通过式(7)计算等待时延twaiti,RSU
     (13)  通过式(8)计算RSU计算时延TV2Ii,RSU
     (14) end if
     (15) if TV2Ii,RSUti,RSU do
     (16)  处理完的结果直接发送给车辆Vi
     (17) else
     (18)  处理完的结果传输到离Vi最近的RSU服务器,然后
         RSU传输给Vi
     (19) end if
     (20) 从分配决策变量比例算法中获取变量γi
     (21) 从算法2中获取变量Vi,j
     (22) 计算出V2V通信的平均传输速率¯Ri,j
     (23) 通过式(9)、式(11)、式(14)计算出临近车辆计算时延TV2Vi,j
     (24) 计算车辆Vi、车辆Vi,j的当前位置l1i,l1j
     (25) if |l1il1j|ri,j do
     (26)  处理完的结果直接发送给车辆
     (27) else
     (28)  处理完的数据先传输到RSU服务器,再由RSU服务器转
         送到车辆Vi
     (29) Ti=max(tloci,TV2Ii,RSU,TV2Vi,j)
     (30) T=T+Ti
     (31) end for
     (32) return T
    下载: 导出CSV
  • [1] FENG Cheng and JING Weipeng. Deadline-constrained data aggregation scheduling in urban vehicular networks[C]. 19th Annual IEEE International Conference on e-Health Networking, Applications and Services (Healthcom), Dalian, China, 2017: 1–5.
    [2] MAO Yuyi, ZHANG Jun, and LETAIEF K B. Joint task offloading scheduling and transmit power allocation for mobile-edge computing systems[C]. IEEE Wireless Communications and Networking Conference (WCNC), San Francisco, USA, 2017: 1–6.
    [3] LIU Yongnan, GUAN Xin, PENG Yu, et al. Blockchain-based task offloading for edge computing on low-quality data via distributed learning in the internet of energy[J]. IEEE Journal on Selected Areas in Communications, 2022, 40(2): 657–676. doi: 10.1109/JSAC.2021.3118417
    [4] DAI Yueyue, XU Du, MAHARJAN S, et al. Joint computation offloading and user association in multi-task mobile edge computing[J]. IEEE Transactions on Vehicular Technology, 2018, 67(12): 12313–12325. doi: 10.1109/TVT.2018.2876804
    [5] HUANG C M, CHIANG M S, DAO D T, et al. V2V data offloading for cellular network based on the software defined network (SDN) inside mobile edge computing (MEC) architecture[J]. IEEE Access, 2018, 6: 17741–17755. doi: 10.1109/ACCESS.2018.2820679
    [6] HOU Xueshi, LI Yong, CHEN Min, et al. Vehicular fog computing: A viewpoint of vehicles as the infrastructures[J]. IEEE Transactions on Vehicular Technology, 2016, 65(6): 3860–3873. doi: 10.1109/TVT.2016.2532863
    [7] LIU Pengju, LI Junluo, and SUN Zhongwei. Matching-based task offloading for vehicular edge computing[J]. IEEE Access, 2019, 7: 27628–27640. doi: 10.1109/ACCESS.2019.2896000
    [8] YANG Chao, LIU Yi, CHEN Xin, et al. Efficient mobility-aware task offloading for vehicular edge computing networks[J]. IEEE Access, 2019, 7: 26652–26664. doi: 10.1109/ACCESS.2019.2900530
    [9] ZHANG Yifan, QIN Xiaoqi, and SONG Xianxin. Mobility-aware cooperative task offloading and resource allocation in vehicular edge computing[C]. IEEE Wireless Communications and Networking Conference Workshops, Seoul, Korea (South), 2020: 1–6.
    [10] 王寒松. 车联网中基于MEC的计算任务卸载策略研究[D]. [硕士论文], 北京邮电大学, 2019.

    WANG Hansong. Research of computing offloading scheme for MEC-enabled vehicular networks[D]. [Master dissertation], Beijing University of Posts and Telecommunications, 2019.
    [11] ZHAO Junhui, DONG Peiyang, MA Xiaoting, et al. Mobile-aware and relay-assisted partial offloading scheme based on parked vehicles in B5G vehicular networks[J]. Physical Communication, 2020, 42: 101163. doi: 10.1016/j.phycom.2020.101163
    [12] LI Xin, DANG Yifan, AAZAM M, et al. Energy-efficient computation offloading in vehicular edge cloud computing[J]. IEEE Access, 2020, 8: 37632–37644. doi: 10.1109/ACCESS.2020.2975310
    [13] LIU Yujiong, WANG Shangguang, ZHAO Qinglin, et al. Dependency-aware task scheduling in vehicular edge computing[J]. IEEE Internet of Things Journal, 2020, 7(6): 4961–4971. doi: 10.1109/JIOT.2020.2972041
    [14] XIAO Zhu, DAI Xingxia, JIANG Hongbo, et al. Vehicular task offloading via heat-aware MEC cooperation using game-theoretic method[J]. IEEE Internet of Things Journal, 2020, 7(3): 2038–2052. doi: 10.1109/JIOT.2019.2960631
    [15] LUO Quyuan, LI Changle, LUAN T H, et al. Self-learning based computation offloading for internet of vehicles: Model and algorithm[J]. IEEE Transactions on Wireless Communications, 2021, 20(9): 5913–5925. doi: 10.1109/TWC.2021.3071248
    [16] LI Haotian, LI Xujie, ZHANG Mingyue, et al. Multicast-oriented task offloading for vehicle edge computing[J]. IEEE Access, 2020, 8: 187373–187383. doi: 10.1109/ACCESS.2020.3030943
    [17] WANG Yanting, SHENG Min, WANG Xijun, et al. Mobile-edge computing: Partial computation offloading using dynamic voltage scaling[J]. IEEE Transactions on Communications, 2016, 64(10): 4268–4282. doi: 10.1109/TCOMM.2016.2599530
    [18] REN Jinke, YU Guanding, CAI Yunlong, et al. Partial offloading for latency minimization in mobile-edge computing[C]. GLOBECOM 2017 - 2017 IEEE Global Communications Conference, Singapore, 2017: 1–6.
  • 期刊类型引用(2)

    1. 公茂果,罗天实,李豪,何亚静. 面向演化计算的群智协同研究综述. 电子与信息学报. 2024(05): 1716-1741 . 本站查看
    2. 赵振博,付青坤,任雪容. 基于改进SMDP的车载任务卸载决策算法. 计算机测量与控制. 2024(06): 206-212 . 百度学术

    其他类型引用(3)

  • 加载中
图(4) / 表(3)
计量
  • 文章访问数:  693
  • HTML全文浏览量:  599
  • PDF下载量:  181
  • 被引次数: 5
出版历程
  • 收稿日期:  2021-12-31
  • 修回日期:  2022-09-23
  • 网络出版日期:  2022-09-27
  • 刊出日期:  2023-03-10

目录

/

返回文章
返回