高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

融合区块链与雾计算系统中基于网络时延和资源管理的优化任务卸载方案

刘通 唐伦 何小强 陈前斌

刘通, 唐伦, 何小强, 陈前斌. 融合区块链与雾计算系统中基于网络时延和资源管理的优化任务卸载方案[J]. 电子与信息学报, 2020, 42(9): 2180-2185. doi: 10.11999/JEIT190654
引用本文: 刘通, 唐伦, 何小强, 陈前斌. 融合区块链与雾计算系统中基于网络时延和资源管理的优化任务卸载方案[J]. 电子与信息学报, 2020, 42(9): 2180-2185. doi: 10.11999/JEIT190654
Tong LIU, Lun TANG, Xiaoqiang HE, Qianbin CHEN. Optimal Task Offloading Scheme Based on Network Delay and Resource Management in Joint Blockchain and Fog Computing System[J]. Journal of Electronics & Information Technology, 2020, 42(9): 2180-2185. doi: 10.11999/JEIT190654
Citation: Tong LIU, Lun TANG, Xiaoqiang HE, Qianbin CHEN. Optimal Task Offloading Scheme Based on Network Delay and Resource Management in Joint Blockchain and Fog Computing System[J]. Journal of Electronics & Information Technology, 2020, 42(9): 2180-2185. doi: 10.11999/JEIT190654

融合区块链与雾计算系统中基于网络时延和资源管理的优化任务卸载方案

doi: 10.11999/JEIT190654
基金项目: 国家自然科学基金(61571073),重庆市教委科学技术研究重大项目(KJZD-M201800601)
详细信息
    作者简介:

    刘通:男,1985年生,博士生,高级工程师,研究方向为边缘计算、区块链等

    唐伦:男,1973年生,博士,教授,博士生导师,研究方向为新一代无线通信网络、异构蜂窝网络、软件定义无线网络等

    何小强:男,1992年生,博士生,研究方向为5G网络切片、边缘计算等

    陈前斌:男,1967年生,博士,教授,博士生导师,研究方向为个人通信、多媒体信息处理与传输、下一代移动通信网络等

    通讯作者:

    刘通 liuyyshiwo@163.com

  • 中图分类号: TN929.5

Optimal Task Offloading Scheme Based on Network Delay and Resource Management in Joint Blockchain and Fog Computing System

Funds: The National Natural Science Foundation of China (61571073), The Science and Technology Research Program of Chongqing Municipal Education Commission (KJZD-M201800601)
  • 摘要: 针对如何基于有限的系统剩余资源进行任务优化卸载以增加移动终端的数字货币收益问题,该文在融合区块链与雾计算系统中提出一种基于节点剩余资源、网络时延的任务卸载方案。为了实现任务的优化卸载,首先基于任务量对移动终端的预期收益进行了分析,其次基于网络节点剩余计算资源、存储资源、功率资源、网络时延联合分析了移动终端的支出。此后以最大化移动终端的数字货币收益为优化目标建立了数学优化模型,并利用模拟退火(SA)算法对优化模型进行求解。仿真结果证明上述方案的有效性。
  • 雾计算技术的基本思想是将由云服务器提供的网络功能下沉到网络边缘,由于雾服务器的位置部署更加靠近网络用户,因此与云计算相比,雾计算可以有效降低数据传输时延。此外,雾计算采用的分布式处理方式还能有效缓解大量数据涌入云端造成的网络拥塞问题。雾计算所具备的优势能够满足未来的网络应用需求,文献[1-4]对其进行了深入的研究。此外,区块链是基于互联网的分布式记账技术,其特点是分散和透明。分布式账本的出现可以有效地解决集中认证方式中交易成本昂贵,数据容易丢失等问题,并且还可以有效提升虚拟货币体系中节点间的信任度[5,6]。这些优点使得每个安装了区块链应用程序的设备都能参与到数据的记录和存储中,极大提升了电子交易中记账方式的灵活性和安全性。文献[7-10]对区块链技术进行了研究。

    在区块链技术中,通过求解计算密集型的工作量证明(Proof of Work, PoW)难题,矿工将获得可观的数字货币收入。求解PoW难题需要消耗大量计算资源,因此在现实应用中通常需要部署大规模的硬件设施。然而,在尺寸有限的移动终端设备上部署大规模计算单元是不切实际的,所以区块链技术在移动终端上的广泛应用受到了很大限制。

    为了解决上述问题,可以考虑将雾计算技术引入到区块链系统中,借助雾计算提供的强大算力进行PoW难题的求解,并向安装了区块链应用程序的移动用户(Mobile User with Blockchain, MUB)提供低时延的网络性能保证。文献[11]从安全性、通用性的角度分析了融合区块链和雾计算系统的可行性。通过将区块链结合到雾计算网络中,系统可以在大量分布式边缘节点上提供对网络的可靠访问和控制,存储和计算。此外,还有少数学者在融合区块链和雾计算网络环境中基于资源管理进行了系统收益的研究。文献[12]提出了一种Stackelberg博弈模型,为雾计算中的资源分配提供有效的管理方法。此后引入支持雾计算的区块链系统模型,以帮助雾服务提供商获取更多利润。

    这些研究成果致力于研究雾计算和区块链技术的融合,并有少数文献分析了系统的资源管理和效益问题。然而,却没有对MUB的收入问题进行研究。如文献[12]中的作者只分析了网络运营商的利润。本文结合网络资源管理,重点研究了融合区块链和雾计算系统中的优化任务卸载策略。总体而言,本文的主要贡献有以下几个方面:(1)基于节点剩余的计算资源、存储资源和功率资源对MUB虚拟货币收益的影响进行了分析,具有充足资源的雾节点提供较低的服务报价吸引MUB的任务,从而提升网络的闲置资源利用率。(2)分析了将PoW难题迁移至各种类型雾节点时的传输时延和计算时延对MUB收益的影响,并获得了雾节点计算PoW难题的总时延的闭合表达式。(3)基于节点剩余资源和网络时延的分析,以最大化MUB的虚拟货币收入为目的,建立了一种优化任务卸载模型。

    融合区块链及雾计算系统的分布式雾服务结构如图1所示,根据雾服务器提供的服务能力和雾服务器的移动性,将雾节点分为3类:基站雾服务器 (Base station-based fog Node, BN),固定位置雾服务器 (Fixed-location fog Node, FN)和移动雾服务器 (Moving fog Node, MN)。基站雾服务器指在基站中部署多个具有雾计算能力的雾服务器,面向网络接入用户提供计算、存储等服务。同时,雾服务器还可以部署在一些地理位置固定的设备,形成固定位置雾节点。此外,雾服务器同样可以部署在智能车辆等移动设备上,本文中把能够提供雾服务的移动设备称为移动雾节点。

    图 1  系统模型

    在上述泛在雾结构中,MUB可以将PoW 难题迁移至3种类型的雾节点,借助雾服务器强大的计算能力进行PoW 难题的求解进而节约数据处理的时间,确保MUB以最快的速度获得收益。本文考虑的任务卸载方式为MUB按照一定的比例将原始任务划分为多个子任务,并分别卸载至不同类型的雾节点进行处理。设MUB将任务划分为3部分,分别卸载到BN, FN和MN。设任务的总任务量为Qn,卸载到BN, FN和MN的任务量占总任务量的比例分别为α, β, γ,满足0α1, 0β1, 0γ1α+β+γ=1

    MUB求解PoW难题的目的是获得交易信息的记录权,而最终的目的则是获得虚拟货币奖励,如比特币等。MUB能够获取虚拟货币的概率与PoW难题的数据量之间存在一定关系。MUB计算的任务数量越多,其获得奖励的概率就越大,预期收益就越高。设任务的任务量为Qn,执行完此任务MUB能够获得数字货币奖励的概率为pincome,则MUB获取的收益可表达为

    Uexp=pincomeQn
    (1)

    设基站处部署了a个雾服务器,其计算能力均为fbn。将任务量为αQn的PoW难题迁移至基站雾节点,需要的传输时间可表述为

    Tbntrans=αQn/rin
    (2)

    rin=Wilog2(1+(Pmhin)/(ωi+Ii)),i=1,2,···,a为MUB到基站之间的信道速率。Wi代表信道i的带宽,Pm为MUB的发射功率,hin为信道增益,ωiIi分别代表信道i的噪声和干扰。

    将任务迁移至BN进行求解需要的计算时间为

    Tbnpro=αQn/afbn
    (3)

    进一步可得到将任务卸载至BN所花费的总时间为

    Tbn=Tbntrans+Tbnpro
    (4)

    此外,设在MUB的通信范围内有b个计算能力均为ffn的固定位置雾服务器,则将任务量为βQn的PoW难题迁移至FN需要的传输时间可表述为

    Tfntrans=βQn/rjn
    (5)

    rjn=Wjlog2(1+(Pmhjn)/(ωj+Ij)),j=1,2,···,b代表MUB到第j个FN间的信道速率。Wj为信道j的带宽,Pm为MUB的发射功率,hjn为信道增益,ωjIj分别代表信道j的噪声和干扰。

    任务在FN处进行计算所需要的计算由式(6)给出

    Tfnpro=βQn/bffn
    (6)

    则将任务卸载到FN需要执行的总时间为

    Tfn=Tfntrans+Tfnpro
    (7)

    再设在MUB的通信范围内有c个具有相同计算能力fmn的固定位置雾服务器,则将任务量为γQn的PoW难题迁移至MN花费的传输时间可表述为

    Tmntrans=γQn/rkn
    (8)

    rkn=Wklog2(1+(Pmhkn)/(ωk+Ik)),k=1,2,···,c代表MUB到第k个MN间的信道速率。Wk为信道带宽,Pm为MUB的发射功率,hkn为信道增益,ωkIk分别代表信道k的噪声和干扰。

    MN处理数据所需要的时间为

    Tmnpro=γQn/cfmn
    (9)

    则将任务卸载至MN需要的总时间可表述为

    Tmn=Tmntrans+Tmnpro
    (10)

    根据上述分析,成功求解PoW难题的总时延可以表述为

    Ts=max(Tbn,Tfn,Tmn)+Tback
    (11)

    其中,Tback代表某个网络节点成功解决PoW难题后,将交易记录信息传回MUB所消耗的时间。由于成功求解PoW难题后的回传信息是区块链系统中的交易记录,与PoW难题的任务量相比而言,此交易记录的数据量极小,在许多研究[13,14]中均将其设置为0,本文采用同样的分析方法,最终得到任务执行时延的表达式为

    Ts=max(Tbn,Tfn,Tmn)
    (12)

    当剩余资源较为充分时,雾节点可以设置较低的报价以吸引MUB将更多的任务迁移至本地服务器,从而提升本地闲置资源的利用率。此外,如果雾节点当前剩余资源较为匮乏,雾节点可以将报价设置得较高从而引导MUB将任务卸载至其它雾节点。即雾节点的剩余资源与报价间呈反比关系。另一方面,BN服务器由运营商提供,一般而言,这种雾服务器的功能远强于FN和MN,若仅使用剩余资源作为雾服务器的定价标准显然会导致不公平的定价。

    基于上述考虑,本文将节点的剩余资源和总资源均视为影响雾节点报价的因素,3种类型的雾节点的单位报价表述为

    Pbn=θbn1ai=1Sbnisbn(t)+θbn2ai=1Cbnicbn(t)+θbn3ai=1Ebniebn(t)
    (13)
    Pfn=θfn1bi=1Sfnisfn(t)+θfn2bi=1Cfnicfn(t)+θfn3bi=1Efniefn(t)
    (14)
    Pmn=θmn1ci=1Smnismn(t)+θmn2ci=1Cmnicmn(t)+θmn3ci=1Emniemn(t)
    (15)

    式中,ai=1Sbni, ai=1Cbniai=1Ebni分别代表基站雾节点的总存储资源、总计算资源和总功率资源。sbn(t), cbn(t)ebn(t)则分别代表t时刻剩余的存储资源、计算资源和功率资源。θbn1, θbn2θbn3为权重值,分别代表3种不同类型的资源对价格的影响。不同类型的雾节点对每种资源的侧重不同,如MN对功率资源较为重视,故θmn3的取值会高于θbn3θfn3,同时也高于θmn1θmn2。式(14)和式(15)中的符号定义和上述分析一致,不再赘述。

    综上所述,MUB的支出函数可表述为

    Cs=αQnPbnTbn+βQnPfnTfn+γQnPmnTmn
    (16)

    MUB的最终收益等于其预期收益减去花销,所以,MUB的最终收益可表述为

    Uu=QnpincomeCs
    (17)

    由于本文研究的主要目的是最大化MUB的收益,在MUB求解PoW难题过程中,其收益受到网络时延、卸载比例的影响。基于以上分析,将最大化MUB收益的数学优化模型建模为

    maxα,β,γUus.t.C1:T<Tτ  C2:α+β+γ=1  C3:α0;β0;γ0  C4:Sbn>0;Cbn>0;Ebn>0  C5:Sfn>0;Cfn>0;Efn>0  C6:Smn>0;Cmn>0;Emn>0}
    (18)

    由于MUB的收益与任务的执行时间紧密相关,所以限制条件C1将总时延限制在Tτ范围内以保证MUB解决PoW的速度。C2和C3则是将总任务划分为子任务分别卸载到BN, FN和MN以达到降低总时长的目的。C4~C6则保证BN, FN和MN具有充足的剩余资源处理矿工卸载的任务。上述优化模型的优化目标与约束条件之间存在非线性关系,所以利用适合解决此类问题的模拟退火算法对其进行求解。

    对于上述优化模型,在满足0α1, 0β1, 0γ1α+β+γ=1的前提条件下,α, βγ的不同取值构成解空间。在使用模拟退火算法寻求最优解时,首先设置最高温度Tmax,以及降温速度ν,满足T(k+1)=νT(k), T(k)代表k时刻的温度,当温度降至最低温度Tmin时,算法结束。每一次降温过程中,都会出现L个解,为了求出最优解,假设在当前状态i下系统的解为ETni,下一状态j下的解为ETnj。根据metropolis准则,有式(19)成立

    ETniETnj={>0,接受当前解为最优解<0,以概率psol接受当前解为最优解
    (19)

    其中,psol为接受当前解为最优解的概率,表达为

    psol={1,ETni>ETnjexp((ETniETnj)φT),ETni<ETnj
    (20)

    式中φ为玻尔特兹曼常数,满足φ=1.3806505×1023

    求解优化模型的模拟退火算法流程描述表1

    表 1  求解优化模型的模拟退火算法流程
     输入:Qn, φ, Tmax, Tmin, L, ν
     输出:优化解π={α,β}
     (1) 初始化Qn, 最高温度Tmax和最低温度Tmin,降温速度ν,迭代
       次数L
     (2) for m=1:L do;
     (3) 求解状态πm={αm,βm}, 并计算当前ETnm,将
       πm={αm,βm}赋值给最佳解π={α,β}
     (4) 计算下一状态解π={α,β},并计算对应的ETn(m+1)
     (5) 计算增量ΔETnm=ETn(m+1)ETnm
     (6)  if ΔETnm<0 then;
     (7) 接受当前解为最佳解,并将πm={αm,βm}赋值给最佳解
       π={α,β}
     (8)  else;
     (9) 以metropolis准则中的概率psol接受πm={αm,βm}作为当
       前最佳解;
     (10)  End if;
     (11)  if m≠L;
     (12)   返回(2);
     (13)  else;
     (14)    end for;
     (15) T(k+1)=νT(k)
     (16) if T(k+1)>Tmin
     (17)   返回(2);
     (18) else;
     (19) end for
    下载: 导出CSV 
    | 显示表格

    仿真中的参数设置如下。基站中部署的雾服务器数量a为10。在MUB通信的范围内的FN和MN的个数也设置为10。为了方便分析,所有的带宽均设置为10 MHz,所有的噪声和干扰均设置为1。基站的覆盖半径为300 m,MUB的通信范围同样为300 m。BN, FN和MN的总存储资源,总计算资源和总功率资源的数值见表2。为体现各种资源间的公平性,将权重值设为近似相等。

    表 2  各种节点的总资源和剩余资源量及其权重的设置
    节点类型资源类型总资源剩余资源权重
    BN存储资源(GB)1024[600, 800]0.33
    计算资源(MCPS)1000[600, 800]0.33
    功率资源(W)400[280, 350]0.34
    FN存储资源(GB)512[256, 300]0.33
    计算资源(MCPS)400[280, 350]0.33
    功率资源(W)40[28, 30]0.34
    MN存储资源(GB)128[16, 32]0.33
    计算资源(MCPS)200[100, 160]0.33
    功率资源(W)2[1.2, 1.6]0.34
    下载: 导出CSV 
    | 显示表格

    表2中的[x, y]代表服从xy的均匀分布。此外,我们将模拟退火算法中的最高温度和最低温度分别设置为200°和1°,降火速率为0.99,循环次数L=10000。

    图2分析了雾节点数量与网络时延之间的关系。从图中可以明显看出,随着网络节点(包含BN, FN和MN)的增加,网络时延逐渐减少。图2说明了MUB将PoW卸载到多个雾节点上计算可以节省任务执行时间。如在网络中部署了10个雾服务器时,网络总时延达到17 ms,而如果网络中的雾服务器数量增加到30个时,网络时延可以降至10 ms。

    图 2  节点数量与时延的关系

    在接下来的仿真中以MN为例,设任务的大小为2 GB,对不同类型的资源对报价的影响进行了分析。从图3中首先可以看出,剩余资源量的增加会导致节点的报价越来越低。这主要是因为当剩余资源较多时,MN为了充分利用闲置资源,将报价设置得较低可以引导MUB将更多的任务迁移至MN。从图3中还可观察到,功率资源对MN的报价影响最大,这主要是由于MN往往都是功率受限的设备。如在剩余的功率资源仅有10%时,MN关于功率资源的报价为9.3,而同样条件下,MN关于存储资源和计算资源的报价仅有2.4。

    图 3  不同资源类型与定价的关系

    图4中可以明显看到,根据SA算法将任务按照比例进行卸载的开销是最小的。如在任务量为5 GB时,将任务全部卸载到MN, FN, BN和使用SA算法的总开销分别为107, 80, 68, 48。

    图 4  将任务迁移至不同执行主体的开销对比

    图5中将不同的迁移模式所对应的收益进行了比较。使用本文所提的方案能够有效提升MUB的收益。如任务量为5 GB时,将任务全部卸载到MN, FN, BN和使用SA算法的总收益分别为105, 127, 140, 161。

    图 5  将任务迁移至不同执行主体的收益对比

    图6比较了任务的数量与MUB开销在分别使用模拟退火算法,贪婪算法和随机卸载算法时的收益。从图6中可以看出,MUB的花销随着任务量的增加而增加,其主要原因是任务量的增加会占用雾节点更多的资源,雾节点会收取更多的费用,MUB的花销自然随之上涨。同时,由于任务量的增加,传输时延和处理时延也会一起增长,所以MUB的花销也会随之增加。如当任务量为4 GB时,使用SA算法时MUB的开销为36,当任务量增长到7 GB时,开销增长到了73。同时,从图6中还可以看到,当任务量为5 GB时,使用SA的开销为50,这个值要低于使用GA时的62,而GA的开销又远低于RA的104。上述数据说明,SA算法的性能要优于GA,而GA的性能又要优于RA。同样的结论在图7中也可以得出,这主要是因为使用GA算法求解出的只是局部最优解,同时RA算法的解是随机生成的,其性能均不及SA算法。

    图 6  使用不同算法时的MUB收益对比
    图 7  数据量大小与收益的关系

    本文在融合区块链和雾计算系统中基于节点剩余资源和网络时延对优化卸载PoW难题进行了研究。在由基站雾节点、固定位置雾节点及移动雾节点共同构成的网络场景中分析了将PoW难题卸载至各种类型的雾节点所需要的总时长。此后基于网络节点剩余的计算资源、存储资源、功率资源对MUB的支出进行了分析。并基于节点剩余资源和网络时延提出了优化任务卸载方案,并以最大化MUB收益为目标构建了数学优化模型,使用SA算法对优化模型进行了求解。最后,通过模拟仿真分析证明上述方案的优越性。未来的工作中将考虑在系统内引入人工智能的智能任务卸载方式。

  • 图  1  系统模型

    图  2  节点数量与时延的关系

    图  3  不同资源类型与定价的关系

    图  4  将任务迁移至不同执行主体的开销对比

    图  5  将任务迁移至不同执行主体的收益对比

    图  6  使用不同算法时的MUB收益对比

    图  7  数据量大小与收益的关系

    表  1  求解优化模型的模拟退火算法流程

     输入:Qn, φ, Tmax, Tmin, L, ν
     输出:优化解π={α,β}
     (1) 初始化Qn, 最高温度Tmax和最低温度Tmin,降温速度ν,迭代
       次数L
     (2) for m=1:L do;
     (3) 求解状态πm={αm,βm}, 并计算当前ETnm,将
       πm={αm,βm}赋值给最佳解π={α,β}
     (4) 计算下一状态解π={α,β},并计算对应的ETn(m+1)
     (5) 计算增量ΔETnm=ETn(m+1)ETnm
     (6)  if ΔETnm<0 then;
     (7) 接受当前解为最佳解,并将πm={αm,βm}赋值给最佳解
       π={α,β}
     (8)  else;
     (9) 以metropolis准则中的概率psol接受πm={αm,βm}作为当
       前最佳解;
     (10)  End if;
     (11)  if m≠L;
     (12)   返回(2);
     (13)  else;
     (14)    end for;
     (15) T(k+1)=νT(k)
     (16) if T(k+1)>Tmin
     (17)   返回(2);
     (18) else;
     (19) end for
    下载: 导出CSV

    表  2  各种节点的总资源和剩余资源量及其权重的设置

    节点类型资源类型总资源剩余资源权重
    BN存储资源(GB)1024[600, 800]0.33
    计算资源(MCPS)1000[600, 800]0.33
    功率资源(W)400[280, 350]0.34
    FN存储资源(GB)512[256, 300]0.33
    计算资源(MCPS)400[280, 350]0.33
    功率资源(W)40[28, 30]0.34
    MN存储资源(GB)128[16, 32]0.33
    计算资源(MCPS)200[100, 160]0.33
    功率资源(W)2[1.2, 1.6]0.34
    下载: 导出CSV
  • BACCARELLI E, NARANJO P G V, SCARPINITI M, et al. Fog of everything: Energy-efficient networked computing architectures, research challenges, and a case study[J]. IEEE Access, 2017, 5: 9882–9910. doi: 10.1109/ACCESS.2017.2702013
    张海波, 李虎, 陈善学, 等. 超密集网络中基于移动边缘计算的任务卸载和资源优化[J]. 电子与信息学报, 2019, 41(5): 1194–1201. doi: 10.11999/JEIT180592

    ZHANG Haibo, LI Hu, CHEN Shanxue, et al. Computing offloading and resource optimization in ultra-dense networks with mobile edge computation[J]. Journal of Electronics &Information Technology, 2019, 41(5): 1194–1201. doi: 10.11999/JEIT180592
    CHEN Lixing, ZHOU Pan, GAO Liang, et al. Adaptive fog configuration for the industrial internet of things[J]. IEEE Transactions on Industrial Informatics, 2018, 14(10): 4656–4664. doi: 10.1109/TⅡ.2018.2846549
    SHIRAZI S N, GOUGLIDIS A, FARSHAD A, et al. The extended cloud: review and analysis of mobile edge computing and fog from a security and resilience perspective[J]. IEEE Journal on Selected Areas in Communications, 2017, 35(11): 2586–2595. doi: 10.1109/JSAC.2017.2760478
    YU Yong, LI Yannan, TIAN Junfeng, et al. Blockchain-based solutions to security and privacy issues in the internet of things[J]. IEEE Wireless Communications, 2018, 25(6): 12–18. doi: 10.1109/MWC.2017.1800116
    CHO H. ASIC-resistance of multi-hash proof-of-work mechanisms for blockchain consensus protocols[J]. IEEE Access, 2018, 6: 66210–66222. doi: 10.1109/ACCESS.2018.2878895
    CONTI M, KUMAR E S, LAL C, et al. A survey on security and privacy issues of bitcoin[J]. IEEE Communications Surveys & Tutorials, 2018, 20(4): 3416–3452. doi: 10.1109/COMST.2018.2842460
    TSCORSCH F and SCHEUERMANN B. Bitcoin and Beyond: A technical survey on decentralized digital currencies[J]. IEEE Communications Surveys & Tutorials, 2016, 18(3): 2084–2123. doi: 10.1109/COMST.2016.2535718
    JANG H and LEE J. An empirical study on modeling and prediction of bitcoin prices with bayesian neural networks based on blockchain information[J]. IEEE Access, 2018, 6: 5427–5437. doi: 10.1109/ACCESS.2017.2779181
    VAN DER HORST L, CHOO K K R, and LE-KHAC N A. Process memory investigation of the bitcoin clients electrum and bitcoin core[J]. IEEE Access, 2017, 5: 22385–22398. doi: 10.1109/ACCESS.2017.2759766
    LIU Mengting, YU F R, TENG Yinglei, et al. Computation offloading and content caching in wireless blockchain networks with mobile edge computing[J]. IEEE Transactions on Vehicular Technology, 2018, 67(11): 11008–11021. doi: 10.1109/TVT.2018.2866365
    XIONG Zehui, ZHANG Yang, NIYATO D, et al. When mobile blockchain meets edge computing[J]. IEEE Communications Magazine, 2018, 56(8): 33–39. doi: 10.1109/MCOM.2018.1701095
    YAO Haipeng, MAI Tianle, WANG Jingjing, et al. Resource trading in blockchain-based industrial internet of things[J]. IEEE Transactions on Industrial Informatics, 2019, 15(6): 3602–3609. doi: 10.1109/TⅡ.2019.2902563
    WANG Xiaojie, NING Zhaolong, and WANG Lei. Offloading in internet of vehicles: A fog-enabled real-time traffic management system[J]. IEEE Transactions on Industrial Informatics, 2018, 14(10): 4568–4578. doi: 10.1109/TⅡ.2018.2816590
  • 期刊类型引用(3)

    1. 门瑞,樊书嘉,阿喜达,杜邵昱,樊秀梅. 物联网中结合计算卸载和区块链的综述. 计算机应用. 2023(10): 3008-3016 . 百度学术
    2. 曾蓉晖,林兵,王明芬,林凯,卢宇. 超密集边缘计算网络中面向能耗优化的任务卸载方法. 计算机工程. 2022(11): 39-48 . 百度学术
    3. 龚建锋. 云雾计算场景下的异构环境资源调度机制研究. 电脑编程技巧与维护. 2020(07): 146-147+161 . 百度学术

    其他类型引用(6)

  • 加载中
图(7) / 表(2)
计量
  • 文章访问数:  2410
  • HTML全文浏览量:  981
  • PDF下载量:  119
  • 被引次数: 9
出版历程
  • 收稿日期:  2019-08-29
  • 修回日期:  2019-10-25
  • 网络出版日期:  2020-03-18
  • 刊出日期:  2020-09-27

目录

/

返回文章
返回