Loading [MathJax]/extensions/TeX/boldsymbol.js
Advanced Search
Volume 44 Issue 9
Sep.  2022
Turn off MathJax
Article Contents
JIANG Fan, LIANG Xiao, SUN Changyin, WANG Junxuan. Caching and Update Strategy Based on Content Popularity and Information Freshness for Fog Radio Access Networks[J]. Journal of Electronics & Information Technology, 2022, 44(9): 3108-3116. doi: 10.11999/JEIT220373
Citation: JIANG Fan, LIANG Xiao, SUN Changyin, WANG Junxuan. Caching and Update Strategy Based on Content Popularity and Information Freshness for Fog Radio Access Networks[J]. Journal of Electronics & Information Technology, 2022, 44(9): 3108-3116. doi: 10.11999/JEIT220373

Caching and Update Strategy Based on Content Popularity and Information Freshness for Fog Radio Access Networks

doi: 10.11999/JEIT220373
Funds:  The National Natural Science Foundation of China (62071377, 62101442), Shaanxi Province Key Industry Innovation Chain (Group) (2019ZDLGY07-06), The Graduate Student Innovation Foundation Project of Xi’an University of Posts and Telecommunications (CXJJYL2021063)
  • Received Date: 2022-03-31
  • Accepted Date: 2022-08-05
  • Rev Recd Date: 2022-08-04
  • Available Online: 2022-08-09
  • Publish Date: 2022-09-19
  • Introducing edge caching into fog radio access networks can effectively reduce the redundancy of content transmission. However, the existing content caching strategies consider rarely the dynamic nature of already cached content. A caching update algorithm based on content popularity and information freshness is proposed. The proposed algorithm considers fully the mobility of users and the temporal and spatial dynamics of content popularity. Furthermore, the Age of Information (AoI) is introduced to achieve a dynamic content update procedure. More specifically, the proposed algorithm adopts initially a Bidirectional Long Short-Term Memory network (Bi-LSTM) to predict the user's location in the next period according to the user's historical location information. Secondly, according to the acquired user location, combined with the user's preference model, the content popularity of each location area is obtained accordingly, and the most popular content will be cached at the Fog Access Points(F-APs). Finally, concerning AoI requirements of the already cached content, the caching update window can be dynamically adjusted to achieve a high-efficient and low-latency caching process. Simulation results demonstrate that the proposed algorithm improves effectively the content cache hit rate, and also minimizes the average delay of content transmission while ensuring the timeliness of the information.
  • 随着近年来移动互联网平台的迅速发展以及各类智能设备的空前增长,对于数据流量的需求也呈现爆炸式高速增长[1]。截至2021年底,仅蜂窝物联网用户在我国已达13.99亿户[2],逼近移动电话用户规模。然而,由于无线网络通信资源有限,大规模的数据流量会使得移动通信网络面临时延增加、通信拥塞甚至通信中断的困境。在低时延、高效数据处理需求的驱动下,雾无线接入网(Fog-Radio Access Network, F-RAN)作为一种新型网络架构,能够充分利用边缘设备-雾接入点(Fog Access Point, F-AP)的通信、计算、存储能力,有效缓解大规模数据流量带来的无线网络负载压力[3]。因此,可以将用户感兴趣的热门内容提前缓存在雾接入点,从而减少无线通信中回程链路的负载压力,降低用户的请求时延。在信息缓存过程中,缓存的内容一般包含两种类型:静态内容和动态内容。静态内容不随时间的改变而改变(如电影、图片、音乐等);而动态内容会随时间的改变发生变化,一般用来表征设备所处环境的实时状态(如道路通行状态、停车场空位情况、车辆位置等),该类内容通常对于时延非常敏感且具有动态特性。虽然移动边缘缓存技术能够有效减小信息传输的端到端时延,但是随时间和环境的动态变化,如何保证已缓存动态内容的信息时效性,避免信息滞后甚至信息失效值得深入探究。因此,相关研究提出了采用信息年龄(Age of Information, AoI)作为度量动态内容新鲜度的指标,其定义为信息从产生到使用的时间差,即AoI越大信息越滞后,反之,则表示信息越新鲜[4]。与时延指标不同,AoI与信息的产生时间、缓存时间等因素密切相关;而时延则一般取决于信息的比特大小,队列的分组到达强度等因素。在实际的网络中,智能终端侧的AoI不仅与传输时延有关,也取决于信源节点内容的生成过程,中间节点的转发与处理等过程等。因此,如何为用户提供满足时效性需求的动态内容,已成为近年来雾无线接入网中缓存策略的研究热点[5,6]

    传统的内容缓存策略,如先入先出(First In First Out, FIFO),最近最少使用(Least Recently Used, LRU),最不经常使用(Least Frequently Used, LFU)等已经在有线网络中得到了广泛使用,但上述策略没有考虑内容流行度,其性能效率受限[7]。近些年,通过预测内容流行度来提高内容缓存效率已成为目前缓存策略的研究主流。在相关的研究工作中,文献[8]提出一种基于联邦学习的上下文感知流行度预测策略。文献[9]提出一种基于深度强化学习的协作边缘缓存方法。但是,目前大多数基于流行度预测的缓存算法并未充分考虑内容流行度的时空动态性,且仅考虑了静态的内容缓存策略,而没有考虑如何维护已缓存的动态内容的时效性。

    基于已有研究,本文提出一种基于内容流行度和信息新鲜度的缓存更新策略。该策略主要包含基于流行度预测的内容缓存和基于信息新鲜度的缓存更新两方面。首先,根据用户的历史位置信息,使用Bi-LSTM神经网络训练得到用户的移动模型,从而预测用户在下一时段所处的位置区。然后,根据预测得到的用户所在位置区,结合用户偏好模型,得到各位置区内的内容流行度分布。最后,使用最流行缓存策略(Most Popular Caching, MPC)将流行内容缓存在多个雾接入点(F-APs)中[10]。针对已缓存在F-APs中的内容,本文以最小化时延为目标,为具有不同流行度分布的内容设置不同的缓存更新窗口,从而保证已缓存内容的新鲜度。仿真结果表明,所提出的算法可以有效地提升缓存命中率,在保证内容新鲜度的同时,最大限度地减小平均时延。

    图1所示,考虑结合边缘缓存的雾无线接入网(F-RAN)场景,其中包含云服务器,云服务器所覆盖的若干个雾无线小区、随机分布的提供内容的源节点及用户。假设用户所发出的内容请求包含静态内容和动态内容,且该内容流行度具有时空动态性,即内容流行度会随所处时间空间不同而改变。将图1所示网络又进一步划分为若干个独立的位置区,假设用户可以在各个位置区之间随机移动。令L={1,2,,l,,L}表示所划分的位置区集合,U={1,2,,u,,U}表示整个区域的所有用户集合。考虑有限时间内的内容缓存情况,故将时间轴划分为离散集合T={1,2,t,,T}。在每个时间周期t内,假设用户的位置不发生变化,用户ut时刻所处的位置用lu,t表示,用Ul,t={1,2,,ul,t,,Ul,t}表示在t时间段处于l位置的用户集合。假设用户设备(User Equipment, UE)会自动记录用户的历史请求信息和移动位置信息,且每个位置区都已部署一个F-AP来为UE提供包含接入、切换、内容请求等在内的服务,部署在不同位置区的F-AP可以共享整个区域内的用户的位置信息。假设每个位置区的F-AP具有相同大小的内容存储空间,设为CF={1,2,,f,,F}代表整个系统内源节点所提供的所有内容的集合,其包含了静态内容和动态内容,每个内容大小为φ。为了减少用户请求时延并考虑到F-APs有限的缓存空间,只将部分流行度较高的内容缓存在F-APs中。考虑到用户并非只会请求流行度高的内容,流行度较低的内容也可能会被请求,因此将所有的内容上传到云中心存储备份。

    图  1  基于F-RAN的缓存系统模型

    为了实现高效的内容缓存,云中心首先结合系统内的用户信息,进行线下流行度模型训练,并将训练好的模型发送到F-APs处。在每个时间周期t开始时,各位置区的F-AP再结合训练好的模型和位置区内的用户历史位置信息和历史请求信息,进行线上的流行度预测,进而得到位置区内的流行度分布。根据预测得到的流行度分布,使用MPC策略将流行度高的部分内容缓存在F-AP中。假设已缓存在l位置区的静态内容集合可表示为Sl,t={1,2,,sl.t,,Sl,t},动态内容集合表示为Cl,t={1,2,,cl.t,,Cl,t}。为保证所有缓存在F-APs中动态内容的时效性,需要为每个动态内容设置缓存更新窗口,令其为Wl,tc。记Al,tct时间段缓存在l位置动态内容c的信息年龄。若用户所请求的动态内容cl,t已缓存在本地的F-AP处,且Al,tcWl,tc,用户将直接从F-AP处下载该内容;如果Al,tc>Wl,tc则表示该动态内容已失效,F-AP需要先从源节点处获取最新的动态内容,再传输给用户,因而就产生了1次缓存命中。而当用户请求的动态内容并没有缓存在本地F-AP时,用户请求将会被路由到云中心,则认为缓存未命中。

    为了描述每个F-AP的缓存状态,定义缓存状态变量yl,f{0,1},表示为l处的F-AP的缓存状态。具体定义为:当内容fl处的F-AP缓存时则yl,f=1,否则yl,f=0。设在时间段t内,l处F-AP的用户的总请求数量为Ntl,定义f(n)代表第n个请求内容,则在t时间段,l处的F-AP的缓存命中率计算公式为

    Hitl=nNtlyl,f(n)Ntl (1)

    通过计算各位置区的缓存命中率的平均值即可得到在时间t内系统的缓存命中率。因此,以最大化整个系统的缓存命中率为目标,可以建立目标函数

    max H=lLHitlLs.t. C1:fFyl,f,φCC2:yl,f{0,1}} (2)

    其中,约束条件C1表示每个F-AP的容量限制,约束条件C2表示yl,f为代表缓存状态的二进制变量。为了得到该优化问题的最优解,本文首先通过对用户的位置进行预测,得到各位置区的用户集合,再结合该位置区用户的偏好模型得到各位置区内的内容流行度分布。最后,以最大化缓存命中率为目标,使用MPC缓存策略将流行度较高的内容缓存在F-AP中。此外,为了维护缓存在F-AP中动态内容的时效性,需要为不同流行度的动态内容设置缓存更新窗口。

    由式(2)所建立的最大化缓存命中率目标函数可以看出,全局缓存命中率取决于各位置区的缓存命中率的分布,且内容流行度会随着位置区中用户集合的变化而变化。如果能够对用户的位置区进行精准预测,再将用户位置预测和该位置区内的用户偏好模型结合,会进一步提高内容流行度预测的精确性和针对性,从而有效提高缓存命中率。因此,所提出的基于内容流行度预测的缓存策略首先针对用户的位置区进行预测,然后结合用户偏好模型,得到各位置区的内容流行度分布。最后,利用最流行缓存策略将流行度高的内容缓存在F-AP中以最大化缓存命中率。

    由于用户当前所处位置与用户的历史位置及未来位置之间存在紧密的制约关系,获取用户过去位置信息的同时挖掘未来可能的位置信息显得非常的重要。本文采用了双向长短期记忆(Bi-directional Long-Short Term Memory, Bi-LSTM)[11]以线下线上结合的方式,对用户的位置进行预测。其中,Bi-LSTM结合了两种长短期记忆网络(Long-Short Term Memory, LSTM),一种 LSTM能从前往后分析输入的位置序列信息,另一种 LSTM能从后往前分析输入的位置序列信息,因而将用户历史位置信息输入到Bi-LSTM神经网络进行训练,即可得到用于预测下一时刻用户的位置预测模型。

    考虑基于Bi-LSTM神经网络的用户位置预测模型包含输入层、隐层(正向LSTM层、反向LSTM层)、输出层和softmax层。其中由用户历史位置信息构建的输入矩阵作为输入层的输入,隐层为双向结构,正向 LSTM层能从前往后分析输入序列,而反向 LSTM能从后往前分析输入序列。其中,输入层、隐层以及输出层的单元数量分别用Sli, Slh, Slo来表示。此外,由于预测用户位置是一个多分类问题,需要使用softmax层进行分类,该层仅具有1个单元。Bi-LSTM神经网络的输入为大小NlhSli列的矩阵,其中输入矩阵的行Nlh代表用户历史位置的数量,列Sli对应着输入层大小,因此,输入矩阵{\boldsymbol{X}}_{u,t}^l可表示为

    {\boldsymbol{X}}_{u,t}^l = {\left[ {\begin{array}{*{20}{c}} {{l_{u,t}}}&{{l_{u,t}}}& \cdots &{{l_{u,t}}} \\ {{l_{u,t - 1}}}&{{l_{u,t - 1}}}& \cdots &{{l_{u,t - 1}}} \\ \vdots & \vdots & \ddots & \vdots \\ {{l_{u,t - N_h^l + 1}}}&{{l_{u,t - N_h^l + 1}}}& \cdots &{{l_{u,t - N_h^l + 1}}} \end{array}} \right]_{N_h^l \times S_i^l}} (3)

    输入矩阵{\boldsymbol{X}}_{u,t}^l所对应的输出标签为用户u在下一时刻t + 1的真实位置 {l_{u,t + 1}} 。由于用户位置 {l_{u,t + 1}} 是离散变量,判定该变量所处的位置区是一个多分类问题,因此选择交叉熵损失函数作为Bi-LSTM神经网络的损失函数,表达式为

    {\rm{Loss}} = - \sum\limits_{l = 1}^{S_o^1} {{y_l} \times \ln {{\mathop y\limits^ \wedge }_l}} (4)

    其中,{y_l}表示为位置l的真实概率分布, {\mathop y\limits^ \wedge _l} 表示位置l的预测概率分布。当损失函数{\rm{Loss}}降到极小值并趋于平稳后,则认为已经获得用户的位置预测模型,用函数{{\boldsymbol{\theta}} _u}:{\boldsymbol{X}}_{u,t}^l \to {\mathop l\limits^ \wedge _{u,t + 1}}表示训练好的用户u的位置预测模型。云中心以线下训练的方式将获得的用户位置预测模型{{\boldsymbol{\theta}} _u}发送到各个F-AP中。然后,处于各个位置区的F-AP根据UE的历史位置信息,构建输入矩阵{\boldsymbol{X}}_{u,t}^l,并输入到位置预测模型{{\boldsymbol{\theta}} _u}中,以线上预测的方式获得用户下一时间段所处的位置区 {\mathop l\limits^ \wedge _{u,t}} 。由于F-AP之间可以共享整个区域的位置信息,因此所有F-AP可以获得t+1时间段处于位置区内的用户集合信息。

    根据预测得到的各个位置区的用户集合,还需要结合用户的偏好模型,才可得到各位置区的内容流行度分布。根据用户是否偏好某一内容,可以把内容分为两类:偏好类和非偏好类。定义N维特征矢量{\boldsymbol{c}}(f)代表内容f具有的特征,2维变量s(f)表示内容所属类别,则 s(f) = 1 表示用户对该内容偏好;而 s(f) = 0 则表示用户不偏好该内容。因此,用户所请求内容可用2维变量为{{\rm{req}}^t} = < {\boldsymbol{c}}(f),s(f) >表示。将用户是否请求某一内容建模为一个二分类问题,则用户偏好 p_{l,u,f}^t 定义为用户u在位置l请求内容 f 的概率。利用逻辑回归模型进行近似计算表示为

    p_{l,u,f}^t = {p_{{{\boldsymbol{W}}_u}}}[s(f) = 1|{\boldsymbol{c}}(f)] = \frac{1}{{1 + {{\rm{e}}^{ - ({{\boldsymbol{W}}_u} \times c(f))}}}} (5)

    其中,{{\boldsymbol{W}}_u}表示用户u的偏好模型,可以通过用户的历史请求信息来实现对{{\boldsymbol{W}}_u}的预测。假设用户u{K_u}条历史请求信息表示为: {\rm{req}}_u^k = < {\boldsymbol{c}}(f),s(f) > ,k \in {K_u},为了能够准确地学习用户u的偏好模型{{\boldsymbol{W}}_u},引入逻辑损失函数,其定义为

    \begin{gathered} \ell ({{\boldsymbol{W}}_u},{\boldsymbol{c}}(f),s(f)) = - s(f)\lg [{P_{{{\boldsymbol{w}}_u}}}(s(f)|{\boldsymbol{c}}(f))] \\ {\text{ }} - (1 - s(f))\lg [1 - {P_{{{\boldsymbol{w}}_u}}}(s(f)|{\boldsymbol{c}}(f))] \\ \end{gathered} (6)

    通过最小化损失函数,可以利用迭代的方法获得用户偏好模型{{\boldsymbol{W}}_u},如表达式(7)所示

    {\boldsymbol{W}}_u^{k + 1} = \arg \min (\ell ({\boldsymbol{W}}_u^k,{\boldsymbol{c}}(f),s(f))),k \in {K_u} (7)

    其中,{\boldsymbol{W}}_u^{k + 1}表示为经过k次迭代得到的用户u的偏好模型。根据梯度下降法[12],偏好模型的迭代更新准则为:{\boldsymbol{W}}_u^{k + 1} = {\boldsymbol{W}}_u^k - {\eta ^k}.{{\boldsymbol{g}}^k},k \in {K_u} ,可以获得表达式(7)的解。其中用{\eta ^k}表示学习率,满足\displaystyle\sum\nolimits_{k' = 1}^k {\sigma (k') = 1/\eta } ^k, {{\boldsymbol{g}}^k} = {\nabla _{{\boldsymbol{W}}_u^k}}\ell ({\boldsymbol{W}}_u^k,{\boldsymbol{c}}(f),s(f)) = [{p_{{\boldsymbol{W}}_u^k}} [s(f) = 1 |{\boldsymbol{c}}(f) - s(f)]].{\boldsymbol{c}}(f)表示损失函数的梯度向量。

    文献[13]已证明,式(7)等价于式(8),因此可以通过求解式(8)来获得式(7)的解。

    \begin{split} & {\boldsymbol{W}}_u^{k + 1} \\ &\quad = \arg \min \left[ {{{\boldsymbol{g}}^{{{(1:k)}^{\rm{T}}}}}.{\boldsymbol{W}}_u^k + \frac{1}{2}\sum\limits_{k' = 1}^k {\sigma (k').||{\boldsymbol{W}}_u^k - } {\boldsymbol{W}}_u^{k'}||} \right]\\ \end{split} (8)

    其中,{{\boldsymbol{g}}^{(1:k)}} = \displaystyle\sum\nolimits_{k' = 1}^k {{{\boldsymbol{g}}^{k'}}}。为了避免高维数据计算复杂和过拟合等问题,引入正则项{\rm{L}}1{\rm{L}}2,即{\beta _1}.||{\boldsymbol{W}}_u^k||{\beta _2}.\left\| {{\boldsymbol{W}}_u^k} \right\|_2^2。因此,式(8)可以重新表示为

    \begin{split} {\boldsymbol{W}}_u^{k + 1} =& \mathop {\arg \min }\limits_{{\boldsymbol{W}}_u^k} [ {{({{\boldsymbol{V}}^k})}^{\rm{T}}}.{\boldsymbol{W}}_u^k + {\beta _1}.||{\boldsymbol{W}}_u^k|| \\ & + \frac{1}{2}\left({\beta _2} + \sum\limits_{k' = 1}^k \sigma (k')\right).||{\boldsymbol{W}}_u^k ||_2^2 ],k \in {K_u} \end{split} (9)

    其中, {\beta _1} {\beta _2} 代表正则系数,{{\boldsymbol{V}}^k}可以通过{{\boldsymbol{V}}^k} = {{\boldsymbol{V}}^{k - 1}} + {{\boldsymbol{g}}^k} - \left(\dfrac{1}{{{\eta ^k}}} - \dfrac{1}{{{\eta ^{k - 1}}}}\right)\cdot {\boldsymbol{W}}_u^k进行迭代计算。

    考虑到每个内容特征的学习率不同,因此将N维用户偏好模型划分为N个独立的特征,进行单独训练[14],故将式(9)解耦为N个独立最小化问题

    \begin{split} W_{u,n}^{k + 1} =& \mathop {\arg \min }\limits_{W_{u,n}^k} [ {{\boldsymbol{V}}^k}.{\boldsymbol{W}}_{u,n}^k + {\beta _1}.|{\boldsymbol{W}}_u^k| \\ & + \frac{1}{2}({\beta _2} + {{\sum\limits_{k' = 1}^k {\sigma (k').(W_{u,n}^k)^2} }} ],n \in N \end{split} (10)

    可以证明式(10)是无约束的非光滑最优化问题,通过求导的方法得到该问题的解。虽然 |W_u^k| W_u^k = 0 处不可导,但是可以通过求偏微分得到在 W_u^k = 0 的解。因而问题式(10)的闭式解为

    {W}_{u,n}^{k+1}=\left\{\begin{aligned} & 0,\qquad\qquad\qquad \left|{v}_{n}^{k}\right| < {\beta }_{1}\\ & \frac{{\beta }_{1}\mathrm{sgn}({v}_{n}^{k})-}{{\beta }_{2}+{\eta }_{n}^{k}}{v}_{n}^{k}, 其他 \end{aligned}\right. (11)

    联立N维特征的偏好模型便可得到用户u的偏好模型 {W_u} 。为了保证用户偏好模型预测的准确性,当平均逻辑损失函数大于某个阈值\gamma 时,激活用户偏好训练算法,更新F-AP中的用户偏好模型。其中平均逻辑损失函数的计算式为

    \overline {l_{u,f}^t} = \frac{1}{{{K_u}}}\sum\limits_{k \in {K_u}} {l({\boldsymbol{W}}_u^k,c(f),s(f))} (12)

    由于用户一般对同一内容只会访问1次,因此假设获得用户偏好模型 {{\boldsymbol{W}}_u} 之后,如果用户之前没有访问过该内容则根据式(5)计算用户偏好;若用户已经访问过该内容,则令其用户偏好 p_{l,u,f}^t = 0 。当获取l位置区中所有用户偏好后,根据处于位置l所有用户对内容f的偏好求平均值,即可获得文件f的流行度

    {\mathop p\limits^ \wedge} _{l,f}^t = \frac{1}{{{U_{l,t}}}}\sum\limits_{u \in {U_{l.t}}} {p_{l,u,t}^t} (13)

    基于用户仅请求同一内容1次的假设,可以根据式(14)更新内容流行度

    {\mathop p\limits^ \wedge} _{l,f}^t = p_{l,f}^t - \frac{1}{{{U_{l,t}}}} (14)

    最后,基于预测得到的内容流行度分布,则利用MPC缓存策略将流行度较高的内容缓存在F-AP处。

    根据上述算法,可以将流行度较高的部分内容提前缓存在F-AP中。由于用户所请求内容中可能包含具有时效性的动态内容,为了保证缓存在F-AP中动态内容的新鲜度,需要为具有不同流行度的动态内容设置不同的缓存更新窗口。若缓存内容{c_{l,t}}的信息年龄A_c^{l,t}小于更新窗口{W_c},则F-AP直接将已缓存内容{c_{l,t}}传输给用户。否则,若A_c^{l,t} > W_c^{l,t},F-AP首先从源节点处获取内容{c_{l,t}}的最新版本,进而将内容{c_{l,t}}传输给用户。可以看出,较小的更新窗口能够有效降低已缓存内容的信息年龄,但是会造成缓存内容的频繁更新,进而增加内容的服务时延;而采用较大的更新窗口则无法保证内容的时效性。所以,缓存更新窗口大小的设置非常重要。

    为了获得最优缓存更新窗口大小,需要对F-AP更新和传输内容所需时间进行建模。本文采用了M/M/1排队模型来对F-AP的服务用户过程进行近似性分析。假设所有内容请求的总请求速率服从参数为\lambda 的泊松过程。相应地,用户在时间段t内对缓存在位置区l处F-AP中的内容{c_{l,t}}访问的请求速率为

    {\lambda _{_{{c_{l,t}}}}} = \frac{{p_{l,{c_{l,t}}}^t}}{{\displaystyle\sum\limits_{{c_{l,t}} = 1}^{{C_{l,t}}} {p_{l,{c_{l,t}}}^t} }}.\lambda (15)

    考虑到路径损失对内容传输的影响,文献[15]给出了传输内容时F-AP的平均服务速率

    {\mu _D} \gtrapprox \frac{B}{\varphi }.{\log _2} \frac{{{P_{{\text{F - AP}}}}.{{(R/\sqrt e )}^{ - \alpha }}}}{{{\sigma ^2}}} (16)

    其中,B为可用带宽,\alpha 为无线传输的路径损耗指数,{\sigma ^2}为高斯噪声,{P_{{\rm{F}} - {\rm{AP}}}}为F-AP的发送功率,R表示F-AP的覆盖半径。符号 \gtrapprox 表示为大于或接近于。类似地,可以得到F-AP从源节点获取内容的平均更新速率为

    {\mu _{\text{R}}} \gtrapprox \frac{B}{\varphi }.{\log _2}\frac{{{P_{\rm{S}}}.{{(R/\sqrt {\rm{e}} )}^{ - \alpha }}}}{{{\sigma ^2}}} (17)

    其中,{P_{\rm{S}}}代表源节点向F-AP发送更新内容时的发送功率。

    图2所示,实线表示F-APs处已缓存内容的AoI,圆圈表示在该时刻,向用户提供了所请求的内容。其中实心圆圈表示无需更新而直接提供所请求内容的服务,空心圆圈则表示该内容已失效,需要触发内容更新请求。图中{T_{\rm{R}}}{T_{\rm{D}}}分别表示更新和传输内容所需要的时间,假设{T_{\rm{R}}}{T_{\rm{D}}}遵循指数分布,并且{\rm{E}}[{T_{\rm{R}}}] = 1/{\mu _{\rm{R}}}{\rm{E}}[{T_{\rm{D}}}] = 1/{\mu _{\rm{D}}}。假设在更新周期开始时刻,一个新的用户请求到达F-AP处,则缓存内容的AoI更新为{T_{\rm{R}}} + {T_{\rm{D}}},即内容更新和传输内容消耗的总时间。随时间增加,AoI线性增加,直到另一个内容请求到达,触发下一次的内容缓存更新,且{T_{\rm{R}}} {T_{\rm{D}}} 分别更新为{T'_{\rm{R}}}{T'_{\rm{D}}},代表下一个更新周期更新和传输内容所需要的时间,所缓存内容的AoI相应地更新为{T'_{\rm{R}}} + {T'_{\text{D}}}

    图  2  缓存内容的信息年龄(AoI)变化示意图

    根据排队论,文献[16]给出了缓存项{c_{l,t}}的平均信息年龄 {\bar A_c} ,时延 {\bar D_c} 以及更新概率{p_c}的闭式解

    \qquad\;\begin{split} {\bar A_c} =& \frac{1}{{{\mu _{\text{D}}}}} + \frac{1}{2}\left[{W_c} + \frac{1}{{{\mu _{\text{R}}}}}\right] \\ & - \frac{1}{{2{\lambda _{{c_{l,t}}}}}}\left[1 - {{\rm{e}}^{ - {\lambda _{{c_{l,t}}}}({W_c} - \frac{1}{{{\mu _{\text{R}}}}})}}\right] \end{split} (18)
    {\bar D_c} = \frac{{\bar P + \dfrac{1}{{{\mu _{\text{D}}}}}}}{{1 - \dfrac{{\bar P}}{{{\mu _{\text{R}}}}} - \dfrac{\lambda }{{{\mu _{\text{D}}}}}}} (19)
    {p_c} = \frac{{1 - {{\rm{e}}^{ - {\lambda _{{c_{l,t}}}}({W_c} - \frac{1}{{{\mu _{\text{R}}}}})}}}}{{{\lambda _{{c_{l,t}}}}\left({W_c} - \dfrac{1}{{{\mu _{\text{R}}}}}\right)}} (20)

    更新概率{p_c}代表用户在内容请求中触发缓存更新请求的概率。其中表达式(19)中的\bar P = \frac{{\displaystyle\sum\nolimits_{c = 1}^C {{\lambda _{{c_{l,t}}}}.{p_c}} }}{{\displaystyle\sum\nolimits_{c = 1}^C {{\lambda _{{c_{l,t}}}}} }}代表F-APs中所有缓存项的平均缓存更新概率。从式(18)、式(19)中可以看出信息年龄随更新窗口变化而准线性增加,而时延随着更新窗口的变化而下降,二者之间存在折中关系。基于以上分析,本文以满足缓存内容的AoI要求为限制条件,旨在通过优化更新窗口实现最小化服务时延,该问题可以表述为

    \left. \begin{aligned} & \underset{\text{                         }\left\{{W}_{f}\right\}}{{\rm{P}}1:\text{         }\mathrm{min}}\text{  }{\overline{D}}_{c}\\ & \text{s}\text{.t}\text{.  C1}:\frac{1}{\varLambda }{\displaystyle \sum _{c=1}^{C}{\lambda }_{f}.{\overline{A}}_{c}}\le \tilde{A},\\ & \qquad \text{C2:}\;{\displaystyle \sum _{c=1}^{C}{\lambda }_{c} < \frac{1}{\dfrac{\overline{P}}{{\mu }_{{\rm{R}}}}+\dfrac{1}{{\mu }_{{\rm{D}}}}}}\\ & \qquad \text{C3:}\;{W}_{c}\ge \frac{1}{{\mu }_{{\rm{R}}}},{  c}\in C \end{aligned}\right\} (21)

    其中, \tilde A 代表内容的平均AoI要求; 约束C2保证了系统的稳定性。定义{N_c} = {\lambda _c}\left({W_c} - \dfrac{1}{{{\mu _{\rm{R}}}}}\right),c \in C表示为每个更新周期内,不需要更新的平均内容请求数量。P1问题可以重写为P2问题

    \left. \begin{aligned} & \mathop {{\rm{P}}2:\min }\limits_{{\text{ }}\{ {N_c}\} } {\text{ }}\sum\limits_{c = 1}^C {\frac{{1 - {{\rm{e}}^{ - {N_c}}}}}{{{N_c}}}} .{\lambda _c} \\ & {\text{s}}{\text{.t}}{\text{. C1}}:\;\sum\limits_{c = 1}^C {({N_f} + {{\rm{e}}^{ - {N_c}}}) \le 2\varLambda \tilde A + C} \\ & \qquad - 2\varLambda \left(\frac{1}{{{\mu _{\rm{R}}}}} + \frac{1}{{{\mu _{\rm{D}}}}}\right) \\ &\quad \quad {\text{C2:}}\;{N_c} \ge 0,c \in C \end{aligned} \right\} (22)

    其中,P2问题的目标函数是最小化平均更新概率,这等价于最小化平均时延 {\bar D_c} 。此外式(21)中的约束条件C1也等价于式(22)中的约束条件C1,式(22)中的约束条件C2也等价于式(21)中的约束条件C3。根据{W_c}{N_c}的线性关系,虽然P1和P2在数学上不等价,但可以通过求解P2来找到P1的最优解。根据文献[16]可以证明问题P2是凸的,因此可以利用凸优化工具来解决P2问题,进而得到P1的最优解,最后即可得到各缓存内容的更新窗口长度。

    本节利用来源于现实生活中的真实数据来评估所提出的基于内容流行度和信息新鲜度的缓存更新算法的性能。本文的仿真环境采用基于Python3.8的仿真平台,其中Bi-LSTM神经网络使用了基于Python3.8的torch1.10平台来进行搭建。首先,选择由斯坦福大学移动活动轨迹数据(Stanford University Mobile Activity TRACES, SUMATRA)作为训练Bi-LSTM神经网络和获取用户位置预测模型的数据集[17]。将SUMATRA中较为复杂的湾区实时位置信息(BALI-2: Bay Area Location Information (real-time))用来作为用户位置预测训练以及仿真的数据集。在该数据集中,一共包含了90个位置区,假设用户可以在这90个位置区之间自由移动。Bi-LSTM神经网络的输入层 S_i^l 、隐层 S_h^l 、输出层 S_o^l 大小分别设置为100, 100, 90,输入矩阵{\boldsymbol{X}}_{u,t}^l中历史位置数量N_h^l设置为7。

    为了评估内容流行度预测的准确性,本文利用从MovieLens[18]网站下载的真实电影评级数据进行仿真实验。此数据集由用户ID、电影ID、电影类型、电影评分以及时间戳组成。电影类型一共可分为18种,这18种电影类型组成了一个18维特征矢量。当电影具有1个特征时,就将该内容特征矢量所对应的位置设置为1,否则设置为0。此外,当用户对电影的评分≥3 时,视为用户偏好此部电影;否则视为用户不偏好此电影。将内容流行度预测的周期t设置为1 d。为了与位置预测结果相对应,在BALI-2的数据集中我们共提取了分布在90个位置的102名用户的位置数据,对应于MovieLens数据集中的102个用户信息,并假设两个数据集所包含的用户是相同的。由于用户的内容请求既包含静态内容又包含动态内容,假设每个内容请求最大为1M,其他仿真参数设置参见表1

    表  1  仿真参数
    参数
    覆盖半径R100 m
    系统带宽B10 MHz
    文件大小\varphi 1 M
    无线传输路径损耗指数\alpha 4
    加性高斯白噪声{\sigma ^2}–95 dBm
    F-APs发射功率{P_{{\rm{FAP}}} }1 W
    信源发射功率P{\rm{s}}0.1 W
    请求到达率\lambda 2000 请求/s
    下载: 导出CSV 
    | 显示表格

    图3展示了Bi-LSTM神经网络和LSTM神经网络预测准确率的对比图。从图中可以看出Bi-LSTM的预测准确率比LSTM准确率高,这是由于相比较LSTM而言,Bi-LSTM神经网络可以同时利用正向和反向的LSTM层,更为精准地挖掘到输入信息中历史位置和未来位置之间的关系。图4展示了本文所提出的用户位置预测方法对一个随机选定用户进行30 d的位置的预测结果与用户真实位置的对比图。可以看出,所提出的用户预测模型在绝大多数时间段内,都能较为准确地预测出用户所处的位置区。

    图  3  Bi-LSTM和LSTM的准确率对比图
    图  4  用户位置预测随时间的变化

    图5展示了内容流行度预测误差在划分位置区和不划分位置区的分布情况,可以看出划分位置区的绝大多数预测误差都分布于0-0.1,平均预测误差为绿色横线所示的0.0404。而不划分位置区的平均预测误差为橙色横线所示的0.137。这是因为考虑位置划分的流行度预测算法充分考虑了内容流行度与用户位置之间的关系,因而对于内容流行度的预测更为准确。

    图  5  内容流行度预测误差

    为了评估本文所提出算法的缓存性能,分别选择了3种基准对比方法,即基于流行度已知 (最优方法)的缓存方法,最近最少使用(LRU)缓存方法以及无位置预测的缓存方法。其中,基于流行度已知 (最优方法)缓存方法是根据真实流行度的分布情况来缓存流行度较高的内容;最近最少使用(LRU)缓存方法的基本原理是当用户有新的内容请求时,F-AP只缓存近期用户请求过的内容,而将之前长时间未使用的内容删除;无位置预测的缓存方法则是不考虑位置区的划分,结合整个区域内的用户历史请求信息与用户偏好模型实现流行度预测,将较为流行的内容缓存在各个F-AP中。

    图6展示了4种缓存算法缓存命中率随F-AP缓存容量增长的变化情况。从图6的仿真结果可以看出,随F-AP缓存容量的增长,4种算法的缓存命中率都增长。同时,可以观察得到本文所提算法的缓存命中率最接近于最优方法的性能,且明显高于其他两种对比算法。这是由于本文所提出算法充分考虑了内容流行度与用户所处的位置之间的紧密关系,使得内容流行度的预测的结果更加准确,缓存命中率也得到了提升。而LRU缓存方法的缓存命中率最低是因为其没有考虑内容流行度的动态变化。

    图  6  缓存命中率随F-AP缓存容量的变化情况

    图7描述了考虑不同内容流行度分布情况下基于信息年龄的最佳更新窗口结果,其中横轴序号1-10代表内容流行度按照降序分布排列的10个内容。在仿真中,将每个F-AP能够缓存的内容条目数设置为10,且内容流行度选取基于本文第3节的流行度预测算法得到的内容流行度分布。给定平均的AoI要求为不大于100 ms。

    图  7  不同流行度内容的最佳更新窗口

    图7可以看出,利用所提出的基于信息年龄的最佳更新窗口设置算法,不同流行度的缓存内容动态地设置了不同的更新窗口,且流行度较高的内容采用了更小的更新窗口(如内容序号1),从而保证了较为流行的内容具有较高的新鲜度。图8描述了不同内容流行度分布情况下基于信息年龄的最佳更新概率。从图8可以看出,较流行的内容的更新概率更低,表明所提出的方案避免了F-AP频繁地对较流行内容进行更新,因此在AoI需求和时延两方面性能之间取得了平衡。

    图  8  不同流行度内容的最佳更新概率

    图9对比了给定不同的AoI要求,分别采用动态更新窗口和恒定更新窗口两种情况下,服务时延的变化情况。可以看出,采用所提出的动态窗口更新方式能够在满足AoI的要求下,明显降低时延。这是因为动态窗口更新算法以最小化延时为目标,能够在满足信息年龄的要求下,动态地选择内容更新窗口,进而降低时延。

    图  9  时延随要求AoI的变化情况

    为了提高边缘缓存算法的缓存命中率以及保证已缓存内容的时效性,本文在雾无线接入网中提出了基于内容流行度和信息新鲜度的缓存更新策略。首先使用训练好的Bi-LSTM神经网络对用户位置进行预测,从而得到用户在下一时间段内用户的位置区;进而结合用户的偏好模型获得各位置区内的内容流行度分布。考虑到F-AP有限的缓存计算能力,以最大化缓存命中率为目标,利用最流行缓存策略将流行度较高的部分内容缓存在F-AP中。此外,为了保证已缓存在F-AP处内容的新鲜度,进一步以最小化时延为目标,为具有不同流行度分布的内容设置了最优的缓存更新窗口,从而保证已缓存内容的新鲜度。仿真结果表明,所提出的缓存策略相比已有缓存策略能够实现更高的缓存命中率。且通过为具有不同流行度的内容动态地设置更新窗口大小,能够在保障内容的时效性的同时,有效地的减小平均服务时延。

  • [1]
    ZENG Ming, LIN T H, CHEN Min, et al. Temporal-spatial mobile application usage understanding and popularity prediction for edge caching[J]. IEEE Wireless Communications, 2018, 25(3): 36–42. doi: 10.1109/MWC.2018.1700330
    [2]
    中华人民共和国工业和信息化部. 2021年通信业统计公报[R]. 2022.

    Ministry of Industry and Information Technology. 2021 communications industry statistical bulletin[R]. 2022.
    [3]
    ZEYDAN E, BASTUG E, BENNIS M, et al. Big data caching for networking: Moving from cloud to edge[J]. IEEE Communications Magazine, 2016, 54(9): 36–42.
    [4]
    YATES R D, SUN Yin, BROWN D R, et al. Age of information: An introduction and survey[J]. IEEE Journal on Selected Areas in Communications, 2021, 39(5): 1183–1210. doi: 10.1109/JSAC.2021.3065072
    [5]
    BASTOPCU M and ULUKUS S. Information freshness in cache updating systems[J]. IEEE Transactions on Wireless Communications, 2021, 20(3): 1861–1874. doi: 10.1109/TWC.2020.3037144
    [6]
    KAM C, KOMPELLA S, NGUYEN G D, et al. Information freshness and popularity in mobile caching[C]. 2017 IEEE International Symposium on Information Theory, Aachen, Germany, 2017: 136–140. doi: 10.1109/ISIT.2017.8006505.
    [7]
    WANG Xiaofei, CHEN Min, TALEB T, et al. Cache in the air: Exploiting content caching and delivery techniques for 5G systems[J]. IEEE Communications Magazine, 2014, 52(2): 131–139. doi: 10.1109/MCOM.2014.6736753
    [8]
    ZHANG Min, JIANG Yanxiang, ZHENG Fuchun, et al. Cooperative edge caching via federated deep reinforcement learning in fog-RANs[C]. 2021 IEEE International Conference on Communications Workshops, Montreal, Canada, 2021: 1–6. doi: 10.1109/ICCWorkshops50388.2021.9473609.
    [9]
    ZHANG Yuming, FENG Bohao, Quan Wei, et al. Cooperative edge caching: A multi-agent deep learning based approach[J]. IEEE Access, 2020, 8: 133212–133224. doi: 10.1109/ACCESS.2020.3010329
    [10]
    JIANG Yanxiang, FENG Haojie, ZHENG Fuchun, et al. Deep learning-based edge caching in fog radio access networks[J]. IEEE Transactions on Wireless Communications, 2020, 19(12): 8442–8454. doi: 10.1109/TWC.2020.3022907
    [11]
    GOODFELLOW L, BENGIO Y, and COURVILLE A. Deep Learning[M]. Cambridge: The MIT Press, 2016.
    [12]
    BARTLETT P L, HAZAN E, and RAKHLIN A. Adaptive online gradient descent[C]. The 20th International Conference on Neural Information Processing Systems, Vancouver, Canada, 2007: 65–72.
    [13]
    JIANG Yanxiang, MA Miaoli, BENNIS M, et al. User preference learning-based edge caching for fog radio access network[J]. IEEE Transactions on Communications, 2019, 67(2): 1268–1283. doi: 10.1109/TCOMM.2018.2880482
    [14]
    JIANG Fan, ZHANG Xiaoli, and SUN Changyin. A D2D-enabled cooperative caching strategy for fog radio access networks[C]. The 2020 IEEE 31st Annual International Symposium on Personal, Indoor and Mobile Radio Communications, London, UK, 2020: 1–6. doi: 10.1109/PIMRC48278.2020.9217190.
    [15]
    ANDREWS J G, BACCELLI F, and GANTI R K. A tractable approach to coverage and rate in cellular networks[J]. IEEE Transactions on Communications, 2011, 59(11): 3122–3134. doi: 10.1109/TCOMM.2011.100411.100541
    [16]
    ZHANG Shan, WANG Liudi, LUO Hongbin, et al. AoI-delay tradeoff in mobile edge caching with freshness-aware content refreshing[J]. IEEE Transactions on Wireless Communications, 2021, 20(8): 5329–5342. doi: 10.1109/TWC.2021.3067002
    [17]
    Stanford University. Stanford university mobile activity TRAces (SUMATRA)[EB/OL]. http://infolab.stanford.edu/pleiades/SUMATRA.html, 2022.
    [18]
    TRZCIŃSKI T and ROKITA P. Predicting popularity of online videos using support vector regression[J]. IEEE Transactions on Multimedia, 2017, 19(11): 2561–2570. doi: 10.1109/TMM.2017.2695439
  • Cited by

    Periodical cited type(0)

    Other cited types(1)

  • 加载中

Catalog

    通讯作者: 陈斌, bchen63@163.com
    • 1. 

      沈阳化工大学材料科学与工程学院 沈阳 110142

    1. 本站搜索
    2. 百度学术搜索
    3. 万方数据库搜索
    4. CNKI搜索

    Figures(9)  / Tables(1)

    Article Metrics

    Article views (804) PDF downloads(113) Cited by()
    Proportional views
    Related

    /

    DownLoad:  Full-Size Img  PowerPoint
    Return
    Return