
Citation: | JIANG Fan, LIANG Xiao, SUN Changyin, WANG Junxuan. Caching and Update Strategy Based on Content Popularity and Information Freshness for Fog Radio Access Networks[J]. Journal of Electronics & Information Technology, 2022, 44(9): 3108-3116. doi: 10.11999/JEIT220373 |
随着近年来移动互联网平台的迅速发展以及各类智能设备的空前增长,对于数据流量的需求也呈现爆炸式高速增长[1]。截至2021年底,仅蜂窝物联网用户在我国已达13.99亿户[2],逼近移动电话用户规模。然而,由于无线网络通信资源有限,大规模的数据流量会使得移动通信网络面临时延增加、通信拥塞甚至通信中断的困境。在低时延、高效数据处理需求的驱动下,雾无线接入网(Fog-Radio Access Network, F-RAN)作为一种新型网络架构,能够充分利用边缘设备-雾接入点(Fog Access Point, F-AP)的通信、计算、存储能力,有效缓解大规模数据流量带来的无线网络负载压力[3]。因此,可以将用户感兴趣的热门内容提前缓存在雾接入点,从而减少无线通信中回程链路的负载压力,降低用户的请求时延。在信息缓存过程中,缓存的内容一般包含两种类型:静态内容和动态内容。静态内容不随时间的改变而改变(如电影、图片、音乐等);而动态内容会随时间的改变发生变化,一般用来表征设备所处环境的实时状态(如道路通行状态、停车场空位情况、车辆位置等),该类内容通常对于时延非常敏感且具有动态特性。虽然移动边缘缓存技术能够有效减小信息传输的端到端时延,但是随时间和环境的动态变化,如何保证已缓存动态内容的信息时效性,避免信息滞后甚至信息失效值得深入探究。因此,相关研究提出了采用信息年龄(Age of Information, AoI)作为度量动态内容新鲜度的指标,其定义为信息从产生到使用的时间差,即AoI越大信息越滞后,反之,则表示信息越新鲜[4]。与时延指标不同,AoI与信息的产生时间、缓存时间等因素密切相关;而时延则一般取决于信息的比特大小,队列的分组到达强度等因素。在实际的网络中,智能终端侧的AoI不仅与传输时延有关,也取决于信源节点内容的生成过程,中间节点的转发与处理等过程等。因此,如何为用户提供满足时效性需求的动态内容,已成为近年来雾无线接入网中缓存策略的研究热点[5,6]。
传统的内容缓存策略,如先入先出(First In First Out, FIFO),最近最少使用(Least Recently Used, LRU),最不经常使用(Least Frequently Used, LFU)等已经在有线网络中得到了广泛使用,但上述策略没有考虑内容流行度,其性能效率受限[7]。近些年,通过预测内容流行度来提高内容缓存效率已成为目前缓存策略的研究主流。在相关的研究工作中,文献[8]提出一种基于联邦学习的上下文感知流行度预测策略。文献[9]提出一种基于深度强化学习的协作边缘缓存方法。但是,目前大多数基于流行度预测的缓存算法并未充分考虑内容流行度的时空动态性,且仅考虑了静态的内容缓存策略,而没有考虑如何维护已缓存的动态内容的时效性。
基于已有研究,本文提出一种基于内容流行度和信息新鲜度的缓存更新策略。该策略主要包含基于流行度预测的内容缓存和基于信息新鲜度的缓存更新两方面。首先,根据用户的历史位置信息,使用Bi-LSTM神经网络训练得到用户的移动模型,从而预测用户在下一时段所处的位置区。然后,根据预测得到的用户所在位置区,结合用户偏好模型,得到各位置区内的内容流行度分布。最后,使用最流行缓存策略(Most Popular Caching, MPC)将流行内容缓存在多个雾接入点(F-APs)中[10]。针对已缓存在F-APs中的内容,本文以最小化时延为目标,为具有不同流行度分布的内容设置不同的缓存更新窗口,从而保证已缓存内容的新鲜度。仿真结果表明,所提出的算法可以有效地提升缓存命中率,在保证内容新鲜度的同时,最大限度地减小平均时延。
如图1所示,考虑结合边缘缓存的雾无线接入网(F-RAN)场景,其中包含云服务器,云服务器所覆盖的若干个雾无线小区、随机分布的提供内容的源节点及用户。假设用户所发出的内容请求包含静态内容和动态内容,且该内容流行度具有时空动态性,即内容流行度会随所处时间空间不同而改变。将图1所示网络又进一步划分为若干个独立的位置区,假设用户可以在各个位置区之间随机移动。令
为了实现高效的内容缓存,云中心首先结合系统内的用户信息,进行线下流行度模型训练,并将训练好的模型发送到F-APs处。在每个时间周期t开始时,各位置区的F-AP再结合训练好的模型和位置区内的用户历史位置信息和历史请求信息,进行线上的流行度预测,进而得到位置区内的流行度分布。根据预测得到的流行度分布,使用MPC策略将流行度高的部分内容缓存在F-AP中。假设已缓存在
为了描述每个F-AP的缓存状态,定义缓存状态变量
Hitl=∑n∈Ntlyl,f(n)Ntl | (1) |
通过计算各位置区的缓存命中率的平均值即可得到在时间
max H=∑l∈LHitlLs.t. C1:∑f∈Fyl,f,φ≤CC2:yl,f∈{0,1}} | (2) |
其中,约束条件C1表示每个F-AP的容量限制,约束条件C2表示
由式(2)所建立的最大化缓存命中率目标函数可以看出,全局缓存命中率取决于各位置区的缓存命中率的分布,且内容流行度会随着位置区中用户集合的变化而变化。如果能够对用户的位置区进行精准预测,再将用户位置预测和该位置区内的用户偏好模型结合,会进一步提高内容流行度预测的精确性和针对性,从而有效提高缓存命中率。因此,所提出的基于内容流行度预测的缓存策略首先针对用户的位置区进行预测,然后结合用户偏好模型,得到各位置区的内容流行度分布。最后,利用最流行缓存策略将流行度高的内容缓存在F-AP中以最大化缓存命中率。
由于用户当前所处位置与用户的历史位置及未来位置之间存在紧密的制约关系,获取用户过去位置信息的同时挖掘未来可能的位置信息显得非常的重要。本文采用了双向长短期记忆(Bi-directional Long-Short Term Memory, Bi-LSTM)[11]以线下线上结合的方式,对用户的位置进行预测。其中,Bi-LSTM结合了两种长短期记忆网络(Long-Short Term Memory, LSTM),一种 LSTM能从前往后分析输入的位置序列信息,另一种 LSTM能从后往前分析输入的位置序列信息,因而将用户历史位置信息输入到Bi-LSTM神经网络进行训练,即可得到用于预测下一时刻用户的位置预测模型。
考虑基于Bi-LSTM神经网络的用户位置预测模型包含输入层、隐层(正向LSTM层、反向LSTM层)、输出层和softmax层。其中由用户历史位置信息构建的输入矩阵作为输入层的输入,隐层为双向结构,正向 LSTM层能从前往后分析输入序列,而反向 LSTM能从后往前分析输入序列。其中,输入层、隐层以及输出层的单元数量分别用
{\boldsymbol{X}}_{u,t}^l = {\left[ {\begin{array}{*{20}{c}} {{l_{u,t}}}&{{l_{u,t}}}& \cdots &{{l_{u,t}}} \\ {{l_{u,t - 1}}}&{{l_{u,t - 1}}}& \cdots &{{l_{u,t - 1}}} \\ \vdots & \vdots & \ddots & \vdots \\ {{l_{u,t - N_h^l + 1}}}&{{l_{u,t - N_h^l + 1}}}& \cdots &{{l_{u,t - N_h^l + 1}}} \end{array}} \right]_{N_h^l \times S_i^l}} | (3) |
输入矩阵
{\rm{Loss}} = - \sum\limits_{l = 1}^{S_o^1} {{y_l} \times \ln {{\mathop y\limits^ \wedge }_l}} | (4) |
其中,
根据预测得到的各个位置区的用户集合,还需要结合用户的偏好模型,才可得到各位置区的内容流行度分布。根据用户是否偏好某一内容,可以把内容分为两类:偏好类和非偏好类。定义
p_{l,u,f}^t = {p_{{{\boldsymbol{W}}_u}}}[s(f) = 1|{\boldsymbol{c}}(f)] = \frac{1}{{1 + {{\rm{e}}^{ - ({{\boldsymbol{W}}_u} \times c(f))}}}} | (5) |
其中,
\begin{gathered} \ell ({{\boldsymbol{W}}_u},{\boldsymbol{c}}(f),s(f)) = - s(f)\lg [{P_{{{\boldsymbol{w}}_u}}}(s(f)|{\boldsymbol{c}}(f))] \\ {\text{ }} - (1 - s(f))\lg [1 - {P_{{{\boldsymbol{w}}_u}}}(s(f)|{\boldsymbol{c}}(f))] \\ \end{gathered} | (6) |
通过最小化损失函数,可以利用迭代的方法获得用户偏好模型
{\boldsymbol{W}}_u^{k + 1} = \arg \min (\ell ({\boldsymbol{W}}_u^k,{\boldsymbol{c}}(f),s(f))),k \in {K_u} | (7) |
其中,
文献[13]已证明,式(7)等价于式(8),因此可以通过求解式(8)来获得式(7)的解。
\begin{split} & {\boldsymbol{W}}_u^{k + 1} \\ &\quad = \arg \min \left[ {{{\boldsymbol{g}}^{{{(1:k)}^{\rm{T}}}}}.{\boldsymbol{W}}_u^k + \frac{1}{2}\sum\limits_{k' = 1}^k {\sigma (k').||{\boldsymbol{W}}_u^k - } {\boldsymbol{W}}_u^{k'}||} \right]\\ \end{split} | (8) |
其中,
\begin{split} {\boldsymbol{W}}_u^{k + 1} =& \mathop {\arg \min }\limits_{{\boldsymbol{W}}_u^k} [ {{({{\boldsymbol{V}}^k})}^{\rm{T}}}.{\boldsymbol{W}}_u^k + {\beta _1}.||{\boldsymbol{W}}_u^k|| \\ & + \frac{1}{2}\left({\beta _2} + \sum\limits_{k' = 1}^k \sigma (k')\right).||{\boldsymbol{W}}_u^k ||_2^2 ],k \in {K_u} \end{split} | (9) |
其中,
考虑到每个内容特征的学习率不同,因此将
\begin{split} W_{u,n}^{k + 1} =& \mathop {\arg \min }\limits_{W_{u,n}^k} [ {{\boldsymbol{V}}^k}.{\boldsymbol{W}}_{u,n}^k + {\beta _1}.|{\boldsymbol{W}}_u^k| \\ & + \frac{1}{2}({\beta _2} + {{\sum\limits_{k' = 1}^k {\sigma (k').(W_{u,n}^k)^2} }} ],n \in N \end{split} | (10) |
可以证明式(10)是无约束的非光滑最优化问题,通过求导的方法得到该问题的解。虽然
{W}_{u,n}^{k+1}=\left\{\begin{aligned} & 0,\qquad\qquad\qquad \left|{v}_{n}^{k}\right| < {\beta }_{1}\\ & \frac{{\beta }_{1}\mathrm{sgn}({v}_{n}^{k})-}{{\beta }_{2}+{\eta }_{n}^{k}}{v}_{n}^{k}, 其他 \end{aligned}\right. | (11) |
联立
\overline {l_{u,f}^t} = \frac{1}{{{K_u}}}\sum\limits_{k \in {K_u}} {l({\boldsymbol{W}}_u^k,c(f),s(f))} | (12) |
由于用户一般对同一内容只会访问1次,因此假设获得用户偏好模型
{\mathop p\limits^ \wedge} _{l,f}^t = \frac{1}{{{U_{l,t}}}}\sum\limits_{u \in {U_{l.t}}} {p_{l,u,t}^t} | (13) |
基于用户仅请求同一内容1次的假设,可以根据式(14)更新内容流行度
{\mathop p\limits^ \wedge} _{l,f}^t = p_{l,f}^t - \frac{1}{{{U_{l,t}}}} | (14) |
最后,基于预测得到的内容流行度分布,则利用MPC缓存策略将流行度较高的内容缓存在F-AP处。
根据上述算法,可以将流行度较高的部分内容提前缓存在F-AP中。由于用户所请求内容中可能包含具有时效性的动态内容,为了保证缓存在F-AP中动态内容的新鲜度,需要为具有不同流行度的动态内容设置不同的缓存更新窗口。若缓存内容
为了获得最优缓存更新窗口大小,需要对F-AP更新和传输内容所需时间进行建模。本文采用了M/M/1排队模型来对F-AP的服务用户过程进行近似性分析。假设所有内容请求的总请求速率服从参数为
{\lambda _{_{{c_{l,t}}}}} = \frac{{p_{l,{c_{l,t}}}^t}}{{\displaystyle\sum\limits_{{c_{l,t}} = 1}^{{C_{l,t}}} {p_{l,{c_{l,t}}}^t} }}.\lambda | (15) |
考虑到路径损失对内容传输的影响,文献[15]给出了传输内容时F-AP的平均服务速率
{\mu _D} \gtrapprox \frac{B}{\varphi }.{\log _2} \frac{{{P_{{\text{F - AP}}}}.{{(R/\sqrt e )}^{ - \alpha }}}}{{{\sigma ^2}}} | (16) |
其中,
{\mu _{\text{R}}} \gtrapprox \frac{B}{\varphi }.{\log _2}\frac{{{P_{\rm{S}}}.{{(R/\sqrt {\rm{e}} )}^{ - \alpha }}}}{{{\sigma ^2}}} | (17) |
其中,
如图2所示,实线表示F-APs处已缓存内容的AoI,圆圈表示在该时刻,向用户提供了所请求的内容。其中实心圆圈表示无需更新而直接提供所请求内容的服务,空心圆圈则表示该内容已失效,需要触发内容更新请求。图中
根据排队论,文献[16]给出了缓存项
\qquad\;\begin{split} {\bar A_c} =& \frac{1}{{{\mu _{\text{D}}}}} + \frac{1}{2}\left[{W_c} + \frac{1}{{{\mu _{\text{R}}}}}\right] \\ & - \frac{1}{{2{\lambda _{{c_{l,t}}}}}}\left[1 - {{\rm{e}}^{ - {\lambda _{{c_{l,t}}}}({W_c} - \frac{1}{{{\mu _{\text{R}}}}})}}\right] \end{split} | (18) |
{\bar D_c} = \frac{{\bar P + \dfrac{1}{{{\mu _{\text{D}}}}}}}{{1 - \dfrac{{\bar P}}{{{\mu _{\text{R}}}}} - \dfrac{\lambda }{{{\mu _{\text{D}}}}}}} | (19) |
{p_c} = \frac{{1 - {{\rm{e}}^{ - {\lambda _{{c_{l,t}}}}({W_c} - \frac{1}{{{\mu _{\text{R}}}}})}}}}{{{\lambda _{{c_{l,t}}}}\left({W_c} - \dfrac{1}{{{\mu _{\text{R}}}}}\right)}} | (20) |
更新概率
\left. \begin{aligned} & \underset{\text{ }\left\{{W}_{f}\right\}}{{\rm{P}}1:\text{ }\mathrm{min}}\text{ }{\overline{D}}_{c}\\ & \text{s}\text{.t}\text{. C1}:\frac{1}{\varLambda }{\displaystyle \sum _{c=1}^{C}{\lambda }_{f}.{\overline{A}}_{c}}\le \tilde{A},\\ & \qquad \text{C2:}\;{\displaystyle \sum _{c=1}^{C}{\lambda }_{c} < \frac{1}{\dfrac{\overline{P}}{{\mu }_{{\rm{R}}}}+\dfrac{1}{{\mu }_{{\rm{D}}}}}}\\ & \qquad \text{C3:}\;{W}_{c}\ge \frac{1}{{\mu }_{{\rm{R}}}},{ c}\in C \end{aligned}\right\} | (21) |
其中,
\left. \begin{aligned} & \mathop {{\rm{P}}2:\min }\limits_{{\text{ }}\{ {N_c}\} } {\text{ }}\sum\limits_{c = 1}^C {\frac{{1 - {{\rm{e}}^{ - {N_c}}}}}{{{N_c}}}} .{\lambda _c} \\ & {\text{s}}{\text{.t}}{\text{. C1}}:\;\sum\limits_{c = 1}^C {({N_f} + {{\rm{e}}^{ - {N_c}}}) \le 2\varLambda \tilde A + C} \\ & \qquad - 2\varLambda \left(\frac{1}{{{\mu _{\rm{R}}}}} + \frac{1}{{{\mu _{\rm{D}}}}}\right) \\ &\quad \quad {\text{C2:}}\;{N_c} \ge 0,c \in C \end{aligned} \right\} | (22) |
其中,P2问题的目标函数是最小化平均更新概率,这等价于最小化平均时延
本节利用来源于现实生活中的真实数据来评估所提出的基于内容流行度和信息新鲜度的缓存更新算法的性能。本文的仿真环境采用基于Python3.8的仿真平台,其中Bi-LSTM神经网络使用了基于Python3.8的torch1.10平台来进行搭建。首先,选择由斯坦福大学移动活动轨迹数据(Stanford University Mobile Activity TRACES, SUMATRA)作为训练Bi-LSTM神经网络和获取用户位置预测模型的数据集[17]。将SUMATRA中较为复杂的湾区实时位置信息(BALI-2: Bay Area Location Information (real-time))用来作为用户位置预测训练以及仿真的数据集。在该数据集中,一共包含了90个位置区,假设用户可以在这90个位置区之间自由移动。Bi-LSTM神经网络的输入层
为了评估内容流行度预测的准确性,本文利用从MovieLens[18]网站下载的真实电影评级数据进行仿真实验。此数据集由用户ID、电影ID、电影类型、电影评分以及时间戳组成。电影类型一共可分为18种,这18种电影类型组成了一个18维特征矢量。当电影具有1个特征时,就将该内容特征矢量所对应的位置设置为1,否则设置为0。此外,当用户对电影的评分≥3 时,视为用户偏好此部电影;否则视为用户不偏好此电影。将内容流行度预测的周期
参数 | 值 |
覆盖半径R | 100 m |
系统带宽B | 10 MHz |
文件大小\varphi | 1 M |
无线传输路径损耗指数\alpha | 4 |
加性高斯白噪声{\sigma ^2} | –95 dBm |
F-APs发射功率{P_{{\rm{FAP}}} } | 1 W |
信源发射功率P{\rm{s}} | 0.1 W |
请求到达率\lambda | 2000 请求/s |
图3展示了Bi-LSTM神经网络和LSTM神经网络预测准确率的对比图。从图中可以看出Bi-LSTM的预测准确率比LSTM准确率高,这是由于相比较LSTM而言,Bi-LSTM神经网络可以同时利用正向和反向的LSTM层,更为精准地挖掘到输入信息中历史位置和未来位置之间的关系。图4展示了本文所提出的用户位置预测方法对一个随机选定用户进行30 d的位置的预测结果与用户真实位置的对比图。可以看出,所提出的用户预测模型在绝大多数时间段内,都能较为准确地预测出用户所处的位置区。
图5展示了内容流行度预测误差在划分位置区和不划分位置区的分布情况,可以看出划分位置区的绝大多数预测误差都分布于0-0.1,平均预测误差为绿色横线所示的0.0404。而不划分位置区的平均预测误差为橙色横线所示的0.137。这是因为考虑位置划分的流行度预测算法充分考虑了内容流行度与用户位置之间的关系,因而对于内容流行度的预测更为准确。
为了评估本文所提出算法的缓存性能,分别选择了3种基准对比方法,即基于流行度已知 (最优方法)的缓存方法,最近最少使用(LRU)缓存方法以及无位置预测的缓存方法。其中,基于流行度已知 (最优方法)缓存方法是根据真实流行度的分布情况来缓存流行度较高的内容;最近最少使用(LRU)缓存方法的基本原理是当用户有新的内容请求时,F-AP只缓存近期用户请求过的内容,而将之前长时间未使用的内容删除;无位置预测的缓存方法则是不考虑位置区的划分,结合整个区域内的用户历史请求信息与用户偏好模型实现流行度预测,将较为流行的内容缓存在各个F-AP中。
图6展示了4种缓存算法缓存命中率随F-AP缓存容量增长的变化情况。从图6的仿真结果可以看出,随F-AP缓存容量的增长,4种算法的缓存命中率都增长。同时,可以观察得到本文所提算法的缓存命中率最接近于最优方法的性能,且明显高于其他两种对比算法。这是由于本文所提出算法充分考虑了内容流行度与用户所处的位置之间的紧密关系,使得内容流行度的预测的结果更加准确,缓存命中率也得到了提升。而LRU缓存方法的缓存命中率最低是因为其没有考虑内容流行度的动态变化。
图7描述了考虑不同内容流行度分布情况下基于信息年龄的最佳更新窗口结果,其中横轴序号1-10代表内容流行度按照降序分布排列的10个内容。在仿真中,将每个F-AP能够缓存的内容条目数设置为10,且内容流行度选取基于本文第3节的流行度预测算法得到的内容流行度分布。给定平均的AoI要求为不大于100 ms。
从图7可以看出,利用所提出的基于信息年龄的最佳更新窗口设置算法,不同流行度的缓存内容动态地设置了不同的更新窗口,且流行度较高的内容采用了更小的更新窗口(如内容序号1),从而保证了较为流行的内容具有较高的新鲜度。图8描述了不同内容流行度分布情况下基于信息年龄的最佳更新概率。从图8可以看出,较流行的内容的更新概率更低,表明所提出的方案避免了F-AP频繁地对较流行内容进行更新,因此在AoI需求和时延两方面性能之间取得了平衡。
图9对比了给定不同的AoI要求,分别采用动态更新窗口和恒定更新窗口两种情况下,服务时延的变化情况。可以看出,采用所提出的动态窗口更新方式能够在满足AoI的要求下,明显降低时延。这是因为动态窗口更新算法以最小化延时为目标,能够在满足信息年龄的要求下,动态地选择内容更新窗口,进而降低时延。
为了提高边缘缓存算法的缓存命中率以及保证已缓存内容的时效性,本文在雾无线接入网中提出了基于内容流行度和信息新鲜度的缓存更新策略。首先使用训练好的Bi-LSTM神经网络对用户位置进行预测,从而得到用户在下一时间段内用户的位置区;进而结合用户的偏好模型获得各位置区内的内容流行度分布。考虑到F-AP有限的缓存计算能力,以最大化缓存命中率为目标,利用最流行缓存策略将流行度较高的部分内容缓存在F-AP中。此外,为了保证已缓存在F-AP处内容的新鲜度,进一步以最小化时延为目标,为具有不同流行度分布的内容设置了最优的缓存更新窗口,从而保证已缓存内容的新鲜度。仿真结果表明,所提出的缓存策略相比已有缓存策略能够实现更高的缓存命中率。且通过为具有不同流行度的内容动态地设置更新窗口大小,能够在保障内容的时效性的同时,有效地的减小平均服务时延。
[1] |
ZENG Ming, LIN T H, CHEN Min, et al. Temporal-spatial mobile application usage understanding and popularity prediction for edge caching[J]. IEEE Wireless Communications, 2018, 25(3): 36–42. doi: 10.1109/MWC.2018.1700330
|
[2] |
中华人民共和国工业和信息化部. 2021年通信业统计公报[R]. 2022.
Ministry of Industry and Information Technology. 2021 communications industry statistical bulletin[R]. 2022.
|
[3] |
ZEYDAN E, BASTUG E, BENNIS M, et al. Big data caching for networking: Moving from cloud to edge[J]. IEEE Communications Magazine, 2016, 54(9): 36–42.
|
[4] |
YATES R D, SUN Yin, BROWN D R, et al. Age of information: An introduction and survey[J]. IEEE Journal on Selected Areas in Communications, 2021, 39(5): 1183–1210. doi: 10.1109/JSAC.2021.3065072
|
[5] |
BASTOPCU M and ULUKUS S. Information freshness in cache updating systems[J]. IEEE Transactions on Wireless Communications, 2021, 20(3): 1861–1874. doi: 10.1109/TWC.2020.3037144
|
[6] |
KAM C, KOMPELLA S, NGUYEN G D, et al. Information freshness and popularity in mobile caching[C]. 2017 IEEE International Symposium on Information Theory, Aachen, Germany, 2017: 136–140. doi: 10.1109/ISIT.2017.8006505.
|
[7] |
WANG Xiaofei, CHEN Min, TALEB T, et al. Cache in the air: Exploiting content caching and delivery techniques for 5G systems[J]. IEEE Communications Magazine, 2014, 52(2): 131–139. doi: 10.1109/MCOM.2014.6736753
|
[8] |
ZHANG Min, JIANG Yanxiang, ZHENG Fuchun, et al. Cooperative edge caching via federated deep reinforcement learning in fog-RANs[C]. 2021 IEEE International Conference on Communications Workshops, Montreal, Canada, 2021: 1–6. doi: 10.1109/ICCWorkshops50388.2021.9473609.
|
[9] |
ZHANG Yuming, FENG Bohao, Quan Wei, et al. Cooperative edge caching: A multi-agent deep learning based approach[J]. IEEE Access, 2020, 8: 133212–133224. doi: 10.1109/ACCESS.2020.3010329
|
[10] |
JIANG Yanxiang, FENG Haojie, ZHENG Fuchun, et al. Deep learning-based edge caching in fog radio access networks[J]. IEEE Transactions on Wireless Communications, 2020, 19(12): 8442–8454. doi: 10.1109/TWC.2020.3022907
|
[11] |
GOODFELLOW L, BENGIO Y, and COURVILLE A. Deep Learning[M]. Cambridge: The MIT Press, 2016.
|
[12] |
BARTLETT P L, HAZAN E, and RAKHLIN A. Adaptive online gradient descent[C]. The 20th International Conference on Neural Information Processing Systems, Vancouver, Canada, 2007: 65–72.
|
[13] |
JIANG Yanxiang, MA Miaoli, BENNIS M, et al. User preference learning-based edge caching for fog radio access network[J]. IEEE Transactions on Communications, 2019, 67(2): 1268–1283. doi: 10.1109/TCOMM.2018.2880482
|
[14] |
JIANG Fan, ZHANG Xiaoli, and SUN Changyin. A D2D-enabled cooperative caching strategy for fog radio access networks[C]. The 2020 IEEE 31st Annual International Symposium on Personal, Indoor and Mobile Radio Communications, London, UK, 2020: 1–6. doi: 10.1109/PIMRC48278.2020.9217190.
|
[15] |
ANDREWS J G, BACCELLI F, and GANTI R K. A tractable approach to coverage and rate in cellular networks[J]. IEEE Transactions on Communications, 2011, 59(11): 3122–3134. doi: 10.1109/TCOMM.2011.100411.100541
|
[16] |
ZHANG Shan, WANG Liudi, LUO Hongbin, et al. AoI-delay tradeoff in mobile edge caching with freshness-aware content refreshing[J]. IEEE Transactions on Wireless Communications, 2021, 20(8): 5329–5342. doi: 10.1109/TWC.2021.3067002
|
[17] |
Stanford University. Stanford university mobile activity TRAces (SUMATRA)[EB/OL]. http://infolab.stanford.edu/pleiades/SUMATRA.html, 2022.
|
[18] |
TRZCIŃSKI T and ROKITA P. Predicting popularity of online videos using support vector regression[J]. IEEE Transactions on Multimedia, 2017, 19(11): 2561–2570. doi: 10.1109/TMM.2017.2695439
|
参数 | 值 |
覆盖半径R | 100 m |
系统带宽B | 10 MHz |
文件大小\varphi | 1 M |
无线传输路径损耗指数\alpha | 4 |
加性高斯白噪声{\sigma ^2} | –95 dBm |
F-APs发射功率{P_{{\rm{FAP}}} } | 1 W |
信源发射功率P{\rm{s}} | 0.1 W |
请求到达率\lambda | 2000 请求/s |