高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于兴趣倾向机制的仿生SLAM算法

陈孟元 张玉坤 田德红 丁陵梅

李芳, 熊俊, 赵肖迪, 赵海涛, 魏急波, 苏曼. 基于快速强化学习的无线通信干扰规避策略[J]. 电子与信息学报, 2022, 44(11): 3842-3849. doi: 10.11999/JEIT210965
引用本文: 陈孟元, 张玉坤, 田德红, 丁陵梅. 基于兴趣倾向机制的仿生SLAM算法[J]. 电子与信息学报, 2022, 44(5): 1743-1753. doi: 10.11999/JEIT210313
LI Fang, XIONG Jun, ZHAO Xiaodi, ZHAO Haitao, WEI Jibo, SU Man. Wireless Communications Interference Avoidance Based on Fast Reinforcement Learning[J]. Journal of Electronics & Information Technology, 2022, 44(11): 3842-3849. doi: 10.11999/JEIT210965
Citation: CHEN Mengyuan, ZHANG Yukun, TIAN Dehong, DING Lingmei. Bionic SLAM Algorithm Based on Interest Tendency Mechanism[J]. Journal of Electronics & Information Technology, 2022, 44(5): 1743-1753. doi: 10.11999/JEIT210313

基于兴趣倾向机制的仿生SLAM算法

doi: 10.11999/JEIT210313
基金项目: 国家自然科学基金(61903002),芜湖市科技计划项目(2020yf59),安徽工程大学-鸠江区产业协同创新专项基金(2021cyxtb8),安徽工程大学中青年拔尖人才项目,安徽省高校协同创新项目(GXXT-2021-050)
详细信息
    作者简介:

    陈孟元:男,1984年生,博士,副教授,硕士生导师,主要研究方向为移动机器人SLAM、目标跟踪及路径规划

    张玉坤:男,1995年生,硕士生,主要研究方向为移动机器人SLAM

    田德红:男,1995年生,硕士生,主要研究方向为移动机器人SLAM

    丁陵梅:女,1994年生,硕士生,主要研究方向为移动机器人SLAM

    通讯作者:

    陈孟元 mychen@ahpu.edu.cn

  • 中图分类号: TP242.6

Bionic SLAM Algorithm Based on Interest Tendency Mechanism

Funds: The National Natural Science Foundation of China (61903002), The Science and Technology Planning Project of Wuhu, Anhui Province (2020yf59), The Anhui Polytechnic University-Jiujiang District Industry Collaborative Innovation Special Foundation (2021cyxtb8), The Middle-aged and Top-notch Talent Project of Anhui Polytechnic University, The University Synergy Innovation Program of Anhui Province (GXXT-2021-050)
  • 摘要: 该文针对同时定位与地图创建(SLAM)闭环检测算法易受复杂环境因素干扰,导致定位误差较大、闭环检测精度低等问题,受哺乳动物空间认知机理启发,提出一种基于兴趣倾向机制的仿生SLAM算法。采用反Hebbian网络(Lateral Anti-Hebbian Networkm, LAHN)对网格细胞进行建模,通过不规则复杂环境边界信息对网格细胞进行校正来提高算法定位精度。利用兴趣倾向机制对提取的显著性区域进行兴趣赋值,减小冗余显著性区域带来的影响,提高系统闭环准确率。将位置感知模型获取的位置信息与视觉感知模板相关联构建认知地图。在公开数据集及真实环境中进行测试,测试结果表明该文算法在构建认知地图的准确率、实时性以及对环境的适应能力具有优势。
  • 无线通信信道的开放性使其更容易受到未知干扰攻击,对正常通信构成威胁,因此抗干扰技术得到了广泛的研究[1,2]。抗干扰技术主要是通过频谱感知方式[3]检测干扰信息,并根据自身通信状态进行干扰规避和对抗的过程,从而改善通信效率。干扰规避常用技术主要包括跳频 (Frequency Hopping, FH)、传输速率自适应 (Rate Adaptive, RA)、功率控制等。如果干扰规律已知且恒定,可以使用监督学习进行训练,得到特定的策略进行规避。但是一般无线环境中干扰规律未知且动态变化,预先制定好的规避策略难以适应环境变化。当干扰变化时原策略可能失效,无法采用监督学习制定策略来优化通信性能,需要探索更加有效的干扰规避算法。

    在时域和频域都动态变化的通信环境中,业界通常利用强化学习 (Reinforcement Learning, RL) 与环境进行交互获得学习经验来优化干扰规避策略[4],从而达到规避干扰的目的。近年来,许多学者将动态频谱接入 (Dynamic Spectrum Access, DSA) 和Q学习进行结合,提出了多种有效的智能抗干扰方法。文献[5,6]将信道选择问题建模为马尔可夫决策过程 (Markov Decision Process, MDP),提出了一种智能选择最优信道的实时强化学习算法(即Q学习),从而选择条件较好的信道进行数据传输来主动避免信道拥塞。在文献[7]中,应用极小极大-Q原理来确定用于传输数据信道的数目,并确定了如何在不同信道之间进行信道切换的方案以规避干扰。文献[8]在多信道动态抗干扰博弈中,基于强化Q学习技术提出了一种最优的信道接入策略。此外,在认知无线网络(Cognitive wireless Network, CRN)场景中,文献[9]提出的基于策略同步Q学习的信道分配策略主动避免了网络中的信道拥塞问题。然而,以上算法均只采用信道切换进行躲避干扰,显然频繁的信道切换会增大系统开销,并不能带来整体性能的提升,因此需要考虑其他方式来进行躲避干扰,完成正常通信。

    随着通信设备的更新换代,越来越多的通信设备开始具有切换通信频率和调节发射功率的能力[10]。文献[11]首次研究了多用户场景下同时进行信道选择和功率分配决策的协作抗干扰问题,并将该问题建模为一个多主一从的Stackelberg博弈过程。文献[12,13]提出的零和博弈研究了跳频和传输速率控制,通过联合优化跳频和传输速率自适应技术来避免干扰。无线通信系统中的发送机通过改变其信道、调整其速率或同时改变这两种方式来避开干扰,以提高系统的平均吞吐量,但该文献仅对反应式扫频干扰这一种干扰模式做出了分析,并不适用于多种干扰环境。而文献[14]则将上述决策问题描述为一个马尔可夫决策过程,提出了一种基于深度强化学习 (Deep Reinforcement Learning, DRL)的抗干扰算法,该算法可以同时对通信频率和功率进行决策,但是该算法并没有考虑信道切换的代价,不能从多方面说明算法的优势。基于Q学习的2维抗干扰移动通信方案[15]为每个状态策略保留Q函数,用于选择发射功率和接入信道,但是状态空间维度过大会造成Q学习的学习速度降低,难以适应动态变化的无线通信环境。

    针对动态变化的干扰环境,干扰规避策略不仅需要考虑通信信道的接入和发射功率控制,还应该考虑算法收敛速度以快速适应环境变化。考虑这一联合优化目标,本文将动态变化环境中的干扰规避问题建模为一个马尔可夫决策过程,提出了一种赢或学习快速策略爬山 (Win or Learn Fast Policy Hill-Climbing, WoLF-PHC)的干扰规避方法,本方法使用“赢或快学习”准则以及可变的学习率,从而更快地实现最优的干扰规避策略。本文主要的研究工作如下:

    (1) 首先基于实际无线通信环境,建立2维时频域的经典干扰模型,比如扫频干扰、随机干扰、跟随式干扰、贪婪随机策略干扰,用于后续仿真验证。

    (2) 然后将干扰环境下的接入信道和发射功率控制问题建模为一个马尔可夫决策过程,分别给出状态、动作、转移概率和奖励4个元素,并将其定义为一个4元组(S,A,p,R)

    (3) 介绍传统Q学习算法,接着提出一种基于WoLF-PHC学习的快速干扰规避算法。

    (4) 将所提的WoLF-PHC算法与传统Q学习和随机策略进行仿真对比,验证了所提WoLF-PHC算法性能最佳。

    为了模拟无线通信环境中的未知干扰,干扰机在每个时隙随机选择干扰信道并发送特定干扰功率的干扰信号,以恶化或中断正在进行的通信链路。本文考虑4种干扰模型[15]场景,分别为扫频干扰、贪婪随机策略干扰、跟随式干扰、随机干扰。具体定义如下:

    (1) 扫频干扰:每个时隙干扰m个信道,总信道数Mm的整数倍,扫频周期即为T=M/m。例如,在第1个扫描周期先产生一个随机序列[3,5,1,4,2,6],即第1个时隙干扰信道[f3,f5],第2个时隙干扰信道[f1,f4],第3个时隙干扰信道[f2,f6]。当一个扫频周期结束之后,继续重复上一个周期的干扰策略。

    (2) 贪婪随机策略干扰:每个时隙随机选择干扰信道,使用P0=1ε的概率干扰相同信道,P1=ε的概率随机干扰新信道。假设每个时隙生成一个(0,1)的随机数,如果这个随机数小于ε,则随机干扰一个新信道,如果这个随机数大于ε,那么继续干扰原信道。

    (3) 跟随式干扰:根据正在进行通信的信道来选择干扰策略。即干扰上一时隙通信所采用的信道,上一时隙通信采用哪个信道,当前时隙就干扰哪个信道。

    (4) 随机干扰:每个时隙随机选择信道和干扰功率进行干扰。

    图1所示,考虑无线通信环境中,存在发送机、干扰机、接收机。设信道增益为1,发送信号为x(t),噪声为n(t),干扰信号为z(t),那么接收信号y(t)为

    图 1  系统模型
    y(t)=x(t)+z(t)+n(t)
    (1)

    假设该系统中发送机的发射功率集合为PU={pu1,pu2,,pui,,puL}pui表示可供选择的发射功率大小,共有L种发射功率。第k个时隙所使用的发射功率记为pkupkuPU。干扰功率集合设为PJ=pj1,pj2,,pji,,pjWpji表示可供选择的干扰功率大小,共有W种发射功率。第k个时隙干扰功率记为pkjpkjPJ,噪声功率为σ2。利用频谱感知算法[3],我们可以获得未知环境下的干扰信息(即干扰所占信道和干扰功率)。基于这一干扰信息,发送机需要选择合适的信道和发射功率使接收信号达到一定的信干噪比,完成正常解调达到正常通信的目的。发送机应尽量减少信道的切换和发射功率,以达到较少开销的目的。这里引入信道切换代价和功率来衡量系统开销。所谓信道切换代价,即为后一时隙与前一时隙选择的通信信道不同时,进行信道切换所带来的代价;而功率代价,即为所使用的发射功率越大,成本越大。因此,在未知且动态变化的干扰环境中,发送机应需要尽量减少信道切换和发射功率的代价,同时还要规避干扰,从而完成正常通信。

    本文将未知环境下发送机选择信道和功率控制过程建模为一个马尔可夫决策过程 (Markov Decision Process, MDP)[6]。MDP为寻找最优策略提供了数学模型,在描述MDP时,通常采用状态、动作、转移概率和奖励这4个元素,并将其定义为一个4元组(S,A,p,R)。其中,状态空间S和动作空间A是离散的,由于本文的下一状态由当前动作确定,所以状态转移概率为确定值,记为p:S×S×A[0,1],表示给定当前状态skS下选择动作akA转移到下一状态sk+1S的概率。本文的MDP模型具体如下:

    (1) 状态:定义第k个时隙的状态为sk=(fku,fkj),其中fku,fkj{1,2,,M},前者表示当前时隙选择的通信信道,后者表示当前时隙干扰所占用的信道,设状态空间为S

    (2) 动作:定义在第k个时隙用户采取的动作为ak=(fk+1u,pk+1u),其中fk+1u{1,2,,M}, pk+1uPUfk+1u为第k+1个时隙用户选择的通信信道,pk+1u为第k+1个时隙用户采用的发射功率,动作空间大小为M×L,记为A

    (3) 奖励函数:当用户在sk状态执行动作ak时,会获得相应的奖励值Rk。这里定义第k个时隙的信干噪比 (Signal to Interference plus Noise Ratio, SINR)为

    SINRk=pk+1upk+1jφ(fk+1u,fk+1j)+σ2
    (2)

    其中,φ(fk+1u,fk+1j)={1, fk+1ufk+1j0,,即如果通信信道受到干扰,则φ()为1;否则为0。当SINRTh时,表示接收机能正常解调接收信号完成正常通信;否则表示当前通信失败,其中Th表示根据实际应用所选择的最小SINR门限值。设信道切换代价为Cf,功率代价为CP×pk+1upmaxpmax表示最大发射功率,CP表示最大功率传输代价。奖励值Rk由是否正常通信、功率代价和信道切换代价共同决定,可定义为[12]

    Rk = {1CP×pk+1upmaxCf×K(fku,fk+1u), SINRTh1CP×pk+1upmaxCf×K(fku,fk+1u), SINR<Th
    (3)

    其中,K(fku,fk+1u) = {1, fkufk+1u0, fku=fk+1u,即前一时隙与后一时隙采用不同通信信道时进行了信道切换,将产生信道切换代价。当SINRTh时,表示正常通信,记为1,并减去相应的信道切换代价和功率代价可得奖励值。

    在学习过程中,用户不断与环境交互,探索干扰的变化规律,从而获得最优的传输策略。本文的系统目标是优化用户的传输策略π,使系统的长期累积收益最大化,因此系统优化问题可以建模为

    maxπE[i=1γi1Rk+i]
    (4)

    其中,γ (0<γ≤1)为折扣因子,表示未来收益对当前收益的重要程度。

    由于问题式(4)被建模为马尔可夫决策问题,可以采用Q学习方法与环境进行实时交互,根据选取动作得到下一时隙的反馈奖励值,并不断更新2维Q矩阵来实现抗干扰策略的优化。下面将介绍传统Q学习算法,并对该算法的现有缺陷进行分析,进而提出一种基于WoLF-PHC的快速强化学习算法。所提算法在未知干扰模型且干扰动态变化的情况下,不仅能保持Q学习的性能,而且能快速学习干扰变化规律并获得最优规避策略,在随机干扰的情况下也能保证收敛。

    采用Q学习的方法来解决MDP问题的主要思想是将状态和动作构建成一张2维Q表来存储Q值,然后根据Q值来选取能够获得最大收益的动作。Q表中的元素即Q(s,a),表示在某一时隙的s状态下(sS),采取动作a(aA)后预计能够得到的累计奖励值。在第k个时隙的状态s下采取动作a,更新的Q函数为[6,12]

    Qk+1(sk,ak)=(1α)Qk(sk,ak)+α(Rk+γmaxaQk(sk+1,a))
    (5)

    其中,sk, ak分别表示当前的动作和状态,α(0,1]表示学习率,γ(0,1]表示折扣因子,Rk代表在sk状态执行动作ak时获得的奖励值。Qk(sk,ak)为当前的Q值,Qk+1(sk,ak)则表示更新后的Q值。maxaQk(sk+1,a)表示下一个状态所有Q值中的最大值。

    在基于Q学习的选择策略中,如果用户总是选择Q值对应最大的动作,算法容易陷入局部最优,因此可以采用贪婪策略选择动作。在贪婪选择动作的过程中,产生一个[0,1]的随机数,如果该数小于ε,则随机采取一个动作,否则选择Q值最大对应的动作。贪婪策略[16]定义为

    π(s,a)={argmaxaQ(s,a),pr<εaranprε
    (6)

    基于Q学习的功率和信道选择策略具体步骤如表1所示。

    表 1  基于Q学习的功率和信道选择策略
     初始化:设k=0,确定初始状态sk=(fku,fkj),随机选择当前时隙通信信道fku,并且进行频谱感知获取当前时隙的干扰信道fkj以及干扰功
         率pjk;初始化Q表为全0矩阵;设置学习率α,折扣因子γ
     学习过程:当k<K时,
     (1) 利用贪婪策略选取动作ak=(fuk+1,puk+1),然后再根据频谱感知结果,和选取的动作更新下一时隙的状态sk + 1=(fk + 1u,fk + 1j)
       计算出SINRk和下一时隙反馈的奖励值Rk
     (2) 根据式(5),更新Q表,k=k+1
    下载: 导出CSV 
    | 显示表格

    Q学习采用恒定的学习率,收敛速度较慢。根据后面仿真结果图2(d)可知,针对随机策略的干扰该算法不一定达到收敛。在实际无线通信场景中,很难预知干扰的动态变化情况。可见,传统Q学习算法并不适用于所有环境。为此,本文提出了一种新的WoLF-PHC算法,其采用可变的学习率使用户加快学习,并且根据赢或快学习(Win or Learn Fast, WoLF)准则保证了算法的收敛性。

    图 2  不同干扰环境下的算法性能

    赢或学习快速策略爬山(WoLF-PHC)[17]是将“赢或快学习” (WoLF)规则与“策略爬山法” (Policy Hill-Climbing, PHC)相结合的一种学习算法。其中PHC算法是Q学习的简单扩展,通过学习率δ(0,1)逐步增大选择最大行为值(即Q值)的概率来改进策略。当δ = 1时,该算法等效于Q学习算法。该算法中,Q函数的更新规则与Q学习算法中的更新规则相同,即式(5)所示。然而,面对随机策略干扰,PHC算法依然无法收敛。因此,文献[16]进一步引入了WoLF算法以确保算法收敛。当用户当前“赢”时,缓慢调整学习速率,当用户“输”时,加快学习速率,这样使得PHC算法能够收敛到纳什均衡。当前策略π(s,a)和平均策略ˉπ(s,a)之间的差异可以作为判断算法输或赢的标准。为了计算平均策略,引入C(s)表示当前状态s出现的次数,平均策略的规则为

    ˉπ(s,a)ˉπ(s,a)+1C(s)(π(s,a)ˉπ(s,a)),aA
    (7)

    当前策略π(s,a)的初始值为1/|A||A|为动作空间的长度。如果选择最大Q值的动作,则当前策略增加一个值;而选择其他动作则减去一个值。当前策略的更新规则可表示为

    π(s,a)π(s,a)+{Δ,a=argmaxaQ(s,a)Δ|A|1
    (8)

    其中

    Δ={min(π(s,a),δ|A|1),aargmaxaAQ(s,a) aamin(π(s,a),δ|A|1),
    (9)

    其中,δ取决于当前策略平均奖励值aπ(s,a)Q(s,a)和平均策略平均奖励值aˉπ(s,a)Q(s,a),当前者大于后者时,认为当前代理(Agent)是“赢”的,则采用小的学习速率δw缓慢学习;否则采用大的学习速率δl快速学习,这里δl>δw。WoLF-PHC算法引入两种学习速率,不但能加快学习速度还能使用户收敛到最优策略。

    基于WoLF-PHC学习的功率和信道策略具体步骤如表2所示。

    表 2  基于WoLF-PHC学习的功率和信道选择策略
     初始化:折扣因子γ,学习率α,学习速率δl, δwQ表为全0矩阵,π(s,a) = 1/|A|, C(s)=0
     学习过程:当k<K时,
     (1) 根据当前策略π(s,a)和当前状态s选择动作a
     (2) 获取下一时隙的状态s并计算R,然后根据式(5),更新Q表;
     (3) 更新C(s)C(s)+1,再根据式(8)和式(7)更新π(s,a)ˉπ(s,a)
     (4) k = k+1
    下载: 导出CSV 
    | 显示表格

    本节主要基于所提WoLF-PHC算法、Q学习算法以及随机策略进行信道和发射功率的选择,并对这3种算法进行仿真分析对比。其中,随机策略是根据上一时隙的感知结果,下一时隙随机选择上一时隙未受干扰的信道和干扰功率。在仿真过程中,首先在频谱感知信息完全正确的情况下,研究了算法的收敛性并对其进行性能评估。其次,在频谱感知结果存在误差的情况下,对算法的鲁棒性能进行分析讨论。仿真参数如表3所示。

    表 3  仿真参数
    参数
    信道总数M6
    蒙特卡罗仿真次数Mont1000
    时隙数Slots10000
    学习率α0.5
    折扣因子γ0.9
    学习速率δl,δw0.1,0.03
    信道切换代价Ch0.5
    功率代价系数Cp0.5
    干扰功率集合PJ[2,4,6,8,10,12]×0–3 W
    发射功率集合PU[7,14,21,28]×10–3 W
    噪声功率σ210–3 W
    下载: 导出CSV 
    | 显示表格

    图2所示,本文针对扫频干扰、贪婪随机策略干扰、跟随式干扰、随机干扰4种典型干扰场景进行性能分析。假设一共有M=6个频率不重叠的通信信道,纵坐标表示信道,横坐标代表时隙。实心色块代表当前时隙存在干扰的信道,颜色深浅代表干扰功率的大小,颜色越深代表功率越大,白色代表当前时隙无干扰且不被占用的通信信道,网格块代表当前时隙正在通信的信道。其中,图2(a)表示扫频周期为T=3,每个时隙存在m=2个信道的扫频干扰;图2(b)为贪婪概率为ε = 0.2的贪婪随机策略干扰;图2(c)为跟随式干扰,当第1个时隙选取f5信道进行通信时,在第2个时隙就干扰f5信道;图2(d)为随机干扰。

    为了对系统一段时间的性能进行统计,仿真过程中在每50个时隙内累积并统计一次奖励值。假设历史干扰检测所占用的信道和干扰功率完全正确,由图3(a)图3(c)可知,当经历一段时间后,每种干扰模型下所得到的累积奖励值能够趋于稳定,可见算法具有收敛性。此外,还可以观察到WoLF-PHC比Q学习能更快地达到收敛,这说明该算法能够快速地学习干扰规律并迅速适应环境,采取最优策略使用户完成通信。在算法收敛后,WoLF-PHC和Q学习的性能相近,而随机策略性能相比这两者差很多。而由图3(d)所示,针对随机干扰,Q学习最终不能达到收敛,WoLF-PHC依然可以快速收敛。所以由仿真结果可知,在历史频谱感知结果完全正确的情况下,WoLF-PHC比Q学习可以获得更快的收敛速度,且性能也略优于Q学习,远好于随机策略。

    图 3  4种典型干扰模型

    图4表示在扫频干扰的环境下,WoLF-PHC算法基于不同误检概率下的干扰规避性能,其中p表示感知干扰所占信道错误的概率。由图4可以看出,当频谱感知结果存在误差时会对所提的干扰规避算法产生一定的影响。当频谱感知完全正确的情况下,干扰规避的性能优于频谱感知存在错误的情况,而且误检概率越大,干扰规避性能会越差,但随着时间的推移,不同误检概率的干扰规避性能几乎相近。而且,所提WoLF-PHC算法仍然能够实现收敛,对频谱感知误差具有一定的鲁棒性。

    图 4  频谱感知误差对所提干扰规避算法的影响

    本文主要在未知干扰环境下,研究了一种联合发射功率控制和动态信道接入的WoLF-PHC干扰规避方法。在4种典型的干扰环境下,通过对比基于Q学习的干扰规避方法、基于WoLF-PHC的干扰规避方法和随机干扰选择方法,可以看出前两种算法都比随机选择方法性能更优。所提的基于WoLF-PHC干扰规避方法的性能和收敛速度均比Q学习更好。进一步,在频谱感知结果存在误差的情况下对干扰规避性能的影响进行分析可知,频谱感知的误检概率越大,干扰规避性能会略差。在不同频谱感知误差情况下,所提WoLF-PHC算法仍然能够实现收敛,具有一定的鲁棒性。

  • 图  1  认知地图构建

    图  2  网格细胞分布图

    图  3  融合自注意力机制的卷积神经网络结构

    图  4  图像特征提取示意图

    图  5  TUM部分序列轨迹对比图

    图  6  KITTI部分序列轨迹对比图

    图  7  硬件平台及真实实验环境场景

    图  8  移动机器人路径图

    图  9  视觉里程计与本文算法定位误差对比图

    表  1  融合自注意力机制的卷积神经网络参数设置

    序号区域划分层类型卷积核步长深度激活函数
    0编码器Convolution7×7164ReLU
    1编码器Convolution3×32128ReLU
    2编码器Convolution3×32256ReLU
    3中间区Residual Block3×31256ReLU
    4中间区Residual Block3×31256ReLU
    5中间区Residual Block3×31256ReLU
    6中间区Residual Block3×31256ReLU
    7中间区Residual Block3×32256ReLU
    8中间区Residual Block3×32256ReLU
    9解码器Deconvlution3×32128ReLU
    10解码器Self-Attention
    11解码器Deconvlution3×3164ReLU
    12解码器Convolution7×713Tanh
    13解码器Interest Propensity
    下载: 导出CSV

    表  2  各算法在TUM数据集上的结果对比

    序列轨迹均方根误差(RMSE/m)单帧图像处理时间(ms)闭环准确率(%)
    ORB-SLAMRatSLAM本文算法ORB-SLAMRatSLAM本文算法ORB-SLAMRatSLAM本文算法
    fr2/coke0.0560.0680.04212921114583.474.288.1
    fr2/sphere0.0370.0430.03113519816282.573.486.5
    fr1/plant0.0520.0650.03914623016884.274.289.2
    fr1/desk0.0630.0750.05113421815382.672.885.1
    下载: 导出CSV

    表  3  各算法在KITTI数据集上的结果对比

    序列相对平移误差(m)相对旋转误差(°)耗时(min)
    ORB-SLAMRatSLAM本文算法ORB-SLAMRatSLAM本文算法ORB-SLAMRatSLAM本文算法
    008.3110.595.453.244.342.859.7315.9610.87
    0110.7512.3710.423.453.673.022.383.532.97
    029.5912.517.214.825.133.6511.4417.8613.15
    0312.2414.1212.255.956.586.021.752.912.24
    044.525.344.252.763.673.710.570.910.71
    053.824.812.652.023.271.585.4810.177.87
    063.215.721.911.721.941.132.424.423.06
    下载: 导出CSV

    表  4  主要参数设置

    变量名称参数数值
    运行速度v1 m/s
    方向变化范围θ[0, 2π]
    位置采样点ns1000
    网格细胞总数N260
    下载: 导出CSV
  • [1] 左燕, 周夏磊, 蒋陶然. 传感器位置误差下外辐射源雷达三维定位代数解算法[J]. 电子与信息学报, 2020, 42(3): 555–562. doi: 10.11999/JEIT190292

    ZUO Yan, ZHOU Xialei, and JIANG Taoran. Algebraic solution for 3D localization of multistatic passive radar in the presence of sensor position errors[J]. Journal of Electronics &Information Technology, 2020, 42(3): 555–562. doi: 10.11999/JEIT190292
    [2] 李世宝, 王升志, 刘建航, 等. 基于接收信号强度非齐性分布特征的半监督学习室内定位指纹库构建[J]. 电子与信息学报, 2019, 41(10): 2302–2309. doi: 10.11999/JEIT180599

    LI Shibao, WANG Shengzhi, LIU Jianhang, et al. Semi-supervised indoor fingerprint database construction method based on the nonhomogeneous distribution characteristic of received signal strength[J]. Journal of Electronics &Information Technology, 2019, 41(10): 2302–2309. doi: 10.11999/JEIT180599
    [3] 李庆华, 尤越, 沐雅琪, 等. 一种针对大型凹型障碍物的组合导航算法[J]. 电子与信息学报, 2020, 42(4): 917–923. doi: 10.11999/JEIT190179

    LI Qinghua, YOU Yue, MU Yaqi, et al. Integrated navigation algorithm for large concave obstacles[J]. Journal of Electronics &Information Technology, 2020, 42(4): 917–923. doi: 10.11999/JEIT190179
    [4] MOSER E I, KROPFF E, and MOSER M B. Place cells, grid cells, and the brain's spatial representation system[J]. Annual Review of Neuroscience, 2008, 31(1): 69–89. doi: 10.1146/annurev.neuro.31.061307.090723
    [5] MOSER E I, ROUDI Y, WITTER M P, et al. Grid cells and cortical representation[J]. Nature Reviews Neuroscience, 2014, 15(7): 466–481. doi: 10.1038/nrn3766
    [6] YUAN Miaolong, TIAN Bo, SHIM V A, et al. An entorhinal-hippocampal model for simultaneous cognitive map building[C]. Proceedings of the 29th AAAI Conference on Artificial Intelligence, Austin, USA, 2015: 586–592.
    [7] HAFTING T, FYHN M, MOLDEN S, et al. Microstructure of a spatial map in the entorhinal cortex[J]. Nature, 2005, 436(7052): 801–806. doi: 10.1038/nature03721
    [8] DOELLER C F, BARRY C, and BURGESS N. Evidence for grid cells in a human memory network[J]. Nature, 2010, 463(7281): 657–661. doi: 10.1038/nature08704
    [9] O'KEEFE J and DOSTROVSKY J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat[J]. Brain Research, 1971, 34(1): 171–175. doi: 10.1016/0006-8993(71)90358-1
    [10] SOLSTAD T, BOCCARA C N, KROPFF E, et al. Representation of geometric borders in the entorhinal cortex[J]. Science, 2008, 322(5909): 1865–1868. doi: 10.1126/science.1166466
    [11] KRUPIC J, BURGESS N, and O'KEEFE J. Neural representations of location composed of spatially periodic bands[J]. Science, 2012, 337(6096): 853–857. doi: 10.1126/science.1222403
    [12] BARRY C, HAYMAN R, BURGESS N, et al. Experience-dependent rescaling of entorhinal grids[J]. Nature Neuroscience, 2007, 10(6): 682–684. doi: 10.1038/nn1905
    [13] HARDCASTLE K, GANGULI S, and GIOCOMO L M. Environmental boundaries as an error correction mechanism for grid cells[J]. Neuron, 2015, 86(3): 827–839. doi: 10.1016/j.neuron.2015.03.039
    [14] JAYAKUMAR S, NARAYANAMURTHY R, RAMESH R, et al. Modeling the effect of environmental geometries on grid cell representations[J]. Frontiers in Neural Circuits, 2019, 12: 120. doi: 10.3389/fncir.2018.00120
    [15] REBAI K, AZOUAOUI O, and ACHOUR N. Bio-inspired visual memory for robot cognitive map building and scene recognition[C]. 2012 IEEE/RSJ International Conference on Intelligent Robots and Systems, Vilamoura-Algarve, Portugal, 2012: 2985–2990. doi: 10.1109/IROS.2012.6385493.
    [16] MILFORD M J and WYETH G F. Mapping a suburb with a single camera using a biologically inspired SLAM system[J]. IEEE Transactions on Robotics, 2008, 24(5): 1038–1053. doi: 10.1109/TRO.2008.2004520
    [17] GLOVER A J, MADDERN W P, MILFORD M J, et al. FAB-MAP + RatSLAM: Appearance-based SLAM for multiple times of day[C]. 2010 IEEE International Conference on Robotics and Automation, Anchorage, USA, 2010: 3507–3512. doi: 10.1109/ROBOT.2010.5509547.
    [18] HOU Yi, ZHANG Hong, and ZHOU Shilin. Convolutional neural network-based image representation for visual loop closure detection[C]. 2015 IEEE International Conference on Information and Automation, Lijiang, China, 2015: 2238–2245. doi: 10.1109/ICInfA.2015.7279659.
    [19] 李维鹏, 张国良, 姚二亮, 等. 基于场景显著区域的改进闭环检测算法[J]. 机器人, 2017, 39(1): 23–35. doi: 10.13973/j.cnki.robot.2017.0023

    LI Weipeng, ZHANG Guoliang, YAO Erliang, et al. An improved loop closure detection algorithm based on scene salient regions[J]. Robot, 2017, 39(1): 23–35. doi: 10.13973/j.cnki.robot.2017.0023
    [20] JUN H, BRAMIAN A, SOMA S, et al. Disrupted place cell remapping and impaired grid cells in a knockin model of alzheimer's disease[J]. Neuron, 2020, 107(6): 1095–1112. doi: 10.1016/j.neuron.2020.06.023
    [21] YU Shumei, WU Junyi, XU Haidong, et al. Robustness improvement of visual templates matching based on frequency-tuned model in RatSLAM[J]. Frontiers in Neurorobotics, 2020, 14: 568091. doi: 10.3389/fnbot.2020.568091
    [22] 陈孟元, 徐明辉. 基于自组织可增长映射的移动机器人仿生定位算法研究[J]. 电子与信息学报, 2021, 43(4): 1003–1013. doi: 10.11999/JEIT200025

    CHEN Mengyuan and XU Minghui. Research on mobile robot bionic location algorithm based on growing self-organizing map[J]. Journal of Electronics &Information Technology, 2021, 43(4): 1003–1013. doi: 10.11999/JEIT200025
    [23] 陈孟元, 田德红. 基于多尺度网格细胞到位置细胞的仿生SLAM算法[J]. 计算机辅助设计与图形学学报, 2021, 33(5): 712–723. doi: 10.3724/SP.J.1089.2021.18407

    CHEN Mengyuan and TIAN Dehong. Bionic SLAM algorithm based on multi-scale grid cell to place cell[J]. Journal of Computer-Aided Design &Computer Graphics, 2021, 33(5): 712–723. doi: 10.3724/SP.J.1089.2021.18407
  • 期刊类型引用(6)

    1. 陈帅明. 基于深度强化学习的通信动态抗干扰决策模型. 电脑知识与技术. 2024(09): 89-92 . 百度学术
    2. 韩晓娱,刘昊昱,张世层,王丽冲. LEO卫星系统对GSO卫星系统干扰规避技术研究. 计算机与网络. 2024(01): 74-79 . 百度学术
    3. 周成,林茜,马丛珊,应涛,满欣. 通信干扰信道和功率智能决策算法. 电子与信息学报. 2024(10): 3957-3965 . 本站查看
    4. 高科婕,朱勇刚,张凯,周展阳. 资源受限下基于改进Q学习的干扰自适应采样. 电子信息对抗技术. 2024(06): 26-34 . 百度学术
    5. 肖亮,陈顺,王烁华,吕泽芳,杨和林. 面向数字孪生的智能无线通信抗干扰技术. 移动通信. 2023(06): 8-13 . 百度学术
    6. 李博扬,刘洋,万诺天,许魁,夏晓晨,张月月,张咪. 基于强化学习的无人机电磁干扰感知与抗干扰传输方法. 电讯技术. 2023(12): 1855-1861 . 百度学术

    其他类型引用(3)

  • 加载中
图(9) / 表(4)
计量
  • 文章访问数:  883
  • HTML全文浏览量:  723
  • PDF下载量:  98
  • 被引次数: 9
出版历程
  • 收稿日期:  2021-04-15
  • 修回日期:  2021-06-24
  • 录用日期:  2021-11-05
  • 网络出版日期:  2021-11-15
  • 刊出日期:  2022-05-25

目录

/

返回文章
返回