Citation: | HUANG Xiaoge, WU Yuhang, YIN Hongbo, LIANG Chengchao, CHEN Qianbin. Direct Acyclic Graph Blockchain-based Personalized Federated Mutual Distillation Learning in Internet of Vehicles[J]. Journal of Electronics & Information Technology, 2024, 46(7): 2821-2830. doi: 10.11999/JEIT230976 |
线性复杂度和周期是衡量序列伪随机性的两个重要指标。序列的线性复杂度已经在很多文献中被研究过[1],比如文献[1]研究了一种特殊2元序列的线性复杂度,文献[2-4]讨论了周期不同的2元广义分圆序列的线性复杂度,文献[5,6]研究了不同周期的4元广义分圆序列的线性复杂度,文献[7,8]分别讨论了2元割圆序列和广义割圆序列的线性复杂度,文献[9,10]讨论了不同周期序列的线性复杂度。本文主要研究的是新型自缩控序列的线性复杂度,自缩序列有许多密码学优点,比如构造方式简单、周期较大、线性复杂度较高、对驱动序列有强力保护,而成为密码学中一类重要的伪随机序列。文献[11]定义了自缩序列的构造方式,给出了其线性复杂度的上界值等于周期的上界值:
下面定义新型自缩控序列。
定义1 设
(a0,a1,a2)(a3,a4,a5)···(a3k,a3k+1,a3k+2)··· | (1) |
若
引理1[17] 设
N(b1,b2,···,bk)={3n−k,(b1,b2,···,bk)≠(0,0,···,0)3n−k−1,(b1,b2,···,bk)=(0,0,···,0) | (2) |
证明:考虑在序列
引理2[17] 设
(1) 序列
(2) 序列
证明 由
为了得到SSC(模3)-序列线性复杂度更精确的上界值,先从序列的特征多项式入手来展开讨论。设序列
v∑i=0(vv−i)(−1)v−i\boldsymbolod3⋅ui=0 | (3) |
即等价于证明
v∑i=0(vi)(−1)v−i\boldsymbolod3⋅ui=0 | (4) |
其中
引理3[18] 设
证明 为了证明简便,不妨设
定义2[18] 设
定义3[18] 设
引理4[18] 设
证明 由引理3知
引理5[18] 设
证明
当
引理6[18] 设
证明 若
引理7[18] 设
证明 因为
引理8 设
证明 因为
∑x∈GF(3n)f1(x)+2f2(x)=∑x∈GF(3n)(3n−2∑r=1arxr+3n−2∑r=12brxr)=3n−2∑r=1(ar+2br)∑x∈GF(3n)xr=0 | (5) |
证毕
为了得到周期为
定义4 设
T1:n−1∑i=0aiαi→an−2,T2:n−1∑i=0aiαi→an−2,an−1 | (6) |
由以上
当
定理1 设
v∑i=0(vi)(−1)v−i\boldsymbolod3⋅ui=0 | (7) |
其中,
证明
v∑i,j=0,i≠jctiuti+ctjutj=0 | (8) |
即等价于证明式(9)成立
v∑i,j=0,i≠juti+2utj=0 | (9) |
为了证明式(9)成立,需要定义以下两个映射,设
v∑i,j=0,i≠juti+2utj=∑x∈GF(3n)∖{0}σ1(x)+2σ2(x)=0 | (10) |
则由引理8知,要证明式(10)成立,只需证明
定义函数
设
P1=XT1∏(h1k+1)2∏(h42k+1)P2=12XT2∏(h1k+1)2∏(h42k+1)} | (11) |
其中,
证毕
本部分给出
设
由此看到,把序列
定理2 设
证明 由新型自缩控序列的定义知,只有当
故
定理3 对于任意正整数
证明 设
(1)
(2)
在第(1)种情况下,
由上述定理可知
设
s∞=(s00,s10,s20,···,s3n−1−1,0,s3n−1,0,···,s2⋅3n−1−1,0,s2⋅3n−1,1,···,s3⋅3n−1−1,1) | (12) |
则有
当
当
当
为了更方便地来表示序列的线性复杂度,下面我们利用迹映射的相关性质和上述
设
T(αk)=Tr((c3n−1+(cα+cα2)3n−1)αk)=Tr(((c3n−1+(cα+cα2)3n−1)αk)3)=Tr(cα3k+cα3k+1+cα3k+2)=a3k+a3k+1+a3k+2 | (13) |
设
T1′(αk)=Tr((cα)3n−1αk)=Tr((cα)3nα3k)=Tr(c3nα3nα3k)=Tr(cαα3k)=Tr(cα3k+1)=a3k+1 | (14) |
设
T2′(αk)=Tr((cαm+1)3n−1αk)=Tr((cαm+1)3nα3k)=Tr(c3nα3n(m+1)α3k)=Tr(cαm+1α3k)=Tr(cα3k+(m+1))=a3k+(m+1) | (15) |
其中,
以下为了叙述方便,当
u∞=(u00,u10,u20,···,u3n−1−1,0,u3n−1,0,···,u2⋅3n−1−1,0,u2⋅3n−1,1,···,u3⋅3n−1−1,1) | (16) |
对所有的非负整数
由前述定理1和上边的记法可得下面的式子是成立的,即有
0=T′(0)=T′(3n−⌊n−34⌋−1∑i=0ciui)=T′1(3n−1−1∑i=0ciui)+T′20(2⋅3n−1−1∑i=3n−1ciui)+T′21(3n−⌊n−34⌋−1∑i=2⋅3n−1ciui)=3n−1−1∑i=0ciT′1(ui)+2⋅3n−1−1∑i=3n−1ciT′20(ui)+3n−⌊n−34⌋−1∑i=2⋅3n−1ciT′21(ui)=3n−1−1∑i=0cisi+2⋅3n−1−1∑i=3n−1cisi+3n−⌊n−34⌋−1∑i=2⋅3n−1cisi=3n−⌊n−34⌋−1∑i=0cisi=0 | (17) |
由以上的讨论可以得到以下定理4。
定理4 新型自缩控序列(SSC(模3)-序列)
L(s∞)≤3n−⌊(n−3)/4⌋−1 | (18) |
定理5 新型自缩控序列(SSC(模3)-序列)
证明 设
本文从上边讨论的结果中可以看出:与文献[12-16]中的序列相比,本文中的新型自缩控序列(SSC(模3)-序列)
(1) 文献[13]中改进的自收缩序列模型是由
(2) 文献[15]中
(3) 本文中的自缩控序列(SSC(模3)-序列)的周期整除
(4) 通过此种方式得到的自缩控序列的信息利用率更高,达到
伪随机序列在通信加密、雷达信号设计和编码技术等很多领域中有着广泛的应用。在这些应用中,通常要求序列具有大的周期和高的线性复杂度。衡量伪随机性的指标主要有周期、平衡性、线性复杂度和自相关性等。本文所设计的密码序列,主要是从周期、线性复杂度这两个安全指标来分析所构造序列的安全性,本文基于
[1] |
HUANG Xiaoge, YIN Hongbo, CHEN Qianbin, et al. DAG-based swarm learning: A secure asynchronous learning framework for internet of vehicles[J]. Digital Communications and Networks, 2023. doi: 10.1016/j.dcan.2023.10.004.
|
[2] |
YIN Hongbo, HUANG Xiaoge, WU Yuhang, et al. Multi-region asynchronous swarm learning for data sharing in large-scale internet of vehicles[J]. IEEE Communications Letters, 2023, 27(11): 2978–2982. doi: 10.1109/LCOMM.2023.3314662.
|
[3] |
MCMAHAN B, MOORE E, RAMAGE D, et al. Communication-efficient learning of deep networks from decentralized data[C]. The 20th International Conference on Artificial Intelligence and Statistics, Fort Lauderdale, USA, 2017: 1273–1282.
|
[4] |
HUANG Xiaoge, WU Yuhang, LIANG Chengchao, et al. Distance-aware hierarchical federated learning in blockchain-enabled edge computing network[J]. IEEE Internet of Things Journal, 2023, 10(21): 19163–19176. doi: 10.1109/JIOT.2023.3279983.
|
[5] |
FENG Lei, ZHAO Yiqi, GUO Shaoyong, et al. BAFL: A blockchain-based asynchronous federated learning framework[J]. IEEE Transactions on Computers, 2022, 71(5): 1092–1103. doi: 10.1109/TC.2021.3072033.
|
[6] |
XIAO Huizi, ZHAO Jun, PEI Qingqi, et al. Vehicle selection and resource optimization for federated learning in vehicular edge computing[J]. IEEE Transactions on Intelligent Transportation Systems, 2022, 23(8): 11073–11087. doi: 10.1109/TITS.2021.3099597.
|
[7] |
CAO Mingrui, ZHANG Long, and CAO Bin. Toward on-device federated learning: A direct acyclic graph-based blockchain approach[J]. IEEE Transactions on Neural Networks and Learning Systems, 2023, 34(4): 2028–2042. doi: 10.1109/TNNLS.2021.3105810.
|
[8] |
ZHENG Haifeng, GAO Min, CHEN Zhizhang, et al. A distributed hierarchical deep computation model for federated learning in edge computing[J]. IEEE Transactions on Industrial Informatics, 2021, 17(12): 7946–7956. doi: 10.1109/TII.2021.3065719.
|
[9] |
WU Chuhan, WU Fangzhao, LYU Lingjuan, et al. Communication-efficient federated learning via knowledge distillation[J]. Nature Communications, 2022, 13(1): 2023. doi: 10.1038/s41467-022-29763-x.
|
[10] |
JEONG E, OH S, KIM H, et al. Communication-efficient on-device machine learning: Federated distillation and augmentation under non-IID private data[EB/OL]. https://arxiv.org/abs/1811.11479v1, 2018.
|
[11] |
LEE G, JEONG M, SHIN Y, et al. Preservation of the global knowledge by not-true distillation in federated learning[C]. The 36th International Conference on Neural Information Processing Systems, New Orleans, USA, 2022: 2787.
|
[12] |
FALLAH A, MOKHTARI A, and OZDAGLAR A. Personalized federated learning: A meta-learning approach[EB/OL]. https://arxiv.org/abs/2002.07948, 2020.
|
[13] |
LI Tian, SAHU A K, ZAHEER M, et al. Federated optimization in heterogeneous networks[C]. Machine Learning and Systems, Austin, USA, 2020: 429–450.
|
[14] |
JIANG Yuang, WANG Shiqiang, VALLS V, et al. Model pruning enables efficient federated learning on edge devices[J]. IEEE Transactions on Neural Networks and Learning Systems, 2023, 34(12): 10374–10386. doi: 10.1109/TNNLS.2022.3166101.
|
[15] |
WEN Dingzhu, JEON K J, and HUANG Kaibin. Federated dropout—a simple approach for enabling federated learning on resource constrained devices[J]. IEEE Wireless Communications Letters, 2022, 11(5): 923–927. doi: 10.1109/LWC.2022.3149783.
|
[16] |
NORI M K, YUN S, and KIM I M. Fast federated learning by balancing communication trade-offs[J]. IEEE Transactions on Communications, 2021, 69(8): 5168–5182. doi: 10.1109/TCOMM.2021.3083316.
|
1. | 李旻,何婷婷. 基于随机数三角阵映射的高维大数据二分聚类初始中心高效鲁棒生成算法. 电子与信息学报. 2021(04): 948-955 . ![]() | |
2. | 刘瑞杰,王瑛,王铁流. 基于STM32F4的超短基线定位系统设计. 国外电子测量技术. 2021(05): 158-162 . ![]() | |
3. | 庞菲菲,温祥西,王晓华. 基于SVDD去除异常值的水下目标定位方法. 振动与冲击. 2021(22): 182-187 . ![]() |