Loading [MathJax]/jax/element/mml/optable/BasicLatin.js
高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于行为延迟共享网络的个性化商品推荐方法

张红霞 董燕辉 肖军弼 杨勇进

李维刚, 谌竟成, 谢璐, 赵云涛. 基于自组织增量-图卷积神经网络的金相图半监督学习[J]. 电子与信息学报, 2021, 43(11): 3301-3308. doi: 10.11999/JEIT201029
引用本文: 张红霞, 董燕辉, 肖军弼, 杨勇进. 基于行为延迟共享网络的个性化商品推荐方法[J]. 电子与信息学报, 2021, 43(10): 2993-3000. doi: 10.11999/JEIT200964
Weigang LI, Jingcheng SHEN, Lu XIE, Yuntao ZHAO. Semi Supervised Learning of Metallographic Data Based on Self-organizing Incremental and Graph Convolution Neural Network[J]. Journal of Electronics & Information Technology, 2021, 43(11): 3301-3308. doi: 10.11999/JEIT201029
Citation: Hongxia ZHANG, Yanhui DONG, Junbi XIAO, Yongjin YANG. Personalized Commodity Recommendation Method Based on Behavioral Delay Sharing Network[J]. Journal of Electronics & Information Technology, 2021, 43(10): 2993-3000. doi: 10.11999/JEIT200964

基于行为延迟共享网络的个性化商品推荐方法

doi: 10.11999/JEIT200964
基金项目: 国家重点研发计划(2018YFC1406204),国家自然科学基金(61872385),中央高校基本科研业务费专项资金(18CX02140A)
详细信息
    作者简介:

    张红霞:女,1981年生,博士,副教授,研究方向为服务计算,边缘计算,机器学习

    董燕辉:男,1996年生,硕士生,研究方向为服务推荐,机器学习

    肖军弼:男,1968年生,硕士,副教授,研究方向为计算机网络,软件定义网络

    杨勇进:男,1996年生,硕士生,研究方向为边缘计算,深度学习

    通讯作者:

    张红霞 zhanghx@upc.edu.cn

  • 中图分类号: TP391

Personalized Commodity Recommendation Method Based on Behavioral Delay Sharing Network

Funds: The National Key Research and Development Project(2018YFC1406204), The National Natural Science Foundation of China (61872385), The Fundamental Research Funds for the Central University (18CX02140A)
  • 摘要: 针对电商平台难以利用历史浏览行为进行个性化商品推荐的问题,该文提出了一种行为延迟共享网络模型(BDSN),充分结合历史浏览信息,对用户进行精准浏览推荐。该模型提出行为延迟门控循环神经单元(BDGRU),将历史浏览时间间隔作为用户活跃度因子,对神经元状态进行更新,用于计算用户的兴趣表示。为了提高向量表示的一致性,该模型提出共享参数网络,将用户侧和商品侧的表示向量收敛到统一空间,解决个性化商品推荐点击率预估问题。并在真实数据集上进行实验,结果表明,BDSN模型在验证集上的AUC指标和损失函数均处于最优,在测试集上的AUC指标相较基本模型提高37%,能够有效提升商品推荐的准确性。
  • 钢的微观组织决定其使用性能,对微观组织的定性和定量研究一直都是钢铁材料领域的重要工作[1-3]。将采用适当方法(如抛光、腐蚀)处理后的实验钢试样置于光学显微镜(Optical Microscope, OM)或电子显微镜(Electron Microscope, EM)下,可观察到钢的显微组织形貌图像,即金相图[4,5]。传统上,金相图的辨识由人工完成,对人的专业经验依赖性较大,即使是经验丰富的专家也会因为肉眼看不到的图像细节而分析失误。而现代钢材种类越来越多,其内部显微组织越来越复杂,人工辨识面临巨大挑战[6,7]

    随着计算机视觉的深入发展,国内外研究者已开始将深度学习用于金相图的自动辨识问题。Pauly等人[8]使用数据挖掘方法对金相图分类,但由于不同类别间提取到的特征差异性不够,在测试集上仅获得48%的精度。Chowdhury等人[9]组合不同的特征提取和特征选择方法作用于金相图,并选择不同分类器,比较了不同组合间模型性能的差异。Azimi等人[10]采用全卷积神经网络对金相图进行分类,在所收集的数据集上能够获取90%以上的精度。文献[11]融合多种图像增强方法,并改进AlexNet, VGGNet, ResNet, GoogleNet适用于金相图,在所收集的数据集上能够获取95%以上的精度。上述研究所使用的一般均是小规模数据集,且由于人工标注困难、效率低问题,用于模型训练的已标记图像数量较少,模型泛化能力弱、实际应用困难。

    [12-14]G=(V,E)能表达非欧空间复杂数据关系[15],图卷积(Graph Convolutional Network, GCN)可用于超维关联数据的挖掘和分析[16-18]。基于已有拓扑学习模型[19],本文提出一种基于自组织增量-图卷积神经网络的半监督学习方法。在原自组织增量神经网络(Self-Organizing Incremental Neural Network, SOINN)中引入连接权重概念来表示两节点相似性,得到引入连接权重策略的自组织增量神经网络(Weighted SOINN, WSOINN),并引入节点胜利次数以挑选少量节点进行人工标注;进而,搭建GCN学习拓扑图中高阶特征来预测节点的类别信息,达到用较少的图像标注量获取较高模型分类准确率的目的。本文用WSOINN获取拓扑图结构描述图像数据的空间分布,用GCN将WSOINN拓展至半监督学习,实现钢铁材料金相图的自动分类。针对收集到的贝氏体、低碳板条马氏体、高碳片状马氏体、铁素体、下贝氏体、珠光体6种类型的金相图进行实验,结果表明,本方法具有较高的准确性和适应性。

    本节首先给出WSOINN-GCN的整体框架;然后,分小节介绍各个模块:2.1节介绍图像数据特征提取;2.2节给出WSOINN算法步骤;2.3节结合金相图特征设计GCN;2.4节给出WSOINN-GCN的算法步骤。

    WSOINN-GCN模型框架如图1所示,它由3部分组成:第1部分基于迁移学习获得图像数据的特征向量集合;第2部分采用引入连接权重策略的自组织增量神经网络(WSOINN)提取特征数据的拓扑图结构,并按照节点胜利次数选择少量节点进行人工标注;第3部分搭建图卷积网络(GCN),采用交叉熵损失函数、Adam算法优化网络参数,自动标注剩余节点,最后基于欧氏距离来分类所有图像数据。

    图 1  WSOINN-GCN模型框架

    图2展示了收集自某国家重点实验室场发射扫描电子显微镜所拍摄的不同钢铁材料的微观组织图片,依次为铁素体、珠光体、贝氏体、下贝氏体、板条马氏体、片状马氏体,共2342张,图片像素大小均为221×221。

    图 2  金相图样本

    图3,本文采用在ImageNet数据集上已训练好的VGG16卷积模块提取每张金相图的特征,并对从每张金相图获得的512张特征图作全局均值池化,每张图输出一个512维的特征向量,从而得到所有金相图特征提取后的数据特征集合。

    图 3  利用VGG16卷积模块提取金相图的特征

    SOINN可获取特征数据的空间拓扑图结构,而GCN可用于挖掘巨量、稀疏、超维关联图数据的关系。为融合SOINN与GCN,本文提出引入连接权重数的自组织增量神经网络(WSOINN),并引入节点胜利次数以挑选少量节点进行人工标注。WSOINN的算法步骤如下:

    (1)初始化节点集合V={v1,v2}, v1,v2Rd;连接EN×N为空集;节点胜利次数win_times={tv1=0,tv2=0}

    (2) 接收新的输入样本ξRd,根据欧几里得范数查找V中与ξ最接近的节点s1s2,即s1=argminvnVξvn, s2=argminvnV{s1}ξvn,胜利次数加1,即ts1=ts1+1,ts2=ts2+1

    (3) 计算节点s1, s2的相似度阈值Ts1, Ts2,对节点vV,将与v连接的节点集合记为P,若P=, Tv=min,若{\boldsymbol{P}} \ne \varnothing , {T}_{\boldsymbol{v}}= \max\Vert {\boldsymbol{v}}-{\boldsymbol{v}}_{n}\Vert ,{\boldsymbol{v}}_{n} \in {\boldsymbol{P}}

    (4) 如果\left\| {{\boldsymbol{\xi}} {\rm{ - }}{{\boldsymbol{s}}_{\rm{1}}}} \right\| > {T_{{{\boldsymbol{s}}_{\rm{1}}}}}\left\| {{\boldsymbol{\xi}} {\rm{ - }}{{\boldsymbol{s}}_{\rm{2}}}} \right\| > {T_{{{\boldsymbol{s}}_{\rm{2}}}}}, {\boldsymbol{V}} = {\boldsymbol{V}} \cup \{ {\boldsymbol{\xi}} \} ,否则丢弃样本{\boldsymbol{\xi}} ,同时修正节点{{\boldsymbol{s}}_1}{{\boldsymbol{s}}_2}, {{\boldsymbol{s}}_1} = {{\boldsymbol{s}}_1} + \varepsilon (t)({\boldsymbol{\xi}} - {{\boldsymbol{s}}_1}), {{\boldsymbol{s}}_2} = {{\boldsymbol{s}}_2} + \varepsilon {\rm{'(}}t{\rm{)}}({\boldsymbol{\xi}} - {{\boldsymbol{s}}_2}),其中\varepsilon (t) = {1}/{{{t_{{{\boldsymbol{s}}_{\rm{1}}}}}}}, \varepsilon '(t) = {{{t_{{{\boldsymbol{s}}_{\rm{2}}}}}}}/{{100}}

    (5) 若{{\boldsymbol{s}}_1}{{\boldsymbol{s}}_2}无连接,{\boldsymbol{E}} = {\boldsymbol{E}} \cup \{ ({{\boldsymbol{s}}_1},{{\boldsymbol{s}}_2})\} , {w_{({{\boldsymbol{s}}_{\rm{1}}},{{\boldsymbol{s}}_{\rm{2}}})}} = 1;若有连接,{w_{({{\boldsymbol{s}}_{\rm{1}}},{{\boldsymbol{s}}_{\rm{2}}})}} = {w_{({{\boldsymbol{s}}_{\rm{1}}},{{\boldsymbol{s}}_{\rm{2}}})}} + 1

    如果{w}_{({\boldsymbol{s}}_{1},{\boldsymbol{s}}_{2})} > {W}_{\max},\;E\backslash \{({\boldsymbol{s}}_{1},{\boldsymbol{s}}_{2})\}, {{\boldsymbol{W}}_{{\rm{max}}}}为预定义值。

    (6)每学习完总样本的百分比例p,删除孤立节点,及对应的胜利次数。若样本输入未结束,则返回步骤 (2)。否则,输出图节点集合{\boldsymbol{V}}、连接集合{\boldsymbol{E}}及各个节点胜利次数。

    由上述WSOINN算法过程可知,其节点间连接权重w代表两节点间的相似性,连接权重越大则表示两节点越相似;节点胜利次数越多,表明该节点越具有代表性,越重要。

    针对金相图的半监督学习分类问题,搭建具有3层图卷积网络的GCN模型,如图4所示。N表示图结构中节点数量,每层图卷积后均接ReLU激活函数,其中第1、第2层用于特征整合与降维,输出维度分别为N×512, N×256,参数量分别为512×512, 512×256,第3层结合Softmax层用于分类,第3层输出维度为N×6,参数量为256×6。

    图 4  3层图卷积网络结构

    基于WSOINN输出的含有N个节点的图{\boldsymbol{G}} = ({\boldsymbol{V}},{\boldsymbol{E}}),用{\boldsymbol{A}} \in {{{R}}^{{{N}} \times {{N}}}}表示图节点连接关系矩阵,定义归一化的图拉普拉斯矩阵为

    {\boldsymbol{L}} = {\boldsymbol{I}} - {{\boldsymbol{D}}^{{\rm{ - }}\frac{1}{2}}}{\boldsymbol{A}}{{\boldsymbol{D}}^{{\rm{ - }}\frac{1}{2}}} (1)

    其中,{\boldsymbol{I}}为单位矩阵,{\boldsymbol{D}}为对角矩阵,{{\boldsymbol{D}}_{{\boldsymbol{ii}}}} = \displaystyle\sum {_{\boldsymbol{j}}{{\boldsymbol{A}}_{{\boldsymbol{ij}}}}} 可知{\boldsymbol{L}}为对称矩阵,对{\boldsymbol{L}}奇异值分解

    {\boldsymbol{L}} = {\boldsymbol{U}}{\boldsymbol{\varLambda}} {{\boldsymbol{U}}^{\rm{T}}} (2)

    其中,{\boldsymbol{\varLambda}} = {\rm{diag}}([{\lambda _1},{\lambda _2}, \cdots ,{\lambda _n}])为特征值对角阵,{\boldsymbol{U}} = [{{\boldsymbol{U}}_1},{{\boldsymbol{U}}_2}, \cdots ,{{\boldsymbol{U}}_n}]为特征向量正交矩阵。对于图中单个节点{\boldsymbol{x}} \in {\boldsymbol{X}},定义图傅里叶变换为{\overset{\frown} {\boldsymbol{x}}} = {{\boldsymbol{U}}^{\bf{T}}}{\boldsymbol{x}},逆变换为 {\boldsymbol{x}} = {\boldsymbol{U}}{\overset{\frown} {\boldsymbol{x}}} ,图信号频域滤波响应为{\overset{\frown} {\boldsymbol{z}}} = {{{g}}_\theta }({\boldsymbol{\varLambda}} ){\overset{\frown} {\boldsymbol{x}}} ,进行傅里叶逆变换即

    {\boldsymbol{z}} = U{g_\theta }({{{\boldsymbol{\varLambda}}}} ){{\boldsymbol{U}}^{\rm{T}}}x (3)

    式(3)即为图卷积的基本形式,其中{{{g}}_\theta }({\boldsymbol{\varLambda}} )对应为可学习的滤波函数。

    {\lambda _{{\rm{max}}}}表示为{\boldsymbol{L}}的最大特征值,令{\overset{\frown} {\boldsymbol{\varLambda}}} = \dfrac{2}{{{{{\lambda }}_{{{\max}}}}}}{\boldsymbol{\varLambda}} - {{\boldsymbol{I}}_N},采用切比雪夫多项式{{{T}}_{{k}}}来近似{{{g}}_\theta }({\boldsymbol{\varLambda}} ),即

    {{{g}}_\theta }({\boldsymbol{\varLambda}} ) \approx \sum\limits_{{{k}} = {{0}}}^{{K}} {{{{\theta }}_{{k}}}{{{T}}_{{k}}}({\overset{\frown} {\boldsymbol{\varLambda}}} )} (4)

    {\overset{\frown} {\boldsymbol{L}}} = \dfrac{2}{{{\lambda _{\max }}}}{\boldsymbol{L}} - {\boldsymbol{I}}为对应拉普拉斯矩阵缩放,结合恒等式{({\boldsymbol{U}}{{{\boldsymbol{\varLambda}}}} {{\boldsymbol{U}}^{{{\rm{T}}}}})^{{k}}} = {\boldsymbol{U}}{{{{\boldsymbol{\varLambda}}}} ^{{k}}}{{\boldsymbol{U}}^{{{\rm{T}}}}},则式(3)可近似为

    {\boldsymbol{z}} = \sum\limits_{{{k}} = {{0}}}^{{K}} {{{{\theta }}_{{k}}}{{{T}}_{{k}}}({\overset{\frown} {\boldsymbol{L}}} ){\boldsymbol{x}}} (5)

    本文中取{{K}} = 1,即只考虑节点的1阶连接信息,令归一化的{\boldsymbol{L}}最大特征值{{{\lambda }}_{{{\max}}}} = 2,则式(5)可展开并简化为

    {\boldsymbol{z}} = {\theta _0}{\boldsymbol{x}} + {\theta _1}({\boldsymbol{L}} - {{\boldsymbol{I}}_N}){\boldsymbol{x}} = {\theta _0}{\boldsymbol{x}} - {\theta _1}{{\boldsymbol{D}}^{ \frac{1}{2}}}{\boldsymbol{A}}{{\boldsymbol{D}}^{ \frac{1}{2}}}{\boldsymbol{x}} (6)

    防止模型过拟合,采用{{\theta }} = {{{\theta }}_{{0}}} = {{ - }}{{{\theta }}_{{1}}}进一步约束参数数量可得

    {\boldsymbol{z}} = {{\theta }}({\boldsymbol{I}} + {{\boldsymbol{D}}^{ - \frac{1}{2}}}{\boldsymbol{A}}{{\boldsymbol{D}}^{ - \frac{1}{2}}}){\boldsymbol{x}} (7)

    {\boldsymbol{I}} + {{\boldsymbol{D}}^{ - \frac{1}{2}}}{\boldsymbol{A}}{{\boldsymbol{D}}^{ - \frac{1}{2}}}的特征值范围为[0,2],实际使用发现该算子易发生消失梯度,采用{{\overset{\frown} {\boldsymbol{D}}} ^{ - \frac{1}{2}}}{\overset{\frown} {\boldsymbol{A}}} {{\overset{\frown} {\boldsymbol{D}}} ^{ - \frac{1}{2}}}近似算子效果更佳,其中{\overset{\frown} {\boldsymbol{A}}} = {\boldsymbol{A}} + {\boldsymbol{I}},{{\overset{\frown} {\boldsymbol{D}}} _{\boldsymbol{ii}}} =\displaystyle \sum {_{\boldsymbol{j}}{{{\overset{\frown} {\boldsymbol{A}}} }_{\boldsymbol{i}}}_{\boldsymbol{j}}}

    针对一个含有{{N}}个特征长度为{{C}}的节点的图{\boldsymbol{G}} = ({\boldsymbol{V}},{\boldsymbol{E}}), {\boldsymbol{X}} = [{{\boldsymbol{x}}_1},{{\boldsymbol{x}}_2}, \cdots ,{{\boldsymbol{x}}_n}] \in {R^{N \times C}}表示图节点信号矩阵,则对于全图{\boldsymbol{G}}的卷积操作可定义为

    {\boldsymbol{Z}} = {{\overset{\frown} {\boldsymbol{D}}} ^{ - \frac{1}{2}}}{\overset{\frown} {\boldsymbol{A}}} {{\overset{\frown} {\boldsymbol{D}}} ^{ - \frac{1}{2}}}{\boldsymbol{X}}\varTheta (8)

    其中,\varTheta \in {{{R}}^{{{C}} \times {{F}}}}为卷积核参数矩阵,{\boldsymbol{Z}}为输出节点信号,特征长度为{\boldsymbol{F}}

    基于式(8),设第{{j}}层图卷积和ReLU的操作为{{{f}}_{\boldsymbol{\varTheta}} }_{_{\boldsymbol{j}}},则针对图4所示的3层图卷积网络

    {\bf{output}} = {\rm{Softmax}}({f_{\boldsymbol{\varTheta}} }_{_3}({f_{\boldsymbol{\varTheta}} }_{_2}({f_{\boldsymbol{\varTheta}} }_{_1}({\boldsymbol{X}})))) (9)

    采用交叉熵作为损失函数,图卷积网络训练过程中只计算已标注的节点损失,即

    {\rm{LOSS}} = - \sum\limits_{i = 1}^{n = {{{N}}_{{l}}}} {{y_i}} {\bf{outpu}}{{\bf{t}}_{{i}}} (10)

    其中,{N_l}表示已标注节点数量,{y_i}表示该节点真实标签。

    结合图1中给出的模型框架,本文提出的WSOINN-GCN对图像数据自动标注及分类的算法步骤如下:

    设需要分类的N张图片集合为{\bf{Pictures}} = \{ {{\boldsymbol{I}}_1},{{\boldsymbol{I}}_2},\cdots, {{\boldsymbol{I}}_N}\}

    (1)对所有{{\boldsymbol{I}}_{\boldsymbol{i}}} \in {\bf{Pictures}}特征提取,得到特征数据集合{\bf{Ft}} = \{ {{\boldsymbol{F}}_1},{{\boldsymbol{F}}_2}, \cdots,{{\boldsymbol{F}}_N}\},其与{\bf{Pictures}}具有一一对应关系。

    (2)对原始特征数据分布进行预估,初始化WSOINN超参数{{p}}, {W_{\max}}

    (3)随机从{\bf{Ft}}选择两个特征数据初始化WSOINN节点集合{\boldsymbol{V}} = \{ {{\boldsymbol{v}}_1},{{\boldsymbol{v}}_2}\} ,并初始化节点连接集合{\boldsymbol{E}}和节点胜利次数集合{\rm{win}}\_{\rm{times}}为空集。

    (4)将所有{{\boldsymbol{F}}_{\boldsymbol{i}}} \in {\bf{Ft}}按顺序输入至WSOINN学习,得到图结构{\boldsymbol{G}},输出{\boldsymbol{V}} = \{ {{\boldsymbol{v}}_1},{{\boldsymbol{v}}_2}, \cdots, {{\boldsymbol{v}}_{\boldsymbol{m}}}\},及对应的{\boldsymbol{E}}, {\rm{win}}\_{\rm{times}} = \{ {t_1},{t_2}, \cdots, {t_m}\},由WSOINN算法可知,{\boldsymbol{V}}{\rm{win}}\_{\rm{times}}一一对应,对于任意 {\boldsymbol{v}}_{i} \in {\boldsymbol{V}},存在{{\boldsymbol{F}}_{\boldsymbol{j}}} \in {\bf{Ft}}与之对应。

    (5)根据胜利次数{{{t}}_{{i}}}值大小,按照对应关系,对所有{{\boldsymbol{v}}_{\boldsymbol{i}}} \in {\boldsymbol{V}}进行排序,得到{{\boldsymbol{V}}_{\rm{order}}}

    (6)选出{{\boldsymbol{V}}_{\rm{order}}}排序靠前一定比例的节点集合{{\boldsymbol{V}}_l},根据{\boldsymbol{V}}, {\bf{Ft}}, {\bf{Pictures}}对应关系,查看原始图片{{\boldsymbol{I}}_i},人工标注所有 {\boldsymbol{v}}_{i} \in {\boldsymbol{V}}_{l},得到{{\boldsymbol{V}}_l}的标签集合{{\boldsymbol{L}}_{\rm{labeled}}}

    (7)根据节点数量、特征维度,选择正则化方法,搭建合适多层图卷积网络GCN,其中GCN末层接Softmax用于预测节点信息。

    (8)将WSOINN输出的图{\boldsymbol{G}} = ({\boldsymbol{V}},{\boldsymbol{E}})输入至GCN预测所有节点信息,根据{\boldsymbol{V}},{{\boldsymbol{V}}_l},{{\boldsymbol{L}}_{\rm{labeled}}}统计已标注节点的误差,反向传播误差,选择合适算法优化网络参数,反复迭代直至训练误差不再降低。

    (9)将图{\boldsymbol{G}} = ({\boldsymbol{V}},{\boldsymbol{E}})输入至已训练好的GCN,得到{\boldsymbol{V}}的标签集合{\boldsymbol{L}}

    (10)对任意 {\boldsymbol{I}}_{i} \in {\bf{Pictures}}{{\boldsymbol{I}}_i}的标签为 {\boldsymbol{v}}_{j}= \underset{{\boldsymbol{v}}_{m} \in {\boldsymbol{V}}}{{\rm{argmin}}}\Vert {{\boldsymbol{F}}}_{i}-{\boldsymbol{v}}_{m}\Vert 的标签{{{L}}_{{j}}}

    由上述算法步骤可知,WSOINN在原SOINN上引入了边连接权重表示两节点相似性,从而使得图卷积神经网络GCN能够挖掘金相图之间的关系,通过引入节点胜利次数ti来选择少许具有代表性的重要节点进行人工标注,避免随机选择造成的模型不稳定,从而有机地将WSOINN与GCN结合起来,在减少人工标注的同时,实现了图像数据的高效分类。

    本节先给出WSOINN-GCN模型参数的优选方法,再比较在不同节点标注率下模型的节点标注精度及金相图分类精度,最后给出其他常见方法的对比实验结果。

    本实验硬件支持有CPU为i5-7500,4核4线程,主频3.41 GHz,内存12 GB, GPU为NVIDIA GeFore GTX 1060,显存6 GB,操作系统为win10,编程环境为spyder,Python3.7,框架平台为tensorflow。对于图卷积网络结构,采用Adam算法优化参数,初始学习率为0.01, dropout神经元失活的概率为0.5, Glorot_normal初始化参数,采用Early Stopping提前终止。统计精确率与召回率2个指标。

    WSOINN在每输入样本的百分比例{{p}}后,会删除孤立节点,会影响最终节点输出数量。节点数过多可能含有噪声节点,节点数过少不能全面反映所有样本分布,从而间接影响自动标注精度。图5表示为列举了不同{{p}}, {W_{\max }}值下,WSOINN获取拓扑图节点的数量情况,颜色越深代表产生的节点数越少,节点数最大值为865,最小值256。图6代表连接矩阵的稀疏程度(非0元素所占比例),颜色越深表示连接矩阵越稀疏,由图5图6可知,随着{{p}}, {W_{\max }}增大,节点数随之增大,连接矩阵越稠密。

    图 5  不同p, {W_{\max }}下节点数
    图 6  不同p, {W_{\max }}下连接矩阵稀疏程度

    实验收集到的金相图总样本数有2432张,用n, a分别代表WSOINN输出图的节点数和连接矩阵中非0元素个数,为保证精度同时加快运算,选择节点数为原数据量的1/10~1/6的WSOINN进一步分析。

    表1列举了节点标注率为0.3、不同p, {W_{\max }}值时模型对剩余节点的自动标注精度,其中Acc_w是按照胜利次数选择标注的结果,Acc_r是随机选择节点标注的结果。可见:

    表 1  标注率为0.3时,不同p, Wmax值下剩余节点标注精度
    {{{W}}_{{{\max}}}}, {{p}}
    20, 100%2, 10%15, 45%10, 5%4, 30%17, 70%
    n286294300308440474
    a720324734688640946
    Acc_w(%)859384908988
    Acc_r(%)708180758885
    下载: 导出CSV 
    | 显示表格

    (1)与按照节点胜利次数选择节点标注相比,随机选择节点标注导致剩余节点自动标注精度时高时低,且自动标注精度未超过前者,按照节点胜利次数选择节点标注具有稳定的优势。

    (2)无论哪种标注方式,随着节点数增多,剩余节点标注精度呈下降趋势,且在同等规模节点下,连接矩阵越稀疏(即越小),节点标注精度越高。

    根据表1,选取适合金相图分类的网络参数{{p}} = 10\% , {W_{\max }} = 2,此时节点数为{{n}} = 294, {{a}} = 324。按照节点胜利次数选择节点标注继续完成后续实验。

    为便于比较,搭建与WSOINN-GCN具有相同参数量的自组织增量-全连接神经网络(WSOINN-MLP),其将WSOINN-GCN中GCN模块替换成多层感知机 (MultiLayer Perceptron, MLP),相应的图结构输入变为单节点输入,神经元激活函数采用ReLU,其中MLP结构如图7所示。

    图 7  MLP

    表2列出了WSOINN-GCN,WSOINN-MLP在不同节点标注率、有无Dropout策略下,模型对拓扑图中剩余无标注节点的自动标注精度。可见:

    表 2  不同节点标注率情况下剩余节点自动标注精度(%)
    节点标注率(rate)WSOINN- GCNWSOINN- MLP
    有Dropout无Dropout有Dropout无Dropout
    0.183807776
    0.289888281
    0.393938684
    0.495929190
    0.593949190
    0.697999797
    0.797999997
    下载: 导出CSV 
    | 显示表格

    (1)随着节点标注率增加,两类模型的精度都会增加。WSOINN-GCN性能要优于WSOINN-MLP,当节点标注率为0.3时,前者精度可达93%,而后者仅为86%。这是因为GCN会考虑单节点的1阶邻域信息,有更强的泛化能力,而MLP训练过程一直是单节点前向传播,其无法考虑节点之间的连接性。

    (2)对于WSOINN-GCN而言,当节点标注率较低时(≤0.4),含有Dropout比未含有Dropout有更好的性能表现;当节点标注率较高时,Dropout会降低GCN自动标注精度。这是因为节点标注率低时,虽标注的节点代表性强,但图中高阶信息未完全挖掘,GCN易对已标注的节点过拟合,此时使用Dropout会增加模型的泛化能力,而当节点标注率增加时,已标注的节点有足够的全局代表性,加之GCN会获取节点1阶邻域信息,此时使用Dropout正则化方法往往会矫枉过正,降低模型性能。

    (3)对于WSOINN- MLP而言,无论节点标注率多少,使用Dropout策略能一直提高其精度。因为MLP不能考虑节点间的关联信息,易出现过拟合现象,Dropout在一定程度上能弥补这一缺陷。

    表3列举不同节点标注率下所有金相图自动分类精度;表4列举了节点标注率为0.3时,不同类别的金相图的准确率和召回率。由表4可见:(1)节点标注率越高,金相图自动分类准确率呈上升趋势,但是对于当节点标注率达到0.6时,WSOINN-GCN和WSOINN-MLP的性能均无法再提高;(2)高碳片状马氏体召回率虽高,精确率却低至74%,贝氏体精度虽高,但召回率低,存在交叉误判,原因可能是VGG16卷积层虽能暴力提取特征,但是对这种平均像素强度相近的灰度金相图,VGG16无法进一步获取到深度区分特征。

    表 3  不同节点标注率情况下所有金相图分类精度(%)
    节点标注率(rate)WSOINN-GCNWSOINN- MLP
    有Dropout无Dropout有Dropout无Dropout
    0.181817479
    0.288878180
    0.391918281
    0.492918985
    0.592928892
    0.690949092
    0.790948992
    下载: 导出CSV 
    | 显示表格
    表 4  节点标注率为0.3时,不同类别金相图的精确率与召回率(%)
    金相图类别精确率召回率
    下贝氏体9092
    低碳板条马氏体9393
    珠光体9992
    贝氏体9373
    铁素体100100
    高碳片状马氏体7497
    下载: 导出CSV 
    | 显示表格

    表5列举了选择30%比例标注,不同方法的所有图片分类精度、在相同环境下所需的训练时间及人工所需标注图像数量。针对金相图数据集,参照文献[11],搭建了深度卷积网络VGG-ICAM,标注30%的图像数据样本用于训练,预测所有样本;SOINN先用VGG16卷积模块提取特征,同VGG-ICAM标注30%样本用于拓扑学习,最后基于欧氏距离判断所有图像数据;MLP先用VGG16提取特征,然后搭建如图7所示的分类器,标注30%样本用于训练,预测所有样本;WSOINN-GCN, WSOINN-MLP用WSOINN学习所有样本后,按照胜利次数选择30%节点标注,用GCN, MLP自动标注剩余所有节点,最后基于欧氏距离分类所有图像数据。

    表 5  选择30%标注,不同方法的所有图片自动分类效果
    VGG-ICAMSOINNMLPWSOINN-GCNWSOINN-MLP
    人工标注量(张)7307307308888
    训练时间(min)240112.52.5
    分类精度(%)7439519182
    下载: 导出CSV 
    | 显示表格

    表5可见:按照选择30%标注,WSOINN-GCN, WSOINN-MLP所需的人工标注量仅为其他方案的12%;在训练时间上,相较于VGG-ICAM减少了99%,相较于SOINN, MLP虽稍微增加了训练时间,但精度大幅度提升,具有明显的优势。

    表6列举了所有图片分类精度达到90%以上,VGG-ICAM, SOINN, MLP, WSOINN-GCN, WSOINN-MLP所需的人工标注数量及训练时间。可见,WSOINN-GCN所需的人工标注量仅为VGG-ICAM的5.6%, SOINN, MLP的5.2%,且训练时间相较于VGG-ICAM大幅缩减。

    表 6  分类精度达到90%,不同方法所需的标注量及训练时间
    VGG-ICAMSOINNMLPWSOINN-GCNWSOINN-MLP
    人工标注量(张)15801702170288115
    训练时间(min)4201.51.52.52.5
    下载: 导出CSV 
    | 显示表格

    (1)针对深度学习中图像数据标注困难的问题,融合拓扑学习与图卷积理论,本文提出一种新的基于自组织增量-图卷积神经网络(WSOINN-GCN)的半监督学习方法。通过引入连接权重来改进自组织增量神经网络(WSOINN),从而提取数据图结构,并按照节点重要性指标节点胜利次数选择部分节点进行标注,进而搭建图卷积网络(GCN)挖掘图中节点的潜在联系,融合Dropout正则化手段与Adam算法对GCN进行网络参数寻优,自动标注剩余节点信息,并基于欧氏距离来自动分类金相图,结果表明该模型具有可行性。

    (2)针对从某国家重点实验室扫描电子显微镜拍摄到的钢铁材料微观组织图片样本,比较了不同节点标注率、有无Dropout 对模型的影响,结果表明:随着节点标注率增加,WSOINN-GCN与WSOINN-MLP模型的精度都会增加,且前者性能要优于后者,当节点标注率为0.3时,前者精度可达93%,而后者仅为86%;对于WSOINN-GCN而言,当节点标注率较低时(≤0.4),含有Dropout比未含有Dropout有更好的性能表现;对于WSOINN- MLP而言,无论节点标注率多少,使用Dropout策略能一直提高其精度。

    (3)与现有的人工标注或其他监督学习算法相比,本文所提出的WSOINN-GCN模型有效解决了实际应用时金相图片训练集数据人工标注困难的问题,为金相图片数据标注、分类等提供了新的解决思路。在金相图片标注量仅为VGG等传统深度学习网络的12%时,新模型比传统模型精度高,分类准确度高达91%;在达到相同的分类精度90%时,人工标注量仅为传统模型的5.6%,同时保证了效率优势。WSOINN-GCN具有自动提取数据图结构、实施半监督学习、动态调整网络结构等特性,在图片数据标注、分类等领域有理论研究价值和广阔的应用前景。

  • 图  1  行为延迟门控循环单元结构图

    图  2  共享参数向量表示网络结构

    图  3  BDSN模型结构

    图  4  商品推荐流程图

    图  5  BDSN与其它对比方法的验证集精确度指标比

    图  6  BDSN与其它对比方法的训练损失值变化情况

    图  7  行为延迟门控单元对状态值的影响

    图  8  共享网络对用户和商品嵌入表示的影响

    图  9  BDSN用户和商品侧的向量可视化

    表  1  实验数据集统计信息

    数据集用户数量商品数量样本数
    训练集67891089162435690
    验证集16641328022450
    测试集16641567021216
    下载: 导出CSV

    表  2  不同方法模型在测试集上的AUC值

    模型AUCRelaImpr(%)
    BDSN0.873837
    DREN0.845427
    DNN(BaseModel)0.77120
    WideDeep0.838224
    PNN0.840425
    GRUSN0.825820
    BD-Sep0.806412
    下载: 导出CSV
  • [1] 岳金果. 考虑消费者感知与网络效应的平台推送决策研究[D]. [硕士论文], 西南财经大学, 2019. doi: 10.27412/d.cnki.gxncu.2019.001880.

    YUE Jinguo. Research on platform recommendation under consumer perception and network effect[D]. [Master dissertation], Southwestern University of Finance and Economics, 2019. doi: 10.27412/d.cnki.gxncu.2019.001880.
    [2] JANNACH D and JUGOVAC M. Measuring the business value of recommender systems[J]. ACM Transactions on Management Information Systems (TMIS) , 2019, 10(4): 16. doi: 10.1145/3370082
    [3] 吕刚, 张伟. 基于深度学习的推荐系统应用综述[J]. 软件工程, 2020, 23(2): 5–8. doi: 10.19644/j.cnki.issn2096-1472.2020.02.002

    LV Gang and ZHANG Wei. Survey of deep learning applied in recommendation system[J]. Software Engineering, 2020, 23(2): 5–8. doi: 10.19644/j.cnki.issn2096-1472.2020.02.002
    [4] NABIZADEH A H, LEAL J P, RAFSANJANI H N, et al. Learning path personalization and recommendation methods: A survey of the state-of-the-art[J]. Expert Systems with Applications, 2020, 159: 113596. doi: 10.1016/j.eswa.2020.113596
    [5] HYUN D, PARK C, CHO J, et al. Learning to utilize auxiliary reviews for recommendation[J]. Information Sciences, 2021, 545: 595–607. doi: 10.1016/j.ins.2020.09.025
    [6] CHENG H T, KOC L, HARMSEN J, et al. Wide & deep learning for recommender systems[C]. The 1st Workshop on Deep Learning for Recommender Systems, Boston, USA, 2016: 7–10. doi: 10.1145/2988450.2988454.
    [7] COVINGTON P, ADAMS J, and SARGIN E. Deep neural networks for YouTube recommendations[C]. The 10th ACM Conference on Recommender Systems, Boston, USA, 2016: 191–198. doi: 10.1145/2959100.2959190.
    [8] ZHANG Jiang, WANG Yufeng, YUAN Zhiyuan, et al. Personalized real-time movie recommendation system: Practical prototype and evaluation[J]. Tsinghua Science and Technology, 2020, 25(2): 180–191. doi: 10.26599/TST.2018.9010118
    [9] QU Yanru, FANG Bohui, ZHANG Weinan, et al. Product-based neural networks for user response prediction over multi-field categorical data[J]. ACM Transactions on Information Systems (TOIS) , 2019, 37(1): 5. doi: 10.1145/3233770
    [10] 王娜, 何晓明, 刘志强, 等. 一种基于用户播放行为序列的个性化视频推荐策略[J]. 计算机学报, 2020, 43(1): 123–135. doi: 10.11897/SP.J.1016.2020.00123

    WANG Na, HE Xiaoming, LIU Zhiqiang, et al. Personalized video recommendation strategy based on user's playback behavior sequence[J]. Chinese Journal of Computers, 2020, 43(1): 123–135. doi: 10.11897/SP.J.1016.2020.00123
    [11] 夏永生, 王晓蕊, 白鹏, 等. 基于时序和距离的门控循环单元兴趣点推荐算法[J]. 计算机工程, 2020, 46(1): 52–59. doi: 10.19678/j.issn.1000-3428.0053659

    XIA Yongsheng, WANG Xiaorui, BAI Peng, et al. Point of interest recommendation algorithm of gated recurrent unit based on time series and distance[J]. Computer Engineering, 2020, 46(1): 52–59. doi: 10.19678/j.issn.1000-3428.0053659
    [12] 李宇琦, 陈维政, 闫宏飞, 等. 基于网络表示学习的个性化商品推荐[J]. 计算机学报, 2019, 42(8): 1767–1778. doi: 10.11897/SP.J.1016.2019.01767

    LI Yuqi, CHEN Weizheng, YAN Hongfei, et al. Learning graph-based embedding for personalized product recommendation[J]. Chinese Journal of Computers, 2019, 42(8): 1767–1778. doi: 10.11897/SP.J.1016.2019.01767
    [13] DHELIM S, AUNG N, and NING Huansheng. Mining user interest based on personality-aware hybrid filtering in social networks[J]. Knowledge-Based Systems, 2020, 206: 106227. doi: 10.1016/j.knosys.2020.106227
    [14] ZHOU Guorui, ZHU Xiaoqiang, SONG Chenru, et al. Deep interest network for click-through rate prediction[C]. The 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining, London, UK, 2018: 1059–1068. doi: 10.1145/3219819.3219823.
    [15] ZHOU Guorui, MOU Na, FAN Ying, et al. Deep interest evolution network for click-through rate prediction[C]. The AAAI Conference on Artificial Intelligence, Honolulu, USA, 2019: 5941–5948. doi: 10.1609/aaai.v33i01.33015941.
    [16] ZHENG Guanjie, ZHANG Fuzheng, ZHENG Zihan, et al. DRN: A deep reinforcement learning framework for news recommendation[C]. Proceedings of the 2018 World Wide Web Conference, Lyon, France, 2018. doi: 10.1145/3178876.3185994.
    [17] 曲朝阳, 宋晨晨, 任有学, 等. 结合用户活跃度的协同过滤推荐算法[J]. 东北电力大学学报, 2017, 37(5): 74–79. doi: 10.19718/j.issn.1005-2992.2017.05.015

    QU Zhaoyang, SONG Chenchen, REN Youxue, et al. Recommendations based on collaborative filtering by user activity[J]. Journal of Northeast Electric Power University, 2017, 37(5): 74–79. doi: 10.19718/j.issn.1005-2992.2017.05.015
    [18] 王锦坤, 姜元春, 孙见山, 等. 考虑用户活跃度和项目流行度的基于项目最近邻的协同过滤算法[J]. 计算机科学, 2016, 43(12): 158–162. doi: 10.11896/j.issn.1002-137X.2016.12.028

    WANG Jinkun, JIANG Yuanchun, SUN Jianshan, et al. A collaborative filtering algorithm based on item nearest neighbors considering user activity and item popularity[J]. Computer Science, 2016, 43(12): 158–162. doi: 10.11896/j.issn.1002-137X.2016.12.028
    [19] 司亚利, 张付志, 刘文远. 基于签到活跃度和时空概率模型的自适应兴趣点推荐方法[J]. 电子与信息学报, 2020, 42(3): 678–686. doi: 10.11999/JEIT190287

    SI Yali, ZHANG Fuzhi, and LIU Wenyuan. An adaptive point-of-interest recommendation method based on check-in activity and temporal-spatial probabilistic models[J]. Journal of Electronics &Information Technology, 2020, 42(3): 678–686. doi: 10.11999/JEIT190287
    [20] 于帅, 林宣雄, 邱媛媛. 大规模隐式反馈的词向量音乐推荐模型[J]. 计算机系统应用, 2017, 26(11): 28–35. doi: 10.15888/j.cnki.csa.006049

    YU Shuai, LIN Xuanxiong, and QIU Yuanyuan. Implicit music recommender based on large scale word-embedding[J]. Computer Systems &Applications, 2017, 26(11): 28–35. doi: 10.15888/j.cnki.csa.006049
    [21] 赵晨阳, 王俊岭. 基于隐含上下文支持向量机的服务推荐方法[J]. 通信学报, 2019, 40(9): 61–73. doi: 10.11959/j.issn.1000-436x.2019190

    ZHAO Chenyang and WANG Junling. Service recommendation method based on context-embedded support vector machine[J]. Journal on Communications, 2019, 40(9): 61–73. doi: 10.11959/j.issn.1000-436x.2019190
    [22] 潘建林, 汪彬, 董晓晨. 基于SICAS消费者行为模型的社交电商模式及比较研究[J]. 企业经济, 2020, 39(10): 37–43. doi: 10.13529/j.cnki.enterprise.economy.2020.10.005

    PAN Jianlin, WANG Bin, and DONG Xiaochen. Social e-commerce model and comparative research based on SICAS consumer behavior model[J]. Enterprise Economy, 2020, 39(10): 37–43. doi: 10.13529/j.cnki.enterprise.economy.2020.10.005
    [23] 余以胜, 韦锐, 刘鑫艳. 可解释的实时图书信息推荐模型研究[J]. 情报学报, 2019, 38(2): 209–216. doi: 10.3772/j.issn.1000-0135.2019.02.010

    YU Yisheng, WEI Rui, and LIU Xinyan. Explainable real-time book information recommendation model[J]. Journal of the China Society for Scientific and Technical Information, 2019, 38(2): 209–216. doi: 10.3772/j.issn.1000-0135.2019.02.010
    [24] TIANCHI. Inc. KDD Cup 2020 challenges for modern E-commerce platform: Debiasing[EB/OL]. https://tianchi.aliyun.com/specials/promotion/kdd2020-cn, 2020.
  • 期刊类型引用(3)

    1. 曾培益. 基于增量学习的多尺度钢材微观组织图像分类. 计算机科学. 2024(S1): 302-309 . 百度学术
    2. 沈园竣,马飞跃,谭廖嶙. 人工智能识别在金相检验中的发展现状与展望. 物理测试. 2024(03): 59-63 . 百度学术
    3. 宋秦中,胡华亮. 基于CNN算法的井下无人驾驶无轨胶轮车避障方法. 金属矿山. 2023(10): 168-174 . 百度学术

    其他类型引用(5)

  • 加载中
图(9) / 表(2)
计量
  • 文章访问数:  840
  • HTML全文浏览量:  269
  • PDF下载量:  71
  • 被引次数: 8
出版历程
  • 收稿日期:  2020-11-09
  • 修回日期:  2021-06-28
  • 网络出版日期:  2021-08-09
  • 刊出日期:  2021-10-18

目录

/

返回文章
返回