论文标题:Multi-Scale Contrastive Siamese Networks for Self-Supervised Graph Representation Learning
论文作者:Ming Jin, Yizhen Zheng, Yuan-Fang Li, Chen Gong, Chuan Zhou, Shirui Pan
论文来源:2021, IJCAI
论文地址:download
论文代码:download
创新:融合交叉视图对比和交叉网络对比。
算法图示如下:
模型组成部分:
$S=sumlimits _{k=0}^{infty} theta_{k} T^{k} in mathbb{R}^{N times N}quadquadquad(1)$
这里采用 PPR kernel:
$S=alphaleft(I-(1-alpha) D^{-1 / 2} A D^{-1 / 2}right)^{-1}quadquadquad(2)$
给定修改比例 $P$ ,先随机删除 $P/2$ 的边,再随机添加$P/2$ 的边。(添加和删除服从均匀分布)
在邻接矩阵中随机选择一个节点索引作为分割点,然后使用它对原始图进行裁剪,创建一个固定大小的子图作为增广图视图。
给定特征矩阵 $X$ 和增强比 $P$,我们在 $X$ 中随机选择节点特征维数的 $P$ 部分,然后用 $0$ 掩码它们。
在本文中,将 SS、EM 和 NFM 应用于第一个视图,并将 SS+GD+NFM 应用于第二个视图。
MERIT 引入了一个孪生网络架构,它由两个相同的编码器(即 $g_{theta}$, $p_{theta}$, $g_{zeta}$ 和 $p_{zeta}$)组成,在 online encoder 上有一个额外的预测器$q_{theta}$,如 Figure 1 所示。
这种对比性的学习过程如 Figure 2(a) 所示:
其中:
参数更新策略(动量更新机制):
$zeta^{t}=m cdot zeta^{t-1}+(1-m) cdot theta^{t}quadquadquad(3)$
其中,$m$、$zeta$、$theta$ 分别为动量参数、target network 参数和 online network 参数。
损失函数如下:
$mathcal{L}_{c n}=frac{1}{2 N} sumlimits _{i=1}^{N}left(mathcal{L}_{c n}^{1}left(v_{i}right)+mathcal{L}_{c n}^{2}left(v_{i}right)right)quadquadquad(6)$
其中:
$mathcal{L}_{c n}^{1}left(v_{i}right)=-log {large frac{exp left(operatorname{sim}left(h_{v_{i}}^{1}, hat{z}_{v_{i}}^{2}right)right)}{sum_{j=1}^{N} exp left(operatorname{sim}left(h_{v_{i}}^{1}, hat{z}_{v_{j}}^{2}right)right)}}quadquadquad(4) $
$mathcal{L}_{c n}^{2}left(v_{i}right)=-log {large frac{exp left(operatorname{sim}left(h_{v_{i}}^{2}, hat{z}_{v_{i}}^{1}right)right)}{sum_{j=1}^{N} exp left(operatorname{sim}left(h_{v_{i}}^{2}, hat{z}_{v_{j}}^{1}right)right)}}quadquadquad(5) $
损失函数:
$mathcal{L}_{c v}^{k}left(v_{i}right)=mathcal{L}_{text {intra }}^{k}left(v_{i}right)+mathcal{L}_{text {inter }}^{k}left(v_{i}right), quad k in{1,2}quadquadquad(10)$
其中:
$mathcal{L}_{c v}=frac{1}{2 N} sumlimits _{i=1}^{N}left(mathcal{L}_{c v}^{1}left(v_{i}right)+mathcal{L}_{c v}^{2}left(v_{i}right)right)quadquadquad(9)$
$mathcal{L}_{text {inter }}^{1}left(v_{i}right)=-log {large frac{exp left(operatorname{sim}left(h_{v_{i}}^{1}, h_{v_{i}}^{2}right)right)}{sum_{j=1}^{N} exp left(operatorname{sim}left(h_{v_{i}}^{1}, h_{v_{j}}^{2}right)right)}}quadquadquad(7) $
$begin{aligned}mathcal{L}_{i n t r a}^{1}left(v_{i}right) &=-log frac{exp left(operatorname{sim}left(h_{v_{i}}^{1}, h_{v_{i}}^{2}right)right)}{exp left(operatorname{sim}left(h_{v_{i}}^{1}, h_{v_{i}}^{2}right)right)+Phi} \Phi &=sumlimits_{j=1}^{N} mathbb{1}_{i neq j} exp left(operatorname{sim}left(h_{v_{i}}^{1}, h_{v_{j}}^{1}right)right)end{aligned}quadquadquad(8)$
$mathcal{L}=beta mathcal{L}_{c v}+(1-beta) mathcal{L}_{c n}quadquadquad(11)$
数据集
基线实验