Geometric and Physical Quantities Improve E(3) Equivariant Message Passing是另一篇研究如何通过几何和物理量来增强E(3)等变消息传递的论文。E(3) 等变性指的是在三维欧几里得空间中,模型在平移、旋转和反射变换下保持不变性。在分子模拟和其他三维数据应用中,捕捉输入数据的对称性(如平移、旋转和反射)是至关重要的。SEGNN实际上与TFN非常相似,甚至其模型计算与结构更加简单,但是SEGNN对于一些操作的术语使用与描述更加专业合理,可能在某些情况下提供了更为直观和易于理解的等变性实现方法。另一方面,TFN强调使用张量场来捕捉几何关系,而SEGNN则更多地依赖于图神经网络的结构和消息传递机制。

1、可导向特征

使用可导向向量(Steerable features)是在图神经网络中实现等变性的有效方法。这里的“可导向性”指的是是一类在特定变换下具有特定行为的特征。例如,如果一个结构被旋转,那么它的可导向特征将以已知的方式响应这次旋转。这些特征通常是在网络的设计中引入对称性和等变性原则,以确保在变换(如旋转、平移或反射)下,特征能够保留输入的对称性。简单说,可导向特征确保了特征表示的等变性,即当输入发生变换时,特征表示也会相应变换。

在SEGNN中,可导向向量的定义如下:向量\(\tilde{h}\)被定义为可导向的,这意味着它可以通过矩阵\(\boldsymbol{D}(g)\)来响应变换\(\mathrm{g}\)。例如,在三维空间中,一个欧几里得向量通过旋转矩阵\(\mathrm{R}\)进行变换,为了表示向量在变换下的行为,矩阵\(\boldsymbol{D}^{(l)}(g)\)通常是Wigner-D,根据球谐函数的定义,这些矩阵是\((2l+1)\)维的,可以作用于对应维数的向量空间。Wigner-D矩阵帮助实现了向量在旋转下的等变性,如图1所示。

图1 特征更新

图1(a)显示了一个可导向向量\(\tilde{\boldsymbol{h}}^{(l)}\)。可导向向量在不同\(\mathrm{l}\)阶的球谐函数子空间中被展开,这里\(l=0,1,2\),分别表示标量空间、向量空间和张量空间。每个子空间通过基函数\(Y_m^{(l)}\)(球谐函数)进行表示,向量的不同分量\(\left[h\right]_l^m\)与对应的阶数的球谐函数相乘,形成了这个向量的完整表达。具体来说,\(Y^{(l)}(x)\cdot Y_m^{(l)}(\cdot)\) 的运算表示在点\(\mathrm{x}\)处的球谐函数展开与基函数\(Y_{m}^{(l)}(\cdot)\)的组合。\(Y^{(l)}(x)\)是一个向量,包含所有磁量子数\(\mathrm{m}\)对应的球谐函数值,\(Y_{m}^{(l)}(\cdot)\)是具体的一个基函数,表示在某个特定模式下的值。\(Y^{(l)}(x)\)和\(Y_{m}^{(l)}(\cdot)\)的乘积表示一种分解和重构方式,将复杂函数表示为一组基函数的线性组合。这种表示在处理具有旋转对称性的系统时非常有效,能够方便地进行旋转和其他对称操作的计算。

图1(b)描述的是展示了应用旋转矩阵\(\mathrm{R}\)后向量\(\tilde{\boldsymbol{h}}^{(l)}\)的变化。每个子空间分别变换,向量的整体形态随着旋转而变化,但其基本结构和信息保持一致,体现了等变性。旋转矩阵\(\mathrm{R}\)的本质是Winger-D矩阵,Wigner-D 矩阵是对球谐函数在旋转下的变换进行描述,保证了每个分量在旋转下的正确变换行为。因此,当应用旋转矩阵\(\mathrm{R}\)时,不同阶数\(\mathrm{l}\)的子空间\(V_{l}\)内的向量部分通过相应的 Wigner-D 矩阵\(D^{(l)}(R)\)进行变换,确保向量\(\tilde{h}^{(l)}\)的每个组成部分都按照物理空间中的旋转进行相应的调整,从而维持整体向量的物理和几何含义。

这些是通过\(\mathrm{l}\)阶Wigner-D矩阵变换的向量空间,称为类型\(\mathrm{-l}\)的可导向向量空间\(V_{l}\)。一般的,将不同类型的可导向向量空间,例如\(V_{0}\)、\(V_{1}\)和\(V_{2}\)通过直和的方式(表示为\(V_{l}=V_{0}\oplus V_{1}\oplus V_{2}\))进行表示。直和(Direct Sum)是数学中一种用于组合多个向量空间的方法。当我们有两个或多个向量空间时,可以通过直和将它们组合成一个更大的向量空间。这种组合方式保证了新向量空间的维度是原始各向量空间维度的总和。直和的结果是一个更大的向量空间,可以将其理解成计算机领域对不同维度特征进行的拼接操作,其变换行为遵循组成它的各向量空间的变换规则,但整体上依然保持结构的整合性和数学的一致性。这种方法在处理需要考虑多种类型变换的问题时特别有用,比如在图神经网络中处理具有复杂对称性的数据。假设\(V_l=V_0\oplus V_1\oplus V_2\),可导向特征\(V_{0}\)、\(V_{1}\)和\(V_{2}\)的维度为[feature_dim, m_dim, m_dim],令feature_dim分别为10、5、2。根据球谐函数的定义:\(l=0\)时\(m=1\),\(l=1\)时\(m=3\),\(l=2\)时\(m=5\),因此,\(V_{0}\)的维度为[10, 1, 1],\(V_{1}\)的维度为[5, 3, 3],\(V_{2}\)的维度为[2, 5, 5],如图2所示。

图2 可导向特征图

图2可以称为可导向特征图,\(V_{0}\)子空间在矩阵中,对应于左上角的一个\(10\times10\)的块,其内部结构较为简单,因为这是标量场的表示,维度相对较小。\(V_{1}\)子空间在矩阵中表现为中间的多个\(5\times5\)的块。由于\(V_{1}\)是向量场的表示,其内部结构稍微复杂一些,展示了更多的变化模式。类似的,在矩阵的右下角是\(V_{2}\)子空间对应的块。作为更高阶的张量场表示,其维度和结构更加复杂,矩阵中的这一部分展示了更丰富的模式和变换。在图神经网络中,处理复杂对称性的数据时,直和矩阵提供了一种有效的方法来分解和组合特征。这种方法可以提升网络在捕捉和处理多维度、多类型特征时的能力。

2、可导向多层感知机

在可导向特征的框架下,可以设计多层感知器来操作这些可导向的向量空间,实现对任意类型可导向向量空间的变换处理。对比传统的多层感知器,每层的操作通常可以表示为:

\(y=Wx+b\)

其中,\(\mathrm{x}\)是输入向量,\(\boldsymbol{W}\)是权重矩阵,\(\boldsymbol{b}\)是偏置向量,而\(\boldsymbol{y}\)是输出向量。这种结构很简单,主要关注输入和输出之间的线性关系及其非线性变换(通过激活函数,在公式中被简化,未在公式中显示)。

而在Steerable MLP中,操作不仅涉及线性变换,还要保持对特定群(如旋转群\(SO(3)\))的等变性。这意味着网络必须在变换输入时保持其输出相对于这些变换的一致性。Steerable MLP通常使用球谐函数和Clebsch-Gordan系数来实现这种等变性。

具体来说,在Steerable MLP中,输入向量\(x\in\mathbb{R}^3\)首先被转换成的可导向向量\(\hat{a}^{(l)}\)。这是通过球谐函数嵌入来完成的,如下:

\(\hat{a}^{(l)}=\left(Y_{-l}^l(x),Y_{-l+1}^l(x),...,Y_l^l(x)\right)^T\)

其中,\(Y_m^l(x)\)是应用于\(\mathrm{x}\)的球谐函数,用于捕捉\(\mathrm{x}\)在球面上的方向性特征。这个嵌入的向量\(\hat{a}^{(l)}\)作为模型第一层的输入,即\(\hat{h}_0=\hat{a}^{(l)}\)作为网络的初始输入,之后网络的每一层可以通过以下方式计算:

\(\hat{\boldsymbol{h}}_i=\sigma{\left(\hat{\boldsymbol{W}}_i\hat{\boldsymbol{h}}_{i-1}+\boldsymbol{b}_i\right)}\)

其中:

(1) \(\hat{\boldsymbol{h}}_i\)是第\(\mathrm{i}\)层的输出。

(2) \(\hat{W}_i\)是调整以保持等变性的权重矩阵。

(3) \(\boldsymbol{b}_{i}\)是偏置向量。

(4) \(\sigma\)是非线性激活函数。

在这种情况下,保持等变性的关键是如何定义 \(\hat{W}_i\)。对于Steerable MLP来说,\(\hat{W}_i\)不仅仅是常规的线性映射,而是需要满足等变性条件。这通常意味着\(\hat{W}_i\)的构造依赖于如Clebsch-Gordan系数这样的结构,以确保在进行线性变换时保持输入向量的变换特性。CG系数的介绍详见TFN网络,结合CG系数的Steerable MLP公式表示如下:

\(\hat{\boldsymbol{h}}_i=\sigma\left(\sum_{l_1,l_2}C_{l_1,l_2}^{l,m}\hat{\boldsymbol{W}}_{i-1}^{l_1,l_2}\hat{\boldsymbol{h}}_{i-1}^{(l_1)}\otimes\hat{\boldsymbol{h}}_{i-1}^{(l_2)}+\boldsymbol{b}_{i-1}\right)\)

其中:

(1)\(C_{l_1,l_2}^{l,m}\)是Clebsch-Gordan系数,用于调整来自前一层的不同\(l_{1}\)和\(l_{2}\)类型的可导向向量的组合。

(2)\(\hat{W}_i^{l_1,l_2}\)对应\(l_{1}\),\(l_{2}\)类型输入的特定权重,是可学习的参数。

(3) \(⊗\)表示适当的张量乘积,以保持变换的等变性。

对比TFN模型中使用的点卷积来说,点卷积是在特定的邻域内对输入特征进行局部聚合的一种方式,确保了输出对旋转的等变性。这种方法特别强调了在局部邻域内的特征交互,以此模拟传统卷积网络中的卷积操作。其中的关键是局部性原则,即只计算每个点及其近邻的信息。相比之下,Steerable MLP在计算方式上与点卷积是相同的,只是计算范围不仅限于局部邻域。Steerable MLP可以被看作是一种在全局特征表示上实施旋转等变性的方法,与点卷积相比,其并不局限于邻域内的计算。因此,如果数据的属性特征主要在局部邻域中体现,那么点卷积的处理结果会更好。反之,Steerable MLP提供了一种更为灵活的方式来在任何层次上整合旋转等变性,而不仅仅是在局部操作中。

最后给出\(\sum_{l_{1},l_{2}}C_{l_{1},l_{2}}^{l,m}\hat{\boldsymbol{W}}_{i-1}^{l{1},l_{2}}\hat{\boldsymbol{h}}_{i-1}^{(l{1})}\otimes\hat{\boldsymbol{h}}_{i-1}^{(l{2})}\)更详细的公式解释:

\(\tilde{\boldsymbol{h}}^{(l_{1})}\otimes_{\mathrm{CG}}\tilde{\boldsymbol{h}}^{(l_{2})}(l)=\sum_{l_{1},l_{2}}C_{l_{1},l_{2}}^{l,m}\hat{\boldsymbol{W}}_{i-1}^{l_{1},l_{2}}\hat{\boldsymbol{h}}_{i-1}^{(l_{1})}\otimes\hat{\boldsymbol{h}}_{i-1}^{(l_{2})}=w\sum_{m_{1}=-l_{1}}^{l_{1}}\sum_{m_{2}=-l_{2}}^{l_{2}}C\left(l_{1},m_{1}\right)\left(l_{2},m_{2}\right)(l,m)\tilde{\boldsymbol{h}}_{m_{1}}^{(l_{1})}\tilde{\boldsymbol{h}}_{m_{2}}^{(l_{2})}\)

如上述公式描述,对于给定的两个可导向向量\(\tilde{\boldsymbol{h}}(l_{1})\)和\(\tilde{\boldsymbol{h}}(l_{2})\),首先选定它们各自的分量\(\tilde{h}_{m_1}^{(l_1)}\)和\(\tilde{h}_{m_2}^{(l_2)}\)。这些分量是通过\(m_{1}\)和\(m_{2}\)的索引访问的,其中\(m_{1}\)从\(-l_{1}\)到\(l_{1}\)变化,\(m_{2}\)从\(-l_{2}\)到\(l_{2}\)变化。对于每一对\(m_{1}\)和\(m_{2}\),计算与之对应的CG系数\(C\left(l_1,m_1\right)(l_2,m_2)(l,m)\)。这些系数是预先计算好的,通常存储在表格或通过专门的算法实时计算。将每一对分量\(\tilde{\boldsymbol{h}}_{m_1}^{(l_1)}\)和\(\tilde{h}_{m_2}^{(l_2)}\)相乘,并将结果乘以相应的CG系数\(C\left(l_1,m_1\right)(l_2,m_2)(l,m)\)。对所有\(m_{1}\)和\(m_{2}\)的组合执行求和操作,将每个乘积累加。加权因子\({\mathcal{W}}\)应用于整个求和结果,用于调整整体张量积的比例。最终结果\(\tilde{\boldsymbol{h}}^{(l_1)}\otimes_{\mathrm{CG}}\tilde{\boldsymbol{h}}^{(l_2)}(l)\)是一个新的特征向量。在几何图神经网络中, 和 可以被视为节点的特征向量,而操作结果 可以视为节点在信息传递后的新特征向量,这可以用于节点状态的更新。具体来说,在信息传递阶段,这种计算可以描述节点间如何交互,特别是如何将邻接节点的信息合成到当前节点的状态中。在节点\(\mathrm{i}\)和其邻居\(\mathrm{j}\)之间的信息交互可能就是通过这样的CG系数耦合来实现的,这有助于网络捕捉到旋转和其他对称性相关的特性。

3、基于可导向特征的节点信息表示

在SEGNN中,特征构建侧重于结合节点间的几何信息以及节点本身的特征。SEGNN通过整合两个节点的特征并结合它们之间的距离信息来构建节点的消息向量:

\(\tilde{\boldsymbol{v}}_{ij}^{(L)}=\tilde{\boldsymbol{v}}_i^{(L)}\oplus\tilde{\boldsymbol{v}}_j^{(L)}\oplus\left[\left\|\widetilde{\boldsymbol{x}}_{ij}\right\|^2\right]\)

其中:

(1)\(\tilde{\nu}_i^{(L)}\)和\(\tilde{\nu}_j^{(L)}\)分别是节点\(\mathrm{i}\)和其邻居节点\(\mathrm{j}\)的可导向特征。

(2)\(\tilde{x}_{ij}=\tilde{x}_i-\tilde{x}_j\)是节点\(\mathrm{i}\)和\(\mathrm{j}\)之间的向量差,即径向向量。

(3)\(\left[\left|\tilde{x}_{ij}\right|^2\right]\)是节点间距离的平方,作为一个特征加入到节点对的特征向量中。

(4)\(⊕\)表示沿特征通道进行的连接操作。

而在TFN的介绍中,其可导向特征的构建主要通过以下步骤完成:

(1)选择中心点:确定用于聚合信息的中心点。

(2)向量计算:对每个邻居点,计算从中心点到邻居点的向量\(\mathbf{r}\)。

(3)向量规范化:将向量规范化到单位向量\(\hat{\boldsymbol{r}}\),并计算其长度\(\mathrm{r}\)。

(4)应用球面谐函数:使用球面谐函数\(Y_{m}^{(l_{f})}(\hat{r})\)捕捉中心点与邻居之间的角度关系。

(5)编码距离信息:使用函数\(R_c^{l_f,l_i}(r)\)来编码距离信息,使不同距离的点产生不同的影响力。

(6)定义卷积核:构造卷积核\(F_{crm}^{\left(l_f,l_i\right)}(r)=R_c^{l_f,l_i}(r)\boldsymbol{Y}_m^{\left(l_f\right)}(\hat{\boldsymbol{r}})\),综合距离信息和角度关系,使用该核聚合邻居的信息,形成新的中心点特征向量。

对比之下,SEGNN构建特征的方式更加朴素,通过直接连接节点特征和几何距离信息进行消息传递,这种朴素的特征构建方式更加的灵活易扩展。

第一小节中介绍了使用Winger-D矩阵和CG系数进行Steerable MLPs的特征更新,下面对其细节进行解释说明,如图3所示。

图3 特征更新

图3(a)显示了一个可导向向量\(\tilde{h}^{(l)}\),这种向量在不同的子空间\(V_{l}\)中被展开,这里\(l=0,1,2\)。每个子空间通过基函数\(Y_m^{(l)}\)(球谐函数)进行表示,球谐函数用于在三维空间中表达点的方向特性。它们对旋转具有良好的数学特性,使得在进行旋转操作时能够精确地控制和预测向量的变化。向量的不同分量\([h]_l^m\)与对应的基函数相乘,形成了这个向量的完整表达。具体来说,向量的不同分量\([h]_l^m\)实际上是标量系数,它们与相应阶数和序数的球谐函数\(Y_m^{(l)}\)相乘。这样,可导向向量的每个组成部分可以写为\([h]_l^mY_m^{(l)}\)。这种形式的向量表示,通过将每个分量乘以对应的球谐函数,不仅保留了向量的原始信息,而且通过球谐函数的特性,这些向量的表示自然地适应了旋转变换,整个可导向向量\(\tilde{h}^{(l)}\)的完整表达是所有这些乘积的总和。

4、SEGNN的模型结构与计算方式

SEGNN模型可以看作TFN模型的改进,主要改进点在TFN的点卷积操作上,下面先总结一下TFN模型,再引出SEGNN的模型结构与其计算方式。

TFN的消息传递过程可以表示为以下三个步骤。

1、信息传递与更新:

\(\boldsymbol{M}_{ij}^{(L)}=\boldsymbol{Y}^{(L)}\left(\frac{\boldsymbol{x}_{ij}}{\|\boldsymbol{x}_{ij}\|}\right)\otimes_{\boldsymbol{W}_{\mathrm{cg}}}\boldsymbol{V}_{j}^{(L)}\)

其中,\(x_{ij}=x_i-x_j\)是节点\(\mathrm{i}\)和节点\(\mathrm{j}\)之间的径向向量,\(\boldsymbol{W}\)中的元素由径向多层感知机(MLP)\(f(\begin{Vmatrix}x_{ij}\end{Vmatrix})\)根据节点间的距离\(\left|x_{ij}\right|\)生成,这里\(x_{i}\)固定为输入数据的初始坐标。滤波器函数\(Y^{(L)}\)用于调整径向向量的方向特性,\(\otimes_{W_{\mathrm{cg}}}\)表示带有权重\(W_{\mathrm{cg}}\)的张量积操作。每个节点\(\mathrm{j}\)的特征向量表示为\(V_{j}^{(L)}\),并且在卷积操作中被用于更新节点\(\mathrm{i}\)的信息,每个节点的更新通过包括聚合在内的一系列操作来实现:

\(U_i^{(L)}=V_i^{(L)}+\sum_{j\in\mathcal{N}(i)}M_{ij}^{(L)}\)

其中,\(U_i^{(L)}\)表示第\(\text{L}\)层中节点\(\mathrm{i}\)的更新特征向量;\(V_{i}^{(L)}\)表示第\(\text{L}\)层中节点\(\mathrm{i}\)的初始特征向量;\(\mathcal{N}(i)\)是节点\(\mathrm{i}\)的邻居集合。

上述公式将来自邻居的信息\(\begin{pmatrix}\widetilde{\boldsymbol{M}}_{ij}^{(L)}\end{pmatrix}\)聚合到当前节点特征\(\tilde{V}_i^{(L)}\)上。

2、自我交互:

\(\widetilde{V}_i^{(L)}=\left\{U^{(l)}W^{(l)}\right\}_{l\in L}\)

其中,\(W^{(l)}\)是可学习的通道混合矩阵,用于不同类型\(\mathrm{l}\)的特征之间的线性转换。

3、节点非线性:

\(\widetilde{\boldsymbol{V}}_i^{(L)}=\left\{\widetilde{\boldsymbol{V}}_i^{(l)}\sigma\left(\left\|\widetilde{\boldsymbol{V}}_i^{(l)}\right\|_2+b^{(l)}\right)\right\}_{l\in L}\)

其中,\(\sigma\)是激活函数(如ReLU或Sigmoid),用于引入非线性并处理归一化后的特征向量的模长,非线性的计算结果\(\sigma\left(\left|\widetilde{\boldsymbol{V}}_i^{(l)}\right|_2+b^{(l)}\right)\)可以看作缩放因子,对节点\(\widetilde{V}_i^{(l)}\)进行缩放。

对比TFN模型,SEGNN的主要区别是在第一步,具体来说是引入了门控向量并增加的层级结构,门控机制普遍运用在长短期记忆网络LSTM模型中,用于控制信息流,特别是在处理复杂输入模式或需要精细管理信息传递的任务中。门控机制可以动态地调节网络中不同部分的信息权重,从而允许网络学习如何选择和利用最有用的信息,公式如下:

\(\boldsymbol{V}_{ij}^{(\mathrm{L})},\boldsymbol{g}_{ij}=\boldsymbol{Y}^{(\mathrm{L})}\left(\frac{\boldsymbol{x}_{ij}}{\left\|\boldsymbol{x}_{ij}\right\|}\right)\otimes_{\mathrm{cg}}^{\boldsymbol{W}}\boldsymbol{V}_{j}^{(\mathrm{L})}\)

\(\boldsymbol{M}_{ij}^{(\mathrm{L})}=\mathrm{~Gate~}\left(\boldsymbol{V}_{ij}^{(\mathrm{L})},\mathrm{Swish}\left(\boldsymbol{g}_{ij}\right)\right)\)

其中,\(\mathbf{g}_{ij}\)作门控机制中控制信息流的控制因子。具体来说,当使用CG系数来进行目标点\(\mathrm{i}\) 和其邻居\(\mathrm{j}\)的信息交互时,输出包括了不同阶数的不可约表示(irreps)。这些irreps的阶数\(\mathrm{l}\)表示它们的旋转对称特性,阶数为0的irreps是标量(没有方向性),它们不变于坐标系的旋转。更高阶数的irreps包含方向信息,如向量(\(l=1\))、张量(\(l=2\))等。通过CG张量乘积合成的不同阶数的irreps可用于编码节点间的复杂空间关系。这里将阶数为0的irreps (即标量 irreps)用作门控机制中的调制项\(\boldsymbol{g}_{ij}\)。因为它们是标量,不引入与方向相关的复杂性。这些标量通过激活函数Swish进行处理得到的结果被称为门控向量。Gate()函数具体地实现了如何将门控向量\(\mathrm{Swish}(\boldsymbol{g}_{ij})\)与特征向量\(V_{ij}^{(\mathrm{L})}\)相结合,来决定信息的流动与保留的程度。通常,这可以是一个简单的乘法操作。

另一方面,SEGNN增加了层级结构来扩展模型的拟合能力,其更新公式为:

\(\boldsymbol{V}_j^{(\mathrm{L})},\boldsymbol{g}_i=\left(\sum_{j\in\mathcal{N}_i}\boldsymbol{Y}^{(\mathrm{L})}\left(\frac{\boldsymbol{x}_{ij}}{\left\|\boldsymbol{x}_{ij}\right\|}\right)\right)\otimes_{\mathrm{cg}}^{\boldsymbol{W}_2}\left(\boldsymbol{V}_i^{(\mathrm{L})}+\sum_{j\in\mathcal{N}_i}\boldsymbol{M}_{ij}^\mathrm{L}\right)\)

\(V_i^{\prime(\mathrm{L})}=V_i^{(\mathrm{L})}+\mathrm{Gate}\left(V_i^{(\mathrm{L})},\mathrm{Swish}(\boldsymbol{g}_i)\right)\)

对比之下,\(V_{i}^{(\mathcal{L})}+\sum_{j\in\mathcal{N}{i}}\boldsymbol{M}_{ij}^{\mathcal{L}}\)是TFN和SEGNN两个模型相同的地方,都是从邻居节点聚合信息的逻辑。在SEGNN中,引入的额外部分\(\left(\sum_{j\in\mathcal{N}{i}}\boldsymbol{Y}^{(\mathrm{L})}\left(\frac{\boldsymbol{x}_{ij}}{\left|\boldsymbol{x}_{ij}\right|}\right)\right)\otimes{\mathrm{cg}}^{\boldsymbol{W}_{2}}\)和\(V_i^{\prime(\mathrm{L})}=V_i^{(\mathrm{L})}+\mathrm{Gate}\left(V_i^{(\mathrm{L})},\mathrm{Swish}(\boldsymbol{g}_i)\right)\)实际上是对聚合后的信息再经过一次SEGNN的第一步,即CG系数的特征融合与门控机制的特征选择。堆叠层次结构可以增强模型的表达能力,使其能够更好地拟合复杂的数据模式,解决更为复杂的问题。通过引入多层结构和门控机制,SEGNN 能够在聚合信息的同时,灵活地选择和控制特征的传递,避免信息过度平滑或丢失重要细节。这种设计使得 SEGNN 在处理具有复杂几何结构的数据时表现出色,适用于需要高精度特征提取和建模的任务。

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

作者

arwin.yu.98@gmail.com

相关文章

LEFTNet

1、三种图同构问题 图同构问题是图论中的一个...

读出全部

ClofNet

1、局部坐标系 ClofNet的作者指出,在...

读出全部