SE(3)-Transformers

SE(3)-Transformers: 3D Roto-Translation Equivariant Attention Networks是一篇研究如何在三维空间中实现旋转和平移等变性的深度学习网络的工作。这种网络通过结合
1、SE(3)-Transformer的计算流程
图1展示了一个用于

在第一步中,节点
在第二步中,重点在于构造
在第三步中,模型通过
在第四步中,模型利用先前计算的查询、键和值向量,通过注意力机制对邻居节点的信息进行加权聚合。具体来说,目标节点
这种注意力权重反映了目标节点
通过这种加权求和的方式,模型能够聚合邻居节点的信息,并通过注意力机制来突出对目标节点最相关的信息。这一步确保了在
2、SE(3)-Transformer的组成部分
1. 边缘注意力权重
2. 信息传递机制
3. 线性/注意力自交互层:在每个节点的邻域上执行注意力机制。
公式定义如下所示:

其中:
(1)
(2)
注意力是在每个节点的领域
(1)
(2)
实际上,如果移除注意力权重
注意力权重
公式中注意力权重
解释完注意力机制以后,再关注一下公式中关于value message的计算。这个术语来自注意力机制中的概念。在传统的注意力机制中,value是要传递的信息,而query和key用于计算注意力权重。在
上述公式的每一部分表示如下:
(1)
(2)
(3)
最后,解释一下自交互层。
3、SE(3)-Transformer小结
TFN通过将输入的三维点云或分子信息表示为张量场,并使用旋转和平移等变的神经网络来处理这些信息。它能够捕捉输入数据中的对称性,并且通过张量的不同阶数(0阶标量场、1阶矢量场等)来表示不同的物理量。其优点是能够自然地处理旋转和反射等对称性问题。在物理模拟和分子建模中表现良好,特别是在需要保持物理不变量的任务中。另一方面,TFN的计算复杂度较高,尤其是当涉及高阶张量场时。对于较大的点云数据或复杂的分子结构,训练和推理的效率可能较低。
SEGNN结合了图神经网络(GNN)和球谐函数,利用球对称性的特点来处理三维几何数据。它通过在图的每个节点上使用球谐展开,将数据映射到球面上,然后通过等变的图卷积层进行特征提取。对球对称性的有效处理使其在三维数据中表现出色。通过结合图神经网络和球谐函数,能够捕捉到节点之间复杂的几何关系。但是,与TFN类似,由于涉及球谐展开,SEGNN在实现和优化上有一定的复杂性。而且,对于非球形对称的数据,可能无法充分利用其球谐展开的优势。
3 条评论
发表回复 取消回复
作者
arwin.yu.98@gmail.com
老师您好,我是一名刚接触几何深度学习的生物系学生,之前只做过普通的分子GNN和基于描述符/分子指纹的化学预测。
我想向您请教一个问题:几何深度学习,尤其是SE3等变这种可以处理手性碳的算法,它的嵌入是否受到分子整体3D构象计算的影响?或者说,SE3中的旋转不变性,指的是分子整体的旋转,还是局部每个可旋转键的旋转?
例如,当我用rdkit生成化合物构象时,不同的随机种子会给出不同的构象,比如乙烷分子会按照6个氢相对位置的不同,而生成不一样的构象(RMSD>0)。但如果局部来看,例如一个sp3杂化的碳原子,有4个1-邻居,那么无论其具体坐标如何,在SE3不变的处理下应该都会得到同样的嵌入。
这个问题对我的意义在于,如果SE3的嵌入结果受到分子整体3D结构的影响,那么我就需要为每个化合物进行多重构象的计算,把结果bagging起来;如果SE3的嵌入不受整体3D结构的影响,我就只需要计算1个3D分子构象了。这两种情况的算力需求有很大差别。
非常抱歉我问了一个可能很基本又很长的问题,非常感谢您的关注!提前祝您春节快乐、万事如意!
SE(3)等变性主要关注的是分子整体的旋转和平移不变性。也就是说,无论分子在三维空间中如何旋转或平移,模型的输出嵌入应该是一致的。对于局部可旋转键(如乙烷中的C-C键),SE(3)等变性并不直接处理这些局部的旋转自由度。局部旋转通常是通过分子动力学或构象搜索来处理的。
如果您的任务对分子构象敏感(如蛋白质-配体相互作用预测),建议进行多重构象计算,并将结果进行bagging。这可以提高模型的鲁棒性,但计算成本较高。
如果您的任务对构象不敏感(如某些分子性质预测),可能只需要计算一个3D分子构象。这可以显著减少计算成本,但可能会忽略构象变化带来的影响。
根据您的具体任务需求,决定是否需要多重构象计算。例如,蛋白质-配体对接通常需要多重构象,而某些分子性质预测可能不需要。如果计算资源有限,可以考虑使用单一构象,并通过数据增强(如随机旋转和平移)来提高模型的泛化能力。希望这些信息对您有所帮助!
您好,我看上面的讲解中一个构型只包含1个顶点和三个相邻的点,那看上去好像更关注局部的不变性