南京大学学报(自然科学), 2023, 59(6): 919-927 doi: 10.13232/j.cnki.jnju.2023.06.002

机器学习在蛋白质疏水相互作用模型研究中的应用

冯晨博, 马维强, 程润, 王骏,

南京大学物理学院,南京,210093

Application of machine learning in the study of the hydrophobic interaction model of proteins

Feng Chenbo, Ma Weiqiang, Cheng Run, Wang Jun,

School of Physics,Nanjing University,Nanjing,210093,China

通讯作者: E⁃mail:wangj@nju.edu.cn

收稿日期: 2023-09-27  

基金资助: 国家自然科学基金.  11774157.  11934008

Received: 2023-09-27  

摘要

疏水相互作用是一种十分复杂的非线性多体等效相互作用,在蛋白质折叠中发挥着主导作用,对蛋白质溶剂可及表面积(SASA)的分析是刻画该作用的重要手段.为了解决SASA解析或数值方法难以平衡计算成本和精确度的问题,将机器学习方法应用于蛋白质SASA的预测中.与传统的典型方法进行比较,该方法得到的结果,误差小了一个数量级,计算速度比解析方法提升了近两个数量级.将该方法拓展到基于蛋白质粗粒化结构的SASA预测上,也取得了良好的结果.该方法为蛋白质物理的研究提供了新的高效计算工具.

关键词: 蛋白质折叠 ; 疏水相互作用 ; 溶剂可及表面积(SASA) ; 机器学习

Abstract

Hydrophobic interaction is a nonlinear effective interaction with a highly complex many⁃body feature. This interaction plays a dominant role in protein folding. The solvent⁃accessible surface area (SASA) of proteins is a typical means to characterize this interaction. To solve the imbalance between computational cost and accuracy in the analytical or numerical methods of the SASA,in this work,we apply the machine learning method to the prediction of protein SASA. Compared with the traditional typical methods,the error is roughly one order smaller,and the calculation speed is nearly two orders faster. In addition,we extend this method to predict the SASA of proteins based on coarse⁃grained structures. Good predictions are also achieved. These results provide new efficient computational tools for the study of protein physics.

Keywords: protein folding ; hydrophobic interaction ; solvent⁃accessible surface area (SASA) ; machine learning

PDF (1299KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

冯晨博, 马维强, 程润, 王骏. 机器学习在蛋白质疏水相互作用模型研究中的应用. 南京大学学报(自然科学)[J], 2023, 59(6): 919-927 doi:10.13232/j.cnki.jnju.2023.06.002

Feng Chenbo, Ma Weiqiang, Cheng Run, Wang Jun. Application of machine learning in the study of the hydrophobic interaction model of proteins. Journal of nanjing University[J], 2023, 59(6): 919-927 doi:10.13232/j.cnki.jnju.2023.06.002

蛋白质是地球生命体系中重要的功能高分子,在新陈代谢、物质运输、形成细胞骨架、催化反应、免疫反应等过程中都发挥着积极的作用.在蛋白质结构形成过程和功能运动中,分子内相互作用是决定这些行为的核心物理要素,而在各种分子内相互作用中,疏水相互作用有十分重要的作用和意义.据估计,在单域球蛋白中,疏水相互作用占总体折叠自由能的70%~80%,这一现象启发了多种简化模型,如HP模型等,这些模型为蛋白质折叠物理理论的研究提供了基本物理基础和典型物理模型.然而,疏水相互作用不同于经典相互作用等微观相互作用,它来源于蛋白质分子与溶剂水分子的相互作用、水分子之间的相互作用以及水分子部分的熵效应,要把这些效应唯象定义为蛋白质自身自由度的函数,常用的方法是通过对所有溶剂坐标积分来定义平均力势.但事实上,在微观时间和空间尺度上,还存在来自动力学的更多复杂性.在这种情况下,蛋白质体系中的疏水相互作用一定是蛋白质原子坐标的复杂多体函数,这使得描述疏水相互作用具有内秉的复杂性,成为一件非平凡的工作,

定量刻画蛋白质⁃溶液之间相互影响的自由能函数一直是蛋白质物理研究的重要内容1-2,常见的近似模型包括连续化溶剂(Continuum Solvent)模型3和原子溶剂化参数方法4(Atomic Solvation Parameters Approach).前者用均匀可极化的连续介质代替添加进系统中的水分子来降低计算耗时,后者假设原子的自由能与其暴露在溶剂中的表面积成正比,将蛋白质的自由能写为:

G=iσiAi

其中,系数σi与原子种类有关,可以根据实验结果拟合得到.Ai为每个原子的溶剂可及表面积(Solvent⁃Accessible Surface Area,SASA)5,具体是指探针溶剂分子滚过待计算分子的范德华表面时,其球心可到达的表面,等效于将待计算分子中的每个原子半径扩大一个探针分子半径后构成的范德华表面,而探针的大小反映了溶剂的微观结构特征.目前,研究溶剂可及表面积已成为分析蛋白质体系疏水相互作用的典型手段,在蛋白质与水的相互作用中,探针水分子半径通常取1.4 Å.目前已有多种相关手段可以计算SASA,但这些方法在计算成本和精确度方面仍难以平衡,相比于力场中其他种类的相互作用,一定程度上限制了蛋白质模型的简化.因此,找到高精度和高效率的疏水相互作用(或SASA)的计算方法受到了蛋白质模型研究的广泛关注.

近年来,人工智能技术发展迅猛,其不仅在图像/视频识别6-9、自然语言分析10-13、游戏博弈14-17等经典领域发挥十分重要的作用,还在疾病诊断18-19、药物设计20-21、结构生物学22-23、材料计算24-25乃至高能物理26-27等众多领域也发挥了十分积极的作用.这归因于深度学习(深度神经网络)方法在因果推断、模型表示等方面的突出弹性,也为研究复杂多体关联提供新的手段和工具.本文尝试运用深度神经网络的方法,基于深度势能架构,以解析计算结果为标记,对SASA这一物理量进行学习,实现高精度的SASA预测,相应的计算速度也显著高于解析计算.这一模型实现了对蛋白质体系多体相互作用的重构,给出了一种准确且高效的计算手段,为提升蛋白质模拟效率提供支撑.

1 方法

监督学习是一种机器学习范式,是从成对的样本和与其相关联的标签中尝试学习一个函数,将输入的特征向量映射为输出,从而基于任意的可能输入来推断问题的答案.对于蛋白质SASA的预测问题,本文借鉴了基于深度神经网络的分子动力学模拟方案——深度势能分子动力学(Deep Potential Molecular Dynamics,DPMD)28.

1.1 模型

为了降低问题的复杂度,将蛋白质的总SASA拆分为单个原子的SASA之和,而单原子SASA的预测依赖于原子的自身性质和其近邻环境.对于每个待计算的中心原子,首先提取与其相交的所有近邻原子,并求出近邻原子与中心原子的相对坐标,保证系统的平移对称性.然后,将近邻原子按照与中心原子的距离排序,保证系统的置换对称性.最后,使用两个最近邻原子建立坐标轴的参考向量(如图1所示,图中原子jk为原子i的最近邻和次近邻原子,l为任意待旋转的近邻原子.ex,ey,ez为局域坐标系的单位向量),并通过旋转矩阵调整所有近邻原子的空间取向:

RRij,Rjk=eRijeRik-e[Rij]Rike[Rij]eRij×RikT

其中,Rij=Ri-RjRik=Ri-RkeR的作用是将 R 转化为单位向量.至此,具有平移、旋转和置换对称性的局域坐标系得以建立.在对原始坐标做整体平移、旋转或置换任意原子编号后,局域坐标系下的构型不会发生改变,对应了这些操作下不变的SASA.这压缩了原始数据的冗余,降低了势能面的维度.

图1

图1   原子i的局域坐标系示意图

Fig.1   The schematic diagram of the local coordinate related to the Atom i


最后,将旋转后的近邻坐标除以其与中心原子的距离,以分开输入角度和距离信息.据此,每个近邻原子与三条局域坐标轴夹角的余弦值、与中心原子的距离倒数以及自身半径,共计5维向量作为近邻的描述符被输入网络.为了保证输入向量定长,只有离中心原子最近的固定个数的近邻信息得到保留.图2展示了不超过一定近邻数的原子SASA之和占全部原子SASA的比例(SASA ratio)与近邻数M的关系.这一比例在近邻数小于40时快速增长,近邻数为56时对应比例已超过99%(如图中红色虚线所示),即包含更多近邻的原子SASA之和不超过数据集中所有样本SASA总和的1%,可以忽略,这反映了空间堆积的饱和性,此时即使选取更大的近邻数阈值,对SASA的影响也很小.故选取截断近邻数Mcut=56,可以兼顾信息的完整性和效率.最后,为了便于神经网络的训练,所有输入数据都被标准化,即减去平均值后再除以标准差.

图2

图2   一定近邻数以内的原子SASA之和所占比例与近邻数M的关系

Fig.2   The ratio of SASA with an assigned number of neighbors


1.2 神经网络结构和训练过程

得到的近邻信息被输入一个全连接的前馈网络,数据从输入层到输出层单向传播.该神经网络共有七个隐层,每层节点数分别为1000,500,240,120,60,

30,10,每层节点与下一层节点之间存在连接和偏置权重矩阵.数据经过权重矩阵的线性变换后,还会被施以非线性变换,以增强网络的非线性拟合能力.每层的非线性激活函数为Sigmoid.图3直观展示了SASA的预测流程和神经网络的架构.图3a展示了完整的计算过程,Ri为蛋白质中原子坐标,N为蛋白质原子个数,Rij为原子i的近邻坐标集合,j为截断近邻数,Dij为原子i的环境的描述符集合,Si为原子i的暴露面积的预测值,SASA为蛋白质总SASA的预测值.图3b更加详细地展示了每个通道中Si的计算过程.

图3

图3   SASA预测方法和神经网络架构示意图

Fig.3   Schametic diagram of SASA prediction work⁃flow (a) and the related neural network architecture (b)


网络的损失函数由两部分组成:

loss=psinglelosssingle+psumlosssum=psingle1Ni=1NAi2+psum1Ni=1NAi2
pt=plimit1-X+pstartX

psingletpsumt分别为损失函数的两项随时间t变化的系数.pt随着时间tpstart渐变到plimit.psinglestart=1000,psinglelimit=1,psumstart=1,psumlimit=1000.

比例函数Xt=rltrl0rlt为当前学习率,rl0为初始学习率.

losssingle为输出值与标签的均方误差(Mean⁃Square Error,MSE),losssum考察批次的整体误差.训练前期psingle占据主导,使权重从随机值快速拟合;训练后期psum逐渐占据主导,帮助稳定整体误差.只选用MSE作为损失函数会使网络的训练效果下降,且批次的整体误差会变得更不稳定.

训练过程中使用Adam优化器调整权重,每次从数据集中随机抽取1000个数据组成一个批次(batch)输入网络,训练100个周期.每个周期调整权重的次数为训练集的样本数除以每个批次中的样本数,即N(train dataset)/N(batch),平均每个样本在每个周期输入网络一次.此处取N(batch)=1000,约为蛋白质包含的典型原子数.学习率的初始值为1×10-3,随训练周期衰减,前50个周期内每周期衰减0.95倍,后50个周期调整为0.85倍,最终值为2.68×10-8.为了缓解模型可能的过拟合,网络应用L2权重正则化,为网络的损失函数添加了一项与权重值大小有关的惩罚:

lossregularization=pregular×weight2

使网络倾向于选择参数值分布的熵更小的简单模型,从而限制模型的复杂度.

1.3 数据集

蛋白质数据来自SCOPe (Structural Classification of Proteins Extended)数据集29-30,选用其中一个子集,其包含的蛋白质相互之间的序列相似度低于95%,既排除了相似度过高的同源序列,保障了相关数据的独立性,也避免数据集中出现过多的重复构型.SCOPe95数据集共包含30201个蛋白质,每个蛋白质包含的原子个数跨越三个数量级,大多数蛋白质的原子数约为1000个.由于氢原子的体积过小,对SASA的影响可以忽略,所以在处理数据时所有氢原子都被去除.剩余原子共4120万个,其中训练集、验证集和测试集分别占80%,10%和10%.

数据集的标签来源于ARVO工具计算的解析值1,使用相对简单的球极平面投影法31.计算时每个原子半径都增加了1.4 Å,即一个水分子的半径.大约40%的原子暴露面积为0.图4展示了单原子SASA的分布情况.相应的统计信息:SASA最小为0,最大为90.3 Å2,中位数为0.49 Å2,均值为6.95 Å2,标准差为12.5 Å2.因此,暴露面积的中位数仅为0.49 Å2.它们完全被埋在蛋白质内部,即使周围仍有空隙,水分子仍然无法与之接触.考虑到加入水分子半径后的单个原子总表面积约120 Å2,则蛋白质体系中约有6%的面积可与溶剂接触.

图4

图4   蛋白质中20万原子SASA的直方图统计

Fig.4   Histogram of atomic SASA in proteins


2 结果与讨论

2.1 模型训练

使用Nvidia RTX 2070训练约16 h后得到的学习曲线如图5所示,图中对应训练集的结果用红线表示,对应验证集的结果用蓝线表示,包括训练集和验证集的平均绝对误差Mean Absolute Error,MAE=1Ni=1NΔAi图5a)和整体误差losssum图5b).测试集中,随着训练的进行,最终MAE和整体误差分别达到0.29 Å214.8 Å2.由于验证集的整体误差抖动幅度较大,图5b应用了滑动平均,滑动窗口为10个周期,验证集MAE下降到0.294 Å2,表明网络没有出现过拟合,且曲线与训练集MAE贴合紧密.对于整体误差,训练集呈平稳下降趋势,但验证集在前期偶尔出现强烈的反弹,在后期随着psum的增大逐渐趋于平稳,与训练集相差不大,收敛于14.2 Å2.结合训练集和验证集的结果可以证明,在尝试调整网络架构和超参数的过程中没有出现对验证集的过拟合,也说明整体误差对权重的变化比MAE更敏感.

图5

图5   使用蛋白质全原子结构训练的模型的学习曲线

Fig.5   The learning curve during the training processes with all⁃atomic protein structures


2.2 对SASA的预测

利用训练得到的神经网络对蛋白质SASA进行预测.对单原子SASA的预测结果如图6所示,图6a给出了单原子SASA预测值与相应解析值的比较(蓝色散点)和线性拟合(红线),图6b为预测值的分段平均误差.可以发现,预测值与解析值的误差大致在0.5 Å2,没有随着标签值的增加而增加.

图6

图6   (a)单原子SASA的预测值和解析值对比;(b)单原子SASA预测值的平均绝对误差与SASA的关系

Fig.6   (a) The comparison between the predicted and actual SASA for a single atom,(b) the MAE of predicted atomic SASA for the cases with various atomic SASA


选取2000个蛋白质进行总SASA的预测,其包含的原子全部属于测试集,结果如图7所示.图7a给出了预测值SASApre和相应解析值SASAact的比较(蓝色散点)和线性拟合(红线),其中,S0=1 Å2图7b为预测值与相应解析值的相对误差绝对值与体系原子数N之间的关系.结果表明,预测误差的绝对值在100 Å2以内的蛋白质超过97%,测试集蛋白质的总预测值比标签平均高出约7.5 Å2,约为一个原子的平均暴露面积,说明网络的预测存在约+0.08%的整体误差.对测试集误差取绝对值后除以各自标签,得到平均相对误差:

图7

图7   (a)蛋白质总SASA的预测值SASApre和解析值SASAact的对比;(b)预测相对误差δ与原子数N的关系

Fig.7   (a) The comparison between the predicted and actual SASA for proteins,(b) the predicted relative error for the proteins with various numbers of atoms


Dprotein=12000i=12000δi=12000i=12000ΔSASAiSASAi=0.26%

且该相对误差δ与原子数N不存在相关性(如图7b所示).为了说明本方法的精确度,选取三种计算SASA的传统方法GetArea32,FreeSASA33以及御茶水女子大学提供的计算网页34,分别对33个蛋白质进行测试.结果显示,三种方法对全部测试蛋白的计算值与ARVO精确值的相对误差平均达到1.93%.因此,本方法与传统典型方法比较,误差缩小了近一个数量级.

2.3 对解折叠蛋白质的预测

以上的预测蛋白质处于天然的折叠态,为了进一步验证网络对蛋白质SASA的预测能力,将其应用到训练集中未曾出现的解折叠态蛋白质中,对测试集中被加热解折叠的三个蛋白质进行了测试,得到的结果如表1所示.比较网络对这三个蛋白在折叠态和解折叠态的预测误差,可以看出,和折叠态相比,解折叠态的蛋白质SASA都有升高,这符合折叠态是蛋白质自由能极小状态的观点.但其预测的相对误差都有显著增大,从0.5%扩大到1%左右,说明解折叠态中的原子环境与训练集中的折叠态存在较大差异,表明该网络对未曾接触的数据的可迁移性还有欠缺.

表1   折叠和解折叠态蛋白预测误差比较

Table 1  The comparison between predicted errors for folded and unfolded proteins

蛋白ID

折叠态

解析值

折叠态

预测值

相对

误差

解折叠态

解析值

解折叠态

预测值

相对

误差

dlsr4b_11837118920.459%14070142411.21%
dlssxa_784478850.523%12938130370.765%
dlu8fo2897389440.323%10577106790.965%

新窗口打开| 下载CSV


2.4 网络精度及效率

该网络的预测精度与训练集大小Nsample的关系如图8所示,其中图8a和图8b分别刻画验证集的平均绝对误差MAE和整体误差losssum图8c为测试蛋白质体系的平均相对误差Dprotein,此时的训练集容量Nsample为1万到3300万.可以发现,预测精度与训练集容量的对数呈线性关系,训练集容量每增大一个数量级,MAE大约下降0.29 Å2.

图8

图8   神经网络预测精度和训练集容量Nsample的关系

Fig.8   The relations between the predicted accuracy and the size of training set


该神经网络的预测用时与使用C语言的传统ARVO工具相比,具有极大的优势.图9对比了用两种方法计算不同原子数N的蛋白质所需的时间,其中,t0=1 s,本文提出的解析方法加速了约80倍.两种方法的时间复杂度大致都为On,但神经网络方法将复杂度的系数降低了近两个数量级.以典型的蛋白质原子数1000为例,神经网络预测用时约0.05 s.为了克服解释语言Python运算速度过慢的缺点,在建立本地坐标系时使用numba中的JIT解释器35.

图9

图9   不同方法对不同大小蛋白质SASA的预测用时对比

Fig.9   The time to calculate SASA for various sizes of proteins by different algorithms


2.5 拓展应用

除了使用全原子的蛋白构型进行SASA预测外,此方法也可应用到只有α碳原子的蛋白质结构中.α碳原子的SASA指其所属残基所有原子SASA之和SASAres.与全原子一样,同样存在大量α碳原子的暴露面积为0,即其所属残基被完全包裹在蛋白质内部.将残基按亲疏水性质分类,亲水残基的平均SASAres达到70.9 Å2,而疏水残基平均只有35.4 Å2.亲水残基中被完全埋藏在内部的仅占2.5%,而疏水残基中这一比例达到12.2%,如图10所示.图10a和图10b分别为亲水和疏水残基的情形,平均值分别为70.9 Å235.4 Å2.因此,蛋白质倾向于将疏水残基藏在内部,这也是其折叠的主要驱动力.

图10

图10   亲水残基(a)和疏水残基(b) SASAres的直方图统计

Fig.10   Histograms of SASA for the hydrophilic (a) and hydrophobic (b) residues


完整结构中的4120万个原子包含520万个α碳原子,选取18 Å范围内的α碳近邻原子的信息输入网络,除了角度、距离和半径信息外,每个近邻的残基种类也通过字典编号并输入.经过嵌入层展开后,每个种类的索引被映射到20维的向量中,并与角度、距离、半径信息连接,流入与全原子网络架构相同的全连接层.在前五个全连接层后分别插入一个Dropout层,其在网络中引入噪声,有助于降低过拟合36.典型蛋白质包含约100个残基,批次大小从全原子的1000降为100.损失函数和学习率与全原子网络相同.520万样本中,训练集占360万,验证集和测试集各80万.对2000个蛋白质进行测试,得到平均相对误差为:

DCα=12000i=12000δres,i=2.27%

个别样本的误差δres超过10%.如图11所示,图11a为预测值和相应解析值的比较(蓝色散点)和线性拟合(红线),图11b为预测值与相应解析值的相对误差绝对值与蛋白质链长Nres之间的关系.考虑到原子数与SASA本就呈明显的线性关系,给网络仅提供α碳结构还是欠缺了较多的信息.

图11

图11   (a)基于α碳结构的蛋白质总SASA预测值与解析值对比;(b)预测相对误差δres与蛋白质链长的关系

Fig.11   (a) The comparison between the predicted and actual SASA of proteins,(b) the predicted relative error for the proteins with various sizes


3 结论

深度学习的发展为研究多体相互作用带来了新范式,将神经网络方法应用到蛋白质SASA的计算是一种新尝试.本文提取单个原子环境信息并转换到满足对称性要求的局域坐标系中,将数据集输入深度神经网络,通过最小化损失函数来优化网络权重参数,使其自行学习多体相互作用.将训练稳定的网络预测的结果与使用解析工具ARVO计算的SCOPe数据集中蛋白质所含原子的各自暴露面积进行比较,发现在对单原子SASA预测时,MAE和整体误差分别为0.29 Å2和2.3%,对蛋白质SASA预测的平均相对误差为0.26%.还分别利用解析方法和神经网络方法对随机选择的蛋白质SASA(单个蛋白质包含的原子数为100~10000个)进行预测并记录所用的时间,发现和解析方法相比,在保证合理的准确度的前提下,本文提出的神经网络方法的预测速率提升近两个数量级.还对蛋白质的α碳粗粒化结构进行了SASA预测,精度比全原子下降了约一个量级,但与传统近似计算方法的精度相当,且仍能够保持较高的计算效率.因此,在利用机器学习对蛋白质全原子和粗粒化结构的SASA预测中,未来可以构建更精巧的网络拓扑,更高效地提取原子构象的重叠关系.这也为动力学模拟提供了可能的支撑,结合更多真实的物理限制,使构象沿势能面的特定方向演化.

参考文献

Buša JDžurina JHayryan Eet al.

ARVO:A Fortran package for computing the solvent accessible surface area and the excluded volume of overlapping spheres via analytic equations

Computer Physics Communications,2005165(1):59-96.

[本文引用: 2]

Yan Z QWang J.

Optimizing the affinity and specificity of ligand binding with the inclusion of solvation effect

Proteins:Structure,Function,and Bioinformatics,201583(9):1632-1642.

[本文引用: 1]

Mennucci BTomasi J.

Continuum solvation models:A new approach to the problem of solute's charge distribution and cavity boundaries

The Journal of Chemical Physics,1997106(12):5151-5158.

[本文引用: 1]

Eisenberg DMcLachlan A D.

Solvation energy in protein folding and binding

Nature,1986319(6050):199-203.

[本文引用: 1]

Lee BRichards F M.

The interpretation of protein structures:Estimation of static accessibility

Journal of Molecular Biology,197155(3):379⁃IN4.

[本文引用: 1]

Zou Z XChen K YShi Z Wet al.

Object detection in 20 years:A survey

Proceedings of the IEEE,2023111(3):257-276.

[本文引用: 1]

Huang SPapernot NGoodfellow Iet al.

Adversarial attacks on neural network policies

2017,arXiv:.

Hossain ZSohel FShiratuddin M Fet al.

A comprehensive survey of deep learning for image captioning

ACM Computing Surveys,201951(6):118.

Janai JGüney FBehl Aet al.

Computer vision for autonomous vehicles:Problems,datasets and state of the art

Foundations and Trends® in Computer Graphics and Vision,202012(1-3):1-308.

[本文引用: 1]

Young THazarika DPoria Set al.

Recent trends in deep learning based natural language processing

IEEE Computational Intelligence Magazine,201813(3):55-75.

[本文引用: 1]

Minaee SKalchbrenner NCambria Eet al.

Deep learning⁃based text classification:A comprehensive review

ACM Computing Surveys,202254(3):62.

Garbacea CMei Q Z.

Neural language generation:Formulation,methods,and evaluation

2020,arXiv:.

Tay YDehghani MBahri Det al.

Efficient transformers:A survey

ACM Computing Surveys,202355(6):109.

[本文引用: 1]

Silver DHuang AMaddison C Jet al.

Mastering the game of Go with deep neural networks and tree search

Nature,2016529(7587):484-489.

[本文引用: 1]

Silver DSchrittwieser JSimonyan Ket al.

Mastering the game of go without human knowledge

Nature,2017550(7676):354-359.

Justesen NBontrager PTogelius Jet al.

Deep learning for video game playing

IEEE Transactions on Games,202012(1):1-20.

Vinyals OBabuschkin ICzarnecki W Met al.

Grandmaster level in StarCraft II using multi⁃agent reinforcement learning

Nature,2019575(7782):350-354.

[本文引用: 1]

Bakator MRadosav D.

Deep learning and medical diagnosis:A review of literature

Multimodal Technologies and Interaction,20182(3):47.

[本文引用: 1]

De Fauw JLedsam J RRomera⁃Paredes Bet al.

Clinically applicable deep learning for diagnosis and referral in retinal disease

Nature Medicine,201824(9):1342-1350.

[本文引用: 1]

Chen H MEngkvist OWang Y Het al.

The rise of deep learning in drug discovery

Drug Discovery Today,201823(6):1241-1250.

[本文引用: 1]

Lavecchia A.

Deep learning in drug discovery:Opportunities,challenges and future prospects

Drug Discovery Today,201924(10):2017-2032.

[本文引用: 1]

Jumper JEvans RPritzel Aet al.

Highly accurate protein structure prediction with AlphaFold

Nature,2021596(7873):583-589.

[本文引用: 1]

Cramer P.

AlphaFold2 and the future of structural biology

Nature Structural & Molecular Biology,202128(9):704-705.

[本文引用: 1]

Nash WDrummond TBirbilis N.

A review of deep learning in the study of materials degradation

npj Materials Degradation,20182(1):37.

[本文引用: 1]

Agrawal AChoudhary A.

Deep materials informatics:Applications of deep learning in materials science

MRS Communications,20199(3):779-792.

[本文引用: 1]

Baldi PSadowski PWhiteson D.

Searching for exotic particles in high⁃energy physics with deep learning

Nature Communications,20145(1):4308.

[本文引用: 1]

Guest DCranmer KWhiteson D.

Deep learning and its application to LHC physics

Annual Review of Nuclear and Particle Science,2018(68):161-181.

[本文引用: 1]

Zhang L FHan J QWang Het al.

Deep potential molecular dynamics:A scalable model with the accuracy of quantum mechanics

Physical Review Letters,2018120(14):143001.

[本文引用: 1]

Fox N KBrenner S EChandonia J M.

SCOPe:Structural Classification of Proteins⁃extended,integrating SCOP and ASTRAL data and classification of new structures

Nucleic Acids Research,201442(D1):D304-D309.

[本文引用: 1]

Chandonia J MGuan LLin S Yet al.

SCOPe:Improvements to the structural classification of proteins⁃extended database to facilitate variant interpretation and machine learning

Nucleic Acids Research,202250(D1):D553-D559.

[本文引用: 1]

Hayryan SHu C KSkřivánek Jet al.

A new analytical method for computing solvent‐accessible surface area of macromolecules and its gradients

Journal of Computational Chemistry,200526(4):334-343.

[本文引用: 1]

Fraczkiewicz RBraun W.

Exact and efficient analytical calculation of the accessible surface areas and their gradients for macromolecules

Journal of Computational Chemistry,199819(3):319-333.

[本文引用: 1]

Mitternacht S.

FreeSASA:An open source C library for solvent accessible surface area calculations Version 1

Peer Review:2 approved. F1000Research,2016(5):189.

[本文引用: 1]

Center for Informational BiologyOchanomizu University.

Accessible surface area and accessibility calculation for protein

http:∥cib.cf.ocha.ac.jp/bitool/ASA/,2012.

[本文引用: 1]

Lam S KPitrou ASeibert S.

Numba:A LLVM⁃based python JIT compiler

Proceedings of the 2nd Workshop on the LLVM Compiler Infrastructure in HPC. Austin,TX,USAACM,Article No.72015.

[本文引用: 1]

Srivastava NHinton GKrizhevsky Aet al.

Dropout:A simple way to prevent neural networks from overfitting

The Journal of Machine Learning Research,201415(1):1929-1958.

[本文引用: 1]

/