DeepH通用材料模型:神经网络预测材料性质的新突破

清华大学研发DeepH模型,利用神经网络精准预测材料性质,有望替代传统DFT计算,加速新材料发现。

原文标题:神经网络替代密度泛函理论!清华研究组发布通用材料模型 DeepH,实现超精准预测

原文作者:数据派THU

冷月清谈:

清华大学研究团队利用深度学习方法开发了DeepH通用材料模型,该模型可以基于材料结构预测其电子结构和性质,有望替代成本高昂的密度泛函理论(DFT)计算。

研究人员利用包含104种固体材料、超过12,000个结构的大型数据库对DeepH模型进行训练,并通过AiiDA框架进行高通量DFT计算。DeepH模型的核心思想是将DFT哈密顿量封装在神经网络中,利用局部性原则和对称性原理,根据局部结构信息预测原子间的相互作用。

测试结果显示,DeepH模型在预测DFT哈密顿量矩阵元方面的平均绝对误差仅为2.2 meV,可以准确预测能带结构等材料性质。此外,研究人员还通过微调通用模型,针对碳同素异形体进行了专门的优化,进一步提高了预测精度。

DeepH模型的出现为材料科学领域带来了新的机遇,有望加速新材料的发现和开发,降低研究成本。未来,更大的训练数据集和更先进的算法将进一步提升模型的性能。

怜星夜思:

1、DeepH 模型的预测精度已经很高了,但文中也提到数据集的偏差可能会影响模型性能。除了扩大数据集,还有什么方法可以进一步提高模型的预测精度?
2、文章中提到了微调通用模型可以提高特定材料的预测精度。那么,对于不同类型的材料,例如金属、半导体、绝缘体等,是否需要分别训练专门的 DeepH 模型?
3、DeepH 模型的出现是否意味着 DFT 计算会被完全取代?未来 DFT 计算在材料科学领域还有哪些应用场景?

原文内容

图片

本文约4000字,建议阅读8分钟

平均绝对误差仅 2.2 meV。


清华大学研究人员利用原创的深度学习密度泛函理论哈密顿量 (DeepH) 方法,发展出 DeepH 通用材料模型,并展示了一种构建「材料大模型」的可行方案,这一突破性进展为创新材料发现提供了新机遇。


在材料设计中,了解其电子结构与性质是预测材料性能、发现新材料、优化材料性能的关键。过去,业界广泛使用密度泛函理论 (DFT) 来研究材料电子结构和性质,其实质是将电子密度作为分子(原子)基态中所有信息的载体,而不是单个电子的波函数,从而将多电子体系转化为单电子问题进行求解,既简化了计算过程,又可以确保计算精度,能更准确地反映孔径分布。


然而,DFT 的计算成本极高,通常只能用于研究小尺寸的材料系统。受到材料基因组倡议的启发,科学家们开始尝试利用 DFT 构建庞大的材料数据库,虽然目前只收集到了有限的数据集,但这已经是一个了不起的开始。以此为开端,随着 AI 技术带来的全新变革,研究人员开始思考,「将深度学习与 DFT 进行结合,让神经网络深入学习 DFT 的精髓,能否带来一场革命性突破?」


这正是深度学习密度泛函理论哈密顿量 (DeepH) 方法的核心。通过将 DFT 的复杂性封装在一个神经网络中,DeepH 不仅能够以前所未有的速度和效率进行计算,而且随着训练数据的增加,其智能也在不断提升。近日,来自清华大学物理系的徐勇、段文晖研究组成功利用其原创的 DeepH 方法,发展出 DeepH 通用材料模型,并展示了一种构建「材料大模型」的可行方案,这一突破性进展为创新材料发现提供了新机遇。


相关研究以「Universal materials model of deep-learning density functional theory Hamiltonian」为题,已发表于 Science Bulletin。


论文地址:
https://doi.org/10.1016/j.scib.2024.06.011

开源项目「awesome-ai4s」汇集了百余篇 AI4S 论文解读,并提供海量数据集与工具:

https://github.com/hyperai/awesome-ai4s


通过 AiiDA 构建大型材料数据库,针对性排除磁性材料干扰


为了证明 DeepH 通用材料模型的普适性,该研究通过自动交互式基础设施和数据库 (AiiDA) 构建了一个包含 104 种固体材料的大型材料数据库。


为了展示多样化的元素组成,该研究还选择了元素周期表的前四行,从而排除掉了从 Sc 到 Ni 的过渡元素,以避免磁性材料干扰,并排除了稀有气体元素。候选材料结构则来源于 Materials Project 的数据库。除了基于元素类型进行过滤之外,候选材料在材料项目中被进一步细化为只包括那些标有「非磁性」的材料。为简单起见,在晶胞中包含超过 150 个原子的结构被排除在外。


图片

图片
通用数据集的每个结构中原子和元素数量的分布


作为这些过滤标准的结果,最终的材料数据集由总共 12,062 个结构组成。在训练过程中,数据集按 6:2:2 的比例划分为训练集、验证集和测试集。接下来,该研究利用 AiiDA(自动化交互式基础设施和数据库)的框架开发了一个高通量的工作流程来进行密度泛函理论计算,并用它来构建材料数据库。


以 DFT 哈密顿量为目标,用 DeepH-2 方法训练 DeepH


研究认为,DFT 哈密顿量 (DFT Hamiltonian) 是理想的机器学习目标。


开发能够描述材料结构-性质关系的大型材料模型的可行途径


首先,DFT 哈密顿量是可以直接从总能量 (total energy)、电荷密度 (charge density)、能带结构 (band structure)、物理响应 (physical responses) 等物理量中导出的基本量,DeepH 通用材料模型则可以接受任意材料结构作为输入,并生成相应的 DFT 哈密顿量,从而可以直接推导各种材料特性,如上图所示。


DeepH 根据局部结构信息分别学习和预测 DFT 哈密顿矩阵块的工作原理


其次,在局域原子基组下,DFT 哈密顿量可以表示为稀疏矩阵,其矩阵元由局部化学环境决定。在等变神经网络 (Equivariant neural networks) 中,DeepH 利用不同角量子数 l 标记的输出特征来表示 DFT 哈密顿量,如上图所示。因此,人们可以根据临近结构信息来建模原子对之间的哈密顿量矩阵元,而不需要对整个材料结构的 DFT 哈密顿量矩阵进行建模。这不仅大大简化了深度学习任务,而且极大地增加了训练数据量。在推理方面,一旦深度学习网络学习到足够多的训练数据,经过训练的模型就可以很好地推广到更多未被见过的新材料结构。


DeepH 的关键思想是利用神经网络来表示 HDFT。通过改变输入的物质结构,首先创建的是由 DFT 代码生成的 HDFT 训练数据,然后将这些数据用于训练神经网络。这些经过训练的网络模型随后再被用来对新的物质结构进行推理。


在这个过程中,存在两个非常重要的先验知识——其一是局部性原则,该研究在局域原子样本中表示 DFT 哈密顿量,并将哈密顿量分解为描述原子间耦合或原子内耦合的块。因此,单个训练材料结构可能对应于大量数据的哈密顿量块。此外,每个哈密顿量块可以根据局部结构的信息而不是整个结构来确定。这种简化确保了 DeepH 模型的高精度和可转移性。


其二是对称性原理,当从不同的坐标系观察时,物理定律保持不变。因此,相应的物理量和方程在坐标变换下表现出等价性。保持等价性不仅提高了数据效率,而且增强了泛化能力,这可以显著提高 DeepH 的性能。第一代 DeepH 架构通过局部坐标系简化了等价问题,并通过局部坐标的变换恢复了等价特征。第二代 DeepH 架构基于等价神经网络,名为 DeepH-E3。在此框架中,所有输入、隐藏和输出层的特征向量都是等价矢量。最近,这项工作的作者之一提出了深度学习的新一代架构 DeepH-2。在效率和准确性方面,DeepH-2 表现最优。


综上,该研究的深度学习模型 DeepH 使用 DeepH-2 方法训练,共包含 1,728 万个参数,基于 3 个等价变换块组成了可用于消息传递的神经网络,每个节点和边缘携带 80 个等价特征。材料结构的嵌入包含原子序数和原子间距离,采用高斯平滑策略,基函数的中心范围从 0.0 一直到 9.0Å。神经网络的输出特征则通过线性层传递,然后通过 Wigner-Eckart 层构建 DFT 哈密顿量。


该研究在 NVIDIA A100 GPU 上进行训练,共进行了 343 个时期,耗时 207 小时。在整个训练过程中,batch 大小固定为 1,这意味着每个 batch 包含一个材料结构。最后,初始学习率为 4×10-4,衰减速率为 0.5,衰减耐心为 20,最小选择的学习率为 1×10-5,并在学习率达到此值时停止训练。


DeepH 推理性能优异,可提供准确的能带结构预测


在训练、验证和测试集上,模型预测的密度泛函理论哈密顿量矩阵元的平均绝对误差 (MAE) 分别达到 1.45、2.35 和 2.20 meV,这表明该模型具有对未曾见过的结构进行推理的能力。



通用材料模型性能评估


在利用 104 种固体材料的大型材料数据库对 Deep-2 方法训练的通用材料模型进行性能评估时,在数据集的所有结构中,大约 80% 的材料结构具有小于平均值 (2.2 meV) 的平均绝对误差。只有 34 个结构(约占测试集的 1.4%)的平均绝对误差超过 10meV,说明该模型对主流结构有良好预测精度。


通过进一步分析数据集,模型在材料结构上的性能偏差可能是由于数据集分布偏差造成的。研究发现,数据集中包含的元素对的训练结构越多,相应的平均绝对误差就越小。这一现象可能表明深度学习通用材料模型存在「缩放法则」,即更大的训练数据集或许会提高模型性能。


DFT 计算和 DeepH 预测的结果比较


为了评估 DeepH 通用材料模型预测材料性质的准确性,该研究在计算示例时,分别使用了基于密度泛函理论 (DFT) 计算和 DeepH 预测的 DFT 哈密顿量,然后将这两种方法得到的计算结果进行了比较。结果表明,DeepH 预测的结果与 DFT 计算的结果非常接近,证明了 DeepH 在计算材料性质方面的出色预测精度。



用于研究特定材料的微调通用材料模型


在具体的应用中,该研究用微调通用材料模型对碳同素异形体进行了研究。其中,碳材料数据集来源于萨马拉碳同素异形体数据库 (SACADA),共包含 427 种具有不同原子结构的碳同素异形体。


研究人员基于此对通用材料模型进行微调,创建了一个专门针对碳材料的改进型 DeepH 模型。与无预训练模型相比,微调可以将预测 DFT 哈密顿量的平均绝对误差显著降低至 0.54 meV,还可以在少于 50% 的训练结构中实现可比较的预测精度。


此外,微调还显著改善了训练收敛,并减少了训练时间。可以说,微调有助于提高预测准确性并增强训练效率。更重要的是,微调后的 DeepH 模型在预测材料性质方面表现出了显著的优势,经过微调的模型几乎可以为所有测试结构提供准确的能带结构预测。


材料大模型风起云涌, AI4S 任重道远


以 ChatGPT 为时间起点,AI 正式进入了一个全新的「大模型时代」。这个时代的特点是利用庞大的数据集和先进的算法,训练出能够处理复杂任务的深度学习模型。在材料科学领域,这些大模型正与研究者们的智慧相结合,开启了一个前所未有的研究新纪元。这些大模型不仅能够处理和分析海量的科学数据,还能够预测材料的性质和行为,从而加速新材料的发现和开发,推动着这一领域向更高效、更精准的方向发展。


在过去的一段时间,AI for Science 正在与材料科学不断碰撞出新的火花。


立足国内,北京凝聚态物理国家研究中心 SF10 组、中科院物理研究所、中科院计算机网络信息中心共同合作,将数万个化学合成路径数据投喂给大模型 LLAMA2-7b,从而获得了 MatChat 模型,可用来预测无机材料的合成路径;电子科技大学联合复旦大学、中国科学院宁波材料技术与工程研究所,成功开发出「耐疲劳铁电材料」,在全球范围内率先攻克困扰领域内 70 多年的铁电材料疲劳问题;上海交通大学 AIMS-Lab 实验室开发出了新一代材料智能设计模型 Alpha Mat.……研究成果频出,材料创新和发现进入新时代。


放眼全球,Google 旗下的 DeepMind 开发了用于材料科学的人工智能强化学习模型 GNoME,寻找到了 38 万余个热力学稳定的晶体材料,相当于「为人类增加了 800 年的智力积累」,极大加快了发现新材料的研究速度;微软发布的材料科学领域人工智能生成模型 MatterGen,可根据所需要的材料性质按需预测新材料结构;Meta AI 与美国高校合作,开发了行业顶级的催化材料数据集 Open Catalyst Project,以及有机金属框架吸附数据集 OpenDAC……科技巨头凭借自家的技术,将材料科学领域搅动的风起云涌。


虽然与传统材料研发方式相比,人工智能为探索更广泛的材料可能性打开了大门,显著减少了与材料发现相关的时间与费用。但是,AI for Science 在材料领域还面临着可信度和有效实施的挑战,确保数据质量、识别和减轻用于训练 AI 系统的数据潜在偏差等一系列问题有待解决。这或许也意味着,要想让人工智能在材料科学领域发挥更大的作用,仍然前路漫漫。


编辑:于腾凯
校对:杨学俊



关于我们

数据派THU作为数据科学类公众号,背靠清华大学大数据研究中心,分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识,努力建设数据人才聚集平台、打造中国大数据最强集团军。




新浪微博:@数据派THU

微信视频号:数据派THU

今日头条:数据派THU

在讨论“DeepH 模型的出现是否意味着 DFT 计算会被完全取代?未来 DFT 计算在材料科学领域还有哪些应用场景?”这个问题时,我觉得 DFT 计算不会被完全取代,它仍然是更基础和可靠的理论方法。DeepH 模型的优势在于速度快,适合大规模筛选和预测,但对于一些精度要求很高的计算,DFT 仍然是不可或缺的。未来 DFT 计算可以与 DeepH 模型结合使用,优势互补,共同推动材料科学的发展。

引用一下问题:“DeepH 模型的预测精度已经很高了,但文中也提到数据集的偏差可能会影响模型性能。除了扩大数据集,还有什么方法可以进一步提高模型的预测精度?”
我觉得除了扩大数据集之外,还可以尝试改进模型结构,比如考虑更复杂的原子间相互作用,或者引入新的物理特征。另外,优化训练算法和超参数也可能会有帮助。

个人认为 DFT 计算在未来一段时间内仍然是不可或缺的。DeepH 模型的训练依赖于 DFT 数据,因此可以将 DFT 看作是 DeepH 的老师。DeepH 擅长快速预测,可以帮助我们筛选候选材料,而 DFT 则可以对筛选出来的材料进行更精确的计算和验证。所以 DeepH 和 DFT 应该是合作关系,而不是取代关系。

在讨论“文章中提到了微调通用模型可以提高特定材料的预测精度。那么,对于不同类型的材料,例如金属、半导体、绝缘体等,是否需要分别训练专门的 DeepH 模型?”这个问题的时候,我觉得可以先看看不同类型材料的数据量。如果某种类型的材料数据足够多,那么训练专门的模型肯定更好。但如果数据量不足,那还不如用通用模型微调一下,或者干脆就用通用模型,避免过拟合。

针对“DeepH 模型的预测精度已经很高了,但文中也提到数据集的偏差可能会影响模型性能。除了扩大数据集,还有什么方法可以进一步提高模型的预测精度?”这个问题,我认为可以从特征工程的角度入手。 DeepH 模型的输入特征目前主要包括原子序数和原子间距离。或许可以考虑加入其他的结构信息,例如键角、二面角、配位数等等,甚至可以尝试引入一些描述化学键性质的特征,看看能否进一步提升模型的性能。毕竟材料的性质不仅仅取决于原子种类和距离,还与原子排列方式和成键方式密切相关。

引用一下问题:“DeepH 模型的出现是否意味着 DFT 计算会被完全取代?未来 DFT 计算在材料科学领域还有哪些应用场景?”
我觉得 DeepH 模型目前还不能完全取代 DFT 计算。DFT 仍然是更基础、更可靠的方法,DeepH 模型的训练也需要 DFT 数据。未来 DFT 计算可以用于验证 DeepH 模型的预测结果,或者用于研究 DeepH 模型难以处理的复杂体系。

关于这个问题,我的想法是:理想情况下,针对不同类型的材料分别训练DeepH模型当然更好,可以提高预测精度。但是,这需要大量的计算资源和数据。实际操作中可以根据具体情况选择,如果某种材料的数据量足够大,就可以考虑训练专用模型;如果数据量有限,可以先尝试微调通用模型,或者直接使用通用模型,并评估其预测性能是否满足需求。