
在计算化学和材料科学领域,一项革命性的成果横空出世。Meta旗下的FAIR团队推出了Universal Models for Atoms(UMA)原子通用模型家族,它以5亿独特的3D原子结构作为训练数据,在速度、准确性和泛化能力上都实现了突破,为药物发现、能源存储和半导体制造等众多应用带来了新的可能。
密度泛函理论(DFT)作为现代计算化学和材料科学的基础,虽在药物发现、能源存储、半导体等诸多领域提供了深刻见解,但计算成本极高,这严重限制了其应用。
而机器学习模型有望精确近似DFT,且速度大幅提升,将计算时间从数小时缩短至不到一秒。理想情况下,这些被称为机器学习原子势(MLIPs)的模型应能在众多DFT应用任务中实现泛化。然而,训练能跨这些任务泛化的MLIPs仍是一个未解决的难题。
UMA的出现,正是为了应对这一挑战,推动速度、准确性和泛化能力的边界突破。
UMA模型在5亿个独特的3D原子结构上进行训练,这是迄今为止最大规模的训练。这些数据来自多个化学领域,如分子、材料和催化剂等,涵盖了近乎整个化学空间(放射性元素除外)。

图 1:训练数据集可视化:展示了用于训练 UMA 模型的不同数据集,包括 Open Molecules 2025(OMol25)、Open Materials 2024(OMat24)、Open Catalyst 2020(OC20)、OpenDAC 2025(ODAC25)和 Open Molecular Crystals 2025(OMC25)。2D 图呈现了每个数据集包含的元素间成对相互作用的数量,其组合几乎涵盖整个化学空间(放射性元素除外)。从图中能直观看到不同数据集的规模和元素相互作用的覆盖情况,为理解 UMA 模型训练数据的多样性和全面性提供依据,体现了大规模多领域数据对模型训练的重要性。
UMA小模型和中模型采用了一种名为“线性专家混合(mixture of linear experts)”的新颖架构设计。这种设计能在不牺牲速度的情况下增加模型容量。例如,UMA-medium拥有14亿参数,但每个原子结构仅约5000万活跃参数。

图 2:UMA 模型架构及 MoLE 相关图示:左边部分是 UMA 模型架构的概述,展示 SO2 卷积由一系列线性操作组成,且这些操作被 MoLE 替代的结构,帮助读者理解模型的基本构建模块和创新点;中间部分说明了 MoE 和 MoLE 的原理,以及用于路由的嵌入仅依赖全局信息,使得在模型前向传递前合并成为可能,这对分子动力学等应用意义重大,通过图示可以更直观地理解其工作机制;右边部分通过柱状图对比了 UMA-S 使用 MoLE 进行多任务训练和不使用 MoLE 进行单任务、多任务训练的效果,还展示了 UMA-S 在不同专家数量下的损失变化。从图中可以清晰看到 MoLE 对模型性能的提升作用,以及不同专家数量对模型损失的影响,比如随着专家数量增加,损失先显著下降后趋于平稳。
在多个领域的各种应用评估中,UMA模型表现惊人。一个未经任何微调的单一模型,性能与专业模型相当甚至更优。

UMA模型家族分为小(S)、中(M)、大(L)三种规模,各具特点,适用于不同场景:
模型 | 总参数 | 活跃参数 | 1k原子每秒推理次数 | 80GB GPU最大原子数 | 保守性 |
|---|---|---|---|---|---|
UMA-S | 1.5亿 | 600万 | 16 | 10万 + | ✓ |
UMA-M | 14亿 | 5000万 | 3 | 1万 + | ✓ |
UMA-L | 7亿 | 7亿 | 1.6 | 1k + | ✗ |
为在增加模型容量的同时保持推理效率,UMA引入了混合线性专家(MoLE)架构。 MoLE结合了一组线性专家,其表达式为(),其中每个专家k都有一组权重()和贡献()。
它为MLIPs带来了诸多优势:
为提高训练效率,UMA采用了两阶段训练方法:
这种方法既利用了直接模型训练速度快的优势,又能提供许多应用所需的能量守恒和平滑的势能面。
同时,在训练中还有诸多改进:
UMA模型在多个领域的基准测试中都展现出强大性能:
UMA模型家族通过利用近5亿个训练样本,结合数据集大小、模型容量和损失之间的缩放关系,成功训练出与任务专用模型相比具有竞争力甚至更优的模型。混合线性专家(MoLE)方法在增加模型容量的同时保持了推理效率。
尽管UMA存在长程相互作用处理、电荷和自旋整合等方面的局限性,但它的出现表明,单一模型能够在化学和材料科学的广泛应用中达到足够的精度,为通用MLIPs铺平了道路,为原子模拟开辟了新的机遇。
目前,UMA的代码、权重和相关数据已发布,将加速计算工作流程,助力社区构建更强大的AI模型。
模型地址:https://huggingface.co/facebook/UMA 代码地址:https://github.com/facebookresearch/fairchem