当前位置:
X-MOL 学术
›
PNAS Nexus
›
论文详情
Our official English website, www.x-mol.net, welcomes your
feedback! (Note: you will need to create a separate account there.)
通过优化离散损失解决物理学中的逆问题:无需神经网络即可快速准确地学习
PNAS Nexus ( IF 3.8 ) Pub Date : 2024-01-11 , DOI: 10.1093/pnasnexus/pgae005 Petr Karnakov , Sergey Litvinov , Petros Koumoutsakos
近年来,计算硬件和计算方法的进步催生了大量解决物理学中逆问题的活动。这些问题通常由偏微分方程组 (PDE) 来描述。机器学习的出现重新激发了人们对使用神经网络 (NN) 解决逆问题的兴趣。在这些工作中,PDE 的解表示为通过最小化涉及 PDE 的损失函数来训练的 NN。在这里,我们展示了如何通过部署传统的 PDE 近似而不是 NN 来将这种方法加速五个数量级。优化离散损耗 (ODIL) 的框架使用基于梯度的方法和牛顿方法最小化了 PDE 离散近似的成本函数。该框架依赖于基于网格的偏微分方程离散化,并继承了它们的精度、收敛性和守恒特性。通过采用机器学习工具进行自动区分,促进了该方法的实施。我们还提出了一种多网格技术来加速基于梯度的优化器的收敛。我们介绍了 PDE 约束优化、光流、系统识别和数据同化的应用。我们将 ODIL 与流行的物理信息神经网络方法进行了比较,结果表明它在计算速度上比它高出几个数量级,同时具有更好的准确性和收敛率。我们在涉及线性和非线性 PDE 的逆问题上评估 ODIL,包括用于流动重建问题的 Navier-Stokes 方程。ODIL 将数值方法和机器学习联系起来,为解决跨科学领域的具有挑战性的逆向问题提供了强大的工具。
"点击查看英文标题和摘要"




















































京公网安备 11010802027423号