当前位置: X-MOL 学术J. Comput. Phys. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Symplectic neural networks in Taylor series form for Hamiltonian systems
Journal of Computational Physics ( IF 4.1 ) Pub Date : 2021-04-02 , DOI: 10.1016/j.jcp.2021.110325
Yunjin Tong , Shiying Xiong , Xingzhe He , Guanghan Pan , Bo Zhu

We propose an effective and light-weight learning algorithm, Symplectic Taylor Neural Networks (Taylor-nets), to conduct continuous, long-term predictions of a complex Hamiltonian dynamic system based on sparse, short-term observations. At the heart of our algorithm is a novel neural network architecture consisting of two sub-networks. Both are embedded with terms in the form of Taylor series expansion designed with symmetric structure. The key mechanism underpinning our infrastructure is the strong expressiveness and special symmetric property of the Taylor series expansion, which naturally accommodate the numerical fitting process of the gradients of the Hamiltonian with respect to the generalized coordinates as well as preserve its symplectic structure. We further incorporate a fourth-order symplectic integrator in conjunction with neural ODEs' framework into our Taylor-net architecture to learn the continuous-time evolution of the target systems while simultaneously preserving their symplectic structures. We demonstrated the efficacy of our Taylor-net in predicting a broad spectrum of Hamiltonian dynamic systems, including the pendulum, the Lotka–Volterra, the Kepler, and the Hénon–Heiles systems. Our model exhibits unique computational merits by outperforming previous methods to a great extent regarding the prediction accuracy, the convergence rate, and the robustness despite using extremely small training data with a short training period (6000 times shorter than the predicting period), small sample sizes, and no intermediate data to train the networks.



中文翻译:

哈密​​顿系统的泰勒级数形式的辛神经网络

我们提出了一种有效且轻量级的学习算法,辛普勒泰勒神经网络(Taylor-nets),可以基于稀疏的短期观测对复杂的哈密顿动力学系统进行连续的长期预测。我们算法的核心是由两个子网组成的新型神经网络体系结构。两者均以设计为对称结构的泰勒级数展开形式嵌入术语。支撑我们基础结构的关键机制是泰勒级数展开式的强表达性和特殊对称性,它自然地适应了哈密顿量梯度相对于广义坐标的数值拟合过程,并保留了其辛结构。我们进一步将四阶辛辛积分器与神经元ODE的框架结合到我们的泰勒网体系结构中,以学习目标系统的连续时间演化,同时保留其辛辛结构。我们证明了泰勒网络在预测广泛的哈密顿动力学系统(包括摆,洛特卡-沃尔泰拉,开普勒和赫农-海勒斯系统)中的功效。尽管使用了训练时间短(比预测时间短6000倍的极小训练数据),小样本量的样本,但我们的模型在预测准确性,收敛速度和鲁棒性方面在很大程度上优于以前的方法,从而展现出独特的计算优势,并且没有用于训练网络的中间数据。我们的泰勒网体系结构中的框架,以了解目标系统的连续时间演化,同时保留其辛结构。我们证明了泰勒网络在预测广泛的哈密顿动力学系统(包括摆,洛特卡-沃尔泰拉,开普勒和赫农-海勒斯系统)中的功效。尽管使用了训练时间短(比预测时间短6000倍的极小训练数据),小样本量的样本,但我们的模型在预测准确性,收敛速度和鲁棒性方面在很大程度上优于以前的方法,从而展现出独特的计算优势,并且没有用于训练网络的中间数据。我们的泰勒网体系结构中的框架,以了解目标系统的连续时间演化,同时保留其辛结构。我们证明了泰勒网络在预测广泛的哈密顿动力学系统(包括摆,洛特卡-沃尔泰拉,开普勒和赫农-海勒斯系统)中的功效。尽管使用了训练时间短(比预测时间短6000倍的极小训练数据),小样本量的样本,但我们的模型在预测准确性,收敛速度和鲁棒性方面在很大程度上优于以前的方法,从而展现出独特的计算优势,并且没有用于训练网络的中间数据。我们证明了泰勒网络在预测广泛的哈密顿动力学系统(包括摆,洛特卡-沃尔泰拉,开普勒和赫农-海勒斯系统)中的功效。尽管使用了训练时间短(比预测时间短6000倍的极小训练数据),小样本量的样本,但我们的模型在预测准确性,收敛速度和鲁棒性方面在很大程度上优于以前的方法,从而展现出独特的计算优势,并且没有用于训练网络的中间数据。我们证明了泰勒网络在预测广泛的哈密顿动力学系统(包括摆,洛特卡-沃尔泰拉,开普勒和赫农-海勒斯系统)中的功效。尽管使用了训练时间短(比预测时间短6000倍的极小训练数据),小样本量的样本,但我们的模型在预测准确性,收敛速度和鲁棒性方面在很大程度上优于以前的方法,从而展现出独特的计算优势,并且没有用于训练网络的中间数据。

更新日期:2021-04-09
down
wechat
bug