当前位置: X-MOL 学术arXiv.cs.LO › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Formal Synthesis of Lyapunov Neural Networks
arXiv - CS - Logic in Computer Science Pub Date : 2020-03-19 , DOI: arxiv-2003.08910
Alessandro Abate, Daniele Ahmed, Mirco Giacobbe, and Andrea Peruffo

We propose an automatic and formally sound method for synthesising Lyapunov functions for the asymptotic stability of autonomous non-linear systems. Traditional methods are either analytical and require manual effort or are numerical but lack of formal soundness. Symbolic computational methods for Lyapunov functions, which are in between, give formal guarantees but are typically semi-automatic because they rely on the user to provide appropriate function templates. We propose a method that finds Lyapunov functions fully automatically$-$using machine learning$-$while also providing formal guarantees$-$using satisfiability modulo theories (SMT). We employ a counterexample-guided approach where a numerical learner and a symbolic verifier interact to construct provably correct Lyapunov neural networks (LNNs). The learner trains a neural network that satisfies the Lyapunov criteria for asymptotic stability over a samples set; the verifier proves via SMT solving that the criteria are satisfied over the whole domain or augments the samples set with counterexamples. Our method supports neural networks with polynomial activation functions and multiple depth and width, which display wide learning capabilities. We demonstrate our method over several non-trivial benchmarks and compare it favourably against a numerical optimisation-based approach, a symbolic template-based approach, and a cognate LNN-based approach. Our method synthesises Lyapunov functions faster and over wider spatial domains than the alternatives, yet providing stronger or equal guarantees.

中文翻译:

Lyapunov 神经网络的形式综合

我们提出了一种自动且形式上合理的方法来合成 Lyapunov 函数以实现自治非线性系统的渐近稳定性。传统方法要么是分析性的,需要人工操作,要么是数值型的,但缺乏形式上的合理性。介于两者之间的李雅普诺夫函数的符号计算方法提供了形式保证,但通常是半自动的,因为它们依赖于用户提供适当的函数模板。我们提出了一种方法,它使用机器学习$-$ 完全自动地找到Lyapunov 函数$-$,同时还使用可满足性模理论(SMT)提供形式保证$-$。我们采用反例引导的方法,其中数值学习器和符号验证器相互作用以构建可证明正确的 Lyapunov 神经网络 (LNN)。学习器训练一个神经网络,该网络满足样本集上渐近稳定性的李雅普诺夫准则;验证者通过 SMT 求解证明在整个域上满足标准或用反例增加样本集。我们的方法支持具有多项式激活函数和多个深度和宽度的神经网络,显示出广泛的学习能力。我们在几个非平凡的基准测试中展示了我们的方法,并将其与基于数值优化的方法、基于符号模板的方法和基于同源 LNN 的方法进行了比较。我们的方法比替代方法更快地在更宽的空间域上合成 Lyapunov 函数,同时提供更强或同等的保证。验证者通过 SMT 求解证明在整个域上满足标准或用反例增加样本集。我们的方法支持具有多项式激活函数和多个深度和宽度的神经网络,显示出广泛的学习能力。我们在几个非平凡的基准测试中展示了我们的方法,并将其与基于数值优化的方法、基于符号模板的方法和基于同源 LNN 的方法进行了比较。我们的方法比替代方法更快地在更宽的空间域上合成 Lyapunov 函数,同时提供更强或同等的保证。验证者通过 SMT 求解证明在整个域上满足标准或用反例增加样本集。我们的方法支持具有多项式激活函数和多个深度和宽度的神经网络,显示出广泛的学习能力。我们在几个非平凡的基准测试中展示了我们的方法,并将其与基于数值优化的方法、基于符号模板的方法和基于同源 LNN 的方法进行了比较。我们的方法比替代方法更快地在更宽的空间域上合成 Lyapunov 函数,同时提供更强或同等的保证。显示出广泛的学习能力。我们在几个非平凡的基准测试中展示了我们的方法,并将其与基于数值优化的方法、基于符号模板的方法和基于同源 LNN 的方法进行了比较。我们的方法比替代方法更快地在更宽的空间域上合成 Lyapunov 函数,同时提供更强或同等的保证。显示出广泛的学习能力。我们在几个非平凡的基准测试中展示了我们的方法,并将其与基于数值优化的方法、基于符号模板的方法和基于同源 LNN 的方法进行了比较。我们的方法比替代方法更快地在更宽的空间域上合成 Lyapunov 函数,同时提供更强或同等的保证。
更新日期:2020-06-25
down
wechat
bug